G7 Industria

G7 Industria: come usare l’IA per ottimizzare i processi produttivi di PMI e micro imprese?

348 0

Il G7 a guida Italia continua ad affrontare i temi dell’intelligenza artificiale e le nuove tecnologie per il mondo imprenditoriale : dopo i richiami ai rapporti fra nuove tecnologie e mondo del lavoro nel G7Lavoro, arriva dal G7 Industria un Rapporto della presidenza italiana che contribuisce a comprendere come l’Intelligenza Artificiale possa essere utilizzata al meglio da micro, piccole e medie imprese per ottimizzare i processi aziendali, analizzando anche i possibili ostacoli e i rischi correlati.

Fra questi spuntano anche richiami alla sicurezza sul lavoro

G7 Industria: i temi trattati

Durante il G7 Industria si è lungamente discusso su come adottare l’Intelligenza artificiale e le tecnologie emergenti per rendere più competitivi i processi industriali nelle micro, piccole e medie imprese, valutandone al contempo i rischi e le opportunità

“Il cambiamento in atto nei processi produttivi dobbiamo abbracciarlo; abbiamo la responsabilità di accompagnarlo, consapevoli delle sfide e delle potenzialità. Non possiamo correre il rischio che l’accelerazione tecnologica in atto lasci indietro le micro, piccole e medie imprese. È una sfida economica, sociale e una responsabilità politica”, ha dichiarato il ministro Adolfo Urso.

Secondo il ministro dell’Innovazione, Scienza e Industria canadese, François-Philippe Champagne, l’Ia rappresenti un cambiamento epocale trasformativo per tutti i settori che però non offre solo opportunità ma anche rischi significativi.

Dall’America, il Segretario al Commercio Usa, Gina Raimondo ha rimarcato la necessità di creare standard di sicurezza nel campo dell’Ia scrivendo norme in collaborazione con i Paesi che condividono gli stessi valori. E Margrethe Vestager, vicepresidente esecutiva della Commissione europea, ha sottolineato l’importanza della regolamentazione dell’Intelligenza artificiale europea con l’AI-Act.

A chiusura del vertice la presentazione del Rapporto della presidenza italiana G7 che contribuisce a comprendere come l’Intelligenza Artificiale possa essere utilizzata al meglio da micro, piccole e medie imprese per ottimizzare i processi aziendali, analizzando anche i possibili ostacoli e i rischi correlati.

Intelligenza artificiale PMI e ottimizzazione dei processi: il Report G7 Italia Industria

Il “REPORT ON DRIVING FACTORS AND  CHALLENGES OF AI ADOPTION AND  DEVELOPMENT AMONG COMPANIES,  ESPECIALLY MICRO AND SMALL ENTERPRISES” ha parlato di intelligenza artificiale come una rivoluzione industriale nella storia determinata da una tecnologia prevalentemente in mani private .

I grandi della Terra sottolineano la necessità di mettere in campo sforzi sinergici significativi, investimenti pubblici e privati, impegno nel campo della ricerca e formazione.

Il report contiene una serie di raccomandazioni, sviluppate grazie al contributo dei vari paesi membri e del TECH 7, volte a fornire indicazioni agli stakeholder privati e ai policy makers su quali azioni, strategie e politiche possano essere adottate per favorire la diffusione dell’IA fra le PMI. Questi temi saranno oggetto di approfondimento in occasione dell’appuntamento in programma a San Francisco il prossimo novembre presso l’incubatore del governo italiano Innovit.

Rapporto intelligenza artificiale e PMI: i richiami alla sicurezza sul lavoro

Da una lettura del rapporto ci sono diversi richiami alla sicurezza sul lavoro, quale elemento da verificare nell’applicazione delle tecnologie emergenti sia per le grandi imprese che per le PMI.

Il capitolo 4, che affronta i “Limiti, sfide e rischi”, offre una panoramica delle principali questioni relative alla diffusione e all’accessibilità dell’IA, alla sicurezza e all’affidabilità dei sistemi di IA e ai potenziali impatti sulla forza lavoro.

intelligenza_artificiale_industria_40

Soluzioni di IA sicure e affidabili: i quattro principi da seguire

Per garantire che le soluzioni AI siano sicure e affidabili, l’azione dovrebbe concentrarsi su quattro pilastri principali.

  1. Il primo riguarda la questione della spiegabilità dei modelli AI. Sebbene esistano diversi livelli di comprensione della causalità tra input e output tra modelli diversi, è comunque importante raggiungere un livello generale di spiegabilità che garantisca una certa comprensione della logica che guida il loro funzionamento. Questo esempio è abbastanza facile da ottenere quando si ha a che fare con soluzioni AI basate su Machine Learning, una serie di tecniche che ha una particolare rilevanza nel campo dell’industria. Tuttavia, la tecnologia AI che si basa su reti neurali o modelli di linguaggio di grandi dimensioni è molto più difficile da spiegare, per motivi che risiedono nella struttura dei modelli stessi. Le reti neurali in particolare, a causa della natura black box della loro architettura, presentano sfide particolari. Con un panorama così variegato, garantire affidabilità e sicurezza potrebbe essere ottenuto tramite l’uso di grafici della conoscenza, che fanno luce sulla relazione tra la rete di entità del mondo reale, come oggetti, eventi, situazioni o concetti utilizzati dal modello, in modo da fornire una conoscenza di base su come i modelli di intelligenza artificiale operano e creano output.
  2. In secondo luogo, la trasparenza è un altro elemento chiave che può migliorare il livello di sicurezza e affidabilità dei sistemi di intelligenza artificiale. Questo problema è strettamente collegato a quello della spiegabilità, poiché la conoscenza del funzionamento dei modelli di intelligenza artificiale si traduce ovviamente in una maggiore trasparenza. Quest’ultima può migliorare la comprensione dei sistemi di intelligenza artificiale, comprese le loro capacità e limitazioni, migliorando la consapevolezza delle parti interessate che interagiscono con esso. A tal fine, è anche complementare fornire informazioni semplici e di facile comprensione sulle fonti e sulla qualità dei dati. In particolare, è importante che siano disponibili set di dati di alta qualità per addestrare modelli di intelligenza artificiale, ovvero set di dati con bassi livelli di informazioni imprecise (incluse le etichette nel caso di apprendimento supervisionato), bassi livelli di bias, varietà sufficientemente elevata e un uso sensato e contestuale di dati sintetici.
  3. In terzo luogo, validità e robustezza sono altri problemi che, se affrontati, possono migliorare la sicurezza e l’affidabilità dei sistemi di intelligenza artificiale. Inoltre, l’affidabilità delle soluzioni di intelligenza artificiale può essere migliorata anche con un aumento dell’interpretabilità e della trasparenza, tenendo conto della complessità del modello. Questi fattori consentono una migliore comprensione dei modelli, garantendo quindi un livello di comprensione dei risultati che possono essere attesi dalle soluzioni di intelligenza artificiale. I grafici della conoscenza possono aumentare la comprensione dell’interpretabilità del modello, anche grazie a una maggiore comprensione dei fenomeni correlati all’intelligenza artificiale, come le allucinazioni.
  4. Infine, un sistema di guardrail efficace e ben strutturato può svolgere un ruolo cruciale nel garantire che le tecnologie di intelligenza artificiale siano distribuite in modo sicuro e responsabile, senza causare danni o conseguenze indesiderate al pubblico. Questi guardrail possono essere stabiliti attraverso soluzioni di governance complete, progettate per limitare o mitigare casi di utilizzo potenzialmente dannosi o non etici che potrebbero essere considerati un pericolo per la società in generale. Implementando misure di governance rigorose, linee guida etiche e meccanismi di supervisione, queste misure possono proteggere da un uso improprio, assicurando che l’intelligenza artificiale serva al bene comune riducendo al minimo i rischi per la società.

I quattro pilastri precedenti sono essenziali per garantire che l’intelligenza artificiale rimanga sicura, protetta e affidabile, in particolare data la rapida crescita delle tecnologie di intelligenza artificiale, che ha creato l’urgenza di un’azione completa in quest’area. Questi principi fondamentali forniscono un quadro solido per guidare lo sviluppo, l’implementazione e la governance responsabili dei sistemi di intelligenza artificiale, contribuendo a mitigare i potenziali rischi e massimizzando al contempo i benefici.

Intelligenza artificiale e sicurezza nei luoghi di lavoro, indicazioni per le PMI

Nel Rapporto si sottolinea che l’adozione dell’intelligenza artificiale (AI) nel mondo del lavoro rappresenta una trasformazione significativa, poiché l’automatizzazione di alcuni compiti è uno dei suoi effetti principali.

L’AI ha la capacità di eseguire compiti complessi a velocità e capacità superiori a quelle umane, il che comporta inevitabilmente dei cambiamenti nei processi produttivi e nell’organizzazione del lavoro in vari settori economici. Tuttavia, l’impatto complessivo dell’adozione diffusa dell’AI sulla forza lavoro è ancora incerto. È possibile prevedere che, se gestita correttamente, l’adozione dell’AI possa portare a modifiche profittevoli nel modo di lavorare, riducendo e in alcuni casi prevenendo la perdita di posti di lavoro.

Nel rapporto si rimarca la necessità che per un utilizzo ottimale dell’IA, si richiede comunque la collaborazione con una forza lavoro qualificata. Infatti, come qualsiasi altra tecnologia, l’AI trae beneficio dall’intervento umano per massimizzare il suo potenziale. Attualmente, la domanda di lavori legati all’uso dell’AI è limitata e si concentra principalmente sulle competenze necessarie per operare sistemi di machine learning (ML). Tuttavia, l’offerta di lavoro in questo ambito è ancora insufficiente. Questo squilibrio dipende dalla necessità di riqualificare la forza lavoro per acquisire nuove competenze, molte delle quali richiedono un alto livello di istruzione. Solo la manutenzione e lo sviluppo dei sistemi di AI richiedono una familiarità con i principi generali della tecnologia, oltre che con strumenti e software specifici dell’AI.

intelligenza_artificiale_lavoro_sicurezza.jpg

Competenze per l’IA: necessaria una riqualificazione della forza lavoro

Le competenze necessarie per alimentare l’ecosistema dell’AI comprendono una vasta gamma di conoscenze, che spaziano dall’analisi dei dati al cloud computing e alla visualizzazione dei dati. Di conseguenza, è evidente che l‘adozione dell’AI richiederà un ampio processo di riqualificazione e aggiornamento delle competenze della forza lavoro. Per realizzare questo cambiamento, saranno necessari investimenti significativi, sia da parte del settore privato, attraverso programmi di formazione aziendale, sia da parte del settore pubblico, con misure volte a migliorare la alfabetizzazione digitale e l’AI. Tuttavia, è importante sottolineare che la riqualificazione completa per operare i sistemi di AI interesserà solo una parte della forza lavoro, mentre la maggior parte dei lavoratori dovrà solo acquisire una conoscenza generale del funzionamento del machine learning.

Migliorare l’accessibilità alle soluzioni di IA

Accanto ai programmi di riqualificazione e aggiornamento delle competenze, esistono azioni complementari che possono essere intraprese per preparare al meglio la forza lavoro all’adozione dell’AI. In particolare, sarà fondamentale garantire l’accessibilità allo sviluppo di soluzioni AI verticali e specifiche per settore, ovvero applicazioni dell’AI mirate a scopi precisi. Per raggiungere questo obiettivo, le aziende dovranno avere accesso alle infrastrutture necessarie per sviluppare le competenze utili a produrre queste soluzioni funzionali e familiarizzare con le tecnologie e gli strumenti necessari. Questo processo garantirà una diffusione capillare dell’AI in base alle esigenze specifiche dei diversi settori industriali.

Disponibilità e democratizzazione delle soluzioni di IA

Un ulteriore stimolo per lo sviluppo delle competenze necessarie all’uso dell’AI è rappresentato dalla crescente democratizzazione delle soluzioni AI. Queste ultime sono sempre più disponibili attraverso API facili da utilizzare, che consentono alle imprese di adottare strumenti funzionali a costi ridotti. Questi prodotti abbassano significativamente anche il livello di competenze richieste per interagire con l’AI, facilitando così una diffusione più ampia della tecnologia. Tuttavia, data l’evoluzione rapida delle capacità dell’AI, è difficile prevedere con esattezza l’entità della riqualificazione e dell’aggiornamento necessari per integrare adeguatamente queste soluzioni nell’organizzazione del lavoro. Rimane inoltre incerta la misura in cui l’AI sostituirà le funzioni umane nei luoghi di lavoro.

Questa imprevedibilità costituisce una sfida aggiuntiva per la creazione di programmi politici più ampi, finalizzati alla riqualificazione della forza lavoro su vasta scala. Inoltre, rappresenta un ostacolo per le piccole e medie imprese (PMI) e le microimprese (MSME) che si avvicinano per la prima volta all’integrazione dell’AI. Queste aziende, che spesso dispongono di risorse limitate, potrebbero avere difficoltà ad adattarsi rapidamente alle nuove esigenze imposte dall’adozione dell’AI e dai continui sviluppi tecnologici.

Coordinamento editoriale Portale InSic.it -redattore giuridico

Laurea in Giurisprudenza in Diritto europeo (LUISS Guido Carli 2006) e Master in “Gestione integrata di salute e sicurezza nell’evoluzione del mondo del lavoro” INAIL-Sapienza (I° Ed. 2018-19).
Formatore certificato in salute e sicurezza sul lavoro dal 2017 per Istituto Informa e RLS per EPC Editore.
Esperto in sicurezza sul lavoro e amministratore del Gruppo Linkedin Ambiente&Sicurezza sul Lavoro.

Content editor e Social media per InSic.it su Linkedin e X (ex Twitter).

Contatti:

Linkedin
Mail: a.mazzuca@insic.it

Antonio Mazzuca

Coordinamento editoriale Portale InSic.it -redattore giuridico Laurea in Giurisprudenza in Diritto europeo (LUISS Guido Carli 2006) e Master in "Gestione integrata di salute e sicurezza nell'evoluzione del mondo del lavoro" INAIL-Sapienza (I° Ed. 2018-19). Formatore certificato in salute e sicurezza sul lavoro dal 2017 per Istituto Informa e RLS per EPC Editore. Esperto in sicurezza sul lavoro e amministratore del Gruppo Linkedin Ambiente&Sicurezza sul Lavoro. Content editor e Social media per InSic.it su Linkedin e X (ex Twitter). Contatti: Linkedin Mail: a.mazzuca@insic.it