intelligenza artificiale

Intelligenza artificiale: tipologie, applicazioni e pericoli

3021 0

L’intelligenza artificiale ha rivoluzionato l’interazione tra l’uomo e la macchina. Dopo aver ripercorso, in un precedente articolo, la storia della robotica e dell’AI, vediamo cos’è e quali sono le tipologie dell’Intelligenza Artificiale. Esaminiamo quindi rischi, pericoli ed opportunità legati a questa tecnologia.

Forse non tutti sanno che i moderni computer sono per certi versi altamente inefficienti.

Intanto ragionano su due stati:

  • 0 ossia assenza di corrente,
  • 1 ovvero presenza di corrente.

Tutti i circuiti all’interno del computer, ed in particolare l’unità di elaborazione detta microprocessore, non fanno altro che ricevere in input (ingresso) segnali elettrici e fornire un output (uscita) composto da altri segnali analoghi.

Tutti questi segnali elettrici sono controllati dai circuiti che costituiscono il computer (o il dispositivo intelligente) ed interpretati con l’uso di programmi, che trasformano le richieste del programmatore, in azioni che il computer esegue pedestremente.

Nessuna intelligenza quindi, se non quella dei programmatori che sviluppano il codice, ed un sistema altamente complesso e assai poco efficiente (anche energeticamente).

Pensate, a puro titolo di esempio, che per comporre un singolo carattere dell’alfabeto (codice ASCII ai tempi, ora codice UTF-8) occorre utilizzare 8 bit.

L’obiettivo dell’AI è sviluppare macchine capaci di apprendere, ragionare, risolvere problemi e prendere decisioni in modo autonomo ed in modo simile a come lo farebbe un essere umano. Questo rende molto più efficienti i nostri computer, che difatti svolgono operazioni molto più complesse in un tempo assai ridotto rispetto ad un utilizzo classico. 

L’intelligenza artificiale si basa su diversi approcci e tecniche, tra cui:

L’apprendimento automatico (Machine Learning) è una branca dell’AI che si concentra sulla capacità delle macchine di apprendere dai dati senza essere esplicitamente programmate. Gli algoritmi di apprendimento automatico analizzano i dati, identificano ricorrenze e costruiscono modelli predittivi o comportamentali. Il processo di apprendimento può essere supervisionato (con l’uso di dati di addestramento “controllati”) o non supervisionato (senza controllo umano).

Reti neurali artificiali (Artificial Neural Networks)

Le reti neurali artificiali (Artificial Neural Networks) sono modelli computazionali ispirati dal funzionamento del cervello umano. Questi modelli sono composti da “neuroni artificiali” interconnessi che trasmettono ed elaborano le informazioni. Le reti neurali vengono addestrate sui dati per riconoscere modelli complessi e prendere decisioni autonome.

Visione artificiale (Computer Vision)

La visione artificiale (Computer Vision) mira a consentire alle macchine di “vedere” e interpretare le immagini o i video in modo simile agli esseri umani. Gli algoritmi di visione artificiale possono essere utilizzati per riconoscere oggetti, rilevare volti, interpretare espressioni facciali, ecc…

Linguaggio naturale (Natural Language Processing)

L’elaborazione del linguaggio naturale (Natural Language Processing) si occupa dell’interazione tra le macchine e il linguaggio umano. Gli algoritmi di elaborazione del linguaggio possono essere utilizzati per comprendere e generare testo, tradurre tra lingue diverse, creare chatbot e assistenti virtuali, ecc…

Ragionamento basato su regole (Rule-Based Reasoning)

Il ragionamento basato su regole (Rule-Based Reasoning) implica l’utilizzo di regole logiche o condizioni predefinite per prendere decisioni o risolvere problemi. Le regole vengono definite dagli esperti e le macchine le applicano per ragionare su situazioni specifiche.

Ovviamente queste sono solo alcune delle principali metodologie utilizzate nell’intelligenza artificiale. 

L’AI può essere implementata in vari settori, come l’automazione industriale, l’assistenza sanitaria, la finanza, i trasporti, l’educazione e molti altri ancora, per migliorare l’efficienza, l’accuratezza e l’automazione delle attività umane. Ecco alcune delle tipologie di Intelligenza Artificiale:

Intelligenza Artificiale Generativa

La tendenza del momento è l’Intelligenza Artificiale Generativa, che si concentra sulla creazione e la generazione di nuovi contenuti, come testi, immagini, musica o persino video, che hanno un aspetto creativo o originale. Questi sistemi utilizzano approcci come le reti neurali generative per apprendere dai dati di addestramento e generare nuovi output che rispecchiano lo stile o il contenuto appreso.

Un esempio noto di AI generativa è la creazione di immagini realistiche. Utilizzando algoritmi di apprendimento automatico, una rete neurale generativa può imparare dai dati di addestramento (ad esempio, un set di immagini di paesaggi, o con lo stile di un certo artista) e generare nuove immagini che sembrano essere prodotte da esseri umani.

Intelligenza artificiale debole (Weak AI)

L’intelligenza artificiale debole (Weak AI) o IA ristretta (Narrow AI) si riferisce a sistemi AI che sono progettati per svolgere specifiche attività o compiti ristretti. Questi sistemi sono specializzati in un’area specifica, come il riconoscimento vocale o banalmente il gioco degli scacchi, e non hanno la capacità di eseguire compiti al di fuori del loro ambito di specializzazione.

Intelligenza artificiale forte (Strong AI)

L’intelligenza artificiale forte (Strong AI) o IA generale (General AI), ossia l’idea di un’IA che possiede un’intelligenza generale simile a quella umana, che è in grado di comprendere, apprendere e svolgere una vasta gamma di compiti intellettuali complessi. L’IA forte rappresenterebbe un’intelligenza artificiale che potrebbe superare le capacità umane in ogni aspetto.

Intelligenza artificiale simbolica

L’intelligenza artificiale simbolica, si basa sull’utilizzo di rappresentazioni simboliche e regole logiche per il ragionamento e l’elaborazione delle informazioni. L’IA simbolica si concentra sulla manipolazione di simboli e concetti astratti per risolvere problemi, quali la risoluzione di formule matematiche o la creazione di elementi chimici. Molto utilizzata ad esempio per la ricerca di molecole farmaceutiche.

Intelligenza artificiale ibrida

L’intelligenza artificiale ibrida, combina più metodologie o tecniche di intelligenza artificiale per sfruttare i vantaggi di ciascuna. Ad esempio, può combinare l’apprendimento automatico con il ragionamento basato su regole per ottenere un sistema più flessibile ed efficiente.

L’AI può comportare una serie di rischi che vanno considerati attentamente:

Privacy e sicurezza dei dati

L’AI richiede l’accesso a grandi quantità di dati personali per addestrare e migliorare i modelli. La raccolta e l’elaborazione di “dati sensibili” possono sollevare preoccupazioni riguardo alla privacy e alla sicurezza dei dati personali, come pure la loro elaborazione e correlazione. Pensate ad un algoritmo di AI programmato per portare un attacco informatico basato sulle tecniche di social engineering.

Bias e discriminazione

Le tecnologie basate sull’AI possono essere influenzate da pregiudizi e da dati di addestramento parziali o discriminatori. Ciò può portare a risultati discriminatori o ingiusti (ad esempio nel campo delle assunzioni lavorative, la selezione dei CV da considerare o scartare).

Perdita di posti di lavoro

L’automazione basata sull’AI può sostituire alcuni tipi di lavoro umano, il che potrebbe portare alla perdita di posti di lavoro in determinati settori. È necessario considerare le implicazioni sociali ed economiche di queste trasformazioni.

Sfide etiche

Sfide che l’AI solleva, come l’utilizzo di armi autonome, l’impiego di intelligenza artificiale nei campi della medicina o dell’assistenza sanitaria, e molte altre. È importante affrontare queste sfide per garantire un utilizzo etico e responsabile dell’AI. Su questo punto è disponibile sulla nota piattaforma Netflix un documentario che parla dell’uso dell’AI in ambito militare che è assolutamente da non perdere.

Perdita di controllo

I sistemi AI complessi possono essere difficili da comprendere e controllare. La difficoltà di comprensione, anche da parte degli stessi ideatori di nuovi algoritmi, può rendere difficile individuare e correggere eventuali errori o bias nei sistemi di AI, compromettendo la responsabilità e l’affidabilità dei sistemi.

Dipendenza tecnologica

L’affidamento eccessivo sull’AI potrebbe portare a una dipendenza da sistemi complessi, che potrebbero anche malfunzionare o essere soggetti ad attacchi manipolatori. È importante valutare attentamente i rischi e adottare misure di mitigazione adeguate.

Per affrontare i rischi legati all’Intelligenza Artificiale è essenziale:

  • sviluppare un quadro normativo e regolatorio adeguato,
  • promuovere la trasparenza e l’accountability,
  • incoraggiare la ricerca sulla sicurezza e l’etica dell’AI,
  • coinvolgere una varietà di stakeholder (parti interessate) nella progettazione, implementazione e monitoraggio dei sistemi AI.

Cosa che aveva intuito Asimov con le sue leggi, e che fortunatamente sembra stia avvenendo, anche con l’intervento di importanti personaggi pubblici.

Il rischio estremo è quello precedentemente palesato, ossia quello della “singolarità”.

Film e serie come Matrix, Terminator, Westworld (solo per citarne alcune) hanno affrontato questi temi da tempo, e vi faccio notare una cosa: normalmente la fantascienza prevede la realtà. Quasi tutto quello che è stato ipotizzato nei film di fantascienza si è bene o male avverato (magari con qualche anno di ritardo), anche se speriamo che non sia questo il caso.

In ambito della Cybersecurity in verità ci sono sia rischi che opportunità.

Oltre al rischio che i nostri dati vengano fagocitati per alimentare i motori di intelligenza artificiale, con l’effetto che i nostri stessi dati potrebbero poi comparire nelle elaborazioni fornite a terzi, o combinati per profilazioni sempre più efficienti, esistono non citati rischi legati alla possibile produzione di algoritmi basati sull’AI utilizzati per portare attacchi sempre più efficienti.

D’altro canto, esiste l’opportunità legata alla produzione di altri algoritmi, in grado di apprendere dai tentativi di attacco, adattarsi, e proteggerci in modi sempre più efficienti.

Ed anche tutto questo sta avvenendo, ora!

Alla luce di tutto quello che abbiamo raccontato, vediamo cos’è il nostro caro e famoso ChatGPT

ChatGPT

È un’intelligenza artificiale adattiva che si basa principalmente su modelli di linguaggio per comprendere e generare testo o informazioni. Può fornire informazioni, rispondere a domande, assistere in diverse attività che coinvolgono il linguaggio (come scrivere un tema, comporre una terzina in stile dantesco, scrivere un programma in diversi linguaggi di programmazione, e da poco parlare in una forma simile a quella umana), ma non possiede consapevolezza né autonomia o una vera comprensione come quella degli esseri umani.

I sofware che usano algoritmi AI

In ogni caso, oggi come oggi è veramente difficile trovare software che in qualche maniera non usino algoritmi di AI.

Microsft

L’azienda produttrice del famosissimo ChatGPT (OpenAI) è stata acquistata da Microsoft (che forse ha voluto colmare così un possibile ritardo tecnologico in questo campo).

Microsoft ha quindi iniziato ad inserire questi algoritmi in tutti i suoi prodotti (dal browser Edge, al motore di ricerca Bing, ma anche nella stessa suite Microsoft 365).

Google AI

Google (Google AI per la precisione), tanto per fare un nome, ha introdotto il suo strumento Bard, quale alternativa a ChatGPT, e con lui tutta una serie di algoritmi sono stati attivati in quasi tutti gli strumenti del famoso produttore. Ha inoltre recentemente rilasciato sistemi di protezione alla navigazione e sulla posta elettronica.

TikTok

TikTok, il famosissimo social (e tutti gli altri a ruota) stanno facendo largo uso dell’AI per consentirci di abbellire i nostri post, animarli, e creare effetti davvero spettacolari.
Facendolo le nostre immagini sono date in pasto a questi algoritmi, che potranno utilizzarle per scopi che al momento non è dato sapere (ad esempio il riconoscimento facciale).
Quindi siamo sempre sicuri di sapere che il software che stiamo usando non usi tecniche di intelligenza artificiale?
La risposta, che avrete intuito dai tre esempi precedenti, è ovviamente no.
Non solo non lo sappiamo, ma non è neppure chiaro cosa avvenga ai nostri dati, che ormai sono memorizzati in miliardi di sinapsi elettroniche in giro per il pianeta.

So che quanto esposto è piuttosto complesso e difficile da comprendere. Ma è talmente affascinante la questione, talmente importante ai fini della cybersicurezza, che era doveroso trattare questi argomenti, cercando di fornire qualche informazione e fare un po’ di chiarezza.
Speriamo che la modalità semplice utilizzata per trasferire questi concetti complessi, sia realmente servita a tutti.

Consulta la prima parte dell’articolo di Renato Castroreale

Nella prima parte di questo articolo l’autore ripercorre la storia dell’Intelligenza Artificiale in questi ultimi 100 anni

Breve storia dell’intelligenza artificiale

La sicurezza nelle connessioni wireless: RFID e NFC
La sicurezza nelle connessioni wireless: WiFi, Bluetooth e GPS
La sicurezza delle App ed i rischi associati al loro utilizzo
La sicurezza degli smartphone ed i rischi associati al loro utilizzo

Renato Castroreale

Nato e cresciuto con l’informatica, si è occupato e tuttora si occupa di ICT in un importante gruppo torinese, dove attualmente ricopre il ruolo di CISO (Chief Information Security Officer) nonché di Responsabile dei Sistemi di Gestione Integrati. Grande esperto in materia, specializzato e certificato nei principali schemi di certificazione per la Cybersecurity, la Sicurezza Informatica e la Data Protection (privacy), effettua formazione e fornisce consulenza in questi ed altri ambiti presso primarie aziende italiane.