intelligenza artificiale

Breve storia dell’Intelligenza Artificiale

216 0

Si parla tanto dell’intelligenza artificiale, ma è difficile comprendere esattamente di cosa si tratti, soprattutto per chi non è del mestiere (e sottolineo soprattutto, perché anche tra gli addetti ai lavori c’è comunque spesso molta confusione).
Cerchiamo di fare un po’ chiarezza, sempre a nostro modo, quello semplice e per tutti.
Quale modo migliore se non iniziando ripercorrendo la storia dell’AI, in questi ultimi 103 anni (si avete letto bene).

Robotica ed intelligenza artificiale: lo sviluppo nel tempo

Intanto è bene dire che la robotica e l’intelligenza artificiale hanno sempre viaggiato su binari paralleli.
Non può infatti essere pensabile un robot senziente, senza l’intelligenza artificiale: sarebbe un involucro senza capacità operative o radiocomandato.
Faremo quindi ora un salto temporale, ripercorrendo i punti salienti del percorso che queste due discipline hanno fatto, a partire dagli anni 20.
Questo ci servirà ad inquadrare alcuni concetti basilari sull’argomento, che ci aiuteranno in seguito a capire, seguendo appunto questo percorso evolutivo, come realmente funzioni questa “misteriosa” materia.

In questi anni nasce l’idea dei robot, e di una loro intelligenza simile a quella umana, seppure non si accenni ancora ai circuiti elettronici (semplicemente non esistevano ancora).

Nel 1921 fu portato sulle scene il dramma teatrale in tre atti R.U.R. (Rossumovi Univerzální Roboti) di Karel Čapek, dove per la prima volta venne usato il termine “robot” (dal ceco robota, lavoro duro, lavoro forzato).
Va notato come i “roboti” del citato drammaturgo non sono in realtà i robot nel senso poi attribuito successivamente al termine, vale a dire di automi meccanici, bensì esseri costruiti artificialmente utilizzando diverse parti del corpo assemblate in “stile Frankenstein”.
In quest’opera l’autore, focalizzando i pericoli dello scientismo e del razionalismo, ha immaginato una società basata sul lavoro di robot semi-umani privi di anima, che via via si ribellano agli uomini, schiacciandoli. Ma, colpo di scena, i sentimenti compaiono nelle menti di questi robota, che alla fine risparmiano il genere umano provando compassione.

Ecco che l’elettronica (seppure prototipale) irrompe nell’idea di robot e nello sviluppare le sue capacità motorie e le sue abilità.

Nel 1938 Westinghouse Electric Corporation costruisce Elektro, un umanoide (robot con sembianze umane), in grado di camminare a comando vocale, pronunciare 700 parole (grazie ad un giradischi, non esistendo la sintesi vocale, installato nel suo addome), fumare sigarette, far scoppiare palloncini in aria muovendo la testa e le braccia, e distinguere la luce rossa da quella verde attraverso “occhi fotoelettrici”.
Il suo successore è stato Sparko, un cane robot in grado di abbaiare, sedersi e mendicare.

In questi anni da un lato abbiamo la geniale intuizione di Asimov, che con 70 anni di anticipo intuisce che i robot ed in generale l’AI avrebbero avuto bisogno di un controllo “etico”, dall’altro abbiamo finalmente circuiti elettronici in grado di “pensare” (seppure in forma minimale).

Nel 1941 Isaac Asimov scrisse le famosissime tre Leggi della Robotica, intuendo che un giorno i robot ne avrebbero avuto bisogno per non prevaricare l’uomo:

1 – Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
2 – Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
3 – Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

Poco più tardi, lo stesso autore scrisse la meno nota ma altrettanto importante Legge Zero, secondo la quale: “0 – Nessun robot può causare danni all’umanità, né permettere, con la sua inazione, che l’umanità subisca danni”.
Se ci pensate l’attualità di queste leggi è davvero sorprendente, anche perché ora stiamo toccando con mano i pericoli che potrebbero derivare da una intelligenza artificiale senza controllo. Ne avrete sentito parlare, se ne discute davvero tanto, e personaggi autorevoli sono intervenuti preoccupati che la situazione possa sfuggire di mano.

Nel 1948 William Gray Walter crea il primo Robot autonomo e complesso. Nella fattispecie, sull’immagine di una tartaruga, nasce il progetto ELISE (Electro-mechanical robot, LIght Sensitive with internal and External stability) concepito per muoversi seguendo fonti luminose.
Ed è proprio ELISE, con la sua goffa e ridicola capacità di movimento da tartaruga con serie difficoltà motorie, ad essere ritenuto il primo esempio di Intelligenza Artificiale.

Gli anni 50 sono di discreto fervore verso questi temi: in questi anni abbiamo da un lato le geniali intuizioni di Touring, le prime “reti neurali” che simulano i neuroni umani, il primo robot industriale ed anche la nascita ufficiale della disciplina dell’AI.

Nel 1950 Alan Touring ha teorizzato la possibilità che le macchine possano “avere un pensiero“.
In un articolo scientifico “Computing machinery and intelligence”, ancora oggi considerato una pietra miliare, affronta il tema dell’Intelligenza Artificiale nella misura in cui si è chiesto se una macchina sia in grado di pensare. Tuttavia, resosi conto che i termini “macchina” e “pensare” potessero essere suscettibili di ambiguità interpretativa, egli ebbe l’intuizione di riformulare la questione con l’ipotesi di un test, meglio noto “Test di Turing” o “Imitation game”.
Il test prevedeva di porre un “giudice” dinanzi ad un terminale in grado di “comunicare” con un uomo ed un computer: se il giudice non distingueva chi fosse l’uomo e chi il computer, il computer poteva essere dichiarato intelligente.
Per la cronaca stiamo parlando dello stesso Touring, che decifrò il Codice Enigma dei nazisti, attraverso la sua famosa macchina (macchina di Touring appunto), e che ha cambiato le sorti della Seconda guerra mondiale.

Nel 1951 Marvin Minsky costruisce la prima macchina di apprendimento casuale a rete neurale elettronica denominata SNARC, che pone le basi sia per lo sviluppo delle cosiddette “reti neurali”, ossia circuiti elettronici che simulano il funzionamento dei neuroni del cervello, ed il loro metodo di apprendimento.

Nel 1954 George Devol, noto inventore ed imprenditore statunitense passato alla storia come il “nonno della robotica”, crea l’esemplare di robot industriale moderno. Quest’ultimo venne chiamato Unimate, o anche “Programmable Transfer Machine” dal momento che lo scopo principale era il trasferimento di un oggetto da punto a punto (utilizzabile nelle catene di montaggio).

Nel 1956 con la Conferenza di Dartmouth “Dartmouth Summer Research Project on Artificial Intelligence”, si assiste all’evento ufficiale che segna la nascita della ricerca nel campo dell’AI. È meritevole di apprezzamento la lungimiranza delle idee maturate in quella sede, a maggior ragione considerata la scarsa capacità computazionale disponibile a quei tempi. I computer di allora non erano neanche lontanamente potenti quanto il più economico degli smartphone oggi in circolazione.

Nel 1957 Allen Newell e Herbert Simon creano prima la Logic Theory Machine in grado di dimostrare teoremi contenuti nei “Principi di matematica” (1910), e successivamente la General Problem Solving per imitare il comportamento umano nella soluzione dei problemi di logica (e non solo).

Si trattava di un programma per computer in grado di risolvere problemi generali (formalizzati), per lo più teorici, geometrici nonché ludici (sub specie il gioco degli scacchi). Esso è dunque uno dei primi programmi di AI, funzionante per il tramite di due sistemi euristici consistenti in “Analisi Mezzi-Fini” e “Pianifica”. Le simulazioni erano tuttavia limitate ad ambiti molto ristretti, poiché più facilmente controllabili e compatibili in relazione alle scarse capacità computazionali.

In questi anni, grazie ai primi mainframe (computer di grandi dimensioni e dai costi esorbitanti, nonché con una ridottissima capacità computazionale), vediamo svilupparsi la capacità di apprendimento. Viene creato il primo Chatterbot (ossia un programma per simulare una conversazione umana attraverso l’interazione scritta, come il modernissimo ChatGPT), ed i robot iniziano ad acquisire capacità motorie in ambienti ristretti.

Nel 1960 Frank Rosenblatt costruisce il Perceptron, esemplare di dispositivo elettronico conforme ai principi biologici, dotato di capacità d’apprendimento. I “percettroni” di Rosenblatt, furono inizialmente simulati su di un computer IBM 704 in grado di “osservare” linee geometriche basilari memorizzandole al fine di “saperle” poi riconoscere.

Nel 1966 Joseph Weizenbaum programma il primo Chatterbot denominato ELIZA, quale parodia di un terapeuta Rogersiano concepito per rispondere al paziente (di turno) con domande ottenute dalla riformulazione delle sue stesse affermazioni. ELIZA si ricorda dunque come una forma primordiale di interazione uomo-macchina, dalla pia illusione di una conversazione tra individui.

Nel 1968 ancora viene creato un altro robot di fattura industriale, dotato di capacità di movimento, Shakey the Robot, capace di muoversi liberamente all’interno di un ambiente di produzione.

In questi anni c’è un apparente rallentamento dell’interesse verso questa materia, ma vengono compiuti due passi fondamentali: il primo sistema esperto che prende decisioni autonome, ed il primo microprocessore a largo uso che rivoluzionerà la capacità di elaborazione di tutti i sistemi informatici.

Nel 1972 Kenneth Colby famoso psichiatra alla Stanford University, crea PARRY, esemplare di “chatbot”, con l’intento di simulare una persona affetta da “schizofrenia paranoide”. Il programma, nella sostanza, ha implementato un modello di comportamento di una persona con predetta patologia basato su concetti, concettualizzazioni e credenze. Esso è stato concepito per “incarnare” anche una strategia di conversazione. PARRY è stato testato con il test di Touring e non è stato decretato intelligente. Tuttavia, esso costituisce uno dei primi esempi dei cosiddetti sistemi esperti. I sistemi esperti sono una categoria di sistemi di intelligenza artificiale progettati per emulare la capacità decisionale di un esperto umano in un determinato dominio di conoscenza.

Nel 1974 INTEL ha prodotto il processore multifunzionale 8080. Se sino a quel momento l’accesso a risorse computazionali complesse era connesso all’uso di dispositivi costosi difficilmente accessibili, con l’invenzione di detto processore avviene un significativo cambio di passo tale da rendere la capacità e la versatilità di elaborazione alla portata di chiunque.

Gli anni ’80 si dimostrano importanti per l’AI, con la nascita dei sistemi simbolici che accrescono le tecnologie disponibili, l’invenzione della realtà virtuale che apre nel vero senso della parola ad un “mondo nuovo” e per certi versi ad oggi ancora scarsamente esplorato, il primo robot umanoide in grado di “camminare”, le chatbot che iniziano ad apprendere dalla conversazione e non si basano solo più su quello che viene insegnato loro preventivamente, e per concludere la produzione su larga scala di robot-infermieri e la nascita di quello che può essere definita una vera e propria industria dell’AI.

Nel 1984 Douglas Lenat inizia il progetto CYC, ponendo le prime basi per i sistemi simbolici fisici (sistemi concepiti come macchine che elaborano simboli per eseguire operazioni di calcolo e ragionamento) quale valida alternativa o compendio alle cosiddette “reti neurali”.

Nel 1985 Jaron Lanier inventa la realtà virtuale. In questi anni, ha ipotizzato la possibilità di arrivare, grazie a tecnologie per la visualizzazione tridimensionale, ad una forma di comunicazione “post-simbolica”. L’idea prevedeva che, invece di ricorrere a parole per descrivere le cose, sarebbe stato possibile costruire virtualmente gli oggetti, o dare una parvenza visiva ai concetti, comunicando direttamente per il loro tramite. La realtà virtuale è diventata uno strumento con potenzialità d’interesse sempre maggiori in ogni campo della conoscenza, favorendo altresì nuove forme di creatività condivisa e, per conseguenza, modalità inedite di relazione.  Si rammenta che egli è stato consulente per il progetto del famoso programma Second Life.

Nel 1986 Honda crea il primo Robot in grado di camminare autonomamente su due arti. Tale progetto ha prodotto vari prototipi culminati negli anni 2000 con la creazione di ASIMO. Dalle macchine industriali si giunge alla creazione di un robot a movimento autonomo “bipede”. L’azione del movimento evocativo di quello umano dall’andatura coordinata viene associata oltre che ad esseri biologicamente viventi anche ad un robot dalle sembianze antropomorfe.

Nel 1988 Rollo Carpenter ha creato Jabberwacky, una chatbot dotata di AI ed in grado di apprendere dalla conversazione, definita “simulate natural human chat in an interesting, entertaining and humorous manner”. Il recepimento o apprendimento (ma non ancora ragionamento) del dialogo, ha costituito per quei tempi senz’altro una frontiera in materia di AI, rafforzando una quella nuova visione consistente dell’interfaccia uomo-macchina.

Ancora nel 1988 Joseph Frederick Engelberger (già protagonista della storia della robotica e dell’AI) crea un primo esemplare di robot ad uso medico e fonda la TRS (Transitions Research Corporation) che ha prodotto il robot HelpMate mobile ospedaliero, facente le veci di un sanitario con grande successo.

Gli anni ’90 mostrano un altro rallentamento dell’interesse verso queste tecnologie, andamento discontinuo che contraddistingue la storia dell’AI, peraltro, perlomeno fino ai giorni nostri. Detto questo la vittoria di Deep Blue (dopo tanti tentativi falliti peraltro) dimostra che una macchina è in grado di “battere” l’uomo nel ragionamento, apprendendo dall’uomo stesso: e questo segna un passo davvero significativo per l’AI.

Nel 1996 Garry Kasparov, campione mondiale di scacchi, viene vinto dalla macchina IBM Deep Blue. Tale programma pur istruito con tutte le principali combinazioni possibili del gioco, è stato capace di auto apprendere nel corso della competizione. Una vera svolta dal momento che la capacità di calcolo si è al fine dimostrata sufficiente al raggiungimento dello scopo di attivare il tanto desiderato autoapprendimento.

I robot autonomi, e la loro applicazione pratica, sembra caratterizzare questo primo decennio del nuovo secolo. Applicazioni che vanno dall’ambito domestico a quello spaziale, e che trovano una applicazione nella guida autonoma.

Nel 2002 i-Robot lancia Roomba, un robot aspirapolvere autonomo che pulisce le superfici evitando gli ostacoli, grazie all’apprendimento dall’ambiente circostante.

Nel 2004 i robot della Nasa esplorano la superficie di Marte.

Nel 2005 un veicolo a guida autonoma termina con successo la DARPA Grand Challenge, competizione per veicoli senza conducente (finanziata dalla DARPA). La prima gara si è svolta nel deserto del Mojave, con un percorso di circa 150 miglia. Tuttavia, nessuno dei veicoli è riuscito a completare il percorso (il migliore percorse solo sette miglia circa). In quell’edizione (2005), cinque veicoli su ventitré sono riusciti a completare il percorso, e quello dell’Università di Stanford (il vincitore) ha completato il percorso in 7 ore circa.

Nel 2006 Oren Etzioni, Michele Banco e Michael Cafarella, creano l’espressione “lettura automatica” definendola quale “comprensione autonoma senza supervisione del testo”.

Nel 2007un veicolo a guida autonoma ha vinto un’altra gara, la DARPA Urban Challenge, edizione svoltasi presso una base aeronautica californiana, simulando un ambiente urbano con segnaletica ed ostacoli. Il percorso, abbreviato in 60 miglia, doveva essere completato in un tempo inferiore alle 6 ore. Rispetto alla tappa precedente enunciata, la guida autonoma si è adattata ad un contesto ambientale di tipo urbano. É con questo accadimento che si è scatenata la corsa a guida autonoma da parte di Google e dopo di Tesla, quantunque oggi, stante il decennio trascorso, la reale autonomia della guida appare un traguardo ancora distante.

Anni di grande fervore, caratterizzati dalla diffusione degli smartphone che ha comportato un estremo interesse da parte delle grandi aziende verso l’applicazione dell’AI nella quotidianità. Anni che portano anche allo sviluppo delle capacità visive e verbali dell’AI aprendo a nuove prospettive. Preoccupa la presa di posizione contro le armi, perché è una evidenza del fatto che queste sono state ormai dotate di intelligenza artificiale (benché ci raccontino), ed aggiungerei l’incidente dove i dialog agent di Facebook (ora Meta) inventano un nuovo linguaggio per comunicare tra loro.

Nel 2011 nascono gli assistenti vocali, ed in particolare Siri di Apple. Nello stesso anno, IBM crea Watson, un computer che risponde al linguaggio umano.

Nel 2012 due ricercatori di Google hanno realizzato una rete neurale di 16.000 processori in grado di riconoscere l’immagine di gatti senza avere fornito alla macchina istruzioni preliminari.

Nel 2013 è stato pubblicato un sistema di interrelazione di immagini ad apprendimento automatico (semantico).

Nel 2014 quattro ricercatori sempre di Google hanno creato una rete neurale in grado di descrivere un’immagine, nella fattispecie di un gruppo di giovani mentre giocano a frisbee. Ancora, nello stesso anno, Microsoft realizza l’assistente vocale Cortana, mentre Amazon produce Alexa.

Nel 2015 Elon Mask, Stephen Hawking e Steve Wozniak (uno dei fondatori di Apple) sottoscrivono una dichiarazione contro l’uso di armi autonome basate sull’AI.

Nel 2016 Google rilascia Google Assistant, Hanson Robotics realizza unrobot umanoide di nome Sophia considerata la prima “cittadina” robotica dalle sembianze umano, in grado di vedere, riconoscere immagini, utilizzare espressioni facciali, e comunicare.

Nel 2017 Google Termina il suo programma AlphaGo per giocare a Go, sconfiggendo svariati campioni, “nutrito” da una miriade di combinazioni praticamente infinite una potenza di calcolo senza precedenti. Nello stesso anno, il colosso Facebook crea due “dialog agent” (in pratica, chatbot) comunicanti tra loro per imparare a negoziare. Mentre i due “comunicavano” si è verificato un distacco dal linguaggio base impostato come l’inglese, con una preoccupante “invenzione” consistente in un nuovo linguaggio di comunicazione assolutamente imprevisto.

Nel 2018 Alibaba realizza un sofisticato sistema di AI in grado di oltrepassare l’intelletto umano in un test di lettura e comprensione. Google sviluppa Bert utile alla riproduzione del linguaggio umano, utilizzato per la ricerca vocale su Internet, mentre Samsung presenta Bixby.

In questi anni c’è stata una vera esplosione di applicazioni basate sull’AI, perlopiù sviluppate sotto forma di App per gli Smartphone. App in grado di chattare, disegnare, animare, comporre musica, scrivere testi complessi, predisporre presentazioni, sviluppare codice, impersonare personaggi virtuali, ecc…
Davvero impossibile citare anche solo le più importanti, e sono anche certo che ciascuno di voi ne abbia provate diverse.

Nonostante tutti questi progressi non si è ancora raggiunta la “singolarità”, ossia un’ipotetica situazione in cui l’intelligenza delle macchine raggiunge o supera quella dell’intelligenza umana. Questa ipotetica singolarità dell’AI è spesso associata all’idea di una crescita accelerata dell’intelligenza delle macchine, che potrebbe avere conseguenze significative e imprevedibili per la società umana.
Secondo alcuni proponenti della singolarità dell’AI, una volta che l’intelligenza delle macchine supererà quella umana, le macchine potrebbero essere in grado di migliorare e svilupparsi autonomamente, creando un ciclo di miglioramento sempre più rapido ed importante. Ciò potrebbe portare a una rapida trasformazione della società, con impatti su diversi settori, come l’economia, la scienza, la salute e molti altri ancora.

Tuttavia, è importante notare che la singolarità dell’AI sia ancora una teoria speculativa e non esiste un consenso generale sulla sua possibilità o sulla tempistica di realizzazione. Alcuni scienziati e ricercatori ritengono che la singolarità dell’AI sia improbabile o addirittura impossibile da raggiungere, mentre altri sono più ottimisti sul suo potenziale.
Il concetto di singolarità nell’ambito dell’intelligenza artificiale è stato proposto e sviluppato principalmente da due personalità di spicco.

Lo scrittore di fantascienzaè stato uno dei primi a introdurre il concetto di “singolarità” nell’ambito dell’AI nel suo saggio del 1993 intitolatoThe coming technological singularity: how to survive in the post-human era (“La futura singolarità tecnologica: come sopravvivere nell’era post-umana”), dove ha teorizzato che il progresso tecnologico, in particolare l’intelligenza artificiale, potrebbe portare a un cambiamento così rapido e radicale da superare la comprensione umana.

L’autore, inventore e futurista Ray Kurzweil ha approfondito ulteriormente il concetto di singolarità nell’ambito dell’AI nel suo libro del 2005 intitolatoThe singularity is near: when humans transcend biology (“La singolarità è vicina: quando gli umani trascendono la biologia”). Kurzweil ha elaborato una visione dettagliata del futuro in cui prevede che la crescita esponenziale delle tecnologie, inclusa l’IA, condurrà a un punto di svolta in cui l’intelligenza umana e quella artificiale si fonderanno, aprendo la strada a un’era di progresso senza precedenti.

Entrambi Vinge e Kurzweil hanno contribuito in modo significativo a promuovere e diffondere il concetto di singolarità dell’AI, anche se le loro visioni possono differire nei dettagli e nelle prospettive sul suo impatto e sulla sua tempistica.

Nel prossimo articolo cercheremo di capire, grazie anche alle nozioni apprese da questo percorso storico, cosa sia realmente l’AI e quali siano i pericoli ad essa connessi: non perdetelo.

Consulta altri articoli di Renato Castroreale

Il consenso al trattamento dei dati: opportunità o pericolo?
Profilazione e Big Data: risvolti su privacy e sicurezza
L’identità digitale e l’impronta digitale: cosa sono e a cosa servono

Consulta il volume di Renato Castroreale

Consulta i volumi di EPC Editore

Renato Castroreale

Nato e cresciuto con l’informatica, si è occupato e tuttora si occupa di ICT in un importante gruppo torinese, dove attualmente ricopre il ruolo di CISO (Chief Information Security Officer) nonché di Responsabile dei Sistemi di Gestione Integrati. Grande esperto in materia, specializzato e certificato nei principali schemi di certificazione per la Cybersecurity, la Sicurezza Informatica e la Data Protection (privacy), effettua formazione e fornisce consulenza in questi ed altri ambiti presso primarie aziende italiane.

Renato Castroreale

Nato e cresciuto con l’informatica, si è occupato e tuttora si occupa di ICT in un importante gruppo torinese, dove attualmente ricopre il ruolo di CISO (Chief Information Security Officer) nonché di Responsabile dei Sistemi di Gestione Integrati. Grande esperto in materia, specializzato e certificato nei principali schemi di certificazione per la Cybersecurity, la Sicurezza Informatica e la Data Protection (privacy), effettua formazione e fornisce consulenza in questi ed altri ambiti presso primarie aziende italiane.