intelligenza artificiale origini applicazioni

INTELLIGENZA ARTIFICIALE. ORIGINI, STORIA, APPLICAZIONI

A cura di Luigi Torriani

INTERVISTA A FRANCO RAIMONDI

FRANCO RAIMONDI – Esperto di Intelligenza Artificiale, già Direttore del Department of Computer Science alla Middlesex University di Londra, Franco Raimondi è oggi Professore Ordinario di Informatica presso il Gran Sasso Science Institute (L’Aquila). Ha pubblicato con Polyhistor Edizioni il libro “Percettroni al timone. Breve storia, nozioni di base, applicazioni di intelligenza artificiale

Dall’arrivo sul mercato di Chat GPT, nel novembre del 2022, l’Intelligenza Artificiale è entrata al centro dei dibattiti e dell’esistenza concreta delle persone. Ma l’IA ha una lunga storia alle spalle e i risultati odierni sono il frutto di un’evoluzione secolare. Come possiamo collocare storicamente le origini e – per così dire – le radici dell’Intelligenza Artificiale? Dove e come ha inizio questa rivoluzione?

È difficile dare una data precisa. Il termine “intelligenza artificiale” è stato coniato nel 1956 da John McCarthy, ma i tentativi di costruire macchine che potessero simulare alcuni aspetti dell’intelligenza umana sono di molto precedenti. Io credo che l’intelligenza artificiale sia in continua evoluzione e non parlerei di radici, ma di un continuo processo di miglioramento. Da un punto di vista storico, Charles Babbage progettò una macchina calcolatrice già nella prima metà dell’Ottocento, mentre la Macchina di Turing è del 1936. Nel 1943, invece, McCulloch e Pitts proposero una prima formalizzazione, in maniera molto semplificata, di un neurone. Questa formalizzazione è stata implementata nel 1956 da Frank Rosenblatt con il nome di Percettrone in quello che oggi chiamiamo un “Multi-Layer Perceptron“. Il passaggio dalla teoria all’implementazione pratica avvenne soprattutto a partire dagli anni Sessanta del secolo scorso, prima con approcci simbolici, per esempio con i sistemi esperti. In parallelo con il miglioramento delle capacità computazionali, tecniche di Machine Learning (un termine coniato nel 1959 da Arthur Samuel per descrivere un programma che imparava da solo le regole del gioco della dama) hanno guadagnato terreno nei settori di Natural Language Processing e Computer Vision e continuano ad essere impiegate in molti settori. Le reti neurali, inizialmente poco performanti, hanno rimpiazzato molti approcci grazie ai progressi teorici per il training con lo sviluppo di tecniche di back-propagation e, soprattutto, grazie all’utilizzo di Graphics Processing Units (GPU) a partire dal 2010. Con le GPU e con ulteriori progressi architetturali quali Convolutional Neural Networks e Recurrent Neural Networks è stato possibile fare training di reti neurali a molti strati (Deep Neural Networks), con milioni di parametri, raggiungendo livelli sovra-umani in moltissimi campi. Per finire, l’introduzione dei Transformer nel 2017 nel famoso paper “Attention is all you need” ha dato inizio al campo dell’intelligenza artificiale generativa, aprendo un nuovo capitolo che al momento occupa spesso le prime pagine dei giornali.

Come da anni tutti parlano di Sostenibilità anche quando si tratta di Greenwashing, così oggi tutti parlano di Intelligenza Artificiale anche quando abbiamo a che fare con soluzioni tradizionali esteriormente rivisitate. Per fare un po’ di chiarezza: come possiamo definire l’IA? Ovvero: quando ci troviamo di fronte a qualcosa di veramente nuovo e rivoluzionario?

Io terrei per buona la caratterizzazione data da John McCarthy nel 1956: l’intelligenza artificiale è qualsiasi meccanismo che consenta a una macchina di simulare l’intelligenza umana. Mi rendo conto che questa è una definizione piuttosto ambigua, innanzi tutto perché non abbiamo una definizione oggettiva di “intelligenza umana”, non abbiamo una metrica che ci consenta di dire “questo è intelligente, questo non lo è”. Si riteneva che giocare a scacchi fosse la massima espressione di intelligenza umana, finche’ Deep Blue non sconfisse Kasparov nel 1997. Sempre McCarthy disse: “Non appena funziona, nessuno la chiama più Intelligenza Artificiale“. È giusto quello che lei dice a proposito delle soluzioni tradizionali rivisitate e mi ricorda una vignetta che ho visto poco tempo fa: “Come possiamo fare per migliorare le vendite del nostro software gestionale? Semplice, aggiungiamo un adesivo con scritto ‘Powered by AI‘”. Il punto è che, come dicevo prima, applicazioni di intelligenza artificiale sono disponibili da diversi decenni e sono state integrate in prodotti che usiamo tutti i giorni, dalla navigazione GPS alla raccomandazione di prodotti on-line. Ci possono essere soluzioni e tecniche nuove sia nell’ambito dell’intelligenza artificiale che in altri ambiti. Come in tutti i settori, anche nel campo dell’intelligenza artificiale alcuni prodotti hanno successo e vengono incorporati in ciò che usiamo quotidianamente, altri prodotti vengono lanciati e poi falliscono (per esempio, Google Glass), altri prodotti come intelligenza artificiale generativa sono in fase espansiva e potrebbero espandersi ulteriormente, oppure sparire nel back-office. In generale, parlerei di progressi di intelligenza artificiale, ma lascerei il termine “rivoluzione” agli uffici di marketing.

Dal punto di vista delle applicazioni concrete quali saranno secondo lei nei prossimi anni le ricadute più interessanti nell’ambito dell’Intelligenza Artificiale, sia dal punto di vista dell’esistenza quotidiana delle persone sia sul piano delle soluzioni aziendali e legate alla produzione industriale, alla distribuzione delle merci e all’analisi dei dati?

Nel libro cito diversi esempi di predizioni errate, a partire dalla prima metà del Novecento, anche da parte di scienziati molto illustri. Sono quindi sempre molto restio ad esprimere opinioni sul futuro. Ci sono applicazioni già in uso e penso che difficilmente verranno rimosse: sistemi di raccomandazione personalizzata, traduzione automatica, applicazioni di computer vision nei sistemi di sicurezza per automobili, ecc. Sono a conoscenza anche di molti approcci per l’analisi di dati e di serie temporali, alcuni basati su Machine Learning e altri su tecniche diverse, ma non credo sia possibile stabilire ora quale sia l’approccio migliore in assoluto. Al momento c’è un grandissimo interesse intorno all’intelligenza artificiale generativa e moltissimi prodotti sono in fase di sviluppo. In determinati ambiti, per esempio safety-critical, alcuni prototipi di GenAI non si sono dimostrati all’altezza delle aspettative, mentre in altri settori questa tecnologia ha aumentato la produttività di diverse attività. Per quanto riguarda la distribuzione delle merci, si stanno facendo progressi nel campo della guida autonoma ma credo che un veicolo completamente autonomo che possa integrarsi con guidatori umani in un sistema misto sia ancora molto lontano; penso sarebbe più fattibile pensare a dei cambiamenti infrastrutturali, riservando alcune rotte di movimento o distribuzione alla sola guida autonoma. Per quanto riguarda la produzione industriale, c’è una convergenza tra progressi nel campo della robotica e progressi di computer vision mentre in altri settori, come per esempio satelliti e spazio, ci sono diversi progetti per lo sviluppo di sistemi autonomi. Sono questi tutti esempi di “Research and Development” e, come è giusto che sia, è altamente improbabile che il rate di successo sia il 100%.

In che modo i legislatori dovrebbero secondo lei intervenire per normare un settore – quello dell’Intelligenza Artificiale – che sta già rivoluzionando le nostre società? Quali sono gli aspetti critici sui quali occorrerebbe porre dei paletti e dei limiti chiari?

Questa è una domanda facile perché i legislatori sono già intervenuti. Nell’Unione Europea è in vigore da maggio 2024 un regolamento che individua quattro livelli di rischio per le applicazioni di intelligenza artificiale. Per ogni livello di rischio il regolamento specifica dei requisiti per i sistemi. Uno sforzo simile è in atto negli Stati Uniti, in California. L’identificazione di paletti e limiti è, fortunatamente, un’area di ricerca molto attiva a livello multi-disciplinare, con diversi progetti sia a livello italiano che a livello europeo in cui vengono coinvolti informatici, matematici, fisici, ma anche filosofi, giuristi, storici, ecc. Un’area che richiederebbe più attenzione e che affronto nella parte finale del mio libro è l’impatto ambientale di alcune soluzioni: fare training di un Large Language Model produce migliaia di tonnellate di anidride carbonica e richiede migliaia di metri cubi di acqua per il raffreddamento. Tutto ciò crea innanzi tutto una situazione di monopolio, perché solo le aziende più grandi possono permettersi i costi di queste attività. Ciò che ritengo più grave, però, è la sottrazione di risorse ambientali in un’epoca storica di forte crisi climatica per prototipi che non sono sempre utili a tutta la società.



Accetta la nostra privacy policy prima di inviare il tuo messaggio. I tuoi dati verranno utilizzati solo per contattarti in merito alla richieste da te effettuate. Più informazioni

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close