Intervista a Ernesto Hofmann
ERNESTO HOFMANN, Laureato in fisica, programmatore, manager, direttore consulente, per quasi quarant’anni in IBM, Ernesto Hofmann è una delle grandi figure di riferimento della storia dell’informatica. Il 25 maggio 2017 ha tenuto una conferenza sul tema “Economia digitale” nella nostra sede centrale del Gruppo Datasys & Datatex, a Milano.
Nel 1957 l’Olivetti lancia Elea 9003, uno dei primi antenati del personal computer. Nel 1979 l’allora presidente di Olivetti Carlo De Benedetti rifiuta la proposta di Steve Wozniak e Steve Jobs di acquisire il 20% della neonata Apple per 200.000 dollari (quel 20% oggi vale più di 100 miliardi…). Nel 2017 l’Italia, pur avendo grandi potenzialità e aziende con persone e con prodotti di alto livello, è un Paese in crisi e ormai periferico nel mondo del business legato all’informatica e alle tecnologie. Quali sono secondo lei le ragioni di questo declino e quali sono gli elementi su cui potrebbe poggiare una rinascita?
Secondo me non basterebbe un libro per rispondere a una domanda che io stesso mi sono posto innumerevoli volte. Ci sono tanti di quegli aspetti da considerare da restare alla fine intrappolati in un groviglio quasi inestricabile di cause e concause. Nessuno sa ancora perché sia crollato l’Impero romano. Dopo la battaglia di Adrianopoli qualcosa di molto grave doveva essere successo. Oggi gli archeologi hanno scoperto che le case costruite dopo quella data, soprattutto nelle province dell’Italia, erano di una qualità molto più scadente rispetto ai decenni precedenti. Ma perché? Nemmeno l’illuminista Gibbon con la sua monumentale “Storia del declino e della caduta dell’impero romano” ha una risposta convincente.
Per parte mia posso fare alcune brevi e personali considerazioni. Il caso Olivetti è quasi paradigmatico. Un’eccellenza tecnologica a dir poco straordinaria. Alcuni personaggi ormai mitici. Penso ad Adriano Olivetti, al figlio Roberto mancato prematuramente, agli straordinari progettisti, come Mario Tchou (anche lui mancato giovanissimo), come Pier Giorgio Perotti, come Giorgio Sacerdoti, e ancora tanti altri. C’è tutta una letteratura su questa meravigliosa azienda, ma occorre, sempre secondo me, considerare alcune cose.
La visione innovativa è qualcosa di imprevedibile e di solito frutto di una capacità imprenditoriale all’avanguardia. A questa visione occorre associare una squadra molto coraggiosa. I personaggi che ho prima citato erano tutti appassionati dell’innovazione e dell’elettronica, mentre gli uomini cosiddetti in abito grigio sono la morte dell’innovazione. Occorre lavorare indefessamente e rimanere determinati anche a fronte di una forte opposizione interna ed esterna. Mi sembra di ricordare che Steve Jobs volesse prezzare il Mac al di sotto dei costi di produzione soltanto per occupare mercato. E venne momentaneamente allontanato.
In secondo luogo occorre riflettere sul fatto che quanto accaduto alla Olivetti è avvenuto all’intera industria europea del computer (ICL, Siemens, Bull, Philips,..).
Gli inglesi che nella seconda guerra mondiale avevano raggiunto straordinari risultati, almeno per l’epoca, con la microelettronica e i computer, mantengono ormai una sola eccellenza, quella della ARM Holdings che progetta, ma non costruisce, sofisticati microprocessori presenti in quasi il 75% degli smartphone. Tali microprocessori, per dirla in maniera molto grossolana, vengono poi perfezionati e costruiti dalla californiana Qualcomm, che si serve in generale, per disegnare sul silicio, dell’americana Globalfoundries, la quale ultima ha assorbito pochi anni fa la IBM Microelectronics, che costruiva i chip per la IBM. In sostanza siamo di fronte a un mercato di una complessità tecnologica, finanziaria e politica che è al di là delle possibilità delle singole nazioni europee. Del resto se l’Europa fosse stata veramente un’unica nazione forse ci sarebbe stata una concentrazione di competenze e di capacità finanziarie tali da permettere di giocare un ruolo di protagonisti. Ma nessuna delle nazioni europee è stata in grado di farlo da sola.
Mi viene da pensare ai cinesi e al loro ultimo supercomputer, il Sunway TaihuLight da 96 petaflop/s, costruito “by using domestic chip technology”. Per curiosità sono andato a studiarlo un poco, nella documentazione disponibile, e ho visto che in realtà la loro domestic technology, ossia i chip ShenWei, sembrano molto simili al celebre chip Alpha della Digital, progettato da Glasser e Dobberpuhl, autori nel 1985 di un fondamentale testo sull’evoluzione dei circuiti VLSI. Il loro libro, veramente bello, è ancora in commercio. Questo per dire che nella microelettronica di punta non è poi così facile innovare, anche se si dispone di enormi capitali. L’Olivetti, poi, credo fosse in difficoltà finanziarie. A metà degli anni Sessanta la Divisione Elettronica registrava già sostanziali perdite che potremmo oggi attualizzare in molte centinaia di milioni di euro, nonostante la grande qualità dei suoi prodotti. Quindi non credo che ci sia uno specifico declino italiano, almeno in questo settore.
Io sono un grande fautore di un’unica Europa. Potremmo fare tutti insieme cose meravigliose in campi così complessi e che richiedono non solo talenti ma anche tanti investimenti. Come in un reattore nucleare occorre massa critica. Ma qui si entra in un terreno finanziario e politico e questo non mi compete. Si dice sempre che la tecnologia può fare quello che vuole, ma non è vero. Persino Eschilo e Platone ci raccontano che Prometeo potè rubare il fuoco, ma non potè rubare a Zeus la scienza politica che regge le umane vicende.
Informatica cognitiva e internet delle cose: quali sono secondo lei le grandi innovazioni che cambieranno la vita delle persone e delle aziende nei prossimi decenni?
Informatica cognitiva e internet delle cose sono due realtà informatiche distinte, anche se probabilmente finiranno anche con l’incrociarsi poiché l’internet delle cose potrebbe produrre quei dati che l’informatica cognitiva potrebbe utilizzare per le sue analisi.
Esaminiamo innanzitutto l’internet delle cose. Possiamo dire in maniera molto semplificata che l´internet delle cose (ovvero IoT: Internet of Things) è un insieme di tecnologie che consentono di collegare alla rete dispositivi, o meglio entità, che normalmente non sono stati specificamente progettati per essere connessi.
In sostanza IoT è un vero e proprio ecosistema di tecnologie che controllano lo stato degli oggetti fisici, acquisendo dati significativi e comunicando tali informazioni tramite reti IP alle applicazioni software.
Potremmo scherzosamente pensare a una macchina da caffè intelligente che ci avverte sul cellulare quando il caffè è pronto.
Gli oggetti devono essere arricchiti con una tecnologia Auto-ID, tipicamente un tag (etichetta) RFID, in modo che l’oggetto stesso sia identificabile in modo univoco. Inoltre, un tag RFID consente all’oggetto di comunicare in modalità wireless con determinati tipi di informazioni.
RFID è un acronimo (identificazione radiofrequenza) che si riferisce ad una tecnologia in cui i dati digitali codificati nei tag RFID, ovvero nelle etichette intelligenti, vengono catturati da un lettore tramite onde radio.
Un tag RFID è costituito da un circuito integrato e da un’antenna. Il tag è anche composto da un materiale protettivo che tiene insieme i pezzi e li protegge da diverse condizioni ambientali.
La tecnologia RFID è simile alla codifica a barre e i relativi dati provenienti da un tag o da un’etichetta a barre vengono acquisiti da un dispositivo che memorizza i dati in un database. RFID, tuttavia, ha diversi vantaggi rispetto ai sistemi che utilizzano il software di monitoraggio delle risorse del codice a barre. Il più notevole è che i dati del tag RFID possono essere letti al di fuori della linea di vista, mentre i codici a barre devono essere allineati con uno scanner ottico.
I tag, in modo analogo ai codici a barre, possono essere apposti o inseriti in oggetti per essere successivamente letti o aggiornati da un sistema informativo senza intervento diretto di una persona. Con una simile tecnologia diventa persino possibile leggere e scrivere informazioni attinenti non solo un singolo prodotto ma persino una singola unità di prodotto.
Il campo delle possibili applicazioni è vastissimo, dalla movimentazione di merci e prodotti al controllo del bestiame, dagli acquisti in un supermercato al controllo automatico di accessi,… Se limitiamo la nostra analisi ai soli problemi della distribuzione e della logistica possiamo facilmente intuire quanti e quali siano i processi in grado di essere perfezionati o persino interamente ridisegnati.
Possiamo immaginare una prima categoria di attività tipiche del mondo della distribuzione: l’inventario delle merci, la loro ispezione, l’aggregazione/disaggregazione dei contenitori, l’ispezione del materiale. L’utilizzo della tecnologia RFID può essere esteso all’intera catena di distribuzione, nei suoi diversi momenti, dai nastri trasportatori alla logistica. In ogni momento di quest’estesa catena distributiva potranno e dovranno essere effettuati controlli che con l’RFID diventeranno sempre più automatizzati e correlati con un’intuibile ottimizzazione dell’intero processo.
L’Internet delle cose può far aumentare la competitività dell’Europa nella maggior parte dei settori industriali.
Veniamo ora all’informatica cognitiva. Qui il discorso si fa molto più complesso, anche perché è in fieri e le prospettive di successo di questa tecnologia non sono ancora del tutto consolidate.
Nell’informatica tradizionale l’elemento chiave di una qualsivoglia analisi di dati era il classico algoritmo nato con la logica aristotelica, “se A allora B”, che Boole e Shannon sono riusciti a tradurre in un’algebra e quindi in circuiti elettronici e infine in computer.
Ma con una simile metodologia il programmatore deve saper anticipare ogni possibile situazione scrivendo un numero pressoché infinito di istruzioni. Occorre invece un altro approccio, dotando i computer di capacità interpretative tali da permettere loro di imparare dai dati stessi e quindi di adattarsi nel tempo per acquisire nuove competenze: facile a dirsi ma incredibilmente difficile da attuare.
Il punto è che la maggior parte delle imprese e delle organizzazioni non conosce i propri processi così bene da poterli tradurre facilmente in diagrammi di flusso o in alberi di decisione che danno poi luogo agli algoritmi software necessari.
Attualmente esistono tecniche euristiche, che però devono essere ampiamente supportate da esperti che abbiano i piedi contemporaneamente nei processi e nelle tecnologie informatiche.
Solo allora ci si può cimentare nella simulazione, nella modellazione, nell’elaborazione e quindi nella verifica dei risultati ottenuti. Piuttosto che di “machine learning” sembra si sia ancora in una fase tipicamente ingegneristica di modellazione software.
I cosiddetti sistemi cognitivi che sono già all’orizzonte saranno però fondamentalmente diversi dai sistemi informatici tradizionali.
Mentre i computer tradizionali devono essere programmati per svolgere specifici compiti (algoritmi), i sistemi cognitivi impareranno dalle loro interazioni con i dati e dovrebbero essere in grado, in un certo senso, di autoprogrammarsi per svolgere nuovi compiti.
I computer tradizionali sono stati progettati per calcolare rapidamente; i sistemi cognitivi saranno progettati per trarre conclusioni dai dati e perseguire gli obiettivi che sono loro stati dati.
Ciò che occorre, quindi, è una nuova architettura informatica, che in un certo senso prenda ispirazione dal funzionamento del cervello umano.
Il cervello umano si è evoluto nel corso di milioni di anni per diventare uno straordinario strumento di apprendimento e di riflessione. L’uomo è in grado di selezionare pressoché immediatamente l’informazione necessaria da una moltitudine di impressioni sensoriali.
Un tempo, nella savana, già gli ominidi dovevano essere in grado di anticipare al massimo l’azione di un potenziale predatore per poter sopravvivere, mentre l’uomo odierno nel caos di un incrocio molto trafficato deve essere in grado di identificare immediatamente persone, veicoli, edifici, strade e marciapiedi e comprendere come essi si relazionino vicendevolmente.
L’elaborazione dei dati dovrà essere perciò distribuita in tutto il sistema di elaborazione piuttosto che concentrato in una CPU, così come nel cervello umano le operazioni vengono svolte secondo uno straordinaria distribuzione di compiti svolti per lo più in parallelo: si guida, mente si osserva la strada, l’ambiente, si discorre con qualcuno e intanto si ascolta della musica, e tutto viene assorbito ed elaborato.
E potremmo allora aggiungere che nel corso degli ultimi due decenni ci sia stato come uno iato nella visione di come far evolvere un’architettura informatica intelligente.
L’IBM, che certamente ha dato contributi decisivi all’evoluzione di questa disciplina, alla fine del XX secolo ha voluto in un certo senso misurare la verità di un’affermazione di Goethe, ossia che il gioco degli scacchi fosse il paradigma dell’intelligenza umana e ha così costruito un sistema, Deep Blue, con il quale ha affrontato l’allora campione del mondo, Gary Kasparov.
In una sfida ormai celebre Deep Blue ha vinto e si è quasi gridato al miracolo. In realtà il gioco degli scacchi è un’attività abbastanza algoritmica e che prevede una fortissima capacità di memorizzazione. Anche se gli scacchi prevedono una grande molteplicità di combinazioni a partire da una specifica mossa, l’intera matrice computazionale è abbastanza ben definita: posizioni sulla scacchiera, numero di pezzi, e norme che limitano i tipi di mosse che un pezzo potrebbe fare.
I grandi campioni possono individuare una particolare situazione di scacchiera, trovare analogie con situazioni simili, ricordare quale fu lo svolgimento di partite simili, adottare essi stessi opportuni ragionamenti che sono in definitiva algoritmi del tipo: se sposto questo, lui forse sposta questa, e allora… In sostanza è un domino conoscitivo abbastanza ben delineato e circoscritto, ancorchè gravido di infinite varianti.
Dire che Deep Blue sia un successo di una disciplina genericamente denominata Intelligenza Artificiale è abbastanza illusorio. Quel computer (o meglio quell’aggregato di processori) può affrontare quello specifico problema e ben poco altro.
Oggi, poi, sono disponibili programmi software per Personal Computer con prestazioni che si avvicinano a quelle di un grande campione di scacchi. Conscia di tutto ciò l’IBM ha di molto ampliato la sua visione del problema e delle sue implicazioni e ha pensato di affrontare un tipo di gioco molto più “aperto” del gioco degli scacchi e quindi molto più elusivo dal punto di vista delle metodologie necessarie per competere con successo.
Nel 2006 venne così avviato un progetto che prevedeva di poter partecipare con un computer a un gioco televisivo di enorme successo negli USA, ossia Jeopardy!, gioco che in parte era stato ripreso alcuni decenni fa da Mike Bongiorno in una trasmissione televisiva anch’essa di grande successo, Il rischiatutto.
In Jeopardy! tre concorrenti prendono posto alle spalle di tre leggii, ciascuno dotato di un dispositivo di segnalazione a mano e di uno schermo con una penna ottica. I concorrenti competono in un gioco a quiz composto da tre turni: Jeopardy, Double Jeopardy, e Final Jeopardy, basati sostanzialmente su domande cui occorre rispondere.
Il materiale per le domande copre una vastissimo ambito di argomenti, quali storia e attualità, scienze, arti, cultura, letteratura e lingue.
Una tipica domanda potrebbe essere: qual è il più grande lago del Giappone? Risposta: il lago Biwa-ko.
Come si può intuire è un gioco estremamente aperto, anche perché le parole sono ingannevoli e spesso la sintassi nasconde la semantica e non comprendendo quest’ultima come si può rispondere correttamente? Si pensi alla banale frase, pronunciata e non scritta (!): sparò un colpo alla cieca. Era cieca o era ceca, o ancora era a caso? Insomma si tratta di muoversi su di un terreno estremamente infìdo per un computer.
L’IBM ha progettato e costruito un computer (e il relativo software!), denominato Watson, in grado di rispondere a domande poste in un linguaggio naturale, sviluppandolo all’interno di un progetto denominato DeepQA.
Nelle tre puntate, dal 14 al 16 febbraio 2011, Watson sconfisse Brad Rutter, noto come il campione che aveva vinto più denaro partecipando a Jeopardy!, e Ken Jennings, detentore del record di permanenza nello show.
Watson ottenne il primo premio di un milione di dollari, mentre Ken Jennings e Brad Rutter ricevettero rispettivamente 300.000$ e 200.000$. Il denaro vinto da Watson è andato in beneficenza.
E’ interessante osservare che Watson ha costantemente superato i suoi avversari, pur mostrando qualche difficoltà con alcune categorie di domande, specialmente quelle con indizi ridotti e che contenevano poche parole.
Per ogni indizio, le tre risposte più probabili di Watson venivano mostrate sullo schermo televisivo. Watson aveva accesso a 200 milioni di pagine di contenuti, strutturati e non, incluso il testo completo di Wikipedia. Durante le varie sfide Watson non era connesso a Internet.
Il sistema Watson del 2011 era composto da un gruppo di novanta server IBM Power 750 (interconnessi in un cluster realizzato con tecnologia Ethernet da 10 Gigabit) ciascuno delle quali utilizzava un processore a otto core POWER7, con quattro thread per core, per un totale equivalente di fatto a 2880 core. Siamo ben lontani quindi dagli oltre dieci milioni di core di Sunway TaihuLight, eppure l’hardware di Watson era perfettamente adeguato ai suoi compiti. Inoltre Watson aveva una memoria complessiva RAM, distribuita sul cluster dei 90 server, di 16 Terabyte nella quale veniva caricato all’accensione del sistema un Terabyte di dati, che erano poi quelli utilizzati durante il gioco.
Nei due anni successivi il sistema è stato perfezionato, soprattutto a livello software, tanto da essere quasi tre volte più potente di quello originale, pur occupando molto meno spazio.
Riprendiamo per un momento in esame Deep Blue. Un giocatore di scacchi e un computer che gioca a scacchi non hanno nulla in comune. Il computer utilizza il metodo “forza bruta” (anche noto come ricerca esaustiva della soluzione) ossia un algoritmo di risoluzione che consiste nel verificare tutte le soluzioni teoricamente possibili fino a che si trova quella effettivamente corretta.
Il computer quindi verifica quali possibilità abbiano miliardi di possibili mosse per scegliere le mosse migliori.
Un essere umano non può fare nulla di simile, e quindi esamina molte meno possibilità e utilizza piuttosto una combinazione di strategia e tattica e intuizione. Anche Watson, come Deep Blue, fa uso di un approccio di forza bruta per giocare “Jeopardy!” ma il contesto è profondamente diverso.
Il gioco degli scacchi ha uno spazio di ricerca matematicamente ben definito, caratterizzato da un numero limitato di mosse e posizioni possibili e quindi rappresentabile da regole matematiche univoche ed esplicite.
Il linguaggio umano è invece notoriamente ambiguo, contestuale e implicito e caratterizzato da un numero apparentemente infinito di modi per esprimere lo stesso significato.
L’IBM ha iniziato alimentando la memoria di Watson con normali informazioni di testo. Sono così stati memorizzati digitalmente tutta la versione inglese di Wikipedia (circa 14 miliardi di caratteri di testo), un’altra enciclopedia, un dizionario completo, un thesaurus completo, la Bibbia, un database di film e di informazioni geografiche. Il tutto pari a circa un milione di libri, ovvero a un terabyte (ossia 1012 byte). Da quel terabyte il sistema ha richiamato tutta la sua “conoscenza” nell’interpretare e rispondere alle domande.
A questo punto sorgono spontanee due domande. In primo luogo, come fa Watson a decostruire le domande per interrogare questo terabyte di informazioni e, in secondo luogo, com’è stato costruito tale archivio elettronico per essere in una forma utilizzabile per rispondere alle domande?
Negli ultimi dieci anni, i sistemi di Question Answering sono diventati sempre più importanti per le imprese che gestiscono grandi volumi di documenti. Gli studi legali, per esempio, hanno bisogno di ricercare nella letteratura giurisprudenziale un precedente utile o citazione; oppure gli addetti agli help-desk spesso devono esaminare grandi database di informazioni su specifici prodotti per trovare rapidamente una risposta da dare a un cliente agitato. In simili situazioni, la velocità può essere spesso essenziale – nel caso di help desk il lavoro viene addebitato al minuto – e quindi le imprese ad alta tecnologia con margini sottili spesso perdono i loro profitti fornendo assistenza telefonica. Si potrebbe pensare che motori di ricerca come Google o Yahoo siano ormai la riposta a simili esigenze.
Un motore di ricerca web ha accesso a una fonte immensa di informazioni e può trovare velocemente le pagine web rilevanti dato un piccolo numero di termini di query.
Ma per partecipare a Jeopardy!, è necessario generare risposte precise alle domande. Un motore di ricerca web non restituisce risposte precise, anzi, è stato progettato per restituire un insieme di pagine web tra le quali l’utente può tentare di trovare ciò che cerca.
Per rispondere a una domanda di Jeopardy! tramite un semplice indizio occorre saper andare oltre la pagina dei risultati di ricerca, occorre esaminare documenti che siano in grado di contenere la risposta, leggerli, e individuare l’eventuale risposta corretta al loro interno.
Una prima sfida per individuare i documenti pertinenti è come scegliere il giusto insieme di parole chiave per trovare proprio tali documenti. Molti indizi contengono informazioni solo apparentemente utili. Inoltre, gli indizi stessi possono utilizzare termini diversi da quelli utilizzati nei documenti memorizzati. Anche con Google, se non si usano le parole giuste, il documento che si ha più o meno in testa non si riesce a individuarlo. Non è quindi vero che Google riduca la capacità lessicale degli studenti che lo usano, tutt’altro, se gli studenti stessi sono intelligenti. Li provoca a pensare ad altre parole e quindi ad ampliare il proprio lessico.
Per tutte queste ragioni la IBM ha progettato una tecnologia denominata DeepQA (denominazione che potremmo tradurre con “sistema profondo di domande/risposta”).
La caratteristica fondamentale di DeepQA è che durante la ricerca di un documento si parte da uno specifico termine, dal quale si otterrà in generale un elenco di documenti candidati, che verranno classificati in ordine di pertinenza alla domanda. C’è da aggiungere che mentre la tecnologia DeepQA riceve la domanda espressa in linguaggio naturale, cerca di andare in maggior dettaglio esaminando tutte le possibili attinenze, ossia un vasto insieme di documenti più o meno correlati a quanto è stato chiesto. DeepQA va ben oltre la semplice riformulazione o analisi delle parole chiave, come potrebbe fare al limite anche Google. DeepQA inizia con un’attività che potremmo definire di disambiguazione, per poi procedere in una vera e propria analisi sintattica, per verificare quindi se le domande siano spazialmente o temporalmente vincolate e richiedano quindi un’ulteriore analisi del loro testo.
Cerchiamo di comprendere meglio. Una stessa parola può assumere molteplici significati: è una parola polisemica. Prendiamo a esempio la parola rombo, alcuni dei cui significati appaiono ben distinti: la figura geometrica piuttosto che il pesce. Sarà ovviamente il contesto che dovrà chiarirne l’uso.
Il vero “cervello” di Watson è quindi essenzialmente nella sua competenza linguistica. La comprensione di parole, frasi ed espressioni era ciò che gli dava un enorme vantaggio rispetto ad altri computer, anche ben più potenti. Forse in un futuro non troppo lontano questo tipo di tecnologia diventerà accessibile, come lo sono oggi sofisticatissimi programmi per giocare a scacchi e ormai in grado di battere quasi tutti i grandi maestri pur operando su di un PC.
Ma è bene tenere presente che sono molti i campi applicativi, dall’economia alla biologia, nei quali questo tipo di approccio potrebbe fornire un ausilio formidabile. IBM sta collaborando da alcuni anni con organizzazioni all’avanguardia nella ricerca oncologica, come per esempio il centro oncologico Memorial Sloan-Kettering, per utilizzare Watson in modo da farne un vero e proprio assistente sanitario d’eccellenza.
Watson ha già memorizzato più di seicentomila documenti medici, con due milioni di pagine di testo tratte da 42 riviste specializzate e studi clinici nell’area della ricerca oncologica. Watson riesce a esaminare un milione e mezzo di documenti dei pazienti, che includono le cartelle cliniche e la storia decennale di trattamenti oncologici. In questo modo può offrire ai medici opzioni di trattamento basate sulle evidenze acquisite nel giro di pochi secondi.
Durante questa fase di “addestramento” Watson ha memorizzato più di venticinquemila scenari di casi di test e mille e cinquecento casi reali, e ha acquisito la capacità di interpretare il significato e di analizzare le interrogazioni nel contesto di dati medici complessi e in linguaggio naturale quali appunti dei medici, cartelle dei pazienti, annotazioni mediche e feedback clinico.
Attualmente un oncologo, per tenersi aggiornato a livello mondiale, dovrebbe leggere per oltre cento ore alla settimana. Watson può allora diventare un ausilio per confrontare situazioni e fornire suggerimenti.
Naturalmente i campi applicativi dell’informatica cognitiva sono molti di più e noi abbiamo solo accennato a un singolo esempio concreto. Il lettore interessato potrebbe andare su Internet e fare una prova personale per vedere come Watson, in una demo che viene proposta, riconosce le immagini che gli vengono fornite. Io mi sono divertito a proporre alcune mie fotografie per vederne le risposte e devo dire che queste ultime erano quanto mai ragionevoli.
E a questo punto nasce la domanda chiave: ma un sistema così è atto a imparare? La risposta non è semplice. Infatti di per sé un sistema, per quanto complesso, non è attualmente in grado di affrontare una realtà multidisciplinare come fa il cervello umano. Il punto chiave è che la macchina non comprende cosa fa, ossia è priva di coscienza. Al momento è ancora un bruto manipolatore di simboli senza autocoscienza.
E’ un discorso di un’enorme portata che va al cuore del tema dell’intelligenza artificiale. La cosa che si dimentica troppo spesso è che l’intelligenza è un prodotto della biologia, ossia della vita, e non viceversa. Come diceva Popper alcuni anni fa, il Creatore sembra abbia deciso per una sequenza che sarebbe ben difficile da invertire. Quindi parlare di una macchina in grado di apprendere è quanto meno azzardato. Quello che invece occorre fare è delimitarne con molta precisione il terreno operativo.
Informatica cognitiva quindi non significa intelligenza artificiale, anche se il progresso rispetto alla tradizionale informatica procedurale appare al momento enorme.
Inoltre ci si muove verso un’informatica sostanzialmente probabilistica piuttosto che deterministica, come quella tradizionale.
Siamo ancora ben lontani, secondo me, dal famoso HAL9000 del film Odissea nello spazio. Non c’è da aver paura di simili tecnologie che invece potrebbe aiutare enormemente nell’attuale maggiore difficoltà della società umana, ossia la complessità.
Se alla fine del Rinascimento il telescopio ci ha consentito di vedere l’infinitamente lontano, e quindi nell’Ottocento il microscopio l’infinitamente piccolo, l’odierno computer, nella sua continua evoluzione, ci consentirà di comprendere meglio l’infinitamente complesso.