1988. Operazione AS/400. I ricordi e il commento di Hofmann - Datasys Magazine

1988. Operazione AS/400. I ricordi e il commento di Hofmann

ERNESTO HOFMANN – Laureato in fisica, programmatore, manager, consulente, storico dirigente in IBM, azienda per la quale ha lavorato per oltre quarant’anni, Ernesto Hofmann è una delle grandi figure di riferimento della storia dell’informatica.

 

Articolo di Ernesto Hofmann

1988. Operazione AS/400. I ricordi e il commento di Hofmann

 

Come scoglio immoto resta
Contro i venti e la tempesta,
Così ognor questo AS è forte…

…Rispettate, anime ingrate,

Quest’esempio di costanza…

aria di Fiordiligi, liberamente modificata

 

La famiglia di sistemi IBM AS / 400 nacque tra la fine degli anni Settanta e l’inizio degli anni Ottanta nei laboratori IBM di Rochester, nel Minnesota. Al centro della cittadina di Rochester c’è un bellissimo piccolo lago, di cui mostriamo una fotografia, il lago argentato, Silver Lake, il cui nome venne preso proprio per denominare in codice il progetto dell’AS/400. L’AS / 400 (Advanced System 400) era in realtà il frutto di una lunghissima evoluzione tecnologica nata  dai preesistenti minicomputer sistema 32 e sistema 36, ma soprattutto dal frutto solitario di un ambizioso progetto IBM denominato in codice Future System, il sistema 38. Nel 1988 da mesi filtravano notizie su di un prossimo annuncio IBM che avrebbe riguardato una nuova linea di computer pronta ad affiancare/sostituire i sistemi 36, che costituivano uno degli asset della piccola  e media-impresa italiana. Avendo fatto parte dell’IBM per quasi 40 anni, e avendo partecipato dal 1981 (anno dell’annuncio del 3081) a quasi tutti gli annunci dei computer medio-grandi fino alla serie Z, credo di poter affermare con cognizione di causa che l’annuncio del 21 giugno 1988 fu un evento unico. Mentre Luigi Gola, responsabile per l’IBM Italia di quella linea di computer,  parlava ad Assago a oltre 1500 persone ivi convenute, a  Milano si teneva una conferenza stampa con una audience che non avevo e non avrei mai più rivisto: oltre 110 giornalisti, praticamente di tutte le testate. L’attesa era veramente enorme, perché troppe notizie erano filtrate (forse ad arte), tra cui persino il nome Silverlake, che ormai tutti i giornalisti del settore conoscevano. Il compianto ing. Presutti, allora presidente dell’IBM Italia, guidò la conferenza nonostante dovesse partire poche ore dopo per l’Australia, e vista la platea temeva giustamente di fare tardi all’aeroporto. A me toccò il compito di spiegare le innovazioni tecnologiche del sistema e rispondere alle domande di natura tecnica. E la prima domanda venne da un giornalista, che ricordo bene per la sua simpatia, e che esordì dicendo: scusatemi, ma non ho capito nulla. Al che Presutti mi disse a bassa voce: ahhh, andiamo bene… Eppure si era creato un clima talmente gradevole, e si era nel pomeriggio di giugno di una giornata bellissima, che tutto l’evento ebbe uno straordinario successo. E intanto ci arrivavano splendide notizie da Luigi Gola, impegnato sull’altro fronte. Non potei allora raccontare del Future System IBM, né del sistema 38, sia perché il tempo era poco sia perché alcune notizie erano in parte ancora confidenziali. E fu un peccato perché altrimenti si sarebbe compreso molto meglio quante e quali fossero le innovazioni introdotte dall’ AS/400.

In quest’articolo vorrei quindi riprendere questi temi e cercare di raccontarli, in modo divulgativo, per mostrare quanto realmente fosse  innovativo l’AS/400.

Il Future System IBM

All’inizio degli anni Settanta l’IBM aveva lungamente valutato la possibilità di ridisegnare in toto l’architettura dei suoi computer, e in particolare della linea Sistema 360,  che intanto si era evoluta nella 370, che introduceva  soprattutto un’importante novità architetturale, e cioè le memorie virtuali, oltre a una migliorata tecnologia circuitale. Ma, proiettandosi negli anni a venire, l’IBM aveva pensato di creare un’architettura molto più complessa e idonea ad affrontare quella che si immaginava sarebbe stata la naturale evoluzione dell’Information Technology.  Nacque così’ un progetto di cui si parlava solo in alcuni suoi laboratori e che prendeva  l’impegnativo nome di Future System. Il progetto Future Systems (FS) aveva l’obiettivo di sviluppare una linea rivoluzionaria di prodotti per computer, incluse nuove tipologie  di software in grado di semplificare lo sviluppo del software applicativo, sfruttando anche un hardware più moderno e più potente . Ma c’era anche una motivazione molto più impellente. Fino alla fine degli anni Sessanta, l’ IBM aveva ottenuto la maggior parte dei suoi profitti dall’hardware, poiché in realtà offriva gratuitamente il supporto software (e quello dei servizi) unitamente all’hardware stesso; strategia cosiddetta del bundling (impacchettamento). Soltanto  l’hardware quindi aveva di fatto un costo, che però per l’ IBM significava investimenti anche nel software e nei servizi. In quegli stessi anni altri costruttori, per prima la RCA,  quasi subito dopo l’annuncio del Sistema 360 con lo Spectra70, e poi soprattutto costruttori giapponesi come Hitachi e Fujutsu, oltre all’americana Amdahl, avevano compreso che potevano inserirsi in questa strategia di vendita ritagliandosi accortamente un posto. Avrebbero venduto sistemi hardware-compatibili con quelli IBM e sui quali poteva essere eseguito il software di sistema IBM, senza dover investire nella produzione e manutenzione di quest’ultimo, e quindi riducendo il costo dei propri computer. Era la strategia dello spacchettamento, ovvero dell’unbundling.

A quel tempo il costo dell’hardware, allora genericamente denominato costo per MIPS (ossia milioni di  istruzioni eseguite al secondo) era molto elevato (persino milioni di dollari) e tale sarebbe rimasto per tutto il decennio. Ma si intuiva che prima o poi,  con nuove tecnologie, e soprattutto con la CMOS invece della bipolare, i livelli di integrazione circuitale sarebbero enormemente cresciuti e i costi di acquisto notevolmente diminuiti. Diventava quindi strategico considerare il costo futuro che le imprese avrebbero dovuto affrontare nello  sviluppo applicativo,sperando di catturarne una frazione importante. Si pensava anche che una nuova architettura, che facesse un uso più significativo e intelligente  delle risorse hardware, avrebbe potuto ridurre i costi applicativi e quindi ridurre i costi sia per l’IBM sia per i suoi clienti. Già allora, come soprattutto oggi, il ruolo chiave lo avevano i dati. Senza dati non esiste Information Technology.  E le stesse reti neurali (soprattutto il deeplearning), che oggi stanno letteralmente esplodendo per numero e per qualità, riescono a dare il meglio di sé solo se alimentate con una quantità crescente di dati. Come il bambino impara a riconoscere  i gatti e i cani vedendone tanti nei primi anni di vita (e lo stesso vale per l’ascolto delle parole nel linguaggio), così le reti neurali imparano solo se alimentate da tanti dati.

Il dato è l’essenza dell’Information Technology, e la chiave di volta del suo utilizzo è il modo di archiviarlo, di ritrovarlo, di confrontarlo. All’inizio degli anni Settanta, il principio fondamentale di utilizzo dei dati da parte del Future System sarebbe stato quindi quello di operare con un archivio dati di un solo livello, strategia che estendeva enormemente la tecnica della memoria virtuale allora prossima a essere annunciata. In tal modo i programmatori non avrebbero dovuto preoccuparsi se l’entità applicativa, comprensiva dei dati,  alla quale stavano tentando di accedere, fosse in memoria o su disco. Questo, e altri miglioramenti pianificati, avrebbero semplificato la programmazione e quindi ridotto i costi di sviluppo del software applicativo. L’effettiva realizzazione di una simile strategia  richiedeva che i meccanismi di indirizzamento dei dati incorporassero un sistema completo di gestione della gerarchia fisica di archiviazione, e anche di  gestione di un cosiddetto database, elementi che fino ad allora venivano realizzati con pacchetti  di software aggiunti al software di sistema. Nonostante le prospettive tecnologiche del Future System sembrassero quanto mai attraenti,  il progetto stesso nel 1975 venne abbandonato. Le ragioni di tale rinuncia erano più di una e noi ci limitiamo e citarne solo un paio,  che riteniamo le più importanti.

Innanzitutto si era constatato  che le istruzioni proprie del Future System (ossia quelle eseguite in modo cosiddetto  nativo) sui computer prototipi del Future System impiegavano più tempo di istruzioni simili, ma di tipo   370, anch’esse eseguite sugli stessi computer Future System, ma in emulazione. E poi, e questo sembrava il punto più dolente, si era intuito che l’accettazione da parte dei clienti sarebbe stata più esigua rispetto a quanto si era previsto, poiché non sarebbe stato semplice far migrare le esistenti applicazioni 360/370 alla nuova architettura. In sostanza c’era il rischio di perdere una consistente frazione della Information Technology (mainframe IBM). Però le idee più significative del progetto erano troppo attraenti per essere del tutto abbandonate, e allora si pensò di mantenere quelle più innovative e di cercare di proporle comunque al mercato dell’Information Technology, con un  nuovo sistema di piccole dimensioni, che venne denominato “sistema 38”.  Nei laboratori si è spesso scherzato sul nome “sistema 38”, insinuando che in realtà lo si volesse denominare “sistema 380”.  Alla data dell’annuncio del “sistema 38” l’IBM aveva già realizzato due grandi architetture,  la 360  del 1964  e la 370 del 1970 e del 1972 (quando apparvero le memorie virtuali). Storicamente l’IBM non ha mai annunciato un’architettura 380, mentre nel 1990 avrebbe annunciato l’architettura 390.

Ma la vicenda sembra ancora più divertente. Poiché alla fine si decise di utilizzare la denominazione “sistema 38”, si pensò persino di denominare “AS/40” il suo successore, denominazione che alla fine venne modificata in “AS/400”, un numero che stranamente sembra successivo a 390, in una logica 360-370-380-390. Tutto ciò per dire quanto fosse travagliato il percorso che portava a denominare le nuove tecnologie di computer, e anche quale concorrenza intellettuale animasse i diversi laboratori. Quindi un fondo di verità sembra ci sia stato  nel fatto che l’architettura  380 fosse stata per così dire saltata, mentre si poteva opinare che il sistema 38 riempisse, almeno concettualmente, quel buco.

Il sistema IBM 38

Il progetto del sistema 38 venne sviluppato a Rochester e annunciato il 24 ottobre 1978. La CPU era costituita da soli 29 chip,  in una tecnologia circuitale allora innovativa, la TTL, che l’IBM avrebbe poi adottato a partire negli anni Ottanta per le sue famiglie 43XX e 308X. Da un punto di vista squisitamente tecnologico il sistema 38 introduceva per la prima volta una novità di grande interesse, la cosiddetta level sensitive scan design (LSSD), che permetteva, attraverso circuiti opportunamente predisposti nei singoli chip,  di fare persino della diagnostica remota del sistema, il che sarebbe stato di enorme aiuto qualora i sistemi si fossero ampiamente diffusi sul mercato. E il sistema 38 ebbe un buon successo, tanto che nei primi cinque anni se ne installarono circa ventimila. Il sistema 38 presentava tre novità architetturali di grande portata concettuale. Innanzitutto un’archiviazione dei dati su di un solo livello logico. Ciò significava che per l’utente non c’era  differenza se il dato cui si voleva accedere (attraverso l’applicazione) si trovasse nella memoria del computer o invece risiedesse sulle memorie esterne (ossia i dischi). La memoria aveva un unico livello logico, e questa era una vera rivoluzione concettuale. Riflettiamo un attimo sulla nostra memoria. Non sappiamo ancora come sia organizzato il cervello umano per quanto attiene alla memoria. Sappiamo che alcune zone del cervello (per esempio l’amigdala) sono preposte a funzioni che scopriamo solo se quella parte del cervello viene danneggiata. Ma come in realtà il cervello sia organizzato, e in che modo noi ne possiamo estrarre, per esempio, un ricordo, resta un mistero.

Ancora più misterioso sembra il fatto che noi spesso intuiamo di detenere un’informazione, ma non riusciamo a portarla alla luce, cioè al livello della coscienza.  La deteniamo inconsciamente e allora ci diciamo: fammi pensare, mi sembra che la parola cominci per A,  …e poi dopo un periodo che può essere di ore o persino di giorni, quella parola, che spesso è un nome di persona o di oggetto, sorprendentemente appare alla nostra coscienza. L’organizzazione della memoria umana è qualcosa quasi di magico e anche noi, come i computer,  ci serviamo di supporti esterni che possiamo  consultare. L’idea, implementata allora sul sistema 38,fu quella di avere un unico livello logico di memoria, idea che secondo me non fu allora pienamente compresa nella sua reale portata.

Come seconda importante innovazione il sistema presentava  un’interfaccia macchina indipendente dall’hardware. Il sistema 38 fu il primo computer IBM  a utilizzare un’interfaccia architetturale per separare il software applicativo e la maggior parte del sistema operativo dalle specifiche caratteristiche dell’hardware. I cosiddetti compilatori del sistema 38 (come quelli dei suoi successori che vedremo più avanti) generavano istruzioni di “alto livello” secondo una tecnica denominata all’origine  MI, ossia “Machine Interface”, e quindi ridenominata  TIMI, ossia  “Technology Independent Machine Interface”, con l’avvento dell’  AS/400. MI / TIMI era un complesso virtuale di istruzioni che non erano le istruzioni realmente eseguite dall’hardware del sistema 38 (e quindi dell’ AS/400). Consisteva essenzialmente di una compilazione intermedia per ricreare istruzioni che poi venivano successivamente  tradotte in istruzioni macchina. Quindi se un programma veniva trasferito da un processore, con uno specifico insieme  di istruzioni disponibili, a un processore con un altro insieme di istruzioni disponibili, le istruzioni MI / TIMI venivano ritradotte nell’insieme  di istruzioni native del nuovo computer prima che il programma venisse eseguito per la prima volta sul nuovo computer. Diventava allora possibile che un programma originariamente sviluppato per  un sistema 38 potesse essere rieseguito sulla famiglia AS/400 (divenuta poi “System i”), senza nemmeno dover essere ricompilato.

In estrema sintesi, il sistema 38 era veramente un computer all’avanguardia, ed esaminandolo si può intuire come sarebbe stato il Future System, un sistema del tutto innovativo, che però avrebbe richiesto agli ormai numerosissimi utenti 360/370 un pesante riadeguamento delle loro applicazioni, con prospettive quindi non del tutto ottimistiche per la stessa IBM. In terzo luogo il sistema 38 fu anche il primo computer IBM di media taglia ad avere un Data Base Management System (ossia un archivio organizzato dei dati) integrato nel sistema operativo. Inoltre, nel 1986, quindi due anni prima dell’ apparizione dell’ AS/400,  l’IBM annunciò la disponibilità per il sistema 38 di un supporto DDM (Distributed Data Management Architecture). Un tale middleware, nel contesto di un sistema distribuito, è il software che si trova tra il sistema operativo e le applicazioni. L’architettura di gestione dei dati distribuiti definiva un ambiente per la condivisione dei dati tra computer. E ciò consentiva  a programmi attivi sui sistemi 38 di creare, gestire e accedere a file orientati ai record su sistemi remoti di tipo 36, 38 e persino mainframe su cui era attivo un gestore di transazioni denominato CICS. Il DDM consentiva  inoltre ai programmi su computer 36 e 38 remoti di creare, gestire e accedere ai file di un altro sistema  38. Tutto ciò permetteva di creare  un ambiente informatico  complessivo quanto mai flessibile.

Dal sistema 38 all’AS/400

 Il sistema 38 nel 1988 venne sostituito dall’ AS/400, che supportava anche dati e programmi per il  sistema 36 (a parte alcune eccezioni). La  migrazione delle applicazioni dal sistema 38 all’ AS/400 fu in generale molto semplice. E quindi in questo articolo non c’è nemmeno bisogno di una descrizione approfondita dell’AS/400, che riproponeva in gran parte l’architettura del sistema 38 su di un hardware molto più evoluto. Uno degli aspetti certamente più interessanti dell’AS/400 era la sua raffinata gestione dei dati, che non era tipica di un sistema di quelle dimensioni. Sebbene l’AS / 400 non fosse un database-computer  nel senso tradizionale, il disegno  del sistema venne  fortemente influenzato da considerazioni tipiche nella gestione dei  database, al punto che un sistema di gestione relazionale (RDBMS) venne integrato direttamente nella macchina per superare gli svantaggi di un pacchetto software DBMS relazionale separato.  Ricordiamo che l’RDBMS più evoluto, il DB2 release 1, era stato annunciato a giugno del 1983 e quindi una  così tempestiva integrazione di un RDBMS nel sistema operativo dell’AS/400 fu qualcosa di veramente  significativo. Il supporto per l’RDBMS era implementato sia nell’hardware sia  nel sistema operativo. Erano anche disponibili pacchetti software separati (es. SQL / 400, Query / 400, …).  Tutto ciò faceva dell’ AS/400 un computer quanto  mai versatile. E nel corso di pochi anni l’RDBMS dell’AS/400 divenne un vero e proprio DB2.
Il nome DB2 (IBM Database 2) era stato dato per la prima volta al Database Management System nel 1983 quando l’IBM aveva  rilasciato il DB2 sulla sua piattaforma mainframe MVS, ed esso era sostanzialmente il punto di arrivo di una lunga evoluzione nata nel 1971 con il progetto R, che nasceva sulle idee proposte nel 1970 da  R. F. Coddin in merito ai vantaggi forniti da un modello relazionale dei dati anche nelle attività impresali di routine. Per alcuni anni il DB2, quale RDBMS completo di tutte le funzioni, era però stato disponibile esclusivamente sui mainframe IBM. In seguito l’IBM decise di riscriverne completamente il software. Diverse versioni di DB2, con differenti basi di codice  divennero così il DB2 / 400 (per AS / 400), DB2 / VSE (per l’ambiente DOS / VSE) e DB2 / VM (per la VM sistema operativo). I legali IBM però decisero che tutti i prodotti dovevano essere denominati secondo il nome della piattaforma sui cui essi erano operativi: la denominazione corretta per l’OS/400 divenne “DB2 per OS / 400”. E intanto iniziò una lunga evoluzione dell’AS/400 che, secondo me, è ancora in corso. Nel 2000 IBM modificò il nome AS/400 in “eServeriSeries” e il sistema operativo da OS/400 in “i5/OS”. Il numero 5 era indicativo della tecnologia POWER5. Questa denominazione è molto interessante e credo sia sfuggita a molti, anche perchè non se ne è mai parlato diffusamente. In realtà intorno al 2000 l’IBM voleva mettere  un poco di ordine nelle sue varie famiglie di computer, che spaziavano dai Personal Computer sino ai supercomputer. In quell’anno l’IBM decise quindi di suddividere i suoi computer in quattro grandi famiglie,  denominate rispettivamente “x” ,”i”, “p”, e “z”.  Erano sigle apparentemente  misteriose, eppure rispondevano a una logica ben precisa. La famiglia dei Personal Computer veniva denominata“x” perché la sua base costruttiva circuitale era fondata sulla famiglia dei microprocessori x86 della Intel. La “p” che contraddistingueva i computer basati su tecnologia circuitale POWER rappresentava a sua volta la prima lettera della parola “performance”, e di fatto i supercomputer, così prestazionali,  erano enormi aggregati di simili microprocessori. La “i”, per la famiglia  AS/400, significava “integrated”, ossia una piattaforma integrata nella quale tutte le esigenze applicative trovavano risposta in una soluzione complessiva. Infine la “z” dei grandi mainframe significava “zero downtime”, ossia sistemi nei quali non potevano (e non dovevano) avvenire dei fermi macchina.

Quindi l’ AS/400 divenne lo “I series”. Nel 2006, come perfezionamento di questa strategia l’ AS/400 venne ulteriormente ridenominatoin “System i” e il suo sistema operativo in “IBM i”. Nell’aprile 2008, IBM  decise poi di integrare l’hardware dell’ AS/400 con la piattaforma “System p” (ossia i sistemi che utilizzano il sistema operativo Unix, denominati “AIX”). La linea di prodotti unificati venne denominata  “IBM Power Systems”, il che significava che i computer di questa grande famiglia  potevano eseguire i sistemi operativi “IBM i” (precedentemente conosciuti come i5 / OS o OS / 400),  oltre ad AIX e Linux. Quindi in alcuni decenni il sistema 38, nato sulle ceneri del Future System, si era progressivamente trasformato  in qualcosa di sempre più flessibile, pur mantenendo le originali innovazioni architetturali. Proprio queste ultime  gli hanno consentito una simile metamorfosi tecnico-applicativa mantenendolo  quindi in una lunga vita.

Allora cosa riserva il futuro dell’AS / 400? 

 Durante la festa per i vent’anni dell’ AS/400,  nel 2008,  il  suo principale progettista, Frank Soltis,  venne interrogato sul possibile futuro del sistema stesso. Soltis  rispose che  non sapeva quale potesse essere tale futuro:  “non conosco nessuno che possa fare previsioni fino a 20 anni – io certamente non posso “. Poi, giustamente, Soltis introdusse un ragionamento squisitamente tecnologico relativo ai circuiti di elaborazione (ovvero ai chip di logica), e rispondeva che la tecnologia circuitale in essere era la IBM POWER6 con una frequenza di clock da 3.6 a 5 GHz. Si sarebbe potuto immaginare che, se i processi fotolitografici fossero proseguiti con i ritmi dei decenni precedenti, ci si sarebbe potuti avvicinare a frequenze di decine di GHz,  così da poter costruire sistemi con una capacità di calcolo  molto maggiore.   Ma giustamente Soltis osservò che a frequenze già vicino ai 10 GHz si sarebbero manifestati problemi di natura termodinamica (ossia di calore prodotto) pressoché insuperabili. E di fatto l’ultima  tecnologia IBM, la POWER10, opera ancora a circa 4  GHz, e la maggiore potenza di calcolo è stata ottenuta suddividendo i chip in più unità elaborative (16 core) che operano pressochè in parallelo. Allora cosa ci può riservare il futuro  dell’ AS/400? Ci sono alcuni indizi precisi sulla direzione che prenderà “IBM i” in esecuzione su POWER.  Innanzitutto occorre riflettere anche su quanto sia vasta l’attuale platea dei suoi utenti, che al momento supera ampiamente le centomila imprese  su base mondiale. Anche immaginando che negli anni a venire ci sia una contrazione di una tale utenza ci vorranno comunque molti anni prima che il sistema “IBM i” scompaia. E’ molto più ragionevole pensare che invece il sistema si possa evolvere:    non dimentichiamo realtà esplosive come Internet, l’intelligenza artificiale, il cloud computing.

L’IBM ha dichiarato in un suo documento ufficiale (A platform for innovators, by innovators White paper – feb.2020) che si impegna a supportare IBM i almeno fino al 2032. Le attuali versioni del sistema operativo “IBM i“ – versioni 7.2, 7.3 e 7.4 – saranno supportate dall’ IBM rispettivamente fino al 2022, 2023 e 2026. Il documento IBM i Roadmap indica anche che potrebbe essere annunciata una nuova versione dell’ IBM i – denominato  “IBM i Next” – all’inizio del 2022, con un piano di supporto che si estenderebbe fino al  2030. Quindi potrebbe apparire un ulteriore “IBM i Next +1”, attualmente previsto per l’inizio del 2025 ed essere supportato ben oltre il 2032. Chi avrebbe immaginato una tale longevità il fatidico 21 giugno del 1988?

Le prospettive di utilizzo applicativo

Se esaminiamo lo scenario complessivo dell’ Information Technology, possiamo osservare che man mano che essa si evolve, le soluzioni applicative delle imprese vengono a dipendere da un numero crescente di componenti hardware e software opportunamente assemblati. Dalla fine degli anni Novanta, la maggior parte delle imprese necessita perciò di  server in grado di eseguire contemporaneamente molteplici applicazioni fondamentali per il loro business. “IBM i”, sin dall’inizio, è stato progettato per consentire a un’impresa di utilizzare una soluzione ERP (Enterprise Resource Planning) sullo stesso“IBM system i” sul quale sono in esecuzione anche il software per le buste paga, l’applicazione CRM (Customer Relationship Management) e il server web.  Inoltre, “IBM i”, utilizzando le funzionalità integrate del sottosistema di gestione delle attività, permette di eseguire in parallelo molteplici applicazioni sullo stesso computer. Unitamente alle funzioni di sicurezza proprie del DB2 per “IBM i”, è così possibile creare un robusto isolamento delle applicazioni contemporaneamente attive: nessun utente può interagire con i dati degli altri utenti. Le imprese, inoltre,  hanno  avuto anche la possibilità di utilizzare, già da alcuni anni, tecnologie di tipo cloud, che consentono di usufruire, tramite server remoti, di risorse software e hardware (come memorie di massa per l’archiviazione di dati), il cui utilizzo è offerto come servizio (in abbonamento) da un cosiddetto provider. Tali cloud erano sostanzialmente dei cloud privati e non pubblici. Ma attualmente si rendono sempre più disponibili  cloud pubblici offerti da costruttori come IBM o Google. Facendo leva su simili cloud le imprese possono già  creare soluzioni applicative che possono essere dinamicamente ridimensionate in funzione delle esigenze. La strategia cosiddetta “cloud computing”  sta quindi modificando il panorama informatico. Le imprese stanno sempre più utilizzando i progressivi miglioramenti dei modelli cloud denominati IaaS (infrastructure as a service)  e PaaS (platform as a service). Questi modelli consentono alle imprese di spostare la propria infrastruttura in un data center di proprietà e gestione altrui. Le imprese prevedono che ciò allevierà la necessità di gestire da sole le crescenti complessità del data center,  liberando così le proprie  risorse per altre attività. All’inizio del 2019 l’ IBM ha annunciato che sarebbe stato reso disponibile un IBM Cloud. Ciò consentirà alle imprese di scegliere un unico fornitore per le loro soluzioni cloud, lavorando con IBM come fornitore sia della tecnologia cloud sia dello specifico sistema operativo con il quale opera l’impresa. Sarà quindi possibile spostare i carichi di lavoro anche in un data center fuori dalla propria sede (off-premise), e gestito dall’ IBM.

Le prospettive tecnologiche

Esaminiamo infine la tecnologia circuitale IBM POWER. IBM ha recentemente (17 agosto 2020) presentato una nuova generazione di chip elaborativi, la POWER10. Si tratta di processori basati su di processo fotolitografico con risoluzione ottica di soli 7 nanometri. Rammento, quasi con malinconia, che quando iniziai la mia attività nel mondo dell’Information Technology la risoluzione fotolitografica era dell’ordine dei micron. I progressi, poi sintetizzati nella celebre legge di Moore, sono stati straordinari. I chip POWER10, progettati anche  per accelerare i carichi di lavoro in ambienti cloud e per offrire maggiore sicurezza, potranno pure sensibilmente accelerare i calcoli relativi all’intelligenza artificiale. Non a caso i POWER10 includono una raffinata tecnologia “embeddedmatrixmathaccelerator” che consentirà alle funzioni matematiche orientate al calcolo delle matrici (moltiplicazioni, valori Eigen, FFT, …) di essere eseguite dall’hardware e non simulate nel software.

L’acceleratore matematico a matrice incorporato non sarà veloce come una GPU (Graphical Processing Unit) ma sarà molto più veloce delle simulazioni software. Nelle moderne reti neurali  il numero di operazioni di moltiplicazione e di somma ammonta a molti miliardi. Pertanto un efficiente sistema di inferenza richiede un moltiplicatore di matrici veloce e affidabile, proprio come principale motore computazionale. La tecnologia POWER è una tecnologia estremamente raffinata. Non dimentichiamo che, al momento della stesura di questo articolo,  i supercomputer IBM Summit (2.414.592 core) e Sierra (1.572.480 core), sono rispettivamente secondo e terzo nella graduatoria mondiale Top500, e sono  basati su di un cluster di processori POWER9. Ci sono persino indicazioni molto approssimative su di un possibile futuro POWER 11: conoscendo i ritmi della fotolitografia potremmo già immaginare che una simile tecnologia potrebbe vedere la luce tra il 2024 e il 2025. Ritorniamo al calcolo matriciale cui abbiamo fatto un rapido accenno. I cosiddetti processori grafici denominati GPU, nati per i video giochi (affamati di immagini), sono dotati di un’architettura  fortemente orientata al calcolo delle matrici numeriche. Negli ultimi anni si è scoperto che simili processori grafici sono fondamentali anche nel deep learning, l’apprendimento profondo,  che è un ramo semplicemente esplosivo dell’intelligenza artificiale. Per gestire una rete neurale occorre utilizzare, e continuamente modificare, incredibili quantità di cosiddetti pesi, che sono un po’ le sinapsi delle reti neurali. La distribuzione di simili pesi ha una natura matematica di tipo matriciale ben strutturata e tipica della specifica rete neurale. I processori grafici, così come gli acceleratori del calcolo matriciale cui abbiamo fatto riferimento, sono quindi essenziali nell’esecuzione dei complessi algoritmi matematici  di quei sistemi di  apprendimento che vengono utilizzati, per esempio, nelle reti neurali di tipo convoluzionale,  per il riconoscimento delle immagini. Ma, secondo me,  l’aspetto più intrigante dell’evoluzione dell’Information Technology è che stanno persino apparendo alcuni prototipi di reti neurali atte  “quasi a intuire” la semantica delle frasi (con le tecniche del “word embedding” e delle reti neurali ricorrenti LSTM). Tali reti diventerebbero poco alla volta idonee all’elaborazione del linguaggio (natural language processing). L’ormai anziano, ma sempre solido come scoglio immoto,  AS/400 potrà quindi beneficiare di questa affascinante evoluzione dell’Information Technology, ossia dell’alba della semantica nell’ intelligenza artificiale.   Ma sarebbe un discorso troppo lungo e complesso per affrontarlo in questo articolo. Qualche volta mi sembra di essere un po’ come Mosè: vedo da lontano la terra promessa dell’Information Technology, ossia una reale intelligenza artificiale, anche se  non credo, ahimè, che entrerò in quella terra.  Ma forse il confronto con Mosè è troppo audace e me ne scuso. Mi accontenterei di essere come Aronne, il fratello di Mosè, che pure non entrò nella terra promessa,  ma che secondo  la tradizione sembra sia vissuto  123 anni… Immagino che il lettore comprenda ovviamente che sto scherzando. Mi sembra di ricordare che una volta Umberto Eco avesse detto che non c‘era  nulla di più noioso di una conferenza sull’Information Technology.



Accetta la nostra privacy policy prima di inviare il tuo messaggio. I tuoi dati verranno utilizzati solo per contattarti in merito alla richieste da te effettuate. Più informazioni

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close