RETI & SISTEMI

Il sogno informatico

Come e perché l’Information Technology non ha mantenuto le promesse

Alla fine del secolo scorso, svanita anche la Grande Bufala del millennial bug con cui l’IT aveva cercato di assurgere a governatore del mondo, il bilancio dell’informatica aziendale e istituzionale era sconsolante, tanto da far domandare a Nicholas Carr, nel suo forunato libro: “Does IT matter ?”. Il gioco di parole stava nell’it quale pronome neutro o come acronimo della tecnologia informatica. 

In quel momento, la spesa informatica aggregata era di 2 trilioni di dollari. Molta acqua era passata da quando Ted Hoff nel 1969 aveva inventato per Intel la CPU. I computer avevano già esordito nel 1951, due anni prima che in Italia esordisse la TV. Nel 1973, un altro carneade creò la Ethernet, fornendo la colla per tenere insieme i computer in rete locale. Dal 1975 conviviamo con i PC, dal 1976 per merito della Wang abbiamo un word-processor, poi portato con Wordstar sui PC IBM. VisiCalc il primo spreadsheet, padre, nonno e bisnonno di Multiplan, Lotus e Excel. Fece scalpore in Usa nel 1981 la prima pubblicità della Xerox con un manager che lavorava su un computer. Vennero i DB di Oracle. Il protocollo base TCP/IP con cui giochiamo a fare gli internauti è del 1982, mentre io mi laureavo vile meccanico. Poi Berners-Lee ci ha regalato Internet e a larghe falcate siamo ai giorni nostri.

In Italia, i sistemi mainframe IBM o quelli del cosiddetto bunch (Burroughs, Univac, NCR, Control Data, Honeywell) fecero capolino (o capoccione, per le dimensioni) negli anni 70. Il Paese si dibatteva nella tenaglia del terrorismo tanto che Montedison, già bersaglio di un attentato al proprio Data Center di Via Valassina a Milano (che ebbi l’onore di dirigere vent’anni dopo), per la business continuity ribaltava su New York tutte le proprie elaborazioni. Interi reparti di contabilità e paghe/stipendi si svuotarono per i grandi eleboratori batch. Sparirono le perforatrici di schede. Il mio primo lavoro come programmatore nel 1983 fu sostituire il caricamento schede delle vendite di un caffè con un input da terminale. Ho visto le mani degli operatori veterani: venivano assunti badando che potessero tenere un pacco di schede smisurato col loro poliice opponibile.

Negli anni 80 arrivarono le reti locali, con il token ring che duellò gagliardamente con ethernet. Poi l’eresia anti-IBM di Unix, specie in ambito scientifico e bio-medico, con Digital e HP. Intanto veniva giù la valanga Microsoft Windows. In un grottesco scaricabarile, Gates incolpò IBM di non avere creduto nel PC,  il mondo intero incolpò Gates di avere cercato di affossare Internet, salvo poi scrivere un libello sul pensiero a velocità della luce, mettendo qualche @ qui e là. Sopravvissero tutti, mentre, a partire da un gestionale per i commercialisti tedeschi, SAP sviluppò il primo vero Enterprise Resource Planner, dapprima su mainframe, poi, con la versione R3, su dipartimentale, rete o Unix. Guardavo i mostri sacri, Direttori Sistemi di Himont, di Benetton, di Hoechst: mi attaccavo a loro come una zecca per studiare le mosse del downsizing, del client-server, della reingegnerizzazione guidata da SAP. Poi ne ho fatti 8 (mi fermo perché sento in lontananza un chissenefrega).

Il sogno informatico era quello di elevarsi di rango a risorsa strategica, che nella pratica si concretizzava nel giungere alla prima linea dell’AD. Dai vecchi ragiunatt passati a fare paghe e pagamenti con cervellone, alle galere delle Direzioni Amministrazione Finaza e Sistemi dove ogni 5 lire erano approvate con mugugni e sospetto. E poi finalmente la stanza del Board. Dove ovviamente rischiavamo sempre l’osso del collo.

Che cosa non ha funzionato: l’IT ha sacrificato l’innovazione alla commodificazione. E’ stato orientato a divenire un’utility come l’acqua o la luce. E come queste, ha inevitabilmente proceduto al consolidamento: ai tempi di Edison, apparve chiaro che era economicamente conveniente creare centrali elettriche sempre più grandi e regionali e così è stato dell’IT. Unendo la standardizzazione portata dagli ERP, che piegavano l’utente alle funzionalità del software e non viceversa, è caduto il sogno di cambiare ed elevare il lavoro delle persone. Le torri di raffreddamento, sinistramente nucleari, che presidiano i quattro angoli dei megacentri di Google, di Amazon sono lì a ricordarci che quelle megautility erano soldi ben spesi, mentre i sistemi intelligenti e trasferenti conoscenza avevano sempre i conti in rosso.

Il nuovo millennio si è aperto nel segno della sfida dell’intelligenza artificiale. Fallita e data per dispersa negli anni 80-90 è prepotentemente tornata in auge con la contaminazione dell’informatica personale, delle applicazioni di rete, dei social, governate non più dagli uomini in camice ma direttamente dal marketing, dai suoi data scientist. 

Naturalmente, grandi dilemmi suscita l’Intelligenza artificiale soprattutto in relazione al mantenerne il controllo e alla cancellazione di posti di lavoro che si paventa. Di questo si preoccupano i cosiddetti principii di Alosimar e l’AI for Good dell’ONU. Il parere di Stephen Hawking era dilavante. Mentre qualcuno si macera nel dubbio, ecco il  machine learning, l’internet delle cose, che si propone di diventare l’Internet di tutto e rinnova le promesse. Così come nei megacentri ritroviamo, legati col velcro, computer antichi e moderni dei quali serve solo l’apporto delle RAM, che non invecchiano, andiamo forse verso un’ambigua promessa che vedrà computer antropoidi affiancati a uomini di modesta intelligenza, pari a pari. A che servirà insegnare la storia, la libertà, la grande filosofia, il volo alto dei poeti ? Il crowdsourcing dei cervelli a modico QI integrato dai congegni dialoganti sembra essere lo scenario più probabile, un 50/50 che non ci cancella ma certo ci degrada vieppiù.

Back to top button