Se l’Intelligenza Artificiale è anche un rischio, è ora di chiarire cosa è umano. Una proposta

Le dimissioni da Google di Geoffrey Hinton, il Padrino dell’Intelligenza Artificiale, come lo ha definito il New York Times, rappresentano un ulteriore segno che qualcosa di non ordinario sta accadendo nel mondo della tecnologia.

Non ordinario perché, in un mondo in cui ha sempre avuto la meglio il principio di Pangloss (il precettore di Candide di Voltaire, per il quale tutto, anche contro ogni evidenza, era sempre per il meglio), si avvertono per la prima volta segnali forti e autorevoli di preoccupazione per le conseguenze dello sviluppo di una tecnologia. Soprattutto, questi segnali preoccupati vengono non da guru eretici, ma dall’interno del paludato mondo di Big Tech.

L’Intelligenza Artificiale generativa, i Large Language Model, non sono una tecnologia come le altre, l’ennesimo coniglio dal cilindro di un sistema turbocapitalista che deve costantemente produrre “the next big thing” per non perdere giri. Vale la pena ricordarlo qualche giorno dopo la presa in giro del Guardian sul fallimento della visione di Mark Zuckerberg sul Metaverso.

L’IA è una tecnologia che scorre sottopelle, influenzando e anzi ridefinendo il modo in cui le tecnologie funzionano. È una tecnologia che ormai si autoalimenta, producendo risultati con un costo marginale di informazioni di input sempre minore. È una tecnologia che, nutrendosi di dati, è stata messa a disposizione degli utenti gratuitamente. È una tecnologia che cresce con un effetto palla di neve, già molto avanzato.

Non è (probabilmente, forse almeno per ora) intelligenza “generale”, propriamente intesa, autonoma, ma questo è oggi un dettaglio. Non sono appassionato di fantascienza e fatico a immaginare rivolte delle macchine sul modello Terminator, anche perché bastano i rischi attuali di una tecnologia così potente.

Rischi, fino ai più apocalittici, che non negano più nemmeno i creatori della tecnologia stessa. È una cesura stilistica questa fondamentale rispetto alla narrativa ottimistica dei guru digitali, secondo i quali ogni preoccupazione per gli effetti della tecnologia era da ricondurre alla resistenza al cambiamento e sarebbe stato ampiamente compensata dai vantaggi.

Mai il boom di una tecnologia aveva prodotto le dimissioni pubbliche e preoccupate di uno dei suoi principali creatori, lo stesso Hinton, Premio Turing 2018 e primo a teorizzare i neural network, che hanno rivoluzionato il modo e l’efficacia con cui le IA apprendono, e due lettere aperte, firmate da alcuni dei principali esponenti globali della tecnologia digitale, a mettere in guardia dai rischi di derive e chiedere un governo mondiale dell’IA, addirittura una moratoria nella ricerca e sviluppo nell’attesa che si individuino soluzioni. Mai i creatori avevano evocato il rischio di un Golem, il mostro d’argilla della cabbala ebraica che sfugge al controllo di chi lo ha evocato.

Non serve ricordare quanto i Large Language Model possono fare di positivo per l’economia e la società, innanzitutto intervenendo nell’ambito fondamentale della produzione di nuova conoscenza in contesti ormai proibitivamente complessi, ad esempio nella creazione di nuove molecole o vaccini per affrontare malattie oggi incurabili, come abbiamo sperimentato con il Covid.

Quello che l’Intelligenza Artificiale fa meglio, soprattutto molto prima, di quanto non si faccia oggi ha ovviamente un impatto deflagrante su chi svolge oggi quelle attività, i lavoratori. Non più solo i lavoratori manuali, ma i lavoratori della conoscenza, il capitale umano che si voleva più pregiato e al sicuro dalle rivoluzioni tecnologiche. Non si vedono i confini di questo impatto, non sappiamo dove e quando il Golem arriverà e non è onesto e realistico pensare che tutto si risolverà come si è risolto dalla prima rivoluzione industriale, con un po’ di rimescolamento e alla fine un livellamento verso l’alto delle condizioni di vita e di lavoro nel giro di una generazione. Sappiamo che non sarà così, lo sanno i creatori del Golem, giustamente preoccupati per l’impatto della tecnologia su società con sempre minori basi produttive, al punto che i tempi del liberismo più sfrenato sono anche le cattedrali di qualche forma di reddito universale, di cittadinanza.

Il segnale più inquietante delle possibili conseguenza del libero dispiegarsi dell’IA ha però oggi la forma innocua di una canzone rap, “Heart on My Sleeve”, apparentemente realizzata da un duo di star internazionali, Drake e The Weeknd, ma in realtà generata da una piattaforma di AI riproducendo i loro stilemi e la loro voce. La conoscenza esponenziale a cui le piattaforme generative attingono e le esponenziali capacità combinatorie dei LLM rendono possibile portare la produzione di fake news a livelli impensabili.

Non si tratta solo aggirare il diritto d’autore, ma di inquinare l’informazione, che è alla base delle democrazie. In un’epoca nella quale la democrazia è in crisi e i nemici della democrazia hanno risorse e competenze, oltre che volontà, per avvelenare i pozzi dei Paesi in cui il potere è fondato sul voto dei cittadini. La voce di Drake oggi potrà essere la voce di Biden domani, che non rappa ma crea incidenti internazionali o domestici, con conseguenze inimmaginabili.

Per questo è necessario governare i fenomeni, sapendo che abbiamo armi spuntate, che siamo quantomai lontani da ogni forma di Governo globale e che la forza economica e di persuasione di chi si avvantaggia del Golem liberato è infinitamente superiore a ogni contropotere.

Questo non vuol dire arrendersi, tutt’altro.

Il garante della privacy italiano, Davide contro il Golia ChatGPT ha segnato un punto piccolo ma fondamentale nella protezione del valore personale, i nostri dati, verso la vorace appropriazione delle piattaforme. Alcuni osservatori immaginano con necessaria utopia un rapporto meno passivo con gli algoritmi, costruendo strumenti in grado di negoziare il rapporto tra informazioni e utilizzi, democratizzando al cuore l’algoritmo. L’obiettivo, ambizioso, è per Michele Mezza quello di “reingegnerizzare i processi digitali basato sulle proprietà di machine learning, ossia sulla capacità del dispositivo di imparare dalle modalità di utenza e rispondere in maniera sempre più personalizzata alle esigenze della clientela”.

Sono punture di spillo certamente, ma necessarie, perché essere passivi è l’atteggiamento peggiore di fronte a un cambiamento. Cambiamento che, si tende a dimenticarlo, viaggia sull’intelligenza umana e su interessi reali, che possono e devono essere messi in discussione. Chiarendo quello che consapevolmente non partecipa a queste trasformazioni, o meglio vi partecipa creativamente.

Per questo è il momento di immaginare, mentre si lavora a governare la rivoluzione dell’IA per renderla sostenibile, a come organizzare e valorizzare quello che scientemente si muove al di fuori di essa.

Penso a un marchio “Human Made”, che contraddistingua i manufatti e le opere dell’ingegno prodotte primariamente mediante l’intervento umano, esplicitando i processi eventualmente automatizzati, secondo le modalità condivise in un manifesto e in una carta etica, nella quale siano evidenziati i rischi (sociali, economici e politici) connessi all’automazione non regolata.

È necessario che i cittadini e i consumatori possano sapere se il libro che acquistano, il tweet che leggono, il prodotto che utilizzano sono stati prodotti, generati, controllati da umani o da algoritmi e modelli linguistici, recuperando il caposaldo della democrazia liberale: “conoscere per deliberare”. Che sia possibile, attraverso la comunicazione di una presa di posizione, esplicitare che l’IA entra nel corpo vivo del nostro modo di produrre, comunicare, consumare, vivere. Quasi sempre per il meglio, alcune volte con conseguenze e costi che devono essere conosciuti per un consumo consapevole.

Non c’è alcuna forma di luddismo, nessun rifiuto delle macchine: la tecnologia ormai è una compagna irrinunciabile della nostra economia e società e uno strumento fondamentale per rendere più forte e competitivo anche il lavoro artigiano e manuale, che partecipa della visione dell’impresa 4.0.

I rischi che l’IA oggi pone mettono però in dubbio quella stessa convivenza cyberfisica tra uomini e macchine e devono essere evidenziati, non da ultimo per rendere la transizione digitale più organica, capillare ed efficace.

Allo stesso tempo, le imprese che decidono di investire sulla sostenibilità sociale, occupazionale e democratica della loro creazione di valore, anche a prezzo di ritorni economici inferiori nel breve rispetto a quelle che si consegnano alle piattaforme, devono essere riconosciute e comunicate, così come sono oggi le compagnie benefit. Ovviamente si tratterebbe di una certificazione volontaria, su basi etiche, anche perché si tratta in primis e per ora di un tema di etica, civile e di business.

Al contempo si tratta di un’iniziativa totalmente scalabile, un fiore dei cento per la trasparenza, altro presupposto necessario per un mercato e una democrazia sane.

Ne abbiamo bisogno.