Il più grande pericolo dell’IA? Siamo sempre noi. Tecnologia, democrazia e scelte umane

Ho ascoltato con grande attenzione, e una punta delusione, la lunga intervista che il CEO di Anthropic, Dario Amodei, ha concesso all’Editor-in-Chief dell’Economist, Zanny Minton Beddoes. L’interesse nasceva non solo dall’importanza del personaggio e dal crescente rilievo della sua creatura, il large language model Claude, ma soprattutto dalla controversia che l’aveva opposto al Pentagono: dopo che Claude aveva avuto un ruolo importante nelle recenti avventure belliche dell’amministrazione Trump, i suoi creatori avevano opposto un rifiuto al suo utilizzo per scopi di sorveglianza di massa e per il controllo di armi autonome. Questo rifiuto, coerente con l’immagine di Claude come “l’IA con una coscienza”, aveva significato l’annullamento di un contratto di fornitura da ben 200 milioni di dollari, al quale erano fin troppo presto subentrati altri modelli meno coscienziosi.

Dire no all’amministrazione Trump è però sempre gravido di conseguenze che vanno oltre la normale dialettica tra imprese e Stato, e Anthropic si è ritrovata ad essere bollata come «Supply chain risk», un marchio di pericolosità che rischia seriamente di danneggiarla. La reazione del gruppo di Amodei, che ha costruito il proprio successo su prodotti molto ben fatti ed “etici”, è stata estremamente ondivaga, da qui la delusione: Anthropic ha infatti dapprima denunciato le pratiche dell’Amministrazione Trump e fatto causa al Pentagono, ma nel corso dell’intervista Amodei ha in ogni modo cercato di minimizzare uno scontro che è invece assai serio e soprattutto gravido di conseguenze, che vanno ben oltre il futuro di Claude.

L’IA come strumento di potere post-democratico

La prima è l’evidenza del consolidamento senza freni di un complesso militar-industriale, che travalica le scelte dell’amministrazione Trump e segna un’evoluzione strutturale della tecnologia digitale, e dell’IA, come “instrumentum regni” di progetti politici post democratici, in un contesto politico globale frammentato e conflittuale come non mai. Se è vero che Internet e la gran parte delle tecnologie digitali oggi ubique nascono in contesti militari, oggi assistiamo ad un’evoluzione rapidissima e inquietante: strumenti sempre più potenti, di utilizzo quotidiano per oltre un miliardo di persone nel mondo, sono esplicitamente utilizzati per scopi di guerra più o meno convenzionale e per attività di sorveglianza che travalicano ampiamente i concetti democratici di “sicurezza”. Gli stessi modelli che ci fanno lavorare meglio, e che domani potrebbero trovare la cura a molti dei mali degli uomini e del pianeta, oggi possono uccidere milioni di persone o contribuire a reprimere non il terrorismo, ma qualsivoglia forma di dissenso democratico. Non a caso, più volte nel corso dell’intervista l’Editor-in-Chief dell’Economist evoca come sempre più concreta la probabilità di incidenti catastrofici, militari o economici, come conseguenza della crescita incontrastata di questo Behemoth in Occidente.

“Greed is all”, i mercati e la perdita di ogni inibizione

La seconda è che il capitale finanziario che sostiene queste evoluzioni sempre più esponenziali e costose sembra partecipare pienamente della piega degli eventi e non è difficile immaginare che dietro la goffa retromarcia di Amodei vi sia innanzitutto la reazione dei mercati. Non mi riferisco solo a questa escalation militare e al “capitalismo della sorveglianza” sospinto dall’IA, ma più in generale all’allontanamento di Big Tech dal “don’t be evil” dei primi anni 2000 alle attuali assai discutibili pratiche di sistematica infrazione della privacy, sfruttamento della fragilità degli utenti più giovani e della conflittualità sociale e svuotamento della democrazia. L’altra metà di sistemi statali democratici che oggi non solo consentono, ma richiedono esplicitamente di utilizzare la tecnologia per scopi “evil”, sono mercati finanziari che incoraggiano ogni pratica lucrativa, ancorché eticamente discutibile e socialmente dirompente, con sconcertante mancanza di visione anche solo nel medio periodo. La prova del nove di questa involuzione, certo non nuova ma oggi accelerata, è quello che sta accadendo sul lavoro investito dalla tempesta AI: la monocultura della remunerazione degli azionisti nel breve sta conducendo a una selezione inversa alla logica degli investimenti in capitale umano, sacrificando i giovani e quindi il futuro delle stesse aziende.

I tecnologi come profeti senza contraddittorio

La terza è quella della crescente dimidiazione delle capacità dell’opinione pubblica di comprendere, farsi un’idea e decidere su temi che molto rapidamente sono passati dall’essere “per nerd” a questioni iper-politiche. C’entra ovviamente la riduzione generalizzata della soglia di attenzione, ma c’entrano tantissimo l’impazzimento del discorso pubblico e la promozione dei leader di Big Tech a sociologi e filosofi. Ascoltando Amodei, si ha la sgradevole sensazione di qualcuno che sulla base del proprio potere e delle proprie indubbie capacità abbia preso a profetizzare cose senza senso, con nessuno che dica che sono senza senso. Sin dall’inizio ho trovato che la discussione sulle conseguenze dell’intelligenza artificiale generale e sul suo prossimo avvento fossero anche e soprattutto macabro marketing dell’ansia collettiva, che la sparava grossa per attirare attenzione (e investitori) e per ostacolare i competitor, oltre che come riflesso di una cultura tecno-centrica che funziona solo nella misura in cui a tenere la barra non sono gli ingegneri, ma i filosofi. Invece tutto è preso con enorme serietà, senza che nessuno smonti la narrazione o pretenda di porre dei limiti: se è stata vietata la clonazione umana, così potrebbe essere anche per le evoluzioni più nefaste dell’Intelligenza Artificiale. Ma la politica e la finanza lo impediscono, e oggi tutto quello che è reale e fattibile diventa di colpo razionale: si può dunque consentire che gli stessi che programmano l’IA ne parlino come di una creatura animata e vivente, che un giorno potrebbe ribellarsi ai propri padroni, senza che nessuno suoni un campanello d’allarme, o che parta la sirena, dell’ambulanza o della polizia.

Tutto quello di cui abbiamo parlato, sembra evidente ma è meglio non dare più nulla per scontato, rientra ampiamente nell’ambito delle decisioni e delle responsabilità umane, Terminator non c’entra nulla. Umana è la scelta di utilizzare la tecnologia per assestare colpi furibondi ai nostri sistemi sociali e democratici, umana la scelta di estrarre il massimo valore nel minor termine, premiando i comportamenti monopolisti e socialmente più distruttivi e marginalizzando il lavoro, umana ancora l’idea di neutralizzare la produzione di senso sotto una coltre di rumore digitale.

Studiare, e pretendere, per resistere

È ovviamente abissalmente difficile opporsi come cittadini a queste dinamiche storiche, ma qualcosa forse si può fare.

Innanzitutto dobbiamo capire davvero, come persone e come lavoratori e operatori economici, come l’IA ci serve e utilizzarla, superando la paralisi del “troppo grande, troppo nuovo, troppo complesso” che frena la diffusione dell’innovazione. Mai come in questo caso, “knowledge is power”: capire a cosa serve la tecnologia, darle del tu, è fondamentale per comprenderne pregi e potenzialità (enormi), ma anche limiti (altrettanto evidenti, malgrado se ne parli molto meno). Costruire casi d’uso, personalizzare la tecnologia, non ha solo un valore personale, ma rappresenta la base necessaria per una sua democratizzazione, sempre ovviamente che, come è successo con Internet, le concentrazioni monopolistiche non spazzino via ogni afflato di organizzazione dal basso.

Questo chiama in causa i decisori pubblici, sempre più importanti in un contesto di rinnovata centralità degli Stati (e di economia di guerra). La Storia non è finita per nulla, anzi è ricominciata con violenza, e non ci possiamo permettere classi politiche impreparate alle sfide di un gioco che si farà sempre più duro. La politica tecnologica, i confini del Mercato e quelli del Pubblico non potranno essere più postille in fondo ai programmi elettorali, magari affidate ai consulenti di McKinsey: saranno un elemento fondamentale della nostra libertà e indipendenza, oggi quantomai in discussione. Ogni Stato, e soprattutto l’Europa, dovrà accelerare su investimenti e regolazione per offrire a consumatori, imprese e governi soluzioni AI adeguatamente performanti e non gravate dalle ipoteche etiche e politiche dell’attuale duopolio USA/Cina. Visto quello che c’è in ballo, cittadini più consapevoli dovranno essere in grado di valutare, fare pressione e giudicare chi governa anche per come gestirà questa emergenza tecnologica che si fa emergenza democratica. Il beauty contest è finito, nel discorso politico deve tornare la sostanza.

Nel frattempo non possiamo che imparare ad usare al meglio quello che c’è per quello che ci serve, senza ascoltare troppo il rumore di fondo. Oggi più che mai è la nostra migliore assicurazione di libertà.