L’uso bellico dell’AI rischia di essere la nuova bomba atomica. E forse è già tardi. - THE VISION

L’intelligenza artificiale è la rivoluzione. Quella che cambierà – sta già cambiando – l’economia, il marketing, l’arte, la medicina e, più in generale, qualsiasi campo che ne vedrà l’applicazione. Ma, come sosteneva Fidel Castro, “la rivoluzione non è un letto di rose” e, nonostante possa – e dovrebbe – essere in grado di garantire uno sviluppo senza pari, oltre a ridistribuire risorse e ricchezza, a oggi l’intelligenza artificiale si sta concretizzando all’interno di sogni per pochi, sconvenienti per molti, con un unico e sempre più lampante obiettivo: garantire, e quanto prima, una supremazia basata su dati e algoritmi, la stessa supremazia che continua a governare il mondo facendo leva su una retorica trita e ritrita, ovvero la nostra sicurezza. Sullo sfondo, quel che resta delle macerie del conflitto in Ucraina, della polveriera esplosiva della striscia di Gaza e una tra le meno entusiasmanti campagne elettorali per la corsa alla presidenza degli Stati Uniti. Mentre giochiamo con avanzatissimi chatbot, da subito ben più indispensabili di Siri o Alexa, mentre postiamo sui social qualcosa che plachi le aspettative dei nostri follower – non importa se pochi – che dimostri, ancora una volta, quanto è facile aderire a qualsiasi causa comodamente dal divano di casa, sembrerebbe più adeguato, invece, domandarsi se l’AI sia effettivamente la nuova atomica. 

Parlando di intelligenza artificiale, è necessario, prima di valutare la sua applicazione in ambito militare – mercato sempre fiorente e in grado di ripianare qualsiasi crescita attesa ma mancata – andare a dissezionare i suoi creatori, le big tech, e le minacce di cui sono portatori. Alle storiche cinque (Meta, Alphabet, Amazon, Apple e Microsoft) se ne aggiunge una sesta, proprio grazie alla vertiginosa ascesa dell’AI: si tratta di Nvidia Corporation. Le Big Five hanno guadagnato circa 197 miliardi di dollari su un fatturato superiore al trilione nel 2020, mentre la loro capitalizzazione di mercato è salita a 7,5 trilioni alla fine dell’anno. Ci troviamo così a fare i conti con una nuova epoca, quella del tecno-feudalesimo, dove questi giganti hanno paradossalmente sovvertito alcune logiche del capitalismo modificando così profondamente l’economia da renderla simile al vecchio sistema feudale medievale europeo: le big tech sono i signori e tutti gli altri i contadini che lavorano le loro terre per poco in cambio.

Eppure, i servizi che ne hanno decretato il successo si rivelano sempre più condizionati da un’indomabile capitalizzazione della pubblicità. Al tempo stesso la loro crescita, apparentemente inarrestabile, anche a fronte di condizioni macro-economiche complesse e spesso sfavorevoli, ha rallentato rapidamente, portando alla perdita di migliaia di posti di lavoro e alla discesa delle quotazioni in borsa. Per far fronte a questa situazione, hanno fatto ricorso all’identificazione della “next big thing” – in grado, finalmente, di soddisfare investitori e azionisti e di avviare la risalita. L’AI, i cui guadagni stanno già decretando una differenza sensibile per questi giganti tanto da far, imprudentemente (deliberatamente?), dimenticare dei rischi di cui rimprovera il capo delle Nazioni Unite: “disprezzo per i diritti umani, la privacy e l’impatto sulla società”, e non risultano trascurabili neppure gli impatti ambientali

L’AI è diversa da ogni tecnologia che l’ha preceduta: impara – uno dei problemi principali è legato al bias nei dati attraverso i quali avviene l’addestramento, senza considerare che, a causa della complessità di costruzione degli output finali, i risultati non sono necessariamente prevedibili, né positivi – e diventa autonoma, senza che l’operatore umano possa comprendere il perché alla base delle sue decisioni. Allo stesso tempo, il confine tra sicurezza e sorveglianza diventa sempre più labile (pensiamo al riconoscimento facciale, alle smart home e smart city), mentre assistiamo – spesso inconsapevoli – al dilagare del deepfake (la combinazione di immagini o video esistenti che permette di generarne di originali; la stessa tecnica usata per creare falsi video pornografici, fake news, truffe e crimini informatici di varia natura) agevolato proprio dall’accesso gratuito ai sistemi di intelligenza artificiale generativa. Nell’anno in cui più di due miliardi di persone sono chiamate al voto, Stati Uniti compresi, l’AI sta giocando un ruolo fondamentale nella disinformazione, strumentalizzata per intrattenere, quando va bene, oppure confondere. Dunque, la questione etica risulta sempre più centrale, considerando anche l’applicazione in ambito militare, dove stiamo già assistendo a nuovi e sconcertanti scenari.

La prima volta che l’aggettivo “intelligente” viene associato al gergo bellico è nel 1991. Si tratta dell’operazione Desert Storm contro l’Iraq di Saddam Hussein e si battezzano, in televisione e sul campo, le bombe intelligenti. La guerra è sempre la stessa cosa, è la sua narrazione che cambia: il Segretario della Difesa americana afferma, infatti, che gli Stati Uniti stiano, con la Guerra del Golfo, “guidando il mondo verso la tecnologia avanzata”, mentre la stampa celebra il prodigio tecnologico. Poco importa se meno del 10% delle bombe riversate su Iraq e Kuwait siano “smart”. Si finanziano progetti per lo sviluppo di una reale egemonia in questo campo. È il caso del progetto Maven, lanciato nel 2017, con l’obiettivo di sviluppare e integrare gli algoritmi necessari alle operazioni contro il terrorismo, secondo il Pentagono. Secondo lo stesso Dipartimento della Difesa, in persona del colonnello dei Marines a capo dell’Algorithmic Warfare Cross-Function Team, proprio i Big Five starebbero partecipando alla corsa agli armamenti nell’AI, tanto che il presidente esecutivo dell’odierno Alphabet inizia, da quel momento, a definire Google (i cui dipendenti firmano una petizione per interrompere il progetto) un’azienda di intelligenza artificiale e non una società di dati. Di nuovo Google, con Amazon stavolta, di nuovo un progetto speciale: siamo nel 2021 e parliamo di Nimbus. L’obiettivo: fornire infrastrutture di cloud computing e AI al governo israeliano. Successivamente, con la Cina a incalzare attraverso investimenti ingenti e sviluppo di sistemi sofisticati quasi quanto quelli americani, si è reso sempre più necessario un cambio di passo con un’applicazione in grado di rivelare di più sull’impiego sistematico dell’intelligenza artificiale nelle operazioni belliche.

Ucraina, 2022. Il Ministro della Trasformazione Digitale afferma: “La nostra grande missione è fare dell’Ucraina il laboratorio mondiale per la ricerca e lo sviluppo tecnologico”. Palantir Technologies è così desiderosa di mostrare le proprie capacità che le fornisce gratuitamente – si riconosce, senza nemmeno un’eccessiva mistificazione, il ruolo salvifico e altruistico che l’AI giocherà, stavolta, contro l’aggressore russo. Quello che secondo Steve Blank, co-fondatore del Gordian Knot Center for National Security Innovation presso l’Università di Stanford, passa un po’ più in secondo piano è che si tratta della prima volta in cui la reale potenza di fuoco risiede nelle mani di privati e non di governi per definizione responsabili dei propri cittadini. Attraverso questa atipica ricerca si è dimostrato che, grazie all’AI, la guerra è ora più accessibile: è possibile sfidare un avversario in enorme vantaggio numerico e difendere le proprie città e infrastrutture.

Gaza, 2024. La storia stavolta è un po’ diversa, si direbbe sfuggita di mano. La lezione, oggettiva, è che, grazie all’impiego dell’intelligenza artificiale (due, questa volta, Gospel e Lavender), sia possibile identificare un numero di target esponenzialmente superiore ai sistemi tradizionali: 100 al giorno contro 50 all’anno – “un’opportunità senza precedenti”, grazie a un sistema efficace al 90%, solo laddove vengano forniti dati esatti per ottenere un modello attendibile, cosa che, in questo caso, non è successa, portando a “danni collaterali” eccezionalmente elevati anche rispetto alle guerre condotte dagli Stati Uniti in Iraq, Siria e Afghanistan. Dall’inizio del conflitto, a ottobre 2023, a Gaza sono morte più di 34mila mila persone, di cui il 95% civili, più del 70% donne o bambini. L’accuratezza stimata al 90% si è attestata, in realtà, attorno al 25%. Trial & Error: commettendo errori, così viene allenata l’AI. Sbagliando, così si fanno le “rivoluzioni”, almeno quelle digitali. Siamo di fronte alla possibilità di utilizzo di mezzi sempre più potenti e sofisticati che, in assenza di regolamentazioni, possono, troppo facilmente, condurre ad atti di supremazia predatoria.

A fronte di tutto questo, Meta ha aumentato le proprie previsioni di spesa nell’ambito dell’intelligenza artificiale fino a 10 miliardi di dollari. Google, dopo aver ignorato le proteste dei dipendenti contrari al progetto Nimbus e ai suoi effetti a Gaza, ne prevede circa 12 miliardi ogni trimestre, Microsoft, che ne ha spesi 14 miliardi nell’ultimo trimestre, si aspetta che questa cifra continui ad aumentare significativamente. Complessivamente, questi investimenti rappresentano le più grandi infusioni di denaro in una tecnologia specifica nella storia della Silicon Valley. E potrebbero consolidare ulteriormente la minaccia delle big tech, sempre più immuni al controllo governativo e al nostro sistema democratico. Quindi, informati di quanto una guerra intelligente ci aiuti a uccidere meglio, secondo standard prettamente volti a perseguire monopoli e profitti incuranti di conseguenze, e consapevoli di quanto sia tardi per richiudere il vaso di Pandora, appare come unica e ben poco felice speranza quella di rintanarci tra le braccia di una nuova guerra fredda: l’AI a sostituire la bomba atomica – del resto, la deterrenza non è una novità nella tattica militare. Ormai, siamo costretti a accettare l’eredità di quella prima guerra definita impropriamente “intelligente”, ma possiamo farlo con delle riserve, arginando il clientelismo dilagante del tecno-feudalismo, agendo affinché i nuovi “padroni” non siano liberi di esercitare il proprio potere al di sopra di qualsiasi legge, e andando soprattutto a colmare quelle falle nella regolamentazione che hanno permesso a queste realtà di prosperare in modo così incontrollato.

Segui Ilaria su The Vision