Verso una meccanizzazione della guerra che minaccia la sopravvivenza umana
Verso una meccanizzazione della guerra che minaccia la sopravvivenza umana. La combinazione tra deterrenza e intelligenza artificiale: un mix esplosivo incontrollabile da disinnescare subito
Una terza guerra mondiale, nell’era atomica, non è razionalmente concepibile. Eppure l’abisso si apre sotto i conflitti di piccola e media scala che proliferano e si aggravano. Dovrebbe essere evidente che una guerra generale, capace di unificare gli attuali frammenti di conflitto, la perderemmo tutti: attori e spettatori, a partire da chi la innescasse.
Le tragedie di Hiroshima e Nagasaki non sono soltanto il capitolo conclusivo della Seconda guerra mondiale, ma il monito permanente di ciò che non deve accadere mai più.
Rispetto ai tempi della Guerra Fredda, qualcosa è cambiato in profondità
Nel settembre 1983 il tenente colonnello sovietico Stanislav Petrov evitò una possibile escalation nucleare rifiutandosi di credere a un falso allarme dei sistemi di difesa. Dubitò, esitò, scelse di non reagire automaticamente. In quel momento, la capacità umana di sospendere la risposta tecnica fu decisiva. L’algoritmo, invece, non dubita. Non prova vergogna. Non conosce esitazione morale.
La combinazione tra bomba atomica e intelligenza artificiale rappresenta oggi un possibile passaggio dalla deterrenza fondata sulla responsabilità umana alla gestione automatizzata della distruzione. È un salto qualitativo che può essere definito una meccanizzazione contro la vita.
Nel luglio 2025 l’amministrazione di Donald Trump ha presentato il documento strategico “Winning the Race: America’s AI Action Plan”, affermando che gli Stati Uniti sono in gara per conseguire il dominio globale nell’intelligenza artificiale. Il testo, sensibile anche alle esigenze militari, prevede indicazioni rivolte al Pentagono e segnala l’integrazione strutturale dell’AI nelle strategie di difesa. Parallelamente, sulle pagine della rivista Limes, Carlo Caracciolo ha richiamato l’attenzione su un rischio ulteriore: l’automatizzazione della paranoia.
La teoria della deterrenza, giuridicamente insostenibile
La teoria della deterrenza, consolidata durante la Guerra Fredda, si fondava su presupposti che implicavano il controllo umano. Il politologo Kenneth Waltz individuava nella capacità di secondo colpo, nel rifiuto di reagire a falsi allarmi e nel mantenimento del comando politico saldo i cardini di un equilibrio fragile ma funzionante. L’intero sistema presupponeva la presenza decisiva del giudizio umano.
Nel 1996 la Corte Internazionale di Giustizia ha stabilito che l’uso delle armi nucleari è generalmente contrario al diritto internazionale umanitario. Il giudice Christopher Weeramantry osservò che la deterrenza non è un bluff, ma implica la reale intenzione di usare l’arma e dunque di violare principi fondamentali dell’umanità. A ciò si aggiunge lo spettro dell’inverno nucleare, una catastrofe climatica globale capace di compromettere la sopravvivenza della specie.
Uno studio psicologico che smonta i presupposti dell’attuale ordine mondiale
Già sessant’anni fa lo psicoanalista Franco Fornari, nella sua opera Psicologia della guerra, individuava nell’inconscio umano la radice simbolica del conflitto. La guerra non nascerebbe soltanto dall’istinto predatorio, ma dalla proiezione di un “Terrificante interno”, un nemico psichico che la paranoia trasforma in nemico reale. La guerra sarebbe una pazzia d’amore prima che d’odio, un rituale sociale che tenta di placare angosce profonde.
Ma che cosa accade quando questa dinamica viene affidata a sistemi automatici? Se la paranoia viene gestita da algoritmi, non resta spazio per l’esitazione, per il dubbio, per la tregua. La guerra totale diverrebbe istantanea e irreversibile.
I nuovi rischi legati all’ Intelligenza artificiale
L’intelligenza artificiale applicata ai sistemi d’arma introduce variabili nuove e destabilizzanti. L’accelerazione estrema dei tempi decisionali, l’automazione delle risposte, la riduzione dell’intervento umano e la vulnerabilità a errori sistemici o cyberattacchi possono rendere la deterrenza non più un freno, ma un acceleratore del conflitto. Se l’AI diventa parte integrante della catena nucleare, il rischio non è soltanto tecnico: è la perdita del controllo politico e morale sulla decisione ultima.
Diventa allora urgente prevenire la terza guerra mondiale attraverso uno sminamento progressivo e permanente dei suoi elementi costitutivi. Tra questi rientrano la corsa al riarmo convenzionale e nucleare, lo sviluppo incontrollato delle tecnologie della potenza e l’assenza di regolamentazione vincolante sull’AI militare.
I fragili ma necessari equilibri
Occorre accettare la logica di una pace imperfetta, fondata su compromessi e negoziazione, anziché inseguire l’illusione di una pace giusta imposta con la forza. Nell’era della bomba e dell’intelligenza artificiale, la supposta perfezione della giustizia assoluta rischia di coincidere con il trionfo della morte.
Disinnescare la combinazione tra deterrenza e intelligenza artificiale significa rafforzare i trattati di non proliferazione e disarmo, vietare l’automazione totale dei sistemi nucleari, stabilire moratorie internazionali sull’AI applicata agli armamenti strategici e promuovere una cultura politica della nonviolenza attiva. I conflitti devono essere affrontati mobilitando i popoli e adottando metodi costruttivi e nonviolenti.
In gioco non è soltanto l’equilibrio geopolitico, ma la continuità stessa della vita umana. Oggi la priorità non è vincere la gara tecnologica, ma impedire che la macchina della deterrenza diventi autonoma rispetto alla coscienza. La vera supremazia non è il dominio sull’intelligenza artificiale, ma la capacità dell’intelligenza umana di scegliere la pace.
Commenti
Posta un commento