Perimeter ed ERCS: i sistemi dell’orrore per la rappresaglia “sicura”.

 Perimeter ed ERCS: i sistemi dell’orrore per la rappresaglia “sicura”. Anche dopo morti si colpisce e si devasta 

di Laura Tussi



Il recente scambio verbale tra l’ex presidente statunitense Donald Trump e il vicepresidente del Consiglio di sicurezza russo Dmitrij Medvedev ha riportato alla ribalta uno degli aspetti più oscuri e inquietanti della deterrenza nucleare: i sistemi di risposta automatica. Meccanismi concepiti per garantire una rappresaglia anche dopo un first strike nemico capace di annientare la leadership politica e militare di un Paese. Sono il simbolo estremo della logica perversa della mutua distruzione assicurata (MAD), una strategia che continua a minacciare il futuro dell’umanità.

Perimeter: la “mano morta” russa

Il sistema russo Perimeter, noto in Occidente come Dead Hand, rappresenta l’esempio più radicale di deterrenza automatizzata. Sviluppato durante la Guerra fredda, nasce con l’obiettivo di rendere vano qualsiasi attacco nucleare preventivo contro la Russia, garantendo comunque un contrattacco devastante.

Una volta attivato manualmente dal comando centrale in una fase di crisi estrema, Perimeter entra in modalità di sorveglianza. Non è un sistema costantemente operativo: viene “acceso” solo quando si ritiene imminente un attacco nucleare. I suoi sensori monitorano radiazioni, variazioni di pressione atmosferica, attività sismica e interruzioni delle comunicazioni. Se tali segnali indicano un’esplosione nucleare e non giunge alcun ordine di annullamento dalla catena di comando, il sistema presume che la leadership sia stata eliminata.

A quel punto, Perimeter lancia automaticamente un missile speciale, il 15P011, privo di testata nucleare ma dotato di un potente trasmettitore radio. Il missile sorvola il territorio russo e invia ordini di lancio a tutte le unità nucleari strategiche ancora operative, che rispondono senza ulteriori decisioni umane. È un sistema fail-deadly: se tutto il resto fallisce, la distruzione è garantita.

ERCS: la “mano morta” statunitense

Anche gli Stati Uniti hanno sviluppato soluzioni analoghe, seppur con un’impostazione diversa. L’Emergency Rocket Communications System (ERCS) era un sistema di comunicazione di emergenza progettato per assicurare che gli ordini presidenziali potessero raggiungere le forze nucleari anche in caso di distruzione delle infrastrutture di comando.

L’ERCS utilizzava missili Minuteman disarmati per mettere in orbita trasmettitori radio capaci di diffondere messaggi pre-registrati alle forze strategiche. La differenza sostanziale rispetto a Perimeter è cruciale: l’ERCS richiedeva sempre un comando esplicito della leadership politica. Non si trattava di un sistema completamente automatico di lancio, ma di un mezzo per superare il collasso delle comunicazioni, mantenendo formalmente il controllo umano.

La deterrenza automatica e il rischio globale

Perimeter ed ERCS incarnano la stessa logica: rendere credibile la minaccia di una rappresaglia anche “dall’aldilà”, scoraggiando qualsiasi attacco. Il messaggio è brutale nella sua semplicità: se colpite noi, sarete colpiti comunque.

Ma questa logica espone il mondo a rischi enormi. Riduce drasticamente i tempi di decisione, amplifica la possibilità di errori tecnici, falsi allarmi o interpretazioni errate dei dati. La storia è già costellata di episodi in cui il mondo è stato a un passo dalla catastrofe per un malfunzionamento o un errore umano. L’escalation verbale tra Trump e Medvedev dimostra quanto questi meccanismi siano tutt’altro che un retaggio del passato.

Il nodo dell’intelligenza artificiale: una linea da non oltrepassare

In questo scenario, l’eventuale integrazione dell’intelligenza artificiale nei sistemi d’arma solleva interrogativi ancora più drammatici. Delegare a un algoritmo – per quanto sofisticato – la valutazione di un attacco, la selezione di un bersaglio o l’attivazione di una rappresaglia significa rinunciare al principio fondamentale della responsabilità umana.

L’IA non dovrebbe mai e in nessun caso essere utilizzata per uccidere, né per prendere decisioni autonome sulla vita e sulla morte. La guerra automatizzata cancella la possibilità del dubbio, della disobbedienza morale, della scelta etica. Trasforma la distruzione in una procedura tecnica, rendendo la morte un effetto collaterale di un calcolo.

Una domanda che non può più essere rimandata

La semplice esistenza di sistemi di risposta automatica pone una questione cruciale: fino a che punto siamo disposti ad affidare la sicurezza globale a meccanismi progettati per agire oltre e contro il controllo umano?

La deterrenza nucleare non è un equilibrio stabile, ma un gioco d’azzardo permanente, giocato con il destino dell’intera umanità. Un gioco che, oggi più che mai, dovremmo avere il coraggio politico, morale e culturale di smettere di giocare.

Commenti