Breve storia dell’IA

 

Breve storia dell’IA

di Andrea Grillo  (Codice Rosso)



Durante la Seconda Guerra Mondiale il governo britannico incaricò il matematico Alan Turing di contribuire alla decrittazione dei codici utilizzati dai tedeschi per le comunicazioni segrete, generati dalla macchina Enigma. Poiché le configurazioni venivano cambiate quotidianamente, la decrittazione manuale era estremamente difficile. Turing contribuì allo sviluppo di macchine elettromeccaniche per la crittoanalisi, considerate tra i precursori dei moderni computer.

Nel 1950, mentre Isaac Asimov formulava le Tre Leggi della Robotica nei suoi racconti (poi raccolti in Io, Robot), Turing pubblicò l’articolo Computing Machinery and Intelligence, in cui si interrogava sulla possibilità che le macchine potessero pensare. In questo contesto propose l’“Imitation Game”, oggi noto come Test di Turing, come criterio per valutare l’intelligenza di una macchina.

Il cervello umano è composto da circa 86 miliardi di neuroni interconnessi tramite sinapsi, che elaborano e trasmettono informazioni. Da qui nasce la domanda fondamentale: è possibile creare una rete neurale artificiale? I primi modelli cercavano di riprodurre in modo semplificato il funzionamento dei neuroni biologici, introducendo il concetto di apprendimento automatico, sia supervisionato che non supervisionato.

Nel 1956 si tenne la Conferenza di Dartmouth, considerata l’atto di nascita ufficiale dell’intelligenza artificiale come disciplina scientifica. L’obiettivo era quello di comprendere se fosse possibile simulare l’intelligenza umana attraverso le macchine.

Nel 1958 Frank Rosenblatt presentò il Perceptron, uno dei primi modelli di rete neurale artificiale. Tuttavia, negli anni ’70 la ricerca sull’intelligenza artificiale subì un forte rallentamento, noto come “AI winter”, anche a seguito del Rapporto Lighthill, che evidenziava i limiti dei risultati ottenuti.

Le difficoltà principali riguardavano la potenza di calcolo, la scarsità di dati e i limiti degli algoritmi disponibili. Negli anni ’80 nuove tecniche resero nuovamente possibile lo sviluppo delle reti neurali, mentre negli anni ’90 e 2000 la diffusione di Internet portò a una grande disponibilità di dati digitali.

Nel 1997 il sistema Deep Blue della IBM sconfisse il campione mondiale di scacchi Garry Kasparov, segnando un momento simbolico nell’evoluzione dell’intelligenza artificiale.

A partire dagli anni 2000 si assiste a una forte crescita del Machine Learning, resa possibile dalla disponibilità di grandi quantità di dati e dall’aumento della potenza di calcolo. Un ruolo decisivo viene svolto dall’utilizzo delle GPU, che permettono di accelerare enormemente l’addestramento dei modelli.

Dopo il 2012, con l’affermazione del deep learning, l’intelligenza artificiale compie un ulteriore salto di qualità. Un esempio significativo è il sistema AlphaGo, sviluppato da DeepMind, che nel 2016 sconfigge il campione mondiale di Go Lee Sedol, dimostrando la capacità delle macchine di affrontare problemi complessi basati su strategia e intuizione.

Nel 2017 viene introdotta una nuova architettura fondamentale, il transformer, attraverso l’articolo Attention Is All You Need, che rivoluziona l’elaborazione del linguaggio naturale.

Su questa base nascono i modelli linguistici di grandi dimensioni, come GPT-3, capaci di generare testi complessi, tradurre lingue e svolgere compiti cognitivi avanzati. La diffusione di strumenti come ChatGPT nel 2022 rende queste tecnologie accessibili al grande pubblico.

Parallelamente si sviluppano sistemi di IA generativa per immagini e contenuti multimediali, come DALL·E e Stable Diffusion, ampliando le capacità creative delle macchine.

Domande e risposte: l’IA in sintesi

Cos’è l’intelligenza artificiale?

L’intelligenza artificiale è un insieme di tecnologie che permettono alle macchine di svolgere compiti che normalmente richiederebbero l’intelligenza umana, come comprendere il linguaggio, analizzare dati, riconoscere immagini o prendere decisioni. Alla base di questi sistemi c’è la capacità di apprendere dai dati, un approccio noto come Machine Learning. In altre parole, non si tratta di macchine che seguono solo istruzioni fisse, ma di sistemi che migliorano nel tempo attraverso l’esperienza.

 

Come funziona l’intelligenza artificiale?

L’IA funziona grazie ad algoritmi e modelli matematici che analizzano grandi quantità di dati. Una delle tecniche più importanti è il machine learning, che permette ai sistemi di “imparare” dai dati senza essere programmati esplicitamente per ogni compito.

 

A che cos’è dovuto l’enorme sviluppo dell’IA negli ultimi anni?

L’accelerazione dell’intelligenza artificiale è dovuta a una combinazione di fattori. Innanzitutto, la disponibilità di enormi quantità di dati (i cosiddetti “big data”) ha permesso ai sistemi di apprendere in modo molto più efficace.

Un ruolo fondamentale lo ha avuto anche l’aumento della potenza di calcolo, grazie a hardware sempre più avanzati come le GPU, che rendono possibile addestrare modelli complessi in tempi ragionevoli.

Inoltre, i progressi in tecniche come il deep learning hanno portato a risultati sorprendenti in campi come il riconoscimento vocale, la visione artificiale e la generazione di testi.

Infine, gli investimenti massicci da parte di grandi aziende tecnologiche come Google, Microsoft e OpenAI hanno accelerato ulteriormente la ricerca e l’applicazione concreta dell’IA.

 

Dove viene utilizzata oggi l’IA?

L’IA è ormai ovunque: nei motori di ricerca, nei sistemi di raccomandazione (come quelli di Netflix o Amazon), negli assistenti vocali, nei sistemi di navigazione satellitare e nella guida autonoma delle auto, e persino nella medicina, dove aiuta a diagnosticare malattie. In Italia secondo l’ANSA la percentuale dei lavoratori che hanno usato l’IA nella propria attività è passata tra il 2024 e il 2025 dal 12 al 46%.

 

Quali sono i rischi più importanti connessi all’uso dell’IA?

I rischi riguardano soprattutto le tecnologie di sorveglianza e la privacy, la disinformazione, la perdita di capacità critica degli utenti e la dipendenza emozionale, l’impatto ambientale, l’uso a fini bellici e l’automazione del lavoro. A questi si aggiungono anche possibili problemi di bias nei sistemi di machine learning, che possono portare a decisioni ingiuste o discriminatorie.

 


In che cosa consiste il rischio in termini di impatto ambientale?

Il rischio ambientale dell’IA è legato soprattutto all’elevato consumo di energia necessario per addestrare e far funzionare i modelli più avanzati. Tecniche come il deep learning richiedono enormi quantità di calcolo, spesso eseguite in grandi data center che consumano molta elettricità.

Se questa energia proviene da fonti non rinnovabili, può contribuire in modo significativo alle emissioni di CO₂. Inoltre, anche il raffreddamento dei server e la produzione dell’hardware hanno un impatto ambientale, aumentando il consumo di risorse e la produzione di rifiuti elettronici.

Un ulteriore aspetto riguarda l’estrazione di minerali necessari per produrre i processori, come terre rare e metalli preziosi. Queste attività possono causare danni ambientali e sociali significativi, tra cui inquinamento, consumo di acqua e sfruttamento delle risorse nei paesi produttori.

Inoltre la necessità di queste risorse porterà le grandi compagnie e le grandi potenze ad assicurarsi con ogni mezzo un’egemonia geopolitica globale.   

 

Perché si parla di una possibile perdita di capacità critica per gli utenti?

Perché l’uso sempre più frequente di sistemi di intelligenza artificiale può portare le persone ad affidarsi eccessivamente alle risposte automatiche, senza verificarle o metterle in discussione.

Strumenti basati su machine learning possono fornire informazioni rapide e convincenti, ma non sempre corrette o complete.

Inoltre si calcola che oggi il 50% dei contenuti che si trovano in rete siano prodotti da sistemi automatici, molto spesso con scopi deliberati di disinformazione.

Se gli utenti smettono di analizzare le fonti, confrontare opinioni diverse o riflettere in modo autonomo, la loro capacità critica può ridursi nel tempo.

 

In che cosa consiste il problema della dipendenza emozionale?

Si tratta di un problema legato all’utilizzo della IA come forma di supporto emotivo, per chiedere consigli su problemi personali o come surrogato di rapporti interpersonali. In Italia il 41,8% degli adolescenti (15–19 anni) ha usato l’IA per chiedere aiuto quando si sentiva triste, solo o ansioso.

L’IA è sempre disponibile, non giudica e risponde in modo rapido, creando una sensazione di ascolto immediato e di empatia.

Il mercato delle app di AI companion raggiungerà un valore stimato di 500 miliardi di dollari entro il 2030.

Il problema è che questi sistemi non sono terapeuti e non hanno una reale comprensione umana. Anche se possono simulare empatia linguistica, non possono sostituire la presenza di un adulto di riferimento, le relazioni di amicizia o di coppia, né il lavoro di uno psicologo, soprattutto in situazioni di disagio, ansia o depressione.

Inoltre si sta diffondendo l’utilizzo di influencer creati con la IA che hanno un gran numero di follower e riescono a condizionare gli stili di vita e di consumo di milioni di persone. Negli Stati Uniti ad esempio si stima che tra il 53 e il 58% dei consumatori segua almeno un influencer virtuale, e solo una minoranza è consapevole della loro natura.

 

Perché si parla di rischio di discriminazione?

Nei casi in cui è stata affidata all’IA la selezione delle risorse umane per le aziende o la compilazione di graduatorie per l’accesso a servizi pubblici (es. case popolari) si è osservato che spesso questi sistemi possono riprodurre o amplificare pregiudizi presenti nei dati con cui sono stati addestrati, penalizzando gli appartenenti a gruppi sociali o etnici marginalizzati o stigmatizzati. 

 


Quali tecnologie di sorveglianza sono state sviluppate con l’utilizzo dell’IA?

L’intelligenza artificiale è stata integrata in diverse tecnologie di sorveglianza, soprattutto per aumentare la capacità di analizzare grandi quantità di dati in tempo reale.

Tra le più diffuse ci sono i sistemi di riconoscimento facciale, che permettono di identificare o verificare l’identità di una persona partendo da immagini o video. Questi sistemi vengono utilizzati in contesti come aeroporti, controllo accessi e, in alcuni casi, anche per la sicurezza pubblica.

Un’altra applicazione è l’analisi automatica delle immagini provenienti da telecamere di sicurezza, che consente di individuare comportamenti sospetti o situazioni anomale senza intervento umano diretto.

Infine, l’IA viene utilizzata anche per analizzare dati digitali e comportamenti online, ad esempio per individuare attività fraudolente o monitorare potenziali minacce informatiche.

La disponibilità di grandi quantità di dati personali (come interessi, comportamenti online, età o posizione geografica), spesso elaborati tramite sistemi di intelligenza artificiale e machine learning, solleva importanti questioni legate alla privacy e al controllo dei dati, come ad esempio la totale tracciabilità degli spostamenti e e il controllo degli accessi. Inoltre va sottolineato l’uso del cosiddetto microtargeting, che consiste nell’utilizzare i dati per personalizzare i messaggi di marketing o propaganda politica rivolti alle varie tipologie di persone.

 

Qual è oggi il peso dell’IA nel settore militare?

Le applicazioni principali includono l’analisi di dati di intelligence, il riconoscimento di immagini satellitari o riprese da droni, la cybersicurezza e il supporto alla pianificazione delle operazioni. In alcuni casi viene impiegata anche per sistemi autonomi o semi-autonomi, come droni e difese informatiche avanzate. Le sfide che questa tecnologia comporta per il rispetto del diritto internazionale umanitario sono senza precedenti. 

Nel caso della Striscia di Gaza Israele ha contrassegnato più di 37mila palestinesi come obiettivi militari usando un sistema di intelligenza artificiale noto come Lavender, sottoposto a poca supervisione umana e, a quanto emerge dai resoconti della rivista indipendente israelo-palestinese +972, da una una politica estremamente permissiva e non proporzionata per le vittime collaterali. In sostanza, secondo quanto raccontato da sei componenti dei servizi segreti israeliani, Lavender è un database utilizzato per incrociare le informazioni relative a persone ritenute vicine alle milizie palestinesi. Non sarebbe, a detta delle fonti, un elenco di miliziani confermati, tuttavia è stato usato per decidere gli obiettivi da bombardare. Con conseguenze anche sui civili. Il processo di autorizzare a colpire i target segnalati dall'AI stabilisce che sia accettabile un numero tra 15 e 20 vittime collaterali per ogni miliziano di Hamas o della Jihad islamica palestinese ucciso e fino a 100 vittime civili collaterali per ogni alto funzionario colpito.

L’impiego di sistemi fondati su algoritmi di intelligenza artificiale è diventato un tratto comune ai conflitti armati odierni (vedi il grande sviluppo di queste tecnologie da parte dell’Ucraina).

Sembra inoltre accertato che il bombardamento della scuola Shajarah Tayyebeh a Minab (Iran) che ha causato la morte di 160 persone, in gran parte bambine, sia dovuto ad un errore da parte di un sistema di IA usato per l’individuazione degli obiettivi senza un adeguato controllo umano.

L’IA sostituirà il lavoro umano?

Secondo uno studio condotto da McKinsey, le attuali tecnologie di IA sono in grado di automatizzare attività delle professioni della conoscenza che attualmente richiedono fino al 70% del tempo lavorativo. Entro il 2060, circa il 50% delle attuali attività lavorative potrebbe essere automatizzato. 

Il 42% dei lavoratori italiani afferma di sentirsi sostituibile dalle macchine o dall'intelligenza artificiale.

Le mansioni ripetitive e standardizzate sono le più suscettibili a essere rimpiazzate, ma anche attività molto qualificate come quelle di analisti, tecnici e specialisti finanziari, mettendo a rischio milioni di posti di lavoro (ricerca Fondazione Randstad). Esiste una classificazione di attività lavorative per livello di rischio: vengono considerati ad alto rischio lavori amministrativi e d'ufficio, customer service e telemarketing, logistica, magazzino e guida. Al polo opposto troviamo l’artigianato specializzato (elettricisti e idraulici) e i lavori che comportano un alto grado di empatia e contatto fisico (infermieri, fisoterapisti e psicologi).

Un’altra conseguenza sarà la diminuzione di assunzioni di personale poco specializzato (in prevalenza giovani).

Va considerato anche l’impatto che avrà in futuro la diffusione di robot umanoidi dotati di sistemi di IA (già molto sviluppato in Cina).

La sfida per il movimento dei lavoratori sarà quella di beneficiare dell’enorme aumento di produttività generato dall’IA, tramite una forte riduzione dell’orario di lavoro a parità di salario e l’adozione di un reddito di cittadinanza finanziato con il gettito fiscale per sopperire alla scomparsa di milioni di posti di lavoro. 

Commenti