Breve storia dell’IA
Breve storia dell’IA
di Andrea Grillo (Codice Rosso)
Durante la Seconda Guerra Mondiale
il governo britannico incaricò il matematico Alan Turing di contribuire alla
decrittazione dei codici utilizzati dai tedeschi per le comunicazioni segrete,
generati dalla macchina Enigma. Poiché le configurazioni venivano cambiate
quotidianamente, la decrittazione manuale era estremamente difficile. Turing
contribuì allo sviluppo di macchine elettromeccaniche per la crittoanalisi,
considerate tra i precursori dei moderni computer.
Nel 1950, mentre Isaac Asimov
formulava le Tre Leggi della Robotica nei suoi racconti (poi raccolti in Io,
Robot), Turing pubblicò l’articolo Computing Machinery and Intelligence, in cui
si interrogava sulla possibilità che le macchine potessero pensare. In questo
contesto propose l’“Imitation Game”, oggi noto come Test di Turing, come
criterio per valutare l’intelligenza di una macchina.
Il cervello umano è composto da
circa 86 miliardi di neuroni interconnessi tramite sinapsi, che elaborano e
trasmettono informazioni. Da qui nasce la domanda fondamentale: è possibile
creare una rete neurale artificiale? I primi modelli cercavano di riprodurre in
modo semplificato il funzionamento dei neuroni biologici, introducendo il
concetto di apprendimento automatico, sia supervisionato che non
supervisionato.
Nel 1956 si tenne la Conferenza di
Dartmouth, considerata l’atto di nascita ufficiale dell’intelligenza
artificiale come disciplina scientifica. L’obiettivo era quello di comprendere
se fosse possibile simulare l’intelligenza umana attraverso le macchine.
Nel 1958 Frank Rosenblatt presentò
il Perceptron, uno dei primi modelli di rete neurale artificiale. Tuttavia,
negli anni ’70 la ricerca sull’intelligenza artificiale subì un forte
rallentamento, noto come “AI winter”, anche a seguito del Rapporto Lighthill,
che evidenziava i limiti dei risultati ottenuti.
Le difficoltà principali
riguardavano la potenza di calcolo, la scarsità di dati e i limiti degli
algoritmi disponibili. Negli anni ’80 nuove tecniche resero nuovamente
possibile lo sviluppo delle reti neurali, mentre negli anni ’90 e 2000 la
diffusione di Internet portò a una grande disponibilità di dati digitali.
Nel 1997 il sistema Deep Blue della
IBM sconfisse il campione mondiale di scacchi Garry Kasparov, segnando un
momento simbolico nell’evoluzione dell’intelligenza artificiale.
A partire dagli anni 2000 si assiste
a una forte crescita del Machine Learning, resa possibile dalla disponibilità
di grandi quantità di dati e dall’aumento della potenza di calcolo. Un ruolo
decisivo viene svolto dall’utilizzo delle GPU, che permettono di accelerare
enormemente l’addestramento dei modelli.
Dopo il 2012, con l’affermazione del
deep learning, l’intelligenza artificiale compie un ulteriore salto di qualità.
Un esempio significativo è il sistema AlphaGo, sviluppato da DeepMind, che nel
2016 sconfigge il campione mondiale di Go Lee Sedol, dimostrando la capacità
delle macchine di affrontare problemi complessi basati su strategia e
intuizione.
Nel 2017 viene introdotta una nuova
architettura fondamentale, il transformer, attraverso l’articolo Attention Is
All You Need, che rivoluziona l’elaborazione del linguaggio naturale.
Su questa base nascono i modelli
linguistici di grandi dimensioni, come GPT-3, capaci di generare testi
complessi, tradurre lingue e svolgere compiti cognitivi avanzati. La diffusione
di strumenti come ChatGPT nel 2022 rende queste tecnologie accessibili al
grande pubblico.
Parallelamente si sviluppano sistemi di IA generativa per
immagini e contenuti multimediali, come DALL·E e Stable Diffusion, ampliando le
capacità creative delle macchine.
Domande e
risposte: l’IA in sintesi
Cos’è
l’intelligenza artificiale?
L’intelligenza artificiale è un insieme di tecnologie che
permettono alle macchine di svolgere compiti che normalmente richiederebbero
l’intelligenza umana, come comprendere il linguaggio, analizzare dati,
riconoscere immagini o prendere decisioni. Alla base di questi sistemi c’è la
capacità di apprendere dai dati, un approccio noto come Machine Learning. In
altre parole, non si tratta di macchine che seguono solo istruzioni fisse, ma
di sistemi che migliorano nel tempo attraverso l’esperienza.
Come funziona
l’intelligenza artificiale?
L’IA funziona grazie ad algoritmi e modelli matematici che
analizzano grandi quantità di dati. Una delle tecniche più importanti è il
machine learning, che permette ai sistemi di “imparare” dai dati senza essere
programmati esplicitamente per ogni compito.
A che cos’è
dovuto l’enorme sviluppo dell’IA negli ultimi anni?
L’accelerazione dell’intelligenza artificiale è dovuta a una
combinazione di fattori. Innanzitutto, la disponibilità di enormi quantità di
dati (i cosiddetti “big data”) ha permesso ai sistemi di apprendere in modo
molto più efficace.
Un ruolo fondamentale lo ha avuto anche l’aumento della
potenza di calcolo, grazie a hardware sempre più avanzati come le GPU, che
rendono possibile addestrare modelli complessi in tempi ragionevoli.
Inoltre, i progressi in tecniche come il deep learning hanno
portato a risultati sorprendenti in campi come il riconoscimento vocale, la
visione artificiale e la generazione di testi.
Infine, gli investimenti massicci da parte di grandi aziende
tecnologiche come Google, Microsoft e OpenAI hanno accelerato ulteriormente la
ricerca e l’applicazione concreta dell’IA.
Dove viene
utilizzata oggi l’IA?
L’IA è ormai ovunque: nei motori di ricerca, nei sistemi di
raccomandazione (come quelli di Netflix o Amazon), negli assistenti vocali, nei
sistemi di navigazione satellitare e nella guida autonoma delle auto, e persino
nella medicina, dove aiuta a diagnosticare malattie. In Italia secondo l’ANSA
la percentuale dei lavoratori che hanno usato l’IA nella propria attività è
passata tra il 2024 e il 2025 dal 12 al 46%.
Quali sono i
rischi più importanti connessi all’uso dell’IA?
I rischi riguardano soprattutto le tecnologie di sorveglianza
e la privacy, la disinformazione, la perdita di capacità critica degli utenti e
la dipendenza emozionale, l’impatto ambientale, l’uso a fini bellici e
l’automazione del lavoro. A questi si aggiungono anche possibili problemi di
bias nei sistemi di machine learning, che possono portare a decisioni ingiuste
o discriminatorie.
In che cosa
consiste il rischio in termini di impatto ambientale?
Il rischio ambientale dell’IA è legato soprattutto
all’elevato consumo di energia necessario per addestrare e far funzionare i
modelli più avanzati. Tecniche come il deep learning richiedono enormi quantità
di calcolo, spesso eseguite in grandi data center che consumano molta
elettricità.
Se questa energia proviene da fonti non rinnovabili, può
contribuire in modo significativo alle emissioni di CO₂. Inoltre, anche il
raffreddamento dei server e la produzione dell’hardware hanno un impatto
ambientale, aumentando il consumo di risorse e la produzione di rifiuti
elettronici.
Un ulteriore aspetto riguarda l’estrazione di minerali
necessari per produrre i processori, come terre rare e metalli preziosi. Queste
attività possono causare danni ambientali e sociali significativi, tra cui
inquinamento, consumo di acqua e sfruttamento delle risorse nei paesi
produttori.
Inoltre la necessità di queste risorse porterà le grandi
compagnie e le grandi potenze ad assicurarsi con ogni mezzo un’egemonia
geopolitica globale.
Perché si parla
di una possibile perdita di capacità critica per gli utenti?
Perché
l’uso sempre più frequente di sistemi di intelligenza artificiale può portare
le persone ad affidarsi eccessivamente alle risposte automatiche, senza
verificarle o metterle in discussione.
Strumenti basati su machine learning possono fornire
informazioni rapide e convincenti, ma non sempre corrette o complete.
Inoltre si calcola che oggi il 50% dei contenuti che si
trovano in rete siano prodotti da sistemi automatici, molto spesso con scopi
deliberati di disinformazione.
Se gli utenti smettono di analizzare le fonti, confrontare
opinioni diverse o riflettere in modo autonomo, la loro capacità critica può
ridursi nel tempo.
In che
cosa consiste il problema della dipendenza emozionale?
Si tratta di un problema legato all’utilizzo della IA come
forma di supporto emotivo, per chiedere consigli su problemi personali o come
surrogato di rapporti interpersonali. In Italia il 41,8% degli adolescenti (15–19 anni)
ha usato l’IA per chiedere aiuto quando si sentiva triste, solo o ansioso.
L’IA è sempre disponibile, non giudica e risponde in modo
rapido, creando una sensazione di ascolto immediato e di empatia.
Il mercato delle app di AI companion raggiungerà un valore
stimato di 500 miliardi di dollari entro il 2030.
Il problema è che questi sistemi non sono terapeuti e non
hanno una reale comprensione umana. Anche se possono simulare empatia
linguistica, non possono sostituire la presenza di un adulto di riferimento, le
relazioni di amicizia o di coppia, né il lavoro di uno psicologo, soprattutto
in situazioni di disagio, ansia o depressione.
Inoltre si sta diffondendo l’utilizzo di influencer creati
con la IA che hanno un gran numero di follower e riescono a condizionare gli
stili di vita e di consumo di milioni di persone. Negli Stati Uniti ad esempio
si stima che tra il 53 e il 58% dei consumatori segua almeno un influencer
virtuale, e solo una minoranza è consapevole della loro natura.
Perché si
parla di rischio di discriminazione?
Nei casi in cui è stata affidata all’IA la selezione delle
risorse umane per le aziende o la compilazione di graduatorie per l’accesso a
servizi pubblici (es. case popolari) si è osservato che spesso questi sistemi
possono riprodurre o amplificare pregiudizi presenti nei dati con cui sono
stati addestrati, penalizzando gli appartenenti a gruppi sociali o etnici
marginalizzati o stigmatizzati.
Quali
tecnologie di sorveglianza sono state sviluppate con l’utilizzo dell’IA?
L’intelligenza artificiale è stata integrata in diverse
tecnologie di sorveglianza, soprattutto per aumentare la capacità di analizzare
grandi quantità di dati in tempo reale.
Tra le più diffuse ci sono i sistemi di riconoscimento
facciale, che permettono di identificare o verificare l’identità di una persona
partendo da immagini o video. Questi sistemi vengono utilizzati in contesti
come aeroporti, controllo accessi e, in alcuni casi, anche per la sicurezza
pubblica.
Un’altra applicazione è l’analisi automatica delle immagini
provenienti da telecamere di sicurezza, che consente di individuare
comportamenti sospetti o situazioni anomale senza intervento umano diretto.
Infine, l’IA viene utilizzata anche per analizzare dati
digitali e comportamenti online, ad esempio per individuare attività
fraudolente o monitorare potenziali minacce informatiche.
La disponibilità di grandi quantità di dati personali (come
interessi, comportamenti online, età o posizione geografica), spesso elaborati
tramite sistemi di intelligenza artificiale e machine learning, solleva importanti
questioni legate alla privacy e al controllo dei dati, come ad esempio la
totale tracciabilità degli spostamenti e e il controllo degli accessi. Inoltre
va sottolineato l’uso del cosiddetto microtargeting, che consiste
nell’utilizzare i dati per personalizzare i messaggi di marketing o propaganda
politica rivolti alle varie tipologie di persone.
Qual è
oggi il peso dell’IA nel settore militare?
Le applicazioni principali includono l’analisi di dati di
intelligence, il riconoscimento di immagini satellitari o riprese da droni, la
cybersicurezza e il supporto alla pianificazione delle operazioni. In alcuni
casi viene impiegata anche per sistemi autonomi o semi-autonomi, come droni e
difese informatiche avanzate. Le sfide che questa tecnologia comporta per il
rispetto del diritto internazionale umanitario sono senza precedenti.
Nel caso della Striscia di Gaza Israele ha contrassegnato più di 37mila
palestinesi come obiettivi militari usando un sistema di intelligenza artificiale noto come Lavender,
sottoposto a poca supervisione umana e, a quanto emerge dai resoconti della
rivista indipendente israelo-palestinese +972,
da una una politica estremamente permissiva e non proporzionata per le vittime
collaterali. In sostanza, secondo quanto raccontato da sei
componenti dei servizi segreti israeliani, Lavender è un database utilizzato per
incrociare le informazioni relative a persone ritenute
vicine alle milizie palestinesi. Non sarebbe, a detta delle fonti, un elenco di
miliziani confermati, tuttavia è stato usato per decidere gli obiettivi da
bombardare. Con conseguenze anche sui civili. Il processo di autorizzare a
colpire i target segnalati dall'AI stabilisce che sia accettabile un numero tra 15 e 20
vittime collaterali per ogni miliziano di Hamas o
della Jihad islamica palestinese ucciso e fino a 100 vittime civili collaterali
per ogni alto funzionario colpito.
L’impiego
di sistemi fondati su algoritmi di intelligenza artificiale è diventato un
tratto comune ai conflitti armati
odierni (vedi il grande sviluppo di queste tecnologie da parte dell’Ucraina).
Sembra
inoltre accertato che il bombardamento della scuola Shajarah Tayyebeh a Minab
(Iran) che ha causato la morte di 160 persone, in gran parte bambine, sia
dovuto ad un errore da parte di un sistema di IA usato per l’individuazione
degli obiettivi senza un adeguato controllo umano.
L’IA sostituirà
il lavoro umano?
Secondo
uno studio condotto da McKinsey, le attuali tecnologie
di IA sono in grado di automatizzare attività delle professioni della
conoscenza che attualmente richiedono fino al 70% del tempo lavorativo. Entro
il 2060, circa il 50% delle attuali attività lavorative potrebbe essere
automatizzato.
Il 42%
dei lavoratori italiani afferma di sentirsi sostituibile dalle macchine o
dall'intelligenza artificiale.
Le
mansioni ripetitive e standardizzate sono le più suscettibili a essere
rimpiazzate, ma anche attività molto qualificate come quelle di analisti,
tecnici e specialisti finanziari, mettendo a rischio milioni di posti di lavoro
(ricerca Fondazione Randstad). Esiste una classificazione di attività
lavorative per livello di rischio: vengono considerati ad alto rischio lavori
amministrativi e d'ufficio, customer service e telemarketing, logistica,
magazzino e guida. Al polo opposto troviamo l’artigianato specializzato
(elettricisti e idraulici) e i lavori che comportano un alto grado di empatia e
contatto fisico (infermieri, fisoterapisti e psicologi).
Un’altra
conseguenza sarà la diminuzione di assunzioni di personale poco specializzato
(in prevalenza giovani).
Va
considerato anche l’impatto che avrà in futuro la diffusione di robot umanoidi
dotati di sistemi di IA (già molto sviluppato in Cina).
La
sfida per il movimento dei lavoratori sarà quella di beneficiare dell’enorme
aumento di produttività generato dall’IA, tramite una forte riduzione
dell’orario di lavoro a parità di salario e l’adozione di un reddito di
cittadinanza finanziato con il gettito fiscale per sopperire alla scomparsa di
milioni di posti di lavoro.
Commenti
Posta un commento