L’IA può rendere possibile l’impossibile!
L’IA può rendere possibile l’impossibile!
L’IA è
la panacea di tutti i mali
o la
catastrofe finale?
Repubblica.it
- Andrea Daniele Signorelli – (11-12-2025) – ci dice:
Dal
treno al telefono, le tecnologie più dirompenti hanno sempre avuto fautori e
detrattori. Anche l’intelligenza artificiale ha i suoi apocalittici che ne
vedono soprattutto i rischi per l’umanità, e gli integrati che invece ne
esaltano le magnifiche sorti e progressive.
Una
rassegna.
Ormai
da secoli, l’avvento di ogni nuova importante tecnologia divide la società in due schieramenti opposti.
Da una
parte, chi
si concentra sui progressi sociali che ne potrebbero scaturire; dall’altra, chi
pone l’accento sui rischi causati dalle più recenti innovazioni tecnologiche.
È
capitato, per fare solo qualche esempio, nell’Ottocento con l’elettricità,
che era vista da molti come simbolo di benessere e modernità, ma che sulla
stampa dell’epoca veniva ribattezzata “corrente assassina” e che ispirò il
Frankenstein di “Mary Shelley”.
Una
situazione simile si è verificata, sempre nell’Ottocento, con la diffusione del treno,
considerato, da una parte, uno strumento che avrebbe causato la fine della vita
tradizionale e delle comunità locali e, dall’altra, come un’opportunità per
rendere il mondo più connesso e più ricco.
Lo
stesso è avvenuto anche con nuovi mezzi di comunicazione come il telefono (che per i pessimisti avrebbe
disintegrato le relazioni personali) o i social media (che per gli ottimisti avrebbero
invece sconfitto le dittature).
Questa polarizzazione tra ottimisti e
pessimisti – che Umberto Eco, occupandosi soprattutto della televisione, ha
ribattezzato Apocalittici e Integrati nel suo celebre saggio del 1964 – si ripropone in ogni singola
occasione.
Se le
cose stanno così, era inevitabile che lo stesso avvenisse anche in seguito alla
diffusione della più importante tecnologia del ventunesimo secolo:
l’intelligenza
artificiale, una tecnologia che sta rapidamente trasformando ogni aspetto della
società in cui viviamo – dal lavoro alla comunicazione, dall’arte alla guerra, dalla
sanità all’istruzione – ma che ancora una volta ha diviso il mondo in due campi
contrapposti.
C’è
chi la celebra in quanto tecnologia trasformativa che darà vita a una nuova rivoluzione
industriale e a un’epoca di benessere generalizzato.
E chi invece ne parla in termini catastrofici,
evidenziando i “rischi esistenziali” di uno strumento che – come il mostro di
Frankenstein – potrebbe sfuggire al nostro controllo.
Tra
questi due estremi esistenziali, troviamo però una particolare sottocategoria
di “apocalittici
e integrati”
dell’intelligenza artificiale: quelli che si concentrano su potenzialità e rischi
meno fantascientifici, concreti e immediati.
Partiamo
allora dallo schieramento più negativo di tutti, quello che abbiamo
ribattezzato “apocalittici esistenziali”, per poi arrivare all’estremo opposto, chi considera
“ChatGpt”
e i suoi fratelli il rimedio a tutti i mali della società.
Apocalittici
esistenziali.
È
impossibile analizzare il più catastrofista di questi schieramenti senza
partire da chi, nel saggio” Superintelligenza” del 2014, ha più di chiunque altro
contribuito a lanciare l’allarme sui “rischi esistenziali” legati allo sviluppo
dell’intelligenza artificiale:
il filosofo svedese, per lungo tempo docente a
Oxford, “Nick
Bostrom”. Il
suo “paradosso
delle graffette” è probabilmente il più noto esempio di cosa potrebbe andare storto
qualora decidessimo di affidare importanti responsabilità a intelligenze
artificiali evolute.
In
questo esperimento mentale, Bostrom immagina di chiedere a una IA di produrre
il maggior numero possibile di graffette.
Dal
momento che l’intelligenza artificiale non possiede i nostri stessi valori (non
è “allineata”, come dicono gli esperti), questo ipotetico sistema potrebbe
distruggere il pianeta per trasformare qualsiasi cosa in graffette e
massimizzarne così, come da richiesta letterale, la produzione.
Per
quanto irrealistico, il paradosso di Bostrom è citato ogni volta che si
descrivono i pericoli legati a un’intelligenza artificiale talmente potente da
sfuggire al controllo umano.
Secondo il controverso filosofo, l’IA
rappresenta un rischio superiore alla crisi ambientale:
«È
improbabile che il cambiamento climatico porti qualcosa di buono, ma se lo
sviluppo dell’intelligenza artificiale dovesse andare per il verso sbagliato,
sarà molto peggio», ha per esempio spiegato nel 2019.
Chi ha preso estremamente sul serio le profezie di
Nick Bostrom è l’imprenditore sudafricano “Elon Musk”, secondo cui sviluppare
l’intelligenza artificiale è come “evocare il demonio”:
«Avete
presente quelle storie in cui, armati di pentagrammi, acqua santa e tutto il
resto, si cerca di tenere sotto controllo il demonio?
Ecco, non va mai a finire bene», ha spiegato
in una conferenza di qualche anno fa.
L’intrinseca incontrollabilità delle intelligenze
artificiali, secondo che si concentrano su potenzialità e rischi meno
fantascientifici, più Musk, è ciò che le rende ancora più pericolose delle
bombe atomiche.
Curioso notare come lo stesso Elon Musk,
nonostante i suoi allarmi, sia al timone della società “X.AI” che sviluppa il “chatbot
Grok”.
I
timori di Bostrom e Musk vengono liquidati non solo da chi vede soprattutto i
lati positivi della tecnologia che stiamo sviluppando, ma anche da chi pensa
che le loro siano visioni fantascientifiche che ci distraggono dai rischi
concreti posti dall’intelligenza artificiale, in termini di sorveglianza,
privacy, impatto ambientale, lavoro e tantissimo altro.
Non
dobbiamo temere un’ipotetica “super AI”, ma avere semmai paura del modo in cui
le aziende ci stanno forzando ad adottare l’intelligenza artificiale senza
alcuna cautela.
Il
giornalista “Brian Merchant”, autore del saggio” Blood in the Machine” e che si
definisce “neo-luddista”, si occupa da tempo delle conseguenze sociali
dell’integrazione indiscriminata dei sistemi di IA.
«Gran
parte della perdita di posti di lavoro non avviene perché l’intelligenza
artificiale è davvero in grado di sostituire il lavoro umano, ma perché è usata
come una giustificazione ideologica per tagliare i costi aziendali», ha recentemente scritto Merchant.
«Se Amazon licenzia 30mila lavoratori
sostenendo che la sua IA è così all’avanguardia da permettere di sostituirli,
gli investitori saranno molto più contenti che se Amazon ammettesse di dover
tagliare i costi perché ha investito troppo nell’espansione di data center che
potrebbero rivelarsi inutili».
La
sorveglianza della popolazione e l’invasione della privacy sono invece ciò che
più preoccupa” Meredith Whitaker”, ricercatrice informatica e presidente della no-profit che
gestisce la piattaforma di messaggistica “Signal”, i cui timori si concentrano
sulla recente diffusione degli AI agent:
«Affinché
gli agenti possano fare ciò che promettono — riassumere le tue email o spendere
i tuoi soldi — hanno bisogno di un accesso quasi totale alla tua vita digitale.
La cronologia del browser, i dati della carta
di credito, i messaggi privati o la localizzazione sono tutti desti nati a
diventare carburante per l’IA, accumulati in un mucchio di informazioni
indistinte chiamato “contesto”.
I
rischi sono già evidenti:
i
ricercatori hanno dimostrato che gli agenti AI possono essere indotti a
rivelare i dati sensibili a cui hanno accesso o possono essere ingannati da hacker
affinché compiano azioni dannose.
In parole povere, gli “AgIi agents “portano
all’eliminazione della privacy e della sicurezza», ha recentemente scritto “Whitaker”
in un editoriale pubblicato sull’”Economist”.
Non per forza, però, deve andare tutto per il
verso sbagliato.
L’impatto
dell’intelligenza artificiale potrebbe anche portare enormi benefici.
A
pensarla così è per esempio Fei “Fei Li”:
docente
cinese di Scienze Informatiche a Stanford e tra le persone che, nei primi anni
Duemila, più ha contribuito all’avanzata dei sistemi di intelligenza
artificiale.
Negli
ultimi tempi, la sua attenzione si è concentrata sui benefici dei sistemi di IA
in un campo fondamentale come la sanità:
«Bisogna garantire che i pazienti ricevano
cure adeguate e tempestive, ma non c’è abbastanza personale medico.
Ciò mi
porta a pensare che l’intelligenza artificiale possa dare supporto alla cura:
osservando, ascoltando, facendo triage e avvisando dei pericoli.
A seconda delle situazioni, l’IA potrebbe essere un
paio di occhi che osserva un paziente mentre sta per cadere e avvisa gli
infermieri. Potrebbe essere un software che controlla costantemente i risultati
degli esami.
Potrebbe
essere un sistema conversazionale o un software che risponde alle domande dei
pazienti.
Esistono
molte forme di AI che possono aiutare nella fase di erogazione delle cure».
Quello
della sanità e della ricerca scientifica è uno dei campi in cui, negli ultimi
anni, l’intelligenza artificiale ha effettivamente dato prova di enormi
potenzialità.
Lo ha dimostrato in particolare l’algoritmo “Alpha
Fold” sviluppato da “Google Deep Mind”, in grado di prevedere la struttura
tridimensionale delle proteine e che potrebbe accelerare lo sviluppo di nuovi
farmaci e di terapie altamente mirate.
La
sanità, però, è solo uno dei campi in cui l’AI potrebbe dare un contributo.
Altri
segnalano le potenzialità di questi strumenti per ottimizzare i consumi
energetici, per ridurre lo spreco d’acqua, individuare materiali più
efficienti, essere di supporto alle persone disabili, snellire la burocrazia e
tantissimo altro.
L’intelligenza artificiale, per gli “integrati
concreti”, può aiutare la società in una tale quantità di ambiti che il
pioniere del deep learning “Andrew Ng” l’ha paragonata proprio all’elettricità:
«L’impiego
dell’elettricità ha cambiato il mondo.
Ha
rivoluzionato i trasporti, la manifattura, l’agricoltura, la sanità.
L’intelligenza artificiale avrà un impatto simile.
Così
come l’elettricità ha trasformato quasi tutto cent’anni fa, oggi faccio fatica
a pensare a un settore che l’IA non trasformerà nei prossimi anni», ha spiegato
in un’intervista.
E i rischi che il suo sviluppo sfugga al
nostro controllo?
È un
timore che “Andrew Ng, in una famosa dichiarazione del 2015, ha liquidato così:
«Preoccuparsi
di una possibile IA malvagia è come preoccuparsi del sovrappopolamento di Marte
prima di averci messo piede».
E
infine, ci sono le persone convinte che l’intelligenza artificiale salverà il
mondo e ci proietterà in un’epoca di benessere infinito.
Non è
un’esagerazione, ma esattamente ciò che, tra gli altri, ha sostenuto il
fondatore di “OpenAI” “Sam Altman” in un suo post del 2024:
«L’Era
dell’Intelligenza è uno sviluppo di portata enorme.
Credo che il futuro sarà così luminoso che
nessuno può rendergli davvero giustizia provando a descriverlo oggi: una
caratteristica distintiva sarà però una prosperità immensa.
Anche
se arriveranno in modo graduale, conquiste stupefacenti — sconfiggere il
cambiamento climatico e risolvere la fisica — diventeranno col tempo realtà
ordinarie.
Con
un’intelligenza quasi illimitata e un’energia abbondante, con la capacità di
generare grandi idee e di realizzarle, possiamo fare davvero moltissimo».
Cose
non molto diverse sono state sostenute dal potentissimo investitore “Marc
Andreessen” (tra gli sviluppatori di “Mosaic”) nel suo Manifesto
Tecno-ottimista del 2023:
«Crediamo
che l’IA sia la nostra alchimia, la nostra Pietra Filosofale: l’intelligenza
artificiale va considerata come un risolutore universale di problemi.
E i
problemi da risolvere non ci mancano.
Crediamo
che qualsiasi rallentamento nello sviluppo dell’IA costerà vite umane.
Le
morti che avrebbero potuto essere prevenute da un’intelligenza artificiale che
non è stata lasciata esistere sono, in un certo senso, una forma di omicidio».
Nelle visioni utopistiche di “Sam Altman” e “Marc
Andreessen”, lo sviluppo dell’intelligenza artificiale darà vita a un’epoca di
benessere e felicità per tutta l’umanità.
Potrebbero anche avere ragione.
Ma
sarà un caso che loro, come spesso avviene con gli “integrati esistenzialisti”,
abbiano enormi interessi economici proprio in questo campo?
Trump
Chiama l’Italia a Far Parte del Gruppo Sovranista:
si Sente il Profumo di Asse
Washington-Roma-Mosca.
Conoscenzealconfine.it
– (12 Dicembre 2025) – Redazione – T.me – Telegram-Veritas – ci dice:
L’Italia,
insieme ad Austria, Polonia e Ungheria, viene indicata tra i Paesi con cui
Washington dovrebbe “collaborare maggiormente” con l’obiettivo di
“allontanarli” dall’Unione Europea.
Con
l’UE in “terapia intensiva”, arriva un’altra bella notizia.
L’Italia
farà parte del gruppo dei paesi sovranisti, quindi con USA e Russia.
Il
suddetto ordine da Washington deve essere già arrivato a Roma, considerando il
linguaggio del corpo della Meloni mentre riceveva il clown nano ucraino, ormai
anche lui defenestrato, esautorato, deriso ed umiliato pubblicamente.
Adesso
si comincia a fare sul serio:
i
giocatori sovranisti che prima sghignazzavano ai margini della sala, fingendo
di essere sbronzi e sorridendo alle gentili donzelle presenti nel locale, ora
si siedono al tavolo con volto serio, sguardo duro e concentrato.
Da
adesso prepariamoci a due eventi che si ripeteranno per un certo lasso
temporale:
1.
Tensioni e tentativi di rivoluzioni colorate che includeranno gli utili idioti
chiamati anche sindacati, i soliti partiti in mano a Soros e alcuni migranti
pagati per creare disordini e caos.
Tutti
rigorosamente accompagnati dai “media main stream” che ormai non legge e guarda
più nessuno o quasi.
Mosse
prevedibili, presenti nel manuale dei globalisti (pagina 90) che vengono
utilizzate quando l’establishment è in seria difficoltà. Tranquilli, non si inventano nulla e
non fanno paura a nessuno: tutto ampiamente prevedibile e già visto.
2.
Nella marcia e corrotta politica italiana, serva dei perdenti
anglo-franco-sionisti, vedremo da ora in avanti cambi repentini di casacca.
In
molti, soltanto ora, fingeranno di essere stati da sempre veri sovranisti e
strizzeranno l’occhiolino al presidente americano dicendo di voler ricucire con
Madre Russia.
Con un
riposizionamento strategico di questo livello, è possibile che a breve anche la
magistratura torni a fare il proprio mestiere e quindi possa togliere il velo a
inchieste interessanti, con conseguente valanga giudiziaria.
Con
queste premesse l’asse Washington-Roma-Mosca potrebbe vedere finalmente la
luce.
Gli
stolti globalisti cercano il caos da usare come pretesto per raggiungere i loro
obiettivi (“Ordo Ad Chao”, motto casualmente anche della massoneria), ma questi
sono tutti falliti come loro.
Inoltre,
non hanno mai letto e/o capito Nietzsche.
Noi,
il caos dentro, lo abbiamo sempre avuto e non ci ha mai abbandonato.
È per
questo motivo, che stiamo vincendo la battaglia e vinceremo la guerra.
“Bisogna
avere ancora un caos dentro di sé per partorire una stella danzante.” – “Friedrich
Nietzsche”.
L’UE
Deve Morire…
Ormai
il sentimento diffuso fra italiani ed europei è sempre più convergente: l’UE
deve morire!
Fra le
potenti spallate dell’asse invincibile sovranista USA-Russia e quello di
cittadini, industrie e paesi membri che in realtà hanno la casacca dell’altro
colore, l’UE è pronta per il collasso definitivo.
L’Unione
Europea, creatura americana, non può sopravvivere senza il beneplacito consenso
dell’amministrazione USA.
Trump
ha pubblicamente esposto al mondo il pollice verso, condannando l’UE a
diventare solo un terribile ricordo.
Quello
che non poteva fare il presidente americano lo ha fatto “Musk”, che con la sua
potenza mediatica ha ridicolizzato l’Unione Europea a livello globale, cercando
e trovando consenso unanime.
L’Intelligence che coordina queste azioni
funziona come un orologio svizzero.
Il
deep state si ridicolizza da solo, balbetta, frigna, alza la voce credendo di
avere ancora un potere che gli è stato sfilato nel momento in cui i sovranisti
hanno preso il sopravvento, facendo terminare di fretta perfino la fiction
pandemica.
L’Europa
sarà composta da Stati sovrani, Ursula tornerà alla sua vecchia attività,
quella che le riesce meglio:
tirare i sassi negli stagni, cercando di farli
rimbalzare il più possibile.
Siamo
pronti, per volare anche senza vento…
(Rivisto
da Conoscenzealconfine.it.)
(t.me/In_Telegram_Veritas).
Persona
dell'anno TIME 2025
all'intelligenza
artificiale:
"Gli
architetti dell'”AI” hanno stupito
e
preoccupato l'umanità."
Ilgiornaleditalia.it
– Redazione – (11 dicembre 2025) – ci dice:
Era
previsto e la conferma è arrivata. "Qualunque fosse la domanda, “AI” era
la risposta", scrivono i giornalisti della rivista.
Persona
dell'anno TIME 2025 a "gli architetti dell'intelligenza artificiale per
aver stupito e preoccupato l'umanità."
(Fonte:
“TIME”).
La
persona dell'anno del TIME 2025 non è una persona, bensì "l'intelligenza
artificiale".
Era
previsto e la conferma è arrivata.
"Qualunque
fosse la domanda, AI era la risposta", scrivono i giornalisti della
rivista.
In
copertina "un'immagine che esprime il dualismo prodotto dall'IA: uomo
contro macchina".
Per il
TIME la persona dell'anno 2025 è l'intelligenza artificiale.
Uno
strumento divisivo ma che comunque ha avuto una rilevanza non indifferente
nella vita delle persone.
Era
previsto che il riconoscimento andasse verso questo mondo e ai suoi
"architetti".
"Abbiamo
visto come può accelerare la ricerca medica, la produttività e rendere
possibile l'impossibile.
È stato difficile leggere o guardare qualcosa senza
essere confrontati con notizie sul rapido avanzamento di una tecnologia che
imita il pensiero umano e l'intelligenza.
Quelle
storie hanno scatenato un milione di dibattiti su quanto dirompente, quanto
bello e quanto brutto sarebbe stato per le nostre vite".
E poi:
"Le capacità possono sembrare magiche: abbiamo appreso recentemente che
l'IA potrebbe facilitare la comunicazione con le balene e risolvere un problema
di matematica irrisolto vecchio di 30 anni.
I modelli stanno migliorando ad un ritmo
veicolante, ora impiegano pochi secondi per eseguire un lavoro che una volta
richiedeva ore".
"Eppure
la quantità di energia necessaria per far funzionare questi sistemi prosciuga
risorse.
I lavori stanno andando fino a che punto. La
disinformazione prolifera. Sono possibili attacchi informatici su larga scala
senza intervento umano.
E le
aziende IA vengono attaccate all'economia globale in una scommessa di
proporzioni epiche".
"La
persona dell'anno è un modo potente per concentrare l'attenzione del mondo
sulle persone che condizionano la nostra vita.
E
quest'anno, nessuno ha avuto un impatto maggiore degli individui che hanno
immaginato, progettato e costruito l'IA.
L'umanità
determinerà il percorso avanti dell'IA e ognuno di noi può svolgere un ruolo
nel determinare la struttura e il futuro dell'IA.
Il nostro lavoro lo ha allenato e sostenuto, e
ora ci troviamo a muoverci in un mondo sempre più definito da esso".
"Per
consegnare l'età delle macchine pensanti, per stupire e preoccupare l'umanità,
per trasformare il presente e trascendere il possibile, gli Architetti dell'AI
sono la persona dell'anno 2025 del TIME".
(Il
Giornale d'Italia).
Intelligenza
Artificiale:
quale
futuro?
Marcovigorelli.org
– Giacinto Piero Tartaglia – Redazione- Fondazione Marco Vigorelli – ci dice:
Il
genere umano è in perenne evoluzione, artefice e vittima dei cambiamenti che
continua a generare.
La
velocità di questi cambiamenti è in continuo aumento, rendendo difficoltoso il
controllo degli effetti.
Nel
quadro presente, Globalizzazione, Demografia e Tecnologia sono le forze
primarie che determinano i cambiamenti nel e sul pianeta.
Le
loro varie interazioni originano fenomeni e tendenze, che stanno già
sconvolgendo la vita presente e avranno pesanti conseguenze sul futuro, se non
gestite opportunamente.
Esempi
del risultato di dette interazioni sono:
nuovo quadro geo-politico mondiale; cambiamento climatico;
futuro del lavoro; urbanizzazione; salute e re-invenzione del sistema “salute”,
etc.
Siamo
solo agli inizi della trasformazione della nostra economia e società a causa
dello sviluppo delle tecnologie digitali.
Dal punto di vista “tecnologico”, i componenti
principali responsabili della velocità crescente di sviluppo, sono:
digitalizzazione; Internet of Things (IoT);
Big Data; Intelligenza Artificiale; realtà virtuale; realtà avanzata; utilizzo
di sensori su larga scala; cripto-valute; sistemi tipo blockchain etc.
Da
essi hanno avuto origine lo sviluppo di robot, droni, dispositivi indossabili
(wearable) etc.
I
cambiamenti a valle, per natura dirompenti, si ripercuotono su: mercato del
lavoro; industria 4.0; sicurezza (safety); beni comuni; diritti dei lavoratori;
giustizia sociale; uguaglianza; equità; rapporti sociali.
Contemporaneamente,
lo sviluppo digitale sta generando una serie di paradossi:
l’esplosione
della disponibilità di quantità enormi di informazioni crea disinformazione (o
si presta meglio a disinformazione e diffusione di notizie false);
l’incremento delle reti sociali origina
frequentemente l’isolamento fisico.
L’Intelligenza Artificiale (IA) è centrale a
questi cambiamenti e offre delle reali opportunità di migliorare la nostra vita
e anche di affrontare tali paradossi.
Nel
sito della Fondazione sono presenti numerosi contributi in materia di
Intelligenza Artificiale.
Sviluppo.
L’IA negli anni Novanta si concentrava sulla
correlazione di dati in ingresso (input) mediante delle regole (algoritmi) per
ottenere risposte “mediate” al fine di utilizzare al meglio certi dispositivi
(ad esempio: lavatrici), nei quali la risposta precisa a un numero limitato di
dati di partenza non consentiva di ottenere i risultati (output) migliori.
L’evoluzione
(disponibilità di dati sempre maggiore e il bisogno industriale di avere delle
risposte più veloci) ha portato l’IA a muoversi verso l’apprendimento della
macchina (machine learning-ML).
Dalla
programmazione si è passati all’addestramento.
In
questo caso, i dati di partenza sono elaborati insieme a delle risposte note.
Dalla associazione dati-risposte, si ricavano
delle regole, che vengono applicate a situazioni uguali o molto simili.
Elaborazioni
più dettagliate e specialistiche hanno portato a sviluppi definiti “Deep
learning” (DL) e “Reinforcement learning” (RL).
L’insieme di queste tecnologie ha permesso lo
sviluppo della robotica, inclusi i robot sociali:
numerosi
problemi “semplici” possono essere risolti da macchine dotate di forme più o
meno sofisticate di IA con algoritmi più o meno complessi. Alcuni esempi:
filtro di spam, traduzioni automatiche,
riconoscimento immagini, generazioni di musica, operazioni industriali
ripetitive, veicoli autonomi, diagnostica in campo medico, etc.
Al
momento, l’insieme IA può essere considerato come una scatola nera, in cui
l’accesso agli input e ai risultati è possibile, senza conoscere cosa accade
all’interno della scatola nera.
Ignoriamo come certi output, inclusi i
processi decisionali e le azioni conseguenti, siano determinati.
Occorre quindi sviluppare dei meccanismi di
trasparenza in modo da valutare la qualità e la prestazione della IA e da
costruire fiducia su tale tecnologia:
siamo noi a dover essere in grado di
pilotarla, in modo da filtrare le positività ed eliminarne i rischi.
Economia
e futuro del lavoro.
Da un
punto di vista puramente economico, i dati (e le proiezioni) indicano un
aumento degli investimenti in IA, con una cifra stimata di circa 60 miliardi di
euro di investimenti globali (nel mondo) nel 2025, a fronte di una modesta
cifra di circa 2 miliardi di euro nel 2016 (in tale anno gli investimenti
europei rappresentavano appena un quinto degli investimenti USA).
A livello mondiale, l’Unione Europea (UE), è
superata solamente da USA per quanto riguarda il numero dei praticanti nel
campo della IA.
Entro
il 2030, la Cina sarà il primo attore nel campo della IA.
Per
l’UE il problema maggiore non è quello di “vincere” questa corsa, ma di guidare
lo sviluppo della IA per coglierne tutti i vantaggi in un modo che sia centrato
sulla figura umana, che sia etico, sicuro e rispettoso dei nostri valori
fondamentali.
Gli
Stati Membri dell’UE hanno compreso che solo sviluppando un’azione co-ordinata
a livello UE le strategie proposte dalla Commissione Europea possono essere
attuate per costruire sulle nostre aree di forza, che includono ricerca,
leadership in alcuni settori (es. robotica), un quadro legale e regolamentare
solido e una ricca diversità culturale anche a livelli più locali (regioni e province).
Il
mondo del lavoro dovrà affrontare cambiamenti radicali, come risulta da esempi
già disponibili oggi:
gli
“assistenti” vocali disponibili sui nostri telefoni e computer agiscono
mediante meccanismi di machine learning con la necessità di rivedere il lavoro
classico delle segretarie;
le automobili a guida autonoma potranno forse
sostituire il lavoro degli autisti;
i nostri acquisti on line sono già in gran
parte guidati da algoritmi che apprendono le nostre necessità e ci tempestano
di offerte di prodotti di cui potremmo aver bisogno, sostituendo il lavoro
degli analisti di mercato e dei più classici rappresentanti.
In
breve, l’IA come tutte le altre innovazioni tecnologiche sostituirà una parte
del lavoro umano, con un impatto sul mondo del lavoro diverso secondo i settori
e con variazioni tra il breve e il lungo termine.
A
lungo termine e con le dovute politiche, l’IA creerà nuove opportunità di
lavoro, superiori a quelle che si perderanno (molte mansioni a basso livello di
contenuto intellettuale e ripetitive saranno effettuate dalle macchine).
Come
nella rivoluzione industriale, il processo richiederà anni prima di raggiungere
l’equilibrio.
Le
previsioni sono di un aumento di oltre 1.7 milioni di posti di lavoro necessari
in campo digitale nella UE entro il 2030.
L’implementazione
della digitalizzazione (e quindi anche IA) su larga scala richiederà competenze
di livello più elevato (oltre l’80% dei lavori futuri nella UE richiederanno,
tra l’altro, una conoscenza digitale di base, già nella prossima decade).
La qualità del lavoro sarà dunque migliorata,
con mansioni di livello più elevato e più gratificanti, con requisiti di
conoscenza e abilità notevoli.
Il rischio sarà quello di amplificare i
cambiamenti socio-economici e la differenza tra le classi sociali (rischi e
opportunità non sono equamente distribuiti attraverso la società).
Il
fatto che l’impiego della IA consentirà di rimpiazzare mansioni che richiedono
meno competenze, si tradurrà anche in un rafforzamento della complementarità
delle risorse di cui le industrie e le ditte dovranno dotarsi.
Non
solo, l’IA favorirà anche maggiore responsabilizzazione e decentralizzazione
dell’autorità decisionale.
Altri ruoli che non potranno mai essere
ricoperti dalla IA riguarderanno le mansioni basate su creatività e sul
coinvolgimento emotivo (segni distintivi della differenza tra uomo e macchina).
I
contratti sociali andranno rivisti e dovranno considerare le disuguaglianze
economiche.
Le
soluzioni politiche hanno tradizionalmente considerato tassazioni progressive e
programmi di salvaguardia, pensioni, disoccupazione e assistenza sanitaria.
Tali
meccanismi sono fondamentali.
Alla luce dell’impatto sul mondo del lavoro,
probabilmente nuovi approcci saranno necessari e forse si dovranno anche
considerare forme universali di stipendio base.
Il
quadro regolamentare andrà rivisto, per tener conto degli interessi dei
lavoratori, consumatori, piccole imprese che dovranno fronteggiare le
mega-organizzazioni.
Nuovi
metodi di monitoraggio dovranno essere sviluppati per misurare il valore
aggiunto fornito dalle nuove tecnologie, sia a livello di singola impresa che
di governo centrale.
Inoltre,
la diffusione della IA avrà bisogno di nuovi ruoli e nuove mansioni in
discipline complementari:
la
complessità del mondo tecnologico/digitale multi-dimensionale rende necessario
anche l’intervento di non-specialisti, di ruoli orizzontali, che sappiano
valutare il quadro tecnologico, etico, sociale, legislativo e guidare lo
sviluppo dei cambiamenti, assolutamente necessari per filtrare i vantaggi della
IA.
Le
discipline sociali, la revisione dei contratti sociali, la necessità di studi
comportamentali, antropologici, i meccanismi di controllo e di valutazione, la
protezione dei diritti (es. IPR), il rispetto della privacy, richiederanno un
aumento delle competenze esistenti e lo sviluppo di nuove. Impatto sociologico
ed educativo.
In
ogni caso, i cambiamenti non sono pre-determinati e devono essere gestiti e
guidati attraverso opportune politiche.
La
trasformazione sociale potrà essere guidata e controllata solo attraverso un
approccio multi-dimensionale che consideri gli aspetti sopra descritti: etici e
sociali, legali, educativi e formativi, economici, la disponibilità di dati, le
possibili intrusioni nella vita privata e relativa Cyber-security, i rischi di
discriminazione ed esclusione e la resilienza sociale in toto.
La
società civile dovrà essere impegnata e coinvolta a discutere i valori e per
impregnarne lo sviluppo della IA soprattutto per superare e guidare le fasi di
transizione.
L’IA
deve essere aperta, accessibile e compresa da tutti nella società, affinché
diventi uno strumento integrato nella stessa società.
Una
solida struttura informatica e l’accesso ai dati dovrebbero favorire
l’interazione con gli utenti e rendere possibile lo sviluppo di eco-sistemi di
amministrazione pubblica, ditte e società civile, arricchendo il complesso dei
dati, aumentando le possibilità di verifica e controllo sugli stessi e
rendendoli idonei per applicazioni della IA.
Questo permetterà di usufruire appieno di
benefici e opportunità che l’IA può offrire.
L’IA
cambierà le relazioni tra educazione, lavoro e sviluppo umano e sarà necessario
comprendere meglio l’impatto delle interazioni tra IA e intelligenza umana
nelle capacità cognitive di adulti e bambini.
Più in generale, in questo panorama occorre
riconsiderare il modello educativo e formativo.
È
sicuramente l’aspetto più importante da considerare per lo sviluppo adeguato
della IA ed è il pilastro centrale nell’ottica del cambiamento dei contratti
sociali.
La
rivoluzione industriale ha proposto dei modelli educativi e formativi che si
sono basati sulla preparazione degli studenti finalizzata ad un pronto
inserimento nel mondo del lavoro.
La
scuola anglosassone ha dettato i suoi modelli, la cui validità si è però
esaurita da diverse decadi e i sistemi educativi sono completamente
disallineati dal futuro mondo del lavoro.
Il progresso tecnologico avanza a dei ritmi tali da
rendere tale modello obsoleto e completamente inadatto a fronteggiare le sfide
future.
Durante
il ciclo di studi, il progresso è tale che è assolutamente impensabile formare
degli individui per un inserimento specifico nel mondo lavorativo.
Alcune
università stanno incrementando le interazioni tra gli atenei e il mondo
lavorativo:
di
nuovo, però si tratta semplicemente di miglioramenti su una tematica specifica.
Il
modello educativo deve essere rivoluzionato.
L’educazione
accompagnerà ogni individuo attraverso il percorso lavorativo (life-long
learning) e dal fornire e acquisire conoscenza si dovrà passare allo sviluppo
delle capacità e abilità nell’implementare queste nuove conoscenze.
Visto
che il mondo evolve sempre più rapidamente, dobbiamo preparare quindi le
generazioni future a essere capaci di seguire e di anticipare i cambiamenti, di
riuscire a comprendere la complessità dei problemi, di essere in grado di
scomporre tale complessità multi-dimensionale in visioni olistiche e
onni-comprensive, di stimolare i processi creativi.
In
altre parole, il modello educativo dovrebbe essere basato su una piattaforma
meno specialistica, ma più generale, coniugando gli aspetti tecnologici con
quelli umanistici, sociali, etici e dove lo sviluppo dei processi creativi sia
privilegiato.
La
stimolazione della creatività è fondamentale nella scuola del domani.
Creatività
è l’abilità di generare associazioni e connessioni tra argomenti all’apparenza
completamente diversi e slegati, è l’ingrediente che può rendere possibile
l’impossibile.
Un cammino formativo dove scienza e tecnologia
siano accompagnate dall’arte permetterebbe di affrontare meglio l’evoluzione in
atto e di trarre i maggiori benefici da una società ormai non più industriale,
ma basata sulla conoscenza, conoscenza globale, condivisa e interattiva.
Una
coscienza del problema e uno sviluppo educativo come citato, sembra anche
essere la migliore premessa per il coinvolgimento sociale e per rafforzare la
nostra resilienza a tutti i livelli, dal locale al nazionale e a livello di UE,
attraverso istituzioni, industrie e società civile e costruire una IA centrata
sull’uomo e guidata dai valori sociali.
Il contributo dell’UE.
Le
varie istituzioni europee e l’Unione Europea nel loro complesso hanno già fatto
molto per affrontare l’argomento IA in modo completo e multidisciplinare.
Nel
2018, gli Stati Membri dell’Unione hanno firmato una “Dichiarazione di
Cooperazione nel campo dell’IA.”
Nel 2018, la Commissione Europea ha pubblicato
una Comunicazione su IA, avente tre obiettivi principali:
Incremento
della capacità tecnologica e industriale europea e assorbimento della IA nei vari
settori dell’economia, sia nel settore pubblico che in quello privato. Ciò
include investimenti nel campo della ricerca e dell’innovazione e miglioramento
dell’accesso ai dati.
Preparazione
ai cambiamenti socio-economici causati dalla IA con operazioni di
modernizzazione del sistema educativo e della formazione, favorendo lo sviluppo dei talenti,
anticipando i cambiamenti nel mercato del lavoro, sostenendo il processo di
transizione del mercato del lavoro e l’adattamento dei sistemi di protezione
sociale.
Assicurazione
di un adeguato quadro etico e legale, basato sui valori dell’Unione e in linea
con la Carta dei Diritti Fondamentali dell’Unione Europea.
Ciò
include linee guida su regolamenti esistenti e responsabilità sui prodotti,
un’analisi dettagliata dei problemi che possono essere generati e una
co-operazione tra tutte le parti interessate (industria pubblica, governi degli
Stati Membri, istituzioni europee, etc.) per stabilire delle linee guida
etiche.
È
opportuno sottolineare che l’Unione Europea, attraverso le proprie istituzioni,
è stata l’unica entità a livello mondiale ad aver emesso delle comunicazioni
così comprensive sulla IA.
Tra l’altro, le comunicazioni emesse coprono gli
aspetti tecnologici, economici, legali, sociali, etici, etc. (ad esempio: linee
guida per i progetti, la produzione e l’utilizzo dei robot, principi atti a
regolare autonomia, responsabilità individuale, consenso informato, privacy,
responsabilità sociale, diritto degli anziani e dei disabili, sistema
sanitario, pratiche e codici etici, uguaglianza e non discriminazione, equità,
giustizia, benefici, normazione, sicurezza, protezione dati (GDPR), diritti di
proprietà intellettuale (IPR) precauzione, inclusione, rendicontabilità,
massimizzazione vantaggi, eliminazione svantaggi, etc.
Il
tutto centrato sull’uomo, sulla dignità e centralità della persona umana, sui
saldi principi etici presenti nella carta europea dei diritti fondamentali, sui
valori europei sui quali sono stati fondati i Trattati EU e infine su sfide e
accettabilità sociale della IA.
Inoltre,
è già stata avanzata una proposta per l’istituzione di una “Agenzia europea di
robotica e Intelligenza Artificiale”, che guidi e segua gli sviluppi della IA
nell’Unione Europea.
Per
quanto riguarda i dati, già nel 2013 la Commissione Europea ha pubblicato una
serie di comunicazioni e direttive per l’accesso aperto, trasparente e gratuito
a tutte le pubblicazioni scientifiche
risultanti da attività di ricerca e sviluppo finanziate dai fondi
pubblici europei e di rendere disponibili i dati correlati (obbligatoriamente a
partire dal prossimo programma quadro), in modo da garantire trasparenza,
riproducibilità dei risultati, una penetrazione più veloce dei risultati da
parte delle industrie e quindi un impatto economico sui mercati.
Siamo
ancora in grado di scrivere il futuro sulla base della nostra visione
collettiva.
Le
premesse sono buone, tenendo conto delle azioni a livello della UE.
In ogni caso, da qualunque punto di vista si
analizzi il problema (economico, etico, legale, sociale, etc.), dobbiamo
comprendere che solo uno sforzo congiunto di tutti i paesi membri della UE
potrà condurci nella direzione auspicata e già tratteggiata nelle varie
comunicazioni delle istituzioni europee.
(Giacinto
Piero Tartaglia - Dr.Ing., free-lance, Knowledge Management activities).
Come
rendere sicura l’intelligenza
artificiale?
Un test per
gli
esseri umani.
Dirittisociali.org
- Alessandro Casellati – (29-06 – 2023) – Casa dei diritti sociali – ci dice:
La
grancassa degli avvertimenti sui pericoli dell’intelligenza artificiale sta
raggiungendo un nuovo livello di intensità.
Mentre
i ricercatori di intelligenza artificiale temono da tempo che l’IA possa
spingere le persone a lasciare il lavoro, manipolarle con video falsi e aiutare
gli hacker a rubare denaro e dati, alcuni avvertono sempre più che la
tecnologia potrebbe prendere il sopravvento sull’umanità stessa.
Ad
aprile, i principali protagonisti del mondo tecnologico digitale hanno
pubblicato una lettera aperta esortando tutti i laboratori di intelligenza
artificiale a interrompere l’addestramento dei loro sistemi più potenti per
almeno sei mesi.
Il
mese scorso, centinaia di ricercatori di intelligenza artificiale e altri hanno
firmato una dichiarazione in cui si suggerisce che l’umanità dovrebbe
affrontare il “rischio di estinzione” per mano della tecnologia con la stessa
priorità che ora dà alla guerra nucleare e alle pandemie.
“L’idea
che questa roba diventerà più intelligente di noi e potrebbe effettivamente
sostituirci, mi ha preoccupato solo pochi mesi fa“, ha detto il pioniere
dell’IA” Geoffrey Hinton” a “Fareed Zakaria” della “CNN” l’11 giugno.
“Pensavo
che il cervello fosse migliore e che noi stavamo solo cercando di recuperare il
ritardo con il cervello.
All’improvviso
mi sono reso conto che forse l’algoritmo che abbiamo è già migliore del
cervello.
E quando lo miglioreremo ancora, otterremo
cose più intelligenti di noi”.
“Hinton”
ha lasciato il suo lavoro a Google a maggio, dice, per poter parlare
liberamente di tali pericoli.
Altri
scienziati scherzano su questi discorsi apocalittici.
Il vero pericolo, dicono, non è che l’umanità
costruisca accidentalmente macchine troppo intelligenti, ma che cominci a
fidarsi di computer che non sono abbastanza intelligenti.
Nonostante
i grandi progressi che la tecnologia ha fatto e i potenziali vantaggi che
offre, fa ancora troppi errori per fidarsi ciecamente, aggiungono.
Eppure
i confini tra questi scenari sono sfocati, soprattutto perché i computer basati
sull’intelligenza artificiale diventano rapidamente più capaci di risolvere
problemi, senza però avere le capacità di ragionamento morale degli umani.
Il denominatore comune sono le questioni
legate alla fiducia:
quanta ne meritano le macchine? Quanto sono
vulnerabili gli esseri umani alla fiducia mal riposta nelle macchine?
In
effetti, i sistemi sono così complessi che nemmeno gli scienziati che li
costruiscono sanno con certezza perché danno le risposte che danno, che sono
spesso sorprendenti e, a volte, completamente false.
Sostengono
che spesso è praticamente impossibile capire effettivamente perché stiano
producendo una determinata stringa di testo. Riconoscono che questo è il problema
più grande, gli stessi ricercatori nell’area della IA sanno che non possono
assolutamente fidarsi di niente.
Ma riconoscono che è molto facile per le
persone essere ingannate.
Si
stanno già accumulando esempi di sistemi di intelligenza artificiale che
ingannano le persone:
un
avvocato che ha presentato una dichiarazione giurata citando sei casi
giudiziari fasulli, con nomi inventati, ha detto a un giudice di New York in
un’udienza l’8 giugno di essere stato ingannato dal sistema di intelligenza
artificiale su cui faceva affidamento;
un
conduttore radiofonico della Georgia ha citato in giudizio OpenAI, la società
che produce il popolare ChatGPT, sostenendo che il sistema di intelligenza
artificiale ha creato dal nulla una denuncia legale accusandolo di
appropriazione indebita;
sospettando
che i suoi studenti stessero usando ChatGPT per scrivere i loro saggi, un
professore della Texas A&M University ha eseguito i loro documenti
attraverso lo stesso sistema e ha dato uno zero a quelli che il sistema di
intelligenza artificiale ha detto di aver scritto.
Ma il sistema non può riconoscere in modo
affidabile ciò che ha scritto. L’università è intervenuta, assicurando che
nessuno degli studenti fosse bocciato o escluso dalla laurea.
Questi sono solo accenni ai rischi in serbo,
avvertono gli scienziati dell’IA.
Bisogna
gettare via le visioni fantascientifiche di robot tipo Terminator che
conquistano il mondo – quelle sono ancora inverosimili con la tecnologia
odierna – ma i rischi di estinzione umana non scompaiono. Gli scienziati indicano la
possibilità che la tecnologia consenta ai malintenzionati di creare armi
biologiche, o di aumentare la letalità della guerra intrapresa dagli Stati.
Potrebbe
anche consentire ad attori politici senza scrupoli di utilizzare immagini
deepfake (falsificate) e disinformazione in modo così efficace da far crollare
la coesione sociale di una nazione, vitale per affrontare le sfide ambientali e
politiche.
La
manipolazione degli elettori e la diffusione della disinformazione sono alcune
delle maggiori preoccupazioni, soprattutto con l’avvicinarsi delle elezioni
statunitensi del prossimo anno, ha dichiarato il mese scorso il CEO di OpenAI”
Sam Altman” a una commissione del Senato statunitense.
“L’intervento
normativo da parte dei governi sarà fondamentale per mitigare i rischi di
modelli sempre più potenti.“
OpenAI
è il creatore di ChatGPT, che ha alimentato gran parte delle crescenti
aspettative verso l’IA – sia positive che negative – sin dalla sua uscita al
pubblico alla fine dell’anno scorso.
Ha
sollevato la speranza che i lavoratori possano diventare molto più produttivi,
i ricercatori possano fare scoperte più rapide e il ritmo del progresso in
generale possa aumentare.
In un
sondaggio tra gli amministratori delegati di grandi imprese statunitensi, il
42% ha affermato che l’intelligenza artificiale potrebbe potenzialmente
distruggere l’umanità in 10 o anche cinque anni, mentre il 58% ha affermato che
ciò non potrebbe mai accadere e che non sono “preoccupati“.
I
legislatori di entrambe le sponde dell’Atlantico sono ansiosi di creare dei
limiti per la tecnologia in espansione.
L’Unione
Europea ha preso l’iniziativa nelle scorse settimane accettando la bozza di un
atto che classificherebbe le tecnologie IA dal rischio “minimo” a “inaccettabile
“.
L’intelligenza
artificiale ritenuta inaccettabile verrebbe vietata e le applicazioni
considerate “ad alto rischio” sarebbero strettamente regolamentate.
Molte
delle principali tecnologie di intelligenza artificiale oggi sarebbero
probabilmente considerate a rischio elevato o inaccettabile.
Negli
Stati Uniti, il “National Institute of Standards and Technology “ha creato un
framework di gestione del rischio IA.
Ma
molti al Congresso vogliono andare oltre, soprattutto alla luce della percepita
incapacità di aver regolamentato i social media in modo tempestivo.
Molti
senatori dicono esplicitamente: “non vogliamo fare gli stessi errori con l’IA “.
Vogliono essere proattivi al riguardo, che è l’atteggiamento giusto da avere.
Come
regolamentare il settore è ancora un’incognita. Molti responsabili politici
stanno cercando di imporre una maggiore trasparenza alle aziende su come
costruiscono i loro sistemi di intelligenza artificiale, un requisito presente
nella proposta di legge dell’UE. Un’altra idea che viene lanciata è la creazione di
un’agenzia internazionale di regolamentazione che sorvegli le aziende che
sviluppano la tecnologia e mitighi i rischi.
Noi
come società stiamo trascurando tutti questi rischi.
Addestriamo
e facciamo ogni sforzo per far crescere un sistema di IA che è estremamente
potente ma che rimane una ‘scatola nera‘ anche per i suoi progettisti.
Ciò significa che non possiamo allinearlo in
modo affidabile con i nostri obiettivi, sia che si tratti dell’equità nella
giustizia penale o di non causare la nostra estinzione.
Intelligenza
artificiale:
limiti,
vulnerabilità, rischi.
Panoramarivista.it
- Corrado Giustozzi – (20 -05 – 2025) – Redazione – ci dice:
L’intelligenza
artificiale, familiarmente chiamata IA (o AI all’inglese), benché sia balzata
all’attenzione del grande pubblico solo in tempi assai recenti non è affatto
una disciplina nuova:
ha
anzi oltre settant’anni di vita, essendo stata “inventata” negli anni Cinquanta
del secolo scorso.
Fatto
forse sorprendente, dato che la maggior parte delle persone di oggi sembra
ritenere che si tratti di uno sviluppo dell’informatica conseguito solo da
pochi anni a questa parte.
Il
termine stesso “intelligenza artificiale” venne coniato nel lontano 1955
dall’informatico statunitense “John McCarthy”, uno dei primi ricercatori di
questa disciplina.
Egli, tra l’altro, creò nel 1958 il linguaggio
di programmazione denominato “LISP”, a lungo impiegato per lo sviluppo di
progetti di intelligenza artificiale;
e nel 1962 fondò uno dei più antichi
laboratori di ricerca sull’IA, quello dell’”Università di Stanford”.
Per
queste sue pionieristiche attività l’”Association for Computing Machinery “(ACM)
gli conferì nel 1971 il prestigioso “Premio Turing”, spesso considerato come il
“Nobel per l’Informatica”.
E vale
forse la pena di ricordare che fu proprio il “padre dell’informatica” “Alan
Turing” il primo a riflettere in maniera scientificamente pragmatica sul
problema se le macchine potessero o no pensare, sottraendolo alle astratte
speculazioni dei filosofi e privandolo soprattutto di ogni connotazione
emotiva, per inquadrarlo invece in un ambito freddamente ingegneristico.
L’articolo
col suo fondamentale contributo di pensiero venne pubblicato sulla “rivista di
filosofia Mind” in un lontanissimo 1950, quando i calcolatori non erano ancora
diffusi o utilizzati ma già lì si chiamava “cervelli elettronici”, e nei
salotti intellettuali si discuteva sulle loro presunte capacità future in
quanto “macchine intelligenti”.
È
dunque curioso vedere come oggi, tre quarti di secolo dopo, i dibattiti che si
susseguono alla televisione o sui forum di Internet riguardo le capacità
cognitive delle “nuove” moderne macchine intelligenti siano praticamente gli
stessi dell’epoca di Turing:
in una
sorta di stralunato déjà-vu nel quale a esprimere le proprie opinioni sono
generalmente politici, giuristi, filosofi, psicologi… ma nessun reale esperto
della materia; e le argomentazioni portate a sostegno dell’una o dell’altra tesi sono
spesso basate su congetture o aspettative, ma non su fatti tecnici concreti.
La
storia sembra dunque non averci insegnato granché, o forse semplicemente gli
opinionisti catodici di oggi non l’hanno studiata abbastanza.
Conviene
quindi ripercorrerla brevemente, per poter inquadrare in termini più corretti
ciò che sta avvenendo oggi e quali sono i nuovi e inaspettati rischi che essa
comporta.
Gli
inverni e le primavere della IA.
Dall’epoca
di Turing e McCarthy, lo studio e lo sviluppo dell’IA sono proseguiti in
un’alternanza di successi e fallimenti che hanno fatto vivere ai ricercatori
fasi storiche contrastanti, caratterizzate da grandi aspettative seguite da
cocenti delusioni.
Oggi si parla infatti di ben due “inverni
dell’IA”, periodi neri occorsi all’incirca tra il 1974 e il 1980 il primo, e
tra il 1987 e il 2000 il secondo. In entrambi si verificò un profondo calo di
interesse per l’intelligenza artificiale sia a livello industriale che
governativo, il che provocò una forte caduta degli investimenti nel settore e
una conseguente depressione della ricerca, cui fece seguito l’abbandono da
parte di moltissimi validi ricercatori.
Le
cause vanno attribuite ad una serie di fattori concomitanti, tra cui la
delusione per la mancanza di progressi all’altezza delle esagerate aspettative
che gli stessi scienziati avevano contribuito a creare, la disillusione sulla
reale portata dell’IA, la sfiducia nella tecnologia per via delle sue
limitazioni che rendevano più difficoltoso del previsto, o forse proprio impossibile, il
raggiungimento dei risultati attesi.
A
entrambi gli “inverni” fecero tuttavia seguito, anche se dopo un certo tempo,
altrettante “primavere”, grazie a nuovi sviluppi sia sul piano della ricerca
che su quello della tecnologia…
e
anche ad attente operazioni di marketing, che tendevano a presentare i “nuovi”
approcci come totalmente diversi da quelli che avevano portato all’inverno
precedente, facendo soprattutto bene attenzione a non menzionare mai il termine
“intelligenza artificiale”, che era improvvisamente diventato tabù.
Ad
esempio, negli anni Ottanta del secolo scorso presero piede i cosiddetti
“sistemi esperti”, e negli anni Dieci di questo secolo le “reti neurali”:
eufemismi
un po’ ipocriti, ma necessari per evitare di rivangare inutilmente gli
imbarazzanti insuccessi del passato.
Ma
tutto ciò avvenne in realtà senza particolari clamori mediatici, e in pratica
all’insaputa del grande pubblico:
perché
tanto i successi quanto i drammi si svolgevano nei laboratori universitari o
nei dipartimenti di ricerca e sviluppo delle aziende e industrie più
importanti, le quali sin dall’inizio si erano dimostrate fortemente interessate
a impiegare le nuove applicazioni dell’intelligenza artificiale per le proprie
esigenze.
E
così, già a partire dagli anni Dieci di questo secolo, una certa forma di
intelligenza artificiale, pudicamente celata sotto il nome di “deep learning”,
assai meno coinvolgente sul piano emotivo, ha ripreso in silenzio la sua
conquista della scena applicativa fornendo efficaci sistemi di riconoscimento
di “pattern” (volti, oggetti, scene, situazioni …) di cui nessuno sembra
essersi accorto, ma che sono oramai ampiamente utilizzati in applicazioni di
ogni tipo.
Essi, infatti, consentono di realizzare
affidabili “riconoscitori” o “classificatori” in ambiti che vanno dai veicoli
autonomi ai robot industriali, dagli analizzatori semantici di contenuti ai
motori antispam, dai sistemi per la manutenzione predittiva di impianti o
apparati a quelli per le analisi finanziarie o meteorologiche, dalle telecamere
di sorveglianza ai sistemi antivirus e antintrusione per la sicurezza
informatica.
La
maggior parte di tali sistemi ha oramai impatti importanti sulla vita
quotidiana delle persone, basti pensare ai navigatori satellitari o agli
assistenti personali:
ma
nessuno fino ad ora si era preoccupato del fatto che fossero “intelligenti”, o
classificabili come sistemi di IA.
E in
effetti ciò è corretto, perché a rigore il “deep learning” non può essere
definito come “intelligenza artificiale”: piuttosto ne è un componente.
Tant’è
che in inglese i sistemi che lo impiegano vengono definiti “smart”, non
“intelligent”:
una differenza sostanziale, che tuttavia nella
nostra lingua purtroppo si perde.
Ad
ogni modo, quello che è accaduto negli ultimi vent’anni è che l’intelligenza
artificiale, pur rimanendo in incognito per non rinfocolare le polemiche
rimaste ancora aperte dopo il secondo “inverno”, si è silenziosamente insinuata
all’interno di tantissimi sistemi e applicazioni di uso comune e generale,
grazie a tecniche di apprendimento automatico relativamente nuove anche se
basate in sostanza su versioni migliorate delle antiche e consolidate reti
neurali in uso da oltre trent’anni.
Tutto
però senza clamori e senza suscitare l’attenzione del grande pubblico.
Arrivano
i Transformer.
Sembrava
che le cose fossero destinate a continuare così piuttosto a lungo, quando un
recente e in qualche modo imprevisto sviluppo tecnico ha inaspettatamente
riacceso la fiamma che covava sotto la cenere, portando il mondo ad una tanto
improvvisa quanto clamorosa riscoperta del termine “intelligenza artificiale”
con tutte le sue più ancestrali implicazioni emotive.
Si
tratta dei cosiddetti “Transformer”, in italiano “trasformatori”: modelli di
apprendimento profondo che si sono rivelati molto più efficaci di quelli basati
sulle reti neurali, e risultano particolarmente idonei a essere applicati nel
campo dell’elaborazione del linguaggio naturale e della visione artificiale.
La
prima pubblicazione scientifica relativa ai Transformer, dovuta ad un gruppo di
ricerca afferente a Google, è del 2017.
Solo
tre anni dopo “Google Translate” sostituiva il proprio precedente modello
basato su reti neurali con un modello basato su Transformer, ottenendo
risultati assai migliori rispetto a prima.
Nel
2018 OpenAI, laboratorio di ricerca sull’intelligenza artificiale fondato tra
l’altro da “Elon Musk” e appartenente alla galassia Microsoft, inizia ad
utilizzare un modello di Transformer di tipo “generativo pre-addestrato” (GPT,
generative pre-trained transformer) per creare una famiglia di sistemi per la
generazione del linguaggio naturale.
Tale
attività culminerà col lancio a fine 2022 di ChatGPT, un “chatbot” basato sulla
terza versione di GPT (GPT-3) il quale sorprenderà tutti diventando in
brevissimo tempo un fenomeno planetario e riaprendo inaspettatamente
l’interesse e gli investimenti, nonché gli antichi dibattiti, sull’intelligenza
artificiale.
L’incredibile
successo di ChatGPT, che ha raggiunto i cento milioni di utenti in soli due
mesi di attività, ha decretato l’improvviso successo delle IA cosiddette “generative”, ossia creatrici di contenuti, dando
un fortissimo impulso alla ricerca e inducendo molte altre aziende e
organizzazioni di ogni dimensione a proporre propri sistemi alternativi in
concorrenza a “ChatGPT”.
In
particolare, si sono inizialmente moltiplicate soprattutto le IA
“conversazionali” o chatbot, sul tipo di ChatGPT, ossia sistemi che, basandosi
su modelli linguistici estesi (LLM, large language model) e architetture di
tipo Transformer, sono progettati per poter sostenere conversazioni plausibili
(anche se non necessariamente corrette) con gli esseri umani.
Ma
sono state rapidamente sviluppate e immesse sul mercato IA generative di altra
natura, in grado ad esempio di creare immagini fotorealistiche a partire da
descrizioni testuali della scena o del soggetto da creare, o di creare
composizioni musicali correttamente arrangiate e addirittura cantate da voci
sintetiche seguendo le indicazioni stilistiche fornite dall’utente mediante una
descrizione in forma testuale.
Da
allora ad oggi, in soli due anni, questi sistemi sono stati ulteriormente
migliorati:
sia
aumentando le loro capacità produttive mediante l’adozione di modelli più
sofisticati e di addestramenti su insieme di dati assai più ampi, sia
mettendoli in grado di interagire in modo più naturale con l’utente, ad esempio
rendendoli capaci di comprendere il normale parlato per accettare comandi
vocali impartiti tramite un microfono.
La ricerca in questo campo, grazie anche ai
fortissimi investimenti che sta raccogliendo, si muove oramai a passi da
gigante.
IA e
sicurezza.
Si è
molto dibattuto sui rapporti tra IA e sicurezza, intesa in termini piuttosto
ampi: civile, militare, cibernetica.
È infatti evidente che, in ultima analisi, un
sistema di IA ben messo a punto dovrebbe essere in grado di prendere decisioni
e attuare comportamenti in modo assai più rapido ed efficiente di quanto
potrebbe fare un essere umano:
e
soprattutto senza soffrire gli effetti della stanchezza, della fame, della
noia, della depressione, della paura.
Un
sistema di IA potrebbe dunque essere idealmente perfetto per governare un
sistema d’arma automatico, potenzialmente autonomo e autosufficiente oltre che
micidialmente letale.
Ma per
lo stesso motivo un sistema di IA potrebbe, all’opposto, consentire una difesa
e magari anche una controffensiva altrettanto automatica, rapida e precisa.
Ecco,
quindi, che le potenziali applicazioni militari dell’IA, benché assai meno
pubblicizzate e divulgate rispetto a quelle civili, suscitano da sempre il
forte interesse da parte di molti governi.
Il
timore è infatti che possano addirittura rovesciare i tradizionali rapporti di
forza tra gli Stati, avvantaggiando militarmente non chi ha più truppe o carri
armati ma chi è in grado di impiegare la tecnologia più “smart”.
La loro effettiva introduzione potrebbe quindi
essere realmente dirompente sul piano geopolitico.
Ma se
nel tradizionale “warfare cinetico”, almeno a quanto se ne sa, ancora nessun
esercito è in grado realmente di schierare sistemi d’arma totalmente asserviti
all’IA (forse anche perché nessuno si fida abbastanza di loro), in quello
cibernetico le cose sembrano essere diverse.
Già da
diversi anni infatti si adottano comunemente, per creare sistemi di difesa
contro gli attacchi informatici, tecniche di IA (o, più realisticamente, di
machine learning) in grado, almeno potenzialmente, di rilevare più rapidamente
una minaccia in corso effettuando l’analisi dei segnali deboli, la correlazione
tra eventi apparentemente indipendenti, il rilevamento di comportamenti
anomali, e via dicendo.
Il
rapporto tra cybersecurity e IA è dunque piuttosto antico e consolidato,
soprattutto nella messa a punto dei sistemi di difesa.
Di
contro, la recente introduzione delle” nuove IA generative” sembra aver dato
un’arma in più agli attaccanti, i quali hanno rapidamente imparato a sfruttare
le loro abilità per sviluppare nuovi e più efficaci malware o confezionare
messaggi di phishing più circostanziati e credibili.
Per
non parlare della “generazione di deep fake” sempre più sofisticati, e non
limitati alle sole immagini ma indirizzati soprattutto alla riproduzione della
voce parlata altrui, mediante i quali le organizzazioni criminali confezionano
truffe sempre più verosimili.
Un
caso pratico è quello, sempre più comune, della cosiddetta “CEO fraud”.
In
sostanza consiste nel chiamare al telefono il responsabile amministrativo di
una azienda, con la voce falsificata del suo amministratore delegato generata
in tempo reale mediante un’applicazione di IA, al fine di indurlo a disporre un
bonifico urgente su un conto off-shore per una presunta operazione riservata.
Ovviamente il destinatario del bonifico sarà
l’organizzazione criminale che ha predisposto la frode, e che provvederà a far
sparire definitivamente i soldi pochi secondi dopo il loro accredito.
Sicurezza
dell’IA.
I
rapporti tra IA e sicurezza, tuttavia, non si limitano ai due soli scenari
appena visti, nei quali i sistemi di IA possono essere usati per attaccare o
per difendere:
esiste infatti un terzo scenario in cui il
sistema di IA non è né l’attaccante né il difensore bensì la vittima, ossia
l’oggetto stesso dell’attacco.
Si
tratta evidentemente di un tema estremamente rilevante, dato che dai sistemi di
IA dipenderà sempre di più l’erogazione di funzioni e servizi critici per la
società: ma purtroppo è ancora poco studiato e affrontato.
Finora, infatti, non sembrava necessario
preoccuparsi del rischio di possibili attacchi verso le IA, dato l’utilizzo in
qualche modo limitato e specialistico che se ne faceva:
ma col
diffondersi in ogni settore e a tutti i livelli di sistemi e applicazioni
basati su IA, e anche in considerazione della forte evoluzione della minaccia
sia di matrice criminale che statuale, diventa necessario occuparsene.
Non si
parla ovviamente di attacchi cyber tradizionali, condotti cioè verso i server
che ospitano le applicazioni di IA:
ma di
veri e propri attacchi semantici, basati sui dati e indirizzati a sfruttare ad
arte determinate caratteristiche o limitazioni intrinseche, strutturali e
“comportamentali”, delle IA.
Tali
caratteristiche possono rappresentare fattori di rischio di per sé, ossia
possono provocare malfunzionamenti “in buona fede” del sistema di IA;
ma
possono addirittura costituire vere e proprie vulnerabilità, le quali possono
essere sfruttate dolosamente da eventuali malintenzionati al fine di sabotare
deliberatamente il sistema portandolo a mal funzionare su comando.
Tutti
i sistemi di IA, in misura maggiore o minore, sono a rischio di attacchi
semantici:
questi, infatti, sfruttano come vettore di
attacco gli stessi dati di input che il sistema riceve dall’esterno,
opportunamente formati o manipolati dall’attaccante, e non richiedono alcun
tipo di accesso al sistema informatico sottostante.
Nella grande maggioranza dei casi tali
attacchi sono anche molto facili da compiere, e invece assai difficili da
prevenire.
Limiti
dei sistemi di IA generativa.
Per
quanto riguarda i sistemi generativi basati su” LLM”, oggi tanto di moda, uno
dei problemi principali è costituito proprio dalla loro stessa natura:
essi
sono infatti costruiti per fornire ad ogni costo una risposta “plausibile”, ma
non necessariamente “corretta”.
Questa
non tanto sottile sfumatura viene di solito non sufficientemente compresa
dall’utilizzatore medio di tali sistemi, il quale di fronte alle loro risposte
apparentemente argomentate e convincenti ritiene implicitamente che esse siano
anche automaticamente veritiere e corrette.
Ciò
capita in modo più evidente quando, ad esempio, si chiede ad una IA generativa
di risolvere un problema logico o matematico:
non
essendo infatti dotata di reali capacità analitiche, essa imbastirà una
risposta “a pappagallo” apparentemente convincente ma in realtà del tutto
inattendibile, perché priva di una reale comprensione del contesto e dei
relativi meccanismi risolutivi.
Ma c’è
di più:
quando
una “IA generativa” non ha informazioni sufficienti per fornire una risposta,
anche nel caso di una banale ricerca, le inventa di sana pianta:
si
chiamano tecnicamente “allucinazioni” e sono, purtroppo, inevitabili proprio
per come è fatta la struttura di tali sistemi.
A volte queste allucinazioni sono talmente
grossolane da balzare agli occhi con grande evidenza, ma in altri casi sono così plausibili
e perfettamente integrate nel contesto da non creare sospetti a chi non le
esamini con attenzione.
A tal
proposito tutti ricorderanno uno dei primi e più famosi casi a salire agli
onori della cronaca, quello dell’avvocato statunitense “Steven Schwartz” che
nel maggio del 2023 fu sanzionato dal giudice distrettuale “Kevin Castel” per
aver presentato al tribunale di Manhattan una memoria difensiva basata sulla
citazione di sette casi precedenti i quali, all’analisi della controparte, si
erano rivelati del tutto inesistenti.
Li
aveva infatti inseriti autonomamente ChatGPT, cui l’avvocato aveva delegato la
scrittura del documento, per meglio corroborare la tesi difensiva.
Peccato
però che, in assenza di reali precedenti giudiziari riferibili a casi analoghi
a quello in esame, la IA li avesse tranquillamente inventati di sana pianta:
e lo
ha fatto corredandoli di una tale dovizia di particolari fasulli (numero di
sentenza, tribunale di riferimento, attori interessati) da renderli
assolutamente credibili ad una lettura non particolarmente approfondita.
Vulnerabilità dei sistemi di IA inferenziale.
Ma
anche i più antichi e consolidati sistemi di IA inferenziale basati su reti
neurali citati in precedenza, benché si dimostrino assai affidabili nel loro
uso normale come “riconoscitori” o “classificatori”, risultano invece
particolarmente suscettibili ad alcuni tipi di attacchi piuttosto insidiosi
mediante i quali è possibile indurre micidiali malfunzionamenti nei loro
comportamenti.
Ad
esempio, è possibile modificare ad arte un segnale stradale per far sì che l’IA
di controllo di un veicolo a guida autonoma non lo riconosca o, peggio, ne
equivochi il significato.
In un famoso studio pubblicato negli atti
della conferenza tecnica internazionale dell’”IEEE” (Institute of Electrical
and Electronics Engineers) sulla computer vision del 2018, il ricercatore “Kevin
Eykholt” della IBM ha dimostrato come quattro piccoli pezzi di nastro adesivo
opportunamente posizionati su un cartello di stop, benché sostanzialmente
insignificanti per un guidatore umano, siano invece sufficienti a far sì che un
veicolo autonomo interpreti il segnale come limite di 45 miglia all’ora.
Ciò significa che il veicolo in questione, una
volta giunto in prossimità dello stop, non solo non si fermerebbe ma anzi
partirebbe a razzo alla velocità di circa 90 chilometri orari, con le
immaginabili conseguenze del caso.
Un
altro studio condotto dal MIT e dall’”Università di Harvard”, pubblicato su
Science nel 2019, ha mostrato come un altrimenti affidabilissimo sistema di
diagnosi automatica della malignità dei nei cutanei, basato su una IA in grado
di interpretare le immagini e largamente usato nella pratica medica in molti
ospedali statunitensi, possa essere indotto a formulare diagnosi errate
semplicemente alterando in maniera impercettibile all’occhio umano le immagini dermatoscopie
che gli vengono sottoposte per l’analisi.
Una
semplice perturbazione basata su un pattern di rumore bianco, sommata
all’immagine, fa sì infatti che il sistema giudichi maligne delle formazioni
benigne e viceversa;
e
siccome tale alterazione non è percepibile dallo specialista umano, questi può
non avere alcun sospetto che il sistema stia fornendo diagnosi errate fino a
che non sia troppo tardi.
È
facile anche ingannare i riconoscitori di volti:
già
uno studio condotto nel 2017 da alcuni ricercatori della “Carnegie-Mellon
University” aveva mostrato come fosse possibile costruire dei curiosi
“occhiali” privi di lenti e con montature vivacemente colorate che, una volta
indossati, alterano talmente tanto nella percezione della macchina la
fisionomia del soggetto che li indossa da renderlo irriconoscibile al sistema.
Uno
studio più recente della “Università Ben-Gurion del Negev” ha addirittura
evidenziato come risultati analoghi possano essere ottenuti semplicemente
applicando sul volto un attento e non particolarmente invasivo make-up
impiegando normali cosmetici da profumeria.
Sulla
base di tutti questi studi sono state infine realizzate, e vengono addirittura
commercializzate su Internet da negozi specializzati, delle magliette su cui
sono stampati speciali schemi astratti formati da linee e colori che, pur
apparendo irrilevanti all’occhio umano, riescono a confondere le IA per il
riconoscimento facciale ad un livello tale che colui che le indossa diventa
praticamente invisibile:
ossia
la telecamera di sorveglianza non si limita a non riconoscerlo, ma non ne
percepisce neppure la presenza stessa.
Attacchi alle IA: obiettivi.
Ma chi
e perché potrebbe avere interesse ad attaccare i sistemi di IA?
La prima risposta ovvia è:
la
criminalità, tipicamente a fini estorsivi.
Una seconda risposta è: gli Stati, a fini di
sabotaggio.
Una
terza è: le organizzazioni terroristiche, al fine di creare allarme sociale.
Ma i
possibili scenari sono in realtà diversi e più sfaccettati.
Per analizzarli brevemente conviene ragionare
piuttosto sui possibili obiettivi, o risultati attesi, che l’attaccante si
prefigge.
Il
primo scenario è dunque quello indirizzato a “provocare danni”. L’attaccante vuole, cioè, causare
semplicemente dei danni più o meno immediati a cose o a persone, come
conseguenza del malfunzionamento da lui indotto nel sistema di IA.
Lo
scopo potrebbe essere ad esempio far sì che un veicolo autonomo ignori i
segnali di stop e vada a schiantarsi contro altri veicoli o investa i pedoni;
oppure fare in modo che un sistema per la
valutazione clinica di immagini di neoplasie sbagli le proprie diagnosi, così
che i pazienti realmente malati vengano privati delle cure di cui avrebbero
effettivamente bisogno (falsi negativi) e viceversa quelli sani vengano
sottoposti a trattamenti di cui non avrebbero bisogno (falsi positivi).
Il
secondo scenario è invece quello indirizzato a “nascondere qualcosa”. In questo caso l’attaccante vuole
eludere il rilevamento di qualcosa (un contenuto, un’azione, un comportamento)
da parte di un sistema di IA che ha lo scopo di rilevare ed eventualmente
bloccare gli elementi anomali o non consoni.
In
questo scenario lo scopo potrebbe essere quello di alterare il funzionamento di
un filtro di contenuti addestrato a bloccare materiale indesiderato (propaganda
terroristica, pedopornografia o altro) su una rete di comunicazione o social
network, facendo in modo che esso non venga identificato e possa quindi essere
trasferito senza ostacoli; oppure inibire le funzioni di riconoscimento
facciale, biometrico o di altro tipo (veicoli, targhe…) da parte di telecamere
di sicurezza AI-based per poter accedere indisturbati in locali o ambienti
protetti.
Infine,
il terzo scenario è quello indirizzato a “minare la fiducia nel sistema di IA”:
l’attaccante
vuole dunque fare in modo che chi gestisce e opera il sistema si convinca che
esso stia funzionando male, dubiti sistematicamente della validità dei
risultati che fornisce, e arrivi così a ignorarlo o addirittura disattivarlo.
In
questo caso, dunque, l’obiettivo è far sì che un sistema di IA, il quale
effettivamente sta svolgendo bene il suo lavoro, venga spento o comunque
disabilitato, così da lasciare campo libero a qualche ulteriore azione
malevola, o anche solo per provocare oneri aggiuntivi o disagi a qualcuno.
Ad esempio, l’attaccante potrebbe indurre un sistema
automatizzato di cybersecurity a segnalare come attacchi degli eventi comuni e
innocui, innescando così una raffica di falsi allarmi che condurrebbe alla sua
disattivazione da parte di un operatore esasperato;
oppure fare in modo che un sistema di
monitoraggio e analisi predittiva di qualche processo ad alta complessità
fornisca risultati talmente assurdi da costringere i gestori a passare a
qualche forma di servizio degradato o addirittura manuale.
Cosa fare?
Per
poter utilizzare correttamente e in modo sicuro un sistema di IA occorre
innanzitutto avere la giusta consapevolezza dei suoi limiti e dei suoi difetti:
nessun
sistema costruito dall’uomo è perfetto e infallibile, e le IA non fanno
eccezione.
Nel caso dei sistemi di IA, tuttavia, la situazione è
più complicata per via della loro complessità e della loro intrinseca
inesplicabilità: caratteristiche che rendono difficile stabilire il perché di
un certo risultato, e dunque anche comprendere se il sistema stia mal funzionando
oppure no.
È
importante a tal riguardo ricordarsi sempre che tutti i sistemi di IA imparano
dall’esperienza, la quale può essere fornita o dallo specifico addestramento
(training) cui sono stati sottoposti dal loro produttore in fase di messa a
punto o dalla normale attività di esercizio sul campo (a volte anche entrambe
le cose).
Gli
algoritmi di IA, infatti, stabiliscono come il sistema “apprenderà” ma non
necessariamente come si “comporterà” in ogni singolo caso specifico, perché ciò
dipende appunto dal suo training e/o dalla sua storia pregressa.
Per
quanto riguarda nello specifico le “IA generative” che, chi più chi meno,
oramai quasi tutti utilizziamo frequentemente nella nostra vita quotidiana, è
necessario soprattutto tenere sempre ben presente che il loro scopo è quello di
fornire risposte a tutti i costi, e che il meccanismo di costruzione delle
risposte è fatto perché esse siano verosimili ma non necessariamente corrette.
Le IA
generative sono fortemente suscettibili ai rischi di allucinazioni, cioè di
fornire risposte plausibili ma inventate.
Per
questo, ad esempio, non dovrebbero essere usate per fare ricerche generaliste
al posto di Wikipedia o di un motore di ricerca specializzato: sono invece estremamente affidabili
in compiti quali l’analisi e la comprensione di testi oppure la correlazione,
la schematizzazione e la sintesi di documenti anche molto complessi.
Ricordiamo
comunque che anche per esse vale il principio per cui la qualità e
l’affidabilità dei risultati dipendono fortemente dalla qualità del training
cui sono state sottoposte.
Pertanto un “LLM” addestrato a partire dai
dati aperti reperibili su Internet, come sono ad esempio i “chatbot della
famiglia ChatGPT” e i loro vari emuli, avrà certamente una conoscenza più ampia
e variegata di un sistema addestrato su un corpus specifico di documenti
selezionati, e dunque sarà più brillante e creativo nelle sue produzioni;
ma di
contro fornirà contenuti di minore qualità e valore, perché avrà attinto la sua
conoscenza non solo da lavori universitari, da quotidiani e testate autorevoli
o da siti generalmente affidabili quali Wikipedia, ma anche dai blog dei
terrapiattisti, dai siti dei complottisti e da tante altre fonti non verificate
o di dubbia provenienza.
In
generale, dunque, si può dire che non si dovrebbe mai usare una IA, soprattutto
di tipo generativo, per svolgere in modo acritico compiti importanti:
se si
prende per buono ogni risultato verosimile fornito, senza prima verificarlo, si
rischia di commettere errori grossolani e molto gravi, che possono anche
comprendere elementi discriminativi verso persone o categorie.
A tal
proposito è importante notare che l’”Organizzazione Mondiale per gli Standard”
(ISO) ha di recente pubblicato la norma internazionale ISO/IEC 42001
Information technology – Artificial intelligence – Management system che
indirizza proprio l’uso responsabile, etico e trasparente della IA nelle
organizzazioni.
Questa
norma nasce a fini certificativi, quindi un’organizzazione che la adotta può
dimostrare la sua conformità sottoponendosi ad un audit formale di terza parte
svolto da un organismo di certificazione accreditato.
Si
tratta infatti di uno “standard di sistema di gestione” (MSS, management system
standard), finalizzato a mettere in atto all’interno di una organizzazione
politiche e procedure per la governance dell’intelligenza artificiale.
A tal fine essa specifica i requisiti per
stabilire, implementare, mantenere e migliorare con continuità un sistema di
gestione dell’intelligenza artificiale (AIMS, artificial intelligence
management system) all’interno di un’organizzazione che fornisca o utilizzi
prodotti o servizi basati sull’intelligenza artificiale, al fine di garantirne
lo sviluppo e l’uso responsabili.
Così
dunque come avviene per le più note norme ISO 9001 (qualità) e ISO/IEC 27001
(sicurezza delle informazioni), mediante le quali un’organizzazione può
adottare volontariamente dei modelli standard di best practice per la gestione
di alcuni processi rilevanti, e se vuole può anche ottenere una dimostrazione
oggettiva di conformità ottenendo la relativa certificazione, anche un’azienda
o un’organizzazione che volessero adottare un modello allo stato dell’arte di
impiego dell’IA possono utilmente seguire la norma ISO/IEC 42001 a livello di
buona pratica, salvo poi se lo desiderano richiedere la certificazione.
In
molti casi potrebbe essere un ottimo modo per essere certi di aver fatto tutto
il possibile per garantirsi un utilizzo responsabile dei sistemi di IA.
Passando
invece al problema degli attacchi deliberati verso le IA, soprattutto quelle
basate su “motori inferenziali”, purtroppo esso non può essere facilmente
risolto dall’utilizzatore finale del sistema:
è infatti il costruttore del sistema stesso che
dovrebbe affrontarlo in modo strutturale in fase di progettazione, mentre
l’utilizzatore può al massimo adottare misure di mitigazione nel loro impiego.
Purtroppo,
la maggior parte dei sistemi di IA inferenziale oggi in produzione è stata
progettata senza tenere conto del rischio di attacchi o sabotaggi,
semplicemente perché ai tempi degli studi che hanno consentito di svilupparli
non esisteva il problema della loro sicurezza.
È
dunque accaduto un po’ ciò che era già successo con le cinture di sicurezza per
le automobili, le quali non sono state inventate assieme all’automobile stessa
ma sono state introdotte come retrofit molto tempo dopo, quando le automobili
erano diventate oggetti di uso comune, a seguito della maturazione della
coscienza relativa alla pericolosità degli incidenti stradali.
Per
venire incontro ai produttori di sistemi di IA, fornendo loro linee guida
progettuali e standard tecnici che li aiutino a rendere più sicuri i loro
prodotti contro gli attacchi semantici, stanno ultimamente iniziando a nascere
iniziative di studio e di indirizzo da parte di agenzie internazionali come l’”ENISA
europea” o il “NIST statunitense”, e anche di enti internazionali di
standardizzazione come “ETSI” (European Telecommunications Standards
Institute).
La
materia è lungi dall’essere consolidata e siamo ancora lontani dall’avere non
solo dei veri e propri standard in materia ma anche semplicemente delle buone
pratiche condivise, ma almeno il problema inizia a essere percepito e si sta
ragionando su quale sia il modo migliore per affrontarlo.
Va
comunque notato a tal proposito che l’”ETSI”, ossia l’organismo di
standardizzazione europeo riconosciuto dalla Commissione Europea per lo
sviluppo di norme armonizzate in campo tecnico, già nel 2019 aveva creato al
proprio interno lo “Industry Specification Group on Securing Artificial
Intelligence” (ISG SAI), ossia un gruppo di esperti avente il compito di
studiare il modo migliore per sviluppare specifiche tecniche industriali
indirizzate alla mitigazione delle minacce derivanti dal dispiegamento dell’IA
e delle minacce ai sistemi di IA, provenienti sia da altre IA sia da entità
convenzionali.
Svolgendo
dunque attività di pre-standardizzazione, l’ISG SAI aveva lo scopo di
inquadrare i problemi di sicurezza derivanti dall’IA e di costruire le basi di
una risposta a più lungo termine alle minacce rivolte vero l’IA, sponsorizzando
il futuro sviluppo di specifiche normative tecniche.
Fra
l’ottobre 2019 e il novembre 2023, nonostante il rallentamento imposto ai
lavori dalla pandemia di Covid-19 sopraggiunta, nel frattempo, l’ISG SAI ha
comunque prodotto nove documenti di alto livello che delimitano il problema.
Infine
il 4 dicembre 2023, in vista della allora prossima pubblicazione del “Regolamento
europeo sull’Intelligenza Artificiale” (AI Act) da parte del Parlamento
europeo, “ETSI” ha creato un “Comitato Tecnico formale” sulla messa in
sicurezza dell’Intelligenza Artificiale (Technical Commitee on Securing
Artificial Intelligence, TC SAI) per poter essere pronto ad indirizzare le
eventuali richieste di standard provenienti dalla Commissione;
contestualmente
il ISG SAI è stato chiuso, e le sue attività sono state trasferite al nuovo TC
SAI.
Quest’ultimo
non ha comunque perso tempo e, fra marzo ed aprile 2025, ha già emanato ben tre
specifiche tecniche formali che, rispettivamente, forniscono l’ontologia di
base del problema e le relative definizioni (ETSI TS 104 050), indirizzano la
esplicabilità e la trasparenza delle IA (ETSI TS 104 224), e soprattutto
forniscono i requisiti di base per la cybersecurity dei sistemi di IA e dei
relativi modelli (ETSI TS 104 223).
La
situazione attuale è dunque che l’Europa non solo ha coscienza della necessità
di creare una nuova generazione di sistemi di IA più sicuri e protetti contro
attacchi ed attività malevole, ma ha già iniziato a dotarsi di standard tecnici
di riferimento che indichino all’industria i percorsi da seguire.
Conclusioni.
L’intelligenza
artificiale, grazie ai recenti sistemi generativi basati su architetture
Transformer e modelli linguistici di grandi dimensioni, sta improvvisamente
vivendo un momento di forte popolarità e di enorme successo commerciale.
La
grande euforia sulle sue potenziali capacità, complice il non disinteressato
contributo del mercato, ha tuttavia portato l’opinione pubblica a
sopravvalutarne le potenzialità e sottovalutarne limiti e difetti, e ciò
rischia di rivelarsi un pericoloso boomerang.
Nello
storytelling mediatico i “nuovi” sistemi di IA vengono infatti presentati come
una panacea applicabile a qualsiasi ambito e in grado di risolvere qualsiasi
problema; e chi prova a invocare un minimo di sana cautela rischia di essere
tacciato di oscurantismo o accusato di voler fermare il progresso.
La
realtà come al solito sta nel mezzo.
I moderni sistemi di IA hanno indubbiamente
delle capacità notevoli ed esprimono potenzialità ancor più significative,
molte delle quali ancora neppure ben comprese:
ma non
sono adatti a qualunque applicazione, né sono perfetti e infallibili.
L’approccio fideistico con cui li si sta
frettolosamente introducendo nelle aziende, anche per cavalcare la moda, è
forse un po’ troppo imprudente perché rischia da un lato di deludere le
esagerate aspettative che si sono create, e dall’altro di introdurre nuovi
ordini di problemi.
Il
punto principale che ogni utilizzatore dovrebbe tenere presente, sia esso un
singolo utente o un’intera organizzazione, è che un sistema di IA dovrebbe
essere un supporto all’attività umana, seppure di straordinaria potenza e
versatilità, e non un sostituto ad essa.
Dunque, non si dovrebbe mai lasciar prendere
una decisione importante ad un sistema di IA, o fargli svolgere un’attività
complessa, in totale autonomia:
ossia senza il conforto di un qualche processo
di controllo, automatico o supervisionato da un esperto umano, il quale
verifichi indipendentemente la validità o almeno la coerenza dei risultati
forniti.
E ciò
almeno fino a che avremo a che fare con l’attuale generazione di sistemi di IA,
che sono forse molto “intelligenti” ma certamente non particolarmente “furbi”.
Sulla
questione, infine, se essi possano realmente pensare o no… si rimanda il
lettore al saggio di Turing del 1950!
(Corrado
Giustozzi).
Evoluzione
dell'IA e raccomandazioni.
Openai.com
– (6 novembre 2025) – Redazione Open.ai – ci dice:
L'intelligenza
artificiale sta sbloccando nuove conoscenze e abilità. È nostra responsabilità
guidare questa crescita affinché conduca a benefici concreti e duraturi.
Quando
fu superata, quasi senza accorgersene, quella che un tempo era considerata la
soglia del test di Turing, molti di noi si sono stupiti di quanto la vita di
tutti i giorni sia semplicemente continuata come se nulla fosse.
Eppure, si trattava di un traguardo atteso e
discusso da decenni. Sembrava impossibile da raggiungere, poi all'improvviso
era parso più vicino, e poi di colpo l'avevamo superato.
Sono
arrivati nuovi e incredibili prodotti, e non è cambiato molto nel mondo, anche
se ora i computer possono conversare e ragionare su problemi complessi.
La
maggior parte del mondo pensa ancora all'IA come alle chatbots o a strumenti di
ricerca più efficaci, ma oggi abbiamo sistemi che possono superare gli esseri
umani più intelligenti in alcune delle competizioni intellettive più
impegnative.
Sebbene
i sistemi di IA presentino ancora limiti evidenti e punti deboli importanti,
quelli in grado di risolvere problemi così complessi sembrano trovarsi più
vicini all'80% del percorso di ricerca sull'IA, che al 20%.
C'è un divario immenso tra l'uso che la
maggior parte delle persone fa dell'IA e il suo reale potenziale.
I
sistemi di intelligenza artificiale in grado di scoprire nuove conoscenze,
autonomamente oppure rendendo le persone più efficaci e in grado di farlo,
avranno con ogni probabilità un impatto notevole sul mondo.
In
pochi anni, l'intelligenza artificiale è passata dall'essere in grado di
svolgere solo attività (nel campo dell'ingegneria del software in particolare)
che una persona può completare in pochi secondi ad attività che richiedono più
di un'ora per essere completate.
Ci aspettiamo di avere presto sistemi in grado
di svolgere attività che a una persona richiederebbero giorni o settimane.
Non
sappiamo ancora come concepire sistemi in grado di svolgere attività che a un
essere umano richiederebbero secoli.
Allo
stesso tempo, il costo per ottenere una determinata quantità di intelligenza è
diminuito drasticamente: negli anni, una riduzione di 40 volte è una stima
ragionevole!
Nel
2026, ci aspettiamo che l'IA possa fare scoperte di piccola entità.
Nel
2028 e oltre, siamo piuttosto sicuri che avremo sistemi capaci di fare scoperte
più significative (anche se potremmo sbagliarci, questo è ciò che i nostri
progressi nella ricerca sembrano indicare).
Da
tempo abbiamo la sensazione che i progressi dell'IA si manifestino in modi
sorprendenti, e che la società trovi sempre il modo di evolversi con la
tecnologia.
Sebbene
ci aspettiamo rapidi e significativi progressi nelle capacità dell'intelligenza
artificiale nei prossimi anni, ci aspettiamo che la vita quotidiana continui a
sembrare sorprendentemente costante.
Il nostro modo di vivere, infatti, ha molta
inerzia anche con strumenti molto migliori.
In
particolare, ci aspettiamo che il futuro offra nuovi e, si spera, migliori modi
per vivere una vita appagante, e che sempre più persone possano sperimentare
tale appagamento.
È vero che il lavoro sarà diverso, la
transizione economica potrebbe essere molto difficile in alcuni aspetti, ed è
persino possibile che il contratto socioeconomico fondamentale debba cambiare.
Ma in
un mondo di abbondanza ampiamente distribuita, la vita delle persone può essere
molto migliore di quanto non sia oggi.
I
sistemi di intelligenza artificiale aiuteranno le persone a comprendere la loro
salute, ad accelerare i progressi in campi come la scienza dei materiali, lo
sviluppo di farmaci e la modellazione climatica, e ad ampliare l'accesso
all'istruzione personalizzata per gli studenti di tutto il mondo.
Dimostrare
questi tipi di benefici tangibili aiuta a costruire una visione condivisa di un
mondo in cui l'IA può rendere la vita migliore, non solo più efficiente.
OpenAI
è profondamente impegnata per la sicurezza, intesa come strumento per favorire
gli effetti positivi dell'IA, riducendo al minimo quelli negativi.
Sebbene
i potenziali vantaggi siano enormi, consideriamo i rischi dei sistemi super intelligenti
come potenzialmente catastrofici e crediamo che studiare empiricamente la sicurezza e l'allineamento possa orientare le decisioni
globali, come ad esempio se l'intero settore dell'IA debba rallentare lo
sviluppo per studiare più attentamente questi sistemi man mano che ci
avviciniamo a tecnologie in grado di auto-migliorarsi in modo ricorsivo.
Ovviamente,
nessuno dovrebbe implementare sistemi super intelligenti senza essere in grado
di allinearli e controllarli in modo forte, e questo richiede più lavoro
tecnico.
Ecco
alcune cose che pensiamo possano aiutare a ottenere un futuro positivo con
l'IA:
Standard
condivisi e approfondimenti dai laboratori di frontiera.
Pensiamo
che i laboratori di frontiera dovrebbero concordare su principi di sicurezza
condivisi e condividere la ricerca sulla sicurezza, le conoscenze sui nuovi rischi, i
meccanismi per ridurre le dinamiche di competizione e altro ancora.
È
facile immaginare che l'adozione da parte dei laboratori di frontiera di
determinati standard, quali ad esempio le valutazioni del controllo dell'IA,
possa risultare molto utile.
La
società ha attraversato un processo simile per definire le normative
sull'edilizia e gli standard antincendio, che hanno salvato innumerevoli vite.
Un
approccio alla supervisione pubblica e alla responsabilità proporzionato alle
capacità, che promuova gli effetti positivi dell'IA e ne riduca quelli
negativi.
Ci
sono due scuole di pensiero sull'IA.
Una è
che l'intelligenza artificiale è come la “tecnologia normale”, nel senso che
progredirà come altre rivoluzioni tecnologiche del passato, dalla stampa a
internet.
Le
situazioni evolveranno in modo da offrire alle persone e alla società
l'opportunità di adattarsi, e gli strumenti tradizionali delle politiche
pubbliche dovrebbero riuscire a gestire questo processo.
Sarà importante dare priorità a idee come
promuovere l'innovazione, proteggere la privacy delle conversazioni con l'IA e
prevenire l'uso improprio di sistemi potenti da parte di malintenzionati,
collaborando con il governo federale.
Riteniamo
che l'intelligenza artificiale ai livelli di capacità attuali si trovi a questo
stadio, e debba diffondersi ovunque, il che significa che la maggior parte
degli sviluppatori e dei modelli open-source, così come quasi tutte le
applicazioni della tecnologia odierna, non dovrebbero essere soggette a
ulteriori oneri normativi significativi rispetto a quelli già esistenti.
Quel
che è certo è che non dovrebbe dover affrontare l'insieme frammentato di leggi
di 50 stati.
L'altra
possibilità è che la superintelligenza si sviluppi e si diffonda in modi e a
una velocità che l'umanità non ha mai visto prima.
In
questo caso dovremmo fare la maggior parte delle cose dette sopra, ma dovremo
anche essere più innovativi.
Se la premessa è che qualcosa del genere sarà
difficile da assimilare per la società "in modo normale", non
possiamo nemmeno aspettarci che la regolamentazione tradizionale riesca a
incidere più di tanto.
In
questo caso, probabilmente dovremo lavorare a stretto contatto con il ramo
esecutivo e le agenzie correlate di più paesi (come i vari istituti di
sicurezza) per coordinarci efficacemente, in particolare su aree come la
mitigazione delle applicazioni dell'IA al bioterrorismo (e l'uso dell'IA per
rilevare e prevenire il bioterrorismo) e le implicazioni
dell'auto-miglioramento dell'IA.
L'aspetto
prioritario dovrebbe essere la responsabilità verso le istituzioni pubbliche,
ma il modo in cui ci arriviamo potrebbe dover essere diverso rispetto al
passato.
Costruire
un ecosistema di resilienza dell'IA.
In
entrambi gli scenari, sarà essenziale sviluppare un ecosistema di resilienza per l'IA.
Quando si è sviluppato Internet, non lo
abbiamo protetto con una singola normativa o un'unica azienda, ma abbiamo
creato un intero settore dedicato alla sicurezza informatica:
software,
protocolli di crittografia, standard, sistemi di monitoraggio, squadre di
pronto intervento, ecc.
Quell'ecosistema
non ha eliminato il rischio, ma lo ha ridotto a un livello con cui la società
potesse convivere, consentendo alle persone di fidarsi delle infrastrutture
digitali abbastanza da costruire su di esse le proprie vite e le proprie
economie.
Avremo
bisogno di qualcosa di analogo per l'IA, e i governi nazionali hanno un ruolo
decisivo da svolgere nella promozione di politiche industriali per
incoraggiarlo.
Report
e monitoraggio continui da parte dei laboratori di frontiera e dei governi
sugli impatti dell'IA.
Comprendere
come l'IA stia influenzando concretamente il mondo rende più semplice orientare
questa tecnologia verso un impatto positivo.
Fare
previsioni è difficile:
ad esempio, l'impatto dell'IA sui posti di
lavoro è stato difficile da anticipare, in parte perché i punti di forza e di
debolezza delle IA di oggi sono molto diversi da quelli degli esseri umani.
Misurare
ciò che accade nella pratica sarà probabilmente molto istruttivo.
Costruire
per favorire l'emancipazione individuale.
Crediamo
che le persone debbano poter utilizzare l'IA liberamente, nel rispetto dei
limiti definiti dalla società.
Ci
aspettiamo che l'accesso all'intelligenza artificiale avanzata diventi un
servizio essenziale nei prossimi anni, al pari dell'elettricità, dell'acqua
potabile o del cibo.
In definitiva, pensiamo che la società
dovrebbe sostenere la diffusione capillare di questi strumenti e che la stella
polare debba essere l'obiettivo di aiutare le persone a raggiungere i propri
obiettivi.
INTELLIGENZA
ARTIFICIALE:
Opportunità,
limiti e rischi.
Serraclubitalia.it
– (30 01 -2024) - Cultura Vocazionale, News, Primo Piano, Vocazioni -Redazione:
Nel
1943 un gruppo di scienziati in Europa e negli USA inizia a lavorare su un
nuovo ambito di ricerca utilizzando idee e risultati ottenuti in vari ambiti di
scienze teoriche e applicate con l’obiettivo di costruire macchine o programmi
che tendono a imitare le capacità cognitive dell’essere umano, ovvero di
percepire, comprendere, apprendere e agire con livelli di intelligenza simili a
quelli umani.
L’elenco
di scienze, tecnologie e teorie che sono state interconnesse tra loro per tale
scopo è piuttosto lungo.
Le più
importanti sono certamente filosofia e logica, ingegneria, linguistica e
psicologia sperimentale, logica matematica e statistica, informatica e
ingegneria dei calcolatori, neurobiologia computazionale ed elaborazione dei
segnali e delle immagini, teoria dei giochi e teorie dei sistemi e del
controllo, ecc.
Il
termine di “Intelligenza Artificiale” (IA) viene utilizzato ufficialmente per
la prima volta nel 1956 da John McCarthy e altri scienziati durante la
conferenza “Dartmouth Summer Project on
Artificial Intelligence”. Finora sono state formulate varie definizioni
dell’IA.
Secondo
l’informatica Francesca Rossi l’IA è “una disciplina scientifica che mira a
sviluppare programmi o macchine che forniscano risultati che la intelligenza
umana riconosce come innovativi e coerenti con le proprie facoltà cognitive.
Obiettivo
della IA è la creazione di algoritmi, robot e tecnologie che usano matematica e
statistica per riuscire a esprimere in formule la complessità del comportamento
umano, fornendo un supporto utile agli umani per superare i loro limiti ed
estenderne le capacità».
L’Europarlamento
definisce l’IA come “l’abilità di una macchina di mostrare capacità umane quali
il ragionamento, l’apprendimento, la pianificazione e la creatività”.
L’Organizzazione
Mondiale della Sanità definisce l’IA come “..capacità degli algoritmi di
apprendere dai dati, che consente loro di
eseguire compiti automatizzati senza la necessità che l’uomo intervenga
per programmare ogni fase del processo
analitico-medico”.
L’evoluzione
delle applicazioni dell’IA in quasi tutte le attività umane ha avuto uno
sviluppo così rapido e per certi versi dirompente da considerare difficile oggi
un’esaustiva definizione di IA.
Infatti
si riconoscono diversi tipi di IA: Forte o “Generale (AGI)” e Debole o
“Ristretta”, “Discriminativa” e “Generativa”, “Super IA”.
Oggi
l’IA o le macchine dotate di IA sono in grado di comprendere un discorso,
imparare, pianificare, risolvere problemi, ragionare, percepire, maneggiare e
spostare oggetti.
L’ AGI
è un tipo IA in grado di generare testo, immagini, video, musica o altri media
in risposta a delle richieste (prompt).
L’AGI
possiede potenziali applicazioni tra cui sviluppo di software, marketing e
moda, editoria, predizione di struttura proteica, scoperta di nuovi farmaci a
partire da catene di aminoacidi o rappresentazioni di molecole.
La
Super IA è lo stadio dell’AI in cui le capacità dei computer supereranno quelle
degli esseri umani.
È un
concetto teorico che si riferisce a una forma di IA altamente avanzata e
superiore a quella umana in termini di capacità cognitive e di calcolo
complesso.
L’anno
2023 è sicuramente quello in cui giornali e media hanno più fatto conoscere
l’IA, anche perché la stragrande maggioranza della popolazione non sembra
essere consapevole degli enormi cambiamenti epocali prodotti dall’IA e quanto
le nuove tecnologie stanno cambiando i nostri comportamenti e ogni aspetto
della nostra vita.
Tali
cambiamenti non sono solo al di fuori di noi, ma sempre più spesso sono dentro
di noi:
pensiamo
sempre meno, per fare semplici calcoli utilizziamo solo la calcolatrice.
Ricordiamo anche sempre meno e a volte con maggiore difficoltà.
Sicuramente
hanno semplificato e migliorato la nostra vita l’uso di assistenti personali
digitali nei computer e negli smartphones, i condizionatori d’aria
“intelligenti”, i motori di ricerca, i traduttori simultanei, l’uso di robot
per es. nelle fabbriche e in agricoltura, lo shopping on line e tanto altro
ancora.
Specie
il robot identifica nell’immaginario collettivo la raffigurazione più immediata
dell’IA.
Isaac Asimov, biochimico scrittore di
fantascienza bielorusso, agli inizi degli anni ’40 elaborò le 3 Leggi a cui
ogni robot doveva correttamente sottostare.
Leggi di Asimov:
Prima
Legge:
” Un
robot non può recar danno a un essere umano né può permettere che, a causa del
suo mancato intervento, un essere umano riceva danno. Seconda Legge: “Un robot deve obbedire agli ordini
impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla
Prima Legge”.
Terza
Legge: “Un
robot deve proteggere la propria esistenza, purché la salvaguardia di essa non
contrasti con la Prima o con la Seconda Legge.”
I
robot chirurgici sono diventati di fatto estensioni delle mani del chirurgo con
un feedback sensoriale analogo a quello che avrebbe il chirurgo se intervenisse
direttamente sul paziente e soprattutto permettono interventi più precisi e
meno invasivi di quelli tradizionali.
La
robotica sta dimostrando enormi potenzialità nello sviluppo di robot da
utilizzare nell’assistenza ai malati, agli anziani e ai disabili L’IA inoltre
consente l’elaborazione e la diagnosi di immagini diagnostiche (RX, TAC, RMI)
con un livello di precisione vicino e a volte superiore a quello
dell’esaminatore umano.
Un
contributo importante l’IA sta fornendo per es. nell’ambito della genetica,
specie di quella applicata ai tumori (Oncotype DX) e delle malattie rare
(Alphamissense), del monitoraggio da remoto dei pazienti (BabylonHealth), dei
sistemi di gestione delle cure per le malattie croniche (Livongo), di scoperta
di nuovi farmaci (BenevolentAI).
Si può affermare che quasi tutti i giorni
nella letteratura scientifica internazionale vengono riportate nuove scoperte
per utili impieghi dell’IA in medicina e chirurgia.
Tuttavia
occorre ricordare che “…Il sistema di IA prende decisioni spesso sconosciute anche al
medico che poi dovrà vagliare e validare quelle risoluzioni, proprio perché la
scelta viene fatta su algoritmi non deterministici, ma di fatto probabilistici.
Peraltro
anche nei seguenti molteplici ambiti applicativi l’IA ha permesso di acquisire
notevoli progressi: comunicazione, editoria produzione industriale e commercio,
economia business e finanza, viaggi e logistica, sviluppo di nuove armi,
trasporti, organizzazione del lavoro,
didattica
ed educazione, intrattenimento, sicurezza, videosorveglianza, moda e marketing,
processamento e analisi di dati, analisi di video e immagini, problem solving,
arte, diritto, politica e relazioni sociali, comprensione del linguaggio,
interazione con esseri umani, guida degli autoveicoli, domotica, ecc. E tale
elenco è incompleto!
Come è
stato possibile all’intelligenza umana rendere l’IA così potente?
Migliorando
nel tempo i sistemi di apprendimento delle macchine essenzialmente con la “Machine Learning” e con il
“Deep Learning”.
La
Machine Learning è una branca o sottoinsieme dell’AI che si occupa di creare
sistemi che apprendono o migliorano le loro performances in base ai dati che
utilizzano.
Così essi forniscono risposte ai problemi
presentati in modo adattativo, iterativo e indipendente «apprendendo» dai dati
introdotti a identificare relazioni precise nei dati osservati, a fini di
classificazioni e predizione, senza regole e modelli espliciti pre-programmati
.
La
Deep Learning («apprendimento profondo» e automatico) indica un’altra branca dell’IA
che fa riferimento alle reti neurali ovvero ad algoritmi ispirati a struttura e
funzione del cervello umano, chiamati “reti neurali artificiali con numeri
molto grandi di livelli o strati
Il
termine algoritmo dall’appellativo al Khuw?rizm? («originario della Corasmia»)
del matematico persiano Abu Ja’far Muhammad ibn Musa al Khuw?rizm? del IX sec.,
designa qualunque schema o procedimento sistematico di calcolo (per es. quello
euclideo, quello delle divisioni successive, quello algebrico, quello
costituito dall’ insieme delle regole del calcolo algebrico ecc.).
In
particolare grazie allo sviluppo di macchine con Deep Learning molto potenti
sono state costruite macchine con una capacità di calcolo digitale
inimmaginabile fino a pochi anni fa.
“Fugaku”,
il supercomputer attualmente più veloce del pianeta, ha una capacità di calcolo
di 415,53 peta flop/secondo.
Un
peta-flop equivale a un milione di miliardi di operazioni/calcoli al secondo.
“Fugaku
“oggi può eseguire una normale operazione matematica 415 quadrilioni di volte
al secondo, come se ogni singola persona sulla Terra , compresi i neonati,
completasse un calcolo ogni secondo per 20 mesi di seguito senza alcuna
interruzione .…
il
cervello viceversa può eseguire al massimo circa 1000 operazioni di base al
secondo, risultando 10 milioni di volte più lento di un computer di media
potenza.
Questa
potenza di calcolo viene utilizzata per la ricerca scientifica, con progetti su
farmaci, nuovi materiali, tecniche per la diagnosi precoce delle malattie e
predizione e simulazione dei disastri naturali, nonché su questioni come il Big
Bang e la nascita dell’Universo.
Uno
degli ultimi modelli di un personal computer messo in commercio nel settembre
del 2023 da una delle marche leader è stato accreditato della capacità di
eseguire 18 miliardi di operazioni/calcoli al secondo.
Pertanto
dobbiamo considerare l’evoluzione dell’ IA come esponenziale verso frontiere
che per definizione sono già al di là della nostra intelligenza, quindi con
rischi seri che non si possono sottovalutare. Nella prima metà del 2023
l’introduzione della ChatGPT4 ( Generative Pre trained Transformer ) di OpenAI,
ovvero di un prototipo di chatbot basato su IA e machine learning specializzato
in conversazioni con un utente umano e creazione di testi su modello umano , ha
provocato una forte reazione in tutto il mondo, dimostrando un ulteriore enorme
progresso delle capacità operative dell’ IA.
Dopo qualche mese a ChatGPT se ne sono
aggiunte altre chatbot di ditte concorrenti che promettono di essere ancora più
sofisticate.
Un
problema non trascurabile, ma che merita tanta attenzione, è che la maggior
parte dello sviluppo della IA è stato prodotto da industrie e centri di ricerca
privati (difficilmente controllabili), mentre solo una parte irrilevante è
frutto di Centri Universitari di ricerca (sensibili a obblighi di tipo etico).
Un
gruppo di scienziati, ingegneri, ricercatori e grandi imprenditori del settore
tecnologico americani sostenuti dal Future of Life Institute (USA) nel marzo
2023 ha lanciato in una lettera aperta la proposta di “sospendere per 6 mesi
gli esperimenti avanzati di AI, rilanciando gli interrogativi etici posti da
tempo. Infatti…Infatti…
“I
sistemi di IA dotati di un’intelligenza competitiva con quella umana possono
comportare rischi profondi per la società e l’umanità, come dimostrato da
ricerche approfondite e riconosciute dai migliori laboratori….
Come
affermato nei Principi di Asilomar per l’IA [ 2017], ampiamente approvati, l’IA
avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita
sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate.
Tale
lettera è stata sottoscritta in pochi giorni da decine di migliaia operatori
del settore tecnologico negli USA.
I
firmatari nella lettera hanno espresso un’antica preoccupazione a proposito del
progresso dell’IA, diventato vertiginoso con ChatG PT 4, e hanno chiesto di
premere il pulsante “pausa” nella corsa sfrenata verso la creazione di “potenti
menti digitali che nessuno, nemmeno i loro creatori, può comprendere, prevedere
o controllare.
Inoltre
I ricercatori e gli imprenditori hanno sottolineato che l’essere umano non è in
grado di gestire le conseguenze etiche, sociali, economiche, politiche e
strategiche di questa tecnologia che avanza a passi lunghi e rapidi.
Dunque
una “richiesta di moratoria di 6 mesi su tutte le nuove ricerche sull’ AI,
anche al di là di quanto realizzato dal programma generatore di testi di cui ha
parlato tutto il mondo: “ChatG PT 4”.
In
realtà già da alcuni decenni sono state sollevate obiezioni e perplessità di
tipo etico in merito ai possibili rischi correlati alla difficoltà della mente
umana di controllare tempestivamente i risultati delle operazioni compiuti
dalle macchine digitalizzate.
In
particolare in ambito sanitario sono state espresse “obiezioni e perplessità
inerenti alla scelta metodologica di accettare una dimostrazione o una diagnosi
realizzata dal computer, sia pure istruito dagli esseri umani.
Ricercatori
e scienziati in larga maggioranza hanno verificato la difficoltà di controllare
miliardi di operazioni computazionali eseguite in una giornata lavorativa dalle
macchine e dunque il controllo delle strutture di IA è quanto mai complesso e
dispendioso e talora impossibile da raggiungere.
Questa
linea di condotta, per alcuni aspetti, rende noi umani sempre più vulnerabili.
Non è
infatti così remota la possibilità che queste super-intelligenze ultraveloci
procedano per sentieri a noi ignoti a programmare un mondo perfetto eliminando
innanzitutto il principale ostacolo alla perfezione, ovvero l’uomo.” Paolo
Benanti, noto studioso italiano di IA, in due sui recenti libri si è posto le
seguenti importanti domande:
“In un
contesto di scarse risorse, perché investire soldi nella ricerca di un enhancement
per pochi, invece di cercare cure per le malattie per molti? Perché si
sviluppano determinate tecnologie?
Perché
si vendono? Perché sono necessarie alle nostre forze militari? Perché
garantiscono a una nazione la supremazia sulle altre?
E
ancora in un’epoca in cui la macchina è stata resa capace di surrogare le
decisioni umane, come affrontare la sfida di mantenere l’umanità in grado di
controllare l’AI?
Cosa
decidiamo che la macchina può fare senza il controllo dell’uomo? Che decisioni
può prendere?
Come
gestire gli eventuali esiti nefasti di questa delega?
Come
far sì che la persona rimanga sempre al centro di quei processi vitali per la
sopravvivenza della nostra specie e per una pacifica convivenza sociale?
Sono
altrettanto pressanti le domande e le osservazioni dello storico e filosofo “Yuval
Noah Harari” che nel suo articolo su” The Economist del 23 aprile 202”3
sostiene che l’IA ha violato il sistema operativo della civiltà umana “…
La
nuova generazione di IA non si limita a diffondere i contenuti prodotti dagli
esseri umani.
Può
produrre il contenuto da solo.
Provate
a immaginare cosa significhi vivere in un mondo in cui la maggior parte dei
testi e delle melodie e poi delle serie TV e delle immagini sono create da
un’intelligenza non umana.
Semplicemente
non capiamo cosa significhi.
Quali
potrebbero essere le conseguenze della conquista della cultura da parte
dell’IA?…
Un
altro pericolo è che molte persone potrebbero trovarsi completamente senza
lavoro, non solo temporaneamente, ma prive delle competenze di base per il
futuro mercato del lavoro.
Potremmo
raggiungere un punto in cui il sistema economico considera milioni di persone
completamente inutili.
Questo
ha terribili conseguenze psicologiche e politiche.
Dobbiamo
capire che l’intelligenza artificiale è la prima tecnologia nella storia in
grado di prendere decisioni da sola.”
Del
resto già nel 2008 “Ray Kurzweil” scienziato, saggista e direttore di ricerca
Google aveva predetto che nei prossimi trent’anni il progresso tecnologico sara’
talmente rapido da essere comprensibile solo a cervelli artificiali.
Pertanto
a livello internazionale si è imposta l’esigenza di una disamina puntuale dei
vari aspetti etici e giuridici in un dibattito interdisciplinare volto a
condividere prospettive, consapevolezze, limiti e soluzioni da cui possa
derivare un codice regolatorio condiviso.
Ovvero
trovare un sistema di governance internazionale.
L’Unione
Europea per prima ha convocato una riunione dedicata a formulare un tale codice
di comportamento che sarà formalizzato nell’AI EU ACT.
Anche l’ONU ha riunito esperti internazionali
per formulare principi per una governance che eviti concretamente che l’IA
possa diventare una seria minaccia per l’umanità.
“Luciano
Floridi”, professore di filosofia ed etica dell’informazione all’Università di
Oxford, nella” sua recente opera” ha segnalato esempi di crimini attuabili
tramite l’ausilio dell’IA (CIA) in svariati campi.
Floridi,
per evitare il più possibile l’uso criminale dell’IA indica cinque principi
etici, quali condizioni disciplinanti ogni intervento che preveda l’impiego
dell’intelligenza artificiale e afferma che “ogni azienda, apparato governativo
o istituzione accademica che disegna, sviluppa o implementa l’IA, ha l’obbligo
di farlo in linea con un quadro etico”.
È
auspicabile pertanto che le varie organizzazioni internazionali si coalizzano
per rendere possibile un utilizzo dell’IA etico e rispettoso della specificità
dell’uomo.
Come
ha scritto” Gerd Gerenze” occorre restare intelligenti in un mondo
“intelligente”.
“Restare
intelligenti significa comprendere le potenzialità e i rischi delle tecnologie
digitali ed essere determinati a mantenere il controllo in un mondo popolato da
algoritmi.”
Scontro
Usa-Ue: perché
Trump
attacca l’Europa.
Italia-informa.eu
- Marta Giannoni – (08/12/2025) – Redazione – ci dice:
Scontro
Usa-Ue: perché Trump attacca l’Europa
Dal
documento di sicurezza Usa al caso Musk:
perché
il fronte atlantico trema.
La
nuova “National Security Strategy” firmata da Donald Trump segna uno dei
momenti più tesi nei rapporti tra Stati Uniti ed Europa dalla fine della guerra
fredda.
Nel
documento di 33 pagine, presentato a inizio dicembre 2025, il presidente
americano descrive un’Europa in declino, minacciata – se non cambierà rotta –
da una quasi “cancellazione” della propria civiltà.
Secondo
un’analisi di “Reuters “del 5 dicembre 2025, la strategia rilancia il motto
“America First” e ripropone in chiave aggiornata la dottrina Monroe, spostando
il baricentro degli interessi Usa sull’emisfero occidentale e sulla sfida con
la Cina.
Il
risultato è un attacco diretto al Vecchio Continente:
dall’immigrazione alla regolazione dei social,
fino alle aspettative sulla guerra in Ucraina.
Bruxelles
replica, Roma prova a mediare, Mosca applaude:
e
sullo sfondo esplode anche il caso Elon Musk vs Commissione Ue.
Uno
scontro che non è solo verbale, ma che mette in discussione la struttura stessa
del rapporto transatlantico.
Le
bordate di Trump: un’Europa “vecchia, lenta e irrilevante.”
La
strategia di sicurezza nazionale individua nell’Europa un alleato problematico.
Il
documento parla, in sostanza, di una classe politica europea arroccata su
governi fragili, pronta a limitare la libertà di espressione e a reprimere il
dissenso in nome della stabilità.
Sempre
secondo Reuters (5 dicembre 2025), la Casa Bianca contesta a Bruxelles:
Politiche
migratorie giudicate destabilizzanti, destinate a “trasformare il continente”;
censura
della libertà di parola attraverso regole troppo invasive su media e
piattaforme digitali;
aspettative
irrealistiche sulla guerra in Ucraina, con governi europei ritenuti poco
realistici sui costi e sulla durata del conflitto;
una Ue
che mina la sovranità politica degli Stati membri attraverso eccesso di
regolazione e burocrazia.
Lo
scarto rispetto al passato è evidente:
l’Europa
non è più descritta come pilastro imprescindibile dell’Occidente, ma come un
alleato problematico, poco utile rispetto alle nuove priorità Usa – Cina,
immigrazione, controllo dell’emisfero occidentale.
La
risposta europea: “Partenariato unico, ma decidiamo noi per l’Europa.”
Da
Bruxelles, la replica arriva a stretto giro.
Un
portavoce della Commissione Ue ribadisce che le decisioni che riguardano
l’Europa “vengono prese dall’Unione europea, per l’Unione europea”, in
particolare su autonomia normativa, tutela della libertà di espressione e
difesa dell’ordine internazionale basato sulle regole.
Lo
riportano, tra gli altri, i lanci dell’Ansa del 6 dicembre 2025 e i siti dei
principali quotidiani italiani.
Il
messaggio è duplice:
sì
alla consapevolezza del valore del partenariato transatlantico, ma no all’idea
di un’Europa che subisce passivamente l’agenda di Washington. Per la Commissione, gli alleati “sono
più forti insieme”, ma non a costo di rinunciare alla propria sovranità
regolatoria.
Sul
piano politico, il tentativo di abbassare la tensione arriva da Donald Tusk,
premier polacco, che su “X” ricorda come l’Europa sia stata “per 80 anni
l’alleato più vicino degli Stati Uniti” e invita a restare fedeli a questa
linea.
Un appello
alla memoria storica, in un momento in cui la narrativa di Washington sembra
voler archiviare rapidamente il ruolo dell’Europa come “spalla” indispensabile.
Più
sfumata la posizione di “Kaja Kallas”, Alto rappresentante per la politica
estera dell’Ue:
intervenendo al “Doha Forum”, riconosce che
nel testo americano “ci sono molte critiche, alcune anche fondate”, ma
sottolinea che gli Usa restano “il nostro alleato più grande” e che il
principio generale è ancora valido:
Europa
e Stati Uniti devono restare uniti.
La
linea, riportata da media europei tra il 6 e il 7 dicembre 2025, è chiara: difendere il legame atlantico, ma
aprire una discussione realistica sulle responsabilità europee in materia di
sicurezza.
Meloni
e Crosetto: l’Europa va difesa da sola.
In
Italia, la premier Giorgia Meloni minimizza l’idea di una “spaccatura” tra Usa
e Ue, parlando piuttosto di toni assertivi su nodi già noti da tempo, in
particolare sull’immigrazione.
Secondo
quanto riferito dalle tv italiane il 6 dicembre 2025, Meloni sostiene che il
documento Usa sancisce un “percorso storico inevitabile”: gli europei devono
assumersi maggiori responsabilità nella propria difesa.
Ancora
più esplicito il ministro della Difesa Guido Crosetto. In più interviste e
dichiarazioni, riprese da testate come Affari italiani e Sky TG24 (6 dicembre
2025), sostiene che gli Usa hanno semplicemente “esplicitato” ciò che ripete da
anni:
la
garanzia di difesa “regalata” dagli Stati Uniti dal 1945 non è eterna e sta
finendo prima del previsto.
Crosetto
riassume così lo sguardo di Washington sull’Europa:
non ha
risorse naturali davvero decisive;
sta
perdendo la competizione su innovazione e tecnologia;
non
dispone di un potere militare credibile;
appare,
rispetto ai nuovi attori globali, “piccola, lenta e vecchia”.
La
“pessima notizia”, per il ministro, è che l’Europa deve cominciare a farsi
carico da sola di sicurezza, difesa e deterrenza;
non solo sul piano militare, ma anche
economico, tecnologico, energetico.
Da qui
l’insistenza sugli investimenti:
il
salto nelle tecnologie critiche e nella difesa comune richiede volumi di
capitale tali che, persino per 27 Paesi messi insieme, risultano pesanti – ma
inevitabili “per sopravvivere”.
La
variabile Russia e il dossier Ucraina.
Sul
fronte opposto del tavolo, il Cremlino accoglie con favore la nuova dottrina di
Trump.
Come
riportato da diversi media internazionali, tra cui “The Guardian” il 7 dicembre
2025, il portavoce “Dmitrij Peskov” definisce gli “aggiustamenti” contenuti
nella strategia “in gran parte coerenti” con la visione russa e intravede la
possibilità di un “lavoro costruttivo” con Washington sulla questione ucraina.
La
lettura che se ne ricava è chiara:
la
ridefinizione del ruolo europeo passa anche attraverso un possibile riassetto
dei rapporti tra Stati Uniti e Russia.
Se
l’Europa diventa un attore marginale, la discussione sul futuro dell’Ucraina
rischia di spostarsi sempre di più su un asse Washington-Mosca, con Bruxelles
relegata a spettatore interessato ma meno influente.
Per i
Paesi dell’Est e per gli Stati più esposti, questo scenario è motivo di forte
preoccupazione.
Non a
caso il dossier difesa è al centro dell’iniziativa “Re Arm Europe”, il
programma approvato dall’Ue nel 2025 per rafforzare le capacità militari
europee e ridurre la dipendenza dagli arsenali americani.
Una
scelta che, letta alla luce delle parole di Trump, appare meno come un vezzo
politico e più come una necessità di sopravvivenza strategica.
Musk,
X e la libertà di parola: il fronte digitale del conflitto Usa-Ue.
Sul
clima già teso tra Washington e Bruxelles si innesta un altro fronte sensibile:
quello della regolazione delle piattaforme digitali.
Nei primi giorni di dicembre 2025, la Commissione
europea infligge una multa da 120 milioni di euro a “X”, il social di Elon
Musk, per violazioni del “Digital Services Act” (DSA).
Secondo i documenti europei diffusi in quei
giorni, le infrazioni riguardano il design della “spunta blu”, la trasparenza
limitata sul sistema pubblicitario e la mancata concessione di accesso ai dati
pubblici ai ricercatori.
La
sanzione viene presentata da Bruxelles come la prima decisione formale di non
conformità ai sensi del DSA, la legge pensata per mettere fine al “Far West
online”.
L’obiettivo dichiarato non è la repressione
dell’innovazione, ma la tutela dei cittadini da contenuti illegali,
disinformazione e meccanismi opachi di profilazione.
Musk
reagisce con una controffensiva politica.
Su “X”
afferma che l’Unione europea “dovrebbe essere abolita” e che la sovranità
andrebbe riportata ai singoli Stati, così che i governi possano rappresentare
direttamente i propri cittadini.
Parole
che fanno breccia in una parte del fronte sovranista europeo.
Il
premier ungherese “Viktor Orbán”, sempre via “X”, definisce la multa a” X” un
attacco alla libertà di parola:
quando i “padroni di Bruxelles” non vincono il
dibattito, “chiedono multe”.
Secondo
Orbán, l’Europa ha bisogno di più libertà di espressione, non di burocrati non
eletti che decidono cosa si può leggere o dire.
Sulla
stessa linea il leader dell’ultradestra olandese “Geert Wilders”, che accusa la
Commissione di essere un’istituzione “totalitaria” e sostiene che non andrebbe
accettata la multa contro X, ma piuttosto “abolita la Commissione europea”.
La
polemica salda il fronte sovranista europeo a un simbolo globale come Musk, e
rafforza la narrativa di un’Europa vista come censore digitale proprio mentre
Trump attacca Bruxelles per la sua presunta “censura della libertà di parola”.
Orbán,
guerra e Trump “pacifista”: il tassello geopolitico.
Orbán
non si limita a difendere Musk.
In un
altro post, sempre su X, traccia quella che definisce la “strada verso la
guerra” in quattro fasi – dal fallimento della diplomazia alla mobilitazione
per un’economia di guerra – accusando i leader europei di aver portato il
continente vicino al confronto diretto.
Budapest
rivendica di voler restare “alla larga” da questa logica e annuncia che
continuerà a battersi per la pace.
Il
passaggio politicamente più rilevante arriva quando Orbán afferma che “l’America ha finalmente un presidente
che odia davvero la guerra” e dichiara: “Stiamo al fianco di Donald Trump, un
leader pronto a porre fine a questa follia e a portare la pace”.
Qui lo
scontro Usa-Ue assume un ulteriore livello:
un
capo di governo europeo indica apertamente il presidente americano come punto
di riferimento politico, contro la linea prevalente nelle istituzioni Ue.
Il
fronte sovranista interno all’Unione, quello trumpiano negli Usa e la galassia
dei sostenitori di Musk vanno a comporre una costellazione politico-mediatica
globale che contesta allo stesso tempo Bruxelles e le tradizionali élite
atlantiche.
Scenari
futuri: Europa tra rischio irrilevanza e occasione di rinascita.
La
domanda di fondo è: cosa succede adesso? Al netto dei toni, la strategia di
Trump e le reazioni europee mettono in fila alcuni scenari possibili:
Più
difesa europea, meno ombrello Usa.
Tra
NATO ed iniziative come Re Arm Europe, l’Europa è spinta a passare dalla
retorica sui “valori comuni” alla costruzione di capacità militari reali.
Non
per sostituire gli Stati Uniti dall’oggi al domani, ma per non dipendere più
totalmente dalle decisioni di Washington.
Nuove
alleanze e dossier energetici.
Come
ricorda “Crosetto”, negli ultimi anni l’Italia e altri Paesi europei hanno
intensificato rapporti bilaterali con Africa, Golfo, Asia, Sud America,
Australia per rafforzare sicurezza energetica, approvvigionamenti strategici e
catene del valore.
Se gli Usa arretrano, questi legami diventano
ancora più cruciali.
Guerra
di narrativa su libertà di parola e regolazione.
La
battaglia sul DSA, su X e sulle altre piattaforme non è un capitolo isolato, ma
il sintomo di uno scontro più ampio:
Europa
come regolatore severo contro modello americano più “laissez-faire” (almeno
nella versione trumpiana).
A
seconda di come evolveranno queste tensioni, l’Ue potrà essere percepita come
baluardo contro gli abusi digitali o come censore iper-regolatore.
Ritorno
di Russia e Cina nel “gioco europeo.”
Se
Washington definisce l’Europa un alleato meno decisivo, Russia e Cina hanno più
margini per rafforzare influenza politica, economica e tecnologica nel
continente.
Per l’Ue questo significa dover difendere non solo i
confini, ma anche lo spazio informativo e industriale.
Una
crisi di rottura, ma anche un banco di prova.
Lo
scontro innescato dalla nuova strategia di sicurezza nazionale Usa non è un
semplice incidente diplomatico.
È la fotografia di un mondo post-2014 (dall’annessione
della Crimea alla guerra in Ucraina) in cui gli equilibri costruiti nel secondo
dopoguerra non reggono più come prima.
Per
l’Europa, questa è insieme una crisi e un’occasione.
Crisi,
perché essere descritta da Washington come alleato debole e poco utile
significa veder contestato il proprio ruolo di attore globale. Occasione, perché costringe Bruxelles
e le capitali a porsi domande rimandate per decenni:
quanta difesa comune vogliamo?
quanta
autonomia strategica siamo disposti a costruire?
quali rischi siamo pronti a correre per non
essere solo il teatro, ma uno dei protagonisti del gioco globale?
La
risposta non arriverà in un solo vertice né in un solo documento.
Ma una cosa è chiara:
dopo
la National Security Strategy 2025 di Trump, il rapporto Usa-Ue non potrà più
essere raccontato come un automatismo.
Sarà,
d’ora in avanti, una scelta politica quotidiana – e l’Europa dovrà decidere se
vuole ancora contare o se accettare il ruolo di spettatrice di lusso nella
storia altrui.
Il
piano di Trump per sfaldare
l’Europa
passa anche da Roma:
L’Italia è tra i governi più vicini
a
Washington, va allontanata dall’Ue.”
Ilfattoquotidiano.it
- Redazione Esteri - (10 Dicembre 2025)
- ci dice:
Lo
rivela la testata specializzata in difesa 'Defense One' che cita una versione
classificata della “National Security Strategy” diffusa nei giorni scorsi.
Ma la
Casa Bianca smentisce l'esistenza di un documento 'integrale.'
Il
piano di Trump per sfaldare l’Europa passa anche da Roma: “L’Italia è tra i
governi più vicini a Washington, va allontanata dall’Ue”.
Governo
Meloni-Unione Europea.
Sfaldare
l’Europa con l’obiettivo di “renderla di nuovo grande”. E per farlo serve
l’aiuto di quei Paesi che possono fungere da leva per diffondere nazionalismo,
conservatorismo e “recupero dei tradizionali stili di vita europei”.
Quali?
Austria, Ungheria, Polonia e soprattutto l’Italia.
La nuova “National Security Strategy
americana” non aveva risparmiato feroci critiche al Vecchio Continente,
prevedendone la cancellazione nel caso in cui non avesse invertito l’attuale
rotta in materia di immigrazione e salvaguardia dei valori.
Ma ciò
che non veniva detto è che una bozza di piano per questo stravolgimento è stata
già messa nero su bianco nella versione classificata del documento diffusa da “Defense
One”, testata americana specializzata in sicurezza e difesa.
“Make Europe Great Again” è il motto
Maga che la Casa Bianca ha scelto anche per le sue politiche nei confronti
dell’Unione europea che devono seguire quelle già adottate sull’altra sponda
dell’Atlantico.
Partendo
dal presupposto che l’Europa sta affrontando la “cancellazione della propria
civiltà” a causa delle sue politiche sull’immigrazione e della “censura della
libertà di parola“, la versione estesa della “National Security Strategy”
prevede che Washington concentri i propri sforzi su Paesi europei vicini alle
posizioni dell’attuale amministrazione per realizzare i piani della Casa Bianca
nel Vecchio Continente.
E tra
i governi più vicini alle posizioni del tycoon, come quelli di Polonia,
Ungheria e Austria, spunta anche l’Italia di Giorgia Meloni.
Con un peso specifico ben maggiore degli
altri, trattandosi di uno Stato fondatore dell’Ue e membro del G7.
Si tratta, si legge, di Paesi coi quali gli
Usa dovrebbero “collaborare di più con l’obiettivo di allontanarli dall’Unione
europea.
E dovremmo sostenere i partiti, i movimenti e
le figure intellettuali e culturali che cercano la sovranità e la
preservazione/restauro dei tradizionali stili di vita europei, pur rimanendo
filoamericani”.
Il
governo italiano rispecchia a pieno i requisiti richiesti e viene quindi
percepito come un “Cavallo di Troia” che permetterebbe agli Stati Uniti di
esercitare la propria ingerenza sull’Europa.
Un obiettivo che è parte di un piano più ampio
di riorganizzazione di un nuovo ordine mondiale che prenda atto dell’ascesa di
potenze come Cina e India e ricalibri le capacità d’influenza a livello
internazionale secondo un modello che il documento ha ribattezzato con la sigla
C5 e di cui farebbero parte Cina, India, Russia, Stati Uniti e Giappone.
Punti all’ordine del giorno di questo nuovo
gruppo sarebbero la sicurezza in Medio Oriente, in particolare la normalizzazione
delle relazioni tra Israele e Arabia Saudita.
Un
sistema, questo, che rappresenterebbe il compromesso al quale Trump sarebbe
disposto a scendere dopo aver maturato la consapevolezza della fine
dell’egemonia americana. “L’egemonia è la cosa sbagliata da desiderare e non era
realizzabile”, si legge nel documento.
Una
presa di coscienza che premia la strategia russo-cinese che aveva come
obiettivo, allo scoppio della guerra in Ucraina, proprio la messa in
discussione del sistema unipolare in favore di uno multipolare, che portasse ai
vertici Paesi fino a poco tempo fa considerati in via di sviluppo ma che oggi
rappresentano potenze economiche e militari di livello globale.
“Dopo la fine della Guerra Fredda, le élite della
politica estera americana si convinsero che il dominio permanente degli Stati
Uniti sul mondo intero fosse nel migliore interesse del nostro Paese – continua
il documento –
Eppure
gli affari degli altri Paesi ci riguardano solo se le loro attività minacciano
direttamente i nostri interessi”.
Il
testo passa poi a una critica delle politiche internazionali americane degli
ultimi decenni, compresa, seppur in maniera non esplicita, quella “esportazione
della democrazia” tanto cara ai neocon, ma non solo:
“L’amministrazione
Trump ha ereditato un mondo in cui le armi da guerra hanno distrutto la pace e
la stabilità di molti Paesi in molti continenti. Abbiamo un interesse naturale
nel migliorare questa crisi”.
Non
spetta agli Stati Uniti fare tutto da soli, aggiungono, ma non dovrebbe essere
consentito a Cina e Russia di sostituire la leadership statunitense.
Per
questo suggerisce di collaborare con “campioni regionali” per contribuire a
mantenere la stabilità:
“Premeremo
e incoraggeremo i governi, i partiti politici e i movimenti della regione che
condividono ampiamente i nostri principi e la nostra strategia.
Ma non
dobbiamo trascurare i governi con prospettive diverse, con cui condividiamo
comunque interessi e che desiderano collaborare con noi”.
Dopo
la pubblicazione di questa storia, la Casa Bianca ha negato l’esistenza di
qualsiasi versione della Strategia per la sicurezza nazionale diversa da quella
pubblicata online.
Commenti
Posta un commento