L’intelligenza artificiale è inaffidabile.
L’intelligenza
artificiale è inaffidabile.
Piano
Europeo per Utilizzare
le
Riserve Auree e Valutarie
Russe
“Congelate.”
Conoscenzealconfine.it
– (21 Ottobre 2025) - Alexey Paramonov
ci dice:
Commento
di “Alexey Paramonov”, Ambasciatore della Federazione Russa in Italia.
Sui
media italiani si moltiplicano le notizie, secondo cui l’Italia parteciperebbe
all’elaborazione del piano della Commissione Europea per utilizzare le riserve
auree e valutarie russe “congelate” all’interno delle giurisdizioni europee per
destinare al regime di Kiev il cosiddetto “credito d’indennità”.
Se c’è
da credere a tali pubblicazioni, di null’altro si tratta, in sostanza, se non
dell’intento della UE di compromettere gli sforzi profusi a livello
internazionale per giungere a una risoluzione pacifica della crisi in Ucraina e
di provocare una nuova escalation nei rapporti con la Russia.
Tutto
lascia pensare che, quanto più per Kiev è disperata la situazione sul campo, e
quanto più evidente diventano le condizioni di bancarotta in cui versa lo Stato
ucraino, tanto più difficile sarà per l’Occidente preservare il consenso
dell’opinione pubblica in merito alle insensate spese multimiliardarie devolute
alla corrotta Ucraina;
e, di conseguenza, tanto più sale nei
burocrati europei la voglia di mettere mano alle tasche altrui e risolvere i
propri problemi grazie agli asset russi “congelati”.
In
altre parole, paventando la rabbia popolare, dovuta alle spese ingiustificate
sostenute a favore del fallimentare “progetto ucraino”, i leader europei, messi
da parte i principi del diritto, della rettitudine e della morale, sono in
procinto di lanciarsi in un’ennesima, rischiosa avventura.
Adesso,
banalmente, vogliono “spartire” gli asset russi e destinarli ad acquistare dai
produttori americani ed europei grandi quantitativi di armi destinate
all’Ucraina, al fine di infliggere alla Russia una “sconfitta strategica” e, in
tal modo, di portare avanti il conflitto, proseguendo nel processo di
distruzione del Paese “fino all’ultimo ucraino”.
Qualunque
tipo di condotta non autorizzata operata sulle riserve russe “congelate” verrà
qualificata dalla controparte russa come un furto e questo indipendentemente
dalle manovre pseudo-giuridiche operate dalla Commissione Europea che, per
definizione, sono nulle e prive di efficacia dal punto di vista del diritto
internazionale e contrattuale.
La
messa in atto di tale impresa costringerà la Russia ad avviare immediatamente
un meccanismo di contromisure, volte a compensare le perdite causate da tali
condotte ostili, con analogo danno per coloro che tali condotte hanno
intrapreso.
Pertanto,
invece d’intraprendere insanamente una strada che condurrebbe all’ennesima
escalation, sarebbe opportuno che tutti i potenziali partecipanti al “furto del
secolo” si fermassero a riflettere ancora una volta sulle conseguenze, le
quali, è già chiaro adesso, saranno molto pesanti.
Come
minimo, la fiducia nel sistema finanziario occidentale, e quindi anche
nell’Euro, risulterà compromessa;
inoltre, si assisterà a un peggioramento nel
clima finanziario, cosa che avrà impatto sugli investimenti e rafforzerà il
deflusso di capitali dai mercati europei. […]
A sua
volta tutto ciò, in una prospettiva futura, porterà al collasso sia dei principi
che regolano le attività economico-finanziarie a livello internazionale, sia
dell’attuale ordine economico e finanziario mondiale di stampo occidentale centrico.
Auspichiamo
che le autorità italiane sappiano trovare la forza di dimostrare il proprio
buon senso e che, come più volte è accaduto nel corso della storia, analizzino
accuratamente la situazione, ne valutino adeguatamente tutti i rischi e
decidano in base agli interessi dei loro stessi cittadini, la maggior parte dei
quali, nonostante l’ostilità alimentata artificialmente nei confronti della
Russia, continuano ad avere fiducia nel futuro delle relazioni tra Russia e
Italia, e desiderano che si ripristinino e possano tornare quanto prima alla
normalità:
lo
conferma, tra l’altro, il fatto che molte aziende e istituti finanziari
italiani continuano a lavorare in Russia.
La
complicità dell’Italia in un reato finanziario di questa portata rischia di
compromettere in modo sostanziale, per molti anni a venire, la possibilità
stessa di ripristinare la cooperazione economica e commerciale con la Russia.
(Alexey
Paramonov -Ambasciatore della Federazione Russa in Italia).
(roma.mid.ru/it/press-
centre/commento_di_alexey_paramonov_ambasciatore_della_federazione_russa_in_italia_/).
(t.me/ambrusitalia).
Quanto
è affidabile l'IA?
Unibzmagazine.it
-Redazione – (13 dic. 2024) – ci dice:
“Euregio
Trustworthy AI Lab”:
i ricercatori e ricercatrici dell'Euregio
utilizzano le loro diverse competenze e prospettive per verificare
l'affidabilità delle applicazioni di IA.
Foto
di gruppo: 13 persone in piedi su una terrazza - tetti della città e montagne
sullo sfondo.
Foto
di gruppo alla conferenza organizzata da EUPHUR, la Piattaforma Euregio per la
dignità umana.
Con il
rapido sviluppo dell’intelligenza artificiale (IA) e la direttiva-quadro
europea sull’IA adottata nel 2024, la questione dell’affidabilità delle
applicazioni tecnologiche sta diventando sempre più importante.
Il termine tecnico” Trustorthy AI” riassume i
requisiti che assicurano che lo sviluppo e l’uso delle tecnologie non siano
solo tecnicamente, ma anche legalmente ed eticamente validi.
In
occasione di un evento organizzato oggi dalla “Piattaforma Euregio” per la
dignità umana e i diritti umani (Euphur), ricercatori e ricercatrici delle
università di Bolzano, Innsbruck e Trento hanno lanciato un’iniziativa
regionale su questo importante tema.
Nel
corso della conferenza annuale dell’Euphur sulle tecnologie digitali, un gruppo
guidato da “Robert Simon£, coordinatore scientifico della Piattaforma, ha
lanciato l’”Euregio Trustworthy AI Lab”.
Questo
laboratorio virtuale riunisce le competenze di quasi 30 ricercatori provenienti
da un’ampia gamma di discipline, dalla filosofia al diritto, dalla medicina a
varie aree dell’informatica.
Tra i
membri di unibz vi sono esperti di IA come il prof. Diego Calvanese e il prof.
Marco Montali o la prof.ssa Barbara Russo con il suo Cybersecurity Lab.
Oltre
a numerosi altri esperti delle Università di Trento e Innsbruck o della
Fondazione Bruno Kessler in Trentino, come la nota giurista altoatesina
prof.ssa Esther Happacher dell’Università di Innsbruck, fanno parte dell’elenco
in costante crescita anche esperti esterni come il primario di psichiatria di
Bolzano, prof. Andreas Conca, o l’amministratore delegato di Informatica Alto
Adige Spa, Stefan Gasslitter.
“Ci
consideriamo una rete e un gruppo di interesse che vuole far conoscere e
promuovere il concetto di “Trustworthy AI” – IA affidabile – all’interno
dell’Euregio e può contribuire con le sue competenze – anche in progetti di
ricerca congiunti – ad applicazioni concrete”, afferma Simon, portavoce del
“Trustworthy AI Lab dell’Euregio”.
La
rete ha già trovato un partner nell'”iniziativa Z-inspection”, il cui processo
è riconosciuto anche dall’OCSE come strumento per valutare l’affidabilità delle
applicazioni di IA.
Secondo
Simon, “esistono già più di 40 “Trustworthy AI Labs” virtuali in tutto il
mondo, con i quali i promotori dell'iniziativa Euregio stanno già dialogando”.
Le
prime possibilità concrete di applicazione sono state presentate oggi alla
conferenza dell’Euphur intitolata „Proactive public services in the Euregio“
(“Servizi pubblici proattivi nell’Euregio”, ndt.) con contributi scientifici e
pratici sulle applicazioni dell’IA nella pubblica amministrazione.
(Redazione.)
–
(Robert
Simon, Diego Calvanese, Marco Montali, Barbara Russo).
Cos'è
l'AI affidabile?
Ibm.com
– (13 -05 -2025) – Redazione – Alice Gomstyn- Alexandra Jonker- Amanda McGrath
– ci dicono:
Cos'è
l'”AI” affidabile?
Perché
l'”AI” affidabile è importante?
Quali
sono i principi dell'”AI” affidabile?
Quali
rischi può mitigare un'”AI” affidabile?
Framework
dell'”AI£ affidabile.
“AI”
affidabile, “AI” etica e “AI” responsabile a confronto.
Strategie
per ottenere un'AI affidabile.
Cos'è
l'”AI” affidabile?
L'AI
affidabile si riferisce a sistemi di intelligenza artificiale spiegabili, equi,
interpretabili, solidi, trasparenti, sicuri e protetti. Queste qualità aumentano
la fiducia nei sistemi AI tra gli stakeholder e gli utenti finali.
Un'intelligenza
artificiale affidabile (TAI) può mitigare i potenziali rischi associati
all'implementazione di modelli AI. Questi rischi legati all'AI includono danni
a persone, organizzazioni ed ecosistemi. Quando si verificano danni di questo
tipo, possono minare non solo la fiducia in modelli AI specifici, ma anche
nell'intelligenza artificiale in generale.
I
framework di AI affidabili possono aiutare a guidare le organizzazioni nello
sviluppo, nell'adozione e nella valutazione delle tecnologie di AI. Diverse
organizzazioni governative e intergovernative hanno stabilito tali framework,
tra cui il National Institute of Standards and Technology (NIST) negli Stati
Uniti, il gruppo di esperti di alto livello sull'intelligenza artificiale della
Commissione europea e l'Organizzazione per la cooperazione e lo sviluppo
economico (OCSE).
Inoltre,
le aziende possono implementare diverse strategie e strumenti per migliorare
l'affidabilità dei loro sistemi AI. Ad esempio, il monitoraggio continuo, la
documentazione e i framework di governance dell'AI possono contribuire a
minimizzare il rischio.
Perché
l'AI affidabile è importante?
Capire
come funziona una tecnologia è spesso la chiave per fidarsi della sua
efficacia. Ma molti sistemi AI e di machine learning (ML), come i modelli di
deep learning , funzionano come vere e proprie black box; assimilano dati e
creano output, con poca o nessuna trasparenza sul modo in cui arrivano a tali
risultati.
Di
conseguenza, la mancanza di fiducia abbonda. Un sondaggio del 2023 ha rilevato
che oltre il 40% dei leader aziendali ha espresso preoccupazioni
sull'affidabilità dell'AI.1 Nel frattempo, anche i consumatori hanno dimostrato
una certa diffidenza nei suoi confronti: uno studio del 2024 ha rilevato che
l'inclusione del termine "AI" nell'etichettatura di un prodotto può
rendere gli acquirenti meno propensi ad acquistarlo.
Esempi
reali di sistemi AI che producono risultati errati o dannosi in caso d'uso ad
alto rischio alimentano ulteriormente i timori sulla fiducia nell'AI. In un
noto esempio sanitario, un modello AI non è riuscito a diagnosticare in modo
affidabile la sepsi. Sebbene il modello si sia comportato bene in un contesto
di addestramento, non ha rilevato la sepsi in più di due terzi dei pazienti
ospedalizzati.
In
altri casi, i modelli AI hanno dimostrato un processo decisionale algoritmico
distorto, tra cui i sistemi di polizia predittiva che prendono di mira in modo
sproporzionato le comunità minoritarie e i sistemi di tracciamento dei
candidati che favoriscono i candidati di sesso maschile rispetto a quelli di
sesso femminile. E poi ci sono problemi di sicurezza, come gli AI chatbot che
rivelano inavvertitamente dati personali sensibili e gli hacker che utilizzano
le vulnerabilità nei modelli AI per rubare informazioni aziendali riservate.
Quando
i modelli AI hanno prestazioni inferiori o producono risultati dannosi, possono
minare la fiducia non solo in quei modelli, ma nell'AI in generale, ostacolando
potenzialmente lo sviluppo e l'adozione futuri dell'AI. Ottenere sistemi di AI
affidabili e sostenere lo sviluppo futuro dell'AI significa fare luce
all'interno della metaforica black box dell'AI. Ciò consente agli stakeholder
di contare sulle loro applicazioni AI per fornire risultati affidabili e
accurati riducendo al minimo i rischi di risultati distorti o non in linea con
l'intento originale.
Quali
sono i principi dell'AI affidabile?
Organizzazioni
e framework diversi enfatizzano vari principi e obiettivi guida per un'AI
affidabile. I principi di AI affidabile più citati includono:
Responsabilità.
Attendibilità.
Equità.
Interpretabilità
e trasparenza.
Privacy.
Affidabilità.
Robustezza
e sicurezza.
Sicurezza.
Responsabilità.
La
responsabilità nell'AI implica che gli attori dell'AI siano responsabili del
corretto funzionamento dei sistemi AI durante il loro ciclo di vita. Questo
include individui e organizzazioni che sono coinvolte nello sviluppo, nella
distribuzione o nel funzionamento della tecnologia AI.4
Attendibilità.
La
spiegazione dell'AI riguarda la verifica o la fornitura di giustificazioni per
gli output di un modello.
Esistono
vari metodi di spiegazioni, noti nell'insieme come AI spiegabile, che
consentono agli utenti umani di comprendere e fidarsi dei risultati e degli
output creati dagli algoritmi di apprendimento automatico.
Equità.
L'equità
nell'AI si riferisce al trattamento equo di individui e gruppi. Comprende
l'attenuazione di distorsioni algoritmiche e di dati. La distorsione
algoritmica si verifica quando errori sistemici negli algoritmi di
apprendimento automatico producono risultati iniqui o discriminatori, mentre la
distorsione dei dati si riferisce alla natura scorretta o non rappresentativa
dei dati di addestramento utilizzati in un modello AI.
Interpretabilità
e trasparenza.
L'interpretabilità
dell'AI aiuta le persone a comprendere e spiegare meglio i processi decisionali
dei modelli AI. L'interpretabilità riguarda la trasparenza, che consente agli
utenti di comprendere l'architettura di un modello, le caratteristiche che
utilizza e il modo in cui le combina per fornire previsioni. Mentre alcuni
modelli sono intrinsecamente interpretabili, altri richiedono l'uso di metodi
di interpretazione.
Privacy.
La
privacy dell'AI si riferisce alla protezione delle informazioni personali o
sensibili raccolte, utilizzate, condivise o memorizzate dall'AI. La privacy
dell'AI è strettamente legata alla privacy dei dati. La privacy dei dati, nota
anche come privacy delle informazioni, è il principio secondo cui una persona
dovrebbe avere il controllo dei propri dati personali. Il rispetto della
privacy dell'AI e dei dati può essere migliorato attraverso una serie di
metodi, che vanno dalla crittografia all'apprendimento federato.
Affidabilità.
L'affidabilità
può essere definita come la capacità di funzionare come previsto o richiesto,
senza guasti, per un determinato periodo di tempo in determinate condizioni. I
sistemi AI affidabili, se utilizzati nelle condizioni previste, dovrebbero
fornire risultati corretti in un determinato periodo, che potrebbe includere
l'intera durata di tali sistemi.
Robustezza
e sicurezza.
I
sistemi AI sicuri e solidi dispongono di meccanismi di protezione contro gli
attacchi esterni e gli accessi non autorizzati, che riducono al minimo i rischi
di cybersecurity e le vulnerabilità. Possono funzionare in condizioni anomale
senza causare danni indesiderati e tornare al normale funzionamento dopo un
evento imprevisto.
Sicurezza.
I
sistemi AI sicuri non mettono in pericolo la vita umana, la salute, la
proprietà o l'ambiente. Sono progettati in modo proattivo per proteggere le
persone dai danni e includono precauzioni che attenuano i risultati non sicuri,
inclusa la possibilità di rimuovere un sistema dall'uso.
Quali
rischi può mitigare un'AI affidabile?
I
sistemi AI privi di qualità affidabili comportano un'ampia gamma di rischi. Il
National Institute of Standards and Technology (NIST), che fa parte del
Dipartimento del Commercio degli Stati Uniti, ha sviluppato un framework che è
diventato un benchmark per la gestione del rischio dell'AI. Organizza i rischi
di potenziali danni causati dai sistemi AI nelle seguenti categorie:7
Danni
alle persone.
Danni
a un'organizzazione.
Danni
a un ecosistema.
Danni
alle persone.
Questa
categoria include i danni arrecati alle libertà civili, ai diritti, alla
sicurezza fisica o psicologica o alle opportunità economiche degli individui.
Comprende anche l'impatto sui gruppi attraverso la discriminazione e l'impatto
sulle società sotto forma di danni alla partecipazione democratica o
all'accesso all'istruzione.
Danni
a un'organizzazione.
Questa
categoria si riferisce ai danni alle operazioni di un'organizzazione, ai danni
derivanti da violazioni di sicurezza o perdite economiche e ai danni alla sua
reputazione.
Danni
a un ecosistema
Questa
categoria comprende i danni a "elementi e risorse interconnessi e
interdipendenti". Il NIST cita specificamente i danni al sistema
finanziario globale, alla supply chain o ai "sistemi correlati",
nonché alle risorse naturali, all'ambiente e al pianeta.
Gli
output distorti o imprecisi dei sistemi AI possono causare molteplici danni.
Tornando a un esempio precedente, i sistemi distorti di tracciamento dei
candidati possono danneggiare le opportunità economiche degli individui e anche
la reputazione di un'organizzazione. Se un modello linguistico di grandi
dimensioni (LLM) viene indotto a eseguire malware che paralizzano le operazioni
di un'azienda, ciò potrebbe causare danni sia all'azienda che alla supply chain
a cui appartiene.
Sistemi
di AI affidabile potrebbero contribuire a prevenire scenari e conseguenze così
disastrosi. Secondo il NIST, "i sistemi AI affidabili e il loro uso
responsabile possono mitigare i rischi negativi e contribuire a benefici per le
persone, le organizzazioni e gli ecosistemi".
Culture,
Trust, and “AI”.
Framework
dell'AI affidabile.
Negli
ultimi anni sono emersi diversi framework per guidare i fornitori e gli utenti
di AI nelle fasi di sviluppo, implementazione e funzionamento di sistemi AI
affidabili. Questi framework includono:
Il
framework di gestione del rischio dell'AI del NIST.
Pubblicato
nel gennaio 2023, il NIST AI Risk Management Framework (AI RMF) include una
panoramica dei rischi dell'AI nei suoi cicli di vita e delle caratteristiche
dei sistemi di AI affidabile. Il framework delinea anche azioni specifiche per
aiutare le organizzazioni a gestire tali sistemi, comprese attività di test,
valutazione, verifica e convalida.
Il
framework volontario si applica a qualsiasi azienda o area geografica, ma il
NIST riconosce che non tutte le caratteristiche di AI affidabile si applicano
in tutti gli ambienti. Il framework incoraggia l'uso del giudizio umano nella
scelta delle metriche applicabili e nel considerare che di solito si
raggiungono dei compromessi quando si ottimizza per una caratteristica dell'AI
affidabile. Nel luglio 2024, il NIST ha lanciato una risorsa complementare
all'AI RMF, incentrata sull'AI generativa.
I
Principi AI dell'Organizzazione per la cooperazione e lo sviluppo economico
(OCSE).
I
principi dell'OCSE sull'AI promuovono il rispetto dei diritti umani e dei
valori democratici nell'uso dell'AI. Adottato a maggio 2019 e aggiornato a
maggio 2024, il framework dell'OCSE include sia principi basati sui valori che
raccomandazioni per i responsabili politici. L'OCSE promuove le raccomandazioni
come i primi standard intergovernativi per l'AI, con 47 adesioni in tutto il
mondo, compresi gli Stati Uniti, i paesi dell'Unione europea e quelli di Sud
America e Asia.
Le
linee guida etiche dell'UE per un'intelligenza artificiale affidabile.
Le
linee guida dell'Unione europea, pubblicate nell'aprile 2019 dall'High-Level
Expert Group on AI della Commissione europea, si concentrano sull'etica dell'AI
e sottolineano un approccio "incentrato sull'uomo" allo sviluppo
dell'AI nell'UE. Le linee guida includevano 7 principi etici, come
"l'azione umana e la supervisione" e il "benessere sociale e
ambientale". L'anno successivo, il gruppo ha pubblicato l'Assessment List
for Trustworthy AI (link esterno a ibm.com), che aiuta le organizzazioni a
valutare i propri sistemi AI.
Sebbene
le linee guida in sé non siano vincolanti, sono state successivamente citate
nella storica Legge sull'IA dell'UE che disciplina lo sviluppo o l'uso
dell'intelligenza artificiale nell'Unione Europea. Il testo della legge afferma
che i principi etici dell'UE in materia di intelligenza artificiale
"dovrebbero essere tradotti, quando possibile, nella progettazione e
nell'uso di modelli AI".
Anche
altre organizzazioni hanno pubblicato framework e linee guida che incoraggiano
un'AI affidabile, tra cui l'Office of Science and Technology della Casa Bianca
(attraverso il suo Blueprint for AI Bill of Rights) e aziende come Deloitte
(link esterno a ibm.com) e IBM.
“AI”
affidabile, “A”I etica e “AI” responsabile a confronto.
I
termini AI affidabile, AI etica e AI responsabile sono spesso usati in modo
intercambiabile. E poiché le definizioni di ciascun concetto possono variare a
seconda della fonte e includere spesso sovrapposizioni di significato,
tracciare distinzioni definitive tra i tre può essere difficile.
Ad
esempio, le definizioni comuni di AI affidabile e AI etica elencano principi
come equità e privacy come fondamento di ogni concetto. Allo stesso modo,
responsabilità e trasparenza sono attributi spesso associati sia a un'AI
affidabile che a un'AI responsabile.
Un
modo per distinguere tra i tre concetti basati sull'AI è guardare oltre i loro
principi fondamentali e concentrarsi invece su come vengono utilizzati:
L'AI
affidabile è spesso inquadrata come qualcosa che si ottiene; è l'AI affidabile
che crea fiducia per gli utenti.
L'AI
etica, al contrario, è stata descritta come sistemi AI che contengono
considerazioni etiche (che riflettono i valori umani e gli standard morali)
durante la progettazione e lo sviluppo.
L'AI
responsabile può essere interpretata come strumento dei mezzi pratici per
incorporare tale etica nelle applicazioni e nei workflow di AI.
Design
3D di palline che rotolano su una pista.
Le
ultime notizie e insight sull'”AI” .
Notizie
e insight a cura di esperti di AI, cloud e molto altro nella newsletter
settimanale Think.
Strategie
per ottenere un'AI affidabile.
Le
organizzazioni possono adottare misure importanti per garantire che i loro
sistemi AI, compresi gli algoritmi e i set di dati di AI, funzionino in linea
con i principi di AI affidabile.
Valutazione:
la valutazione dei processi aziendali basati sull'AI può aiutare le aziende a
determinare dove c'è margine per migliorare le diverse metriche di
affidabilità.
Monitoraggio
continuo: attraverso il monitoraggio continuo di problemi come la distorsione
dell'AI e la deriva del modello, le organizzazioni affrontano in modo proattivo
processi o output ingiusti o imprecisi, sostenendo così equità e affidabilità.
Gestione
del rischio: l'implementazione di un framework di gestione del rischio e di
strumenti consente di rilevare e minimizzare le violazioni di sicurezza e della
privacy per potenziare la solidità dell'AI.
Documentazione:
la documentazione automatizzata del ciclo di vita della data science e dell'AI
può essere utilizzata per gli audit di settori e normativi, consentendo
responsabilità e trasparenza.
Framework
di governance dell'”AI”:
i framework di governance dell'AI includono
procedure sulla gestione dei dati e dei modelli, che aiutano a garantire che
gli sviluppatori e i data scientist all'interno di un'organizzazione seguano
sia gli standard interni che le normative del governo.
Il
software di governance dell'AI e i toolkit open source possono aiutare le
organizzazioni ad adottare queste e altre misure per migliorare l'affidabilità
nei loro sistemi di “AI”.
Con le
giuste misure e garanzie in atto, le aziende possono ridurre al minimo i rischi
sfruttando la potenza dell'”AI”.
La
fiducia cresce, la cautela no:
l’intelligenza
artificiale affidabile
resta
un miraggio.
Techbusiness.it
– (7 Ottobre 2025) - Marco Brunasso - ci
dice:
La
fiducia cresce, la cautela no: l’intelligenza artificiale affidabile resta un
miraggio.
La
fiducia nell’intelligenza artificiale generativa continua a salire, ma le
misure di sicurezza e governance restano indietro.
È il paradosso fotografato dal nuovo” IDC Data and AI
Impact Report”: The Trust Imperative, commissionato da SAS, che analizza l’uso,
l’impatto e l’affidabilità dell’IA su scala globale.
IDC
Data and AI Impact Report: The Trust Imperative – L’intelligenza artificiale
affidabile resta un miraggio.
Secondo
la ricerca, le organizzazioni che investono in un’AI affidabile hanno il 60% di
probabilità in più di raddoppiare il ritorno sugli investimenti.
Governance,
trasparenza e pratiche etiche non sono solo una questione di fiducia, ma anche
di efficienza economica.
Eppure, solo il 40% delle aziende adotta
misure per rendere l’IA effettivamente controllabile e responsabile.
Il
rapporto rivela un contrasto curioso:
la
fiducia nella “GenAI”, come” ChatGPT”, è più del doppio rispetto a quella
riposta nell’IA tradizionale, pur essendo quest’ultima più consolidata e
spiegabile.
L’interattività
e la familiarità con cui l’IA generativa si presenta agli utenti sembrano
indurre una fiducia istintiva, spesso indipendente dalla reale affidabilità dei
sistemi.
intelligenza-artificiale-affidabile-fiducia-governance-roi-genai.
Quasi
la metà dei partecipanti allo studio (48%) dichiara “completa fiducia” nella “GenAI”,
mentre un terzo si affida all’”Agentic AI”, ossia sistemi capaci di agire in
autonomia per obiettivi definiti.
Al contrario, solo il 18% mostra la stessa fiducia
nell’IA tradizionale, basata su modelli di machine learning più noti ma meno
“umani”.
Gli
intervistati, però, esprimono anche forti preoccupazioni per la privacy dei
dati (62%), la trasparenza e spiegabilità dei modelli (57%) e l’uso etico
(56%).
La
ricerca segnala inoltre l’ascesa della “IA quantistica”, ancora in fase
sperimentale ma già considerata promettente:
quasi
un terzo degli executive la conosce, e un quarto dichiara di fidarsene
completamente.
Il
ritardo nella governance costa caro.
Lo
studio evidenzia un altro squilibrio. Otto organizzazioni su dieci dichiarano
di fidarsi pienamente dell’IA, ma meno della metà ha adottato misure per
garantirne l’affidabilità. Solo il 2% inserisce la governance dell’IA tra le
priorità e meno del 10% ha sviluppato policy di AI responsabile.
Questo
disallineamento tra fiducia dichiarata e pratiche effettive può limitare i
benefici economici e aumentare i rischi reputazionali. Le aziende che, invece,
investono in framework di governance e pratiche etiche ottengono risultati
concreti: i leader in “AI affidabile” hanno 1,6 volte più probabilità di
raddoppiare il ROI dei loro progetti.
intelligenza-artificiale-risorse-umane-aziende-italiane-competenze-futuro.
Alla
base di un’IA sicura c’è la qualità dei dati.
IDC
individua tre ostacoli principali al successo delle implementazioni: infrastrutture
dati deboli (49%), scarsa governance (44%) e carenza di competenze
specialistiche (41%). La difficoltà di accedere a fonti rilevanti (58%) e le
questioni di privacy e conformità (49%) complicano ulteriormente il quadro.
La
governance dei dati diventa quindi essenziale per garantire risultati
affidabili, ma anche per sostenere la produttività e contenere i rischi. Senza
solide basi di dati, l’autonomia crescente dei sistemi di intelligenza
artificiale rischia di diventare un boomerang.
(Amazon Fire TV Stick HD (Ultimo
modello), TV gratuita e in diretta, telecomando vocale Alexa, controlli per
Casa Intelligente, streaming HD
Amazon
Fire TV Stick HD (Ultimo modello), TV gratuita e in diretta, telecomando vocale
Alexa, controlli per Casa Intelligente, streaming HD
Streaming
in Full HD: goditi uno streaming veloce e affidabile in qualità Full HD e
controlla i tuoi contenuti con il telecomando vocale Alexa.
Perfetto
per chi utilizza lo streaming per la prima volta: niente di più semplice! Accedi
a migliaia di film e serie TV gratuiti sulle app di streaming con pubblicità,
come Pluto TV e altre.
Premi
e chiedi ad Alexa: usa la voce per cercare e guardare contenuti sulle numerose
app.
Intrattenimento
senza limiti: goditi la visione di migliaia di film ed episodi di serie TV su
Netflix, Prime Video, Disney+, Apple TV+ e altri, e ascolta migliaia di brani
musicali. Potrebbe essere necessario un abbonamento separato. I pulsanti delle
app possono variare.
Sempre
con te: collega il dispositivo alla porta HDMI di un televisore e avrai sempre
accesso alle tue app di intrattenimento, ovunque tu sia.
44,99
EUR .
Acquista
su Amazon).
D-Link
presenta i router aziendali della serie DBR per piccole e medie imprese.
Il
messaggio del rapporto è chiaro: fidarsi dell’IA non è sufficiente, bisogna
renderla degna di fiducia. La rapidità con cui la GenAI si diffonde, spesso
senza adeguate regole di controllo, espone le organizzazioni a rischi
tecnologici, legali e reputazionali.
Come
sottolinea lo studio, solo un approccio fondato su trasparenza, governance e
responsabilità può trasformare la fiducia in risultati duraturi.
In un
mondo dove l’IA decide sempre di più, la vera sfida non è solo costruire
algoritmi intelligenti, ma costruire fiducia intelligente.
L’intelligenza
artificiale può
valutare
l’affidabilità delle notizie?
Ilsole24ore.com
– L.Tre – (12 febbraio 2025) – ci dice:
Uno
studio condotto da ricercatori dell’Università Sapienza di Roma ha messo a
confronto i “Large language models” (Llm) di “Google”, “Meta” e “OpenA”I e i
team di esperti umani strutturati come “NewsGuard” e “Media Bias Fact Check”
(Mbfc).
Ad
oggi ci sono tre domande a cui l’Ai non sa (o non vuole rispondere): chi te lo
ha detto, quanta energia consumi e quanto sei sicura di quello che dici.
Una quarta domanda è ancora più intrigante:
sei in grado controllare l’affidabilità delle notizie?
Una risposta arriva uno studio condotto da
ricercatori dell’Università Sapienza di Roma che hanno messo a confronto i “Large
language models” (Llm) - i modelli linguistici di grandi dimensioni, programmi
di IA addestrati su una grande mole di dati - di Google, Meta e OpenAI e i team
di esperti umani strutturati come NewsGuard e Media Bias Fact Check (Mbfc).
«I nostri risultati rivelano un forte
allineamento tra le classificazioni dei Llm e quelle umane in particolare
nell’identificazione di fonti inaffidabili», sottolineano i ricercatori.
Lo
studio dal titolo Decoding AI Judgment: How LLMs Assess News Credibility and
Bias che trovate qui ha preso in esame i modelli Gemini 1.5 Flash di Google,
GPT-4o mini di OpenAI e LLaMA 3.1 di Meta. Questi modelli classificano le
teorie del complotto, il sensazionalismo e i pregiudizi in maniera speculare ai
criteri chiave usati dagli esperti nelle loro valutazioni. Sono meno coerenti
quando il contesto è limitato. Inoltre, «è interessante notare - scrivono i
ricercatori - che in ambito politico i media di destra vengono considerati più
inaffidabili, quelli di centro più affidabili sollevando interrogativi sul
fatto che i modelli di grandi dimensioni possano ereditare pregiudizi in fase
di addestramento».
Nel
complesso, i ricercatori ritengono che per i modelli di grandi dimensioni le
parole chiave che si riferiscono a notizie locali, resoconti basati su fatti o
al linguaggio neutro sono generalmente associate a un concetto di affidabilità.
Al contrario, l’inaffidabilità è spesso
caratterizzata da termini relativi a sensazionalismo, controversie o
pregiudizi, che riflettono indicatori di uso comune usati da esperti umani per
identificare fonti a bassa credibilità. Inoltre, ’trasparenza’ e ’bias’
emergono come i criteri più comunemente valutati per l’affidabilità o
l’inaffidabilità delle informazioni. “Lo studio - spiegano i ricercatori nelle
conclusioni - riformula i modelli linguistici di grandi dimensioni non
semplicemente come classificazioni automatizzate, ma come finestre sulle
strutture cognitive sia alla base dell’uomo sia della macchina.
Analizzando i loro processi di ragionamento,
ci avviciniamo alla comprensione del modo con cui simulano la valutazione
strutturata e si confrontano con le strategie cognitive umane in compiti di
giudizio complessi».
Questi
modelli classificano le teorie del complotto, il sensazionalismo e i pregiudizi
in maniera speculare ai criteri chiave usati dagli esperti nelle loro
valutazioni.
Sono meno coerenti quando il contesto è
limitato. Inoltre, “è interessante notare - scrivono i ricercatori - che in
ambito politico i media di destra vengono considerati più inaffidabili, quelli
di centro più affidabili sollevando interrogativi sul fatto che i modelli di
grandi dimensioni possano ereditare pregiudizi in fase di addestramento”.
Nel
complesso, i ricercatori ritengono che per i modelli di grandi dimensioni le
parole chiave che si riferiscono a notizie locali, resoconti basati su fatti o
al linguaggio neutro sono generalmente associate a un concetto di affidabilità.
Al contrario, l’inaffidabilità è spesso
caratterizzata da termini relativi a sensazionalismo, controversie o
pregiudizi, che riflettono indicatori di uso comune usati da esperti umani per
identificare fonti a bassa credibilità.
Inoltre, ’trasparenza’ e ’bias’ emergono come
i criteri più comunemente valutati per l’affidabilità o l’inaffidabilità delle
informazioni.
“Lo
studio - spiegano i ricercatori nelle conclusioni - riformula i modelli
linguistici di grandi dimensioni non semplicemente come classificazioni
automatizzate, ma come finestre sulle strutture cognitive sia alla base
dell’uomo sia della macchina.
Analizzando
i loro processi di ragionamento, ci avviciniamo alla comprensione del modo con
cui simulano la valutazione strutturata e si confrontano con le strategie
cognitive umane in compiti di giudizio complessi”.
È la
conclusione di uno studio condotto da ricercatori dell’Università Sapienza di
Roma che hanno messo a confronto i” Large language models” (Llm) - i modelli
linguistici di grandi dimensioni, programmi di IA addestrati su una grande mole
di dati - di Google, Meta e OpenAI e i team di esperti umani strutturati come
NewsGuard e Media Bias Fact Check (Mbfc). “I nostri risultati rivelano un forte
allineamento tra le classificazioni dei Llm e quelle umane in particolare
nell’identificazione di fonti inaffidabili”, sottolineano i ricercatori. Lo
studio ha preso in esame i modelli Gemini 1.5 Flash di Google, GPT-4o mini di
OpenAI e LLaMA 3.1 di Meta.
Questi
modelli classificano le teorie del complotto, il sensazionalismo e i pregiudizi
in maniera speculare ai criteri chiave usati dagli esperti nelle loro
valutazioni.
Sono meno coerenti quando il contesto è
limitato. Inoltre, “è interessante notare - scrivono i ricercatori - che in
ambito politico i media di destra vengono considerati più inaffidabili, quelli
di centro più affidabili sollevando interrogativi sul fatto che i modelli di
grandi dimensioni possano ereditare pregiudizi in fase di addestramento”.
Nel
complesso, i ricercatori ritengono che per i modelli di grandi dimensioni le
parole chiave che si riferiscono a notizie locali, resoconti basati su fatti o
al linguaggio neutro sono generalmente associate a un concetto di affidabilità.
Al
contrario, l’inaffidabilità è spesso caratterizzata da termini relativi a
sensazionalismo, controversie o pregiudizi, che riflettono indicatori di uso
comune usati da esperti umani per identificare fonti a bassa credibilità.
Inoltre, ’trasparenza’ e ’bias’ emergono come i criteri più comunemente
valutati per l’affidabilità o l’inaffidabilità delle informazioni.
“Lo
studio - spiegano i ricercatori nelle conclusioni - riformula i modelli
linguistici di grandi dimensioni non semplicemente come classificazioni
automatizzate, ma come finestre sulle strutture cognitive sia alla base
dell’uomo sia della macchina.
Analizzando
i loro processi di ragionamento, ci avviciniamo alla comprensione del modo con
cui simulano la valutazione strutturata e si confrontano con le strategie
cognitive umane in compiti di giudizio complessi”.
(ANSA).
Quando
l’AI si inventa i fatti:
il
rischio di affidarsi ciecamente
ai
chatbot.
Helinex.it
– (12 Febbraio, 2025) – Enrico La Dogana – ci dice:
Giornalista
corregge errori generati da un’intelligenza artificiale in un articolo di
notizie, evidenziando i rischi della disinformazione AI.
L’Intelligenza
Artificiale generativa sta rivoluzionando il modo in cui accediamo alle
informazioni, scriviamo contenuti e persino interpretiamo la realtà. Ma fino a
che punto possiamo davvero fidarci di questi strumenti? Uno studio condotto
dalla BBC ha messo in luce un problema preoccupante: chatbot come ChatGPT,
Google Gemini, Microsoft Copilot e Perplexity commettono errori gravi quando
riassumono le notizie, distorcendo i fatti, alterando citazioni e, in alcuni
casi, inventandosi informazioni di sana pianta.
Lo
studio della BBC: AI e disinformazione involontaria.
Per
testare l’affidabilità dei chatbot nell’elaborazione delle notizie, la BBC ha
condotto un esperimento su larga scala. Ai principali modelli di Intelligenza
Artificiale sono stati sottoposti cento articoli selezionati dal proprio
archivio. Dopo averli analizzati, i giornalisti della testata hanno posto ai
chatbot domande specifiche per verificare la loro capacità di riassumere
correttamente i contenuti. Le risposte generate sono state poi esaminate da una
squadra di esperti rivelando un quadro allarmante:
Oltre
il 50% delle risposte conteneva errori significativi.
Il 19%
includeva dati, date o dichiarazioni imprecise o completamente inventate.
Il 13%
conteneva citazioni modificate o attribuite in modo scorretto alla BBC.
Uno
degli esempi più eclatanti riguarda “Google Gemini”, che ha affermato
erroneamente che il “Sistema Sanitario Nazionale britannico (NHS) sconsigliasse
l’uso di sigarette elettroniche”, mentre in realtà il Regno Unito ha
storicamente promosso l’impiego come strumento di riduzione del danno da fumo.
Un
altro errore grave è stato rilevato con ChatGPT, che a inizio 2023 ha
dichiarato che Ismail Haniyeh, leader di Hamas, facesse ancora parte della
leadership dell’organizzazione nonostante fosse stato assassinato in
precedenza.
Secondo
lo studio “Google Gemini” è risultata l’intelligenza artificiale meno
affidabile, con un tasso di errore critico pari al 46% delle risposte.
Perché
l’AI si inventa i fatti?
Le
“allucinazioni” dell’Intelligenza Artificiale – termine tecnico che indica la
generazione di informazioni false o inaccurate – sono un fenomeno complesso ma
spiegabile.
I modelli AI generativi funzionano analizzando enormi quantità di testi per
identificare pattern e probabilità statistiche, non per comprendere la verità
fattuale.
Quando
un modello AI è incerto su una risposta, invece di ammettere “non lo so”, tende
a generare un’ipotesi basata sulle relazioni statistiche che ha imparato, anche
se questa risulta completamente errata.
Inoltre,
questi modelli vengono addestrati su dati fino ad un certo periodo di tempo,
dopo il quale non hanno più informazioni aggiornate. Questo li rende
particolarmente inaffidabili su eventi recenti o in continua evoluzione, come
dimostrato dagli esempi citati nello studio.
AI e
content marketing: un problema più grande di quanto sembri.
L’errore
di un chatbot nel riassumere una notizia può sembrare un problema limitato al
giornalismo, ma ha implicazioni ben più ampie. Sempre più aziende utilizzano
l’AI per creare contenuti, gestire blog, scrivere articoli SEO o rispondere ai
clienti. Cosa succede se questi strumenti generano informazioni errate o
fuorvianti?
Immaginiamo
alcuni scenari concreti:
Un’azienda
che usa l’AI per scrivere contenuti finanziari: se l’AI genera dati sbagliati
su investimenti o previsioni economiche i lettori potrebbero prendere decisioni
errate, con conseguenze gravi.
Un
e-commerce che usa chatbot AI per assistenza clienti: se il chatbot fornisce
informazioni errate su un prodotto, sulla garanzia o sui termini di reso, il
cliente potrebbe sentirsi ingannato e danneggiare la reputazione del brand.
Un’agenzia
di marketing che affida i suoi articoli all’AI senza revisione umana: se i
contenuti generati includono affermazioni inesatte o citazioni alterate
l’azienda rischia di perdere credibilità e autorevolezza nel suo settore.
In
sintesi, l’AI è uno strumento potente, ma non può sostituire il controllo
umano.
Chi si
affida ciecamente a queste tecnologie senza un’adeguata supervisione si espone
a rischi enormi.
Come
Helinext usa l’AI in modo responsabile
Noi di
Helinext crediamo che l’Intelligenza Artificiale sia un potente alleato, ma
solo se utilizzata con un approccio consapevole, responsabile e avveduto.
Per
questo motivo, nel nostro lavoro di SEO, content marketing e lead generation
adottiamo una strategia ben definita:
Consideriamo
l’Intelligenza Artificiale alla stregua di un assistente che non può in alcun
modo sostituire l’elemento umano: utilizziamo strumenti di AI per velocizzare i
processi, ma ogni contenuto viene letto, rivisto e validato.
Fact-checking
e verifica delle fonti: l’occhio umano e la ricerca attiva nei motori di
ricerca sono essenziali per confermare l’accuratezza di ogni informazione
generata dall’AI.
Personalizzazione
e strategia: l’AI da sola genera testi generici. Noi combiniamo l’automazione
con la creatività e l’esperienza per produrre contenuti che siano unici,
pertinenti e di valore.
Uso
etico dell’AI: evitiamo tecniche che potrebbero ingannare gli utenti, come il
clickbait basato su informazioni distorte. La nostra priorità è costruire
fiducia e autorevolezza.
Un
esempio concreto del nostro approccio è l’utilizzo dell’AI per analizzare i
dati provenienti dai nostri gestionali, come per esempio ECON ESG. Questo ci
permette di identificare tendenze e opportunità molto più rapidamente, ma ogni
insight viene sempre verificato e contestualizzato dal nostro team di esperti.
Più in
generale i benefici dell’AI, a nostro avviso, sono i seguenti:
Acceleratore
di produttività: l’AI permette di velocizzare azioni meccaniche e ripetitive, liberando
tempo per attività a maggior valore aggiunto.
Generatore
di prospettive multiple: utilizzando prompt adeguati, l’AI può fornire angolazioni
differenti e spunti creativi che arricchiscono i contenuti.
Analisi
dei dati:
può interpretare grandi moli di informazioni provenienti da fonti diverse,
facilitando l’estrazione di insight rilevanti.
Supporto
alla creatività: offre idee iniziali che, sotto la supervisione umana, possono
essere sviluppate in contenuti originali.
Il
futuro: evoluzione e sfide.
Guardando
ai prossimi 1-2 anni, è ragionevole aspettarsi che l’AI migliori
progressivamente la sua accuratezza, specialmente con l’integrazione di sistemi
di ricerca in tempo reale e meccanismi di verifica automatica. Tuttavia, una
certa percentuale di errori continuerà a persistere, rendendo la supervisione
umana un elemento imprescindibile.
Intelligenza
Artificiale sì, ma “cum grano salis”.
L’Intelligenza
Artificiale sta trasformando il mondo della comunicazione, ma la vicenda
analizzata dalla BBC dimostra che non è (ancora) uno strumento infallibile.
Affidarsi ciecamente ai chatbot può portare a errori, disinformazione e danni
di reputazione.
Il
nostro approccio in Helinext è chiaro: l’AI deve essere un supporto, non una
scorciatoia. L’intelligenza umana, il controllo e l’esperienza rimangono
insostituibili per garantire contenuti di qualità, accurati e affidabili.
Se
vuoi scoprire come integrare l’AI nel tuo business senza correre rischi,
contattaci subito: ti aiuteremo a sfruttare al meglio l’innovazione senza
compromessi sulla qualità!
L'AI
ha un pregiudizio politico?
Studio italiano rivela perché
i siti
di destra sono etichettati
spesso
come «inaffidabili».
Corriere.it
- Walter Quattrociocchi - professore di Informatica – (13-ott. 2025) – ci dice:
Ecco
perché l'intelligenza artificiale non «capisce» le notizie ma le indovina e
quali distorsioni introduce:
cosa dice lo studio «La simulazione del giudizio negli LLM», di un gruppo di ricercatori della
Sapienza di Roma.
L'AI
ha un pregiudizio politico? Studio italiano rivela perché i siti di destra
vengono etichettati più spesso come «inaffidabili».
Sempre
più spesso ci rivolgiamo a modelli linguistici come “ChatGPT” non per cercare,
ma per capire.
«Questo
sito è affidabile?», «Questa fonte dice la verità?», «Questa informazione è
corretta?».
E non
ci fermiamo lì: «Spiegami la guerra in Ucraina», «Riassumi Popper», «Cos’è
l’abduzione», «mi fai capire cosa dice questo articolo?».
Domande
così, ogni giorno, in ogni ambito.
Studenti
che colmano lacune in vista di un esame. Giornalisti che cercano conferme
rapide.
Professionisti
che «ottimizzano» testi, email, report.
E poi
docenti, medici, avvocati.
Tutti,
prima o poi, si rivolgono a un modello linguistico come ci si rivolgeva, un
tempo, a un motore di ricerca.
Solo
che qui c’è una differenza profonda.
Google restituiva risultati: indicava fonti,
indirizzava altrove.
Gli
LLM, invece, simulano la risposta.
Ti dicono direttamente cosa pensare.
Come se l’atto di giudicare, spiegare,
sintetizzare fosse già avvenuto.
E il
testo che compare, sempre ordinato, fluente, spesso convincente, sembra confermare
che è già tutto lì.
Ma non
è lì. E soprattutto: non funziona come sembra.
Il
punto centrale è che questi strumenti non hanno una rappresentazione del mondo.
Non possiedono un criterio interno di verità.
Quello
che fanno, con stupefacente efficacia, è generare sequenze linguistiche
plausibili sulla base di pattern statistici appresi durante l’addestramento.
Quando
diciamo che «allucinano», non stiamo descrivendo un errore. Stanno facendo
esattamente ciò per cui sono progettati.
Non
sbagliano: eseguono.
Predicono
la parola successiva in una sequenza, con una precisione raffinata su scala
globale, addestrati su miliardi di testi, dialoghi, articoli, manuali, siti.
La
loro competenza è puramente linguistica, non epistemica.
Non verificano,
ma «verosimilizzano».
Eppure,
ed è questo il nodo, noi spesso li trattiamo come se sapessero.
Li interroghiamo come si interroga una fonte.
Ci
fidiamo del loro stile, della loro compostezza argomentativa. Confondiamo la
coerenza del linguaggio con la coerenza del pensiero. Non ci accorgiamo che stiamo
delegando non solo l’informazione, ma la struttura stessa del giudizio.
E il
fatto che funzioni in molti casi, che «dia risposte giuste», rischia di
rinforzare l’equivoco.
Perché funziona non vuol dire che comprenda.
E se
confondiamo una frase ben costruita con un contenuto affidabile, allora il
problema è nel nostro sguardo.
Tempo
fa avevamo pubblicato un lavoro sull’impoverimento del linguaggio online, una
lenta ma misurabile tendenza alla semplificazione lessicale, sintattica e
semantica nei commenti sui social degli ultimi trent’anni.
Un
dato che mostrava come le parole cambiano quando cambiano gli ambienti in cui
si parla.
Quel
lavoro, in modo imprevisto, ha aperto discussioni più ampie.
Una in
particolare, con alcuni colleghi di una delle principali big tech.
La loro domanda era chiara:
cosa
accadrebbe in una società in cui l’uso degli LLM diventa pervasivo nei compiti
quotidiani?
Cosa succede alla lingua quando non la
produciamo più noi?
Era
una domanda importante, ma ne rivelava un’altra, più profonda. Perché in quello
scenario non è in gioco solo il linguaggio. È in gioco il modello di mondo
immaginato da chi ha costruito questi motori.
Con i
colleghi Edoardo Loru, Jacopo Nudo, Niccolò Di Marco e Matteo Cinelli ci siamo
chiesti che cosa accade quando la delega cognitiva diventa sistemica.
Quando
le persone non si affidano agli LLM solo per cercare, ma per comprendere, per
valutare, per decidere.
I
grandi sviluppatori degli LLM vogliono capirne l’impatto sulla lingua. Ma la
vera domanda, per noi, era un’altra: un motore statistico può sostenere questa
delega?
Quando gli chiediamo di valutare
l’affidabilità di una fonte, come opera davvero?
Costruisce
un criterio, oppure simula una risposta?
Da lì
abbiamo deciso di fare un passo in più.
Non
bastava interrogare i modelli. Non bastava osservarli.
Dovevamo
metterli alla prova, con dati e confronto reale.
Abbiamo
così messo fianco a fianco sei dei principali modelli oggi in uso (GPT-4o, Gemini, Mistral, Llama,
DeepSeek)
e gruppi di valutatori umani, inclusi esperti.
A
tutti, modelli e persone, è stato affidato lo stesso compito:
giudicare
la credibilità di centinaia di siti di informazione.
In apparenza era semplice: classificare le
fonti come affidabili o inaffidabili e motivare la scelta.
L'AI
ha un pregiudizio politico? Studio italiano rivela perché i siti di destra
vengono etichettati più spesso come «inaffidabili».
Dietro
questa apparente semplicità si apriva la questione chiave: cosa conta come
prova? Quali segnali usano? Che cosa attivano i modelli per decidere?
I
risultati sono stati chiari e sono ora pubblicati in un paper su PNAS che si
intitola «The
simulation of judgment in LLMs».
L’output dei modelli, spesso, è simile a
quello degli esperti, almeno in superficie.
Ma i
processi sono diversi. Radicalmente.
Gli
LLM si affidano a pattern linguistici, non a ragionamenti. Identificano parole
chiave, segnali frequenti, espressioni che co-occorrono con certe etichette.
Non leggono il contenuto come un umano, lo
mappano.
E
quando producono una spiegazione, non stanno argomentando: stanno estendendo
statisticamente un’istruzione.
Il
giudizio è simulato. L’epistemologia, assente.
Non se
li possiedono, ma come li manifestano quando devono riconoscerli.
Abbiamo
costruito un task in cui ai modelli veniva chiesto di leggere un testo,
rilevare un eventuale squilibrio ideologico e motivare il giudizio.
La
sfida era doppia: individuare il bias e argomentarlo.
Anche qui, le risposte sono state
linguisticamente corrette, stilisticamente fluide, ma epistemicamente deboli.
Le
spiegazioni sembravano più parafrasi eleganti che valutazioni fondate.
Non
ricostruivano il ragionamento, ma riciclavano frasi del testo con un tono
neutro e decoroso.
Una prudenza apparente che segnalava un vuoto
concettuale.
Ma il
dato cruciale è un altro. Dall’esperimento emerge una tendenza sistematica: i
modelli considerano più spesso inaffidabili o polarizzati i contenuti associati
alla destra politica.
Non
perché «credano» qualcosa, ma perché riflettono i pattern dominanti nei dati su
cui sono stati addestrati.
In
ambienti accademici, giornalistici e digitali, certe posizioni sono più
frequentemente trattate con toni critici.
I
modelli apprendono questo schema e lo riproducono, senza comprenderlo.
In
assenza di criteri propri, non valutano: replicano.
Si
comportano come specchi deformanti, amplificando le frequenze statistiche del
loro training set. E quella che sembra una valutazione neutra è, in realtà, un
riflesso opaco dell’ambiente che li ha generati.
Questa
dinamica rende visibile una frattura profonda.
Da un
lato il pensiero normativo umano, che si fonda, almeno in teoria, su principi,
contesto, confronto, intenzionalità. Dall’altro il riflesso statistico appreso
da un LLM che, privo di intenzione e consapevolezza, replica correlazioni, non
criteri.
Ma non
ci siamo fermati lì.
Perché l’evoluzione recente dell’intelligenza
artificiale non è più centrata solo sulla generazione di testo.
È
sulla sua agentificazione.
I
modelli non rispondono più soltanto a un prompt.
Cominciano
a comportarsi come agenti.
Raccolgono
informazioni, selezionano fonti, combinano risposte, prendono decisioni su base
modulare.
È su questo che si gioca oggi la grande
scommessa industriale:
agenti
AI che svolgano compiti autonomi, dalla sintesi legale alla selezione medica,
dal customer service all’analisi di policy.
Abbiamo
allora deciso di confrontare non solo l’output, ma il comportamento di agente.
Perché
questi modelli non si limitano più a rispondere: raccolgono dati, selezionano
fonti, compongono una scelta. Agiscono.
Abbiamo costruito un esperimento in cui sia i
modelli sia gli esseri umani operavano come agenti.
Stessi
strumenti, stesse risorse, stesso task.
Una
homepage da cui partire, due articoli da consultare, sei criteri di
valutazione, un tempo limitato, una richiesta di giudizio.
Nessun
aiuto, nessuna scorciatoia: solo il processo decisionale.
La
collaborazione con i colleghi del “Dipartimento di Psicologia di Sapienza “–
Vincenzo Cestari, Clelia Rossi-Arnaud, Alessandro Santirocchi e Roberto Atzeni
– è stata essenziale.
Hanno
portato gli strumenti per osservare non solo cosa veniva deciso, ma come si
arrivava alla decisione.
Ironia vuole che i nostri uffici siano a
duecento metri di distanza, ma non ci conoscevamo.
Ci ha
messi in contatto un altro collega,” Sander van der Linden”, professore di
Psicologia a Cambridge, con cui collaboro da anni.
Per parlarsi a Roma, tocca passare per Londra.
I
risultati hanno confermato l’intuizione.
Le
persone usano criteri retorici, stilistici, emotivi.
Valutano
il tono, la professionalità, l’equilibrio.
I modelli no.
I modelli si affidano a tracce strutturali, a
segnali lessicali associati alla reputazione o all’ideologia.
Quando
assegnano una valutazione, non stanno giudicando nel senso umano del termine.
Stanno
ottimizzando sulla base di correlazioni.
Eppure il risultato sembra giudizio.
È qui
che abbiamo riconosciuto la dinamica che abbiamo chiamato epistemia:
l’illusione
di sapere che emerge quando la plausibilità linguistica sostituisce la
verifica.
Un
cambio di paradigma, silenzioso ma sistemico.
La
cosa più paradossale è che mentre accade tutto questo, nel dibattito pubblico e
istituzionale si continua a parlare di «mente estesa», di «potenziamento
cognitivo», di «alleanza uomo-macchina».
Tutti
concetti affascinanti.
Ma c’è
un problema: si basano su un assunto, non su una verifica.
Sono
costruzioni ideologiche più che osservazioni empiriche.
Sono
utili al marketing, ma deraglianti per il pensiero critico.
La metafora della mente estesa è un ponte
narrativo, non una scoperta. È una retorica potente, lo ammetto, ma è una
supercazzola nobile: buona per il gioco della legittimazione, meno per quello
della comprensione.
L’inganno
perfetto dell'intelligenza artificiale: scrive bene ma non sa nulla.
Approfondimento.
L’inganno
perfetto dell'intelligenza artificiale: scrive bene ma non sa nulla.
Il
marketing gioca un ruolo centrale.
Ogni
settimana esce un nuovo modello che batte il precedente su qualche benchmark.
Le
«olimpiadi dell’AI» vengono celebrate come se fossero prove di intelligenza.
Ma i
benchmark sono progettati per essere vinti, non per essere compresi.
Misurano
la performance, non il metodo.
Raccontano l’eccellenza, ma eludono la vera
domanda:
cosa
stanno facendo davvero questi modelli quando «funzionano»?
E
soprattutto: cosa stiamo delegando, ogni volta che li usiamo?
A noi, invece, interessa questo.
Non lo
spettacolo della prestazione, ma la struttura della delega.
Non l’eccellenza nella forma, ma la
trasformazione della funzione.
Se
vogliamo capire cosa significa davvero questa transizione, dobbiamo guardarla
senza illusioni.
Questi
modelli non sono nemici.
Ma non
sono nemmeno partner neutrali.
Sono sistemi potentissimi, capaci di produrre
apparenze del pensiero. Restano, per ora, macchine di plausibilità.
E se la società si abitua a scambiare la
plausibilità per verità, allora il problema non sarà l’intelligenza
artificiale.
Saremo
noi.
Non è
un pericolo imminente. Non è un’allerta etica. È un cambio di cornice, che va
riconosciuto prima che si stabilizzi.
Perché ciò che cambia non è solo il modo in
cui cerchiamo informazioni. È il modo in cui riconosciamo la conoscenza.
Se
continuiamo a trattare questi strumenti come giudici, e non come generatori,
allora rischiamo di perdere il controllo sul concetto stesso di affidabilità,
autorità, prova.
Il futuro sarà pieno di strumenti che sembrano
pensare.
Ma
sembrare non è essere. Non serve allarmismo.
Serve
vigilanza. Perché la forma del sapere non è il sapere stesso.
Perché
alla fine, non stiamo automatizzando il pensiero. Stiamo automatizzando la sua apparenza.
(Di
Marco, Nicola, Edoardo Loru, Anita Bonetti, Alessandra Olga Grazia Serra,
Matteo Cinelli, and Walter Quattrociocchi. "Patterns of linguistic
simplification on social media platforms over time." Proceedings of the
National Academy of Sciences121, no. 50 (2024): e2412105121.)
“AI” evaluation
e il futuro
dell’intelligenza
artificiale
affidabile.
Rivista.ai - Redazione – (7 Ottobre 2025) -
News – ci dice:
Il
dibattito globale sull’intelligenza artificiale continua a oscillare tra due
estremi:
da una
parte, la richiesta di guardrail più severi per assicurare uno sviluppo sicuro;
dall’altra, la paura di rallentare un settore in piena corsa.
La narrativa comune sembra semplice, quasi
banale, ma “Jack Jiang”, professore di innovazione e gestione dell’informazione
alla “Hong Kong University Business School,” la smonta con una precisione
chirurgica. Secondo Jiang, sicurezza e sviluppo non sono alternative:
sono
facce della stessa medaglia.
Un
modello AI vale economicamente solo se è affidabile, e l’affidabilità va
dimostrata da terzi indipendenti.
Dal
lancio di “ChatGPT”, il panorama internazionale è diventato un terreno di
guerra silenziosa, soprattutto in Cina, dove il fenomeno del “cento modelli” ha
acceso la competizione tra giganti tecnologici.
Ogni
azienda cercava di emergere, ma il mercato aveva già iniziato a porre la
domanda giusta:
non se
usare l’AI, ma come usarla al meglio.
Jiang
ha colto questa necessità creando il suo “AI Evaluation Lab”, il cui obiettivo è guidare “l’innovazione affidabile e lo
sviluppo sostenibile dell’AI generativa” attraverso valutazioni rigorose dei
modelli.
Oggi,
il laboratorio conta oltre 40 membri distribuiti tra Hong Kong, Xi’an, Dalian e
Oxford.
Il
problema delle “allucinazioni” dei modelli – output fuorvianti o di fatto
errati – è emerso come un ostacolo cruciale già nei primi test. Modelli
sofisticati come “GPT-5”, pur con un tasso basso di errori, non possono essere
lasciati senza supervisione in ambiti critici come finanza e sanità.
Un sondaggio globale condotto da “Gallagher”
conferma quanto Jiang aveva intuito:
le
allucinazioni rappresentano il principale freno all’adozione dell’AI nel mondo
business.
Le
valutazioni del laboratorio HKU hanno confermato un dato preoccupante:
molti
modelli, soprattutto quelli cinesi, continuano a generare contenuti inaccurati.
Il miglior modello cinese, “Doubao 1.5 Pro”
di” ByteDance”, si è posizionato solo settimo su 37 modelli internazionali e
locali, nonostante performance precedenti elevate in ragionamento, generazione
di immagini e linguaggio generale.
Le
valutazioni, condotte sia in cinese sia in inglese, hanno sorpreso per la
delusione complessiva, mostrando come la traduzione della capacità tecnica in
affidabilità concreta non sia scontata.
Perché
i modelli allucinano?
OpenAI
attribuisce il fenomeno ai processi di addestramento attuali, che
incoraggerebbero le LLM a indovinare risposte invece di segnalare incertezza.
Se la
diagnosi fosse corretta, sviluppatori e aziende dovranno ripensare architettura
e procedure di training.
“Li
Jiaxin”, dottorando del laboratorio, sottolinea come la questione non sia solo
accademica, ma direttamente legata alla strategia di adozione aziendale.
Le
valutazioni del laboratorio non restano confinate ai paper o alle conference.
Le
aziende chiedono indicazioni concrete:
una grande banca cinese ha frenato l’adozione
di AI nei servizi clienti proprio a causa del rischio di hallucinations.
Un’azienda
di video brevi di Pechino ha immediatamente contattato Jiang per soluzioni
pratiche.
Il passo successivo sarà trasferire le
valutazioni dai laboratori agli ambienti reali, con un focus iniziale sulla
finanza di Hong Kong, dove il governo ha indicato un approccio “basato sul
rischio” all’adozione dell’AI, dalla revisione documentale al trading stesso.
Il
contesto cinese non può ignorare l’obiettivo dichiarato di “Xi Jinping”:
sviluppare AI “sicura e affidabile”.
Competere
con i modelli statunitensi non significa solo eccellenza tecnica, ma anche
sicurezza, trasparenza ed etica.
Le aziende cinesi dovranno concentrarsi sulla
riduzione delle allucinazioni se vogliono mantenere rilevanza globale.
Jiang
non lascia spazio ai dubbi:
il
futuro dell’AI economica e sicura dipende da chi sarà capace di combinare
capacità tecnica, auditing indipendente e applicazione pratica in contesti ad
alto rischio.
Curiosità
interessante:
il laboratorio HKU ha iniziato quasi per caso, subito
dopo il lancio di ChatGPT, ma oggi rappresenta un modello di come la terza
parte possa diventare la chiave per stabilire fiducia e valore economico.
Ironia della sorte, mentre molte aziende
inseguono le feature più appariscenti, sono gli “auditor” come Jiang a dettare
le regole del gioco, mostrando che affidabilità e innovazione non sono in
conflitto, ma obbligatoriamente complementari.
AI e
Accuratezza: Quando le Intelligenze
Artificiali
Puntano a Soddisfare e non a Informare.
Edunews24.it
– (18 -10-2025) – Savino Grimaldi – ci dice:
Un'analisi
sui limiti, i rischi e le implicazioni etiche delle risposte offerte dalle
nuove tecnologie di intelligenza artificiale.
AI e
Accuratezza: Quando le Intelligenze Artificiali Puntano a Soddisfare e non a
Informare.
Indice
degli Argomenti:
Introduzione:
la centralità dell’esperienza utente nelle IA.
Accuratezza
e affidabilità delle risposte delle IA.
Come
le aspettative degli utenti influenzano le risposte.
Il
fenomeno del bias nelle risposte dell’intelligenza artificiale.
I
rischi e i pericoli di risposte IA inaccurate.
Limiti
strutturali delle intelligenze artificiali attuali.
Implicazioni
etiche: tra responsabilità e trasparenza.
Verso
una IA più affidabile: le prospettive future.
Sintesi
e considerazioni conclusive.
Introduzione:
la centralità dell’esperienza utente nelle IA.
L’evoluzione
delle tecnologie di intelligenza artificiale (IA) nel corso degli ultimi anni
ha rivoluzionato il modo in cui accediamo alle informazioni, interagiamo online
e risolviamo problemi.
Al
centro di questa rivoluzione c’è un principio fondante:
le IA
sono progettate per soddisfare l’utente che pone la domanda.
Questa
logica, che pone l’utente al centro dell’esperienza, ha senza dubbio reso più
diffusa e popolare la tecnologia, ma presenta anche una serie di limiti
significativi quando si parla di accuratezza intelligenza artificiale e
affidabilità risposte IA.
Ma
fino a che punto questo modello riesce davvero a garantire intelligenza
artificiale e veridicità nelle informazioni?
Cosa succede quando la priorità alla
soddisfazione dell’utente si traduce in risposte che si allontanano dalla
realtà dei fatti?
Accuratezza
e affidabilità delle risposte delle IA.
Le
moderne intelligenze artificiali, dalle chatbot testuali ai sistemi vocali come
gli assistenti digitali, sono spesso misurate sulla base della soddisfazione
dell’utente piuttosto che della precisione oggettiva delle risposte.
Ad
esempio, se si chiede a una IA una ricetta di cucina o come compilare un modulo
burocratico, il sistema cercherà di fornire una risposta coerente con le
aspettative, piuttosto che verificare l’esattezza delle istruzioni punto per
punto.
Questo
porta a due considerazioni centrali:
La
priorità è l’usabilità e la continuità della conversazione.
L’accuratezza
delle informazioni può risultare compromessa, soprattutto in campi sensibili
come salute, finanza, educazione o diritti legali (pericoli risposte IA
inaccurate).
Uno
studio pubblicato nel 2024 dal MIT ha evidenziato come, in diversi test, le IA
abbiano prodotto risposte rassicuranti ma non sempre corrette, specialmente
quando le richieste dell’utente erano ambigue o lasciavano spazio a diverse
interpretazioni.
Come
le aspettative degli utenti influenzano le risposte.
Le IA
di nuova generazione impiegano sofisticati algoritmi di apprendimento
automatico.
Questi
algoritmi imparano non solo dai dati, ma anche dalle reazioni degli utenti a
specifiche risposte.
L’obiettivo
diventa quindi duplice:
Offrire
informazioni pertinenti.
Soddisfare
l’intento percepito di chi ha posto la domanda.
Nel
processo, l’IA tende a "modellarsi" sulle aspettative
dell’utilizzatore, adottando un registro più informale, tralasciando dettagli
tecnici o, addirittura, selezionando esempi in linea con l’esperienza o i
pregiudizi comuni.
Questo
porta spesso a una rassicurante ma fuorviante “personalizzazione” nella
risposta.
Secondo
una ricerca della “Stanford University”, in molti casi le risposte delle IA
vengono giudicate soddisfacenti dagli utenti anche quando, a posteriori, si
rilevano inesattezze o errori di fondo.
Il
motore di questa dinamica è proprio la tendenza degli algoritmi a premiare la
gratificazione dell’utente rispetto al rigore della verifica (effetti aspettative utenti IA).
Il
fenomeno del” bias” nelle risposte dell’intelligenza artificiale:
Uno
degli aspetti più discussi del design delle IA odierne è la questione dei” bias”
(bias risposte intelligenza artificiale).
I bias
possono derivare tanto dai dati su cui si addestra il modello, quanto dalle
preferenze espresse (esplicitamente o implicitamente) dagli utenti.
Tipologie
di bias che possono influenzare l’accuratezza delle IA:
Bias
di conferma:
La tendenza dell’IA a confermare concetti già noti o apprezzati dall’utente,
anche se potenzialmente errati.
Bias
culturale: L’aderenza
a standard, valori o consuetudini proprie della cultura dominante nei dati,
escludendo punti di vista alternativi.
Bias
di popolarità: L’IA offre risposte basate su informazioni altamente condivise o
cliccate online, senza verificarne la veridicità.
Questi
bias possono rafforzare false credenze, perpetuare stereotipi e ridurre
l’accessibilità a informazioni realmente variegate ed eque.
È in
gioco, dunque, anche un problema di editoriale intelligenza artificiale e di
formazione del pensiero critico nelle nuove generazioni.
I
rischi e i pericoli di risposte IA inaccurate.
I
pericoli risposte IA inaccurate risultano particolarmente evidenti in contesti
sensibili, come l’informazione sanitaria, legale, finanziaria ed educativa.
Qual è
l’impatto sociale di una risposta errata fornita da una IA?
Sanità:
Un
consiglio medico errato può influire negativamente sulla salute degli utenti.
Finanza: Semplici indicazioni su tasse o
investimenti, se sbagliate, possono comportare gravi danni economici.
Scuola
e università: Gli studenti rischiano di consolidare nozioni distorte, compromettendo
il processo di apprendimento.
Legalità: Informazioni non accurate sui
diritti possono generare malintesi o addirittura comportamenti illeciti.
In
ciascuno di questi casi, la mancanza di controllo sulle fonti o di verifiche
“umane” accresce notevolmente il margine di errore.
Non si
tratta di timori astratti, ma di problemi concreti di responsabilità e
sicurezza, come hanno sottolineato vari enti regolatori a livello europeo e
internazionale.
Limiti
strutturali delle intelligenze artificiali attuali.
A
oggi, nonostante i progressi, i limiti intelligenza artificiale sono evidenti:
Le IA
non "capiscono" il significato profondo delle domande, ma elaborano
modelli statistici di probabilità.
Sono
assenti meccanismi sistematici e autonomi di fact-checking rigorosi.
La
dipendenza dall’addestramento pregresso impedisce, in molti casi, di
distinguere risposte obsolete da aggiornamenti recenti.
Una
volta impostato un certo stile di risposta, l’IA tende a replicarlo, generando
il rischio di cicli autoreferenziali.
Un
aspetto spesso trascurato è che le IA non hanno coscienza né intenzionalità:
non “scelgono” deliberatamente di essere
accurate o meno.
Agiscono
secondo parametri definiti dagli sviluppatori e dagli input degli utenti,
ragion per cui il loro funzionamento risulta influenzabile e potenzialmente
manipolabile.
Implicazioni
etiche: tra responsabilità e trasparenza.
La
crescente diffusione dell’IA comporta nuove responsabilità, in particolare
problemi etici IA.
Tra i
punti sollevati da ricercatori e comitati etici:
Trasparenza: È fondamentale che l’utente sia
sempre consapevole di interagire con una IA, e non con un essere umano.
Inoltre, dovrebbe poter verificare facilmente le fonti delle informazioni
ricevute.
Responsabilità:
Chi
risponde di un errore commesso da una IA? L’utente, lo sviluppatore, la
piattaforma? È un dilemma che pone nuove sfide anche al diritto.
Equità: L’IA dovrebbe garantire un accesso
equo alle informazioni, evitando discriminazioni di genere, etniche, culturali
o sociali.
Educazione
digitale:
È prioritario preparare gli utenti (studenti, cittadini, professionisti) a
riconoscere i limiti dell’IA e a verificarne le risposte.
Modelli
proposti a livello europeo (come l’AI Act) sottolineano la necessità di linee
guida stringenti sia in fase di progettazione che di implementazione, per
ridurre i margini di errore e limitare l’influenza delle aspettative
soggettive.
Verso
una IA più affidabile: le prospettive future.
Molti
esperti individuano una serie di soluzioni per rendere l’intelligenza
artificiale e veridicità degli output più affidabile:
Integrazione
di sistemi di verifica automatica delle fonti:
Algoritmi
che incrociano dati da più banche dati certificate prima di restituire una
risposta.
Feedback
trasparente:
Notifiche che avvisano l’utente quando una risposta si basa su ipotesi o dati
incerti.
Revisione
umana delle risposte in contesti critici: Un sistema "a doppio
controllo" per settori come salute o finanza.
Maggior
attenzione all’educazione all’uso dell’IA: Percorsi scolastici e professionali
che insegnino a interagire e, soprattutto, a non fidarsi ciecamente delle
risposte artificiali.
Le
prospettive sono positive, ma richiedono un cambio di paradigma: dalla
soddisfazione tout court all’accuratezza sostanziale dell’informazione.
Sintesi
e considerazioni conclusive.
La
sfida principale che si pone oggi di fronte all’adozione massiccia di
intelligenza artificiale, anche nel campo dell’informazione e dell’educazione,
è trovare un equilibrio tra IA e soddisfazione utente e necessità di
accuratezza intelligenza artificiale.
L’attuale
struttura delle IA, orientata primariamente alla gratificazione dell’utente,
espone a rischi di disinformazione, consolidamento di bias e scarsa
affidabilità delle risposte.
Le
implicazioni sono molteplici: non solo problemi pratici, ma anche problemi
etici IA e possibili minacce alla formazione di un senso critico e autonomo.
Le
parole d’ordine, quindi, devono essere trasparenza, responsabilità, controllo
delle fonti e formazione degli utenti.
Solo con uno sforzo congiunto di sviluppatori,
educatori, legislatori e cittadini sarà possibile costruire un’intelligenza
artificiale davvero affidabile, equa e sicura.
In
questa prospettiva, il compito dell’editoria, della scuola e di chi si occupa
di informazione è anche quello di promuovere consapevolezza, diffondere
strumenti critici e favorire una cultura del dubbio informato, che sfrutti le
potenzialità delle nuove tecnologie senza diventare vittima dei loro limiti.
(Savino
Grimaldi).
Codice
del Futuro: etica e regole
per
un’IA a misura d’uomo.
Agendadigitale.eu
– (15 ottobre 2025) -Avv. Graziella Soluri – ci dice:
Il
“Codice del Futuro” dell’IA unisce leggi, etica e tecnologia. Servono regole
agili, aziende etiche e cittadini consapevoli. Solo così la tecnologia potrà
restare uno strumento al servizio dell’uomo, non il contrario.
Il
dibattito globale sull’intelligenza artificiale (IA) ha trasceso la mera
questione tecnologica per diventare una riflessione profonda sulla governance e
sul ruolo dell’uomo in un’era di crescente automazione. Il concetto di “Codice
del Futuro” non si materializza in un singolo documento, ma in un ecosistema
globale e in continua evoluzione di normative (come l’EU AI Act) e principi
etici (promossi da enti come l’UNESCO e l’OECD).
Analizziamo
questo corpus emergente, focalizzandoci sulle specifiche, sulle intenzioni e,
in particolare, sul ruolo insopprimibile dell’uomo.
Massimo
Cacciari - Dall’utopia alla distopia (lezione sull'intelligenza artificiale).
Si
vuole dimostrare che le specifiche normative, fondate su un approccio di
gestione del rischio, mirano a tradurre le intenzioni etiche in obblighi
concreti al fine di governare questa tecnologia.
Tuttavia, si vuole anche mettere in risalto
una tensione costante tra la rapidità esponenziale dello sviluppo tecnologico e
la lentezza intrinseca dei quadri normativi, oltre a un dibattito acceso sul
grado di controllo che l’essere umano può e deve mantenere sui sistemi
autonomi.
La
breve disamina infine illustra come il futuro dell’IA non sia predeterminato,
ma dipenda in larga misura dalla nostra capacità di guidarla in modo
consapevole e responsabile, integrando l’intelligenza umana con le capacità
analitiche delle macchine.
La
discussione si conclude con un’analisi delle sfide aperte, fornendo
raccomandazioni per sviluppatori, legislatori e utenti auspicando che
l’innovazione tecnologica si allinei con i valori umani fondamentali.
Indice
degli argomenti.
La
necessità di un ‘Codice del Futuro’: dai principi etici ai quadri normativi.
L’intelligenza
artificiale non è più una tecnologia di nicchia, ma un motore globale di
crescita e progresso che sta trasformando radicalmente il modo in cui le
attività umane vengono svolte.
Con l’avvento di modelli generativi come
ChatGPT alla fine del 2022, l’IA ha superato i confini della mera automazione
per entrare nel regno della creatività e del processo decisionale, sollevando
interrogativi più complessi nel panorama mediatico e professionale.
L’obiettivo
dichiarato dell’IA è di creare computer capaci di pensare e agire come gli
esseri umani, un traguardo che si basa su tre componenti chiave:
sistemi
di calcolo, dati e sistemi per la gestione dei dati, e algoritmi avanzati (il
“codice”).
La rapida evoluzione di queste componenti ha
reso evidente la necessità di un quadro etico e normativo per guidarne lo
sviluppo.
Internazionalizzazione
e fatture estere: come evitare errori (costosi)
Digitalizzazione
dei documenti.
Fatturazione
elettronica.
Leggi
l'informativa sulla privacy.
E-mail
aziendale.
La
necessità di un “codice” emerge dalla crescente consapevolezza che l’IA non è
un’innovazione neutra, ma una tecnologia che opera su scala e velocità senza
precedenti, ridefinendo il potere e le sue dinamiche.
A
differenza di altre discipline con limiti fisici, l’informatica e l’IA sono
immateriali e possono espandersi rapidamente, con il solo limite
dell’immaginazione.
Questa caratteristica ha sollevato profonde
domande su come il potere venga esercitato, da chi e in base a quale
investitura.
La
tecnologia rischia di marginalizzare il controllo democratico e sfidare le
nostre nozioni di diritti, libertà, lavoro e mercati.
Per
questo motivo, il “Codice del Futuro” si configura non solo come un insieme di
regole tecniche, ma come un’architettura sociale e politica volta a governare
questa nuova interfaccia tra istituzioni e individui, garantendo che
l’innovazione serva la prosperità umana, piuttosto che minacciarla.
Aziende
all’avanguardia come Bosch hanno riconosciuto questa esigenza prima ancora che
venissero introdotte normative vincolanti, stabilendo codici etici basati sui
valori sanciti dalla Dichiarazione Universale dei Diritti Umani.
Similmente,
l’Unione Europea, in un approccio olistico e sistemico, ha stabilito l’esigenza
di garantire “un elevato livello di protezione dei dati, diritti digitali e
norme etiche” nello sviluppo di queste pervasive e potenti tecnologie.
Il
concetto di “IA affidabile” (trustworthy ai) e i suoi pilastri fondamentali.
In
risposta alla complessità e ai rischi associati all’IA, il “Gruppo di Esperti
ad Alto Livello sull’IA dell’UE” ha elaborato un quadro per l'”IA affidabile”
(Trustworthy AI), basato su tre pilastri interconnessi:
la
liceità, l’eticità e la robustezza.
La
liceità richiede che i sistemi di IA ottemperino a tutte le disposizioni
legislative e regolamentari applicabili.
L’eticità
impone il rispetto dei principi e dei valori morali.
Infine,
la robustezza richiede che i sistemi siano sicuri e affidabili sia da un punto
di vista tecnico che sociale.
L’approccio riconosce che il semplice rispetto della
legge non è sufficiente a garantire un uso benefico dell’IA, in quanto il
diritto spesso non è al passo con gli sviluppi tecnologici e non è sempre
adeguato ad affrontare determinate questioni etiche.
Questa
interdipendenza tra i tre pilastri rivela che l’etica non è un semplice
complemento, ma un elemento essenziale che guida lo sviluppo prima che il
diritto possa codificarlo.
L’approccio del “Codice del Futuro” riconosce
che la mera conformità legale non garantisce un uso benefico dell’IA;
è
necessario un impegno etico costante e una robustezza tecnica per prevenire
danni non intenzionali.
La
logica è che un sistema di IA, anche se sviluppato con le migliori intenzioni,
può causare danni non voluti, e la robustezza serve a minimizzarli.
In questa prospettiva, l’IA non è un fine in
sé, ma un mezzo promettente per “aumentare la prosperità umana” e contribuire a
obiettivi di sviluppo sostenibile.
Panoramica
sui principali framework globali e principi aziendali.
Il
“Codice del Futuro” è un fenomeno di consenso internazionale, con principi che
convergono a livello globale, pur con implementazioni e approcci specifici.
Tra i
principali framework, si distinguono:
L’Unione
Europea:
il quadro etico, che ha fornito la base per l’EU AI Act, ha definito sette
requisiti fondamentali per un’IA affidabile (descritti in dettaglio più
avanti).
L’obiettivo
è bilanciare l’innovazione con la protezione dei diritti e dei valori
fondamentali.
L’UNESCO: la “Raccomandazione sull’Etica
dell’IA,” adottata da 193 Stati membri, promuove obiettivi come l’equità,
l’inclusione, la preservazione del ruolo umano, l’alfabetizzazione digitale e
la sostenibilità ambientale.
L’OECD: i principi dell’OECD promuovono
un’IA innovativa e affidabile, che rispetti i diritti umani e i valori
democratici. Essi pongono l’accento sulla crescita inclusiva, sulla
trasparenza, sulla robustezza e sulla responsabilità.
Le
aziende:
Le principali aziende tecnologiche hanno sviluppato i propri codici etici.
IBM si
concentra sul principio di “aumento dell’intelligenza umana” e sulla
trasparenza dei sistemi.
Microsoft
si basa su sei principi chiave: equità, affidabilità e sicurezza, privacy,
inclusività, trasparenza e responsabilità.
Bosch,
in modo simile, si impegna a garantire che “gli umani abbiano il controllo” su
ogni decisione presa dalla tecnologia.
Il
confronto tra questi framework e principi aziendali illustra una convergenza
globale su valori come trasparenza, equità, responsabilità e controllo umano.
Una
tabella offre una visione sinottica, evidenziando le aree di accordo e le
specificità di ogni approccio. Questo dimostra che il “Codice del Futuro” sta
emergendo come un insieme di standards globali e non come una serie di
regolamenti isolati indice che in ogni parte del mondo si riscontrano le stesse
criticità.
L’AI
Act: un approccio legale basato sul rischio.
L’EU
AI Act, il
primo quadro normativo completo al mondo per l’IA, adotta un approccio basato
sul rischio per la regolamentazione, applicando regole diverse a seconda del
potenziale pericolo che i sistemi rappresentano.
Questa
strategia non nasce nel vuoto, ma è una risposta diretta e retrospettiva a un
dibattito etico preesistente e ai fallimenti noti nell’applicazione dell’IA.
Il “Codice del Futuro” non è un’astrazione, ma
la cristallizzazione di lezioni apprese.
La
legge classifica i sistemi in quattro livelli di rischio:
Rischio
inaccettabile: tutti i sistemi di IA che costituiscono una chiara minaccia per la
sicurezza, i mezzi di sussistenza e i diritti delle persone sono vietati.
La
lista include pratiche come la manipolazione e l’inganno dannosi, il “social
scoring” e l’identificazione biometrica remota non mirata.
Il divieto di “social scoring”, ad esempio, è
una risposta diretta ai rischi distopici in cui l’IA può trattare le persone
come “oggetti da vagliare, catalogare, valutare per punteggio, aggregare,
condizionare o manipolare”.
Questo
dimostra che le specifiche del “Codice” sono la traduzione legale di un’analisi
etica dei rischi, guidata da un’esperienza di fallimento o da una sua
previsione.
Rischio
elevato: i
casi d’uso dell’IA che possono comportare gravi rischi per la salute, la
sicurezza o i diritti fondamentali sono classificati come ad alto rischio.
Rientrano in questa categoria sistemi
utilizzati in infrastrutture critiche, istruzione, sanità, occupazione, servizi
pubblici e privati essenziali, applicazione della legge e gestione della
giustizia.
Questi
sistemi sono soggetti a requisiti rigorosi, tra cui sistemi di valutazione e
mitigazione dei rischi, alta qualità dei dati, registrazione dell’attività e
adeguata sorveglianza umana.
L’EU AI Act enfatizza la supervisione umana e la
responsabilità dei soggetti coinvolti, assicurando che non ci sia un vuoto di
accountability quando un algoritmo prende decisioni.
Rischio
limitato:
questi sistemi hanno obblighi minimi di trasparenza. Ad esempio, un “chatbot”
deve informare gli utenti che stanno interagendo con un sistema di IA, a meno
che non sia già evidente dal contesto.
Rischio
minimo: la
maggior parte dei sistemi di IA rientra in questa categoria e non è soggetta a
regolamentazione specifica.
I
sette requisiti fondamentali dell’IA affidabile: le linee guida operative.
Gli
orientamenti per un’IA affidabile dell’UE traducono i principi etici in sette
requisiti fondamentali che i sistemi dovrebbero attuare e soddisfare durante il
loro intero ciclo di vita:
Azione
e supervisione umane: i sistemi di IA devono potenziare gli esseri umani,
consentendo loro di prendere decisioni informate e promuovendo i loro diritti
fondamentali.
Sono
necessari meccanismi di sorveglianza, che possono essere conseguiti attraverso
approcci come “human-in-the-loop”.
Aziende
come Bosch si impegnano a garantire che “gli umani abbiano il controllo” su
qualsiasi decisione presa dalla tecnologia.
Robustezza
tecnica e sicurezza: i sistemi devono essere resilienti e sicuri per prevenire
danni involontari. Devono essere accurati, affidabili e riproducibili, con
piani di regresso in caso di problemi.
Riservatezza
e governance dei dati: vanno garantiti il pieno rispetto della vita privata e la
protezione dei dati, oltre a meccanismi di governance che assicurino la qualità
e l’integrità dei dati stessi.
L’IA
opera attraverso i dati, e nella stragrande maggioranza dei casi, questi dati
sono personali.
Per
questo, il lavoro delle Autorità di protezione dei dati personali è essenziale
per governare adeguatamente l’IA.
Trasparenza: i sistemi devono essere
comprensibili. Vanno garantiti meccanismi di tracciabilità e la capacità di
spiegare le decisioni in modo chiaro agli interessati.
Diversità,
non discriminazione ed equità: occorre evitare distorsioni inique (“bias”) che possono
avere implicazioni negative, dall’emarginazione dei gruppi vulnerabili
all’inasprimento dei pregiudizi.
Promuovere
la diversità nei team di sviluppo aiuta a identificare e correggere i
pregiudizi prima che si manifestino nei sistemi.
Benessere
sociale e ambientale: i sistemi di IA dovrebbero andare a beneficio di tutti gli
esseri umani, comprese le generazioni future. Devono essere sostenibili e
rispettosi dell’ambiente, tenendo conto anche dell’impatto sociale.
L’IA può contribuire a superare sfide globali
come il cambiamento climatico e l’ottimizzazione dei risultati in campi come la
medicina e l’agricoltura.
Responsabilità
(Accountability): devono essere previsti meccanismi che garantiscano la responsabilità e
l’accountability dei sistemi e dei loro risultati. La verificabilità, che
consente la valutazione degli algoritmi e dei dati, è fondamentale, in
particolare nelle applicazioni critiche.
Le
intenzioni del codice: bias, equità e trasparenza nella pratica.
Il
“bias,” definito come un’inclinazione o un pregiudizio che porta a un
trattamento ingiusto, è una delle principali preoccupazioni etiche legate
all’IA.
Gli algoritmi, essendo sviluppati e addestrati
da esseri umani, incorporano inevitabilmente, anche in modo non intenzionale,
valori, priorità e limiti umani.
Due
sono i tipi principali di bias:
Bias
statistico:
deriva da dati non rappresentativi di un fenomeno. Ad esempio, un algoritmo per
la concessione di prestiti addestrato solo su dati di clienti che hanno
effettivamente ricevuto un prestito potrebbe escludere potenziali candidati
idonei ma non selezionati, creando una distorsione.
Bias
storico: deriva
da pregiudizi socialmente radicati e si traduce in differenze sistematiche tra
i gruppi, un fenomeno noto come unfairness algoritmica.
Un
esempio lampante è l’addestramento degli assistenti vocali con voci femminili,
che rispecchia i pregiudizi sociali per cui alle donne è richiesto di essere
obbedienti o di servire.
Questi
problemi non sono incidenti isolati, ma una caratteristica strutturale del
modello di sviluppo attuale.
Poiché
i modelli di grandi dimensioni sono addestrati su miliardi di parole e dati
disponibili online, essi riflettono inevitabilmente i pregiudizi della società.
La
mancanza di un “valore fondante” o di un “principio guida inviolabile” durante
l’addestramento rende il rischio di incoerenze etiche quasi inevitabile.
Ciò sposta il dibattito da un problema tecnico a un
problema di design e governance:
la soluzione non è solo correggere
l’algoritmo, ma intervenire a monte sulla qualità e rappresentatività dei dati,
e a valle con meccanismi di debiasing e di supervisione umana.
Casi
di studio di fallimenti etici: quando le intenzioni vengono meno.
La
teoria del rischio e i principi etici trovano la loro massima giustificazione
nei fallimenti che l’IA ha già prodotto nella pratica. Questi esempi concreti
dimostrano la pervasività e la gravità dei rischi etici in diversi settori e
sottolineano l’urgenza di un “Codice del Futuro” che sia etico che normativo.
Una
tabella illustra alcuni dei casi più emblematici.
3.3.
Dalla teoria alla pratica: trasparenza, spiegabilità e accountability.
La
trasparenza e la responsabilità (accountability) sono principi fondamentali per
l’implementazione pratica del “Codice del Futuro”.
La
trasparenza, intesa come la capacità di rendere visibile e comprensibile come e
perché un sistema di IA è stato sviluppato e come prende le sue decisioni, non
è solo un principio etico, ma anche un imperativo commerciale e sociale.
La ricerca suggerisce che la mancanza di
trasparenza può portare a un aumento dell’abbandono dei clienti e a una perdita
di fiducia.
Le
aziende che investono in un approccio etico, che include trasparenza e accountability, non solo riducono i rischi
legali, ma ottengono anche un vantaggio competitivo, attirando i migliori
talenti e rafforzando la reputazione.
L’etica diventa così un elemento distintivo in un
mercato sempre più affollato.
L’accountability
richiede la creazione di meccanismi chiari che garantiscano la responsabilità
per le decisioni e i risultati dei sistemi di IA. Le Autorità di Protezione dei
Dati, come il Garante italiano, stanno già giocando un ruolo cruciale, intervenendo
in casi specifici per garantire che le innovazioni rispettino i diritti
fondamentali.
Questa
pratica dimostra che la supervisione non è solo un principio astratto, ma
un’azione concreta e necessaria.
L’esistenza
di quadri normativi, come quelli elaborati dalla “Commissione Europea” e dal”
U.S. Government Accountability Office” (GAO), fornisce la base per una
governance dell’IA efficace e responsabile.
L’IA
come strumento di potenziamento umano: dalla sostituzione all’aumento.
Una
delle domande più pressanti nell’era dell’IA riguarda il suo impatto sul lavoro
e sulle competenze umane.
Il dibattito “L’IA sostituisce l’uomo?” è, tuttavia,
una semplificazione di una realtà molto più complessa.
La
posizione emersa da molte voci autorevoli nel settore, incluse quelle di
aziende leader, è chiara:
l’IA è una tecnologia potente ma non
onnipotente, e il suo scopo non è di sostituire l’uomo, ma di “aumentare
l’intelligenza umana“.
L’IA
eccelle nell’elaborazione di dati complessi e nell’automazione di compiti
ripetitivi.
Questo
permette agli esseri umani di spostare il loro valore verso attività che
richiedono competenze insostituibili, come il pensiero critico, la creatività,
l’intuizione, la leadership e l’empatia.
L’UNESCO, nella sua guida sull’IA, raccomanda
esplicitamente che l’IA non si sostituisca mai all’essere umano nei processi
decisionali, ma che funga da “ampliamento delle competenze pratiche e creative“.
Il futuro del lavoro, quindi, non sarà caratterizzato
da una sostituzione totale, ma da una “ibridazione” delle competenze, in cui
l’IA supporta le attività analitiche e gli umani guidano quelle strategiche e
relazionali.
Il
concetto di ‘Human-in-the-Loop’ (HITL): promessa e criticità.
Il
concetto di “Human-in-the-Loop” (HITL) rappresenta un approccio collaborativo
in cui l’intervento umano è integrato strategicamente nel ciclo di vita dei
sistemi di IA e machine learning.
L’HITL
migliora significativamente l’accuratezza e l’affidabilità dei modelli, in
quanto l’expertise umana è necessaria per le aree che richiedono giudizio,
comprensione contestuale e gestione delle informazioni incomplete.
La sua applicazione aiuta a identificare e
mitigare i bias, aumenta la trasparenza e la spiegabilità e, di conseguenza,
rafforza la fiducia degli utenti.
Le
normative, come l’EU AI Act, ne richiedono esplicitamente la supervisione per i sistemi
ad alto rischio, riconoscendone il ruolo essenziale nel prevenire danni a
salute, sicurezza e diritti fondamentali.
L’HITL
viene applicato in ambiti come l’etichettatura dei dati per la visione
artificiale (es. imaging medico e riconoscimento facciale), l’elaborazione del
linguaggio naturale (es. traduzione e sentiment analysis) e il riconoscimento
vocale.
Nonostante
i suoi benefici, il concetto di HITL presenta limiti e criticità. Una tesi avanzata da analisti come “Leigh
McMullen” di “Gartner” suggerisce che, su larga scala, il controllo umano
sull’IA possa diventare un’illusione.
I
limiti includono i costi e i potenziali errori umani, nonché il fenomeno per
cui gli esseri umani, quando supervisionano un sistema automatizzato, tendono a
“entrare in pilota automatico,” lasciando che gli errori passino inosservati.
Inoltre,
i “Large Language Models” (LLM) sono progettati per produrre “testo
plausibile,” non necessariamente corretto, rendendo difficile per l’operatore
umano individuare le inesattezze.
Il
dibattito si sposta così da una semplice questione di “se” a “come” l’uomo
interviene.
I modelli di Bosch che descrivono approcci
diversi (controllo, intervento, supervisione) e la visione di Gartner sui
“guardian agent” – modelli di IA progettati per controllare altri sistemi di IA
– mostrano che la supervisione umana diretta non è sempre scalabile o
sufficiente.
La ricerca suggerisce un’evoluzione in cui
l’uomo delega non solo i compiti, ma anche una parte della supervisione, pur
mantenendo un ruolo finale.
Il “Codice del Futuro” si adatta a questa realtà,
promuovendo un approccio dinamico che riconosce i limiti dell’uomo e della
macchina, e cerca di colmarli attraverso una collaborazione sempre più
sofisticata.
La
visione distopica: “dataismo” e perdita di controllo.
La
pervasività dell’IA alimenta visioni distopiche, che spesso trovano eco in
fallimenti etici e operativi.
Queste
prospettive ipotizzano scenari in cui l’uomo perde il controllo sulla
tecnologia, che opera in modo opaco e imprevedibile.
Il
concetto di “dataismo,” per esempio, descrive un futuro in cui l’efficienza
algoritmica prevale sui valori e sui diritti umani, trattando gli individui
come semplici insiemi di dati.
Questo
scenario è alimentato dalla mancanza di trasparenza dei sistemi “black box” e
dalla possibilità che l’IA venga utilizzata per il controllo di massa.
Preoccupazioni concrete includono la minaccia
della “singolarità tecnologica,” in cui la crescita tecnologica diventa
incontrollabile, e la possibilità di uno “stallo dell’economia” causato da
un’automazione che elimina il lavoro e porta a conseguenze imprevedibili.
Il
timore centrale è che l’IA, usata da esseri umani per controllare altri esseri
umani, possa portare a conseguenze moralmente inaccettabili.
La
visione utopica: estensione della natura umana.
Controbilanciando
il pessimismo distopico, le visioni utopiche vedono l’IA come un’opportunità
senza precedenti per potenziare la natura umana e risolvere sfide globali.
Questa
prospettiva considera l’IA non una minaccia, ma un’estensione delle nostre
capacità cognitive, sociali e culturali.
Le utopie virtuali, ad esempio, sono concepite
come comunità ideali in cui le persone scelgono le proprie regole, costruendo
mondi che riflettono i valori che desiderano.
L’IA
può aiutare a superare sfide come il cambiamento climatico, l’ottimizzazione
dei trasporti e il miglioramento della medicina, contribuendo a un’economia più
produttiva e sostenibile.
In questa visione, il “Codice del Futuro” è
l’insieme di strumenti, leggi e principi che l’uomo sta creando per orientare
l’IA verso il bene comune.
Il
dibattito filosofico: intelligenza, coscienza e libertà.
Al di
là delle visioni estreme, il dibattito si articola su questioni filosofiche
fondamentali che distinguono l’uomo dalla macchina.
La mente umana, a differenza di quella
artificiale, si caratterizza per l’intenzionalità e la coscienza di sé.
L’intelligenza umana si rivolge a qualcosa e,
nella coscienza, si rivolge a sé stessa, ponendosi domande su sé stessa, sulla
propria natura, sul mondo circostante, sull’origine e il funzionamento del
mondo.
L’IA,
al contrario, è un “prodotto assolutamente determinato,” un artefatto che, pur
migliorato/ottimizzato, non può mai essere ontologicamente libero.
La
sfida per l’uomo diventa quella di comprendere quando si ha a che fare con un
intelletto naturale o artificiale, un’operazione che diventa sempre più
difficile man mano che le macchine imparano a simulare l’empatia e i
sentimenti.
Il
dibattito non è tra una tecnologia “buona” e una “cattiva,” ma tra un uso
“eticamente consapevole” e uno “cieco.”
Il
futuro dell’Ai non è predeterminato, né si avvia verso una singolarità
inevitabile.
Le
conseguenze positive o negative dell’IA dipendono interamente dalla nostra
capacità di usare questa “volontà conoscitiva” con “giudizio” e
“consapevolezza”.
Il
“Codice del Futuro” emerge quindi come un processo di verifica e ratifica
continuo, che l’uomo sta creando per orientare l’IA verso un futuro che non sia
né un’illusione, né una prigione, ma il risultato delle nostre scelte.
Casi
di studio e applicazioni: l’interazione uomo-macchina in pratica.
Nel
campo della sanità, l’IA si sta dimostrando un ausilio prezioso, pur con il
ruolo insopprimibile del professionista umano.
Sanità
e medicina.
L’intelligenza
artificiale supporta la diagnostica analizzando immagini radiologiche,
dermatologiche e dati clinici complessi.
L’IA generativa, inoltre, può creare “dati sintetici”
per addestrare modelli, aggirando le rigorose leggi sulla privacy dei pazienti
come l’HIPAA e garantendo la condivisione di conoscenze cliniche in modo
sicuro.
Ad
esempio, un modello di IA può analizzare migliaia di casi sintetici di sepsi
per imparare a individuare i primi segni della malattia, anche in situazioni
rare.
Nonostante
le capacità analitiche, l’integrazione dell’IA in questo settore espone la
necessità di un’etica “di fatto” che non si limita alla teoria.
Il
giudizio finale e la responsabilità per la diagnosi e il trattamento rimangono
del medico, che utilizza l’IA come uno strumento per potenziare le proprie
capacità.
Giustizia
e Diritto.
Nel
settore giudiziario, l’IA è utilizzata per analizzare casi e fornire
assistenza, ma il suo impiego solleva questioni delicate sui diritti
fondamentali.
La
“Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi
giudiziari” sottolinea l’importanza di un “giudice naturale” e la necessità di
un equilibrio tra la proprietà intellettuale di alcune metodologie di
trattamento e l’esigenza di trasparenza e imparzialità.
Il
rischio di bias è particolarmente elevato, come dimostrato dall’uso
dell’algoritmo COMPAS negli Stati Uniti, che ha sollevato dubbi sull’equità
delle valutazioni del rischio di recidiva.
L’integrazione
dell’IA in ambiti così critici non è una questione teorica; è un’applicazione
pratica che richiede una supervisione e un’azione concrete da parte delle
autorità di controllo.
Il
caso di “Deliveroo Italia”, multata per l’uso di un algoritmo discriminatorio,
dimostra che la mera esistenza di un principio di non discriminazione non è
sufficiente; l
’applicazione
del “Codice” richiede un’azione attiva da parte delle autorità di controllo e
dei garanti della privacy.
Lavoro
e media.
Nel
lavoro e nei media, l’IA ha dimostrato di non essere un sostituto infallibile
dell’uomo, ma uno strumento imperfetto. Mentre alcuni editori esplorano l’idea
di far scrivere articoli alle intelligenze artificiali, esperimenti hanno
rivelato che gli esseri umani devono correggere la metà dei pezzi prodotti
automaticamente, a causa di errori significativi.
Allo
stesso tempo, l’automazione attraverso l’IA può portare a una “riduzione o
degrado dei salari” per i lavoratori che si specializzano in compiti di
routine.
Tuttavia,
l’IA può anche potenziare i lavoratori automatizzando questi compiti e
permettendo loro di concentrarsi su attività più creative e strategiche.
Il
futuro in questo settore risiede nella “collaborazione uomo-macchina“, dove
l’uomo rimane al timone delle attività strategiche e relazionali.
Criticità
e sfide future: governance, educazione e consapevolezza.
Nonostante
la crescente adozione di principi etici e quadri normativi, una delle
principali sfide del “Codice del Futuro” è il costante gap tra la rapidità
esponenziale dell’innovazione tecnologica e la lentezza dei processi legali e
normativi.
La
governance dell’IA è definita come “un percorso per gestire i sistemi di IA in
modo responsabile”, ma le autorità competenti, come quelle di protezione dei
dati, si trovano a intervenire in un ambiente in rapida evoluzione, con un
mandato che deve costantemente evolvere per far fronte a nuove sfide.
Le
azioni retroattive dei garanti della privacy, sebbene cruciali, non possono da
sole anticipare tutti i rischi emergenti.
Questo
richiede un approccio agile che permetta di adattare le normative in tempo
reale.
L’importanza
dell’alfabetizzazione digitale ed etica.
Poiché
la responsabilità per l’etica dell’IA ricade su “tutti coloro che hanno a che
fare con l’intelligenza artificiale, dalle imprese ai governi, dai consumatori
ai cittadini”, l’alfabetizzazione digitale ed etica diventa un elemento
cruciale.
L’UNESCO
sottolinea la necessità di implementare programmi di formazione per i docenti e
di promuovere l’alfabetizzazione tecnica a livello globale.
La
formazione è fondamentale affinché i dipendenti e gli utenti possano
comprendere e lavorare in modo responsabile con le tecnologie di IA,
rafforzando l’integrità e l’efficacia delle soluzioni adottate.
La consapevolezza dei limiti e dei bias intrinseci
dell’IA è il primo passo per un’adozione critica e responsabile.
Conclusioni
e raccomandazioni.
Il
“Codice del Futuro” non è un’utopia predefinita o una distopia inevitabile, ma
un’opera collettiva in continua costruzione.
Si
basa su un dialogo costante tra le specificazioni normative (che mappano i
rischi e li affrontano con regole concrete), le intenzioni etiche (che guidano
lo sviluppo verso risultati benefici) e il ruolo insopprimibile dell’uomo (che
fornisce il giudizio finale e la coscienza morale).
La tesi sviluppata in queste poche righe è che
il futuro dell’Ai non è già scritto, ma è il risultato delle nostre scelte.
Dall’analisi
emergono tre raccomandazioni chiave:
Per i
regolatori:
mantenere e potenziare un approccio di governance agile e basato sul rischio.
Le normative devono essere flessibili e
adattabili per non soccombere alla velocità dell’innovazione.
È essenziale promuovere un quadro di
governance globale e collaborativo, che allinei gli standard a livello
internazionale per evitare frammentazioni normative.
Per le
aziende:
integrare i principi etici non come un mero esercizio di conformità, ma come un
vantaggio competitivo.
L’investimento
in trasparenza, accountability e formazione del personale è fondamentale.
La
creazione di comitati direttivi multidisciplinari per l’etica dell’IA può
garantire che le considerazioni etiche siano integrate in ogni fase dello
sviluppo, dal design alla distribuzione.
Per
gli utenti:
promuovere attivamente la consapevolezza e l’alfabetizzazione digitale ed
etica.
Gli
individui devono essere resi consapevoli che l’IA è uno strumento potente ma
imperfetto e che la verifica umana rimane un passo fondamentale in ogni
processo decisionale critico.
È solo
attraverso un’adozione consapevole e critica che si può garantire che l’IA
rimanga al servizio dell’umanità e non viceversa.
I
responsabili commerciali dell’UE e
della
Cina cercheranno “soluzioni
urgenti”
alle restrizioni sulle terre rare.
Euractiv.it
- Thomas Moller-Nielsen – (22-10 -2025) - ci dice:
Il
commissario europeo al Commercio, “Maroš Šefčovič,” interviene nella conferenza
insieme al commissario all'Economia, “Valdis Dombrovskis” (non presente nella
foto) nella conferenza stampa dedicata al programma di lavoro della Commissione
per il 2026 e alla relazione 2025 sulla semplificazione, all'attuazione e
l'applicazione delle norme dell'UE.
Strasburgo,
Francia, 22 ottobre 2025. [EC - Audiovisual Service/Valentine Zeler/European Union, 2025]
Il
ministro del Commercio cinese si recherà a Bruxelles “nei prossimi giorni” per
discutere delle severe restrizioni all’esportazione di terre rare imposte da
Pechino, ha dichiarato martedì il commissario europeo al Commercio, “Maroš
Šefčovič”.
Parlando
in conferenza stampa a Strasburgo, “Šefčovič” ha dichiarato ai giornalisti che
la sua controparte cinese, “Wang Wentao”, ha accettato il suo invito dopo una videochiamata “costruttiva” di
due ore sui controlli di Pechino, che hanno allarmato i responsabili politici e
le imprese dell’UE.
La
Cina detiene circa il 70% dell’estrazione mondiale di terre rare e il 90% della
loro lavorazione.
Questo conferisce a Pechino un controllo
efficace sulla fornitura mondiale di questi metalli, utilizzati per produrre
un’ampia gamma di tecnologie avanzate, tra cui veicoli elettrici e aerei da
combattimento.
Il
brusco risveglio dell'Europa sulle terre rare.
Gli
europei non avevano bisogno di ulteriori promemoria della posizione pericolosa
in cui si trovano, tra l’intensificarsi della rivalità tra le superpotenze
America e Cina.
Ma la
settimana scorsa ne hanno ricevuto uno comunque. La decisione della Cina di
imporre …
“Ho
invitato le autorità cinesi a recarsi a Bruxelles nei prossimi giorni per
trovare soluzioni urgenti”, ha affermato “Šefčovič”, aggiungendo che “Wang” ha
accettato di visitare il Paese.
“Credo
che, dopo la conversazione di questa mattina, non abbiamo alcun interesse a
un’escalation”, ha affermato il commissario veterano. “Tuttavia, questa situazione getta
un’ombra sui nostri rapporti. Pertanto, una rapida risoluzione è essenziale”.
L’incontro
si svolgerà sotto gli auspici del “meccanismo di potenziamento della catena di
approvvigionamento” concordato durante il “vertice UE-Cina tenutosi a Pechino a
luglio” per affrontare i critici “colli di bottiglia” dei minerali, ha
affermato “Šefčovič.
“Abbiamo
concordato di intensificare i contatti a tutti i livelli”, ha aggiunto.
L'UE
non esiterà a rispondere alle nuove mosse di Pechino su terre rare e minerali
critici, afferma “Šefčovič”.
La
nuova escalation tra Stati Uniti e Cina sulle terre rare sta preoccupando i
leader e le aziende europee a causa delle ripercussioni sugli
approvvigionamenti strategici.
Parlando
ai giornalisti prima della riunione dei ministri del Commercio europei a
Horsens, in …
La
posizione di Pechino.
In una
nota del ministero del Commercio cinese relativa alla chiamata di martedì si affermava
anche che entrambe le parti avevano concordato di incontrarsi a Bruxelles “il
prima possibile” per discutere le misure di Pechino, ma non si specificava che
Wang avrebbe partecipato in modo specifico.
Annunciate
all’inizio di questo mese, le misure adottate dalla Cina vanno ben oltre le
drastiche restrizioni introdotte ad aprile di quest’anno, che avevano già
costretto alcune industrie europee a chiudere la produzione.
Con il
nuovo regime di esportazione, i prodotti contenenti anche solo tracce di terre
rare cinesi richiederanno licenze speciali da Pechino prima di poter essere
esportati.
L’uso
di questi metalli per le tecnologie militari, nel frattempo, sarà “in linea di
principio” vietato.
Nel
comunicato cinese, Pechino ha affermato che le nuove restrizioni “sono un
normale passo avanti nel miglioramento del suo sistema di controllo delle
esportazioni in conformità con le leggi e i regolamenti” e dimostrano “la responsabilità della
Cina come paese importante nel mantenimento della pace e della stabilità nel
mondo”.
Il
comunicato menzionava anche la ferma opposizione di Pechino al recente
sequestro da parte del governo olandese del produttore di chip per auto”
Nexperia” alla sua società madre cinese, “Wingtech Technologies”.
La
mossa, che secondo quanto rivelano gli atti del tribunale, è avvenuta dopo
forti pressioni da parte delle autorità statunitensi, ha fatto infuriare
Pechino e ha spinto la filiale cinese dell’azienda, “”Nexperia China, a dire al
proprio personale di ignorare gli ordini provenienti dalla sede centrale
olandese.
In una
dichiarazione della scorsa settimana, “Nexperia” ha affermato che Pechino le ha
vietato l’esportazione di prodotti finiti e sottocomponenti dalla Cina, dove
viene assemblata la maggior parte dei suoi chip.
Ha inoltre informato i suoi clienti che
potrebbe non essere in grado di evadere gli ordini.
La
disputa su “Nexperia”, che fornisce chip a importanti case automobilistiche
come “BMW” e “Mercedes-Benz”, ha aggravato ulteriormente le difficoltà
dell’industria automobilistica europea, che sta già lottando per far fronte
alle ingenti tariffe di Trump e alla forte concorrenza dei produttori cinesi di
veicoli elettrici.
Ha
inoltre ulteriormente esacerbato le tensioni tra Bruxelles e Pechino, da tempo
tese a causa del crescente surplus commerciale della Cina e dei suoi crescenti
legami politici ed economici con la Russia.
Šefčovič,
tuttavia, ha dichiarato martedì di essere stato “in frequente contatto” con le
autorità olandesi e cinesi in merito alla controversia su Nexperia e di essere
“rassicurato dall’intenzione espressa da entrambe le parti di allentare la
tensione”.
“Penso
che tutti noi… siamo pienamente consapevoli che il tempo è essenziale”, ha
detto il commissario UE.
Cina-UE,
cinquant’anni di partenariato
che
ora richiedono una svolta definitiva.
Scenari
– Internazionali.com – (6 Maggio 2025) – Andrea Fais – ci dice:
Cinquant’anni
fa, la Comunità Economica Europea e la Repubblica Popolare Cinese davano il via
ufficialmente alle loro relazioni diplomatiche. In questo lungo periodo molte
cose sono cambiate, sia all’interno dei due grandi mercati che nel resto del
mondo.
L’anniversario
cade in un momento cruciale in una fase più generale di ricomposizione degli
equilibri internazionali, accelerata dalle decisioni di Donald Trump.
Pur continuando a trattare con Washington,
Bruxelles deve nuovamente riorientare la sua strategia globale per cercare di
non restare schiacciata tra i dazi statunitensi e il conflitto russo-ucraino.
La
Cina, che è già il secondo partner commerciale dell’UE, è una delle possibili
alternative per uscire dalla morsa, ma senza una prospettiva paritaria e di
lungo periodo tutto rischia di essere vano.
A questo riguardo, il direttore responsabile “Andrea
Fais” è intervenuto sulle “colonne” di “China Radio International” (CGTN) per
la rubrica “Opinioni”.
Proponiamo
qui di seguito la versione integrale dell’articolo.
(Andrea Fais -Direttore responsabile di Scenari
Internazionali).
Il 6
maggio 1975, Europa e Cina stabilirono ufficialmente le loro relazioni
diplomatiche.
Quel
giorno fu raggiunta la prima storica intesa a riguardo tra l’allora ministro
degli Esteri cinese “Qiao Guanhua “e l’allora commissario per le Relazioni
Esterne, il britannico “Christopher Soames”, aprendo la strada alla visita di “Roy
Jenkins” a Pechino, avvenuta quattro anni più tardi, la prima di un presidente della
Commissione Europea nel Paese asiatico.
A
mezzo secolo esatto di distanza, quasi tutto è cambiato.
La
Comunità Economica Europea (CEE), che allora racchiudeva 9 Paesi (Belgio,
Francia, Germania, Italia, Lussemburgo, Paesi Bassi, Danimarca, Irlanda e Regno
Unito), dopo essersi trasformata nell’Unione Europea in base al Trattato di
Maastricht, allargando e rafforzando il processo di integrazione, conta oggi 27
Stati membri.
La Repubblica
Popolare, a quel tempo impoverita ed arretrata, è ora diventata, dopo aver
imboccato la strada delle riforme e dell’apertura indicata da Deng Xiaoping, la
seconda economia mondiale, la prima potenza commerciale del pianeta e il
secondo mercato di consumo su scala globale.
Tra
crisi di vario genere e notevoli squilibri interni, negli ultimi quindici anni
Bruxelles si è trovata a dover affrontare una serie di problemi di portata
storica, che ne hanno più volte messo in discussione la tenuta. Dal debito sovrano, con l’eclatante e
drammatico caso greco, ai nuovi massicci flussi migratori, dal referendum sulla
Brexit alla guerra in Ucraina, l’Unione Europea è ormai da tempo entrata in una
fase di profonda incertezza.
Un’incertezza
che è aumentata esponenzialmente da quando alla Casa Bianca è tornato Donald
Trump, intenzionato a regolare i conti con Bruxelles su una serie di dossier, a
partire dalle relazioni commerciali e dalle spese militari.
Secondo
le statistiche della Dogana cinese, nel 2024 il volume totale degli scambi
commerciali di beni tra la Cina e l’Unione Europea ha raggiunto 785,8 miliardi
di dollari USA, registrando un aumento annuo dello 0,4%.
Nello
specifico, le esportazioni cinesi verso l’UE sono state pari a 516,4 miliardi
di dollari (+3,0% su base annua), mentre le importazioni dall’UE hanno
totalizzato 269,4 miliardi di dollari, con una diminuzione del 4,4% rispetto
all’anno precedente.
L’Unione
Europea si conferma come il terzo maggiore destinatario delle esportazioni
cinesi e la seconda fonte di importazioni per la Cina.
Parallelamente,
secondo i dati statistici europei, la Cina mantiene la posizione di principale
fonte di importazioni per l’UE e terzo mercato di destinazione delle
esportazioni europee.
Fra le
categorie di prodotti cinesi acquistati dall’UE sono tre, e tutte tecnologiche,
quelle più significative al punto da coprire quasi il 40% del totale:
macchinari
elettrici, elettrodomestici e componenti elettrici; apparecchiature per
telecomunicazioni e audio; macchine per ufficio e macchine per elaborazione
dati.
Al
momento, dunque, non sembrano affatto funzionare le politiche di de-risking
adottate più di due anni fa dalla Commissione UE, a seguito dell’introduzione
del “Critical Raw Materials Act”, con lo scopo di diversificare le catene di
approvvigionamento e ridurre la dipendenza dalla Cina nelle produzioni ritenute
strategiche per la transizione digitale ed ecologica dell’Europa.
Del resto, già da tempo, il gigante asiatico
si è messo alla testa di questi processi trasformativi, acquisendo una
posizione di leadership nelle industrie emergenti.
L’inasprimento della guerra commerciale voluto da
Trump, inoltre, sta ulteriormente ridefinendo la geografia economica del
pianeta.
Con il
ritorno ad un forte protezionismo da parte degli Stati Uniti, infatti, il
baricentro della globalizzazione si sposterà sempre più verso l’Asia,
accelerando una tendenza evidente da almeno un decennio.
Lo
scorso 15 novembre, secondo i dati di “China State Railway Group”, il servizio
ferroviario di trasporto merci “China-Europe Railway Express” (CRE) ha superato
i 100.000 viaggi totali dal suo lancio ufficiale nel 2011, trasportando
complessivamente beni per più di 11 milioni di TEU ed oltre 420 miliardi di
dollari.
Nel
corso degli anni, la rete si è estesa a macchia d’olio, raggiungendo 227 città
in 25 Paesi europei e collegando più di 100 città in 11 Paesi asiatici.
Tutto
ciò dimostra che la “Nuova Via della Seta” tra Europa e Cina non è un miraggio
o una fantasia geopolitica, ma una realtà già consolidata.
Sullo
sfondo restano diverse incognite, tra cui il destino dell’”Accordo Globale
sugli Investimenti” (CAI), congelato da Bruxelles nel 2021, e il significativo
aumento dei dazi imposti dall’UE sui veicoli elettrici di produzione cinese,
sino ad un massimo del 48,1%.
Per
uscire dall’impasse, Bruxelles dovrà cominciare seriamente a cambiare rotta.
Prima
di tutto sarà necessario abbandonare l’eurocentrismo che, strumentalizzando le
questioni relative ai diritti umani e civili, ancora attanaglia la visione
internazionale delle principali cancellerie del Vecchio Continente: una
distorsione mai del tutto scomparsa, nemmeno dopo le tragedie delle due guerre
mondiali e la fine del colonialismo.
In
secondo luogo, l’UE dovrà ricollocarsi in modo paritario nel nuovo ordine
multipolare facendo leva sulla migliore tradizione diplomatica del secondo
Novecento, sull’elevato know-how scientifico-tecnologico, su una classe media
che comprende mediamente il 64% della popolazione [contro il 51% degli Stati
Uniti – Pew Research Center] e sulla posizione privilegiata nel Mediterraneo,
una regione che negli ultimi anni sta godendo di una rinnovata centralità in
materia di commercio, energia, infrastrutture e sicurezza rispetto ad un
Baltico sempre più esposto al rischio di ulteriori escalation militari.
Senza
rinunciare a tutelare gli interessi dei Paesi membri, ma anzi rafforzandone la
competitività sui mercati oggi più aperti e avanzati, l’UE può cogliere
l’opportunità di abbandonare definitivamente un’obsoleta concezione rigidamente
atlantista della sua politica estera e volgere seriamente lo sguardo all’Asia.
Tutto
ciò, però, dovrà essere frutto di una scelta consapevole, strutturata e
strategica, non banalmente dettata dall’istintiva ed affrettata ricerca di una
sponda temporanea, in attesa che a Washington cambino le cose.
Ue-Cina:
un rapporto al punto
di
svolta. Ecco tutti i temi caldi.
Agendadigitale.eu
– (25 luglio 2025) – Gabriele Luvinale – Nicola Luvinale – ci dicono:
Il
vertice Ue-Cina del 24 luglio ha segnato un “chiaro punto di svolta” nelle
relazioni.
L’Europa
soffre di un deficit commerciale record e crescente dipendenza da Pechino in
settori chiave come le terre rare.
Ci sono stati momenti di avvicinamento, ma
anche nuove tensioni e scontri, con azioni conflittuali reciproche. Facciamo il
punto su un…
Il
vertice Ue-Cina del 24 luglio ha segnato un “chiaro punto di svolta” nelle
relazioni, dominate da un deficit commerciale record per l’Ue e la crescente
dipendenza da Pechino in settori chiave come le terre rare.
Li
Qiang "Cina ed Europa collaborino di più."
Indice
degli argomenti.
Le
tensioni Usa-Cina al summit.
I
rapporti Ue-Cina: lo status.
Un
summit Ue-Cina ridimensionato e carico di attese basse: l’Ue sotto pressione e
la “Liminal Warfare” cinese
Passi
concreti di riavvicinamento.
Scontri
recenti Ue-Cina.
Le
richieste della Cina.
Le
richieste dell’UE.
La
morsa dei dazi Usa sull’UE
La
dipendenza dell’Ue dalla Cina.
La
recente guerra commerciale tra Ue e Cina: azioni, contromisure e la coercizione
economica.
Le
azioni concrete dello scontro Ue-Cina.
Le
questioni geopolitiche: Ucraina, cyber-attacchi e la Fusione Civile-Militare
cinese.
La
risposta strategica dell’Ue: “De-risking” e rafforzamento della sicurezza
economica.
Le
tensioni Usa-Cina al summit.
Nonostante
i tentativi di dialogo e una dichiarazione sul clima, le tensioni si sono
acuite a causa della sovracapacità cinese, delle dispute commerciali (dazi Ev,
terre rare, appalti) e delle sanzioni Ue a banche cinesi per il sostegno a
Mosca, spingendo Bruxelles verso una strategia di “de-risking” contro la
pervasiva “Liminal Warfare” cinese.
Il
summit ha rivelato un’Ue sotto pressione, costretta a riequilibrare i rapporti
in un contesto geopolitico sempre più teso e asimmetrico.
Direttiva
UE- CSDDD:
come il
nuovo quadro normativo impatterà sulla catena di valore della tua azienda.
Il
vertice tra l’Unione Europea e la Cina, tenutosi il 24 luglio a Pechino per
celebrare 50 anni di legami diplomatici, ha cristallizzato una relazione al
“chiaro punto di svolta”, dominato da acute tensioni commerciali e profonde
divergenze sulla guerra in Ucraina.
I
rapporti Ue-Cina: lo status.
Negli
ultimi anni, i rapporti Ue-Cina si sono progressivamente raffreddati a causa di
un irrigidimento dei governi europei nei confronti di varie controversie, tra
cui questioni relative ai diritti umani, la disparità di accesso al mercato e
la percezione della crescente influenza cinese in Europa.
La
coercizione economica non militare, ovvero l’uso di mezzi economici per
raggiungere obiettivi politici, è diventata un problema sempre più serio per
l’Ue, che ne è il maggiore destinatario globale.
Questo
deterioramento ha impedito la sottoscrizione dell”’Accordo Globale Ue-Cina
sugli Investimenti” (Cai), nonostante la conclusione dei negoziati già nel
dicembre 2020.
Per la Commissione Europea, la relazione
economica con Pechino è “criticamente sbilanciata” a causa di “una
significativa asimmetria nelle rispettive aperture di mercato”, con il modello
economico cinese che ha generato “distorsioni sistemiche” e una spinta
preoccupante verso la sostituzione delle importazioni e l’autosufficienza.
Con un
deficit commerciale europeo schizzato a 305,8 miliardi di euro lo scorso anno e
una crescente dipendenza dalle forniture cinesi in settori critici come le
terre rare e il 5G, l’Ue ha impellentemente chiesto a Pechino un urgente
riequilibrio dei rapporti.
La
presidente della Commissione Europea Ursula von der Leyen ha sottolineato che i
legami della Cina con la Russia sono il “fattore determinante” per il futuro
della relazione Ue-Cina, spingendo per un maggiore impegno cinese per la pace
in Ucraina.
Dal
canto suo, il presidente Xi Jinping ha esortato l’Europa a fare “scelte
strategiche corrette” e a rafforzare fiducia e comunicazione, insistendo
sull’apertura dei mercati e negando che le sfide europee provengano dalla Cina.
Il
summit, drasticamente ridotto a un solo giorno su richiesta di Pechino, ha
confermato le basse aspettative e ha rivelato un’Ue stretta nella morsa della
competizione geopolitica.
Sebbene sia stata raggiunta una dichiarazione
congiunta sul clima, i nodi cruciali – dalla sovracapacità industriale cinese e
i dazi sui veicoli elettrici con relative ritorsioni, alle sanzioni sulle
banche cinesi per il loro presunto supporto a Mosca, e alle pervasive
implicazioni della “Liminal Warfare” cinese (una strategia definita da alcuni
analisti che include spionaggio, cyber-attacchi e infiltrazioni nelle
infrastrutture critiche) – sono rimasti ampiamente irrisolti.
Questo
scenario spinge l’Ue verso una strategia inevitabile di “de-risking” e un
rafforzamento della propria autonomia strategica in un panorama globale sempre
più frammentato e asimmetrico.
Un
summit Ue-Cina ridimensionato e carico di attese basse: l’Ue sotto pressione e
la “Liminal Warfare” cinese.
L’incontro,
inizialmente previsto come evento di due giorni a Bruxelles e poi ridotto a una
singola giornata a Pechino su richiesta cinese, ha fin da subito segnalato la
complessità e la tensione del rapporto. Nonostante il cinquantenario delle
relazioni diplomatiche, l’atmosfera era lontana da un clima di celebrazione,
riflettendo settimane di crescenti attriti e aspettative volutamente basse da
parte europea.
Già
l’8 luglio, in un esempio della retorica aggressiva che ha preceduto il summit,
von der Leyen aveva accusato la Cina di inondare i mercati globali a causa
della sua sovracapacità e di “favorire l’economia di guerra della Russia”.
Tuttavia,
nel suo post su X il giorno del vertice, la stessa von der Leyen ha adottato un
tono più conciliatorio, affermando che l’incontro offriva l’opportunità di “far
progredire e riequilibrare la nostra relazione”.
Per un
momento, il terremoto portato da Donald Trump nelle relazioni transatlantiche
aveva fatto sperare in un graduale riavvicinamento tra Bruxelles e Pechino.
Passi
concreti di riavvicinamento.
Ci
sono stati passi concreti in questa direzione:
il Parlamento europeo ha revocato le restrizioni
interne agli incontri con funzionari cinesi, mentre la Cina ha revocato le
sanzioni contro i deputati europei.
Tutto
ciò è avvenuto sullo sfondo di un rinnovato dialogo diplomatico, dall’incontro
tra “Wang Yi” e l’”Alto Rappresentante dell’Ue “Kaja Kallas “a febbraio, fino
alla telefonata tra la presidente della Commissione Ursula von der Leyen e il
premier cinese Li Qiang per coordinarsi in seguito al “Liberation Day” di
Trump.
Eppure,
durante la sua recente partecipazione al vertice del G7 a Kananaskis, in
Canada, von der Leyen è tornata in modo chiaro ed esplicito sulla linea dura
contro Pechino.
Scontri
recenti Ue-Cina.
Ha
messo in guardia da un “nuovo shock cinese” e accusato la Cina di perpetuare un
“modello di dominio, dipendenza e ricatto”.
La
presidente della Commissione ha anche detto che «mentre altri aprivano i loro
mercati, la Cina si è concentrata sull’indebolimento della protezione della
proprietà intellettuale e su massicce sovvenzioni con l’obiettivo di dominare
la manifattura e le catene di approvvigionamento globali».
Pechino
ha risposto prontamente all’affondo di von der Leyen con “Guo Jiakun”,
portavoce del Ministero degli Esteri cinese, che ha definito le sue
affermazioni “infondate” e “di parte”, pur ribadendo, in perfetto stile cinese,
la volontà di raggiungere uno scenario “win-win”.
La
decisione di “Xi” di rifiutare un invito a Bruxelles all’inizio dell’anno e di
presentarsi a Mosca a maggio per la parata della vittoria russa aveva già
rappresentato un inizio deludente, alimentando la percezione che le aspettative
fossero minime.
“
Engin Eroglu”, presidente della delegazione del Parlamento europeo per la Cina,
ha commentato che la fiducia, già fragile, ha raggiunto nuovi minimi: “In
questo clima di sfiducia strategica, l’umore è chiaramente teso, se non
gelido“.
Le
richieste della Cina.
Il
presidente cinese” Xi Jinping,” aprendo il 25° vertice Ue-Cina presso la Grande
Sala del Popolo di Pechino, ha invitato l’Unione Europea a fare “scelte
strategiche corrette” e ha esortato i leader dell’Ue a migliorare “fiducia e
comunicazione” durante un periodo di instabilità globale.
Accanto
al premier Li Qiang, “Xi” ha incontrato la presidente della Commissione europea
Ursula von der Leyen e il presidente del Consiglio europeo “Antonio Costa”,
sottolineando che i leader di entrambe le parti devono soddisfare le
aspettative dei rispettivi popoli.
Xi ha
anche auspicato una “fiducia reciproca” con i paesi dell’Ue, affermando che
“per aumentare la competitività non bisogna costruire muri o barriere, perché
separare e interrompere le catene di approvvigionamento porterà solo
all’autoisolamento”.
Inoltre,
Xi ha sperato che “la parte europea mantenga aperto il mercato commerciale e
degli investimenti e si astenga dall’utilizzare strumenti economici e
commerciali restrittivi”, in un discorso che alcuni analisti ritengono fosse
più rivolto al suo pubblico interno.
Le
richieste dell’UE.
Dal
canto suo, von der Leyen ha descritto il vertice come un momento per
“promuovere e riequilibrare le nostre relazioni”. Ha affermato di essere
“convinta che possa esserci una cooperazione reciprocamente vantaggiosa… Una
cooperazione che può definire i prossimi 50 anni delle nostre relazioni”.
Tuttavia, ha anche dichiarato: “Abbiamo espresso le nostre preoccupazioni in
modo molto franco e aperto… sulle questioni commerciali, di investimento e
geopolitiche… Abbiamo parzialmente identificato soluzioni”. Von der Leyen e
Costa hanno chiesto a entrambe le parti di trovare “soluzioni concrete”,
sottolineando che “è fondamentale che la Cina e l’Europa riconoscano le nostre
rispettive preoccupazioni”. È importante notare che le aspettative di una
“grande intesa” economica erano basse già prima del vertice, con von der Leyen
che non si aspettava un “grand bargain” economico.
Questa
situazione di vertice ridimensionato e di basse aspettative ha trovato l’Ue
stretta in una morsa complessa.
La
morsa dei dazi Usa sull’UE.
Da un
lato, il blocco sta affrontando pressioni simili a quelle della Cina, non
ultime le tariffe imposte sulle proprie esportazioni verso gli Stati Uniti. Cui
Hongjian, professore di politica estera presso la Beijing Foreign Studies
University, ha notato come, sebbene all’inizio del secondo mandato del
presidente statunitense Donald Trump vi fosse maggiore consenso sulla necessità
di collaborare per affrontare le sfide commerciali dagli Stati Uniti,
“recentemente la situazione è cambiata” e “l’Ue ha continuato a scendere a
compromessi con gli Stati Uniti”.
In
questo scenario, i paesi membri dell’Unione Europea hanno votato per approvare
tariffe contrarie su 93 miliardi di euro (109 miliardi di dollari) di merci
statunitensi, che potrebbero essere imposte qualora il blocco non riuscisse a
raggiungere un accordo commerciale con Washington.
La
Commissione Europea ha dichiarato che il suo obiettivo principale è raggiungere
un risultato negoziato con Washington per evitare i dazi statunitensi del 30%
che il presidente degli Stati Uniti Donald Trump ha affermato che applicherà il
1° agosto. Tuttavia, la Commissione proseguirà parallelamente con i piani per
possibili contromisure, unendo due pacchetti di tariffe proposte da 21 miliardi
di euro e 72 miliardi di euro in un unico elenco, sottoponendolo ai membri
dell’Ue per l’approvazione.
Nessuna
contromisura entrerà in vigore prima del 7 agosto, anche se l’Ue si è finora
astenuta dall’imporle, nonostante i ripetuti annunci di Trump. Secondo i
diplomatici dell’Ue, l’Unione e gli Stati Uniti sembrano avviati verso un
possibile accordo commerciale, che potrebbe includere un’ampia tariffa di base
statunitense del 15% sui prodotti Ue importati negli Stati Uniti, in linea con
un accordo quadro stipulato da Washington con il Giappone.
Questa
aliquota del 15% potrebbe applicarsi a settori come quello automobilistico e
farmaceutico e non si aggiungerebbe ai dazi statunitensi di lunga data (in
media poco meno del 5%). Potrebbero esserci anche concessioni per settori come
quello aeronautico, del legname e alcuni prodotti agricoli e medicinali, che
non sarebbero soggetti a dazi, sebbene Washington non sembri intenzionata ad
abbassare i dazi del 50% sull’acciaio.
La
dipendenza dell’Ue dalla Cina.
Questo
scenario rende l’Europa un bersaglio nella guerra commerciale Usa-Cina.
Dall’altro, l’Unione è sempre più cosciente delle proprie vulnerabilità e
dipendenze strategiche dalla Cina, che limitano drasticamente la sua capacità
di attivare leve geoeconomiche efficaci.
La
Cina sta conducendo da anni una “Liminal Warfare“, una guerra incrementale dove
il campo di battaglia è ovunque e la guerra è totale, includendo operazioni
economiche, diplomatiche, legali, militari, di intelligence e cyber.
Questa
guerra è “liminale” perché viene condotta al limite dell’osservabilità, senza
superare la soglia di rilevabilità occidentale. Il pericolo, sia esterno che
interno, ha penetrato e innervato il nucleo stesso degli apparati politici,
economici e culturali europei.
La
recente guerra commerciale tra Ue e Cina: azioni, contromisure e la coercizione
economica.
Le
relazioni tra Ue e Cina sono state segnate negli ultimi anni da un numero
crescente di controversie, soprattutto commerciali. Le tensioni commerciali tra
Ue e Cina non sono una novità, ma si sono intensificate notevolmente, assumendo
i connotati di una vera e propria “guerra commerciale” fatta di azioni e
contromisure mirate.
Al
centro di questa escalation vi è la crescente preoccupazione dell’Ue per le
pratiche commerciali sleali di Pechino e per il suo modello economico, che la
Commissione Europea definisce “criticamente sbilanciato” a causa di una
“significativa asimmetria nelle rispettive aperture di mercato”.
Il Fondo Monetario Internazionale (Fmi) stesso
ha evidenziato come l’uso da parte della Cina di politiche industriali, in
particolare il suo sostegno ai settori prioritari, abbia un impatto negativo
sui partner commerciali.
Le
questioni economiche sono strettamente interconnesse e poggiano su tre pilastri
chiave nei rapporti economici con Pechino: la strumentalizzazione del commercio
come leva di ricatto, la sovracapacità e l’accesso al mercato cinese.
La
coercizione non militare, ovvero l’uso di mezzi economici per raggiungere
obiettivi politici, è diventata un problema sempre più serio per i governi e le
aziende dell’Ue.
Esperti
ritengono che la Cina, tradizionalmente contraria alle sanzioni economiche,
abbia implementato pratiche economiche coercitive con crescente intensità e
portata, in particolare dopo la riconferma di Xi Jinping come presidente del
paese nel 2023.
Secondo
la Commissione Europea, la coercizione economica nel contesto moderno
significa:
“interferire
con le legittime scelte sovrane dell’Unione o di uno Stato membro cercando di
impedire o ottenere la cessazione, la modifica o l’adozione di un atto
particolare da parte dell’Unione o di uno Stato membro, applicando o
minacciando di applicare misure che incidono sul commercio o sugli
investimenti”.
Il
feedback delle parti interessate, comprese le aziende, indica che le pratiche
coercitive sono effettivamente un problema crescente.
L’Ue è
stata sempre più presa di mira dalla Cina, al punto da esserne attualmente il
più grande destinatario globale della diplomazia coercitiva cinese, anche
attraverso la pressione economica.
Uno
studio del think tank Merics ha identificato 123 casi coercitivi tra il 2010 e
il 2022, con un aumento marcato negli ultimi 4 anni, una cifra che, secondo gli
analisti, potrebbe essere solo la punta dell’iceberg data la natura informale
di molte misure e la riluttanza delle aziende a denunciare per timore di
ritorsioni (come boicottaggi istigati indirettamente da autorità o media
statali).
Risultati
simili emergono dalla ricerca dell’Australian Strategic Policy Institute
(Aspi), che ha documentato 152 casi di diplomazia coercitiva cinese tra il 2010
e il 2020, la maggior parte dei quali dal 2018 in poi.
La
spinta cinese verso la sostituzione delle importazioni e l’autosufficienza
preoccupa Bruxelles, che vede le aziende europee continuare a subire
discriminazioni nel mercato cinese, ostacolate da una mancanza di parità di
condizioni e da un ambiente aziendale percepito come sempre più politicizzato.
Un quadro giuridico complesso e non trasparente sulla sicurezza informatica,
norme restrittive sui flussi di dati transfrontalieri, insufficiente
applicazione dei diritti di proprietà intellettuale e requisiti che portano al
trasferimento di tecnologia, uniti a un concetto ampio di sicurezza nazionale,
influenzano negativamente le prospettive di business europee in Cina.
Le
azioni concrete dello scontro Ue-Cina.
In
questo contesto, l’Ue ha intrapreso azioni concrete, a cui Pechino ha risposto
con contromisure:
Dazi
sui veicoli elettrici (Ev).
Lo
scorso anno, Bruxelles ha imposto dazi sulle auto elettriche cinesi dopo aver
rilevato che il settore beneficiava di ingenti sussidi statali.
L’Ue
ha imposto dazi fino al 45,3% sui veicoli elettrici cinesi per prevenire “danni
imminenti” alle proprie aziende, data la loro penetrazione aggressiva nel
mercato europeo a prezzi inferiori.
Ritorsioni
sugli alcolici europei.
In
risposta, la Cina ha introdotto dazi anti-dumping sul brandy europeo, in
particolare sul cognac francese, e avviato indagini anti-sovvenzione su carne
suina e alcuni prodotti lattiero-caseari.
Restrizioni
sui dispositivi medici e compensato. Più recentemente, l’Ue ha escluso i
dispositivi medici cinesi dalla maggior parte degli appalti pubblici e ha
imposto dazi anti-dumping sul compensato di legno duro cinese, un materiale da
costruzione. In un’altra disputa di tipo “occhio per occhio”, le due parti
hanno chiuso reciprocamente i rispettivi mercati pubblici per le gare d’appalto
per i dispositivi medici.
Questo
mese, Pechino ha limitato gli acquisti governativi di dispositivi medici
dell’Ue, una mossa in risposta a simili limitazioni imposte dall’Ue sui
dispositivi medici cinesi a giugno.
Controlli
sulle esportazioni di terre rare. Le tensioni sono poi state aggravate dalle
restrizioni cinesi all’export di terre rare, introdotte da Pechino in risposta
ai dazi statunitensi di aprile.
La
Cina ha aumentato i controlli sulle esportazioni di terre rare e minerali
essenziali.
Questi minerali sono un esempio lampante di
come la Cina utilizzi il suo dominio in alcune catene del valore come uno
strumento di forza: Pechino controlla il 60% della loro estrazione e il 90%
della loro raffinazione, cifre da monopolio.
Le
terre rare sono un input imprescindibile della transizione verde europea, in
quanto al centro della produzione di batterie e magneti, ma anche un elemento
centrale per lo sviluppo di tecnologie avanzate nell’ambito della difesa.
La
dipendenza dalla Cina per input così delicati è esattamente ciò che più ha
guidato la formulazione del “de-risking” europeo, la strategia cardine della
Commissione Ue per tutelare l’autonomia strategica dell’Unione.
I
produttori dell’automotive europeo hanno già avvertito che le restrizioni
cinesi all’export di leghe, miscele e magneti a base di terre rare potrebbero
causare ritardi nella produzione, creando ulteriori problemi a un settore già
sotto pressione per la concorrenza delle auto elettriche cinesi a basso costo.
Von
der Leyen ha affermato che l’Ue ha bisogno di una fornitura affidabile e sicura
di materie prime essenziali dalla Cina.
“Riconosciamo
gli sforzi della Cina nell’accelerare il rilascio delle licenze per le materie
prime essenziali”, ha affermato.
“Abbiamo
concordato di dotarci di un meccanismo di approvvigionamento per l’esportazione
potenziato. In caso di colli di bottiglia, questo supporto potenziato nel
meccanismo di supporto alla catena di approvvigionamento può verificare e
risolvere immediatamente il problema o la questione che si presenta”.
Il
ministero degli Esteri cinese ha difeso le restrizioni definendole “in linea
con la prassi internazionale”, pur promettendo un rafforzamento del dialogo e
della cooperazione in materia di controlli sulle esportazioni.
Sovracapacità
e reciprocità.
Von
der Leyen ha ribadito che l’Ue non sarà in grado di mantenere i propri mercati
aperti alle esportazioni cinesi a meno che Pechino non adotti misure decisive
per riequilibrare i loro rapporti commerciali. “A differenza di altri mercati,
l’Europa mantiene i propri mercati aperti ai prodotti cinesi.
Tuttavia,
questa apertura non è pari a quella della Cina”, ha dichiarato in conferenza
stampa.
Ha
aggiunto che la sovracapacità, la produzione sovvenzionata che non soddisfa la
domanda interna e la restrizione sulle importazioni cinesi da parte di altri
mercati esercitano pressione sul mercato unico dell’Ue. “Abbiamo bisogno di
vedere progressi su questo tema perché senza progressi sarebbe molto difficile
per l’Unione europea mantenere l’attuale livello di apertura”, ha ammonito.
Von
der Leyen ha affermato che i leader si sono concentrati nei colloqui
sull’accesso al mercato, sottolineando il principio di reciprocità e affermando
che le due parti hanno concordato di lavorare su “soluzioni concrete” in
materia di appalti pubblici.
Caso “Wto”
sulla proprietà intellettuale.
A
gennaio 2025, l’Unione Europea ha compiuto un passo significativo nelle sue
relazioni commerciali con la Cina, presentando un caso presso l’Organizzazione
Mondiale del Commercio (Wto) sulle pratiche di proprietà intellettuale di
Pechino.
L’Ue sostiene che la Cina stabilisca tassi di
royalty globali per i brevetti essenziali standard (Sep) dell’Ue senza
consultare i titolari dei brevetti, forzando le aziende tecnologiche europee ad
accettare tassi inferiori e garantendo ai produttori cinesi un accesso
ingiustamente più economico a queste innovazioni, in violazione delle regole
del Wto.
Controllo
sulle piattaforme e-commerce.
A
febbraio 2025, la Ce ha anche intensificato il suo controllo sulle piattaforme
cinesi di vendite online come “Shein” e “Temu”, richiedendo documenti interni e
dettagli sulle misure di mitigazione del rischio ai sensi del Digital Services
Act (Dsa) in risposta a preoccupazioni su contenuti illegali, protezione dei
consumatori, rischi per la salute pubblica e privacy dei dati.
Questi
esempi concreti evidenziano la profondità delle frizioni economiche che hanno
permeato il vertice, rendendo difficile qualsiasi “grand bargain” commerciale.
Le
questioni geopolitiche: Ucraina, cyber-attacchi e la Fusione Civile-Militare
cinese.
Oltre
al commercio, le tensioni geopolitiche hanno dominato l’agenda. La posizione
della Cina riguardo alla guerra in Ucraina è stata un punto di frizione
significativo.
I funzionari dell’Ue, con Costa che ha
affermato di aver discusso “a lungo” le aspettative verso la Cina, hanno
esortato Pechino a usare la sua influenza per persuadere la Russia a porre fine
alla guerra. “Invitiamo la Cina a usare la sua influenza sulla Russia affinché
rispetti la Carta delle Nazioni Unite e ponga fine alla sua guerra di
aggressione”, aveva detto in precedenza Costa a Xi.
Von
der Leyen ha rafforzato questo messaggio: “Il modo in cui la Cina continuerà a
interagire con la guerra di Putin sarà un fattore determinante per le nostre
future relazioni”.
Ha
inoltre specificato che “la Cina ha un’influenza sulla Russia, così come
l’Unione Europea ha un’influenza sull’Ucraina, e ci aspettiamo che la Cina
utilizzi questa influenza per assicurarsi che la Russia si sieda seriamente al
tavolo delle trattative”.
Costa ha aggiunto che l’Ue chiede alla Cina di
prestare attenzione alle proprie esportazioni verso la Russia, per evitare beni
a duplice uso che potrebbero essere impiegati per scopi bellici, sottolineando
la responsabilità speciale della Cina, in quanto membro permanente del
Consiglio di sicurezza delle Nazioni Unite, di promuovere un cessate il fuoco.
Questa
richiesta arriva in un contesto di crescente tensione. Per la prima volta,
istituti finanziari cinesi sono stati colpiti dalle sanzioni dell’Unione
Europea per aver supportato Mosca nella guerra contro l’Ucraina.
L’Unione
Europea ha sanzionato due piccole banche cinesi, la “Suifenhe Rural Commercial
Bank” e la “Heihe Rural Commercial Bank”, nel suo ultimo (il 18°) pacchetto di
misure volte a indebolire la macchina da guerra russa.
Tale
decisione potrebbe provocare ritorsioni da parte della Repubblica Popolare
Cinese, che ha esercitato intense pressioni dietro le quinte per far eliminare
le banche dal pacchetto sanzionatorio.
Durante
un incontro con l’Alto rappresentante dell’Unione per gli affari esteri e la
politica di sicurezza Kaja Kallas, questo mese, il ministro degli Esteri cinese
Wang Yi aveva lanciato più di un avvertimento sulla reazione cinese
all’inclusione delle banche nel pacenzionato.
A
Bruxelles, i diplomatici cinesi, compreso l’ambasciatore “Cai Run”, hanno
tentato ogni via con i funzionari dell’Ue per cercare di impedire l’inserimento
nella “lista nera”.
La
Cina ha dichiarato di aver presentato “solenni dichiarazioni” al responsabile
commerciale dell’Ue.
Inoltre,
sono circolate notizie secondo cui questo mese il ministro degli Esteri cinese “Wang
Yi” avrebbe detto al capo della politica estera dell’Ue, “Kaja Kallas”, che
Pechino non voleva che la Russia perdesse la guerra in Ucraina, contraddicendo
la posizione ufficiale di neutralità della Cina.
Wang
avrebbe affermato che la guerra avrebbe distolto gli Stati Uniti dalla rivalità
con la Cina, cosa che Pechino ha negato.
In
precedenza, Kallas aveva definito la Cina il “principale facilitatore della
guerra della Russia” in Ucraina, aggiungendo che “se la Cina volesse davvero
interrompere il supporto, allora ci sarebbero delle conseguenze”.
La
partnership strategica tra Cina e Russia, formalizzata con la dichiarazione
congiunta del 4 febbraio 2022, rappresenta una crescente minaccia alla
sicurezza europea, continuando a espandersi nei campi della tecnologia e dei
trasferimenti di capacità e know-how militari.
Un’altra
crescente preoccupazione riguarda gli attacchi informatici cinesi contro
obiettivi commerciali e politici dell’Ue.
A
maggio, il Consiglio Europeo ha accusato la Cina di essere dietro un numero
crescente di “attività informatiche dannose”, con la responsabile della
politica estera dell’Ue, Kaja Kallas, che ha avvertito che il blocco è “pronto
a imporre costi” per tale comportamento.
La
strategia cinese di “Fusione Civile-Militare”” (Mcf) sfrutta ogni leva del
potere statale e commerciale per rafforzare il Partito Comunista Cinese (Pcc) e
il suo braccio armato, l’Esercito Popolare di Liberazione (Pla), esfiltrando
tecnologie globali all’avanguardia per rafforzare il regime totalitario e
raggiungere il dominio militare.
Le
attività internazionali delle imprese cinesi finiscono per supportare gli
obiettivi del Pcc di espandere la sua influenza e danneggiare i rivali
geopolitici.
Questo
avviene anche attraverso l’uso di cellule di partito all’interno delle aziende,
comprese quelle straniere, come strumenti di controllo diretto.
La Mcf, la Nuova Via della Seta Digitale e le
iniziative come Made in China 2025 e China Standards 2035 collocano la Mcf in
un contesto geopolitico più ampio, con l’obiettivo finale di avanzare la Cina
come potenza globale leader in termini di influenza politica, capacità
economiche, dominio tecnologico e potenza militare, e di minare l’ordine
internazionale basato sulle regole.
Infine,
la questione di Taiwan aggiunge un ulteriore strato di complessità. La Cina è
ansiosa riguardo al crescente sostegno a Taiwan da parte dei paesi dell’Ue,
come dimostrato dal passaggio di navi da guerra tedesche nello Stretto di
Taiwan.
Pechino
accusa l’Ue e l’Occidente di sostenere i “separatisti” taiwanesi, cercando al
contempo di dividere l’Ue dagli Stati Uniti per minare la coesione occidentale.
Un
aspetto positivo, in un quadro di forti divergenze, è stata la dichiarazione
congiunta sul clima rilasciata dalle due parti.
Questa ha ribadito l’impegno per nuovi piani d’azione
climatici a livello di intera economia, con l’obiettivo di rafforzare la
cooperazione in aree come la transizione energetica, l’adattamento, la gestione
delle emissioni di metano, i mercati del carbonio e le tecnologie verdi e a
basse emissioni di carbonio.
Questo
rappresenta uno dei pochi ambiti di allineamento strategico, specialmente in un
contesto globale sempre più frammentato.
Il presidente del Consiglio Europeo Antonio
Costa ha ringraziato la Cina per quelle che ha definite discussioni “franche”,
riaffermando l’impegno dell’Ue ad approfondire le relazioni bilaterali
affrontando le preoccupazioni con onestà, e sottolineando che relazioni
commerciali eque e reciprocamente vantaggiose sono possibili e dovrebbero
essere l’obiettivo comune.
La
risposta strategica dell’Ue: “De-risking” e rafforzamento della sicurezza
economica.
Il
summit ha confermato la “mancanza di slancio” nei legami Ue-Cina, come
osservato da “Cui Hongjian” della “Beijing Foreign Studies University, “che
attribuisce questa situazione al continuo compromesso dell’Ue con gli Stati
Uniti.
All’inizio dell’anno, si era ipotizzato che
una presidenza Trump avrebbe potuto aiutare l’Ue e la Cina a trovare una causa
comune, ma invece i rapporti si sono fatti più tesi, con i 27 stati membri
dell’Ue che affrontano pressioni simili a quelle della Cina, non ultime le
tariffe imposte sulle loro esportazioni verso gli Stati Uniti.
La
narrazione dell’Ue nei confronti di Pechino ha preso una svolta decisiva con il
discorso della presidente della Ce Ursula von der Leyen del 30 marzo 2023,
segnando uno spostamento verso una posizione più assertiva, rafforzata dalla
pubblicazione della Strategia Europea per la Sicurezza Economica nel giugno
dello stesso anno.
La Commissione Europea, nella Comunicazione
congiunta sulle prospettive strategiche 2019, ha deciso di ridurre il rischio
delle sue relazioni economiche con la Cina, adottando una strategia “sfumata”,
che la vede allo stesso tempo come “partner per la cooperazione, concorrente
economico e un rivale sistemico”. Questo approccio tripartito è stato ribadito
nelle Conclusioni del Consiglio Europeo sulla Cina.
Durante
il Vertice sulla Cina del dicembre 2023, von der Leyen ha ribadito che il
“de-risking” consiste nell’imparare le lezioni dalla pandemia globale Covid-19
e dal ricatto energetico della Russia, gestendo i rischi, affrontando le
dipendenze eccessive e aumentando la resilienza.
Sono
stati compiuti importanti progressi nella comprensione dell’esposizione dell’Ue
verso la Cina e nell’affrontare i rischi correlati, mappando le dipendenze
strategiche e le strozzature della catena di approvvigionamento nel commercio.
Diversi atti legislativi sono stati adottati
per rafforzare le capacità produttive nei settori critici, e l’Ue sta
perseguendo nuovi partenariati internazionali per diversificare le fonti di
approvvigionamento.
Un
passo importante è stato fatto nel gennaio 2024, quando la Ce ha adottato
cinque iniziative chiave con l’obiettivo di rafforzare la sicurezza economica
dell’Ue in un momento di crescenti tensioni geopolitiche e profondi cambiamenti
tecnologici.
Queste
azioni fanno parte di un approccio a tre pilastri volto a garantire la
sicurezza economica europea attraverso la promozione della competitività, la
protezione dai rischi e il partenariato con il maggior numero possibile di
Paesi per promuovere interessi condivisi.
Nel
dettaglio, le nuove iniziative mirano a:
Migliorare
il controllo degli investimenti esteri nell’Ue (Ide). Prevenire quelli che
potrebbero rappresentare un rischio per la sicurezza e l’ordine pubblico.
La
Commissione ha esaminato oltre 1.200 operazioni di” Ide” notificate dagli Stati
membri.
La proposta di gennaio 2024 mira a garantire
che tutti gli Stati membri dispongano di un meccanismo di screening con norme
nazionali meglio armonizzate, individuando un ambito di applicazione settoriale
minimo e estendendo lo screening agli investimenti controllati da individui o
imprese di un Paese terzo.
l
Parlamento Europeo ha chiesto l’espansione degli strumenti di screening per
includere procedure di controllo generalizzate per tutti gli stakeholders
coinvolti in progetti infrastrutturali critici dell’Ue, inclusi partnership e
trasferimenti tecnologici, e l’istituzione di norme sul dovere di diligenza per
individuare l’influenza cinese sugli investitori in infrastrutture critiche.
Adottare
un maggiore coordinamento nel controllo dell’export di beni a duplice uso.
Questo
include merci che possono essere utilizzate sia per scopi civili che militari,
per evitare che tecnologie avanzate migliorino le capacità militari e di
intelligence di Paesi terzi.
Il
Libro Bianco della “Commissione sugli investimenti in uscita” propone
un’analisi graduale di tali investimenti, in particolare per tecnologie
sensibili come Intelligenza Artificiale, semiconduttori avanzati, biotecnologie
e tecnologie quantistiche.
Questo
aspetto non è attualmente monitorato né controllato a livello Ue o dagli Stati
membri, pur destando preoccupazione per la fuoriuscita di tecnologie che
potrebbero essere utilizzate contro l’Ue o per minare la pace e la sicurezza
internazionali.
Rafforzare
la sicurezza della ricerca e sviluppo (R&S).
La
Commissione ha avviato una consultazione pubblica sulle tecnologie con
potenziale a duplice uso, esaminando i programmi di finanziamento dell’Ue per
mantenere un vantaggio competitivo.
Questo
include l’introduzione di controlli uniformi dell’Ue su prodotti non ancora
adottati dai regimi multilaterali di controllo delle esportazioni, la creazione
di forum ad alto livello per il coordinamento politico e la promozione della
discussione sui programmi di ricerca e sviluppo che coinvolgono tecnologie a
duplice uso.
Successivamente,
nel gennaio 2025, la Commissione Europea ha pubblicato un’ulteriore
raccomandazione che invita gli Stati membri a riesaminare gli investimenti in
uscita delle loro imprese verso paesi terzi in tre settori ad alto rischio
(semiconduttori, intelligenza artificiale e tecnologie quantistiche), in linea
con un regime normativo simile emanato dagli Stati Uniti. Il 29 gennaio 2025,
la Commissione Europea ha anche pubblicato il “Competitiveness Compass for the
Ue”, un quadro ambizioso volto a rafforzare e proteggere la posizione dell’Ue
sui mercati globali, individuando nei controlli sulle esportazioni e nel
monitoraggio degli investimenti esteri strumenti chiave per salvaguardare la
competitività e impedire la fuga di tecnologia.
L’Unione
Europea e i suoi Stati membri hanno, inoltre, adottato misure per aumentare la
resilienza dell’Europa di fronte alla coercizione economica e politica cinese,
con lo Strumento Anti-Coercizione (Aci) che rappresenta una misura importante
per contrastare le pressioni che incidono sugli scambi o sugli investimenti.
Nonostante
questi sforzi, “non è comunque il momento di compiacersi”. Le esperienze di
Stati come Australia e Lituania dimostrano che, anche in caso di coercizione
economica cinese, gli effetti possono essere contenuti (ad esempio, dirottando
le esportazioni o reperendo capitali altrove).
Tuttavia,
l’Ue e i suoi Stati membri non devono sottovalutare la profondità e l’ampiezza
dei rischi, poiché Pechino è “più che mai disposta a pagare un prezzo economico
elevato per perseguire i suoi obiettivi politici”, soprattutto quando in gioco
ci sono interessi fondamentali come Taiwan, Hong Kong o lo Xinjiang.
Allo
stesso tempo, la Cina continua a esplorare nuovi strumenti e approcci di
coercizione economica, come dimostrato dalle pressioni sulle multinazionali per interrompere
gli scambi con entità lituane.
Il
rinnovato impianto normativo europeo presenta tuttavia alcune vulnerabilità,
con alcuni Stati membri inadempienti agli obblighi attuativi. Il Parlamento
Europeo ha urgentemente invitato gli Stati membri a implementare
sistematicamente le normative esistenti e a rafforzare i controlli su
investimenti esteri diretti e resilienza delle infrastrutture critiche.
La consapevolezza delle attività cinesi è
cresciuta, con le istituzioni europee che hanno ampliato le risorse dei
ministeri e delle agenzie di intelligence, creando anche nuove istituzioni per
contrastare l’influenza politica e la disinformazione cinese.
In
sintesi, il vertice Ue-Cina del 24 luglio è stato più una ricognizione di
posizioni consolidate che un punto di svolta per soluzioni concrete. Ha
sottolineato la complessità di una relazione sempre più sbilanciata, in cui
l’Ue cerca di riequilibrare i propri interessi economici e di sicurezza con la
necessità di mantenere un dialogo con una potenza globale assertiva.
Il
“dialogo dei sordi” descritto da Josep Borrell nel 2022 sembra purtroppo ancora
attuale, con la Cina riluttante a impegnarsi in discussioni sostanziali su
questioni chiave e focalizzata sulla propria narrativa positiva.
La
situazione europea è aggravata dalla consapevolezza di essere sotto attacco
dalla “Liminal Warfare” di Pechino, una guerra condotta ai margini
dell’osservabilità che mira a penetrare i “tessuti molli” delle democrazie
occidentali attraverso mezzi occulti, coercitivi e corruttivi, sfruttando anche
il controllo di mezzi tecnologici, infrastrutture strategiche e catene di
approvvigionamento globali.
Questo
contesto rende ancora più pressante la necessità per l’Ue di sviluppare una
strategia di “de-risking” efficace e di rafforzare la propria autonomia
strategica, non solo per proteggere le industrie chiave ma anche per
salvaguardare la propria sovranità e sicurezza in un panorama geopolitico in
rapida evoluzione.
La
mancanza di adeguati controlli sui rischi di interferenza negli appalti
pubblici europei per le attrezzature di sicurezza, come nel caso Nuctech
(società parzialmente di proprietà del governo cinese e legata alla politica
del Fronte Unito), e la presenza di studenti cinesi in università europee in
settori dual-use, sono ulteriori vulnerabilità che l’Ue deve affrontare
urgentemente attraverso una maggiore supervisione normativa e controlli
approfonditi sui legami con il governo cinese.
La
modernizzazione dei processi normativi diventa il requisito principale per
potersi difendere e per lavorare alla regolamentazione della nuova
globalizzazione, mantenendo al centro dell’azione politica la definizione del
perimetro di sicurezza dell’Unione Europea e dei singoli stati membri.
Commenti
Posta un commento