L’intelligenza artificiale è inaffidabile.

 

L’intelligenza artificiale è inaffidabile.

 

 

 

Piano Europeo per Utilizzare

le Riserve Auree e Valutarie

Russe “Congelate.”

Conoscenzealconfine.it – (21 Ottobre 2025) - Alexey Paramonov  ci dice:

 

Commento di “Alexey Paramonov”, Ambasciatore della Federazione Russa in Italia.

Sui media italiani si moltiplicano le notizie, secondo cui l’Italia parteciperebbe all’elaborazione del piano della Commissione Europea per utilizzare le riserve auree e valutarie russe “congelate” all’interno delle giurisdizioni europee per destinare al regime di Kiev il cosiddetto “credito d’indennità”.

Se c’è da credere a tali pubblicazioni, di null’altro si tratta, in sostanza, se non dell’intento della UE di compromettere gli sforzi profusi a livello internazionale per giungere a una risoluzione pacifica della crisi in Ucraina e di provocare una nuova escalation nei rapporti con la Russia.

 

Tutto lascia pensare che, quanto più per Kiev è disperata la situazione sul campo, e quanto più evidente diventano le condizioni di bancarotta in cui versa lo Stato ucraino, tanto più difficile sarà per l’Occidente preservare il consenso dell’opinione pubblica in merito alle insensate spese multimiliardarie devolute alla corrotta Ucraina;

 e, di conseguenza, tanto più sale nei burocrati europei la voglia di mettere mano alle tasche altrui e risolvere i propri problemi grazie agli asset russi “congelati”.

 

In altre parole, paventando la rabbia popolare, dovuta alle spese ingiustificate sostenute a favore del fallimentare “progetto ucraino”, i leader europei, messi da parte i principi del diritto, della rettitudine e della morale, sono in procinto di lanciarsi in un’ennesima, rischiosa avventura.

Adesso, banalmente, vogliono “spartire” gli asset russi e destinarli ad acquistare dai produttori americani ed europei grandi quantitativi di armi destinate all’Ucraina, al fine di infliggere alla Russia una “sconfitta strategica” e, in tal modo, di portare avanti il conflitto, proseguendo nel processo di distruzione del Paese “fino all’ultimo ucraino”.

Qualunque tipo di condotta non autorizzata operata sulle riserve russe “congelate” verrà qualificata dalla controparte russa come un furto e questo indipendentemente dalle manovre pseudo-giuridiche operate dalla Commissione Europea che, per definizione, sono nulle e prive di efficacia dal punto di vista del diritto internazionale e contrattuale.

 

La messa in atto di tale impresa costringerà la Russia ad avviare immediatamente un meccanismo di contromisure, volte a compensare le perdite causate da tali condotte ostili, con analogo danno per coloro che tali condotte hanno intrapreso.

Pertanto, invece d’intraprendere insanamente una strada che condurrebbe all’ennesima escalation, sarebbe opportuno che tutti i potenziali partecipanti al “furto del secolo” si fermassero a riflettere ancora una volta sulle conseguenze, le quali, è già chiaro adesso, saranno molto pesanti.

Come minimo, la fiducia nel sistema finanziario occidentale, e quindi anche nell’Euro, risulterà compromessa;

 inoltre, si assisterà a un peggioramento nel clima finanziario, cosa che avrà impatto sugli investimenti e rafforzerà il deflusso di capitali dai mercati europei. […]

A sua volta tutto ciò, in una prospettiva futura, porterà al collasso sia dei principi che regolano le attività economico-finanziarie a livello internazionale, sia dell’attuale ordine economico e finanziario mondiale di stampo occidentale centrico.

Auspichiamo che le autorità italiane sappiano trovare la forza di dimostrare il proprio buon senso e che, come più volte è accaduto nel corso della storia, analizzino accuratamente la situazione, ne valutino adeguatamente tutti i rischi e decidano in base agli interessi dei loro stessi cittadini, la maggior parte dei quali, nonostante l’ostilità alimentata artificialmente nei confronti della Russia, continuano ad avere fiducia nel futuro delle relazioni tra Russia e Italia, e desiderano che si ripristinino e possano tornare quanto prima alla normalità:

lo conferma, tra l’altro, il fatto che molte aziende e istituti finanziari italiani continuano a lavorare in Russia.

La complicità dell’Italia in un reato finanziario di questa portata rischia di compromettere in modo sostanziale, per molti anni a venire, la possibilità stessa di ripristinare la cooperazione economica e commerciale con la Russia.

(Alexey Paramonov -Ambasciatore della Federazione Russa in Italia).

(roma.mid.ru/it/press- centre/commento_di_alexey_paramonov_ambasciatore_della_federazione_russa_in_italia_/).

(t.me/ambrusitalia).

 

 

 

 

Quanto è affidabile l'IA?

Unibzmagazine.it -Redazione – (13 dic. 2024) – ci dice:

“Euregio Trustworthy AI Lab”:

 i ricercatori e ricercatrici dell'Euregio utilizzano le loro diverse competenze e prospettive per verificare l'affidabilità delle applicazioni di IA.

 

Foto di gruppo: 13 persone in piedi su una terrazza - tetti della città e montagne sullo sfondo.

Foto di gruppo alla conferenza organizzata da EUPHUR, la Piattaforma Euregio per la dignità umana.

Con il rapido sviluppo dell’intelligenza artificiale (IA) e la direttiva-quadro europea sull’IA adottata nel 2024, la questione dell’affidabilità delle applicazioni tecnologiche sta diventando sempre più importante.

 Il termine tecnico” Trustorthy AI” riassume i requisiti che assicurano che lo sviluppo e l’uso delle tecnologie non siano solo tecnicamente, ma anche legalmente ed eticamente validi.

In occasione di un evento organizzato oggi dalla “Piattaforma Euregio” per la dignità umana e i diritti umani (Euphur), ricercatori e ricercatrici delle università di Bolzano, Innsbruck e Trento hanno lanciato un’iniziativa regionale su questo importante tema.

Nel corso della conferenza annuale dell’Euphur sulle tecnologie digitali, un gruppo guidato da “Robert Simon£, coordinatore scientifico della Piattaforma, ha lanciato l’”Euregio Trustworthy AI Lab”.

Questo laboratorio virtuale riunisce le competenze di quasi 30 ricercatori provenienti da un’ampia gamma di discipline, dalla filosofia al diritto, dalla medicina a varie aree dell’informatica.

Tra i membri di unibz vi sono esperti di IA come il prof. Diego Calvanese e il prof. Marco Montali o la prof.ssa Barbara Russo con il suo Cybersecurity Lab.

Oltre a numerosi altri esperti delle Università di Trento e Innsbruck o della Fondazione Bruno Kessler in Trentino, come la nota giurista altoatesina prof.ssa Esther Happacher dell’Università di Innsbruck, fanno parte dell’elenco in costante crescita anche esperti esterni come il primario di psichiatria di Bolzano, prof. Andreas Conca, o l’amministratore delegato di Informatica Alto Adige Spa, Stefan Gasslitter.

 

“Ci consideriamo una rete e un gruppo di interesse che vuole far conoscere e promuovere il concetto di “Trustworthy AI” – IA affidabile – all’interno dell’Euregio e può contribuire con le sue competenze – anche in progetti di ricerca congiunti – ad applicazioni concrete”, afferma Simon, portavoce del “Trustworthy AI Lab dell’Euregio”.

La rete ha già trovato un partner nell'”iniziativa Z-inspection”, il cui processo è riconosciuto anche dall’OCSE come strumento per valutare l’affidabilità delle applicazioni di IA.

Secondo Simon, “esistono già più di 40 “Trustworthy AI Labs” virtuali in tutto il mondo, con i quali i promotori dell'iniziativa Euregio stanno già dialogando”.

Le prime possibilità concrete di applicazione sono state presentate oggi alla conferenza dell’Euphur intitolata „Proactive public services in the Euregio“ (“Servizi pubblici proattivi nell’Euregio”, ndt.) con contributi scientifici e pratici sulle applicazioni dell’IA nella pubblica amministrazione.

(Redazione.) –

(Robert Simon, Diego Calvanese, Marco Montali, Barbara Russo).

 

 

 

Cos'è l'AI affidabile?

Ibm.com – (13 -05 -2025) – Redazione – Alice Gomstyn- Alexandra Jonker- Amanda McGrath – ci dicono:

 

Cos'è l'”AI” affidabile?

Perché l'”AI” affidabile è importante?

Quali sono i principi dell'”AI” affidabile?

Quali rischi può mitigare un'”AI” affidabile?

Framework dell'”AI£ affidabile.

“AI” affidabile, “AI” etica e “AI” responsabile a confronto.

Strategie per ottenere un'AI affidabile.

 

Cos'è l'”AI” affidabile?

L'AI affidabile si riferisce a sistemi di intelligenza artificiale spiegabili, equi, interpretabili, solidi, trasparenti, sicuri e protetti. Queste qualità aumentano la fiducia nei sistemi AI tra gli stakeholder e gli utenti finali.

 

Un'intelligenza artificiale affidabile (TAI) può mitigare i potenziali rischi associati all'implementazione di modelli AI. Questi rischi legati all'AI includono danni a persone, organizzazioni ed ecosistemi. Quando si verificano danni di questo tipo, possono minare non solo la fiducia in modelli AI specifici, ma anche nell'intelligenza artificiale in generale.

 

I framework di AI affidabili possono aiutare a guidare le organizzazioni nello sviluppo, nell'adozione e nella valutazione delle tecnologie di AI. Diverse organizzazioni governative e intergovernative hanno stabilito tali framework, tra cui il National Institute of Standards and Technology (NIST) negli Stati Uniti, il gruppo di esperti di alto livello sull'intelligenza artificiale della Commissione europea e l'Organizzazione per la cooperazione e lo sviluppo economico (OCSE).

 

Inoltre, le aziende possono implementare diverse strategie e strumenti per migliorare l'affidabilità dei loro sistemi AI. Ad esempio, il monitoraggio continuo, la documentazione e i framework di governance dell'AI possono contribuire a minimizzare il rischio.

 

Perché l'AI affidabile è importante?

Capire come funziona una tecnologia è spesso la chiave per fidarsi della sua efficacia. Ma molti sistemi AI e di machine learning (ML), come i modelli di deep learning , funzionano come vere e proprie black box; assimilano dati e creano output, con poca o nessuna trasparenza sul modo in cui arrivano a tali risultati.

 

Di conseguenza, la mancanza di fiducia abbonda. Un sondaggio del 2023 ha rilevato che oltre il 40% dei leader aziendali ha espresso preoccupazioni sull'affidabilità dell'AI.1 Nel frattempo, anche i consumatori hanno dimostrato una certa diffidenza nei suoi confronti: uno studio del 2024 ha rilevato che l'inclusione del termine "AI" nell'etichettatura di un prodotto può rendere gli acquirenti meno propensi ad acquistarlo.

 

Esempi reali di sistemi AI che producono risultati errati o dannosi in caso d'uso ad alto rischio alimentano ulteriormente i timori sulla fiducia nell'AI. In un noto esempio sanitario, un modello AI non è riuscito a diagnosticare in modo affidabile la sepsi. Sebbene il modello si sia comportato bene in un contesto di addestramento, non ha rilevato la sepsi in più di due terzi dei pazienti ospedalizzati.

 

In altri casi, i modelli AI hanno dimostrato un processo decisionale algoritmico distorto, tra cui i sistemi di polizia predittiva che prendono di mira in modo sproporzionato le comunità minoritarie e i sistemi di tracciamento dei candidati che favoriscono i candidati di sesso maschile rispetto a quelli di sesso femminile. E poi ci sono problemi di sicurezza, come gli AI chatbot che rivelano inavvertitamente dati personali sensibili e gli hacker che utilizzano le vulnerabilità nei modelli AI per rubare informazioni aziendali riservate.

 

Quando i modelli AI hanno prestazioni inferiori o producono risultati dannosi, possono minare la fiducia non solo in quei modelli, ma nell'AI in generale, ostacolando potenzialmente lo sviluppo e l'adozione futuri dell'AI. Ottenere sistemi di AI affidabili e sostenere lo sviluppo futuro dell'AI significa fare luce all'interno della metaforica black box dell'AI. Ciò consente agli stakeholder di contare sulle loro applicazioni AI per fornire risultati affidabili e accurati riducendo al minimo i rischi di risultati distorti o non in linea con l'intento originale.

 

Quali sono i principi dell'AI affidabile?

Organizzazioni e framework diversi enfatizzano vari principi e obiettivi guida per un'AI affidabile. I principi di AI affidabile più citati includono:

 

Responsabilità.

Attendibilità.

Equità.

Interpretabilità e trasparenza.

Privacy.

Affidabilità.

Robustezza e sicurezza.

Sicurezza.

Responsabilità.

La responsabilità nell'AI implica che gli attori dell'AI siano responsabili del corretto funzionamento dei sistemi AI durante il loro ciclo di vita. Questo include individui e organizzazioni che sono coinvolte nello sviluppo, nella distribuzione o nel funzionamento della tecnologia AI.4

 

Attendibilità.

La spiegazione dell'AI riguarda la verifica o la fornitura di giustificazioni per gli output di un modello.

Esistono vari metodi di spiegazioni, noti nell'insieme come AI spiegabile, che consentono agli utenti umani di comprendere e fidarsi dei risultati e degli output creati dagli algoritmi di apprendimento automatico.

 

Equità.

L'equità nell'AI si riferisce al trattamento equo di individui e gruppi. Comprende l'attenuazione di distorsioni algoritmiche e di dati. La distorsione algoritmica si verifica quando errori sistemici negli algoritmi di apprendimento automatico producono risultati iniqui o discriminatori, mentre la distorsione dei dati si riferisce alla natura scorretta o non rappresentativa dei dati di addestramento utilizzati in un modello AI.

 

Interpretabilità e trasparenza.

L'interpretabilità dell'AI aiuta le persone a comprendere e spiegare meglio i processi decisionali dei modelli AI. L'interpretabilità riguarda la trasparenza, che consente agli utenti di comprendere l'architettura di un modello, le caratteristiche che utilizza e il modo in cui le combina per fornire previsioni. Mentre alcuni modelli sono intrinsecamente interpretabili, altri richiedono l'uso di metodi di interpretazione.

 

Privacy.

La privacy dell'AI si riferisce alla protezione delle informazioni personali o sensibili raccolte, utilizzate, condivise o memorizzate dall'AI. La privacy dell'AI è strettamente legata alla privacy dei dati. La privacy dei dati, nota anche come privacy delle informazioni, è il principio secondo cui una persona dovrebbe avere il controllo dei propri dati personali. Il rispetto della privacy dell'AI e dei dati può essere migliorato attraverso una serie di metodi, che vanno dalla crittografia all'apprendimento federato.

 

Affidabilità.

L'affidabilità può essere definita come la capacità di funzionare come previsto o richiesto, senza guasti, per un determinato periodo di tempo in determinate condizioni. I sistemi AI affidabili, se utilizzati nelle condizioni previste, dovrebbero fornire risultati corretti in un determinato periodo, che potrebbe includere l'intera durata di tali sistemi.

 

Robustezza e sicurezza.

I sistemi AI sicuri e solidi dispongono di meccanismi di protezione contro gli attacchi esterni e gli accessi non autorizzati, che riducono al minimo i rischi di cybersecurity e le vulnerabilità. Possono funzionare in condizioni anomale senza causare danni indesiderati e tornare al normale funzionamento dopo un evento imprevisto.

 

Sicurezza.

I sistemi AI sicuri non mettono in pericolo la vita umana, la salute, la proprietà o l'ambiente. Sono progettati in modo proattivo per proteggere le persone dai danni e includono precauzioni che attenuano i risultati non sicuri, inclusa la possibilità di rimuovere un sistema dall'uso.

 

Quali rischi può mitigare un'AI affidabile?

I sistemi AI privi di qualità affidabili comportano un'ampia gamma di rischi. Il National Institute of Standards and Technology (NIST), che fa parte del Dipartimento del Commercio degli Stati Uniti, ha sviluppato un framework che è diventato un benchmark per la gestione del rischio dell'AI. Organizza i rischi di potenziali danni causati dai sistemi AI nelle seguenti categorie:7

Danni alle persone.

Danni a un'organizzazione.

Danni a un ecosistema.

Danni alle persone.

Questa categoria include i danni arrecati alle libertà civili, ai diritti, alla sicurezza fisica o psicologica o alle opportunità economiche degli individui. Comprende anche l'impatto sui gruppi attraverso la discriminazione e l'impatto sulle società sotto forma di danni alla partecipazione democratica o all'accesso all'istruzione.

 

Danni a un'organizzazione.

Questa categoria si riferisce ai danni alle operazioni di un'organizzazione, ai danni derivanti da violazioni di sicurezza o perdite economiche e ai danni alla sua reputazione.

 

Danni a un ecosistema

Questa categoria comprende i danni a "elementi e risorse interconnessi e interdipendenti". Il NIST cita specificamente i danni al sistema finanziario globale, alla supply chain o ai "sistemi correlati", nonché alle risorse naturali, all'ambiente e al pianeta.

 

Gli output distorti o imprecisi dei sistemi AI possono causare molteplici danni. Tornando a un esempio precedente, i sistemi distorti di tracciamento dei candidati possono danneggiare le opportunità economiche degli individui e anche la reputazione di un'organizzazione. Se un modello linguistico di grandi dimensioni (LLM) viene indotto a eseguire malware che paralizzano le operazioni di un'azienda, ciò potrebbe causare danni sia all'azienda che alla supply chain a cui appartiene.

 

Sistemi di AI affidabile potrebbero contribuire a prevenire scenari e conseguenze così disastrosi. Secondo il NIST, "i sistemi AI affidabili e il loro uso responsabile possono mitigare i rischi negativi e contribuire a benefici per le persone, le organizzazioni e gli ecosistemi".

 

Culture, Trust, and “AI”.

Framework dell'AI affidabile.

Negli ultimi anni sono emersi diversi framework per guidare i fornitori e gli utenti di AI nelle fasi di sviluppo, implementazione e funzionamento di sistemi AI affidabili. Questi framework includono:

 

Il framework di gestione del rischio dell'AI del NIST.

Pubblicato nel gennaio 2023, il NIST AI Risk Management Framework (AI RMF) include una panoramica dei rischi dell'AI nei suoi cicli di vita e delle caratteristiche dei sistemi di AI affidabile. Il framework delinea anche azioni specifiche per aiutare le organizzazioni a gestire tali sistemi, comprese attività di test, valutazione, verifica e convalida.

 

Il framework volontario si applica a qualsiasi azienda o area geografica, ma il NIST riconosce che non tutte le caratteristiche di AI affidabile si applicano in tutti gli ambienti. Il framework incoraggia l'uso del giudizio umano nella scelta delle metriche applicabili e nel considerare che di solito si raggiungono dei compromessi quando si ottimizza per una caratteristica dell'AI affidabile. Nel luglio 2024, il NIST ha lanciato una risorsa complementare all'AI RMF, incentrata sull'AI generativa.

 

I Principi AI dell'Organizzazione per la cooperazione e lo sviluppo economico (OCSE).

I principi dell'OCSE sull'AI promuovono il rispetto dei diritti umani e dei valori democratici nell'uso dell'AI. Adottato a maggio 2019 e aggiornato a maggio 2024, il framework dell'OCSE include sia principi basati sui valori che raccomandazioni per i responsabili politici. L'OCSE promuove le raccomandazioni come i primi standard intergovernativi per l'AI, con 47 adesioni in tutto il mondo, compresi gli Stati Uniti, i paesi dell'Unione europea e quelli di Sud America e Asia.

 

Le linee guida etiche dell'UE per un'intelligenza artificiale affidabile.

Le linee guida dell'Unione europea, pubblicate nell'aprile 2019 dall'High-Level Expert Group on AI della Commissione europea, si concentrano sull'etica dell'AI e sottolineano un approccio "incentrato sull'uomo" allo sviluppo dell'AI nell'UE. Le linee guida includevano 7 principi etici, come "l'azione umana e la supervisione" e il "benessere sociale e ambientale". L'anno successivo, il gruppo ha pubblicato l'Assessment List for Trustworthy AI (link esterno a ibm.com), che aiuta le organizzazioni a valutare i propri sistemi AI.

 

Sebbene le linee guida in sé non siano vincolanti, sono state successivamente citate nella storica Legge sull'IA dell'UE che disciplina lo sviluppo o l'uso dell'intelligenza artificiale nell'Unione Europea. Il testo della legge afferma che i principi etici dell'UE in materia di intelligenza artificiale "dovrebbero essere tradotti, quando possibile, nella progettazione e nell'uso di modelli AI".

Anche altre organizzazioni hanno pubblicato framework e linee guida che incoraggiano un'AI affidabile, tra cui l'Office of Science and Technology della Casa Bianca (attraverso il suo Blueprint for AI Bill of Rights) e aziende come Deloitte (link esterno a ibm.com) e IBM.

 

“AI” affidabile, “A”I etica e “AI” responsabile a confronto.

I termini AI affidabile, AI etica e AI responsabile sono spesso usati in modo intercambiabile. E poiché le definizioni di ciascun concetto possono variare a seconda della fonte e includere spesso sovrapposizioni di significato, tracciare distinzioni definitive tra i tre può essere difficile.

 

Ad esempio, le definizioni comuni di AI affidabile e AI etica elencano principi come equità e privacy come fondamento di ogni concetto. Allo stesso modo, responsabilità e trasparenza sono attributi spesso associati sia a un'AI affidabile che a un'AI responsabile.

 

Un modo per distinguere tra i tre concetti basati sull'AI è guardare oltre i loro principi fondamentali e concentrarsi invece su come vengono utilizzati:

 

L'AI affidabile è spesso inquadrata come qualcosa che si ottiene; è l'AI affidabile che crea fiducia per gli utenti.

L'AI etica, al contrario, è stata descritta come sistemi AI che contengono considerazioni etiche (che riflettono i valori umani e gli standard morali) durante la progettazione e lo sviluppo.

L'AI responsabile può essere interpretata come strumento dei mezzi pratici per incorporare tale etica nelle applicazioni e nei workflow di AI.

Design 3D di palline che rotolano su una pista.

Le ultime notizie e insight sull'”AI” .

Notizie e insight a cura di esperti di AI, cloud e molto altro nella newsletter settimanale Think.

 

Strategie per ottenere un'AI affidabile.

Le organizzazioni possono adottare misure importanti per garantire che i loro sistemi AI, compresi gli algoritmi e i set di dati di AI, funzionino in linea con i principi di AI affidabile.

 

Valutazione: la valutazione dei processi aziendali basati sull'AI può aiutare le aziende a determinare dove c'è margine per migliorare le diverse metriche di affidabilità.

 

Monitoraggio continuo: attraverso il monitoraggio continuo di problemi come la distorsione dell'AI e la deriva del modello, le organizzazioni affrontano in modo proattivo processi o output ingiusti o imprecisi, sostenendo così equità e affidabilità.

 

Gestione del rischio: l'implementazione di un framework di gestione del rischio e di strumenti consente di rilevare e minimizzare le violazioni di sicurezza e della privacy per potenziare la solidità dell'AI.

 

Documentazione: la documentazione automatizzata del ciclo di vita della data science e dell'AI può essere utilizzata per gli audit di settori e normativi, consentendo responsabilità e trasparenza.

 

Framework di governance dell'”AI”:

 i framework di governance dell'AI includono procedure sulla gestione dei dati e dei modelli, che aiutano a garantire che gli sviluppatori e i data scientist all'interno di un'organizzazione seguano sia gli standard interni che le normative del governo.

 

Il software di governance dell'AI e i toolkit open source possono aiutare le organizzazioni ad adottare queste e altre misure per migliorare l'affidabilità nei loro sistemi di “AI”.

Con le giuste misure e garanzie in atto, le aziende possono ridurre al minimo i rischi sfruttando la potenza dell'”AI”.

 

 

 

La fiducia cresce, la cautela no:

l’intelligenza artificiale affidabile

resta un miraggio.

Techbusiness.it – (7 Ottobre 2025) - Marco Brunasso -  ci dice:

La fiducia cresce, la cautela no: l’intelligenza artificiale affidabile resta un miraggio.

La fiducia nell’intelligenza artificiale generativa continua a salire, ma le misure di sicurezza e governance restano indietro.

 È il paradosso fotografato dal nuovo” IDC Data and AI Impact Report”: The Trust Imperative, commissionato da SAS, che analizza l’uso, l’impatto e l’affidabilità dell’IA su scala globale.

 

IDC Data and AI Impact Report: The Trust Imperative – L’intelligenza artificiale affidabile resta un miraggio.

Secondo la ricerca, le organizzazioni che investono in un’AI affidabile hanno il 60% di probabilità in più di raddoppiare il ritorno sugli investimenti.

Governance, trasparenza e pratiche etiche non sono solo una questione di fiducia, ma anche di efficienza economica.

 Eppure, solo il 40% delle aziende adotta misure per rendere l’IA effettivamente controllabile e responsabile.

 

Il rapporto rivela un contrasto curioso:

la fiducia nella “GenAI”, come” ChatGPT”, è più del doppio rispetto a quella riposta nell’IA tradizionale, pur essendo quest’ultima più consolidata e spiegabile.

L’interattività e la familiarità con cui l’IA generativa si presenta agli utenti sembrano indurre una fiducia istintiva, spesso indipendente dalla reale affidabilità dei sistemi.

 

intelligenza-artificiale-affidabile-fiducia-governance-roi-genai.

Quasi la metà dei partecipanti allo studio (48%) dichiara “completa fiducia” nella “GenAI”, mentre un terzo si affida all’”Agentic AI”, ossia sistemi capaci di agire in autonomia per obiettivi definiti.

 Al contrario, solo il 18% mostra la stessa fiducia nell’IA tradizionale, basata su modelli di machine learning più noti ma meno “umani”.

 

Gli intervistati, però, esprimono anche forti preoccupazioni per la privacy dei dati (62%), la trasparenza e spiegabilità dei modelli (57%) e l’uso etico (56%).

La ricerca segnala inoltre l’ascesa della “IA quantistica”, ancora in fase sperimentale ma già considerata promettente:

quasi un terzo degli executive la conosce, e un quarto dichiara di fidarsene completamente.

 

Il ritardo nella governance costa caro.

Lo studio evidenzia un altro squilibrio. Otto organizzazioni su dieci dichiarano di fidarsi pienamente dell’IA, ma meno della metà ha adottato misure per garantirne l’affidabilità. Solo il 2% inserisce la governance dell’IA tra le priorità e meno del 10% ha sviluppato policy di AI responsabile.

 

Questo disallineamento tra fiducia dichiarata e pratiche effettive può limitare i benefici economici e aumentare i rischi reputazionali. Le aziende che, invece, investono in framework di governance e pratiche etiche ottengono risultati concreti: i leader in “AI affidabile” hanno 1,6 volte più probabilità di raddoppiare il ROI dei loro progetti.

 

intelligenza-artificiale-risorse-umane-aziende-italiane-competenze-futuro.

Alla base di un’IA sicura c’è la qualità dei dati.

IDC individua tre ostacoli principali al successo delle implementazioni: infrastrutture dati deboli (49%), scarsa governance (44%) e carenza di competenze specialistiche (41%). La difficoltà di accedere a fonti rilevanti (58%) e le questioni di privacy e conformità (49%) complicano ulteriormente il quadro.

 

La governance dei dati diventa quindi essenziale per garantire risultati affidabili, ma anche per sostenere la produttività e contenere i rischi. Senza solide basi di dati, l’autonomia crescente dei sistemi di intelligenza artificiale rischia di diventare un boomerang.

 

(Amazon Fire TV Stick HD (Ultimo modello), TV gratuita e in diretta, telecomando vocale Alexa, controlli per Casa Intelligente, streaming HD

Amazon Fire TV Stick HD (Ultimo modello), TV gratuita e in diretta, telecomando vocale Alexa, controlli per Casa Intelligente, streaming HD

Streaming in Full HD: goditi uno streaming veloce e affidabile in qualità Full HD e controlla i tuoi contenuti con il telecomando vocale Alexa.

Perfetto per chi utilizza lo streaming per la prima volta: niente di più semplice! Accedi a migliaia di film e serie TV gratuiti sulle app di streaming con pubblicità, come Pluto TV e altre.

Premi e chiedi ad Alexa: usa la voce per cercare e guardare contenuti sulle numerose app.

Intrattenimento senza limiti: goditi la visione di migliaia di film ed episodi di serie TV su Netflix, Prime Video, Disney+, Apple TV+ e altri, e ascolta migliaia di brani musicali. Potrebbe essere necessario un abbonamento separato. I pulsanti delle app possono variare.

Sempre con te: collega il dispositivo alla porta HDMI di un televisore e avrai sempre accesso alle tue app di intrattenimento, ovunque tu sia.

44,99 EUR .

Acquista su Amazon).

 

D-Link presenta i router aziendali della serie DBR per piccole e medie imprese.

Il messaggio del rapporto è chiaro: fidarsi dell’IA non è sufficiente, bisogna renderla degna di fiducia. La rapidità con cui la GenAI si diffonde, spesso senza adeguate regole di controllo, espone le organizzazioni a rischi tecnologici, legali e reputazionali.

 

Come sottolinea lo studio, solo un approccio fondato su trasparenza, governance e responsabilità può trasformare la fiducia in risultati duraturi.

In un mondo dove l’IA decide sempre di più, la vera sfida non è solo costruire algoritmi intelligenti, ma costruire fiducia intelligente.

 

 

 

L’intelligenza artificiale può

valutare l’affidabilità delle notizie?

Ilsole24ore.com – L.Tre – (12 febbraio 2025) – ci dice:

 

Uno studio condotto da ricercatori dell’Università Sapienza di Roma ha messo a confronto i “Large language models” (Llm) di “Google”, “Meta” e “OpenA”I e i team di esperti umani strutturati come “NewsGuard” e “Media Bias Fact Check” (Mbfc).

 

Ad oggi ci sono tre domande a cui l’Ai non sa (o non vuole rispondere): chi te lo ha detto, quanta energia consumi e quanto sei sicura di quello che dici.

 Una quarta domanda è ancora più intrigante: sei in grado controllare l’affidabilità delle notizie?

 Una risposta arriva uno studio condotto da ricercatori dell’Università Sapienza di Roma che hanno messo a confronto i “Large language models” (Llm) - i modelli linguistici di grandi dimensioni, programmi di IA addestrati su una grande mole di dati - di Google, Meta e OpenAI e i team di esperti umani strutturati come NewsGuard e Media Bias Fact Check (Mbfc).

 «I nostri risultati rivelano un forte allineamento tra le classificazioni dei Llm e quelle umane in particolare nell’identificazione di fonti inaffidabili», sottolineano i ricercatori.

Lo studio dal titolo Decoding AI Judgment: How LLMs Assess News Credibility and Bias che trovate qui ha preso in esame i modelli Gemini 1.5 Flash di Google, GPT-4o mini di OpenAI e LLaMA 3.1 di Meta. Questi modelli classificano le teorie del complotto, il sensazionalismo e i pregiudizi in maniera speculare ai criteri chiave usati dagli esperti nelle loro valutazioni. Sono meno coerenti quando il contesto è limitato. Inoltre, «è interessante notare - scrivono i ricercatori - che in ambito politico i media di destra vengono considerati più inaffidabili, quelli di centro più affidabili sollevando interrogativi sul fatto che i modelli di grandi dimensioni possano ereditare pregiudizi in fase di addestramento».

Nel complesso, i ricercatori ritengono che per i modelli di grandi dimensioni le parole chiave che si riferiscono a notizie locali, resoconti basati su fatti o al linguaggio neutro sono generalmente associate a un concetto di affidabilità.

 Al contrario, l’inaffidabilità è spesso caratterizzata da termini relativi a sensazionalismo, controversie o pregiudizi, che riflettono indicatori di uso comune usati da esperti umani per identificare fonti a bassa credibilità. Inoltre, ’trasparenza’ e ’bias’ emergono come i criteri più comunemente valutati per l’affidabilità o l’inaffidabilità delle informazioni. “Lo studio - spiegano i ricercatori nelle conclusioni - riformula i modelli linguistici di grandi dimensioni non semplicemente come classificazioni automatizzate, ma come finestre sulle strutture cognitive sia alla base dell’uomo sia della macchina.

 Analizzando i loro processi di ragionamento, ci avviciniamo alla comprensione del modo con cui simulano la valutazione strutturata e si confrontano con le strategie cognitive umane in compiti di giudizio complessi».

Questi modelli classificano le teorie del complotto, il sensazionalismo e i pregiudizi in maniera speculare ai criteri chiave usati dagli esperti nelle loro valutazioni.

 Sono meno coerenti quando il contesto è limitato. Inoltre, “è interessante notare - scrivono i ricercatori - che in ambito politico i media di destra vengono considerati più inaffidabili, quelli di centro più affidabili sollevando interrogativi sul fatto che i modelli di grandi dimensioni possano ereditare pregiudizi in fase di addestramento”.

Nel complesso, i ricercatori ritengono che per i modelli di grandi dimensioni le parole chiave che si riferiscono a notizie locali, resoconti basati su fatti o al linguaggio neutro sono generalmente associate a un concetto di affidabilità.

 Al contrario, l’inaffidabilità è spesso caratterizzata da termini relativi a sensazionalismo, controversie o pregiudizi, che riflettono indicatori di uso comune usati da esperti umani per identificare fonti a bassa credibilità.

 Inoltre, ’trasparenza’ e ’bias’ emergono come i criteri più comunemente valutati per l’affidabilità o l’inaffidabilità delle informazioni.

“Lo studio - spiegano i ricercatori nelle conclusioni - riformula i modelli linguistici di grandi dimensioni non semplicemente come classificazioni automatizzate, ma come finestre sulle strutture cognitive sia alla base dell’uomo sia della macchina.

Analizzando i loro processi di ragionamento, ci avviciniamo alla comprensione del modo con cui simulano la valutazione strutturata e si confrontano con le strategie cognitive umane in compiti di giudizio complessi”.

 

È la conclusione di uno studio condotto da ricercatori dell’Università Sapienza di Roma che hanno messo a confronto i” Large language models” (Llm) - i modelli linguistici di grandi dimensioni, programmi di IA addestrati su una grande mole di dati - di Google, Meta e OpenAI e i team di esperti umani strutturati come NewsGuard e Media Bias Fact Check (Mbfc). “I nostri risultati rivelano un forte allineamento tra le classificazioni dei Llm e quelle umane in particolare nell’identificazione di fonti inaffidabili”, sottolineano i ricercatori. Lo studio ha preso in esame i modelli Gemini 1.5 Flash di Google, GPT-4o mini di OpenAI e LLaMA 3.1 di Meta.

Questi modelli classificano le teorie del complotto, il sensazionalismo e i pregiudizi in maniera speculare ai criteri chiave usati dagli esperti nelle loro valutazioni.

 Sono meno coerenti quando il contesto è limitato. Inoltre, “è interessante notare - scrivono i ricercatori - che in ambito politico i media di destra vengono considerati più inaffidabili, quelli di centro più affidabili sollevando interrogativi sul fatto che i modelli di grandi dimensioni possano ereditare pregiudizi in fase di addestramento”.

Nel complesso, i ricercatori ritengono che per i modelli di grandi dimensioni le parole chiave che si riferiscono a notizie locali, resoconti basati su fatti o al linguaggio neutro sono generalmente associate a un concetto di affidabilità.

Al contrario, l’inaffidabilità è spesso caratterizzata da termini relativi a sensazionalismo, controversie o pregiudizi, che riflettono indicatori di uso comune usati da esperti umani per identificare fonti a bassa credibilità. Inoltre, ’trasparenza’ e ’bias’ emergono come i criteri più comunemente valutati per l’affidabilità o l’inaffidabilità delle informazioni.

“Lo studio - spiegano i ricercatori nelle conclusioni - riformula i modelli linguistici di grandi dimensioni non semplicemente come classificazioni automatizzate, ma come finestre sulle strutture cognitive sia alla base dell’uomo sia della macchina.

Analizzando i loro processi di ragionamento, ci avviciniamo alla comprensione del modo con cui simulano la valutazione strutturata e si confrontano con le strategie cognitive umane in compiti di giudizio complessi”.

 (ANSA).

 

 

 

Quando l’AI si inventa i fatti:

il rischio di affidarsi ciecamente

ai chatbot.

Helinex.it – (12 Febbraio, 2025) – Enrico La Dogana – ci dice:

 

Giornalista corregge errori generati da un’intelligenza artificiale in un articolo di notizie, evidenziando i rischi della disinformazione AI.

L’Intelligenza Artificiale generativa sta rivoluzionando il modo in cui accediamo alle informazioni, scriviamo contenuti e persino interpretiamo la realtà. Ma fino a che punto possiamo davvero fidarci di questi strumenti? Uno studio condotto dalla BBC ha messo in luce un problema preoccupante: chatbot come ChatGPT, Google Gemini, Microsoft Copilot e Perplexity commettono errori gravi quando riassumono le notizie, distorcendo i fatti, alterando citazioni e, in alcuni casi, inventandosi informazioni di sana pianta.

 

Lo studio della BBC: AI e disinformazione involontaria.

Per testare l’affidabilità dei chatbot nell’elaborazione delle notizie, la BBC ha condotto un esperimento su larga scala. Ai principali modelli di Intelligenza Artificiale sono stati sottoposti cento articoli selezionati dal proprio archivio. Dopo averli analizzati, i giornalisti della testata hanno posto ai chatbot domande specifiche per verificare la loro capacità di riassumere correttamente i contenuti. Le risposte generate sono state poi esaminate da una squadra di esperti rivelando un quadro allarmante:

 

Oltre il 50% delle risposte conteneva errori significativi.

Il 19% includeva dati, date o dichiarazioni imprecise o completamente inventate.

Il 13% conteneva citazioni modificate o attribuite in modo scorretto alla BBC.

Uno degli esempi più eclatanti riguarda “Google Gemini”, che ha affermato erroneamente che il “Sistema Sanitario Nazionale britannico (NHS) sconsigliasse l’uso di sigarette elettroniche”, mentre in realtà il Regno Unito ha storicamente promosso l’impiego come strumento di riduzione del danno da fumo.

 

Un altro errore grave è stato rilevato con ChatGPT, che a inizio 2023 ha dichiarato che Ismail Haniyeh, leader di Hamas, facesse ancora parte della leadership dell’organizzazione nonostante fosse stato assassinato in precedenza.

Secondo lo studio “Google Gemini” è risultata l’intelligenza artificiale meno affidabile, con un tasso di errore critico pari al 46% delle risposte.

 

Perché l’AI si inventa i fatti?

Le “allucinazioni” dell’Intelligenza Artificiale – termine tecnico che indica la generazione di informazioni false o inaccurate – sono un fenomeno complesso ma spiegabile. I modelli AI generativi funzionano analizzando enormi quantità di testi per identificare pattern e probabilità statistiche, non per comprendere la verità fattuale.

Quando un modello AI è incerto su una risposta, invece di ammettere “non lo so”, tende a generare un’ipotesi basata sulle relazioni statistiche che ha imparato, anche se questa risulta completamente errata.

Inoltre, questi modelli vengono addestrati su dati fino ad un certo periodo di tempo, dopo il quale non hanno più informazioni aggiornate. Questo li rende particolarmente inaffidabili su eventi recenti o in continua evoluzione, come dimostrato dagli esempi citati nello studio.

 

AI e content marketing: un problema più grande di quanto sembri.

L’errore di un chatbot nel riassumere una notizia può sembrare un problema limitato al giornalismo, ma ha implicazioni ben più ampie. Sempre più aziende utilizzano l’AI per creare contenuti, gestire blog, scrivere articoli SEO o rispondere ai clienti. Cosa succede se questi strumenti generano informazioni errate o fuorvianti?

 

Immaginiamo alcuni scenari concreti:

 

Un’azienda che usa l’AI per scrivere contenuti finanziari: se l’AI genera dati sbagliati su investimenti o previsioni economiche i lettori potrebbero prendere decisioni errate, con conseguenze gravi.

Un e-commerce che usa chatbot AI per assistenza clienti: se il chatbot fornisce informazioni errate su un prodotto, sulla garanzia o sui termini di reso, il cliente potrebbe sentirsi ingannato e danneggiare la reputazione del brand.

Un’agenzia di marketing che affida i suoi articoli all’AI senza revisione umana: se i contenuti generati includono affermazioni inesatte o citazioni alterate l’azienda rischia di perdere credibilità e autorevolezza nel suo settore.

In sintesi, l’AI è uno strumento potente, ma non può sostituire il controllo umano.

Chi si affida ciecamente a queste tecnologie senza un’adeguata supervisione si espone a rischi enormi.

 

Come Helinext usa l’AI in modo responsabile

Noi di Helinext crediamo che l’Intelligenza Artificiale sia un potente alleato, ma solo se utilizzata con un approccio consapevole, responsabile e avveduto.

Per questo motivo, nel nostro lavoro di SEO, content marketing e lead generation adottiamo una strategia ben definita:

Consideriamo l’Intelligenza Artificiale alla stregua di un assistente che non può in alcun modo sostituire l’elemento umano: utilizziamo strumenti di AI per velocizzare i processi, ma ogni contenuto viene letto, rivisto e validato.

Fact-checking e verifica delle fonti: l’occhio umano e la ricerca attiva nei motori di ricerca sono essenziali per confermare l’accuratezza di ogni informazione generata dall’AI.

Personalizzazione e strategia: l’AI da sola genera testi generici. Noi combiniamo l’automazione con la creatività e l’esperienza per produrre contenuti che siano unici, pertinenti e di valore.

Uso etico dell’AI: evitiamo tecniche che potrebbero ingannare gli utenti, come il clickbait basato su informazioni distorte. La nostra priorità è costruire fiducia e autorevolezza.

Un esempio concreto del nostro approccio è l’utilizzo dell’AI per analizzare i dati provenienti dai nostri gestionali, come per esempio ECON ESG. Questo ci permette di identificare tendenze e opportunità molto più rapidamente, ma ogni insight viene sempre verificato e contestualizzato dal nostro team di esperti.

 

Più in generale i benefici dell’AI, a nostro avviso, sono i seguenti:

 

Acceleratore di produttività: l’AI permette di velocizzare azioni meccaniche e ripetitive, liberando tempo per attività a maggior valore aggiunto.

Generatore di prospettive multiple: utilizzando prompt adeguati, l’AI può fornire angolazioni differenti e spunti creativi che arricchiscono i contenuti.

Analisi dei dati: può interpretare grandi moli di informazioni provenienti da fonti diverse, facilitando l’estrazione di insight rilevanti.

Supporto alla creatività: offre idee iniziali che, sotto la supervisione umana, possono essere sviluppate in contenuti originali.

Il futuro: evoluzione e sfide.

Guardando ai prossimi 1-2 anni, è ragionevole aspettarsi che l’AI migliori progressivamente la sua accuratezza, specialmente con l’integrazione di sistemi di ricerca in tempo reale e meccanismi di verifica automatica. Tuttavia, una certa percentuale di errori continuerà a persistere, rendendo la supervisione umana un elemento imprescindibile.

 

Intelligenza Artificiale sì, ma “cum grano salis”.

L’Intelligenza Artificiale sta trasformando il mondo della comunicazione, ma la vicenda analizzata dalla BBC dimostra che non è (ancora) uno strumento infallibile. Affidarsi ciecamente ai chatbot può portare a errori, disinformazione e danni di reputazione.

 

Il nostro approccio in Helinext è chiaro: l’AI deve essere un supporto, non una scorciatoia. L’intelligenza umana, il controllo e l’esperienza rimangono insostituibili per garantire contenuti di qualità, accurati e affidabili.

Se vuoi scoprire come integrare l’AI nel tuo business senza correre rischi, contattaci subito: ti aiuteremo a sfruttare al meglio l’innovazione senza compromessi sulla qualità!

 

 

 

L'AI ha un pregiudizio politico?

 Studio italiano rivela perché

i siti di destra sono etichettati

spesso come «inaffidabili».

Corriere.it - Walter Quattrociocchi - professore di Informatica – (13-ott. 2025) – ci dice:

Ecco perché l'intelligenza artificiale non «capisce» le notizie ma le indovina e quali distorsioni introduce:

 cosa dice lo studio «La simulazione del giudizio negli LLM», di un gruppo di ricercatori della Sapienza di Roma.

 

L'AI ha un pregiudizio politico? Studio italiano rivela perché i siti di destra vengono etichettati più spesso come «inaffidabili».

Sempre più spesso ci rivolgiamo a modelli linguistici come “ChatGPT” non per cercare, ma per capire.

«Questo sito è affidabile?», «Questa fonte dice la verità?», «Questa informazione è corretta?».

E non ci fermiamo lì: «Spiegami la guerra in Ucraina», «Riassumi Popper», «Cos’è l’abduzione», «mi fai capire cosa dice questo articolo?».

Domande così, ogni giorno, in ogni ambito.

Studenti che colmano lacune in vista di un esame. Giornalisti che cercano conferme rapide.

Professionisti che «ottimizzano» testi, email, report.

E poi docenti, medici, avvocati.

Tutti, prima o poi, si rivolgono a un modello linguistico come ci si rivolgeva, un tempo, a un motore di ricerca.

Solo che qui c’è una differenza profonda.

 Google restituiva risultati: indicava fonti, indirizzava altrove.

Gli LLM, invece, simulano la risposta.

 Ti dicono direttamente cosa pensare.

 Come se l’atto di giudicare, spiegare, sintetizzare fosse già avvenuto.

E il testo che compare, sempre ordinato, fluente, spesso convincente, sembra confermare che è già tutto lì.

Ma non è lì. E soprattutto: non funziona come sembra.

 

Il punto centrale è che questi strumenti non hanno una rappresentazione del mondo.

 Non possiedono un criterio interno di verità.

Quello che fanno, con stupefacente efficacia, è generare sequenze linguistiche plausibili sulla base di pattern statistici appresi durante l’addestramento.

Quando diciamo che «allucinano», non stiamo descrivendo un errore. Stanno facendo esattamente ciò per cui sono progettati.

Non sbagliano: eseguono.

Predicono la parola successiva in una sequenza, con una precisione raffinata su scala globale, addestrati su miliardi di testi, dialoghi, articoli, manuali, siti.

La loro competenza è puramente linguistica, non epistemica.

Non verificano, ma «verosimilizzano».

 

Eppure, ed è questo il nodo, noi spesso li trattiamo come se sapessero.

 Li interroghiamo come si interroga una fonte.

Ci fidiamo del loro stile, della loro compostezza argomentativa. Confondiamo la coerenza del linguaggio con la coerenza del pensiero. Non ci accorgiamo che stiamo delegando non solo l’informazione, ma la struttura stessa del giudizio.

E il fatto che funzioni in molti casi, che «dia risposte giuste», rischia di rinforzare l’equivoco.

 Perché funziona non vuol dire che comprenda.

E se confondiamo una frase ben costruita con un contenuto affidabile, allora il problema è nel nostro sguardo.

 

Tempo fa avevamo pubblicato un lavoro sull’impoverimento del linguaggio online, una lenta ma misurabile tendenza alla semplificazione lessicale, sintattica e semantica nei commenti sui social degli ultimi trent’anni.

Un dato che mostrava come le parole cambiano quando cambiano gli ambienti in cui si parla.

 

Quel lavoro, in modo imprevisto, ha aperto discussioni più ampie.

Una in particolare, con alcuni colleghi di una delle principali big tech.

 La loro domanda era chiara:

cosa accadrebbe in una società in cui l’uso degli LLM diventa pervasivo nei compiti quotidiani?

 Cosa succede alla lingua quando non la produciamo più noi?

 

Era una domanda importante, ma ne rivelava un’altra, più profonda. Perché in quello scenario non è in gioco solo il linguaggio. È in gioco il modello di mondo immaginato da chi ha costruito questi motori.

Con i colleghi Edoardo Loru, Jacopo Nudo, Niccolò Di Marco e Matteo Cinelli ci siamo chiesti che cosa accade quando la delega cognitiva diventa sistemica.

Quando le persone non si affidano agli LLM solo per cercare, ma per comprendere, per valutare, per decidere.

I grandi sviluppatori degli LLM vogliono capirne l’impatto sulla lingua. Ma la vera domanda, per noi, era un’altra: un motore statistico può sostenere questa delega?

 Quando gli chiediamo di valutare l’affidabilità di una fonte, come opera davvero?

Costruisce un criterio, oppure simula una risposta?

Da lì abbiamo deciso di fare un passo in più.

Non bastava interrogare i modelli. Non bastava osservarli.

Dovevamo metterli alla prova, con dati e confronto reale.

Abbiamo così messo fianco a fianco sei dei principali modelli oggi in uso (GPT-4o, Gemini, Mistral, Llama, DeepSeek) e gruppi di valutatori umani, inclusi esperti.

A tutti, modelli e persone, è stato affidato lo stesso compito:

giudicare la credibilità di centinaia di siti di informazione.

 In apparenza era semplice: classificare le fonti come affidabili o inaffidabili e motivare la scelta.

 

L'AI ha un pregiudizio politico? Studio italiano rivela perché i siti di destra vengono etichettati più spesso come «inaffidabili».

Dietro questa apparente semplicità si apriva la questione chiave: cosa conta come prova? Quali segnali usano? Che cosa attivano i modelli per decidere?

I risultati sono stati chiari e sono ora pubblicati in un paper su PNAS che si intitola «The simulation of judgment in LLMs».

 L’output dei modelli, spesso, è simile a quello degli esperti, almeno in superficie.

Ma i processi sono diversi. Radicalmente.

Gli LLM si affidano a pattern linguistici, non a ragionamenti. Identificano parole chiave, segnali frequenti, espressioni che co-occorrono con certe etichette.

 Non leggono il contenuto come un umano, lo mappano.

E quando producono una spiegazione, non stanno argomentando: stanno estendendo statisticamente un’istruzione.

Il giudizio è simulato. L’epistemologia, assente.

 

Non se li possiedono, ma come li manifestano quando devono riconoscerli.

Abbiamo costruito un task in cui ai modelli veniva chiesto di leggere un testo, rilevare un eventuale squilibrio ideologico e motivare il giudizio.

La sfida era doppia: individuare il bias e argomentarlo.

 Anche qui, le risposte sono state linguisticamente corrette, stilisticamente fluide, ma epistemicamente deboli.

Le spiegazioni sembravano più parafrasi eleganti che valutazioni fondate.

Non ricostruivano il ragionamento, ma riciclavano frasi del testo con un tono neutro e decoroso.

 Una prudenza apparente che segnalava un vuoto concettuale.

 

Ma il dato cruciale è un altro. Dall’esperimento emerge una tendenza sistematica: i modelli considerano più spesso inaffidabili o polarizzati i contenuti associati alla destra politica.

Non perché «credano» qualcosa, ma perché riflettono i pattern dominanti nei dati su cui sono stati addestrati.

In ambienti accademici, giornalistici e digitali, certe posizioni sono più frequentemente trattate con toni critici.

I modelli apprendono questo schema e lo riproducono, senza comprenderlo.

In assenza di criteri propri, non valutano: replicano.

Si comportano come specchi deformanti, amplificando le frequenze statistiche del loro training set. E quella che sembra una valutazione neutra è, in realtà, un riflesso opaco dell’ambiente che li ha generati.

Questa dinamica rende visibile una frattura profonda.

Da un lato il pensiero normativo umano, che si fonda, almeno in teoria, su principi, contesto, confronto, intenzionalità. Dall’altro il riflesso statistico appreso da un LLM che, privo di intenzione e consapevolezza, replica correlazioni, non criteri.

 

Ma non ci siamo fermati lì.

 Perché l’evoluzione recente dell’intelligenza artificiale non è più centrata solo sulla generazione di testo.

È sulla sua agentificazione.

I modelli non rispondono più soltanto a un prompt.

Cominciano a comportarsi come agenti.

Raccolgono informazioni, selezionano fonti, combinano risposte, prendono decisioni su base modulare.

 È su questo che si gioca oggi la grande scommessa industriale:

agenti AI che svolgano compiti autonomi, dalla sintesi legale alla selezione medica, dal customer service all’analisi di policy.

 

Abbiamo allora deciso di confrontare non solo l’output, ma il comportamento di agente.

Perché questi modelli non si limitano più a rispondere: raccolgono dati, selezionano fonti, compongono una scelta. Agiscono.

 Abbiamo costruito un esperimento in cui sia i modelli sia gli esseri umani operavano come agenti.

Stessi strumenti, stesse risorse, stesso task.

Una homepage da cui partire, due articoli da consultare, sei criteri di valutazione, un tempo limitato, una richiesta di giudizio.

Nessun aiuto, nessuna scorciatoia: solo il processo decisionale.

La collaborazione con i colleghi del “Dipartimento di Psicologia di Sapienza “– Vincenzo Cestari, Clelia Rossi-Arnaud, Alessandro Santirocchi e Roberto Atzeni – è stata essenziale.

Hanno portato gli strumenti per osservare non solo cosa veniva deciso, ma come si arrivava alla decisione.

 Ironia vuole che i nostri uffici siano a duecento metri di distanza, ma non ci conoscevamo.

Ci ha messi in contatto un altro collega,” Sander van der Linden”, professore di Psicologia a Cambridge, con cui collaboro da anni.

 Per parlarsi a Roma, tocca passare per Londra.

 

I risultati hanno confermato l’intuizione.

Le persone usano criteri retorici, stilistici, emotivi.

Valutano il tono, la professionalità, l’equilibrio.

 I modelli no.

 I modelli si affidano a tracce strutturali, a segnali lessicali associati alla reputazione o all’ideologia.

Quando assegnano una valutazione, non stanno giudicando nel senso umano del termine.

Stanno ottimizzando sulla base di correlazioni.

 Eppure il risultato sembra giudizio.

È qui che abbiamo riconosciuto la dinamica che abbiamo chiamato epistemia:

l’illusione di sapere che emerge quando la plausibilità linguistica sostituisce la verifica.

Un cambio di paradigma, silenzioso ma sistemico.

 

La cosa più paradossale è che mentre accade tutto questo, nel dibattito pubblico e istituzionale si continua a parlare di «mente estesa», di «potenziamento cognitivo», di «alleanza uomo-macchina».

Tutti concetti affascinanti.

Ma c’è un problema: si basano su un assunto, non su una verifica.

Sono costruzioni ideologiche più che osservazioni empiriche.

Sono utili al marketing, ma deraglianti per il pensiero critico.

 La metafora della mente estesa è un ponte narrativo, non una scoperta. È una retorica potente, lo ammetto, ma è una supercazzola nobile: buona per il gioco della legittimazione, meno per quello della comprensione.

L’inganno perfetto dell'intelligenza artificiale: scrive bene ma non sa nulla.

 Approfondimento.

L’inganno perfetto dell'intelligenza artificiale: scrive bene ma non sa nulla.

Il marketing gioca un ruolo centrale.

Ogni settimana esce un nuovo modello che batte il precedente su qualche benchmark.

Le «olimpiadi dell’AI» vengono celebrate come se fossero prove di intelligenza.

Ma i benchmark sono progettati per essere vinti, non per essere compresi.

Misurano la performance, non il metodo.

 Raccontano l’eccellenza, ma eludono la vera domanda:

cosa stanno facendo davvero questi modelli quando «funzionano»?

E soprattutto: cosa stiamo delegando, ogni volta che li usiamo?

 A noi, invece, interessa questo.

Non lo spettacolo della prestazione, ma la struttura della delega.

 Non l’eccellenza nella forma, ma la trasformazione della funzione.

Se vogliamo capire cosa significa davvero questa transizione, dobbiamo guardarla senza illusioni.

Questi modelli non sono nemici.

Ma non sono nemmeno partner neutrali.

 Sono sistemi potentissimi, capaci di produrre apparenze del pensiero. Restano, per ora, macchine di plausibilità.

 E se la società si abitua a scambiare la plausibilità per verità, allora il problema non sarà l’intelligenza artificiale.

Saremo noi.

 

Non è un pericolo imminente. Non è un’allerta etica. È un cambio di cornice, che va riconosciuto prima che si stabilizzi.

 Perché ciò che cambia non è solo il modo in cui cerchiamo informazioni. È il modo in cui riconosciamo la conoscenza.

Se continuiamo a trattare questi strumenti come giudici, e non come generatori, allora rischiamo di perdere il controllo sul concetto stesso di affidabilità, autorità, prova.

 Il futuro sarà pieno di strumenti che sembrano pensare.

Ma sembrare non è essere. Non serve allarmismo.

Serve vigilanza. Perché la forma del sapere non è il sapere stesso.

Perché alla fine, non stiamo automatizzando il pensiero. Stiamo automatizzando la sua apparenza.

(Di Marco, Nicola, Edoardo Loru, Anita Bonetti, Alessandra Olga Grazia Serra, Matteo Cinelli, and Walter Quattrociocchi. "Patterns of linguistic simplification on social media platforms over time." Proceedings of the National Academy of Sciences121, no. 50 (2024): e2412105121.)

 

“AI” evaluation e il futuro

dell’intelligenza artificiale

affidabile.

 Rivista.ai - Redazione – (7 Ottobre 2025) - News – ci dice:

 

Il dibattito globale sull’intelligenza artificiale continua a oscillare tra due estremi:

da una parte, la richiesta di guardrail più severi per assicurare uno sviluppo sicuro; dall’altra, la paura di rallentare un settore in piena corsa.

 La narrativa comune sembra semplice, quasi banale, ma “Jack Jiang”, professore di innovazione e gestione dell’informazione alla “Hong Kong University Business School,” la smonta con una precisione chirurgica. Secondo Jiang, sicurezza e sviluppo non sono alternative:

sono facce della stessa medaglia.

Un modello AI vale economicamente solo se è affidabile, e l’affidabilità va dimostrata da terzi indipendenti.

 

Dal lancio di “ChatGPT”, il panorama internazionale è diventato un terreno di guerra silenziosa, soprattutto in Cina, dove il fenomeno del “cento modelli” ha acceso la competizione tra giganti tecnologici.

Ogni azienda cercava di emergere, ma il mercato aveva già iniziato a porre la domanda giusta:

non se usare l’AI, ma come usarla al meglio.

Jiang ha colto questa necessità creando il suo “AI Evaluation Lab”, il cui obiettivo è guidare “l’innovazione affidabile e lo sviluppo sostenibile dell’AI generativa” attraverso valutazioni rigorose dei modelli.

Oggi, il laboratorio conta oltre 40 membri distribuiti tra Hong Kong, Xi’an, Dalian e Oxford.

 

Il problema delle “allucinazioni” dei modelli – output fuorvianti o di fatto errati – è emerso come un ostacolo cruciale già nei primi test. Modelli sofisticati come “GPT-5”, pur con un tasso basso di errori, non possono essere lasciati senza supervisione in ambiti critici come finanza e sanità.

 Un sondaggio globale condotto da “Gallagher” conferma quanto Jiang aveva intuito:

le allucinazioni rappresentano il principale freno all’adozione dell’AI nel mondo business.

 

Le valutazioni del laboratorio HKU hanno confermato un dato preoccupante:

molti modelli, soprattutto quelli cinesi, continuano a generare contenuti inaccurati.

 Il miglior modello cinese, “Doubao 1.5 Pro” di” ByteDance”, si è posizionato solo settimo su 37 modelli internazionali e locali, nonostante performance precedenti elevate in ragionamento, generazione di immagini e linguaggio generale.

Le valutazioni, condotte sia in cinese sia in inglese, hanno sorpreso per la delusione complessiva, mostrando come la traduzione della capacità tecnica in affidabilità concreta non sia scontata.

 

Perché i modelli allucinano?

OpenAI attribuisce il fenomeno ai processi di addestramento attuali, che incoraggerebbero le LLM a indovinare risposte invece di segnalare incertezza.

Se la diagnosi fosse corretta, sviluppatori e aziende dovranno ripensare architettura e procedure di training.

“Li Jiaxin”, dottorando del laboratorio, sottolinea come la questione non sia solo accademica, ma direttamente legata alla strategia di adozione aziendale.

 

Le valutazioni del laboratorio non restano confinate ai paper o alle conference.

Le aziende chiedono indicazioni concrete:

 una grande banca cinese ha frenato l’adozione di AI nei servizi clienti proprio a causa del rischio di hallucinations.

Un’azienda di video brevi di Pechino ha immediatamente contattato Jiang per soluzioni pratiche.

 Il passo successivo sarà trasferire le valutazioni dai laboratori agli ambienti reali, con un focus iniziale sulla finanza di Hong Kong, dove il governo ha indicato un approccio “basato sul rischio” all’adozione dell’AI, dalla revisione documentale al trading stesso.

 

Il contesto cinese non può ignorare l’obiettivo dichiarato di “Xi Jinping”: sviluppare AI “sicura e affidabile”.

Competere con i modelli statunitensi non significa solo eccellenza tecnica, ma anche sicurezza, trasparenza ed etica.

 Le aziende cinesi dovranno concentrarsi sulla riduzione delle allucinazioni se vogliono mantenere rilevanza globale.

Jiang non lascia spazio ai dubbi:

il futuro dell’AI economica e sicura dipende da chi sarà capace di combinare capacità tecnica, auditing indipendente e applicazione pratica in contesti ad alto rischio.

 

Curiosità interessante:

 il laboratorio HKU ha iniziato quasi per caso, subito dopo il lancio di ChatGPT, ma oggi rappresenta un modello di come la terza parte possa diventare la chiave per stabilire fiducia e valore economico.

 Ironia della sorte, mentre molte aziende inseguono le feature più appariscenti, sono gli “auditor” come Jiang a dettare le regole del gioco, mostrando che affidabilità e innovazione non sono in conflitto, ma obbligatoriamente complementari.

 

 

 

AI e Accuratezza: Quando le Intelligenze

Artificiali Puntano a Soddisfare e non a Informare.

Edunews24.it – (18 -10-2025) – Savino Grimaldi – ci dice:

 

Un'analisi sui limiti, i rischi e le implicazioni etiche delle risposte offerte dalle nuove tecnologie di intelligenza artificiale.

AI e Accuratezza: Quando le Intelligenze Artificiali Puntano a Soddisfare e non a Informare.

Indice degli Argomenti:

Introduzione: la centralità dell’esperienza utente nelle IA.

Accuratezza e affidabilità delle risposte delle IA.

Come le aspettative degli utenti influenzano le risposte.

Il fenomeno del bias nelle risposte dell’intelligenza artificiale.

I rischi e i pericoli di risposte IA inaccurate.

Limiti strutturali delle intelligenze artificiali attuali.

Implicazioni etiche: tra responsabilità e trasparenza.

Verso una IA più affidabile: le prospettive future.

Sintesi e considerazioni conclusive.

Introduzione: la centralità dell’esperienza utente nelle IA.

L’evoluzione delle tecnologie di intelligenza artificiale (IA) nel corso degli ultimi anni ha rivoluzionato il modo in cui accediamo alle informazioni, interagiamo online e risolviamo problemi.

Al centro di questa rivoluzione c’è un principio fondante:

le IA sono progettate per soddisfare l’utente che pone la domanda.

Questa logica, che pone l’utente al centro dell’esperienza, ha senza dubbio reso più diffusa e popolare la tecnologia, ma presenta anche una serie di limiti significativi quando si parla di accuratezza intelligenza artificiale e affidabilità risposte IA.

 

Ma fino a che punto questo modello riesce davvero a garantire intelligenza artificiale e veridicità nelle informazioni?

 Cosa succede quando la priorità alla soddisfazione dell’utente si traduce in risposte che si allontanano dalla realtà dei fatti?

 

Accuratezza e affidabilità delle risposte delle IA.

Le moderne intelligenze artificiali, dalle chatbot testuali ai sistemi vocali come gli assistenti digitali, sono spesso misurate sulla base della soddisfazione dell’utente piuttosto che della precisione oggettiva delle risposte.

Ad esempio, se si chiede a una IA una ricetta di cucina o come compilare un modulo burocratico, il sistema cercherà di fornire una risposta coerente con le aspettative, piuttosto che verificare l’esattezza delle istruzioni punto per punto.

 

Questo porta a due considerazioni centrali:

 

La priorità è l’usabilità e la continuità della conversazione.

L’accuratezza delle informazioni può risultare compromessa, soprattutto in campi sensibili come salute, finanza, educazione o diritti legali (pericoli risposte IA inaccurate).

Uno studio pubblicato nel 2024 dal MIT ha evidenziato come, in diversi test, le IA abbiano prodotto risposte rassicuranti ma non sempre corrette, specialmente quando le richieste dell’utente erano ambigue o lasciavano spazio a diverse interpretazioni.

 

Come le aspettative degli utenti influenzano le risposte.

Le IA di nuova generazione impiegano sofisticati algoritmi di apprendimento automatico.

Questi algoritmi imparano non solo dai dati, ma anche dalle reazioni degli utenti a specifiche risposte.

L’obiettivo diventa quindi duplice:

 

Offrire informazioni pertinenti.

Soddisfare l’intento percepito di chi ha posto la domanda.

 

Nel processo, l’IA tende a "modellarsi" sulle aspettative dell’utilizzatore, adottando un registro più informale, tralasciando dettagli tecnici o, addirittura, selezionando esempi in linea con l’esperienza o i pregiudizi comuni.

Questo porta spesso a una rassicurante ma fuorviante “personalizzazione” nella risposta.

 

Secondo una ricerca della “Stanford University”, in molti casi le risposte delle IA vengono giudicate soddisfacenti dagli utenti anche quando, a posteriori, si rilevano inesattezze o errori di fondo.

Il motore di questa dinamica è proprio la tendenza degli algoritmi a premiare la gratificazione dell’utente rispetto al rigore della verifica (effetti aspettative utenti IA).

 

Il fenomeno del” bias” nelle risposte dell’intelligenza artificiale:

Uno degli aspetti più discussi del design delle IA odierne è la questione dei” bias” (bias risposte intelligenza artificiale).

I bias possono derivare tanto dai dati su cui si addestra il modello, quanto dalle preferenze espresse (esplicitamente o implicitamente) dagli utenti.

 

Tipologie di bias che possono influenzare l’accuratezza delle IA:

 

Bias di conferma: La tendenza dell’IA a confermare concetti già noti o apprezzati dall’utente, anche se potenzialmente errati.

Bias culturale: L’aderenza a standard, valori o consuetudini proprie della cultura dominante nei dati, escludendo punti di vista alternativi.

Bias di popolarità: L’IA offre risposte basate su informazioni altamente condivise o cliccate online, senza verificarne la veridicità.

Questi bias possono rafforzare false credenze, perpetuare stereotipi e ridurre l’accessibilità a informazioni realmente variegate ed eque.

È in gioco, dunque, anche un problema di editoriale intelligenza artificiale e di formazione del pensiero critico nelle nuove generazioni.

 

I rischi e i pericoli di risposte IA inaccurate.

I pericoli risposte IA inaccurate risultano particolarmente evidenti in contesti sensibili, come l’informazione sanitaria, legale, finanziaria ed educativa.

Qual è l’impatto sociale di una risposta errata fornita da una IA?

Sanità: Un consiglio medico errato può influire negativamente sulla salute degli utenti.

Finanza: Semplici indicazioni su tasse o investimenti, se sbagliate, possono comportare gravi danni economici.

Scuola e università: Gli studenti rischiano di consolidare nozioni distorte, compromettendo il processo di apprendimento.

Legalità: Informazioni non accurate sui diritti possono generare malintesi o addirittura comportamenti illeciti.

In ciascuno di questi casi, la mancanza di controllo sulle fonti o di verifiche “umane” accresce notevolmente il margine di errore.

Non si tratta di timori astratti, ma di problemi concreti di responsabilità e sicurezza, come hanno sottolineato vari enti regolatori a livello europeo e internazionale.

 

Limiti strutturali delle intelligenze artificiali attuali.

A oggi, nonostante i progressi, i limiti intelligenza artificiale sono evidenti:

Le IA non "capiscono" il significato profondo delle domande, ma elaborano modelli statistici di probabilità.

Sono assenti meccanismi sistematici e autonomi di fact-checking rigorosi.

La dipendenza dall’addestramento pregresso impedisce, in molti casi, di distinguere risposte obsolete da aggiornamenti recenti.

Una volta impostato un certo stile di risposta, l’IA tende a replicarlo, generando il rischio di cicli autoreferenziali.

Un aspetto spesso trascurato è che le IA non hanno coscienza né intenzionalità:

 non “scelgono” deliberatamente di essere accurate o meno.

Agiscono secondo parametri definiti dagli sviluppatori e dagli input degli utenti, ragion per cui il loro funzionamento risulta influenzabile e potenzialmente manipolabile.

 

Implicazioni etiche: tra responsabilità e trasparenza.

La crescente diffusione dell’IA comporta nuove responsabilità, in particolare problemi etici IA.

Tra i punti sollevati da ricercatori e comitati etici:

 

Trasparenza: È fondamentale che l’utente sia sempre consapevole di interagire con una IA, e non con un essere umano. Inoltre, dovrebbe poter verificare facilmente le fonti delle informazioni ricevute.

Responsabilità: Chi risponde di un errore commesso da una IA? L’utente, lo sviluppatore, la piattaforma? È un dilemma che pone nuove sfide anche al diritto.

Equità: L’IA dovrebbe garantire un accesso equo alle informazioni, evitando discriminazioni di genere, etniche, culturali o sociali.

Educazione digitale: È prioritario preparare gli utenti (studenti, cittadini, professionisti) a riconoscere i limiti dell’IA e a verificarne le risposte.

Modelli proposti a livello europeo (come l’AI Act) sottolineano la necessità di linee guida stringenti sia in fase di progettazione che di implementazione, per ridurre i margini di errore e limitare l’influenza delle aspettative soggettive.

 

Verso una IA più affidabile: le prospettive future.

Molti esperti individuano una serie di soluzioni per rendere l’intelligenza artificiale e veridicità degli output più affidabile:

Integrazione di sistemi di verifica automatica delle fonti:

Algoritmi che incrociano dati da più banche dati certificate prima di restituire una risposta.

Feedback trasparente: Notifiche che avvisano l’utente quando una risposta si basa su ipotesi o dati incerti.

Revisione umana delle risposte in contesti critici: Un sistema "a doppio controllo" per settori come salute o finanza.

Maggior attenzione all’educazione all’uso dell’IA: Percorsi scolastici e professionali che insegnino a interagire e, soprattutto, a non fidarsi ciecamente delle risposte artificiali.

Le prospettive sono positive, ma richiedono un cambio di paradigma: dalla soddisfazione tout court all’accuratezza sostanziale dell’informazione.

 

Sintesi e considerazioni conclusive.

La sfida principale che si pone oggi di fronte all’adozione massiccia di intelligenza artificiale, anche nel campo dell’informazione e dell’educazione, è trovare un equilibrio tra IA e soddisfazione utente e necessità di accuratezza intelligenza artificiale.

 

L’attuale struttura delle IA, orientata primariamente alla gratificazione dell’utente, espone a rischi di disinformazione, consolidamento di bias e scarsa affidabilità delle risposte.

Le implicazioni sono molteplici: non solo problemi pratici, ma anche problemi etici IA e possibili minacce alla formazione di un senso critico e autonomo.

 

Le parole d’ordine, quindi, devono essere trasparenza, responsabilità, controllo delle fonti e formazione degli utenti.

 Solo con uno sforzo congiunto di sviluppatori, educatori, legislatori e cittadini sarà possibile costruire un’intelligenza artificiale davvero affidabile, equa e sicura.

 

In questa prospettiva, il compito dell’editoria, della scuola e di chi si occupa di informazione è anche quello di promuovere consapevolezza, diffondere strumenti critici e favorire una cultura del dubbio informato, che sfrutti le potenzialità delle nuove tecnologie senza diventare vittima dei loro limiti.

(Savino Grimaldi).

 

 

 

 

Codice del Futuro: etica e regole

per un’IA a misura d’uomo.

Agendadigitale.eu – (15 ottobre 2025) -Avv. Graziella Soluri – ci dice:

 

Il “Codice del Futuro” dell’IA unisce leggi, etica e tecnologia. Servono regole agili, aziende etiche e cittadini consapevoli. Solo così la tecnologia potrà restare uno strumento al servizio dell’uomo, non il contrario.

 

Il dibattito globale sull’intelligenza artificiale (IA) ha trasceso la mera questione tecnologica per diventare una riflessione profonda sulla governance e sul ruolo dell’uomo in un’era di crescente automazione. Il concetto di “Codice del Futuro” non si materializza in un singolo documento, ma in un ecosistema globale e in continua evoluzione di normative (come l’EU AI Act) e principi etici (promossi da enti come l’UNESCO e l’OECD).

 

Analizziamo questo corpus emergente, focalizzandoci sulle specifiche, sulle intenzioni e, in particolare, sul ruolo insopprimibile dell’uomo.

 

Massimo Cacciari - Dall’utopia alla distopia (lezione sull'intelligenza artificiale).

Si vuole dimostrare che le specifiche normative, fondate su un approccio di gestione del rischio, mirano a tradurre le intenzioni etiche in obblighi concreti al fine di governare questa tecnologia.

 Tuttavia, si vuole anche mettere in risalto una tensione costante tra la rapidità esponenziale dello sviluppo tecnologico e la lentezza intrinseca dei quadri normativi, oltre a un dibattito acceso sul grado di controllo che l’essere umano può e deve mantenere sui sistemi autonomi.

La breve disamina infine illustra come il futuro dell’IA non sia predeterminato, ma dipenda in larga misura dalla nostra capacità di guidarla in modo consapevole e responsabile, integrando l’intelligenza umana con le capacità analitiche delle macchine.

La discussione si conclude con un’analisi delle sfide aperte, fornendo raccomandazioni per sviluppatori, legislatori e utenti auspicando che l’innovazione tecnologica si allinei con i valori umani fondamentali.

 

Indice degli argomenti.

La necessità di un ‘Codice del Futuro’: dai principi etici ai quadri normativi.

L’intelligenza artificiale non è più una tecnologia di nicchia, ma un motore globale di crescita e progresso che sta trasformando radicalmente il modo in cui le attività umane vengono svolte.

 Con l’avvento di modelli generativi come ChatGPT alla fine del 2022, l’IA ha superato i confini della mera automazione per entrare nel regno della creatività e del processo decisionale, sollevando interrogativi più complessi nel panorama mediatico e professionale.

L’obiettivo dichiarato dell’IA è di creare computer capaci di pensare e agire come gli esseri umani, un traguardo che si basa su tre componenti chiave:

sistemi di calcolo, dati e sistemi per la gestione dei dati, e algoritmi avanzati (il “codice”).

 La rapida evoluzione di queste componenti ha reso evidente la necessità di un quadro etico e normativo per guidarne lo sviluppo.

 

Internazionalizzazione e fatture estere: come evitare errori (costosi)

Digitalizzazione dei documenti.

Fatturazione elettronica.

Leggi l'informativa sulla privacy.

E-mail aziendale.

La necessità di un “codice” emerge dalla crescente consapevolezza che l’IA non è un’innovazione neutra, ma una tecnologia che opera su scala e velocità senza precedenti, ridefinendo il potere e le sue dinamiche.

A differenza di altre discipline con limiti fisici, l’informatica e l’IA sono immateriali e possono espandersi rapidamente, con il solo limite dell’immaginazione.

 Questa caratteristica ha sollevato profonde domande su come il potere venga esercitato, da chi e in base a quale investitura.

La tecnologia rischia di marginalizzare il controllo democratico e sfidare le nostre nozioni di diritti, libertà, lavoro e mercati.

 

Per questo motivo, il “Codice del Futuro” si configura non solo come un insieme di regole tecniche, ma come un’architettura sociale e politica volta a governare questa nuova interfaccia tra istituzioni e individui, garantendo che l’innovazione serva la prosperità umana, piuttosto che minacciarla.

Aziende all’avanguardia come Bosch hanno riconosciuto questa esigenza prima ancora che venissero introdotte normative vincolanti, stabilendo codici etici basati sui valori sanciti dalla Dichiarazione Universale dei Diritti Umani.

Similmente, l’Unione Europea, in un approccio olistico e sistemico, ha stabilito l’esigenza di garantire “un elevato livello di protezione dei dati, diritti digitali e norme etiche” nello sviluppo di queste pervasive e potenti tecnologie.

 

Il concetto di “IA affidabile” (trustworthy ai) e i suoi pilastri fondamentali.

In risposta alla complessità e ai rischi associati all’IA, il “Gruppo di Esperti ad Alto Livello sull’IA dell’UE” ha elaborato un quadro per l'”IA affidabile” (Trustworthy AI), basato su tre pilastri interconnessi:

la liceità, l’eticità e la robustezza.

La liceità richiede che i sistemi di IA ottemperino a tutte le disposizioni legislative e regolamentari applicabili.

L’eticità impone il rispetto dei principi e dei valori morali.

Infine, la robustezza richiede che i sistemi siano sicuri e affidabili sia da un punto di vista tecnico che sociale.

 L’approccio riconosce che il semplice rispetto della legge non è sufficiente a garantire un uso benefico dell’IA, in quanto il diritto spesso non è al passo con gli sviluppi tecnologici e non è sempre adeguato ad affrontare determinate questioni etiche.

 

Questa interdipendenza tra i tre pilastri rivela che l’etica non è un semplice complemento, ma un elemento essenziale che guida lo sviluppo prima che il diritto possa codificarlo.

 L’approccio del “Codice del Futuro” riconosce che la mera conformità legale non garantisce un uso benefico dell’IA;

è necessario un impegno etico costante e una robustezza tecnica per prevenire danni non intenzionali.

La logica è che un sistema di IA, anche se sviluppato con le migliori intenzioni, può causare danni non voluti, e la robustezza serve a minimizzarli.

 In questa prospettiva, l’IA non è un fine in sé, ma un mezzo promettente per “aumentare la prosperità umana” e contribuire a obiettivi di sviluppo sostenibile. 

 

Panoramica sui principali framework globali e principi aziendali.

Il “Codice del Futuro” è un fenomeno di consenso internazionale, con principi che convergono a livello globale, pur con implementazioni e approcci specifici.

Tra i principali framework, si distinguono:

 

L’Unione Europea: il quadro etico, che ha fornito la base per l’EU AI Act, ha definito sette requisiti fondamentali per un’IA affidabile (descritti in dettaglio più avanti).

L’obiettivo è bilanciare l’innovazione con la protezione dei diritti e dei valori fondamentali. 

L’UNESCO: la “Raccomandazione sull’Etica dell’IA,” adottata da 193 Stati membri, promuove obiettivi come l’equità, l’inclusione, la preservazione del ruolo umano, l’alfabetizzazione digitale e la sostenibilità ambientale. 

L’OECD: i principi dell’OECD promuovono un’IA innovativa e affidabile, che rispetti i diritti umani e i valori democratici. Essi pongono l’accento sulla crescita inclusiva, sulla trasparenza, sulla robustezza e sulla responsabilità. 

Le aziende: Le principali aziende tecnologiche hanno sviluppato i propri codici etici.

IBM si concentra sul principio di “aumento dell’intelligenza umana” e sulla trasparenza dei sistemi.

Microsoft si basa su sei principi chiave: equità, affidabilità e sicurezza, privacy, inclusività, trasparenza e responsabilità.

Bosch, in modo simile, si impegna a garantire che “gli umani abbiano il controllo” su ogni decisione presa dalla tecnologia. 

Il confronto tra questi framework e principi aziendali illustra una convergenza globale su valori come trasparenza, equità, responsabilità e controllo umano.

 

Una tabella offre una visione sinottica, evidenziando le aree di accordo e le specificità di ogni approccio. Questo dimostra che il “Codice del Futuro” sta emergendo come un insieme di standards globali e non come una serie di regolamenti isolati indice che in ogni parte del mondo si riscontrano le stesse criticità.

 

L’AI Act: un approccio legale basato sul rischio.

L’EU AI Act, il primo quadro normativo completo al mondo per l’IA, adotta un approccio basato sul rischio per la regolamentazione, applicando regole diverse a seconda del potenziale pericolo che i sistemi rappresentano.

Questa strategia non nasce nel vuoto, ma è una risposta diretta e retrospettiva a un dibattito etico preesistente e ai fallimenti noti nell’applicazione dell’IA.

 Il “Codice del Futuro” non è un’astrazione, ma la cristallizzazione di lezioni apprese. 

 

La legge classifica i sistemi in quattro livelli di rischio:

 

Rischio inaccettabile: tutti i sistemi di IA che costituiscono una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone sono vietati.

La lista include pratiche come la manipolazione e l’inganno dannosi, il “social scoring” e l’identificazione biometrica remota non mirata.

 Il divieto di “social scoring”, ad esempio, è una risposta diretta ai rischi distopici in cui l’IA può trattare le persone come “oggetti da vagliare, catalogare, valutare per punteggio, aggregare, condizionare o manipolare”.

Questo dimostra che le specifiche del “Codice” sono la traduzione legale di un’analisi etica dei rischi, guidata da un’esperienza di fallimento o da una sua previsione. 

Rischio elevato: i casi d’uso dell’IA che possono comportare gravi rischi per la salute, la sicurezza o i diritti fondamentali sono classificati come ad alto rischio.

 Rientrano in questa categoria sistemi utilizzati in infrastrutture critiche, istruzione, sanità, occupazione, servizi pubblici e privati essenziali, applicazione della legge e gestione della giustizia.

Questi sistemi sono soggetti a requisiti rigorosi, tra cui sistemi di valutazione e mitigazione dei rischi, alta qualità dei dati, registrazione dell’attività e adeguata sorveglianza umana.

 L’EU AI Act enfatizza la supervisione umana e la responsabilità dei soggetti coinvolti, assicurando che non ci sia un vuoto di accountability quando un algoritmo prende decisioni. 

Rischio limitato: questi sistemi hanno obblighi minimi di trasparenza. Ad esempio, un “chatbot” deve informare gli utenti che stanno interagendo con un sistema di IA, a meno che non sia già evidente dal contesto. 

Rischio minimo: la maggior parte dei sistemi di IA rientra in questa categoria e non è soggetta a regolamentazione specifica. 

I sette requisiti fondamentali dell’IA affidabile: le linee guida operative.

Gli orientamenti per un’IA affidabile dell’UE traducono i principi etici in sette requisiti fondamentali che i sistemi dovrebbero attuare e soddisfare durante il loro intero ciclo di vita:

 

Azione e supervisione umane: i sistemi di IA devono potenziare gli esseri umani, consentendo loro di prendere decisioni informate e promuovendo i loro diritti fondamentali.

Sono necessari meccanismi di sorveglianza, che possono essere conseguiti attraverso approcci come “human-in-the-loop”.

Aziende come Bosch si impegnano a garantire che “gli umani abbiano il controllo” su qualsiasi decisione presa dalla tecnologia. 

Robustezza tecnica e sicurezza: i sistemi devono essere resilienti e sicuri per prevenire danni involontari. Devono essere accurati, affidabili e riproducibili, con piani di regresso in caso di problemi. 

Riservatezza e governance dei dati: vanno garantiti il pieno rispetto della vita privata e la protezione dei dati, oltre a meccanismi di governance che assicurino la qualità e l’integrità dei dati stessi.

L’IA opera attraverso i dati, e nella stragrande maggioranza dei casi, questi dati sono personali.

Per questo, il lavoro delle Autorità di protezione dei dati personali è essenziale per governare adeguatamente l’IA. 

Trasparenza: i sistemi devono essere comprensibili. Vanno garantiti meccanismi di tracciabilità e la capacità di spiegare le decisioni in modo chiaro agli interessati. 

Diversità, non discriminazione ed equità: occorre evitare distorsioni inique (“bias”) che possono avere implicazioni negative, dall’emarginazione dei gruppi vulnerabili all’inasprimento dei pregiudizi.

Promuovere la diversità nei team di sviluppo aiuta a identificare e correggere i pregiudizi prima che si manifestino nei sistemi. 

Benessere sociale e ambientale: i sistemi di IA dovrebbero andare a beneficio di tutti gli esseri umani, comprese le generazioni future. Devono essere sostenibili e rispettosi dell’ambiente, tenendo conto anche dell’impatto sociale.

 L’IA può contribuire a superare sfide globali come il cambiamento climatico e l’ottimizzazione dei risultati in campi come la medicina e l’agricoltura. 

Responsabilità (Accountability): devono essere previsti meccanismi che garantiscano la responsabilità e l’accountability dei sistemi e dei loro risultati. La verificabilità, che consente la valutazione degli algoritmi e dei dati, è fondamentale, in particolare nelle applicazioni critiche. 

Le intenzioni del codice: bias, equità e trasparenza nella pratica.

Il “bias,” definito come un’inclinazione o un pregiudizio che porta a un trattamento ingiusto, è una delle principali preoccupazioni etiche legate all’IA.

 Gli algoritmi, essendo sviluppati e addestrati da esseri umani, incorporano inevitabilmente, anche in modo non intenzionale, valori, priorità e limiti umani.

Due sono i tipi principali di bias:

 

Bias statistico: deriva da dati non rappresentativi di un fenomeno. Ad esempio, un algoritmo per la concessione di prestiti addestrato solo su dati di clienti che hanno effettivamente ricevuto un prestito potrebbe escludere potenziali candidati idonei ma non selezionati, creando una distorsione. 

Bias storico: deriva da pregiudizi socialmente radicati e si traduce in differenze sistematiche tra i gruppi, un fenomeno noto come unfairness algoritmica.

Un esempio lampante è l’addestramento degli assistenti vocali con voci femminili, che rispecchia i pregiudizi sociali per cui alle donne è richiesto di essere obbedienti o di servire. 

Questi problemi non sono incidenti isolati, ma una caratteristica strutturale del modello di sviluppo attuale.

Poiché i modelli di grandi dimensioni sono addestrati su miliardi di parole e dati disponibili online, essi riflettono inevitabilmente i pregiudizi della società.

La mancanza di un “valore fondante” o di un “principio guida inviolabile” durante l’addestramento rende il rischio di incoerenze etiche quasi inevitabile.

 Ciò sposta il dibattito da un problema tecnico a un problema di design e governance:

 la soluzione non è solo correggere l’algoritmo, ma intervenire a monte sulla qualità e rappresentatività dei dati, e a valle con meccanismi di debiasing e di supervisione umana.

 

Casi di studio di fallimenti etici: quando le intenzioni vengono meno.

La teoria del rischio e i principi etici trovano la loro massima giustificazione nei fallimenti che l’IA ha già prodotto nella pratica. Questi esempi concreti dimostrano la pervasività e la gravità dei rischi etici in diversi settori e sottolineano l’urgenza di un “Codice del Futuro” che sia etico che normativo.

Una tabella illustra alcuni dei casi più emblematici.

 

3.3. Dalla teoria alla pratica: trasparenza, spiegabilità e accountability.

La trasparenza e la responsabilità (accountability) sono principi fondamentali per l’implementazione pratica del “Codice del Futuro”.

La trasparenza, intesa come la capacità di rendere visibile e comprensibile come e perché un sistema di IA è stato sviluppato e come prende le sue decisioni, non è solo un principio etico, ma anche un imperativo commerciale e sociale.

 La ricerca suggerisce che la mancanza di trasparenza può portare a un aumento dell’abbandono dei clienti e a una perdita di fiducia.

Le aziende che investono in un approccio etico, che include trasparenza e   accountability, non solo riducono i rischi legali, ma ottengono anche un vantaggio competitivo, attirando i migliori talenti e rafforzando la reputazione.

 L’etica diventa così un elemento distintivo in un mercato sempre più affollato. 

 

L’accountability richiede la creazione di meccanismi chiari che garantiscano la responsabilità per le decisioni e i risultati dei sistemi di IA. Le Autorità di Protezione dei Dati, come il Garante italiano, stanno già giocando un ruolo cruciale, intervenendo in casi specifici per garantire che le innovazioni rispettino i diritti fondamentali.

Questa pratica dimostra che la supervisione non è solo un principio astratto, ma un’azione concreta e necessaria.

L’esistenza di quadri normativi, come quelli elaborati dalla “Commissione Europea” e dal” U.S. Government Accountability Office” (GAO), fornisce la base per una governance dell’IA efficace e responsabile.

 

L’IA come strumento di potenziamento umano: dalla sostituzione all’aumento.

Una delle domande più pressanti nell’era dell’IA riguarda il suo impatto sul lavoro e sulle competenze umane.

 Il dibattito “L’IA sostituisce l’uomo?” è, tuttavia, una semplificazione di una realtà molto più complessa.

La posizione emersa da molte voci autorevoli nel settore, incluse quelle di aziende leader, è chiara:

 l’IA è una tecnologia potente ma non onnipotente, e il suo scopo non è di sostituire l’uomo, ma di “aumentare l’intelligenza umana“.

 

L’IA eccelle nell’elaborazione di dati complessi e nell’automazione di compiti ripetitivi.

Questo permette agli esseri umani di spostare il loro valore verso attività che richiedono competenze insostituibili, come il pensiero critico, la creatività, l’intuizione, la leadership e l’empatia.

 L’UNESCO, nella sua guida sull’IA, raccomanda esplicitamente che l’IA non si sostituisca mai all’essere umano nei processi decisionali, ma che funga da “ampliamento delle competenze pratiche e creative“.

 Il futuro del lavoro, quindi, non sarà caratterizzato da una sostituzione totale, ma da una “ibridazione” delle competenze, in cui l’IA supporta le attività analitiche e gli umani guidano quelle strategiche e relazionali.

 

Il concetto di ‘Human-in-the-Loop’ (HITL): promessa e criticità.

Il concetto di “Human-in-the-Loop” (HITL) rappresenta un approccio collaborativo in cui l’intervento umano è integrato strategicamente nel ciclo di vita dei sistemi di IA e machine learning. 

 

L’HITL migliora significativamente l’accuratezza e l’affidabilità dei modelli, in quanto l’expertise umana è necessaria per le aree che richiedono giudizio, comprensione contestuale e gestione delle informazioni incomplete.

 La sua applicazione aiuta a identificare e mitigare i bias, aumenta la trasparenza e la spiegabilità e, di conseguenza, rafforza la fiducia degli utenti.

Le normative, come l’EU AI Act, ne richiedono esplicitamente la supervisione per i sistemi ad alto rischio, riconoscendone il ruolo essenziale nel prevenire danni a salute, sicurezza e diritti fondamentali.

L’HITL viene applicato in ambiti come l’etichettatura dei dati per la visione artificiale (es. imaging medico e riconoscimento facciale), l’elaborazione del linguaggio naturale (es. traduzione e sentiment analysis) e il riconoscimento vocale.

 

Nonostante i suoi benefici, il concetto di HITL presenta limiti e criticità. Una tesi avanzata da analisti come “Leigh McMullen” di “Gartner” suggerisce che, su larga scala, il controllo umano sull’IA possa diventare un’illusione.

I limiti includono i costi e i potenziali errori umani, nonché il fenomeno per cui gli esseri umani, quando supervisionano un sistema automatizzato, tendono a “entrare in pilota automatico,” lasciando che gli errori passino inosservati.

Inoltre, i “Large Language Models” (LLM) sono progettati per produrre “testo plausibile,” non necessariamente corretto, rendendo difficile per l’operatore umano individuare le inesattezze. 

Il dibattito si sposta così da una semplice questione di “se” a “come” l’uomo interviene.

 I modelli di Bosch che descrivono approcci diversi (controllo, intervento, supervisione) e la visione di Gartner sui “guardian agent” – modelli di IA progettati per controllare altri sistemi di IA – mostrano che la supervisione umana diretta non è sempre scalabile o sufficiente.

 La ricerca suggerisce un’evoluzione in cui l’uomo delega non solo i compiti, ma anche una parte della supervisione, pur mantenendo un ruolo finale.

 Il “Codice del Futuro” si adatta a questa realtà, promuovendo un approccio dinamico che riconosce i limiti dell’uomo e della macchina, e cerca di colmarli attraverso una collaborazione sempre più sofisticata. 

 

La visione distopica: “dataismo” e perdita di controllo.

La pervasività dell’IA alimenta visioni distopiche, che spesso trovano eco in fallimenti etici e operativi.

Queste prospettive ipotizzano scenari in cui l’uomo perde il controllo sulla tecnologia, che opera in modo opaco e imprevedibile.

Il concetto di “dataismo,” per esempio, descrive un futuro in cui l’efficienza algoritmica prevale sui valori e sui diritti umani, trattando gli individui come semplici insiemi di dati.

Questo scenario è alimentato dalla mancanza di trasparenza dei sistemi “black box” e dalla possibilità che l’IA venga utilizzata per il controllo di massa.

 Preoccupazioni concrete includono la minaccia della “singolarità tecnologica,” in cui la crescita tecnologica diventa incontrollabile, e la possibilità di uno “stallo dell’economia” causato da un’automazione che elimina il lavoro e porta a conseguenze imprevedibili.

Il timore centrale è che l’IA, usata da esseri umani per controllare altri esseri umani, possa portare a conseguenze moralmente inaccettabili. 

 

La visione utopica: estensione della natura umana.

Controbilanciando il pessimismo distopico, le visioni utopiche vedono l’IA come un’opportunità senza precedenti per potenziare la natura umana e risolvere sfide globali.

Questa prospettiva considera l’IA non una minaccia, ma un’estensione delle nostre capacità cognitive, sociali e culturali.

 Le utopie virtuali, ad esempio, sono concepite come comunità ideali in cui le persone scelgono le proprie regole, costruendo mondi che riflettono i valori che desiderano.

L’IA può aiutare a superare sfide come il cambiamento climatico, l’ottimizzazione dei trasporti e il miglioramento della medicina, contribuendo a un’economia più produttiva e sostenibile.

 In questa visione, il “Codice del Futuro” è l’insieme di strumenti, leggi e principi che l’uomo sta creando per orientare l’IA verso il bene comune. 

 

Il dibattito filosofico: intelligenza, coscienza e libertà.

Al di là delle visioni estreme, il dibattito si articola su questioni filosofiche fondamentali che distinguono l’uomo dalla macchina.

 La mente umana, a differenza di quella artificiale, si caratterizza per l’intenzionalità e la coscienza di sé.

 L’intelligenza umana si rivolge a qualcosa e, nella coscienza, si rivolge a sé stessa, ponendosi domande su sé stessa, sulla propria natura, sul mondo circostante, sull’origine e il funzionamento del mondo.

 

L’IA, al contrario, è un “prodotto assolutamente determinato,” un artefatto che, pur migliorato/ottimizzato, non può mai essere ontologicamente libero.

La sfida per l’uomo diventa quella di comprendere quando si ha a che fare con un intelletto naturale o artificiale, un’operazione che diventa sempre più difficile man mano che le macchine imparano a simulare l’empatia e i sentimenti.

 

Il dibattito non è tra una tecnologia “buona” e una “cattiva,” ma tra un uso “eticamente consapevole” e uno “cieco.”

Il futuro dell’Ai non è predeterminato, né si avvia verso una singolarità inevitabile.

Le conseguenze positive o negative dell’IA dipendono interamente dalla nostra capacità di usare questa “volontà conoscitiva” con “giudizio” e “consapevolezza”.

Il “Codice del Futuro” emerge quindi come un processo di verifica e ratifica continuo, che l’uomo sta creando per orientare l’IA verso un futuro che non sia né un’illusione, né una prigione, ma il risultato delle nostre scelte.

 

Casi di studio e applicazioni: l’interazione uomo-macchina in pratica.

Nel campo della sanità, l’IA si sta dimostrando un ausilio prezioso, pur con il ruolo insopprimibile del professionista umano.

Sanità e medicina.

L’intelligenza artificiale supporta la diagnostica analizzando immagini radiologiche, dermatologiche e dati clinici complessi.

 L’IA generativa, inoltre, può creare “dati sintetici” per addestrare modelli, aggirando le rigorose leggi sulla privacy dei pazienti come l’HIPAA e garantendo la condivisione di conoscenze cliniche in modo sicuro.

Ad esempio, un modello di IA può analizzare migliaia di casi sintetici di sepsi per imparare a individuare i primi segni della malattia, anche in situazioni rare.

Nonostante le capacità analitiche, l’integrazione dell’IA in questo settore espone la necessità di un’etica “di fatto” che non si limita alla teoria.

Il giudizio finale e la responsabilità per la diagnosi e il trattamento rimangono del medico, che utilizza l’IA come uno strumento per potenziare le proprie capacità. 

Giustizia e Diritto.

Nel settore giudiziario, l’IA è utilizzata per analizzare casi e fornire assistenza, ma il suo impiego solleva questioni delicate sui diritti fondamentali.

La “Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari” sottolinea l’importanza di un “giudice naturale” e la necessità di un equilibrio tra la proprietà intellettuale di alcune metodologie di trattamento e l’esigenza di trasparenza e imparzialità.

Il rischio di bias è particolarmente elevato, come dimostrato dall’uso dell’algoritmo COMPAS negli Stati Uniti, che ha sollevato dubbi sull’equità delle valutazioni del rischio di recidiva.

L’integrazione dell’IA in ambiti così critici non è una questione teorica; è un’applicazione pratica che richiede una supervisione e un’azione concrete da parte delle autorità di controllo.

Il caso di “Deliveroo Italia”, multata per l’uso di un algoritmo discriminatorio, dimostra che la mera esistenza di un principio di non discriminazione non è sufficiente; l

’applicazione del “Codice” richiede un’azione attiva da parte delle autorità di controllo e dei garanti della privacy.

 

Lavoro e media.

Nel lavoro e nei media, l’IA ha dimostrato di non essere un sostituto infallibile dell’uomo, ma uno strumento imperfetto. Mentre alcuni editori esplorano l’idea di far scrivere articoli alle intelligenze artificiali, esperimenti hanno rivelato che gli esseri umani devono correggere la metà dei pezzi prodotti automaticamente, a causa di errori significativi.

 

Allo stesso tempo, l’automazione attraverso l’IA può portare a una “riduzione o degrado dei salari” per i lavoratori che si specializzano in compiti di routine.

Tuttavia, l’IA può anche potenziare i lavoratori automatizzando questi compiti e permettendo loro di concentrarsi su attività più creative e strategiche.

Il futuro in questo settore risiede nella “collaborazione uomo-macchina“, dove l’uomo rimane al timone delle attività strategiche e relazionali. 

 

Criticità e sfide future: governance, educazione e consapevolezza.

Nonostante la crescente adozione di principi etici e quadri normativi, una delle principali sfide del “Codice del Futuro” è il costante gap tra la rapidità esponenziale dell’innovazione tecnologica e la lentezza dei processi legali e normativi.

La governance dell’IA è definita come “un percorso per gestire i sistemi di IA in modo responsabile”, ma le autorità competenti, come quelle di protezione dei dati, si trovano a intervenire in un ambiente in rapida evoluzione, con un mandato che deve costantemente evolvere per far fronte a nuove sfide.

Le azioni retroattive dei garanti della privacy, sebbene cruciali, non possono da sole anticipare tutti i rischi emergenti.

Questo richiede un approccio agile che permetta di adattare le normative in tempo reale. 

 

L’importanza dell’alfabetizzazione digitale ed etica.

Poiché la responsabilità per l’etica dell’IA ricade su “tutti coloro che hanno a che fare con l’intelligenza artificiale, dalle imprese ai governi, dai consumatori ai cittadini”, l’alfabetizzazione digitale ed etica diventa un elemento cruciale.

L’UNESCO sottolinea la necessità di implementare programmi di formazione per i docenti e di promuovere l’alfabetizzazione tecnica a livello globale.

La formazione è fondamentale affinché i dipendenti e gli utenti possano comprendere e lavorare in modo responsabile con le tecnologie di IA, rafforzando l’integrità e l’efficacia delle soluzioni adottate.

 La consapevolezza dei limiti e dei bias intrinseci dell’IA è il primo passo per un’adozione critica e responsabile.

 

Conclusioni e raccomandazioni.

Il “Codice del Futuro” non è un’utopia predefinita o una distopia inevitabile, ma un’opera collettiva in continua costruzione.

Si basa su un dialogo costante tra le specificazioni normative (che mappano i rischi e li affrontano con regole concrete), le intenzioni etiche (che guidano lo sviluppo verso risultati benefici) e il ruolo insopprimibile dell’uomo (che fornisce il giudizio finale e la coscienza morale).

 La tesi sviluppata in queste poche righe è che il futuro dell’Ai non è già scritto, ma è il risultato delle nostre scelte.

 

Dall’analisi emergono tre raccomandazioni chiave:

Per i regolatori: mantenere e potenziare un approccio di governance agile e basato sul rischio.

 Le normative devono essere flessibili e adattabili per non soccombere alla velocità dell’innovazione.

 È essenziale promuovere un quadro di governance globale e collaborativo, che allinei gli standard a livello internazionale per evitare frammentazioni normative.

 

Per le aziende: integrare i principi etici non come un mero esercizio di conformità, ma come un vantaggio competitivo.

L’investimento in trasparenza, accountability e formazione del personale è fondamentale.

La creazione di comitati direttivi multidisciplinari per l’etica dell’IA può garantire che le considerazioni etiche siano integrate in ogni fase dello sviluppo, dal design alla distribuzione.

 

Per gli utenti: promuovere attivamente la consapevolezza e l’alfabetizzazione digitale ed etica.

Gli individui devono essere resi consapevoli che l’IA è uno strumento potente ma imperfetto e che la verifica umana rimane un passo fondamentale in ogni processo decisionale critico.

È solo attraverso un’adozione consapevole e critica che si può garantire che l’IA rimanga al servizio dell’umanità e non viceversa.

I responsabili commerciali dell’UE e

della Cina cercheranno “soluzioni

urgenti” alle restrizioni sulle terre rare.

Euractiv.it - Thomas Moller-Nielsen – (22-10 -2025) - ci dice:  

 

Il commissario europeo al Commercio, “Maroš Šefčovič,” interviene nella conferenza insieme al commissario all'Economia, “Valdis Dombrovskis” (non presente nella foto) nella conferenza stampa dedicata al programma di lavoro della Commissione per il 2026 e alla relazione 2025 sulla semplificazione, all'attuazione e l'applicazione delle norme dell'UE.

Strasburgo, Francia, 22 ottobre 2025. [EC - Audiovisual Service/Valentine Zeler/European Union, 2025]

 

Il ministro del Commercio cinese si recherà a Bruxelles “nei prossimi giorni” per discutere delle severe restrizioni all’esportazione di terre rare imposte da Pechino, ha dichiarato martedì il commissario europeo al Commercio, “Maroš Šefčovič”.

Parlando in conferenza stampa a Strasburgo, “Šefčovič” ha dichiarato ai giornalisti che la sua controparte cinese, “Wang Wentao”, ha accettato il suo invito dopo una videochiamata “costruttiva” di due ore sui controlli di Pechino, che hanno allarmato i responsabili politici e le imprese dell’UE.

La Cina detiene circa il 70% dell’estrazione mondiale di terre rare e il 90% della loro lavorazione.

 Questo conferisce a Pechino un controllo efficace sulla fornitura mondiale di questi metalli, utilizzati per produrre un’ampia gamma di tecnologie avanzate, tra cui veicoli elettrici e aerei da combattimento.

Il brusco risveglio dell'Europa sulle terre rare.

Gli europei non avevano bisogno di ulteriori promemoria della posizione pericolosa in cui si trovano, tra l’intensificarsi della rivalità tra le superpotenze America e Cina.

Ma la settimana scorsa ne hanno ricevuto uno comunque. La decisione della Cina di imporre …

“Ho invitato le autorità cinesi a recarsi a Bruxelles nei prossimi giorni per trovare soluzioni urgenti”, ha affermato “Šefčovič”, aggiungendo che “Wang” ha accettato di visitare il Paese.

 

“Credo che, dopo la conversazione di questa mattina, non abbiamo alcun interesse a un’escalation”, ha affermato il commissario veterano. “Tuttavia, questa situazione getta un’ombra sui nostri rapporti. Pertanto, una rapida risoluzione è essenziale”.

L’incontro si svolgerà sotto gli auspici del “meccanismo di potenziamento della catena di approvvigionamento” concordato durante il “vertice UE-Cina tenutosi a Pechino a luglio” per affrontare i critici “colli di bottiglia” dei minerali, ha affermato “Šefčovič.

“Abbiamo concordato di intensificare i contatti a tutti i livelli”, ha aggiunto.

 

L'UE non esiterà a rispondere alle nuove mosse di Pechino su terre rare e minerali critici, afferma “Šefčovič”.

La nuova escalation tra Stati Uniti e Cina sulle terre rare sta preoccupando i leader e le aziende europee a causa delle ripercussioni sugli approvvigionamenti strategici.

Parlando ai giornalisti prima della riunione dei ministri del Commercio europei a Horsens, in …

 

La posizione di Pechino.

In una nota del ministero del Commercio cinese relativa alla chiamata di martedì si affermava anche che entrambe le parti avevano concordato di incontrarsi a Bruxelles “il prima possibile” per discutere le misure di Pechino, ma non si specificava che Wang avrebbe partecipato in modo specifico.

 

Annunciate all’inizio di questo mese, le misure adottate dalla Cina vanno ben oltre le drastiche restrizioni introdotte ad aprile di quest’anno, che avevano già costretto alcune industrie europee a chiudere la produzione.

Con il nuovo regime di esportazione, i prodotti contenenti anche solo tracce di terre rare cinesi richiederanno licenze speciali da Pechino prima di poter essere esportati.

L’uso di questi metalli per le tecnologie militari, nel frattempo, sarà “in linea di principio” vietato.

 

Nel comunicato cinese, Pechino ha affermato che le nuove restrizioni “sono un normale passo avanti nel miglioramento del suo sistema di controllo delle esportazioni in conformità con le leggi e i regolamenti” e dimostrano “la responsabilità della Cina come paese importante nel mantenimento della pace e della stabilità nel mondo”.

Il comunicato menzionava anche la ferma opposizione di Pechino al recente sequestro da parte del governo olandese del produttore di chip per auto” Nexperia” alla sua società madre cinese, “Wingtech Technologies”.

 

La mossa, che secondo quanto rivelano gli atti del tribunale, è avvenuta dopo forti pressioni da parte delle autorità statunitensi, ha fatto infuriare Pechino e ha spinto la filiale cinese dell’azienda, “”Nexperia China, a dire al proprio personale di ignorare gli ordini provenienti dalla sede centrale olandese.

 

In una dichiarazione della scorsa settimana, “Nexperia” ha affermato che Pechino le ha vietato l’esportazione di prodotti finiti e sottocomponenti dalla Cina, dove viene assemblata la maggior parte dei suoi chip.

 Ha inoltre informato i suoi clienti che potrebbe non essere in grado di evadere gli ordini.

 

La disputa su “Nexperia”, che fornisce chip a importanti case automobilistiche come “BMW” e “Mercedes-Benz”, ha aggravato ulteriormente le difficoltà dell’industria automobilistica europea, che sta già lottando per far fronte alle ingenti tariffe di Trump e alla forte concorrenza dei produttori cinesi di veicoli elettrici.

Ha inoltre ulteriormente esacerbato le tensioni tra Bruxelles e Pechino, da tempo tese a causa del crescente surplus commerciale della Cina e dei suoi crescenti legami politici ed economici con la Russia.

Šefčovič, tuttavia, ha dichiarato martedì di essere stato “in frequente contatto” con le autorità olandesi e cinesi in merito alla controversia su Nexperia e di essere “rassicurato dall’intenzione espressa da entrambe le parti di allentare la tensione”.

“Penso che tutti noi… siamo pienamente consapevoli che il tempo è essenziale”, ha detto il commissario UE.

 

 

 

Cina-UE, cinquant’anni di partenariato

che ora richiedono una svolta definitiva.

Scenari – Internazionali.com – (6 Maggio 2025) – Andrea Fais – ci dice:

 

Cinquant’anni fa, la Comunità Economica Europea e la Repubblica Popolare Cinese davano il via ufficialmente alle loro relazioni diplomatiche. In questo lungo periodo molte cose sono cambiate, sia all’interno dei due grandi mercati che nel resto del mondo.

L’anniversario cade in un momento cruciale in una fase più generale di ricomposizione degli equilibri internazionali, accelerata dalle decisioni di Donald Trump.

 Pur continuando a trattare con Washington, Bruxelles deve nuovamente riorientare la sua strategia globale per cercare di non restare schiacciata tra i dazi statunitensi e il conflitto russo-ucraino.

La Cina, che è già il secondo partner commerciale dell’UE, è una delle possibili alternative per uscire dalla morsa, ma senza una prospettiva paritaria e di lungo periodo tutto rischia di essere vano.

 A questo riguardo, il direttore responsabile “Andrea Fais” è intervenuto sulle “colonne” di “China Radio International” (CGTN) per la rubrica “Opinioni”.

Proponiamo qui di seguito la versione integrale dell’articolo.

 (Andrea Fais -Direttore responsabile di Scenari Internazionali).

 

Il 6 maggio 1975, Europa e Cina stabilirono ufficialmente le loro relazioni diplomatiche.

Quel giorno fu raggiunta la prima storica intesa a riguardo tra l’allora ministro degli Esteri cinese “Qiao Guanhua “e l’allora commissario per le Relazioni Esterne, il britannico “Christopher Soames”, aprendo la strada alla visita di “Roy Jenkins” a Pechino, avvenuta quattro anni più tardi, la prima di un presidente della Commissione Europea nel Paese asiatico.

 

A mezzo secolo esatto di distanza, quasi tutto è cambiato.

La Comunità Economica Europea (CEE), che allora racchiudeva 9 Paesi (Belgio, Francia, Germania, Italia, Lussemburgo, Paesi Bassi, Danimarca, Irlanda e Regno Unito), dopo essersi trasformata nell’Unione Europea in base al Trattato di Maastricht, allargando e rafforzando il processo di integrazione, conta oggi 27 Stati membri.

La Repubblica Popolare, a quel tempo impoverita ed arretrata, è ora diventata, dopo aver imboccato la strada delle riforme e dell’apertura indicata da Deng Xiaoping, la seconda economia mondiale, la prima potenza commerciale del pianeta e il secondo mercato di consumo su scala globale.

Tra crisi di vario genere e notevoli squilibri interni, negli ultimi quindici anni Bruxelles si è trovata a dover affrontare una serie di problemi di portata storica, che ne hanno più volte messo in discussione la tenuta. Dal debito sovrano, con l’eclatante e drammatico caso greco, ai nuovi massicci flussi migratori, dal referendum sulla Brexit alla guerra in Ucraina, l’Unione Europea è ormai da tempo entrata in una fase di profonda incertezza.

Un’incertezza che è aumentata esponenzialmente da quando alla Casa Bianca è tornato Donald Trump, intenzionato a regolare i conti con Bruxelles su una serie di dossier, a partire dalle relazioni commerciali e dalle spese militari.

 

Secondo le statistiche della Dogana cinese, nel 2024 il volume totale degli scambi commerciali di beni tra la Cina e l’Unione Europea ha raggiunto 785,8 miliardi di dollari USA, registrando un aumento annuo dello 0,4%.

Nello specifico, le esportazioni cinesi verso l’UE sono state pari a 516,4 miliardi di dollari (+3,0% su base annua), mentre le importazioni dall’UE hanno totalizzato 269,4 miliardi di dollari, con una diminuzione del 4,4% rispetto all’anno precedente.

L’Unione Europea si conferma come il terzo maggiore destinatario delle esportazioni cinesi e la seconda fonte di importazioni per la Cina.

Parallelamente, secondo i dati statistici europei, la Cina mantiene la posizione di principale fonte di importazioni per l’UE e terzo mercato di destinazione delle esportazioni europee.

 

Fra le categorie di prodotti cinesi acquistati dall’UE sono tre, e tutte tecnologiche, quelle più significative al punto da coprire quasi il 40% del totale:

macchinari elettrici, elettrodomestici e componenti elettrici; apparecchiature per telecomunicazioni e audio; macchine per ufficio e macchine per elaborazione dati.

 

Al momento, dunque, non sembrano affatto funzionare le politiche di de-risking adottate più di due anni fa dalla Commissione UE, a seguito dell’introduzione del “Critical Raw Materials Act”, con lo scopo di diversificare le catene di approvvigionamento e ridurre la dipendenza dalla Cina nelle produzioni ritenute strategiche per la transizione digitale ed ecologica dell’Europa.

 Del resto, già da tempo, il gigante asiatico si è messo alla testa di questi processi trasformativi, acquisendo una posizione di leadership nelle industrie emergenti.

 L’inasprimento della guerra commerciale voluto da Trump, inoltre, sta ulteriormente ridefinendo la geografia economica del pianeta.

Con il ritorno ad un forte protezionismo da parte degli Stati Uniti, infatti, il baricentro della globalizzazione si sposterà sempre più verso l’Asia, accelerando una tendenza evidente da almeno un decennio.

 

Lo scorso 15 novembre, secondo i dati di “China State Railway Group”, il servizio ferroviario di trasporto merci “China-Europe Railway Express” (CRE) ha superato i 100.000 viaggi totali dal suo lancio ufficiale nel 2011, trasportando complessivamente beni per più di 11 milioni di TEU ed oltre 420 miliardi di dollari.

Nel corso degli anni, la rete si è estesa a macchia d’olio, raggiungendo 227 città in 25 Paesi europei e collegando più di 100 città in 11 Paesi asiatici.

Tutto ciò dimostra che la “Nuova Via della Seta” tra Europa e Cina non è un miraggio o una fantasia geopolitica, ma una realtà già consolidata.

 

Sullo sfondo restano diverse incognite, tra cui il destino dell’”Accordo Globale sugli Investimenti” (CAI), congelato da Bruxelles nel 2021, e il significativo aumento dei dazi imposti dall’UE sui veicoli elettrici di produzione cinese, sino ad un massimo del 48,1%.

 

Per uscire dall’impasse, Bruxelles dovrà cominciare seriamente a cambiare rotta.

Prima di tutto sarà necessario abbandonare l’eurocentrismo che, strumentalizzando le questioni relative ai diritti umani e civili, ancora attanaglia la visione internazionale delle principali cancellerie del Vecchio Continente: una distorsione mai del tutto scomparsa, nemmeno dopo le tragedie delle due guerre mondiali e la fine del colonialismo.

 

In secondo luogo, l’UE dovrà ricollocarsi in modo paritario nel nuovo ordine multipolare facendo leva sulla migliore tradizione diplomatica del secondo Novecento, sull’elevato know-how scientifico-tecnologico, su una classe media che comprende mediamente il 64% della popolazione [contro il 51% degli Stati Uniti – Pew Research Center] e sulla posizione privilegiata nel Mediterraneo, una regione che negli ultimi anni sta godendo di una rinnovata centralità in materia di commercio, energia, infrastrutture e sicurezza rispetto ad un Baltico sempre più esposto al rischio di ulteriori escalation militari.

 

Senza rinunciare a tutelare gli interessi dei Paesi membri, ma anzi rafforzandone la competitività sui mercati oggi più aperti e avanzati, l’UE può cogliere l’opportunità di abbandonare definitivamente un’obsoleta concezione rigidamente atlantista della sua politica estera e volgere seriamente lo sguardo all’Asia.

Tutto ciò, però, dovrà essere frutto di una scelta consapevole, strutturata e strategica, non banalmente dettata dall’istintiva ed affrettata ricerca di una sponda temporanea, in attesa che a Washington cambino le cose.

 

 

 

 

Ue-Cina: un rapporto al punto

di svolta. Ecco tutti i temi caldi.

Agendadigitale.eu – (25 luglio 2025) – Gabriele Luvinale – Nicola Luvinale – ci dicono:    

 

Il vertice Ue-Cina del 24 luglio ha segnato un “chiaro punto di svolta” nelle relazioni.

L’Europa soffre di un deficit commerciale record e crescente dipendenza da Pechino in settori chiave come le terre rare.

 Ci sono stati momenti di avvicinamento, ma anche nuove tensioni e scontri, con azioni conflittuali reciproche. Facciamo il punto su un…

Il vertice Ue-Cina del 24 luglio ha segnato un “chiaro punto di svolta” nelle relazioni, dominate da un deficit commerciale record per l’Ue e la crescente dipendenza da Pechino in settori chiave come le terre rare.

 

Li Qiang "Cina ed Europa collaborino di più."

Indice degli argomenti.

Le tensioni Usa-Cina al summit.

I rapporti Ue-Cina: lo status.

Un summit Ue-Cina ridimensionato e carico di attese basse: l’Ue sotto pressione e la “Liminal Warfare” cinese

Passi concreti di riavvicinamento.

Scontri recenti Ue-Cina.

Le richieste della Cina.

Le richieste dell’UE.

La morsa dei dazi Usa sull’UE

La dipendenza dell’Ue dalla Cina.

La recente guerra commerciale tra Ue e Cina: azioni, contromisure e la coercizione economica.

Le azioni concrete dello scontro Ue-Cina.

Le questioni geopolitiche: Ucraina, cyber-attacchi e la Fusione Civile-Militare cinese.

La risposta strategica dell’Ue: “De-risking” e rafforzamento della sicurezza economica.

Le tensioni Usa-Cina al summit.

Nonostante i tentativi di dialogo e una dichiarazione sul clima, le tensioni si sono acuite a causa della sovracapacità cinese, delle dispute commerciali (dazi Ev, terre rare, appalti) e delle sanzioni Ue a banche cinesi per il sostegno a Mosca, spingendo Bruxelles verso una strategia di “de-risking” contro la pervasiva “Liminal Warfare” cinese.

Il summit ha rivelato un’Ue sotto pressione, costretta a riequilibrare i rapporti in un contesto geopolitico sempre più teso e asimmetrico.

 

Direttiva UE- CSDDD: come il nuovo quadro normativo impatterà sulla catena di valore della tua azienda.

 

Il vertice tra l’Unione Europea e la Cina, tenutosi il 24 luglio a Pechino per celebrare 50 anni di legami diplomatici, ha cristallizzato una relazione al “chiaro punto di svolta”, dominato da acute tensioni commerciali e profonde divergenze sulla guerra in Ucraina.

I rapporti Ue-Cina: lo status.

Negli ultimi anni, i rapporti Ue-Cina si sono progressivamente raffreddati a causa di un irrigidimento dei governi europei nei confronti di varie controversie, tra cui questioni relative ai diritti umani, la disparità di accesso al mercato e la percezione della crescente influenza cinese in Europa.

 

La coercizione economica non militare, ovvero l’uso di mezzi economici per raggiungere obiettivi politici, è diventata un problema sempre più serio per l’Ue, che ne è il maggiore destinatario globale.

Questo deterioramento ha impedito la sottoscrizione dell”’Accordo Globale Ue-Cina sugli Investimenti” (Cai), nonostante la conclusione dei negoziati già nel dicembre 2020.

 Per la Commissione Europea, la relazione economica con Pechino è “criticamente sbilanciata” a causa di “una significativa asimmetria nelle rispettive aperture di mercato”, con il modello economico cinese che ha generato “distorsioni sistemiche” e una spinta preoccupante verso la sostituzione delle importazioni e l’autosufficienza.

 

Con un deficit commerciale europeo schizzato a 305,8 miliardi di euro lo scorso anno e una crescente dipendenza dalle forniture cinesi in settori critici come le terre rare e il 5G, l’Ue ha impellentemente chiesto a Pechino un urgente riequilibrio dei rapporti.

 

La presidente della Commissione Europea Ursula von der Leyen ha sottolineato che i legami della Cina con la Russia sono il “fattore determinante” per il futuro della relazione Ue-Cina, spingendo per un maggiore impegno cinese per la pace in Ucraina.

Dal canto suo, il presidente Xi Jinping ha esortato l’Europa a fare “scelte strategiche corrette” e a rafforzare fiducia e comunicazione, insistendo sull’apertura dei mercati e negando che le sfide europee provengano dalla Cina.

 

Il summit, drasticamente ridotto a un solo giorno su richiesta di Pechino, ha confermato le basse aspettative e ha rivelato un’Ue stretta nella morsa della competizione geopolitica.

 Sebbene sia stata raggiunta una dichiarazione congiunta sul clima, i nodi cruciali – dalla sovracapacità industriale cinese e i dazi sui veicoli elettrici con relative ritorsioni, alle sanzioni sulle banche cinesi per il loro presunto supporto a Mosca, e alle pervasive implicazioni della “Liminal Warfare” cinese (una strategia definita da alcuni analisti che include spionaggio, cyber-attacchi e infiltrazioni nelle infrastrutture critiche) – sono rimasti ampiamente irrisolti.

Questo scenario spinge l’Ue verso una strategia inevitabile di “de-risking” e un rafforzamento della propria autonomia strategica in un panorama globale sempre più frammentato e asimmetrico.

 

Un summit Ue-Cina ridimensionato e carico di attese basse: l’Ue sotto pressione e la “Liminal Warfare” cinese.

L’incontro, inizialmente previsto come evento di due giorni a Bruxelles e poi ridotto a una singola giornata a Pechino su richiesta cinese, ha fin da subito segnalato la complessità e la tensione del rapporto. Nonostante il cinquantenario delle relazioni diplomatiche, l’atmosfera era lontana da un clima di celebrazione, riflettendo settimane di crescenti attriti e aspettative volutamente basse da parte europea.

Già l’8 luglio, in un esempio della retorica aggressiva che ha preceduto il summit, von der Leyen aveva accusato la Cina di inondare i mercati globali a causa della sua sovracapacità e di “favorire l’economia di guerra della Russia”.

Tuttavia, nel suo post su X il giorno del vertice, la stessa von der Leyen ha adottato un tono più conciliatorio, affermando che l’incontro offriva l’opportunità di “far progredire e riequilibrare la nostra relazione”.

 

Per un momento, il terremoto portato da Donald Trump nelle relazioni transatlantiche aveva fatto sperare in un graduale riavvicinamento tra Bruxelles e Pechino.

 

Passi concreti di riavvicinamento.

Ci sono stati passi concreti in questa direzione:

 il Parlamento europeo ha revocato le restrizioni interne agli incontri con funzionari cinesi, mentre la Cina ha revocato le sanzioni contro i deputati europei.

Tutto ciò è avvenuto sullo sfondo di un rinnovato dialogo diplomatico, dall’incontro tra “Wang Yi” e l’”Alto Rappresentante dell’Ue “Kaja Kallas “a febbraio, fino alla telefonata tra la presidente della Commissione Ursula von der Leyen e il premier cinese Li Qiang per coordinarsi in seguito al “Liberation Day” di Trump.

Eppure, durante la sua recente partecipazione al vertice del G7 a Kananaskis, in Canada, von der Leyen è tornata in modo chiaro ed esplicito sulla linea dura contro Pechino.

 

Scontri recenti Ue-Cina.

Ha messo in guardia da un “nuovo shock cinese” e accusato la Cina di perpetuare un “modello di dominio, dipendenza e ricatto”.

La presidente della Commissione ha anche detto che «mentre altri aprivano i loro mercati, la Cina si è concentrata sull’indebolimento della protezione della proprietà intellettuale e su massicce sovvenzioni con l’obiettivo di dominare la manifattura e le catene di approvvigionamento globali».

 

Pechino ha risposto prontamente all’affondo di von der Leyen con “Guo Jiakun”, portavoce del Ministero degli Esteri cinese, che ha definito le sue affermazioni “infondate” e “di parte”, pur ribadendo, in perfetto stile cinese, la volontà di raggiungere uno scenario “win-win”.

 

La decisione di “Xi” di rifiutare un invito a Bruxelles all’inizio dell’anno e di presentarsi a Mosca a maggio per la parata della vittoria russa aveva già rappresentato un inizio deludente, alimentando la percezione che le aspettative fossero minime.

“ Engin Eroglu”, presidente della delegazione del Parlamento europeo per la Cina, ha commentato che la fiducia, già fragile, ha raggiunto nuovi minimi: “In questo clima di sfiducia strategica, l’umore è chiaramente teso, se non gelido“.

 

Le richieste della Cina.

Il presidente cinese” Xi Jinping,” aprendo il 25° vertice Ue-Cina presso la Grande Sala del Popolo di Pechino, ha invitato l’Unione Europea a fare “scelte strategiche corrette” e ha esortato i leader dell’Ue a migliorare “fiducia e comunicazione” durante un periodo di instabilità globale.

Accanto al premier Li Qiang, “Xi” ha incontrato la presidente della Commissione europea Ursula von der Leyen e il presidente del Consiglio europeo “Antonio Costa”, sottolineando che i leader di entrambe le parti devono soddisfare le aspettative dei rispettivi popoli.

Xi ha anche auspicato una “fiducia reciproca” con i paesi dell’Ue, affermando che “per aumentare la competitività non bisogna costruire muri o barriere, perché separare e interrompere le catene di approvvigionamento porterà solo all’autoisolamento”.

Inoltre, Xi ha sperato che “la parte europea mantenga aperto il mercato commerciale e degli investimenti e si astenga dall’utilizzare strumenti economici e commerciali restrittivi”, in un discorso che alcuni analisti ritengono fosse più rivolto al suo pubblico interno.

 

Le richieste dell’UE.

Dal canto suo, von der Leyen ha descritto il vertice come un momento per “promuovere e riequilibrare le nostre relazioni”. Ha affermato di essere “convinta che possa esserci una cooperazione reciprocamente vantaggiosa… Una cooperazione che può definire i prossimi 50 anni delle nostre relazioni”. Tuttavia, ha anche dichiarato: “Abbiamo espresso le nostre preoccupazioni in modo molto franco e aperto… sulle questioni commerciali, di investimento e geopolitiche… Abbiamo parzialmente identificato soluzioni”. Von der Leyen e Costa hanno chiesto a entrambe le parti di trovare “soluzioni concrete”, sottolineando che “è fondamentale che la Cina e l’Europa riconoscano le nostre rispettive preoccupazioni”. È importante notare che le aspettative di una “grande intesa” economica erano basse già prima del vertice, con von der Leyen che non si aspettava un “grand bargain” economico.

 

Questa situazione di vertice ridimensionato e di basse aspettative ha trovato l’Ue stretta in una morsa complessa.

 

La morsa dei dazi Usa sull’UE.

Da un lato, il blocco sta affrontando pressioni simili a quelle della Cina, non ultime le tariffe imposte sulle proprie esportazioni verso gli Stati Uniti. Cui Hongjian, professore di politica estera presso la Beijing Foreign Studies University, ha notato come, sebbene all’inizio del secondo mandato del presidente statunitense Donald Trump vi fosse maggiore consenso sulla necessità di collaborare per affrontare le sfide commerciali dagli Stati Uniti, “recentemente la situazione è cambiata” e “l’Ue ha continuato a scendere a compromessi con gli Stati Uniti”.

 

In questo scenario, i paesi membri dell’Unione Europea hanno votato per approvare tariffe contrarie su 93 miliardi di euro (109 miliardi di dollari) di merci statunitensi, che potrebbero essere imposte qualora il blocco non riuscisse a raggiungere un accordo commerciale con Washington.

 

La Commissione Europea ha dichiarato che il suo obiettivo principale è raggiungere un risultato negoziato con Washington per evitare i dazi statunitensi del 30% che il presidente degli Stati Uniti Donald Trump ha affermato che applicherà il 1° agosto. Tuttavia, la Commissione proseguirà parallelamente con i piani per possibili contromisure, unendo due pacchetti di tariffe proposte da 21 miliardi di euro e 72 miliardi di euro in un unico elenco, sottoponendolo ai membri dell’Ue per l’approvazione.

 

Nessuna contromisura entrerà in vigore prima del 7 agosto, anche se l’Ue si è finora astenuta dall’imporle, nonostante i ripetuti annunci di Trump. Secondo i diplomatici dell’Ue, l’Unione e gli Stati Uniti sembrano avviati verso un possibile accordo commerciale, che potrebbe includere un’ampia tariffa di base statunitense del 15% sui prodotti Ue importati negli Stati Uniti, in linea con un accordo quadro stipulato da Washington con il Giappone.

 

Questa aliquota del 15% potrebbe applicarsi a settori come quello automobilistico e farmaceutico e non si aggiungerebbe ai dazi statunitensi di lunga data (in media poco meno del 5%). Potrebbero esserci anche concessioni per settori come quello aeronautico, del legname e alcuni prodotti agricoli e medicinali, che non sarebbero soggetti a dazi, sebbene Washington non sembri intenzionata ad abbassare i dazi del 50% sull’acciaio.

 

La dipendenza dell’Ue dalla Cina.

Questo scenario rende l’Europa un bersaglio nella guerra commerciale Usa-Cina. Dall’altro, l’Unione è sempre più cosciente delle proprie vulnerabilità e dipendenze strategiche dalla Cina, che limitano drasticamente la sua capacità di attivare leve geoeconomiche efficaci.

La Cina sta conducendo da anni una “Liminal Warfare“, una guerra incrementale dove il campo di battaglia è ovunque e la guerra è totale, includendo operazioni economiche, diplomatiche, legali, militari, di intelligence e cyber.

Questa guerra è “liminale” perché viene condotta al limite dell’osservabilità, senza superare la soglia di rilevabilità occidentale. Il pericolo, sia esterno che interno, ha penetrato e innervato il nucleo stesso degli apparati politici, economici e culturali europei.

 

La recente guerra commerciale tra Ue e Cina: azioni, contromisure e la coercizione economica.

Le relazioni tra Ue e Cina sono state segnate negli ultimi anni da un numero crescente di controversie, soprattutto commerciali. Le tensioni commerciali tra Ue e Cina non sono una novità, ma si sono intensificate notevolmente, assumendo i connotati di una vera e propria “guerra commerciale” fatta di azioni e contromisure mirate.

Al centro di questa escalation vi è la crescente preoccupazione dell’Ue per le pratiche commerciali sleali di Pechino e per il suo modello economico, che la Commissione Europea definisce “criticamente sbilanciato” a causa di una “significativa asimmetria nelle rispettive aperture di mercato”.

 Il Fondo Monetario Internazionale (Fmi) stesso ha evidenziato come l’uso da parte della Cina di politiche industriali, in particolare il suo sostegno ai settori prioritari, abbia un impatto negativo sui partner commerciali.

Le questioni economiche sono strettamente interconnesse e poggiano su tre pilastri chiave nei rapporti economici con Pechino: la strumentalizzazione del commercio come leva di ricatto, la sovracapacità e l’accesso al mercato cinese.

 

La coercizione non militare, ovvero l’uso di mezzi economici per raggiungere obiettivi politici, è diventata un problema sempre più serio per i governi e le aziende dell’Ue.

Esperti ritengono che la Cina, tradizionalmente contraria alle sanzioni economiche, abbia implementato pratiche economiche coercitive con crescente intensità e portata, in particolare dopo la riconferma di Xi Jinping come presidente del paese nel 2023.

Secondo la Commissione Europea, la coercizione economica nel contesto moderno significa:

“interferire con le legittime scelte sovrane dell’Unione o di uno Stato membro cercando di impedire o ottenere la cessazione, la modifica o l’adozione di un atto particolare da parte dell’Unione o di uno Stato membro, applicando o minacciando di applicare misure che incidono sul commercio o sugli investimenti”.

Il feedback delle parti interessate, comprese le aziende, indica che le pratiche coercitive sono effettivamente un problema crescente.

 

L’Ue è stata sempre più presa di mira dalla Cina, al punto da esserne attualmente il più grande destinatario globale della diplomazia coercitiva cinese, anche attraverso la pressione economica.

Uno studio del think tank Merics ha identificato 123 casi coercitivi tra il 2010 e il 2022, con un aumento marcato negli ultimi 4 anni, una cifra che, secondo gli analisti, potrebbe essere solo la punta dell’iceberg data la natura informale di molte misure e la riluttanza delle aziende a denunciare per timore di ritorsioni (come boicottaggi istigati indirettamente da autorità o media statali).

Risultati simili emergono dalla ricerca dell’Australian Strategic Policy Institute (Aspi), che ha documentato 152 casi di diplomazia coercitiva cinese tra il 2010 e il 2020, la maggior parte dei quali dal 2018 in poi.

 

La spinta cinese verso la sostituzione delle importazioni e l’autosufficienza preoccupa Bruxelles, che vede le aziende europee continuare a subire discriminazioni nel mercato cinese, ostacolate da una mancanza di parità di condizioni e da un ambiente aziendale percepito come sempre più politicizzato. Un quadro giuridico complesso e non trasparente sulla sicurezza informatica, norme restrittive sui flussi di dati transfrontalieri, insufficiente applicazione dei diritti di proprietà intellettuale e requisiti che portano al trasferimento di tecnologia, uniti a un concetto ampio di sicurezza nazionale, influenzano negativamente le prospettive di business europee in Cina.

 

Le azioni concrete dello scontro Ue-Cina.

In questo contesto, l’Ue ha intrapreso azioni concrete, a cui Pechino ha risposto con contromisure:

Dazi sui veicoli elettrici (Ev).

Lo scorso anno, Bruxelles ha imposto dazi sulle auto elettriche cinesi dopo aver rilevato che il settore beneficiava di ingenti sussidi statali.

L’Ue ha imposto dazi fino al 45,3% sui veicoli elettrici cinesi per prevenire “danni imminenti” alle proprie aziende, data la loro penetrazione aggressiva nel mercato europeo a prezzi inferiori.

Ritorsioni sugli alcolici europei.

In risposta, la Cina ha introdotto dazi anti-dumping sul brandy europeo, in particolare sul cognac francese, e avviato indagini anti-sovvenzione su carne suina e alcuni prodotti lattiero-caseari.

Restrizioni sui dispositivi medici e compensato. Più recentemente, l’Ue ha escluso i dispositivi medici cinesi dalla maggior parte degli appalti pubblici e ha imposto dazi anti-dumping sul compensato di legno duro cinese, un materiale da costruzione. In un’altra disputa di tipo “occhio per occhio”, le due parti hanno chiuso reciprocamente i rispettivi mercati pubblici per le gare d’appalto per i dispositivi medici.

Questo mese, Pechino ha limitato gli acquisti governativi di dispositivi medici dell’Ue, una mossa in risposta a simili limitazioni imposte dall’Ue sui dispositivi medici cinesi a giugno.

Controlli sulle esportazioni di terre rare. Le tensioni sono poi state aggravate dalle restrizioni cinesi all’export di terre rare, introdotte da Pechino in risposta ai dazi statunitensi di aprile.

La Cina ha aumentato i controlli sulle esportazioni di terre rare e minerali essenziali.

 Questi minerali sono un esempio lampante di come la Cina utilizzi il suo dominio in alcune catene del valore come uno strumento di forza: Pechino controlla il 60% della loro estrazione e il 90% della loro raffinazione, cifre da monopolio.

Le terre rare sono un input imprescindibile della transizione verde europea, in quanto al centro della produzione di batterie e magneti, ma anche un elemento centrale per lo sviluppo di tecnologie avanzate nell’ambito della difesa.

La dipendenza dalla Cina per input così delicati è esattamente ciò che più ha guidato la formulazione del “de-risking” europeo, la strategia cardine della Commissione Ue per tutelare l’autonomia strategica dell’Unione.

I produttori dell’automotive europeo hanno già avvertito che le restrizioni cinesi all’export di leghe, miscele e magneti a base di terre rare potrebbero causare ritardi nella produzione, creando ulteriori problemi a un settore già sotto pressione per la concorrenza delle auto elettriche cinesi a basso costo.

Von der Leyen ha affermato che l’Ue ha bisogno di una fornitura affidabile e sicura di materie prime essenziali dalla Cina.

“Riconosciamo gli sforzi della Cina nell’accelerare il rilascio delle licenze per le materie prime essenziali”, ha affermato.

“Abbiamo concordato di dotarci di un meccanismo di approvvigionamento per l’esportazione potenziato. In caso di colli di bottiglia, questo supporto potenziato nel meccanismo di supporto alla catena di approvvigionamento può verificare e risolvere immediatamente il problema o la questione che si presenta”.

Il ministero degli Esteri cinese ha difeso le restrizioni definendole “in linea con la prassi internazionale”, pur promettendo un rafforzamento del dialogo e della cooperazione in materia di controlli sulle esportazioni.

Sovracapacità e reciprocità.

Von der Leyen ha ribadito che l’Ue non sarà in grado di mantenere i propri mercati aperti alle esportazioni cinesi a meno che Pechino non adotti misure decisive per riequilibrare i loro rapporti commerciali. “A differenza di altri mercati, l’Europa mantiene i propri mercati aperti ai prodotti cinesi.

Tuttavia, questa apertura non è pari a quella della Cina”, ha dichiarato in conferenza stampa.

Ha aggiunto che la sovracapacità, la produzione sovvenzionata che non soddisfa la domanda interna e la restrizione sulle importazioni cinesi da parte di altri mercati esercitano pressione sul mercato unico dell’Ue. “Abbiamo bisogno di vedere progressi su questo tema perché senza progressi sarebbe molto difficile per l’Unione europea mantenere l’attuale livello di apertura”, ha ammonito.

Von der Leyen ha affermato che i leader si sono concentrati nei colloqui sull’accesso al mercato, sottolineando il principio di reciprocità e affermando che le due parti hanno concordato di lavorare su “soluzioni concrete” in materia di appalti pubblici.

Caso “Wto” sulla proprietà intellettuale.

A gennaio 2025, l’Unione Europea ha compiuto un passo significativo nelle sue relazioni commerciali con la Cina, presentando un caso presso l’Organizzazione Mondiale del Commercio (Wto) sulle pratiche di proprietà intellettuale di Pechino.

 L’Ue sostiene che la Cina stabilisca tassi di royalty globali per i brevetti essenziali standard (Sep) dell’Ue senza consultare i titolari dei brevetti, forzando le aziende tecnologiche europee ad accettare tassi inferiori e garantendo ai produttori cinesi un accesso ingiustamente più economico a queste innovazioni, in violazione delle regole del Wto.

Controllo sulle piattaforme e-commerce.

A febbraio 2025, la Ce ha anche intensificato il suo controllo sulle piattaforme cinesi di vendite online come “Shein” e “Temu”, richiedendo documenti interni e dettagli sulle misure di mitigazione del rischio ai sensi del Digital Services Act (Dsa) in risposta a preoccupazioni su contenuti illegali, protezione dei consumatori, rischi per la salute pubblica e privacy dei dati.

Questi esempi concreti evidenziano la profondità delle frizioni economiche che hanno permeato il vertice, rendendo difficile qualsiasi “grand bargain” commerciale.

 

Le questioni geopolitiche: Ucraina, cyber-attacchi e la Fusione Civile-Militare cinese.

Oltre al commercio, le tensioni geopolitiche hanno dominato l’agenda. La posizione della Cina riguardo alla guerra in Ucraina è stata un punto di frizione significativo.

 I funzionari dell’Ue, con Costa che ha affermato di aver discusso “a lungo” le aspettative verso la Cina, hanno esortato Pechino a usare la sua influenza per persuadere la Russia a porre fine alla guerra. “Invitiamo la Cina a usare la sua influenza sulla Russia affinché rispetti la Carta delle Nazioni Unite e ponga fine alla sua guerra di aggressione”, aveva detto in precedenza Costa a Xi.

Von der Leyen ha rafforzato questo messaggio: “Il modo in cui la Cina continuerà a interagire con la guerra di Putin sarà un fattore determinante per le nostre future relazioni”.

Ha inoltre specificato che “la Cina ha un’influenza sulla Russia, così come l’Unione Europea ha un’influenza sull’Ucraina, e ci aspettiamo che la Cina utilizzi questa influenza per assicurarsi che la Russia si sieda seriamente al tavolo delle trattative”.

 Costa ha aggiunto che l’Ue chiede alla Cina di prestare attenzione alle proprie esportazioni verso la Russia, per evitare beni a duplice uso che potrebbero essere impiegati per scopi bellici, sottolineando la responsabilità speciale della Cina, in quanto membro permanente del Consiglio di sicurezza delle Nazioni Unite, di promuovere un cessate il fuoco.

 

Questa richiesta arriva in un contesto di crescente tensione. Per la prima volta, istituti finanziari cinesi sono stati colpiti dalle sanzioni dell’Unione Europea per aver supportato Mosca nella guerra contro l’Ucraina.

L’Unione Europea ha sanzionato due piccole banche cinesi, la “Suifenhe Rural Commercial Bank” e la “Heihe Rural Commercial Bank”, nel suo ultimo (il 18°) pacchetto di misure volte a indebolire la macchina da guerra russa.

Tale decisione potrebbe provocare ritorsioni da parte della Repubblica Popolare Cinese, che ha esercitato intense pressioni dietro le quinte per far eliminare le banche dal pacchetto sanzionatorio.

 

Durante un incontro con l’Alto rappresentante dell’Unione per gli affari esteri e la politica di sicurezza Kaja Kallas, questo mese, il ministro degli Esteri cinese Wang Yi aveva lanciato più di un avvertimento sulla reazione cinese all’inclusione delle banche nel pacenzionato.

A Bruxelles, i diplomatici cinesi, compreso l’ambasciatore “Cai Run”, hanno tentato ogni via con i funzionari dell’Ue per cercare di impedire l’inserimento nella “lista nera”.

La Cina ha dichiarato di aver presentato “solenni dichiarazioni” al responsabile commerciale dell’Ue.

Inoltre, sono circolate notizie secondo cui questo mese il ministro degli Esteri cinese “Wang Yi” avrebbe detto al capo della politica estera dell’Ue, “Kaja Kallas”, che Pechino non voleva che la Russia perdesse la guerra in Ucraina, contraddicendo la posizione ufficiale di neutralità della Cina.

Wang avrebbe affermato che la guerra avrebbe distolto gli Stati Uniti dalla rivalità con la Cina, cosa che Pechino ha negato.

 

In precedenza, Kallas aveva definito la Cina il “principale facilitatore della guerra della Russia” in Ucraina, aggiungendo che “se la Cina volesse davvero interrompere il supporto, allora ci sarebbero delle conseguenze”.

La partnership strategica tra Cina e Russia, formalizzata con la dichiarazione congiunta del 4 febbraio 2022, rappresenta una crescente minaccia alla sicurezza europea, continuando a espandersi nei campi della tecnologia e dei trasferimenti di capacità e know-how militari.

 

Un’altra crescente preoccupazione riguarda gli attacchi informatici cinesi contro obiettivi commerciali e politici dell’Ue.

A maggio, il Consiglio Europeo ha accusato la Cina di essere dietro un numero crescente di “attività informatiche dannose”, con la responsabile della politica estera dell’Ue, Kaja Kallas, che ha avvertito che il blocco è “pronto a imporre costi” per tale comportamento.

La strategia cinese di “Fusione Civile-Militare”” (Mcf) sfrutta ogni leva del potere statale e commerciale per rafforzare il Partito Comunista Cinese (Pcc) e il suo braccio armato, l’Esercito Popolare di Liberazione (Pla), esfiltrando tecnologie globali all’avanguardia per rafforzare il regime totalitario e raggiungere il dominio militare.

Le attività internazionali delle imprese cinesi finiscono per supportare gli obiettivi del Pcc di espandere la sua influenza e danneggiare i rivali geopolitici.

Questo avviene anche attraverso l’uso di cellule di partito all’interno delle aziende, comprese quelle straniere, come strumenti di controllo diretto.

 La Mcf, la Nuova Via della Seta Digitale e le iniziative come Made in China 2025 e China Standards 2035 collocano la Mcf in un contesto geopolitico più ampio, con l’obiettivo finale di avanzare la Cina come potenza globale leader in termini di influenza politica, capacità economiche, dominio tecnologico e potenza militare, e di minare l’ordine internazionale basato sulle regole.

 

Infine, la questione di Taiwan aggiunge un ulteriore strato di complessità. La Cina è ansiosa riguardo al crescente sostegno a Taiwan da parte dei paesi dell’Ue, come dimostrato dal passaggio di navi da guerra tedesche nello Stretto di Taiwan.

Pechino accusa l’Ue e l’Occidente di sostenere i “separatisti” taiwanesi, cercando al contempo di dividere l’Ue dagli Stati Uniti per minare la coesione occidentale.

 

Un aspetto positivo, in un quadro di forti divergenze, è stata la dichiarazione congiunta sul clima rilasciata dalle due parti.

 Questa ha ribadito l’impegno per nuovi piani d’azione climatici a livello di intera economia, con l’obiettivo di rafforzare la cooperazione in aree come la transizione energetica, l’adattamento, la gestione delle emissioni di metano, i mercati del carbonio e le tecnologie verdi e a basse emissioni di carbonio.

Questo rappresenta uno dei pochi ambiti di allineamento strategico, specialmente in un contesto globale sempre più frammentato.

 Il presidente del Consiglio Europeo Antonio Costa ha ringraziato la Cina per quelle che ha definite discussioni “franche”, riaffermando l’impegno dell’Ue ad approfondire le relazioni bilaterali affrontando le preoccupazioni con onestà, e sottolineando che relazioni commerciali eque e reciprocamente vantaggiose sono possibili e dovrebbero essere l’obiettivo comune.

 

La risposta strategica dell’Ue: “De-risking” e rafforzamento della sicurezza economica.

Il summit ha confermato la “mancanza di slancio” nei legami Ue-Cina, come osservato da “Cui Hongjian” della “Beijing Foreign Studies University, “che attribuisce questa situazione al continuo compromesso dell’Ue con gli Stati Uniti.

 All’inizio dell’anno, si era ipotizzato che una presidenza Trump avrebbe potuto aiutare l’Ue e la Cina a trovare una causa comune, ma invece i rapporti si sono fatti più tesi, con i 27 stati membri dell’Ue che affrontano pressioni simili a quelle della Cina, non ultime le tariffe imposte sulle loro esportazioni verso gli Stati Uniti.

 

La narrazione dell’Ue nei confronti di Pechino ha preso una svolta decisiva con il discorso della presidente della Ce Ursula von der Leyen del 30 marzo 2023, segnando uno spostamento verso una posizione più assertiva, rafforzata dalla pubblicazione della Strategia Europea per la Sicurezza Economica nel giugno dello stesso anno.

 La Commissione Europea, nella Comunicazione congiunta sulle prospettive strategiche 2019, ha deciso di ridurre il rischio delle sue relazioni economiche con la Cina, adottando una strategia “sfumata”, che la vede allo stesso tempo come “partner per la cooperazione, concorrente economico e un rivale sistemico”. Questo approccio tripartito è stato ribadito nelle Conclusioni del Consiglio Europeo sulla Cina.

Durante il Vertice sulla Cina del dicembre 2023, von der Leyen ha ribadito che il “de-risking” consiste nell’imparare le lezioni dalla pandemia globale Covid-19 e dal ricatto energetico della Russia, gestendo i rischi, affrontando le dipendenze eccessive e aumentando la resilienza.

Sono stati compiuti importanti progressi nella comprensione dell’esposizione dell’Ue verso la Cina e nell’affrontare i rischi correlati, mappando le dipendenze strategiche e le strozzature della catena di approvvigionamento nel commercio.

 Diversi atti legislativi sono stati adottati per rafforzare le capacità produttive nei settori critici, e l’Ue sta perseguendo nuovi partenariati internazionali per diversificare le fonti di approvvigionamento.

 

Un passo importante è stato fatto nel gennaio 2024, quando la Ce ha adottato cinque iniziative chiave con l’obiettivo di rafforzare la sicurezza economica dell’Ue in un momento di crescenti tensioni geopolitiche e profondi cambiamenti tecnologici.

Queste azioni fanno parte di un approccio a tre pilastri volto a garantire la sicurezza economica europea attraverso la promozione della competitività, la protezione dai rischi e il partenariato con il maggior numero possibile di Paesi per promuovere interessi condivisi.

 

Nel dettaglio, le nuove iniziative mirano a:

 

Migliorare il controllo degli investimenti esteri nell’Ue (Ide). Prevenire quelli che potrebbero rappresentare un rischio per la sicurezza e l’ordine pubblico.

La Commissione ha esaminato oltre 1.200 operazioni di” Ide” notificate dagli Stati membri.

 La proposta di gennaio 2024 mira a garantire che tutti gli Stati membri dispongano di un meccanismo di screening con norme nazionali meglio armonizzate, individuando un ambito di applicazione settoriale minimo e estendendo lo screening agli investimenti controllati da individui o imprese di un Paese terzo.

l Parlamento Europeo ha chiesto l’espansione degli strumenti di screening per includere procedure di controllo generalizzate per tutti gli stakeholders coinvolti in progetti infrastrutturali critici dell’Ue, inclusi partnership e trasferimenti tecnologici, e l’istituzione di norme sul dovere di diligenza per individuare l’influenza cinese sugli investitori in infrastrutture critiche.

Adottare un maggiore coordinamento nel controllo dell’export di beni a duplice uso.

Questo include merci che possono essere utilizzate sia per scopi civili che militari, per evitare che tecnologie avanzate migliorino le capacità militari e di intelligence di Paesi terzi.

Il Libro Bianco della “Commissione sugli investimenti in uscita” propone un’analisi graduale di tali investimenti, in particolare per tecnologie sensibili come Intelligenza Artificiale, semiconduttori avanzati, biotecnologie e tecnologie quantistiche.

Questo aspetto non è attualmente monitorato né controllato a livello Ue o dagli Stati membri, pur destando preoccupazione per la fuoriuscita di tecnologie che potrebbero essere utilizzate contro l’Ue o per minare la pace e la sicurezza internazionali.

Rafforzare la sicurezza della ricerca e sviluppo (R&S).

La Commissione ha avviato una consultazione pubblica sulle tecnologie con potenziale a duplice uso, esaminando i programmi di finanziamento dell’Ue per mantenere un vantaggio competitivo.

Questo include l’introduzione di controlli uniformi dell’Ue su prodotti non ancora adottati dai regimi multilaterali di controllo delle esportazioni, la creazione di forum ad alto livello per il coordinamento politico e la promozione della discussione sui programmi di ricerca e sviluppo che coinvolgono tecnologie a duplice uso.

Successivamente, nel gennaio 2025, la Commissione Europea ha pubblicato un’ulteriore raccomandazione che invita gli Stati membri a riesaminare gli investimenti in uscita delle loro imprese verso paesi terzi in tre settori ad alto rischio (semiconduttori, intelligenza artificiale e tecnologie quantistiche), in linea con un regime normativo simile emanato dagli Stati Uniti. Il 29 gennaio 2025, la Commissione Europea ha anche pubblicato il “Competitiveness Compass for the Ue”, un quadro ambizioso volto a rafforzare e proteggere la posizione dell’Ue sui mercati globali, individuando nei controlli sulle esportazioni e nel monitoraggio degli investimenti esteri strumenti chiave per salvaguardare la competitività e impedire la fuga di tecnologia.

L’Unione Europea e i suoi Stati membri hanno, inoltre, adottato misure per aumentare la resilienza dell’Europa di fronte alla coercizione economica e politica cinese, con lo Strumento Anti-Coercizione (Aci) che rappresenta una misura importante per contrastare le pressioni che incidono sugli scambi o sugli investimenti.

 

Nonostante questi sforzi, “non è comunque il momento di compiacersi”. Le esperienze di Stati come Australia e Lituania dimostrano che, anche in caso di coercizione economica cinese, gli effetti possono essere contenuti (ad esempio, dirottando le esportazioni o reperendo capitali altrove).

Tuttavia, l’Ue e i suoi Stati membri non devono sottovalutare la profondità e l’ampiezza dei rischi, poiché Pechino è “più che mai disposta a pagare un prezzo economico elevato per perseguire i suoi obiettivi politici”, soprattutto quando in gioco ci sono interessi fondamentali come Taiwan, Hong Kong o lo Xinjiang.

Allo stesso tempo, la Cina continua a esplorare nuovi strumenti e approcci di coercizione economica, come dimostrato dalle pressioni sulle multinazionali per interrompere gli scambi con entità lituane.

 

Il rinnovato impianto normativo europeo presenta tuttavia alcune vulnerabilità, con alcuni Stati membri inadempienti agli obblighi attuativi. Il Parlamento Europeo ha urgentemente invitato gli Stati membri a implementare sistematicamente le normative esistenti e a rafforzare i controlli su investimenti esteri diretti e resilienza delle infrastrutture critiche.

 La consapevolezza delle attività cinesi è cresciuta, con le istituzioni europee che hanno ampliato le risorse dei ministeri e delle agenzie di intelligence, creando anche nuove istituzioni per contrastare l’influenza politica e la disinformazione cinese.

 

In sintesi, il vertice Ue-Cina del 24 luglio è stato più una ricognizione di posizioni consolidate che un punto di svolta per soluzioni concrete. Ha sottolineato la complessità di una relazione sempre più sbilanciata, in cui l’Ue cerca di riequilibrare i propri interessi economici e di sicurezza con la necessità di mantenere un dialogo con una potenza globale assertiva.

Il “dialogo dei sordi” descritto da Josep Borrell nel 2022 sembra purtroppo ancora attuale, con la Cina riluttante a impegnarsi in discussioni sostanziali su questioni chiave e focalizzata sulla propria narrativa positiva.

 

La situazione europea è aggravata dalla consapevolezza di essere sotto attacco dalla “Liminal Warfare” di Pechino, una guerra condotta ai margini dell’osservabilità che mira a penetrare i “tessuti molli” delle democrazie occidentali attraverso mezzi occulti, coercitivi e corruttivi, sfruttando anche il controllo di mezzi tecnologici, infrastrutture strategiche e catene di approvvigionamento globali.

 

Questo contesto rende ancora più pressante la necessità per l’Ue di sviluppare una strategia di “de-risking” efficace e di rafforzare la propria autonomia strategica, non solo per proteggere le industrie chiave ma anche per salvaguardare la propria sovranità e sicurezza in un panorama geopolitico in rapida evoluzione.

 

La mancanza di adeguati controlli sui rischi di interferenza negli appalti pubblici europei per le attrezzature di sicurezza, come nel caso Nuctech (società parzialmente di proprietà del governo cinese e legata alla politica del Fronte Unito), e la presenza di studenti cinesi in università europee in settori dual-use, sono ulteriori vulnerabilità che l’Ue deve affrontare urgentemente attraverso una maggiore supervisione normativa e controlli approfonditi sui legami con il governo cinese.

 

La modernizzazione dei processi normativi diventa il requisito principale per potersi difendere e per lavorare alla regolamentazione della nuova globalizzazione, mantenendo al centro dell’azione politica la definizione del perimetro di sicurezza dell’Unione Europea e dei singoli stati membri.

Commenti

Post popolari in questo blog

L’umanità sta creando il nostro tempo.

La cultura della disumanizzazione del nemico ideologico.

La Flotilla e il senso di Netanyahu per la Pace.