L’IA può rendere possibile l’impossibile!

 

L’IA può rendere possibile l’impossibile!

 

 

 

L’IA è la panacea di tutti i mali

o la catastrofe finale?

Repubblica.it - Andrea Daniele Signorelli – (11-12-2025) – ci dice:

Dal treno al telefono, le tecnologie più dirompenti hanno sempre avuto fautori e detrattori. Anche l’intelligenza artificiale ha i suoi apocalittici che ne vedono soprattutto i rischi per l’umanità, e gli integrati che invece ne esaltano le magnifiche sorti e progressive.

Una rassegna.

 

Ormai da secoli, l’avvento di ogni nuova importante tecnologia divide la società in due schieramenti opposti.

Da una parte, chi si concentra sui progressi sociali che ne potrebbero scaturire; dall’altra, chi pone l’accento sui rischi causati dalle più recenti innovazioni tecnologiche.

È capitato, per fare solo qualche esempio, nell’Ottocento con l’elettricità, che era vista da molti come simbolo di benessere e modernità, ma che sulla stampa dell’epoca veniva ribattezzata “corrente assassina” e che ispirò il Frankenstein di “Mary Shelley”.

Una situazione simile si è verificata, sempre nell’Ottocento, con la diffusione del treno, considerato, da una parte, uno strumento che avrebbe causato la fine della vita tradizionale e delle comunità locali e, dall’altra, come un’opportunità per rendere il mondo più connesso e più ricco.

 

Lo stesso è avvenuto anche con nuovi mezzi di comunicazione come il telefono (che per i pessimisti avrebbe disintegrato le relazioni personali) o i social media (che per gli ottimisti avrebbero invece sconfitto le dittature).

 Questa polarizzazione tra ottimisti e pessimisti – che Umberto Eco, occupandosi soprattutto della televisione, ha ribattezzato Apocalittici e Integrati nel suo celebre saggio del 1964 – si ripropone in ogni singola occasione.

 

Se le cose stanno così, era inevitabile che lo stesso avvenisse anche in seguito alla diffusione della più importante tecnologia del ventunesimo secolo:

l’intelligenza artificiale, una tecnologia che sta rapidamente trasformando ogni aspetto della società in cui viviamo – dal lavoro alla comunicazione, dall’arte alla guerra, dalla sanità all’istruzione – ma che ancora una volta ha diviso il mondo in due campi contrapposti.

 

C’è chi la celebra in quanto tecnologia trasformativa che darà vita a una nuova rivoluzione industriale e a un’epoca di benessere generalizzato.

 E chi invece ne parla in termini catastrofici, evidenziando i “rischi esistenziali” di uno strumento che – come il mostro di Frankenstein – potrebbe sfuggire al nostro controllo.

Tra questi due estremi esistenziali, troviamo però una particolare sottocategoria di “apocalittici e integrati” dell’intelligenza artificiale: quelli che si concentrano su potenzialità e rischi meno fantascientifici, concreti e immediati.

Partiamo allora dallo schieramento più negativo di tutti, quello che abbiamo ribattezzato “apocalittici esistenziali”, per poi arrivare all’estremo opposto, chi considera “ChatGpt” e i suoi fratelli il rimedio a tutti i mali della società.

 

Apocalittici esistenziali.

È impossibile analizzare il più catastrofista di questi schieramenti senza partire da chi, nel saggio” Superintelligenza” del 2014, ha più di chiunque altro contribuito a lanciare l’allarme sui “rischi esistenziali” legati allo sviluppo dell’intelligenza artificiale:

 il filosofo svedese, per lungo tempo docente a Oxford, “Nick Bostrom”. Il suo “paradosso delle graffette” è probabilmente il più noto esempio di cosa potrebbe andare storto qualora decidessimo di affidare importanti responsabilità a intelligenze artificiali evolute.

In questo esperimento mentale, Bostrom immagina di chiedere a una IA di produrre il maggior numero possibile di graffette.

Dal momento che l’intelligenza artificiale non possiede i nostri stessi valori (non è “allineata”, come dicono gli esperti), questo ipotetico sistema potrebbe distruggere il pianeta per trasformare qualsiasi cosa in graffette e massimizzarne così, come da richiesta letterale, la produzione.

Per quanto irrealistico, il paradosso di Bostrom è citato ogni volta che si descrivono i pericoli legati a un’intelligenza artificiale talmente potente da sfuggire al controllo umano.

 Secondo il controverso filosofo, l’IA rappresenta un rischio superiore alla crisi ambientale:

«È improbabile che il cambiamento climatico porti qualcosa di buono, ma se lo sviluppo dell’intelligenza artificiale dovesse andare per il verso sbagliato, sarà molto peggio», ha per esempio spiegato nel 2019.

 Chi ha preso estremamente sul serio le profezie di Nick Bostrom è l’imprenditore sudafricano “Elon Musk”, secondo cui sviluppare l’intelligenza artificiale è come “evocare il demonio”:

«Avete presente quelle storie in cui, armati di pentagrammi, acqua santa e tutto il resto, si cerca di tenere sotto controllo il demonio?

 Ecco, non va mai a finire bene», ha spiegato in una conferenza di qualche anno fa.

L’intrinseca incontrollabilità delle intelligenze artificiali, secondo che si concentrano su potenzialità e rischi meno fantascientifici, più Musk, è ciò che le rende ancora più pericolose delle bombe atomiche.

 Curioso notare come lo stesso Elon Musk, nonostante i suoi allarmi, sia al timone della società “X.AI” che sviluppa il “chatbot Grok”.

I timori di Bostrom e Musk vengono liquidati non solo da chi vede soprattutto i lati positivi della tecnologia che stiamo sviluppando, ma anche da chi pensa che le loro siano visioni fantascientifiche che ci distraggono dai rischi concreti posti dall’intelligenza artificiale, in termini di sorveglianza, privacy, impatto ambientale, lavoro e tantissimo altro.

Non dobbiamo temere un’ipotetica “super AI”, ma avere semmai paura del modo in cui le aziende ci stanno forzando ad adottare l’intelligenza artificiale senza alcuna cautela.

Il giornalista “Brian Merchant”, autore del saggio” Blood in the Machine” e che si definisce “neo-luddista”, si occupa da tempo delle conseguenze sociali dell’integrazione indiscriminata dei sistemi di IA.

«Gran parte della perdita di posti di lavoro non avviene perché l’intelligenza artificiale è davvero in grado di sostituire il lavoro umano, ma perché è usata come una giustificazione ideologica per tagliare i costi aziendali», ha recentemente scritto Merchant.

 «Se Amazon licenzia 30mila lavoratori sostenendo che la sua IA è così all’avanguardia da permettere di sostituirli, gli investitori saranno molto più contenti che se Amazon ammettesse di dover tagliare i costi perché ha investito troppo nell’espansione di data center che potrebbero rivelarsi inutili».

La sorveglianza della popolazione e l’invasione della privacy sono invece ciò che più preoccupa” Meredith Whitaker”, ricercatrice informatica e presidente della no-profit che gestisce la piattaforma di messaggistica “Signal”, i cui timori si concentrano sulla recente diffusione degli AI agent:

«Affinché gli agenti possano fare ciò che promettono — riassumere le tue email o spendere i tuoi soldi — hanno bisogno di un accesso quasi totale alla tua vita digitale.

 La cronologia del browser, i dati della carta di credito, i messaggi privati o la localizzazione sono tutti desti nati a diventare carburante per l’IA, accumulati in un mucchio di informazioni indistinte chiamato “contesto”.

I rischi sono già evidenti:

i ricercatori hanno dimostrato che gli agenti AI possono essere indotti a rivelare i dati sensibili a cui hanno accesso o possono essere ingannati da hacker affinché compiano azioni dannose.

 In parole povere, gli “AgIi agents “portano all’eliminazione della privacy e della sicurezza», ha recentemente scritto “Whitaker” in un editoriale pubblicato sull’”Economist”.

 Non per forza, però, deve andare tutto per il verso sbagliato.

L’impatto dell’intelligenza artificiale potrebbe anche portare enormi benefici.

A pensarla così è per esempio Fei “Fei Li”:

docente cinese di Scienze Informatiche a Stanford e tra le persone che, nei primi anni Duemila, più ha contribuito all’avanzata dei sistemi di intelligenza artificiale.

Negli ultimi tempi, la sua attenzione si è concentrata sui benefici dei sistemi di IA in un campo fondamentale come la sanità:

 «Bisogna garantire che i pazienti ricevano cure adeguate e tempestive, ma non c’è abbastanza personale medico.

Ciò mi porta a pensare che l’intelligenza artificiale possa dare supporto alla cura: osservando, ascoltando, facendo triage e avvisando dei pericoli.

 A seconda delle situazioni, l’IA potrebbe essere un paio di occhi che osserva un paziente mentre sta per cadere e avvisa gli infermieri. Potrebbe essere un software che controlla costantemente i risultati degli esami.

Potrebbe essere un sistema conversazionale o un software che risponde alle domande dei pazienti.

Esistono molte forme di AI che possono aiutare nella fase di erogazione delle cure».

Quello della sanità e della ricerca scientifica è uno dei campi in cui, negli ultimi anni, l’intelligenza artificiale ha effettivamente dato prova di enormi potenzialità.

 Lo ha dimostrato in particolare l’algoritmo “Alpha Fold” sviluppato da “Google Deep Mind”, in grado di prevedere la struttura tridimensionale delle proteine e che potrebbe accelerare lo sviluppo di nuovi farmaci e di terapie altamente mirate.

La sanità, però, è solo uno dei campi in cui l’AI potrebbe dare un contributo.

Altri segnalano le potenzialità di questi strumenti per ottimizzare i consumi energetici, per ridurre lo spreco d’acqua, individuare materiali più efficienti, essere di supporto alle persone disabili, snellire la burocrazia e tantissimo altro.

 L’intelligenza artificiale, per gli “integrati concreti”, può aiutare la società in una tale quantità di ambiti che il pioniere del deep learning “Andrew Ng” l’ha paragonata proprio all’elettricità:

«L’impiego dell’elettricità ha cambiato il mondo.

Ha rivoluzionato i trasporti, la manifattura, l’agricoltura, la sanità. L’intelligenza artificiale avrà un impatto simile.

Così come l’elettricità ha trasformato quasi tutto cent’anni fa, oggi faccio fatica a pensare a un settore che l’IA non trasformerà nei prossimi anni», ha spiegato in un’intervista.

 E i rischi che il suo sviluppo sfugga al nostro controllo?

È un timore che “Andrew Ng, in una famosa dichiarazione del 2015, ha liquidato così:

«Preoccuparsi di una possibile IA malvagia è come preoccuparsi del sovrappopolamento di Marte prima di averci messo piede».

E infine, ci sono le persone convinte che l’intelligenza artificiale salverà il mondo e ci proietterà in un’epoca di benessere infinito.

Non è un’esagerazione, ma esattamente ciò che, tra gli altri, ha sostenuto il fondatore di “OpenAI” “Sam Altman” in un suo post del 2024:

«L’Era dell’Intelligenza è uno sviluppo di portata enorme.

 Credo che il futuro sarà così luminoso che nessuno può rendergli davvero giustizia provando a descriverlo oggi: una caratteristica distintiva sarà però una prosperità immensa.

Anche se arriveranno in modo graduale, conquiste stupefacenti — sconfiggere il cambiamento climatico e risolvere la fisica — diventeranno col tempo realtà ordinarie.

Con un’intelligenza quasi illimitata e un’energia abbondante, con la capacità di generare grandi idee e di realizzarle, possiamo fare davvero moltissimo».

Cose non molto diverse sono state sostenute dal potentissimo investitore “Marc Andreessen” (tra gli sviluppatori di “Mosaic”) nel suo Manifesto Tecno-ottimista del 2023:

«Crediamo che l’IA sia la nostra alchimia, la nostra Pietra Filosofale: l’intelligenza artificiale va considerata come un risolutore universale di problemi.

E i problemi da risolvere non ci mancano.

Crediamo che qualsiasi rallentamento nello sviluppo dell’IA costerà vite umane.

Le morti che avrebbero potuto essere prevenute da un’intelligenza artificiale che non è stata lasciata esistere sono, in un certo senso, una forma di omicidio».

 Nelle visioni utopistiche di “Sam Altman” e “Marc Andreessen”, lo sviluppo dell’intelligenza artificiale darà vita a un’epoca di benessere e felicità per tutta l’umanità.

 Potrebbero anche avere ragione.

Ma sarà un caso che loro, come spesso avviene con gli “integrati esistenzialisti”, abbiano enormi interessi economici proprio in questo campo?

 

 

 

Trump Chiama l’Italia a Far Parte del Gruppo Sovranista:

 si Sente il Profumo di Asse Washington-Roma-Mosca.

Conoscenzealconfine.it – (12 Dicembre 2025) – Redazione – T.me – Telegram-Veritas – ci dice:

 

L’Italia, insieme ad Austria, Polonia e Ungheria, viene indicata tra i Paesi con cui Washington dovrebbe “collaborare maggiormente” con l’obiettivo di “allontanarli” dall’Unione Europea.

Con l’UE in “terapia intensiva”, arriva un’altra bella notizia.

L’Italia farà parte del gruppo dei paesi sovranisti, quindi con USA e Russia.

 

Il suddetto ordine da Washington deve essere già arrivato a Roma, considerando il linguaggio del corpo della Meloni mentre riceveva il clown nano ucraino, ormai anche lui defenestrato, esautorato, deriso ed umiliato pubblicamente.

Adesso si comincia a fare sul serio:

i giocatori sovranisti che prima sghignazzavano ai margini della sala, fingendo di essere sbronzi e sorridendo alle gentili donzelle presenti nel locale, ora si siedono al tavolo con volto serio, sguardo duro e concentrato.

 

Da adesso prepariamoci a due eventi che si ripeteranno per un certo lasso temporale:

1. Tensioni e tentativi di rivoluzioni colorate che includeranno gli utili idioti chiamati anche sindacati, i soliti partiti in mano a Soros e alcuni migranti pagati per creare disordini e caos.

Tutti rigorosamente accompagnati dai “media main stream” che ormai non legge e guarda più nessuno o quasi.

 

Mosse prevedibili, presenti nel manuale dei globalisti (pagina 90) che vengono utilizzate quando l’establishment è in seria difficoltà. Tranquilli, non si inventano nulla e non fanno paura a nessuno: tutto ampiamente prevedibile e già visto.

 

2. Nella marcia e corrotta politica italiana, serva dei perdenti anglo-franco-sionisti, vedremo da ora in avanti cambi repentini di casacca.

In molti, soltanto ora, fingeranno di essere stati da sempre veri sovranisti e strizzeranno l’occhiolino al presidente americano dicendo di voler ricucire con Madre Russia.

 

Con un riposizionamento strategico di questo livello, è possibile che a breve anche la magistratura torni a fare il proprio mestiere e quindi possa togliere il velo a inchieste interessanti, con conseguente valanga giudiziaria.

 

Con queste premesse l’asse Washington-Roma-Mosca potrebbe vedere finalmente la luce.

 

Gli stolti globalisti cercano il caos da usare come pretesto per raggiungere i loro obiettivi (“Ordo Ad Chao”, motto casualmente anche della massoneria), ma questi sono tutti falliti come loro.

Inoltre, non hanno mai letto e/o capito Nietzsche.

Noi, il caos dentro, lo abbiamo sempre avuto e non ci ha mai abbandonato.

È per questo motivo, che stiamo vincendo la battaglia e vinceremo la guerra.

“Bisogna avere ancora un caos dentro di sé per partorire una stella danzante.” – “Friedrich Nietzsche”.

 

L’UE Deve Morire…

Ormai il sentimento diffuso fra italiani ed europei è sempre più convergente: l’UE deve morire!

Fra le potenti spallate dell’asse invincibile sovranista USA-Russia e quello di cittadini, industrie e paesi membri che in realtà hanno la casacca dell’altro colore, l’UE è pronta per il collasso definitivo.

 

L’Unione Europea, creatura americana, non può sopravvivere senza il beneplacito consenso dell’amministrazione USA.

Trump ha pubblicamente esposto al mondo il pollice verso, condannando l’UE a diventare solo un terribile ricordo.

 

Quello che non poteva fare il presidente americano lo ha fatto “Musk”, che con la sua potenza mediatica ha ridicolizzato l’Unione Europea a livello globale, cercando e trovando consenso unanime.

 L’Intelligence che coordina queste azioni funziona come un orologio svizzero.

 

Il deep state si ridicolizza da solo, balbetta, frigna, alza la voce credendo di avere ancora un potere che gli è stato sfilato nel momento in cui i sovranisti hanno preso il sopravvento, facendo terminare di fretta perfino la fiction pandemica.

L’Europa sarà composta da Stati sovrani, Ursula tornerà alla sua vecchia attività, quella che le riesce meglio:

 tirare i sassi negli stagni, cercando di farli rimbalzare il più possibile.

Siamo pronti, per volare anche senza vento…

(Rivisto da Conoscenzealconfine.it.)

(t.me/In_Telegram_Veritas).

 

 

 

 

 

 

Persona dell'anno TIME 2025

all'intelligenza artificiale:

"Gli architetti dell'”AI” hanno stupito

e preoccupato l'umanità."

Ilgiornaleditalia.it – Redazione – (11 dicembre 2025) – ci dice:

Era previsto e la conferma è arrivata. "Qualunque fosse la domanda, “AI” era la risposta", scrivono i giornalisti della rivista.

Persona dell'anno TIME 2025 a "gli architetti dell'intelligenza artificiale per aver stupito e preoccupato l'umanità."

(Fonte: “TIME”).

La persona dell'anno del TIME 2025 non è una persona, bensì "l'intelligenza artificiale".

Era previsto e la conferma è arrivata.

"Qualunque fosse la domanda, AI era la risposta", scrivono i giornalisti della rivista.

In copertina "un'immagine che esprime il dualismo prodotto dall'IA: uomo contro macchina".

 

Per il TIME la persona dell'anno 2025 è l'intelligenza artificiale.

Uno strumento divisivo ma che comunque ha avuto una rilevanza non indifferente nella vita delle persone.

Era previsto che il riconoscimento andasse verso questo mondo e ai suoi "architetti".

"Abbiamo visto come può accelerare la ricerca medica, la produttività e rendere possibile l'impossibile.

 È stato difficile leggere o guardare qualcosa senza essere confrontati con notizie sul rapido avanzamento di una tecnologia che imita il pensiero umano e l'intelligenza.

Quelle storie hanno scatenato un milione di dibattiti su quanto dirompente, quanto bello e quanto brutto sarebbe stato per le nostre vite".

 

E poi: "Le capacità possono sembrare magiche: abbiamo appreso recentemente che l'IA potrebbe facilitare la comunicazione con le balene e risolvere un problema di matematica irrisolto vecchio di 30 anni.

 I modelli stanno migliorando ad un ritmo veicolante, ora impiegano pochi secondi per eseguire un lavoro che una volta richiedeva ore".

"Eppure la quantità di energia necessaria per far funzionare questi sistemi prosciuga risorse.

 I lavori stanno andando fino a che punto. La disinformazione prolifera. Sono possibili attacchi informatici su larga scala senza intervento umano.

E le aziende IA vengono attaccate all'economia globale in una scommessa di proporzioni epiche".

"La persona dell'anno è un modo potente per concentrare l'attenzione del mondo sulle persone che condizionano la nostra vita.

E quest'anno, nessuno ha avuto un impatto maggiore degli individui che hanno immaginato, progettato e costruito l'IA.

L'umanità determinerà il percorso avanti dell'IA e ognuno di noi può svolgere un ruolo nel determinare la struttura e il futuro dell'IA.

 Il nostro lavoro lo ha allenato e sostenuto, e ora ci troviamo a muoverci in un mondo sempre più definito da esso".

"Per consegnare l'età delle macchine pensanti, per stupire e preoccupare l'umanità, per trasformare il presente e trascendere il possibile, gli Architetti dell'AI sono la persona dell'anno 2025 del TIME".

(Il Giornale d'Italia).

 

 

 

 

Intelligenza Artificiale:

quale futuro?

Marcovigorelli.org – Giacinto Piero Tartaglia – Redazione- Fondazione Marco Vigorelli – ci dice:

 

Il genere umano è in perenne evoluzione, artefice e vittima dei cambiamenti che continua a generare.

La velocità di questi cambiamenti è in continuo aumento, rendendo difficoltoso il controllo degli effetti.

Nel quadro presente, Globalizzazione, Demografia e Tecnologia sono le forze primarie che determinano i cambiamenti nel e sul pianeta.

Le loro varie interazioni originano fenomeni e tendenze, che stanno già sconvolgendo la vita presente e avranno pesanti conseguenze sul futuro, se non gestite opportunamente.

Esempi del risultato di dette interazioni sono:

 nuovo quadro geo-politico mondiale; cambiamento climatico; futuro del lavoro; urbanizzazione; salute e re-invenzione del sistema “salute”, etc.

Siamo solo agli inizi della trasformazione della nostra economia e società a causa dello sviluppo delle tecnologie digitali.

 Dal punto di vista “tecnologico”, i componenti principali responsabili della velocità crescente di sviluppo, sono:

 digitalizzazione; Internet of Things (IoT); Big Data; Intelligenza Artificiale; realtà virtuale; realtà avanzata; utilizzo di sensori su larga scala; cripto-valute; sistemi tipo blockchain etc.

Da essi hanno avuto origine lo sviluppo di robot, droni, dispositivi indossabili (wearable) etc.

I cambiamenti a valle, per natura dirompenti, si ripercuotono su: mercato del lavoro; industria 4.0; sicurezza (safety); beni comuni; diritti dei lavoratori; giustizia sociale; uguaglianza; equità; rapporti sociali.

Contemporaneamente, lo sviluppo digitale sta generando una serie di paradossi:

l’esplosione della disponibilità di quantità enormi di informazioni crea disinformazione (o si presta meglio a disinformazione e diffusione di notizie false);

 l’incremento delle reti sociali origina frequentemente l’isolamento fisico.

 L’Intelligenza Artificiale (IA) è centrale a questi cambiamenti e offre delle reali opportunità di migliorare la nostra vita e anche di affrontare tali paradossi.

Nel sito della Fondazione sono presenti numerosi contributi in materia di Intelligenza Artificiale.

Sviluppo.

 L’IA negli anni Novanta si concentrava sulla correlazione di dati in ingresso (input) mediante delle regole (algoritmi) per ottenere risposte “mediate” al fine di utilizzare al meglio certi dispositivi (ad esempio: lavatrici), nei quali la risposta precisa a un numero limitato di dati di partenza non consentiva di ottenere i risultati (output) migliori.

L’evoluzione (disponibilità di dati sempre maggiore e il bisogno industriale di avere delle risposte più veloci) ha portato l’IA a muoversi verso l’apprendimento della macchina (machine learning-ML).

Dalla programmazione si è passati all’addestramento.

In questo caso, i dati di partenza sono elaborati insieme a delle risposte note.

 Dalla associazione dati-risposte, si ricavano delle regole, che vengono applicate a situazioni uguali o molto simili.

Elaborazioni più dettagliate e specialistiche hanno portato a sviluppi definiti “Deep learning” (DL) e “Reinforcement learning” (RL).

 L’insieme di queste tecnologie ha permesso lo sviluppo della robotica, inclusi i robot sociali:

numerosi problemi “semplici” possono essere risolti da macchine dotate di forme più o meno sofisticate di IA con algoritmi più o meno complessi. Alcuni esempi:

 filtro di spam, traduzioni automatiche, riconoscimento immagini, generazioni di musica, operazioni industriali ripetitive, veicoli autonomi, diagnostica in campo medico, etc.

Al momento, l’insieme IA può essere considerato come una scatola nera, in cui l’accesso agli input e ai risultati è possibile, senza conoscere cosa accade all’interno della scatola nera.

 Ignoriamo come certi output, inclusi i processi decisionali e le azioni conseguenti, siano determinati.

 Occorre quindi sviluppare dei meccanismi di trasparenza in modo da valutare la qualità e la prestazione della IA e da costruire fiducia su tale tecnologia:

 siamo noi a dover essere in grado di pilotarla, in modo da filtrare le positività ed eliminarne i rischi.

Economia e futuro del lavoro.

Da un punto di vista puramente economico, i dati (e le proiezioni) indicano un aumento degli investimenti in IA, con una cifra stimata di circa 60 miliardi di euro di investimenti globali (nel mondo) nel 2025, a fronte di una modesta cifra di circa 2 miliardi di euro nel 2016 (in tale anno gli investimenti europei rappresentavano appena un quinto degli investimenti USA).

 A livello mondiale, l’Unione Europea (UE), è superata solamente da USA per quanto riguarda il numero dei praticanti nel campo della IA.

Entro il 2030, la Cina sarà il primo attore nel campo della IA.

Per l’UE il problema maggiore non è quello di “vincere” questa corsa, ma di guidare lo sviluppo della IA per coglierne tutti i vantaggi in un modo che sia centrato sulla figura umana, che sia etico, sicuro e rispettoso dei nostri valori fondamentali.

Gli Stati Membri dell’UE hanno compreso che solo sviluppando un’azione co-ordinata a livello UE le strategie proposte dalla Commissione Europea possono essere attuate per costruire sulle nostre aree di forza, che includono ricerca, leadership in alcuni settori (es. robotica), un quadro legale e regolamentare solido e una ricca diversità culturale anche a livelli più locali (regioni e province).

Il mondo del lavoro dovrà affrontare cambiamenti radicali, come risulta da esempi già disponibili oggi:

gli “assistenti” vocali disponibili sui nostri telefoni e computer agiscono mediante meccanismi di machine learning con la necessità di rivedere il lavoro classico delle segretarie;

 le automobili a guida autonoma potranno forse sostituire il lavoro degli autisti;

 i nostri acquisti on line sono già in gran parte guidati da algoritmi che apprendono le nostre necessità e ci tempestano di offerte di prodotti di cui potremmo aver bisogno, sostituendo il lavoro degli analisti di mercato e dei più classici rappresentanti.

In breve, l’IA come tutte le altre innovazioni tecnologiche sostituirà una parte del lavoro umano, con un impatto sul mondo del lavoro diverso secondo i settori e con variazioni tra il breve e il lungo termine.

A lungo termine e con le dovute politiche, l’IA creerà nuove opportunità di lavoro, superiori a quelle che si perderanno (molte mansioni a basso livello di contenuto intellettuale e ripetitive saranno effettuate dalle macchine).

Come nella rivoluzione industriale, il processo richiederà anni prima di raggiungere l’equilibrio.

Le previsioni sono di un aumento di oltre 1.7 milioni di posti di lavoro necessari in campo digitale nella UE entro il 2030.

L’implementazione della digitalizzazione (e quindi anche IA) su larga scala richiederà competenze di livello più elevato (oltre l’80% dei lavori futuri nella UE richiederanno, tra l’altro, una conoscenza digitale di base, già nella prossima decade).

 La qualità del lavoro sarà dunque migliorata, con mansioni di livello più elevato e più gratificanti, con requisiti di conoscenza e abilità notevoli.

 Il rischio sarà quello di amplificare i cambiamenti socio-economici e la differenza tra le classi sociali (rischi e opportunità non sono equamente distribuiti attraverso la società).

Il fatto che l’impiego della IA consentirà di rimpiazzare mansioni che richiedono meno competenze, si tradurrà anche in un rafforzamento della complementarità delle risorse di cui le industrie e le ditte dovranno dotarsi.

Non solo, l’IA favorirà anche maggiore responsabilizzazione e decentralizzazione dell’autorità decisionale.

 Altri ruoli che non potranno mai essere ricoperti dalla IA riguarderanno le mansioni basate su creatività e sul coinvolgimento emotivo (segni distintivi della differenza tra uomo e macchina).

I contratti sociali andranno rivisti e dovranno considerare le disuguaglianze economiche.

Le soluzioni politiche hanno tradizionalmente considerato tassazioni progressive e programmi di salvaguardia, pensioni, disoccupazione e assistenza sanitaria.

Tali meccanismi sono fondamentali.

 Alla luce dell’impatto sul mondo del lavoro, probabilmente nuovi approcci saranno necessari e forse si dovranno anche considerare forme universali di stipendio base.

Il quadro regolamentare andrà rivisto, per tener conto degli interessi dei lavoratori, consumatori, piccole imprese che dovranno fronteggiare le mega-organizzazioni.

Nuovi metodi di monitoraggio dovranno essere sviluppati per misurare il valore aggiunto fornito dalle nuove tecnologie, sia a livello di singola impresa che di governo centrale.

Inoltre, la diffusione della IA avrà bisogno di nuovi ruoli e nuove mansioni in discipline complementari:

la complessità del mondo tecnologico/digitale multi-dimensionale rende necessario anche l’intervento di non-specialisti, di ruoli orizzontali, che sappiano valutare il quadro tecnologico, etico, sociale, legislativo e guidare lo sviluppo dei cambiamenti, assolutamente necessari per filtrare i vantaggi della IA.

Le discipline sociali, la revisione dei contratti sociali, la necessità di studi comportamentali, antropologici, i meccanismi di controllo e di valutazione, la protezione dei diritti (es. IPR), il rispetto della privacy, richiederanno un aumento delle competenze esistenti e lo sviluppo di nuove. Impatto sociologico ed educativo.

In ogni caso, i cambiamenti non sono pre-determinati e devono essere gestiti e guidati attraverso opportune politiche.

La trasformazione sociale potrà essere guidata e controllata solo attraverso un approccio multi-dimensionale che consideri gli aspetti sopra descritti: etici e sociali, legali, educativi e formativi, economici, la disponibilità di dati, le possibili intrusioni nella vita privata e relativa Cyber-security, i rischi di discriminazione ed esclusione e la resilienza sociale in toto.

La società civile dovrà essere impegnata e coinvolta a discutere i valori e per impregnarne lo sviluppo della IA soprattutto per superare e guidare le fasi di transizione.

L’IA deve essere aperta, accessibile e compresa da tutti nella società, affinché diventi uno strumento integrato nella stessa società.

Una solida struttura informatica e l’accesso ai dati dovrebbero favorire l’interazione con gli utenti e rendere possibile lo sviluppo di eco-sistemi di amministrazione pubblica, ditte e società civile, arricchendo il complesso dei dati, aumentando le possibilità di verifica e controllo sugli stessi e rendendoli idonei per applicazioni della IA.

 Questo permetterà di usufruire appieno di benefici e opportunità che l’IA può offrire.

L’IA cambierà le relazioni tra educazione, lavoro e sviluppo umano e sarà necessario comprendere meglio l’impatto delle interazioni tra IA e intelligenza umana nelle capacità cognitive di adulti e bambini.

 Più in generale, in questo panorama occorre riconsiderare il modello educativo e formativo.

È sicuramente l’aspetto più importante da considerare per lo sviluppo adeguato della IA ed è il pilastro centrale nell’ottica del cambiamento dei contratti sociali.

La rivoluzione industriale ha proposto dei modelli educativi e formativi che si sono basati sulla preparazione degli studenti finalizzata ad un pronto inserimento nel mondo del lavoro.

La scuola anglosassone ha dettato i suoi modelli, la cui validità si è però esaurita da diverse decadi e i sistemi educativi sono completamente disallineati dal futuro mondo del lavoro.

 Il progresso tecnologico avanza a dei ritmi tali da rendere tale modello obsoleto e completamente inadatto a fronteggiare le sfide future.

Durante il ciclo di studi, il progresso è tale che è assolutamente impensabile formare degli individui per un inserimento specifico nel mondo lavorativo.

Alcune università stanno incrementando le interazioni tra gli atenei e il mondo lavorativo:

di nuovo, però si tratta semplicemente di miglioramenti su una tematica specifica.

Il modello educativo deve essere rivoluzionato.

L’educazione accompagnerà ogni individuo attraverso il percorso lavorativo (life-long learning) e dal fornire e acquisire conoscenza si dovrà passare allo sviluppo delle capacità e abilità nell’implementare queste nuove conoscenze.

Visto che il mondo evolve sempre più rapidamente, dobbiamo preparare quindi le generazioni future a essere capaci di seguire e di anticipare i cambiamenti, di riuscire a comprendere la complessità dei problemi, di essere in grado di scomporre tale complessità multi-dimensionale in visioni olistiche e onni-comprensive, di stimolare i processi creativi.

In altre parole, il modello educativo dovrebbe essere basato su una piattaforma meno specialistica, ma più generale, coniugando gli aspetti tecnologici con quelli umanistici, sociali, etici e dove lo sviluppo dei processi creativi sia privilegiato.

La stimolazione della creatività è fondamentale nella scuola del domani.

Creatività è l’abilità di generare associazioni e connessioni tra argomenti all’apparenza completamente diversi e slegati, è l’ingrediente che può rendere possibile l’impossibile.

 Un cammino formativo dove scienza e tecnologia siano accompagnate dall’arte permetterebbe di affrontare meglio l’evoluzione in atto e di trarre i maggiori benefici da una società ormai non più industriale, ma basata sulla conoscenza, conoscenza globale, condivisa e interattiva.

Una coscienza del problema e uno sviluppo educativo come citato, sembra anche essere la migliore premessa per il coinvolgimento sociale e per rafforzare la nostra resilienza a tutti i livelli, dal locale al nazionale e a livello di UE, attraverso istituzioni, industrie e società civile e costruire una IA centrata sull’uomo e guidata dai valori sociali.

 Il contributo dell’UE.

Le varie istituzioni europee e l’Unione Europea nel loro complesso hanno già fatto molto per affrontare l’argomento IA in modo completo e multidisciplinare.

Nel 2018, gli Stati Membri dell’Unione hanno firmato una “Dichiarazione di Cooperazione nel campo dell’IA.”

 Nel 2018, la Commissione Europea ha pubblicato una Comunicazione su IA, avente tre obiettivi principali:

Incremento della capacità tecnologica e industriale europea e assorbimento della IA nei vari settori dell’economia, sia nel settore pubblico che in quello privato. Ciò include investimenti nel campo della ricerca e dell’innovazione e miglioramento dell’accesso ai dati.

Preparazione ai cambiamenti socio-economici causati dalla IA con operazioni di modernizzazione del sistema educativo e della formazione, favorendo lo sviluppo dei talenti, anticipando i cambiamenti nel mercato del lavoro, sostenendo il processo di transizione del mercato del lavoro e l’adattamento dei sistemi di protezione sociale.

Assicurazione di un adeguato quadro etico e legale, basato sui valori dell’Unione e in linea con la Carta dei Diritti Fondamentali dell’Unione Europea.

Ciò include linee guida su regolamenti esistenti e responsabilità sui prodotti, un’analisi dettagliata dei problemi che possono essere generati e una co-operazione tra tutte le parti interessate (industria pubblica, governi degli Stati Membri, istituzioni europee, etc.) per stabilire delle linee guida etiche.

È opportuno sottolineare che l’Unione Europea, attraverso le proprie istituzioni, è stata l’unica entità a livello mondiale ad aver emesso delle comunicazioni così comprensive sulla IA.

 Tra l’altro, le comunicazioni emesse coprono gli aspetti tecnologici, economici, legali, sociali, etici, etc. (ad esempio: linee guida per i progetti, la produzione e l’utilizzo dei robot, principi atti a regolare autonomia, responsabilità individuale, consenso informato, privacy, responsabilità sociale, diritto degli anziani e dei disabili, sistema sanitario, pratiche e codici etici, uguaglianza e non discriminazione, equità, giustizia, benefici, normazione, sicurezza, protezione dati (GDPR), diritti di proprietà intellettuale (IPR) precauzione, inclusione, rendicontabilità, massimizzazione vantaggi, eliminazione svantaggi, etc.

Il tutto centrato sull’uomo, sulla dignità e centralità della persona umana, sui saldi principi etici presenti nella carta europea dei diritti fondamentali, sui valori europei sui quali sono stati fondati i Trattati EU e infine su sfide e accettabilità sociale della IA.

Inoltre, è già stata avanzata una proposta per l’istituzione di una “Agenzia europea di robotica e Intelligenza Artificiale”, che guidi e segua gli sviluppi della IA nell’Unione Europea.

Per quanto riguarda i dati, già nel 2013 la Commissione Europea ha pubblicato una serie di comunicazioni e direttive per l’accesso aperto, trasparente e gratuito a tutte le pubblicazioni scientifiche  risultanti da attività di ricerca e sviluppo finanziate dai fondi pubblici europei e di rendere disponibili i dati correlati (obbligatoriamente a partire dal prossimo programma quadro), in modo da garantire trasparenza, riproducibilità dei risultati, una penetrazione più veloce dei risultati da parte delle industrie e quindi un impatto economico sui mercati.

Siamo ancora in grado di scrivere il futuro sulla base della nostra visione collettiva.

Le premesse sono buone, tenendo conto delle azioni a livello della UE.

 In ogni caso, da qualunque punto di vista si analizzi il problema (economico, etico, legale, sociale, etc.), dobbiamo comprendere che solo uno sforzo congiunto di tutti i paesi membri della UE potrà condurci nella direzione auspicata e già tratteggiata nelle varie comunicazioni delle istituzioni europee.

(Giacinto Piero Tartaglia - Dr.Ing., free-lance, Knowledge Management activities).

 

 

 

 

 

Come rendere sicura l’intelligenza

artificiale? Un test per

gli esseri umani.

 

Dirittisociali.org - Alessandro Casellati – (29-06 – 2023) – Casa dei diritti sociali – ci dice:

 

La grancassa degli avvertimenti sui pericoli dell’intelligenza artificiale sta raggiungendo un nuovo livello di intensità.

Mentre i ricercatori di intelligenza artificiale temono da tempo che l’IA possa spingere le persone a lasciare il lavoro, manipolarle con video falsi e aiutare gli hacker a rubare denaro e dati, alcuni avvertono sempre più che la tecnologia potrebbe prendere il sopravvento sull’umanità stessa.

 

Ad aprile, i principali protagonisti del mondo tecnologico digitale hanno pubblicato una lettera aperta esortando tutti i laboratori di intelligenza artificiale a interrompere l’addestramento dei loro sistemi più potenti per almeno sei mesi.

Il mese scorso, centinaia di ricercatori di intelligenza artificiale e altri hanno firmato una dichiarazione in cui si suggerisce che l’umanità dovrebbe affrontare il “rischio di estinzione” per mano della tecnologia con la stessa priorità che ora dà alla guerra nucleare e alle pandemie.

 

“L’idea che questa roba diventerà più intelligente di noi e potrebbe effettivamente sostituirci, mi ha preoccupato solo pochi mesi fa“, ha detto il pioniere dell’IA” Geoffrey Hinton” a “Fareed Zakaria” della “CNN” l’11 giugno.

“Pensavo che il cervello fosse migliore e che noi stavamo solo cercando di recuperare il ritardo con il cervello.

All’improvviso mi sono reso conto che forse l’algoritmo che abbiamo è già migliore del cervello.

 E quando lo miglioreremo ancora, otterremo cose più intelligenti di noi”.

“Hinton” ha lasciato il suo lavoro a Google a maggio, dice, per poter parlare liberamente di tali pericoli.

 

Altri scienziati scherzano su questi discorsi apocalittici.

 Il vero pericolo, dicono, non è che l’umanità costruisca accidentalmente macchine troppo intelligenti, ma che cominci a fidarsi di computer che non sono abbastanza intelligenti.

Nonostante i grandi progressi che la tecnologia ha fatto e i potenziali vantaggi che offre, fa ancora troppi errori per fidarsi ciecamente, aggiungono.

 

Eppure i confini tra questi scenari sono sfocati, soprattutto perché i computer basati sull’intelligenza artificiale diventano rapidamente più capaci di risolvere problemi, senza però avere le capacità di ragionamento morale degli umani.

 Il denominatore comune sono le questioni legate alla fiducia:

 quanta ne meritano le macchine? Quanto sono vulnerabili gli esseri umani alla fiducia mal riposta nelle macchine?

 

In effetti, i sistemi sono così complessi che nemmeno gli scienziati che li costruiscono sanno con certezza perché danno le risposte che danno, che sono spesso sorprendenti e, a volte, completamente false.

Sostengono che spesso è praticamente impossibile capire effettivamente perché stiano producendo una determinata stringa di testo. Riconoscono che questo è il problema più grande, gli stessi ricercatori nell’area della IA sanno che non possono assolutamente fidarsi di niente.

 Ma riconoscono che è molto facile per le persone essere ingannate.

 

Si stanno già accumulando esempi di sistemi di intelligenza artificiale che ingannano le persone:

un avvocato che ha presentato una dichiarazione giurata citando sei casi giudiziari fasulli, con nomi inventati, ha detto a un giudice di New York in un’udienza l’8 giugno di essere stato ingannato dal sistema di intelligenza artificiale su cui faceva affidamento;

un conduttore radiofonico della Georgia ha citato in giudizio OpenAI, la società che produce il popolare ChatGPT, sostenendo che il sistema di intelligenza artificiale ha creato dal nulla una denuncia legale accusandolo di appropriazione indebita;

sospettando che i suoi studenti stessero usando ChatGPT per scrivere i loro saggi, un professore della Texas A&M University ha eseguito i loro documenti attraverso lo stesso sistema e ha dato uno zero a quelli che il sistema di intelligenza artificiale ha detto di aver scritto.

 Ma il sistema non può riconoscere in modo affidabile ciò che ha scritto. L’università è intervenuta, assicurando che nessuno degli studenti fosse bocciato o escluso dalla laurea.

 Questi sono solo accenni ai rischi in serbo, avvertono gli scienziati dell’IA.

Bisogna gettare via le visioni fantascientifiche di robot tipo Terminator che conquistano il mondo – quelle sono ancora inverosimili con la tecnologia odierna – ma i rischi di estinzione umana non scompaiono. Gli scienziati indicano la possibilità che la tecnologia consenta ai malintenzionati di creare armi biologiche, o di aumentare la letalità della guerra intrapresa dagli Stati.

Potrebbe anche consentire ad attori politici senza scrupoli di utilizzare immagini deepfake (falsificate) e disinformazione in modo così efficace da far crollare la coesione sociale di una nazione, vitale per affrontare le sfide ambientali e politiche.

La manipolazione degli elettori e la diffusione della disinformazione sono alcune delle maggiori preoccupazioni, soprattutto con l’avvicinarsi delle elezioni statunitensi del prossimo anno, ha dichiarato il mese scorso il CEO di OpenAI” Sam Altman” a una commissione del Senato statunitense.

“L’intervento normativo da parte dei governi sarà fondamentale per mitigare i rischi di modelli sempre più potenti.“

 

OpenAI è il creatore di ChatGPT, che ha alimentato gran parte delle crescenti aspettative verso l’IA – sia positive che negative – sin dalla sua uscita al pubblico alla fine dell’anno scorso.

Ha sollevato la speranza che i lavoratori possano diventare molto più produttivi, i ricercatori possano fare scoperte più rapide e il ritmo del progresso in generale possa aumentare.

In un sondaggio tra gli amministratori delegati di grandi imprese statunitensi, il 42% ha affermato che l’intelligenza artificiale potrebbe potenzialmente distruggere l’umanità in 10 o anche cinque anni, mentre il 58% ha affermato che ciò non potrebbe mai accadere e che non sono “preoccupati“.

 

I legislatori di entrambe le sponde dell’Atlantico sono ansiosi di creare dei limiti per la tecnologia in espansione.

L’Unione Europea ha preso l’iniziativa nelle scorse settimane accettando la bozza di un atto che classificherebbe le tecnologie IA dal rischio “minimo” a “inaccettabile “.

L’intelligenza artificiale ritenuta inaccettabile verrebbe vietata e le applicazioni considerate “ad alto rischio” sarebbero strettamente regolamentate.

Molte delle principali tecnologie di intelligenza artificiale oggi sarebbero probabilmente considerate a rischio elevato o inaccettabile.

 

Negli Stati Uniti, il “National Institute of Standards and Technology “ha creato un framework di gestione del rischio IA.

Ma molti al Congresso vogliono andare oltre, soprattutto alla luce della percepita incapacità di aver regolamentato i social media in modo tempestivo.

Molti senatori dicono esplicitamente: “non vogliamo fare gli stessi errori con l’IA “. Vogliono essere proattivi al riguardo, che è l’atteggiamento giusto da avere.

 

Come regolamentare il settore è ancora un’incognita. Molti responsabili politici stanno cercando di imporre una maggiore trasparenza alle aziende su come costruiscono i loro sistemi di intelligenza artificiale, un requisito presente nella proposta di legge dell’UE. Un’altra idea che viene lanciata è la creazione di un’agenzia internazionale di regolamentazione che sorvegli le aziende che sviluppano la tecnologia e mitighi i rischi.

 

Noi come società stiamo trascurando tutti questi rischi.

Addestriamo e facciamo ogni sforzo per far crescere un sistema di IA che è estremamente potente ma che rimane una ‘scatola nera‘ anche per i suoi progettisti.

 Ciò significa che non possiamo allinearlo in modo affidabile con i nostri obiettivi, sia che si tratti dell’equità nella giustizia penale o di non causare la nostra estinzione.

 

 

 

Intelligenza artificiale:

limiti, vulnerabilità, rischi.

Panoramarivista.it - Corrado Giustozzi – (20 -05 – 2025) – Redazione – ci dice:

 

L’intelligenza artificiale, familiarmente chiamata IA (o AI all’inglese), benché sia balzata all’attenzione del grande pubblico solo in tempi assai recenti non è affatto una disciplina nuova:

ha anzi oltre settant’anni di vita, essendo stata “inventata” negli anni Cinquanta del secolo scorso.

Fatto forse sorprendente, dato che la maggior parte delle persone di oggi sembra ritenere che si tratti di uno sviluppo dell’informatica conseguito solo da pochi anni a questa parte.

Il termine stesso “intelligenza artificiale” venne coniato nel lontano 1955 dall’informatico statunitense “John McCarthy”, uno dei primi ricercatori di questa disciplina.

 Egli, tra l’altro, creò nel 1958 il linguaggio di programmazione denominato “LISP”, a lungo impiegato per lo sviluppo di progetti di intelligenza artificiale;

 e nel 1962 fondò uno dei più antichi laboratori di ricerca sull’IA, quello dell’”Università di Stanford”.

Per queste sue pionieristiche attività l’”Association for Computing Machinery “(ACM) gli conferì nel 1971 il prestigioso “Premio Turing”, spesso considerato come il “Nobel per l’Informatica”.

 

E vale forse la pena di ricordare che fu proprio il “padre dell’informatica” “Alan Turing” il primo a riflettere in maniera scientificamente pragmatica sul problema se le macchine potessero o no pensare, sottraendolo alle astratte speculazioni dei filosofi e privandolo soprattutto di ogni connotazione emotiva, per inquadrarlo invece in un ambito freddamente ingegneristico.

L’articolo col suo fondamentale contributo di pensiero venne pubblicato sulla “rivista di filosofia Mind” in un lontanissimo 1950, quando i calcolatori non erano ancora diffusi o utilizzati ma già lì si chiamava “cervelli elettronici”, e nei salotti intellettuali si discuteva sulle loro presunte capacità future in quanto “macchine intelligenti”.

 

È dunque curioso vedere come oggi, tre quarti di secolo dopo, i dibattiti che si susseguono alla televisione o sui forum di Internet riguardo le capacità cognitive delle “nuove” moderne macchine intelligenti siano praticamente gli stessi dell’epoca di Turing:

in una sorta di stralunato déjà-vu nel quale a esprimere le proprie opinioni sono generalmente politici, giuristi, filosofi, psicologi… ma nessun reale esperto della materia; e le argomentazioni portate a sostegno dell’una o dell’altra tesi sono spesso basate su congetture o aspettative, ma non su fatti tecnici concreti.

 

La storia sembra dunque non averci insegnato granché, o forse semplicemente gli opinionisti catodici di oggi non l’hanno studiata abbastanza.

Conviene quindi ripercorrerla brevemente, per poter inquadrare in termini più corretti ciò che sta avvenendo oggi e quali sono i nuovi e inaspettati rischi che essa comporta.

 

Gli inverni e le primavere della IA.

 

Dall’epoca di Turing e McCarthy, lo studio e lo sviluppo dell’IA sono proseguiti in un’alternanza di successi e fallimenti che hanno fatto vivere ai ricercatori fasi storiche contrastanti, caratterizzate da grandi aspettative seguite da cocenti delusioni.

 Oggi si parla infatti di ben due “inverni dell’IA”, periodi neri occorsi all’incirca tra il 1974 e il 1980 il primo, e tra il 1987 e il 2000 il secondo. In entrambi si verificò un profondo calo di interesse per l’intelligenza artificiale sia a livello industriale che governativo, il che provocò una forte caduta degli investimenti nel settore e una conseguente depressione della ricerca, cui fece seguito l’abbandono da parte di moltissimi validi ricercatori.

 

Le cause vanno attribuite ad una serie di fattori concomitanti, tra cui la delusione per la mancanza di progressi all’altezza delle esagerate aspettative che gli stessi scienziati avevano contribuito a creare, la disillusione sulla reale portata dell’IA, la sfiducia nella tecnologia per via delle sue limitazioni che rendevano più difficoltoso del previsto, o forse proprio impossibile, il raggiungimento dei risultati attesi.

 

A entrambi gli “inverni” fecero tuttavia seguito, anche se dopo un certo tempo, altrettante “primavere”, grazie a nuovi sviluppi sia sul piano della ricerca che su quello della tecnologia…

e anche ad attente operazioni di marketing, che tendevano a presentare i “nuovi” approcci come totalmente diversi da quelli che avevano portato all’inverno precedente, facendo soprattutto bene attenzione a non menzionare mai il termine “intelligenza artificiale”, che era improvvisamente diventato tabù.

Ad esempio, negli anni Ottanta del secolo scorso presero piede i cosiddetti “sistemi esperti”, e negli anni Dieci di questo secolo le “reti neurali”:

eufemismi un po’ ipocriti, ma necessari per evitare di rivangare inutilmente gli imbarazzanti insuccessi del passato.

 

Ma tutto ciò avvenne in realtà senza particolari clamori mediatici, e in pratica all’insaputa del grande pubblico:

perché tanto i successi quanto i drammi si svolgevano nei laboratori universitari o nei dipartimenti di ricerca e sviluppo delle aziende e industrie più importanti, le quali sin dall’inizio si erano dimostrate fortemente interessate a impiegare le nuove applicazioni dell’intelligenza artificiale per le proprie esigenze.

 

E così, già a partire dagli anni Dieci di questo secolo, una certa forma di intelligenza artificiale, pudicamente celata sotto il nome di “deep learning”, assai meno coinvolgente sul piano emotivo, ha ripreso in silenzio la sua conquista della scena applicativa fornendo efficaci sistemi di riconoscimento di “pattern” (volti, oggetti, scene, situazioni …) di cui nessuno sembra essersi accorto, ma che sono oramai ampiamente utilizzati in applicazioni di ogni tipo.

 Essi, infatti, consentono di realizzare affidabili “riconoscitori” o “classificatori” in ambiti che vanno dai veicoli autonomi ai robot industriali, dagli analizzatori semantici di contenuti ai motori antispam, dai sistemi per la manutenzione predittiva di impianti o apparati a quelli per le analisi finanziarie o meteorologiche, dalle telecamere di sorveglianza ai sistemi antivirus e antintrusione per la sicurezza informatica.

 

La maggior parte di tali sistemi ha oramai impatti importanti sulla vita quotidiana delle persone, basti pensare ai navigatori satellitari o agli assistenti personali:

ma nessuno fino ad ora si era preoccupato del fatto che fossero “intelligenti”, o classificabili come sistemi di IA.

E in effetti ciò è corretto, perché a rigore il “deep learning” non può essere definito come “intelligenza artificiale”: piuttosto ne è un componente.

Tant’è che in inglese i sistemi che lo impiegano vengono definiti “smart”, non “intelligent”:

 una differenza sostanziale, che tuttavia nella nostra lingua purtroppo si perde.

 

Ad ogni modo, quello che è accaduto negli ultimi vent’anni è che l’intelligenza artificiale, pur rimanendo in incognito per non rinfocolare le polemiche rimaste ancora aperte dopo il secondo “inverno”, si è silenziosamente insinuata all’interno di tantissimi sistemi e applicazioni di uso comune e generale, grazie a tecniche di apprendimento automatico relativamente nuove anche se basate in sostanza su versioni migliorate delle antiche e consolidate reti neurali in uso da oltre trent’anni.

Tutto però senza clamori e senza suscitare l’attenzione del grande pubblico.

Arrivano i Transformer.

Sembrava che le cose fossero destinate a continuare così piuttosto a lungo, quando un recente e in qualche modo imprevisto sviluppo tecnico ha inaspettatamente riacceso la fiamma che covava sotto la cenere, portando il mondo ad una tanto improvvisa quanto clamorosa riscoperta del termine “intelligenza artificiale” con tutte le sue più ancestrali implicazioni emotive.

Si tratta dei cosiddetti “Transformer”, in italiano “trasformatori”: modelli di apprendimento profondo che si sono rivelati molto più efficaci di quelli basati sulle reti neurali, e risultano particolarmente idonei a essere applicati nel campo dell’elaborazione del linguaggio naturale e della visione artificiale.

 

La prima pubblicazione scientifica relativa ai Transformer, dovuta ad un gruppo di ricerca afferente a Google, è del 2017.

Solo tre anni dopo “Google Translate” sostituiva il proprio precedente modello basato su reti neurali con un modello basato su Transformer, ottenendo risultati assai migliori rispetto a prima.

 

Nel 2018 OpenAI, laboratorio di ricerca sull’intelligenza artificiale fondato tra l’altro da “Elon Musk” e appartenente alla galassia Microsoft, inizia ad utilizzare un modello di Transformer di tipo “generativo pre-addestrato” (GPT, generative pre-trained transformer) per creare una famiglia di sistemi per la generazione del linguaggio naturale.

Tale attività culminerà col lancio a fine 2022 di ChatGPT, un “chatbot” basato sulla terza versione di GPT (GPT-3) il quale sorprenderà tutti diventando in brevissimo tempo un fenomeno planetario e riaprendo inaspettatamente l’interesse e gli investimenti, nonché gli antichi dibattiti, sull’intelligenza artificiale.

 

L’incredibile successo di ChatGPT, che ha raggiunto i cento milioni di utenti in soli due mesi di attività, ha decretato l’improvviso successo delle IA cosiddette “generative”, ossia creatrici di contenuti, dando un fortissimo impulso alla ricerca e inducendo molte altre aziende e organizzazioni di ogni dimensione a proporre propri sistemi alternativi in concorrenza a “ChatGPT”.

 

In particolare, si sono inizialmente moltiplicate soprattutto le IA “conversazionali” o chatbot, sul tipo di ChatGPT, ossia sistemi che, basandosi su modelli linguistici estesi (LLM, large language model) e architetture di tipo Transformer, sono progettati per poter sostenere conversazioni plausibili (anche se non necessariamente corrette) con gli esseri umani.

Ma sono state rapidamente sviluppate e immesse sul mercato IA generative di altra natura, in grado ad esempio di creare immagini fotorealistiche a partire da descrizioni testuali della scena o del soggetto da creare, o di creare composizioni musicali correttamente arrangiate e addirittura cantate da voci sintetiche seguendo le indicazioni stilistiche fornite dall’utente mediante una descrizione in forma testuale.

 

Da allora ad oggi, in soli due anni, questi sistemi sono stati ulteriormente migliorati:

sia aumentando le loro capacità produttive mediante l’adozione di modelli più sofisticati e di addestramenti su insieme di dati assai più ampi, sia mettendoli in grado di interagire in modo più naturale con l’utente, ad esempio rendendoli capaci di comprendere il normale parlato per accettare comandi vocali impartiti tramite un microfono.

 La ricerca in questo campo, grazie anche ai fortissimi investimenti che sta raccogliendo, si muove oramai a passi da gigante.

IA e sicurezza.

 

Si è molto dibattuto sui rapporti tra IA e sicurezza, intesa in termini piuttosto ampi: civile, militare, cibernetica.

 È infatti evidente che, in ultima analisi, un sistema di IA ben messo a punto dovrebbe essere in grado di prendere decisioni e attuare comportamenti in modo assai più rapido ed efficiente di quanto potrebbe fare un essere umano:

e soprattutto senza soffrire gli effetti della stanchezza, della fame, della noia, della depressione, della paura.

Un sistema di IA potrebbe dunque essere idealmente perfetto per governare un sistema d’arma automatico, potenzialmente autonomo e autosufficiente oltre che micidialmente letale.

Ma per lo stesso motivo un sistema di IA potrebbe, all’opposto, consentire una difesa e magari anche una controffensiva altrettanto automatica, rapida e precisa.

Ecco, quindi, che le potenziali applicazioni militari dell’IA, benché assai meno pubblicizzate e divulgate rispetto a quelle civili, suscitano da sempre il forte interesse da parte di molti governi.

Il timore è infatti che possano addirittura rovesciare i tradizionali rapporti di forza tra gli Stati, avvantaggiando militarmente non chi ha più truppe o carri armati ma chi è in grado di impiegare la tecnologia più “smart”.

 La loro effettiva introduzione potrebbe quindi essere realmente dirompente sul piano geopolitico.

 

Ma se nel tradizionale “warfare cinetico”, almeno a quanto se ne sa, ancora nessun esercito è in grado realmente di schierare sistemi d’arma totalmente asserviti all’IA (forse anche perché nessuno si fida abbastanza di loro), in quello cibernetico le cose sembrano essere diverse.

Già da diversi anni infatti si adottano comunemente, per creare sistemi di difesa contro gli attacchi informatici, tecniche di IA (o, più realisticamente, di machine learning) in grado, almeno potenzialmente, di rilevare più rapidamente una minaccia in corso effettuando l’analisi dei segnali deboli, la correlazione tra eventi apparentemente indipendenti, il rilevamento di comportamenti anomali, e via dicendo.

Il rapporto tra cybersecurity e IA è dunque piuttosto antico e consolidato, soprattutto nella messa a punto dei sistemi di difesa.

Di contro, la recente introduzione delle” nuove IA generative” sembra aver dato un’arma in più agli attaccanti, i quali hanno rapidamente imparato a sfruttare le loro abilità per sviluppare nuovi e più efficaci malware o confezionare messaggi di phishing più circostanziati e credibili.

Per non parlare della “generazione di deep fake” sempre più sofisticati, e non limitati alle sole immagini ma indirizzati soprattutto alla riproduzione della voce parlata altrui, mediante i quali le organizzazioni criminali confezionano truffe sempre più verosimili.

 

Un caso pratico è quello, sempre più comune, della cosiddetta “CEO fraud”.

In sostanza consiste nel chiamare al telefono il responsabile amministrativo di una azienda, con la voce falsificata del suo amministratore delegato generata in tempo reale mediante un’applicazione di IA, al fine di indurlo a disporre un bonifico urgente su un conto off-shore per una presunta operazione riservata.

 Ovviamente il destinatario del bonifico sarà l’organizzazione criminale che ha predisposto la frode, e che provvederà a far sparire definitivamente i soldi pochi secondi dopo il loro accredito.

 

Sicurezza dell’IA.

I rapporti tra IA e sicurezza, tuttavia, non si limitano ai due soli scenari appena visti, nei quali i sistemi di IA possono essere usati per attaccare o per difendere:

 esiste infatti un terzo scenario in cui il sistema di IA non è né l’attaccante né il difensore bensì la vittima, ossia l’oggetto stesso dell’attacco.

 

Si tratta evidentemente di un tema estremamente rilevante, dato che dai sistemi di IA dipenderà sempre di più l’erogazione di funzioni e servizi critici per la società: ma purtroppo è ancora poco studiato e affrontato.

 Finora, infatti, non sembrava necessario preoccuparsi del rischio di possibili attacchi verso le IA, dato l’utilizzo in qualche modo limitato e specialistico che se ne faceva:

ma col diffondersi in ogni settore e a tutti i livelli di sistemi e applicazioni basati su IA, e anche in considerazione della forte evoluzione della minaccia sia di matrice criminale che statuale, diventa necessario occuparsene.

 

Non si parla ovviamente di attacchi cyber tradizionali, condotti cioè verso i server che ospitano le applicazioni di IA:

ma di veri e propri attacchi semantici, basati sui dati e indirizzati a sfruttare ad arte determinate caratteristiche o limitazioni intrinseche, strutturali e “comportamentali”, delle IA.

Tali caratteristiche possono rappresentare fattori di rischio di per sé, ossia possono provocare malfunzionamenti “in buona fede” del sistema di IA;

ma possono addirittura costituire vere e proprie vulnerabilità, le quali possono essere sfruttate dolosamente da eventuali malintenzionati al fine di sabotare deliberatamente il sistema portandolo a mal funzionare su comando.

Tutti i sistemi di IA, in misura maggiore o minore, sono a rischio di attacchi semantici:

 questi, infatti, sfruttano come vettore di attacco gli stessi dati di input che il sistema riceve dall’esterno, opportunamente formati o manipolati dall’attaccante, e non richiedono alcun tipo di accesso al sistema informatico sottostante.

 Nella grande maggioranza dei casi tali attacchi sono anche molto facili da compiere, e invece assai difficili da prevenire.

 

Limiti dei sistemi di IA generativa.

 

Per quanto riguarda i sistemi generativi basati su” LLM”, oggi tanto di moda, uno dei problemi principali è costituito proprio dalla loro stessa natura:

essi sono infatti costruiti per fornire ad ogni costo una risposta “plausibile”, ma non necessariamente “corretta”.

Questa non tanto sottile sfumatura viene di solito non sufficientemente compresa dall’utilizzatore medio di tali sistemi, il quale di fronte alle loro risposte apparentemente argomentate e convincenti ritiene implicitamente che esse siano anche automaticamente veritiere e corrette.

Ciò capita in modo più evidente quando, ad esempio, si chiede ad una IA generativa di risolvere un problema logico o matematico:

non essendo infatti dotata di reali capacità analitiche, essa imbastirà una risposta “a pappagallo” apparentemente convincente ma in realtà del tutto inattendibile, perché priva di una reale comprensione del contesto e dei relativi meccanismi risolutivi.

 

Ma c’è di più:

quando una “IA generativa” non ha informazioni sufficienti per fornire una risposta, anche nel caso di una banale ricerca, le inventa di sana pianta:

si chiamano tecnicamente “allucinazioni” e sono, purtroppo, inevitabili proprio per come è fatta la struttura di tali sistemi.

 A volte queste allucinazioni sono talmente grossolane da balzare agli occhi con grande evidenza, ma in altri casi sono così plausibili e perfettamente integrate nel contesto da non creare sospetti a chi non le esamini con attenzione.

 

A tal proposito tutti ricorderanno uno dei primi e più famosi casi a salire agli onori della cronaca, quello dell’avvocato statunitense “Steven Schwartz” che nel maggio del 2023 fu sanzionato dal giudice distrettuale “Kevin Castel” per aver presentato al tribunale di Manhattan una memoria difensiva basata sulla citazione di sette casi precedenti i quali, all’analisi della controparte, si erano rivelati del tutto inesistenti.

Li aveva infatti inseriti autonomamente ChatGPT, cui l’avvocato aveva delegato la scrittura del documento, per meglio corroborare la tesi difensiva.

Peccato però che, in assenza di reali precedenti giudiziari riferibili a casi analoghi a quello in esame, la IA li avesse tranquillamente inventati di sana pianta:

e lo ha fatto corredandoli di una tale dovizia di particolari fasulli (numero di sentenza, tribunale di riferimento, attori interessati) da renderli assolutamente credibili ad una lettura non particolarmente approfondita.

 

 Vulnerabilità dei sistemi di IA inferenziale.

 

Ma anche i più antichi e consolidati sistemi di IA inferenziale basati su reti neurali citati in precedenza, benché si dimostrino assai affidabili nel loro uso normale come “riconoscitori” o “classificatori”, risultano invece particolarmente suscettibili ad alcuni tipi di attacchi piuttosto insidiosi mediante i quali è possibile indurre micidiali malfunzionamenti nei loro comportamenti.

 

Ad esempio, è possibile modificare ad arte un segnale stradale per far sì che l’IA di controllo di un veicolo a guida autonoma non lo riconosca o, peggio, ne equivochi il significato.

 In un famoso studio pubblicato negli atti della conferenza tecnica internazionale dell’”IEEE” (Institute of Electrical and Electronics Engineers) sulla computer vision del 2018, il ricercatore “Kevin Eykholt” della IBM ha dimostrato come quattro piccoli pezzi di nastro adesivo opportunamente posizionati su un cartello di stop, benché sostanzialmente insignificanti per un guidatore umano, siano invece sufficienti a far sì che un veicolo autonomo interpreti il segnale come limite di 45 miglia all’ora.

 Ciò significa che il veicolo in questione, una volta giunto in prossimità dello stop, non solo non si fermerebbe ma anzi partirebbe a razzo alla velocità di circa 90 chilometri orari, con le immaginabili conseguenze del caso.

 

Un altro studio condotto dal MIT e dall’”Università di Harvard”, pubblicato su Science nel 2019, ha mostrato come un altrimenti affidabilissimo sistema di diagnosi automatica della malignità dei nei cutanei, basato su una IA in grado di interpretare le immagini e largamente usato nella pratica medica in molti ospedali statunitensi, possa essere indotto a formulare diagnosi errate semplicemente alterando in maniera impercettibile all’occhio umano le immagini dermatoscopie che gli vengono sottoposte per l’analisi.

Una semplice perturbazione basata su un pattern di rumore bianco, sommata all’immagine, fa sì infatti che il sistema giudichi maligne delle formazioni benigne e viceversa;

e siccome tale alterazione non è percepibile dallo specialista umano, questi può non avere alcun sospetto che il sistema stia fornendo diagnosi errate fino a che non sia troppo tardi.

 

È facile anche ingannare i riconoscitori di volti:

già uno studio condotto nel 2017 da alcuni ricercatori della “Carnegie-Mellon University” aveva mostrato come fosse possibile costruire dei curiosi “occhiali” privi di lenti e con montature vivacemente colorate che, una volta indossati, alterano talmente tanto nella percezione della macchina la fisionomia del soggetto che li indossa da renderlo irriconoscibile al sistema.

Uno studio più recente della “Università Ben-Gurion del Negev” ha addirittura evidenziato come risultati analoghi possano essere ottenuti semplicemente applicando sul volto un attento e non particolarmente invasivo make-up impiegando normali cosmetici da profumeria.

 

Sulla base di tutti questi studi sono state infine realizzate, e vengono addirittura commercializzate su Internet da negozi specializzati, delle magliette su cui sono stampati speciali schemi astratti formati da linee e colori che, pur apparendo irrilevanti all’occhio umano, riescono a confondere le IA per il riconoscimento facciale ad un livello tale che colui che le indossa diventa praticamente invisibile:

ossia la telecamera di sorveglianza non si limita a non riconoscerlo, ma non ne percepisce neppure la presenza stessa.

 

 Attacchi alle IA: obiettivi.

 

Ma chi e perché potrebbe avere interesse ad attaccare i sistemi di IA?

 La prima risposta ovvia è:

la criminalità, tipicamente a fini estorsivi.

 Una seconda risposta è: gli Stati, a fini di sabotaggio.

Una terza è: le organizzazioni terroristiche, al fine di creare allarme sociale.

Ma i possibili scenari sono in realtà diversi e più sfaccettati.

 Per analizzarli brevemente conviene ragionare piuttosto sui possibili obiettivi, o risultati attesi, che l’attaccante si prefigge.

Il primo scenario è dunque quello indirizzato a “provocare danni”. L’attaccante vuole, cioè, causare semplicemente dei danni più o meno immediati a cose o a persone, come conseguenza del malfunzionamento da lui indotto nel sistema di IA.

 

Lo scopo potrebbe essere ad esempio far sì che un veicolo autonomo ignori i segnali di stop e vada a schiantarsi contro altri veicoli o investa i pedoni;

 oppure fare in modo che un sistema per la valutazione clinica di immagini di neoplasie sbagli le proprie diagnosi, così che i pazienti realmente malati vengano privati delle cure di cui avrebbero effettivamente bisogno (falsi negativi) e viceversa quelli sani vengano sottoposti a trattamenti di cui non avrebbero bisogno (falsi positivi).

 

Il secondo scenario è invece quello indirizzato a “nascondere qualcosa”. In questo caso l’attaccante vuole eludere il rilevamento di qualcosa (un contenuto, un’azione, un comportamento) da parte di un sistema di IA che ha lo scopo di rilevare ed eventualmente bloccare gli elementi anomali o non consoni.

 

In questo scenario lo scopo potrebbe essere quello di alterare il funzionamento di un filtro di contenuti addestrato a bloccare materiale indesiderato (propaganda terroristica, pedopornografia o altro) su una rete di comunicazione o social network, facendo in modo che esso non venga identificato e possa quindi essere trasferito senza ostacoli; oppure inibire le funzioni di riconoscimento facciale, biometrico o di altro tipo (veicoli, targhe…) da parte di telecamere di sicurezza AI-based per poter accedere indisturbati in locali o ambienti protetti.

 

Infine, il terzo scenario è quello indirizzato a “minare la fiducia nel sistema di IA”:

l’attaccante vuole dunque fare in modo che chi gestisce e opera il sistema si convinca che esso stia funzionando male, dubiti sistematicamente della validità dei risultati che fornisce, e arrivi così a ignorarlo o addirittura disattivarlo.

 

In questo caso, dunque, l’obiettivo è far sì che un sistema di IA, il quale effettivamente sta svolgendo bene il suo lavoro, venga spento o comunque disabilitato, così da lasciare campo libero a qualche ulteriore azione malevola, o anche solo per provocare oneri aggiuntivi o disagi a qualcuno.

 Ad esempio, l’attaccante potrebbe indurre un sistema automatizzato di cybersecurity a segnalare come attacchi degli eventi comuni e innocui, innescando così una raffica di falsi allarmi che condurrebbe alla sua disattivazione da parte di un operatore esasperato;

 oppure fare in modo che un sistema di monitoraggio e analisi predittiva di qualche processo ad alta complessità fornisca risultati talmente assurdi da costringere i gestori a passare a qualche forma di servizio degradato o addirittura manuale.

 

 Cosa fare?

 

Per poter utilizzare correttamente e in modo sicuro un sistema di IA occorre innanzitutto avere la giusta consapevolezza dei suoi limiti e dei suoi difetti:

nessun sistema costruito dall’uomo è perfetto e infallibile, e le IA non fanno eccezione.

 Nel caso dei sistemi di IA, tuttavia, la situazione è più complicata per via della loro complessità e della loro intrinseca inesplicabilità: caratteristiche che rendono difficile stabilire il perché di un certo risultato, e dunque anche comprendere se il sistema stia mal funzionando oppure no.

 

È importante a tal riguardo ricordarsi sempre che tutti i sistemi di IA imparano dall’esperienza, la quale può essere fornita o dallo specifico addestramento (training) cui sono stati sottoposti dal loro produttore in fase di messa a punto o dalla normale attività di esercizio sul campo (a volte anche entrambe le cose).

Gli algoritmi di IA, infatti, stabiliscono come il sistema “apprenderà” ma non necessariamente come si “comporterà” in ogni singolo caso specifico, perché ciò dipende appunto dal suo training e/o dalla sua storia pregressa.

 

Per quanto riguarda nello specifico le “IA generative” che, chi più chi meno, oramai quasi tutti utilizziamo frequentemente nella nostra vita quotidiana, è necessario soprattutto tenere sempre ben presente che il loro scopo è quello di fornire risposte a tutti i costi, e che il meccanismo di costruzione delle risposte è fatto perché esse siano verosimili ma non necessariamente corrette.

Le IA generative sono fortemente suscettibili ai rischi di allucinazioni, cioè di fornire risposte plausibili ma inventate.

Per questo, ad esempio, non dovrebbero essere usate per fare ricerche generaliste al posto di Wikipedia o di un motore di ricerca specializzato: sono invece estremamente affidabili in compiti quali l’analisi e la comprensione di testi oppure la correlazione, la schematizzazione e la sintesi di documenti anche molto complessi.

 

Ricordiamo comunque che anche per esse vale il principio per cui la qualità e l’affidabilità dei risultati dipendono fortemente dalla qualità del training cui sono state sottoposte.

 Pertanto un “LLM” addestrato a partire dai dati aperti reperibili su Internet, come sono ad esempio i “chatbot della famiglia ChatGPT” e i loro vari emuli, avrà certamente una conoscenza più ampia e variegata di un sistema addestrato su un corpus specifico di documenti selezionati, e dunque sarà più brillante e creativo nelle sue produzioni;

ma di contro fornirà contenuti di minore qualità e valore, perché avrà attinto la sua conoscenza non solo da lavori universitari, da quotidiani e testate autorevoli o da siti generalmente affidabili quali Wikipedia, ma anche dai blog dei terrapiattisti, dai siti dei complottisti e da tante altre fonti non verificate o di dubbia provenienza.

 

In generale, dunque, si può dire che non si dovrebbe mai usare una IA, soprattutto di tipo generativo, per svolgere in modo acritico compiti importanti:

se si prende per buono ogni risultato verosimile fornito, senza prima verificarlo, si rischia di commettere errori grossolani e molto gravi, che possono anche comprendere elementi discriminativi verso persone o categorie.

 

A tal proposito è importante notare che l’”Organizzazione Mondiale per gli Standard” (ISO) ha di recente pubblicato la norma internazionale ISO/IEC 42001 Information technology – Artificial intelligence – Management system che indirizza proprio l’uso responsabile, etico e trasparente della IA nelle organizzazioni.

 

Questa norma nasce a fini certificativi, quindi un’organizzazione che la adotta può dimostrare la sua conformità sottoponendosi ad un audit formale di terza parte svolto da un organismo di certificazione accreditato.

Si tratta infatti di uno “standard di sistema di gestione” (MSS, management system standard), finalizzato a mettere in atto all’interno di una organizzazione politiche e procedure per la governance dell’intelligenza artificiale.

 A tal fine essa specifica i requisiti per stabilire, implementare, mantenere e migliorare con continuità un sistema di gestione dell’intelligenza artificiale (AIMS, artificial intelligence management system) all’interno di un’organizzazione che fornisca o utilizzi prodotti o servizi basati sull’intelligenza artificiale, al fine di garantirne lo sviluppo e l’uso responsabili.

 

Così dunque come avviene per le più note norme ISO 9001 (qualità) e ISO/IEC 27001 (sicurezza delle informazioni), mediante le quali un’organizzazione può adottare volontariamente dei modelli standard di best practice per la gestione di alcuni processi rilevanti, e se vuole può anche ottenere una dimostrazione oggettiva di conformità ottenendo la relativa certificazione, anche un’azienda o un’organizzazione che volessero adottare un modello allo stato dell’arte di impiego dell’IA possono utilmente seguire la norma ISO/IEC 42001 a livello di buona pratica, salvo poi se lo desiderano richiedere la certificazione.

In molti casi potrebbe essere un ottimo modo per essere certi di aver fatto tutto il possibile per garantirsi un utilizzo responsabile dei sistemi di IA.

 

Passando invece al problema degli attacchi deliberati verso le IA, soprattutto quelle basate su “motori inferenziali”, purtroppo esso non può essere facilmente risolto dall’utilizzatore finale del sistema:

 è infatti il costruttore del sistema stesso che dovrebbe affrontarlo in modo strutturale in fase di progettazione, mentre l’utilizzatore può al massimo adottare misure di mitigazione nel loro impiego.

 

Purtroppo, la maggior parte dei sistemi di IA inferenziale oggi in produzione è stata progettata senza tenere conto del rischio di attacchi o sabotaggi, semplicemente perché ai tempi degli studi che hanno consentito di svilupparli non esisteva il problema della loro sicurezza.

È dunque accaduto un po’ ciò che era già successo con le cinture di sicurezza per le automobili, le quali non sono state inventate assieme all’automobile stessa ma sono state introdotte come retrofit molto tempo dopo, quando le automobili erano diventate oggetti di uso comune, a seguito della maturazione della coscienza relativa alla pericolosità degli incidenti stradali.

 

Per venire incontro ai produttori di sistemi di IA, fornendo loro linee guida progettuali e standard tecnici che li aiutino a rendere più sicuri i loro prodotti contro gli attacchi semantici, stanno ultimamente iniziando a nascere iniziative di studio e di indirizzo da parte di agenzie internazionali come l’”ENISA europea” o il “NIST statunitense”, e anche di enti internazionali di standardizzazione come “ETSI” (European Telecommunications Standards Institute).

La materia è lungi dall’essere consolidata e siamo ancora lontani dall’avere non solo dei veri e propri standard in materia ma anche semplicemente delle buone pratiche condivise, ma almeno il problema inizia a essere percepito e si sta ragionando su quale sia il modo migliore per affrontarlo.

 

Va comunque notato a tal proposito che l’”ETSI”, ossia l’organismo di standardizzazione europeo riconosciuto dalla Commissione Europea per lo sviluppo di norme armonizzate in campo tecnico, già nel 2019 aveva creato al proprio interno lo “Industry Specification Group on Securing Artificial Intelligence” (ISG SAI), ossia un gruppo di esperti avente il compito di studiare il modo migliore per sviluppare specifiche tecniche industriali indirizzate alla mitigazione delle minacce derivanti dal dispiegamento dell’IA e delle minacce ai sistemi di IA, provenienti sia da altre IA sia da entità convenzionali.

 

Svolgendo dunque attività di pre-standardizzazione, l’ISG SAI aveva lo scopo di inquadrare i problemi di sicurezza derivanti dall’IA e di costruire le basi di una risposta a più lungo termine alle minacce rivolte vero l’IA, sponsorizzando il futuro sviluppo di specifiche normative tecniche.

Fra l’ottobre 2019 e il novembre 2023, nonostante il rallentamento imposto ai lavori dalla pandemia di Covid-19 sopraggiunta, nel frattempo, l’ISG SAI ha comunque prodotto nove documenti di alto livello che delimitano il problema.

 

Infine il 4 dicembre 2023, in vista della allora prossima pubblicazione del “Regolamento europeo sull’Intelligenza Artificiale” (AI Act) da parte del Parlamento europeo, “ETSI” ha creato un “Comitato Tecnico formale” sulla messa in sicurezza dell’Intelligenza Artificiale (Technical Commitee on Securing Artificial Intelligence, TC SAI) per poter essere pronto ad indirizzare le eventuali richieste di standard provenienti dalla Commissione;

contestualmente il ISG SAI è stato chiuso, e le sue attività sono state trasferite al nuovo TC SAI.

Quest’ultimo non ha comunque perso tempo e, fra marzo ed aprile 2025, ha già emanato ben tre specifiche tecniche formali che, rispettivamente, forniscono l’ontologia di base del problema e le relative definizioni (ETSI TS 104 050), indirizzano la esplicabilità e la trasparenza delle IA (ETSI TS 104 224), e soprattutto forniscono i requisiti di base per la cybersecurity dei sistemi di IA e dei relativi modelli (ETSI TS 104 223).

 

La situazione attuale è dunque che l’Europa non solo ha coscienza della necessità di creare una nuova generazione di sistemi di IA più sicuri e protetti contro attacchi ed attività malevole, ma ha già iniziato a dotarsi di standard tecnici di riferimento che indichino all’industria i percorsi da seguire.

 

 Conclusioni.

 

L’intelligenza artificiale, grazie ai recenti sistemi generativi basati su architetture Transformer e modelli linguistici di grandi dimensioni, sta improvvisamente vivendo un momento di forte popolarità e di enorme successo commerciale.

La grande euforia sulle sue potenziali capacità, complice il non disinteressato contributo del mercato, ha tuttavia portato l’opinione pubblica a sopravvalutarne le potenzialità e sottovalutarne limiti e difetti, e ciò rischia di rivelarsi un pericoloso boomerang.

 

Nello storytelling mediatico i “nuovi” sistemi di IA vengono infatti presentati come una panacea applicabile a qualsiasi ambito e in grado di risolvere qualsiasi problema; e chi prova a invocare un minimo di sana cautela rischia di essere tacciato di oscurantismo o accusato di voler fermare il progresso.

 

La realtà come al solito sta nel mezzo.

 I moderni sistemi di IA hanno indubbiamente delle capacità notevoli ed esprimono potenzialità ancor più significative, molte delle quali ancora neppure ben comprese:

ma non sono adatti a qualunque applicazione, né sono perfetti e infallibili.

 L’approccio fideistico con cui li si sta frettolosamente introducendo nelle aziende, anche per cavalcare la moda, è forse un po’ troppo imprudente perché rischia da un lato di deludere le esagerate aspettative che si sono create, e dall’altro di introdurre nuovi ordini di problemi.

 

Il punto principale che ogni utilizzatore dovrebbe tenere presente, sia esso un singolo utente o un’intera organizzazione, è che un sistema di IA dovrebbe essere un supporto all’attività umana, seppure di straordinaria potenza e versatilità, e non un sostituto ad essa.

 Dunque, non si dovrebbe mai lasciar prendere una decisione importante ad un sistema di IA, o fargli svolgere un’attività complessa, in totale autonomia:

 ossia senza il conforto di un qualche processo di controllo, automatico o supervisionato da un esperto umano, il quale verifichi indipendentemente la validità o almeno la coerenza dei risultati forniti.

E ciò almeno fino a che avremo a che fare con l’attuale generazione di sistemi di IA, che sono forse molto “intelligenti” ma certamente non particolarmente “furbi”.

Sulla questione, infine, se essi possano realmente pensare o no… si rimanda il lettore al saggio di Turing del 1950!

(Corrado Giustozzi).

 

 

 

Evoluzione dell'IA e raccomandazioni.

Openai.com – (6 novembre 2025) – Redazione Open.ai – ci dice:

 

L'intelligenza artificiale sta sbloccando nuove conoscenze e abilità. È nostra responsabilità guidare questa crescita affinché conduca a benefici concreti e duraturi.

Quando fu superata, quasi senza accorgersene, quella che un tempo era considerata la soglia del test di Turing, molti di noi si sono stupiti di quanto la vita di tutti i giorni sia semplicemente continuata come se nulla fosse.

 Eppure, si trattava di un traguardo atteso e discusso da decenni. Sembrava impossibile da raggiungere, poi all'improvviso era parso più vicino, e poi di colpo l'avevamo superato.

Sono arrivati nuovi e incredibili prodotti, e non è cambiato molto nel mondo, anche se ora i computer possono conversare e ragionare su problemi complessi.

 

La maggior parte del mondo pensa ancora all'IA come alle chatbots o a strumenti di ricerca più efficaci, ma oggi abbiamo sistemi che possono superare gli esseri umani più intelligenti in alcune delle competizioni intellettive più impegnative.

Sebbene i sistemi di IA presentino ancora limiti evidenti e punti deboli importanti, quelli in grado di risolvere problemi così complessi sembrano trovarsi più vicini all'80% del percorso di ricerca sull'IA, che al 20%.

 C'è un divario immenso tra l'uso che la maggior parte delle persone fa dell'IA e il suo reale potenziale.

 

I sistemi di intelligenza artificiale in grado di scoprire nuove conoscenze, autonomamente oppure rendendo le persone più efficaci e in grado di farlo, avranno con ogni probabilità un impatto notevole sul mondo.

 

In pochi anni, l'intelligenza artificiale è passata dall'essere in grado di svolgere solo attività (nel campo dell'ingegneria del software in particolare) che una persona può completare in pochi secondi ad attività che richiedono più di un'ora per essere completate.

 Ci aspettiamo di avere presto sistemi in grado di svolgere attività che a una persona richiederebbero giorni o settimane.

Non sappiamo ancora come concepire sistemi in grado di svolgere attività che a un essere umano richiederebbero secoli.

Allo stesso tempo, il costo per ottenere una determinata quantità di intelligenza è diminuito drasticamente: negli anni, una riduzione di 40 volte è una stima ragionevole!

 

Nel 2026, ci aspettiamo che l'IA possa fare scoperte di piccola entità.

Nel 2028 e oltre, siamo piuttosto sicuri che avremo sistemi capaci di fare scoperte più significative (anche se potremmo sbagliarci, questo è ciò che i nostri progressi nella ricerca sembrano indicare).

 

Da tempo abbiamo la sensazione che i progressi dell'IA si manifestino in modi sorprendenti, e che la società trovi sempre il modo di evolversi con la tecnologia.

Sebbene ci aspettiamo rapidi e significativi progressi nelle capacità dell'intelligenza artificiale nei prossimi anni, ci aspettiamo che la vita quotidiana continui a sembrare sorprendentemente costante.

 Il nostro modo di vivere, infatti, ha molta inerzia anche con strumenti molto migliori.

 

In particolare, ci aspettiamo che il futuro offra nuovi e, si spera, migliori modi per vivere una vita appagante, e che sempre più persone possano sperimentare tale appagamento.

 È vero che il lavoro sarà diverso, la transizione economica potrebbe essere molto difficile in alcuni aspetti, ed è persino possibile che il contratto socioeconomico fondamentale debba cambiare.

Ma in un mondo di abbondanza ampiamente distribuita, la vita delle persone può essere molto migliore di quanto non sia oggi.

 

I sistemi di intelligenza artificiale aiuteranno le persone a comprendere la loro salute, ad accelerare i progressi in campi come la scienza dei materiali, lo sviluppo di farmaci e la modellazione climatica, e ad ampliare l'accesso all'istruzione personalizzata per gli studenti di tutto il mondo.

Dimostrare questi tipi di benefici tangibili aiuta a costruire una visione condivisa di un mondo in cui l'IA può rendere la vita migliore, non solo più efficiente.

 

OpenAI è profondamente impegnata per la sicurezza, intesa come strumento per favorire gli effetti positivi dell'IA, riducendo al minimo quelli negativi.

Sebbene i potenziali vantaggi siano enormi, consideriamo i rischi dei sistemi super intelligenti come potenzialmente catastrofici e crediamo che studiare empiricamente la sicurezza e l'allineamento possa orientare le decisioni globali, come ad esempio se l'intero settore dell'IA debba rallentare lo sviluppo per studiare più attentamente questi sistemi man mano che ci avviciniamo a tecnologie in grado di auto-migliorarsi in modo ricorsivo.

Ovviamente, nessuno dovrebbe implementare sistemi super intelligenti senza essere in grado di allinearli e controllarli in modo forte, e questo richiede più lavoro tecnico.

 

Ecco alcune cose che pensiamo possano aiutare a ottenere un futuro positivo con l'IA:

 

Standard condivisi e approfondimenti dai laboratori di frontiera.

Pensiamo che i laboratori di frontiera dovrebbero concordare su principi di sicurezza condivisi e condividere la ricerca sulla sicurezza, le conoscenze sui nuovi rischi, i meccanismi per ridurre le dinamiche di competizione e altro ancora.

È facile immaginare che l'adozione da parte dei laboratori di frontiera di determinati standard, quali ad esempio le valutazioni del controllo dell'IA, possa risultare molto utile.

 

La società ha attraversato un processo simile per definire le normative sull'edilizia e gli standard antincendio, che hanno salvato innumerevoli vite.

Un approccio alla supervisione pubblica e alla responsabilità proporzionato alle capacità, che promuova gli effetti positivi dell'IA e ne riduca quelli negativi.

Ci sono due scuole di pensiero sull'IA.

Una è che l'intelligenza artificiale è come la “tecnologia normale”, nel senso che progredirà come altre rivoluzioni tecnologiche del passato, dalla stampa a internet.

Le situazioni evolveranno in modo da offrire alle persone e alla società l'opportunità di adattarsi, e gli strumenti tradizionali delle politiche pubbliche dovrebbero riuscire a gestire questo processo.

 Sarà importante dare priorità a idee come promuovere l'innovazione, proteggere la privacy delle conversazioni con l'IA e prevenire l'uso improprio di sistemi potenti da parte di malintenzionati, collaborando con il governo federale.

 

Riteniamo che l'intelligenza artificiale ai livelli di capacità attuali si trovi a questo stadio, e debba diffondersi ovunque, il che significa che la maggior parte degli sviluppatori e dei modelli open-source, così come quasi tutte le applicazioni della tecnologia odierna, non dovrebbero essere soggette a ulteriori oneri normativi significativi rispetto a quelli già esistenti.

Quel che è certo è che non dovrebbe dover affrontare l'insieme frammentato di leggi di 50 stati.

 

L'altra possibilità è che la superintelligenza si sviluppi e si diffonda in modi e a una velocità che l'umanità non ha mai visto prima.

In questo caso dovremmo fare la maggior parte delle cose dette sopra, ma dovremo anche essere più innovativi.

 Se la premessa è che qualcosa del genere sarà difficile da assimilare per la società "in modo normale", non possiamo nemmeno aspettarci che la regolamentazione tradizionale riesca a incidere più di tanto.

In questo caso, probabilmente dovremo lavorare a stretto contatto con il ramo esecutivo e le agenzie correlate di più paesi (come i vari istituti di sicurezza) per coordinarci efficacemente, in particolare su aree come la mitigazione delle applicazioni dell'IA al bioterrorismo (e l'uso dell'IA per rilevare e prevenire il bioterrorismo) e le implicazioni dell'auto-miglioramento dell'IA.

 

L'aspetto prioritario dovrebbe essere la responsabilità verso le istituzioni pubbliche, ma il modo in cui ci arriviamo potrebbe dover essere diverso rispetto al passato.

 

Costruire un ecosistema di resilienza dell'IA.

In entrambi gli scenari, sarà essenziale sviluppare un ecosistema di resilienza per l'IA.

 Quando si è sviluppato Internet, non lo abbiamo protetto con una singola normativa o un'unica azienda, ma abbiamo creato un intero settore dedicato alla sicurezza informatica:

software, protocolli di crittografia, standard, sistemi di monitoraggio, squadre di pronto intervento, ecc.

Quell'ecosistema non ha eliminato il rischio, ma lo ha ridotto a un livello con cui la società potesse convivere, consentendo alle persone di fidarsi delle infrastrutture digitali abbastanza da costruire su di esse le proprie vite e le proprie economie.

Avremo bisogno di qualcosa di analogo per l'IA, e i governi nazionali hanno un ruolo decisivo da svolgere nella promozione di politiche industriali per incoraggiarlo.

 

Report e monitoraggio continui da parte dei laboratori di frontiera e dei governi sugli impatti dell'IA.

Comprendere come l'IA stia influenzando concretamente il mondo rende più semplice orientare questa tecnologia verso un impatto positivo.

Fare previsioni è difficile:

 ad esempio, l'impatto dell'IA sui posti di lavoro è stato difficile da anticipare, in parte perché i punti di forza e di debolezza delle IA di oggi sono molto diversi da quelli degli esseri umani.

Misurare ciò che accade nella pratica sarà probabilmente molto istruttivo.

Costruire per favorire l'emancipazione individuale.

Crediamo che le persone debbano poter utilizzare l'IA liberamente, nel rispetto dei limiti definiti dalla società.

Ci aspettiamo che l'accesso all'intelligenza artificiale avanzata diventi un servizio essenziale nei prossimi anni, al pari dell'elettricità, dell'acqua potabile o del cibo.

 In definitiva, pensiamo che la società dovrebbe sostenere la diffusione capillare di questi strumenti e che la stella polare debba essere l'obiettivo di aiutare le persone a raggiungere i propri obiettivi.

 

INTELLIGENZA ARTIFICIALE:

Opportunità, limiti e rischi.

Serraclubitalia.it – (30 01 -2024) - Cultura Vocazionale, News, Primo Piano, Vocazioni -Redazione:

 

Nel 1943 un gruppo di scienziati in Europa e negli USA inizia a lavorare su un nuovo ambito di ricerca utilizzando idee e risultati ottenuti in vari ambiti di scienze teoriche e applicate con l’obiettivo di costruire macchine o programmi che tendono a imitare le capacità cognitive dell’essere umano, ovvero di percepire, comprendere, apprendere e agire con livelli di intelligenza simili a quelli umani.

L’elenco di scienze, tecnologie e teorie che sono state interconnesse tra loro per tale scopo è piuttosto lungo.

Le più importanti sono certamente filosofia e logica, ingegneria, linguistica e psicologia sperimentale, logica matematica e statistica, informatica e ingegneria dei calcolatori, neurobiologia computazionale ed elaborazione dei segnali e delle immagini, teoria dei giochi e teorie dei sistemi e del controllo, ecc. 

 

Il termine di “Intelligenza Artificiale” (IA) viene utilizzato ufficialmente per la prima volta nel 1956 da John McCarthy e altri scienziati durante la conferenza “Dartmouth Summer Project  on Artificial Intelligence”. Finora sono state formulate varie definizioni dell’IA.

 

Secondo l’informatica Francesca Rossi l’IA è “una disciplina scientifica che mira a sviluppare programmi o macchine che forniscano risultati che la intelligenza umana riconosce come innovativi e coerenti con le proprie facoltà cognitive.

Obiettivo della IA è la creazione di algoritmi, robot e tecnologie che usano matematica e statistica per riuscire a esprimere in formule la complessità del comportamento umano, fornendo un supporto utile agli umani per superare i loro limiti ed estenderne le capacità».

L’Europarlamento definisce l’IA come “l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività”.

L’Organizzazione Mondiale della Sanità definisce l’IA come “..capacità degli algoritmi di apprendere dai dati, che consente loro di  eseguire compiti automatizzati senza la necessità che l’uomo intervenga per programmare  ogni fase del processo analitico-medico”. 

 

L’evoluzione delle applicazioni dell’IA in quasi tutte le attività umane ha avuto uno sviluppo così rapido e per certi versi dirompente da considerare difficile oggi un’esaustiva definizione di IA.

Infatti si riconoscono diversi tipi di IA: Forte o “Generale (AGI)” e Debole o “Ristretta”, “Discriminativa” e “Generativa”, “Super IA”. 

 

Oggi l’IA o le macchine dotate di IA sono in grado di comprendere un discorso, imparare, pianificare, risolvere problemi, ragionare, percepire, maneggiare e spostare oggetti.

L’ AGI è un tipo IA in grado di generare testo, immagini, video, musica o altri media in risposta a delle richieste (prompt).

L’AGI possiede potenziali applicazioni tra cui sviluppo di software, marketing e moda, editoria, predizione di struttura proteica, scoperta di nuovi farmaci a partire da catene di aminoacidi o rappresentazioni di molecole.

La Super IA è lo stadio dell’AI in cui le capacità dei computer supereranno quelle degli esseri umani.

È un concetto teorico che si riferisce a una forma di IA altamente avanzata e superiore a quella umana in termini di capacità cognitive e di calcolo complesso.

L’anno 2023 è sicuramente quello in cui giornali e media hanno più fatto conoscere l’IA, anche perché la stragrande maggioranza della popolazione non sembra essere consapevole degli enormi cambiamenti epocali prodotti dall’IA e quanto le nuove tecnologie stanno cambiando i nostri comportamenti e ogni aspetto della nostra vita.

 

Tali cambiamenti non sono solo al di fuori di noi, ma sempre più spesso sono dentro di noi:

pensiamo sempre meno, per fare semplici calcoli utilizziamo solo la calcolatrice. Ricordiamo anche sempre meno e a volte con maggiore difficoltà.

Sicuramente hanno semplificato e migliorato la nostra vita l’uso di assistenti personali digitali nei computer e negli smartphones, i condizionatori d’aria “intelligenti”, i motori di ricerca, i traduttori simultanei, l’uso di robot per es. nelle fabbriche e in agricoltura, lo shopping on line e tanto altro ancora.

 

Specie il robot identifica nell’immaginario collettivo la raffigurazione più immediata dell’IA.

 Isaac Asimov, biochimico scrittore di fantascienza bielorusso, agli inizi degli anni ’40 elaborò le 3 Leggi a cui ogni robot doveva correttamente sottostare.

 Leggi di Asimov:

Prima Legge:

” Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno. Seconda Legge: “Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge”.

Terza Legge: “Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.”

I robot chirurgici sono diventati di fatto estensioni delle mani del chirurgo con un feedback sensoriale analogo a quello che avrebbe il chirurgo se intervenisse direttamente sul paziente e soprattutto permettono interventi più precisi e meno invasivi di quelli tradizionali.

 

La robotica sta dimostrando enormi potenzialità nello sviluppo di robot da utilizzare nell’assistenza ai malati, agli anziani e ai disabili L’IA inoltre consente l’elaborazione e la diagnosi di immagini diagnostiche (RX, TAC, RMI) con un livello di precisione vicino e a volte superiore a quello dell’esaminatore umano.

Un contributo importante l’IA sta fornendo per es. nell’ambito della genetica, specie di quella applicata ai tumori (Oncotype DX) e delle malattie rare (Alphamissense), del monitoraggio da remoto dei pazienti (BabylonHealth), dei sistemi di gestione delle cure per le malattie croniche (Livongo), di scoperta di nuovi farmaci (BenevolentAI).

 Si può affermare che quasi tutti i giorni nella letteratura scientifica internazionale vengono riportate nuove scoperte per utili impieghi dell’IA in medicina e chirurgia.

Tuttavia occorre ricordare che “…Il sistema di IA prende decisioni spesso sconosciute anche al medico che poi dovrà vagliare e validare quelle risoluzioni, proprio perché la scelta viene fatta su algoritmi non deterministici, ma di fatto probabilistici.

Peraltro anche nei seguenti molteplici ambiti applicativi l’IA ha permesso di acquisire notevoli progressi: comunicazione, editoria produzione industriale e commercio, economia business e finanza, viaggi e logistica, sviluppo di nuove armi, trasporti, organizzazione del lavoro,

didattica ed educazione, intrattenimento, sicurezza, videosorveglianza, moda e marketing, processamento e analisi di dati, analisi di video e immagini, problem solving, arte, diritto, politica e relazioni sociali, comprensione del linguaggio, interazione con esseri umani, guida degli autoveicoli, domotica, ecc. E tale elenco è incompleto!

 

Come è stato possibile all’intelligenza umana rendere l’IA così potente?

Migliorando nel tempo i sistemi di apprendimento delle macchine essenzialmente con la “Machine Learning” e con il “Deep Learning”.

La Machine Learning è una branca o sottoinsieme dell’AI che si occupa di creare sistemi che apprendono o migliorano le loro performances in base ai dati che utilizzano.

 Così essi forniscono risposte ai problemi presentati in modo adattativo, iterativo e indipendente «apprendendo» dai dati introdotti a identificare relazioni precise nei dati osservati, a fini di classificazioni e predizione, senza regole e modelli espliciti pre-programmati .

La Deep Learning («apprendimento profondo» e automatico) indica un’altra branca dell’IA che fa riferimento alle reti neurali ovvero ad algoritmi ispirati a struttura e funzione del cervello umano, chiamati “reti neurali artificiali con numeri molto grandi di livelli o strati

 

Il termine algoritmo dall’appellativo al Khuw?rizm? («originario della Corasmia») del matematico persiano Abu Ja’far Muhammad ibn Musa al Khuw?rizm? del IX sec., designa qualunque schema o procedimento sistematico di calcolo (per es. quello euclideo, quello delle divisioni successive, quello algebrico, quello costituito dall’ insieme delle regole del calcolo algebrico ecc.).

In particolare grazie allo sviluppo di macchine con Deep Learning molto potenti sono state costruite macchine con una capacità di calcolo digitale inimmaginabile fino a pochi anni fa.

“Fugaku”, il supercomputer attualmente più veloce del pianeta, ha una capacità di calcolo di 415,53 peta flop/secondo.

Un peta-flop equivale a un milione di miliardi di operazioni/calcoli al secondo.

“Fugaku “oggi può eseguire una normale operazione matematica 415 quadrilioni di volte al secondo, come se ogni singola persona sulla Terra , compresi i neonati, completasse un calcolo ogni secondo per 20 mesi di seguito senza alcuna interruzione .…

il cervello viceversa può eseguire al massimo circa 1000 operazioni di base al secondo, risultando 10 milioni di volte più lento di un computer di media potenza.

Questa potenza di calcolo viene utilizzata per la ricerca scientifica, con progetti su farmaci, nuovi materiali, tecniche per la diagnosi precoce delle malattie e predizione e simulazione dei disastri naturali, nonché su questioni come il Big Bang e la nascita dell’Universo.

 

Uno degli ultimi modelli di un personal computer messo in commercio nel settembre del 2023 da una delle marche leader è stato accreditato della capacità di eseguire 18 miliardi di operazioni/calcoli al secondo.

Pertanto dobbiamo considerare l’evoluzione dell’ IA come esponenziale verso frontiere che per definizione sono già al di là della nostra intelligenza, quindi con rischi seri che non si possono sottovalutare. Nella prima metà del 2023 l’introduzione della ChatGPT4 ( Generative Pre trained Transformer ) di OpenAI, ovvero di un prototipo di chatbot basato su IA e machine learning specializzato in conversazioni con un utente umano e creazione di testi su modello umano , ha provocato una forte reazione in tutto il mondo, dimostrando un ulteriore enorme progresso delle capacità operative dell’ IA.

 Dopo qualche mese a ChatGPT se ne sono aggiunte altre chatbot di ditte concorrenti che promettono di essere ancora più sofisticate.

 

Un problema non trascurabile, ma che merita tanta attenzione, è che la maggior parte dello sviluppo della IA è stato prodotto da industrie e centri di ricerca privati (difficilmente controllabili), mentre solo una parte irrilevante è frutto di Centri Universitari di ricerca (sensibili a obblighi di tipo etico).

Un gruppo di scienziati, ingegneri, ricercatori e grandi imprenditori del settore tecnologico americani sostenuti dal Future of Life Institute (USA) nel marzo 2023 ha lanciato in una lettera aperta la proposta di “sospendere per 6 mesi gli esperimenti avanzati di AI, rilanciando gli interrogativi etici posti da tempo. Infatti…Infatti…

“I sistemi di IA dotati di un’intelligenza competitiva con quella umana possono comportare rischi profondi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciute dai migliori laboratori….

Come affermato nei Principi di Asilomar per l’IA [ 2017], ampiamente approvati, l’IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate.

Tale lettera è stata sottoscritta in pochi giorni da decine di migliaia operatori del settore tecnologico negli USA.

I firmatari nella lettera hanno espresso un’antica preoccupazione a proposito del progresso dell’IA, diventato vertiginoso con ChatG PT 4, e hanno chiesto di premere il pulsante “pausa” nella corsa sfrenata verso la creazione di “potenti menti digitali che nessuno, nemmeno i loro creatori, può comprendere, prevedere o controllare.

Inoltre I ricercatori e gli imprenditori hanno sottolineato che l’essere umano non è in grado di gestire le conseguenze etiche, sociali, economiche, politiche e strategiche di questa tecnologia che avanza a passi lunghi e rapidi.

Dunque una “richiesta di moratoria di 6 mesi su tutte le nuove ricerche sull’ AI, anche al di là di quanto realizzato dal programma generatore di testi di cui ha parlato tutto il mondo: “ChatG PT 4”.

 

In realtà già da alcuni decenni sono state sollevate obiezioni e perplessità di tipo etico in merito ai possibili rischi correlati alla difficoltà della mente umana di controllare tempestivamente i risultati delle operazioni compiuti dalle macchine digitalizzate.

In particolare in ambito sanitario sono state espresse “obiezioni e perplessità inerenti alla scelta metodologica di accettare una dimostrazione o una diagnosi realizzata dal computer, sia pure istruito dagli esseri umani.

Ricercatori e scienziati in larga maggioranza hanno verificato la difficoltà di controllare miliardi di operazioni computazionali eseguite in una giornata lavorativa dalle macchine e dunque il controllo delle strutture di IA è quanto mai complesso e dispendioso e talora impossibile da raggiungere.

Questa linea di condotta, per alcuni aspetti, rende noi umani sempre più vulnerabili.

Non è infatti così remota la possibilità che queste super-intelligenze ultraveloci procedano per sentieri a noi ignoti a programmare un mondo perfetto eliminando innanzitutto il principale ostacolo alla perfezione, ovvero l’uomo.” Paolo Benanti, noto studioso italiano di IA, in due sui recenti libri si è posto le seguenti importanti domande:

“In un contesto di scarse risorse, perché investire soldi nella ricerca di un enhancement per pochi, invece di cercare cure per le malattie per molti? Perché si sviluppano determinate tecnologie?

Perché si vendono? Perché sono necessarie alle nostre forze militari? Perché garantiscono a una nazione la supremazia sulle altre?

E ancora in un’epoca in cui la macchina è stata resa capace di surrogare le decisioni umane, come affrontare la sfida di mantenere l’umanità in grado di controllare l’AI?

Cosa decidiamo che la macchina può fare senza il controllo dell’uomo? Che decisioni può prendere?

Come gestire gli eventuali esiti nefasti di questa delega?

Come far sì che la persona rimanga sempre al centro di quei processi vitali per la sopravvivenza della nostra specie e per una pacifica convivenza sociale?

Sono altrettanto pressanti le domande e le osservazioni dello storico e filosofo “Yuval Noah Harari” che nel suo articolo su” The Economist del 23 aprile 202”3 sostiene che l’IA ha violato il sistema operativo della civiltà umana “…

La nuova generazione di IA non si limita a diffondere i contenuti prodotti dagli esseri umani.

Può produrre il contenuto da solo.

Provate a immaginare cosa significhi vivere in un mondo in cui la maggior parte dei testi e delle melodie e poi delle serie TV e delle immagini sono create da un’intelligenza non umana.

Semplicemente non capiamo cosa significhi.

Quali potrebbero essere le conseguenze della conquista della cultura da parte dell’IA?…

 

Un altro pericolo è che molte persone potrebbero trovarsi completamente senza lavoro, non solo temporaneamente, ma prive delle competenze di base per il futuro mercato del lavoro.

Potremmo raggiungere un punto in cui il sistema economico considera milioni di persone completamente inutili.

Questo ha terribili conseguenze psicologiche e politiche.

Dobbiamo capire che l’intelligenza artificiale è la prima tecnologia nella storia in grado di prendere decisioni da sola.”

Del resto già nel 2008 “Ray Kurzweil” scienziato, saggista e direttore di ricerca Google aveva predetto che nei prossimi trent’anni il progresso tecnologico sara’ talmente rapido da essere comprensibile solo a cervelli artificiali.

Pertanto a livello internazionale si è imposta l’esigenza di una disamina puntuale dei vari aspetti etici e giuridici in un dibattito interdisciplinare volto a condividere prospettive, consapevolezze, limiti e soluzioni da cui possa derivare un codice regolatorio condiviso.

Ovvero trovare un sistema di governance internazionale.

L’Unione Europea per prima ha convocato una riunione dedicata a formulare un tale codice di comportamento che sarà formalizzato nell’AI EU ACT.

 Anche l’ONU ha riunito esperti internazionali per formulare principi per una governance che eviti concretamente che l’IA possa diventare una seria minaccia per l’umanità.

“Luciano Floridi”, professore di filosofia ed etica dell’informazione all’Università di Oxford, nella” sua recente opera” ha segnalato esempi di crimini attuabili tramite l’ausilio dell’IA (CIA) in svariati campi.

Floridi, per evitare il più possibile l’uso criminale dell’IA indica cinque principi etici, quali condizioni disciplinanti ogni intervento che preveda l’impiego dell’intelligenza artificiale e afferma che “ogni azienda, apparato governativo o istituzione accademica che disegna, sviluppa o implementa l’IA, ha l’obbligo di farlo in linea con un quadro etico”.

È auspicabile pertanto che le varie organizzazioni internazionali si coalizzano per rendere possibile un utilizzo dell’IA etico e rispettoso della specificità dell’uomo.

 

Come ha scritto” Gerd Gerenze” occorre restare intelligenti in un mondo “intelligente”.

“Restare intelligenti significa comprendere le potenzialità e i rischi delle tecnologie digitali ed essere determinati a mantenere il controllo in un mondo popolato da algoritmi.”

 

 

 

Scontro Usa-Ue: perché

Trump attacca l’Europa.

Italia-informa.eu - Marta Giannoni – (08/12/2025) – Redazione – ci dice:

 

Scontro Usa-Ue: perché Trump attacca l’Europa

Dal documento di sicurezza Usa al caso Musk:

perché il fronte atlantico trema.

La nuova “National Security Strategy” firmata da Donald Trump segna uno dei momenti più tesi nei rapporti tra Stati Uniti ed Europa dalla fine della guerra fredda.

Nel documento di 33 pagine, presentato a inizio dicembre 2025, il presidente americano descrive un’Europa in declino, minacciata – se non cambierà rotta – da una quasi “cancellazione” della propria civiltà.

Secondo un’analisi di “Reuters “del 5 dicembre 2025, la strategia rilancia il motto “America First” e ripropone in chiave aggiornata la dottrina Monroe, spostando il baricentro degli interessi Usa sull’emisfero occidentale e sulla sfida con la Cina.

 

Il risultato è un attacco diretto al Vecchio Continente:

 dall’immigrazione alla regolazione dei social, fino alle aspettative sulla guerra in Ucraina.

Bruxelles replica, Roma prova a mediare, Mosca applaude:

e sullo sfondo esplode anche il caso Elon Musk vs Commissione Ue.

Uno scontro che non è solo verbale, ma che mette in discussione la struttura stessa del rapporto transatlantico.

 

Le bordate di Trump: un’Europa “vecchia, lenta e irrilevante.”

La strategia di sicurezza nazionale individua nell’Europa un alleato problematico.

Il documento parla, in sostanza, di una classe politica europea arroccata su governi fragili, pronta a limitare la libertà di espressione e a reprimere il dissenso in nome della stabilità.

Sempre secondo Reuters (5 dicembre 2025), la Casa Bianca contesta a Bruxelles:

Politiche migratorie giudicate destabilizzanti, destinate a “trasformare il continente”;

censura della libertà di parola attraverso regole troppo invasive su media e piattaforme digitali;

aspettative irrealistiche sulla guerra in Ucraina, con governi europei ritenuti poco realistici sui costi e sulla durata del conflitto;

una Ue che mina la sovranità politica degli Stati membri attraverso eccesso di regolazione e burocrazia.

Lo scarto rispetto al passato è evidente:

l’Europa non è più descritta come pilastro imprescindibile dell’Occidente, ma come un alleato problematico, poco utile rispetto alle nuove priorità Usa – Cina, immigrazione, controllo dell’emisfero occidentale.

 

La risposta europea: “Partenariato unico, ma decidiamo noi per l’Europa.”

Da Bruxelles, la replica arriva a stretto giro.

Un portavoce della Commissione Ue ribadisce che le decisioni che riguardano l’Europa “vengono prese dall’Unione europea, per l’Unione europea”, in particolare su autonomia normativa, tutela della libertà di espressione e difesa dell’ordine internazionale basato sulle regole.

Lo riportano, tra gli altri, i lanci dell’Ansa del 6 dicembre 2025 e i siti dei principali quotidiani italiani.

 

Il messaggio è duplice:

sì alla consapevolezza del valore del partenariato transatlantico, ma no all’idea di un’Europa che subisce passivamente l’agenda di Washington. Per la Commissione, gli alleati “sono più forti insieme”, ma non a costo di rinunciare alla propria sovranità regolatoria.

 

Sul piano politico, il tentativo di abbassare la tensione arriva da Donald Tusk, premier polacco, che su “X” ricorda come l’Europa sia stata “per 80 anni l’alleato più vicino degli Stati Uniti” e invita a restare fedeli a questa linea.

Un appello alla memoria storica, in un momento in cui la narrativa di Washington sembra voler archiviare rapidamente il ruolo dell’Europa come “spalla” indispensabile.

 

Più sfumata la posizione di “Kaja Kallas”, Alto rappresentante per la politica estera dell’Ue:

 intervenendo al “Doha Forum”, riconosce che nel testo americano “ci sono molte critiche, alcune anche fondate”, ma sottolinea che gli Usa restano “il nostro alleato più grande” e che il principio generale è ancora valido:

Europa e Stati Uniti devono restare uniti.

La linea, riportata da media europei tra il 6 e il 7 dicembre 2025, è chiara: difendere il legame atlantico, ma aprire una discussione realistica sulle responsabilità europee in materia di sicurezza.

 

Meloni e Crosetto: l’Europa va difesa da sola.

In Italia, la premier Giorgia Meloni minimizza l’idea di una “spaccatura” tra Usa e Ue, parlando piuttosto di toni assertivi su nodi già noti da tempo, in particolare sull’immigrazione.

Secondo quanto riferito dalle tv italiane il 6 dicembre 2025, Meloni sostiene che il documento Usa sancisce un “percorso storico inevitabile”: gli europei devono assumersi maggiori responsabilità nella propria difesa.

 

Ancora più esplicito il ministro della Difesa Guido Crosetto. In più interviste e dichiarazioni, riprese da testate come Affari italiani e Sky TG24 (6 dicembre 2025), sostiene che gli Usa hanno semplicemente “esplicitato” ciò che ripete da anni:

la garanzia di difesa “regalata” dagli Stati Uniti dal 1945 non è eterna e sta finendo prima del previsto.

Crosetto riassume così lo sguardo di Washington sull’Europa:

non ha risorse naturali davvero decisive;

sta perdendo la competizione su innovazione e tecnologia;

non dispone di un potere militare credibile;

appare, rispetto ai nuovi attori globali, “piccola, lenta e vecchia”.

La “pessima notizia”, per il ministro, è che l’Europa deve cominciare a farsi carico da sola di sicurezza, difesa e deterrenza;

 non solo sul piano militare, ma anche economico, tecnologico, energetico.

Da qui l’insistenza sugli investimenti:

il salto nelle tecnologie critiche e nella difesa comune richiede volumi di capitale tali che, persino per 27 Paesi messi insieme, risultano pesanti – ma inevitabili “per sopravvivere”.

 

La variabile Russia e il dossier Ucraina.

Sul fronte opposto del tavolo, il Cremlino accoglie con favore la nuova dottrina di Trump.

Come riportato da diversi media internazionali, tra cui “The Guardian” il 7 dicembre 2025, il portavoce “Dmitrij Peskov” definisce gli “aggiustamenti” contenuti nella strategia “in gran parte coerenti” con la visione russa e intravede la possibilità di un “lavoro costruttivo” con Washington sulla questione ucraina.

 

La lettura che se ne ricava è chiara:

la ridefinizione del ruolo europeo passa anche attraverso un possibile riassetto dei rapporti tra Stati Uniti e Russia.

Se l’Europa diventa un attore marginale, la discussione sul futuro dell’Ucraina rischia di spostarsi sempre di più su un asse Washington-Mosca, con Bruxelles relegata a spettatore interessato ma meno influente.

 

Per i Paesi dell’Est e per gli Stati più esposti, questo scenario è motivo di forte preoccupazione.

Non a caso il dossier difesa è al centro dell’iniziativa “Re Arm Europe”, il programma approvato dall’Ue nel 2025 per rafforzare le capacità militari europee e ridurre la dipendenza dagli arsenali americani.

Una scelta che, letta alla luce delle parole di Trump, appare meno come un vezzo politico e più come una necessità di sopravvivenza strategica.

 

Musk, X e la libertà di parola: il fronte digitale del conflitto Usa-Ue.

Sul clima già teso tra Washington e Bruxelles si innesta un altro fronte sensibile: quello della regolazione delle piattaforme digitali.

 Nei primi giorni di dicembre 2025, la Commissione europea infligge una multa da 120 milioni di euro a “X”, il social di Elon Musk, per violazioni del “Digital Services Act” (DSA).

 Secondo i documenti europei diffusi in quei giorni, le infrazioni riguardano il design della “spunta blu”, la trasparenza limitata sul sistema pubblicitario e la mancata concessione di accesso ai dati pubblici ai ricercatori.

La sanzione viene presentata da Bruxelles come la prima decisione formale di non conformità ai sensi del DSA, la legge pensata per mettere fine al “Far West online”.

 L’obiettivo dichiarato non è la repressione dell’innovazione, ma la tutela dei cittadini da contenuti illegali, disinformazione e meccanismi opachi di profilazione.

 

Musk reagisce con una controffensiva politica.

Su “X” afferma che l’Unione europea “dovrebbe essere abolita” e che la sovranità andrebbe riportata ai singoli Stati, così che i governi possano rappresentare direttamente i propri cittadini.

Parole che fanno breccia in una parte del fronte sovranista europeo.

 

Il premier ungherese “Viktor Orbán”, sempre via “X”, definisce la multa a” X” un attacco alla libertà di parola:

 quando i “padroni di Bruxelles” non vincono il dibattito, “chiedono multe”.

Secondo Orbán, l’Europa ha bisogno di più libertà di espressione, non di burocrati non eletti che decidono cosa si può leggere o dire.

Sulla stessa linea il leader dell’ultradestra olandese “Geert Wilders”, che accusa la Commissione di essere un’istituzione “totalitaria” e sostiene che non andrebbe accettata la multa contro X, ma piuttosto “abolita la Commissione europea”.

La polemica salda il fronte sovranista europeo a un simbolo globale come Musk, e rafforza la narrativa di un’Europa vista come censore digitale proprio mentre Trump attacca Bruxelles per la sua presunta “censura della libertà di parola”.

 

Orbán, guerra e Trump “pacifista”: il tassello geopolitico.

Orbán non si limita a difendere Musk.

In un altro post, sempre su X, traccia quella che definisce la “strada verso la guerra” in quattro fasi – dal fallimento della diplomazia alla mobilitazione per un’economia di guerra – accusando i leader europei di aver portato il continente vicino al confronto diretto.

 

Budapest rivendica di voler restare “alla larga” da questa logica e annuncia che continuerà a battersi per la pace.

Il passaggio politicamente più rilevante arriva quando Orbán afferma che “l’America ha finalmente un presidente che odia davvero la guerra” e dichiara: “Stiamo al fianco di Donald Trump, un leader pronto a porre fine a questa follia e a portare la pace”.

 

Qui lo scontro Usa-Ue assume un ulteriore livello:

un capo di governo europeo indica apertamente il presidente americano come punto di riferimento politico, contro la linea prevalente nelle istituzioni Ue.

Il fronte sovranista interno all’Unione, quello trumpiano negli Usa e la galassia dei sostenitori di Musk vanno a comporre una costellazione politico-mediatica globale che contesta allo stesso tempo Bruxelles e le tradizionali élite atlantiche.

 

Scenari futuri: Europa tra rischio irrilevanza e occasione di rinascita.

La domanda di fondo è: cosa succede adesso? Al netto dei toni, la strategia di Trump e le reazioni europee mettono in fila alcuni scenari possibili:

 

Più difesa europea, meno ombrello Usa.

Tra NATO ed iniziative come Re Arm Europe, l’Europa è spinta a passare dalla retorica sui “valori comuni” alla costruzione di capacità militari reali.

Non per sostituire gli Stati Uniti dall’oggi al domani, ma per non dipendere più totalmente dalle decisioni di Washington.

Nuove alleanze e dossier energetici.

Come ricorda “Crosetto”, negli ultimi anni l’Italia e altri Paesi europei hanno intensificato rapporti bilaterali con Africa, Golfo, Asia, Sud America, Australia per rafforzare sicurezza energetica, approvvigionamenti strategici e catene del valore.

 Se gli Usa arretrano, questi legami diventano ancora più cruciali.

Guerra di narrativa su libertà di parola e regolazione.

La battaglia sul DSA, su X e sulle altre piattaforme non è un capitolo isolato, ma il sintomo di uno scontro più ampio:

Europa come regolatore severo contro modello americano più “laissez-faire” (almeno nella versione trumpiana).

A seconda di come evolveranno queste tensioni, l’Ue potrà essere percepita come baluardo contro gli abusi digitali o come censore iper-regolatore.

Ritorno di Russia e Cina nel “gioco europeo.”

Se Washington definisce l’Europa un alleato meno decisivo, Russia e Cina hanno più margini per rafforzare influenza politica, economica e tecnologica nel continente.

 Per l’Ue questo significa dover difendere non solo i confini, ma anche lo spazio informativo e industriale.

Una crisi di rottura, ma anche un banco di prova.

Lo scontro innescato dalla nuova strategia di sicurezza nazionale Usa non è un semplice incidente diplomatico.

 È la fotografia di un mondo post-2014 (dall’annessione della Crimea alla guerra in Ucraina) in cui gli equilibri costruiti nel secondo dopoguerra non reggono più come prima.

 

Per l’Europa, questa è insieme una crisi e un’occasione.

Crisi, perché essere descritta da Washington come alleato debole e poco utile significa veder contestato il proprio ruolo di attore globale. Occasione, perché costringe Bruxelles e le capitali a porsi domande rimandate per decenni:

 quanta difesa comune vogliamo?

quanta autonomia strategica siamo disposti a costruire?

 quali rischi siamo pronti a correre per non essere solo il teatro, ma uno dei protagonisti del gioco globale?

 

La risposta non arriverà in un solo vertice né in un solo documento.

 Ma una cosa è chiara:

dopo la National Security Strategy 2025 di Trump, il rapporto Usa-Ue non potrà più essere raccontato come un automatismo.

Sarà, d’ora in avanti, una scelta politica quotidiana – e l’Europa dovrà decidere se vuole ancora contare o se accettare il ruolo di spettatrice di lusso nella storia altrui.

 

 

 

 

 

 

 

Il piano di Trump per sfaldare

l’Europa passa anche da Roma:

 L’Italia è tra i governi più vicini

a Washington, va allontanata dall’Ue.”

Ilfattoquotidiano.it - Redazione Esteri -  (10 Dicembre 2025) - ci dice:

 

Lo rivela la testata specializzata in difesa 'Defense One' che cita una versione classificata della “National Security Strategy” diffusa nei giorni scorsi.

Ma la Casa Bianca smentisce l'esistenza di un documento 'integrale.'

Il piano di Trump per sfaldare l’Europa passa anche da Roma: “L’Italia è tra i governi più vicini a Washington, va allontanata dall’Ue”.

Governo Meloni-Unione Europea.

Sfaldare l’Europa con l’obiettivo di “renderla di nuovo grande”. E per farlo serve l’aiuto di quei Paesi che possono fungere da leva per diffondere nazionalismo, conservatorismo e “recupero dei tradizionali stili di vita europei”.

Quali? Austria, Ungheria, Polonia e soprattutto l’Italia.

 La nuova “National Security Strategy americana” non aveva risparmiato feroci critiche al Vecchio Continente, prevedendone la cancellazione nel caso in cui non avesse invertito l’attuale rotta in materia di immigrazione e salvaguardia dei valori.

Ma ciò che non veniva detto è che una bozza di piano per questo stravolgimento è stata già messa nero su bianco nella versione classificata del documento diffusa da “Defense One”, testata americana specializzata in sicurezza e difesa.

 

Make Europe Great Again” è il motto Maga che la Casa Bianca ha scelto anche per le sue politiche nei confronti dell’Unione europea che devono seguire quelle già adottate sull’altra sponda dell’Atlantico.

Partendo dal presupposto che l’Europa sta affrontando la “cancellazione della propria civiltà” a causa delle sue politiche sull’immigrazione e della “censura della libertà di parola“, la versione estesa della “National Security Strategy” prevede che Washington concentri i propri sforzi su Paesi europei vicini alle posizioni dell’attuale amministrazione per realizzare i piani della Casa Bianca nel Vecchio Continente.

E tra i governi più vicini alle posizioni del tycoon, come quelli di Polonia, Ungheria e Austria, spunta anche l’Italia di Giorgia Meloni.

 Con un peso specifico ben maggiore degli altri, trattandosi di uno Stato fondatore dell’Ue e membro del G7.

 Si tratta, si legge, di Paesi coi quali gli Usa dovrebbero “collaborare di più con l’obiettivo di allontanarli dall’Unione europea.

 E dovremmo sostenere i partiti, i movimenti e le figure intellettuali e culturali che cercano la sovranità e la preservazione/restauro dei tradizionali stili di vita europei, pur rimanendo filoamericani”.

Il governo italiano rispecchia a pieno i requisiti richiesti e viene quindi percepito come un “Cavallo di Troia” che permetterebbe agli Stati Uniti di esercitare la propria ingerenza sull’Europa.

 Un obiettivo che è parte di un piano più ampio di riorganizzazione di un nuovo ordine mondiale che prenda atto dell’ascesa di potenze come Cina e India e ricalibri le capacità d’influenza a livello internazionale secondo un modello che il documento ha ribattezzato con la sigla C5 e di cui farebbero parte Cina, India, Russia, Stati Uniti e Giappone.

 Punti all’ordine del giorno di questo nuovo gruppo sarebbero la sicurezza in Medio Oriente, in particolare la normalizzazione delle relazioni tra Israele e Arabia Saudita.

 

Un sistema, questo, che rappresenterebbe il compromesso al quale Trump sarebbe disposto a scendere dopo aver maturato la consapevolezza della fine dell’egemonia americana. “L’egemonia è la cosa sbagliata da desiderare e non era realizzabile”, si legge nel documento.

Una presa di coscienza che premia la strategia russo-cinese che aveva come obiettivo, allo scoppio della guerra in Ucraina, proprio la messa in discussione del sistema unipolare in favore di uno multipolare, che portasse ai vertici Paesi fino a poco tempo fa considerati in via di sviluppo ma che oggi rappresentano potenze economiche e militari di livello globale.

 “Dopo la fine della Guerra Fredda, le élite della politica estera americana si convinsero che il dominio permanente degli Stati Uniti sul mondo intero fosse nel migliore interesse del nostro Paese – continua il documento –

Eppure gli affari degli altri Paesi ci riguardano solo se le loro attività minacciano direttamente i nostri interessi”.

Il testo passa poi a una critica delle politiche internazionali americane degli ultimi decenni, compresa, seppur in maniera non esplicita, quella “esportazione della democrazia” tanto cara ai neocon, ma non solo:

“L’amministrazione Trump ha ereditato un mondo in cui le armi da guerra hanno distrutto la pace e la stabilità di molti Paesi in molti continenti. Abbiamo un interesse naturale nel migliorare questa crisi”.

Non spetta agli Stati Uniti fare tutto da soli, aggiungono, ma non dovrebbe essere consentito a Cina e Russia di sostituire la leadership statunitense.

Per questo suggerisce di collaborare con “campioni regionali” per contribuire a mantenere la stabilità:

“Premeremo e incoraggeremo i governi, i partiti politici e i movimenti della regione che condividono ampiamente i nostri principi e la nostra strategia.

Ma non dobbiamo trascurare i governi con prospettive diverse, con cui condividiamo comunque interessi e che desiderano collaborare con noi”.

 

Dopo la pubblicazione di questa storia, la Casa Bianca ha negato l’esistenza di qualsiasi versione della Strategia per la sicurezza nazionale diversa da quella pubblicata online.

Commenti

Post popolari in questo blog

L’umanità sta creando il nostro tempo.

La cultura della disumanizzazione del nemico ideologico.

La Flotilla e il senso di Netanyahu per la Pace.