Gli algoritmi sono politici e poi tecnologici.

 

Gli algoritmi sono politici e poi tecnologici.

 

 

 

Siamo soldati (in)volontari

nell’esercito delle BIG TECH.

Ilgiornale.it – (30-3-2025) – Eleonora Barbieri – ci dice:

 

 

"Siamo soldati (in)volontari nell'esercito delle Big Tech".

Parla l'esperta del rapporto fra tecnologia e società, Asma Mhalla

"Gli algoritmi sono ideologici e ci possono manipolare."

I colossi tecnologici non ci offrono solo mezzi sempre più potenti e pervasivi (e sono molto potenti e molto pervasivi).

Stanno cambiando il nostro mondo dalle fondamenta:

 vecchi dogmi si sgretolano, istituzioni consolidate mostrano crepe, i contorni di antichi concetti come guerra, società, democrazia, Stato, politica, intelligenza, individuo, economia, verità e identità assumono nuove forme.

Di questo si occupa “Asma Mhalla”, politologa franco-tunisina che insegna alla Columbia, a Sciences Po e all'École polytechnique, nel suo saggio “Tecnopolitica”. Come la tecnologia ci rende soldati (Add editore).

 

“Asma Mhalla”, che cos'è la tecnopolitica del titolo?

 

«È un concetto elaborato dagli studiosi occidentali al tempo delle “Primavere arabe”, quando i social media apparivano strumenti straordinari di emancipazione per la società.

 Ma è un concetto debole, che ho ridefinito, per dire che la tecnologia non riguarda la tecnica o gli strumenti, bensì la politica: la tecnologia è politica, prima di tutto».

 

Parla di un progetto di «Tecnologia totale». Che cosa significa?

 

«Oggi esistono nuove forme di potere, collegate a quelle che chiamo Big Tech, o giganti tecnologici, alle piattaforme digitali e agli Stati e questo insieme ridefinisce i concetti stessi di sovranità, democrazia, stato di diritto...

Lo sperimentiamo coi nostri strumenti di uso quotidiano:

i social media, i dispositivi di IA, le piattaforme di e-commerce sono ormai piattaforme di pubblica utilità e non più solo strumenti; il problema è che queste piattaforme sono private e appartengono ai giganti tecnologici, i quali perciò influenzano il modo in cui viviamo».

 

Come?

 

«Il progetto di Tecnologia totale è l'idea che, attraverso queste tecnologie private, le Big tech stiano realizzando un'agenda politica e ideologica di controllo:

 controllo della politica stessa, del nostro futuro e del modo in cui funziona la democrazia. E questo controllo è nelle mani di poche persone».

 

La Tecnologia totale può diventare totalitarismo?

 

«Può diventarlo.

 Dipende da chi la controlla, ed è proprio questo il grosso problema:

 tutti dipendiamo dall'agenda politica e ideologica dei proprietari di questi strumenti.

Le loro aziende controllano i nostri dati e, perciò, le nostre vite.

Lo vediamo anche con la situazione della democrazia negli Stati Uniti, con Musk e Trump».

 

Però Musk e Trump ci mettono anche di fronte alle debolezze del nostro sistema?

 

«Assolutamente sì. Nel mondo occidentale siamo soliti giudicare i regimi autoritari come fossero modelli lontanissimi dalle nostre democrazie liberali.

 Ma ora, all'improvviso, ci siamo accorti che anche le nostre democrazie rischiano di essere trascinate nell'autoritarismo.

Per l'Europa poi c'è un problema ulteriore, dovuto al fatto che siamo dipendenti dai sistemi tecnologici dei giganti americani: per questo siamo completamente fragili e aperti alle loro interferenze».

 

 

Nella sua visione, come funziona il sistema delle Big Tech?

 

«Non si capisce la loro essenza se non comprendiamo che non sono solo aziende capitalistiche, bensì entità ideologiche e anche attori militari.

 Si pensi in Ucraina a Starlink e Palantir...

 Le Big Tech sono entità politiche ibride.

 E funzionano come un trittico, in cui la dimensione tecnologica è guidata da un modello economico e dalla politica, in modo interdipendente.

Lo vediamo con Musk, il quale non si limita a cercare nuove tecnologie bensì persegue una sua agenda ideologica, per realizzare la quale ha elaborato una certa struttura tecnologica - per esempio X/Twitter - in modo che essa porti a compimento la sua visione del mondo e, allo stesso tempo, gli permetta di fare soldi.

 È una interazione completa».

 

Gli algoritmi sono ideologici?

 

«Lo sono. Gli algoritmi sono per forza di cose impregnati di pregiudizi, perché sono disegnati da esseri umani, i quali hanno sempre punti di vista, opinioni, propensioni, idee...

Perciò gli algoritmi non possono essere neutrali, anzi:

l'idea che la tecnologia sia neutrale è falsa e pericolosa.

 Detto ciò, all'interno di una certa agenda politica possiamo progettare gli algoritmi in modo che alcune idee emergano e siano più visibili, e altre vengano oscurate.

Perciò gli algoritmi sono prima di tutto politici, e poi tecnologici».

 

Così possono manipolare l'opinione pubblica?

 

«La manipolano e la influenzano, ma non credo che esista una opinione pubblica, perché ormai ne esistono molte: la società è estremamente polarizzata.

E ovviamente i social media influenzano il modo in cui l'informazione viene prodotta e, attraverso l'informazione, l'agenda politica;

in questo processo, gli algoritmi si comportano come editori, scegliendo quali informazioni dare e quali tenere più nascoste... Il risultato è che non abbiamo pieno accesso alla realtà».

Lo abbiamo mai avuto?

«La differenza enorme, rispetto ai media tradizionali, è nella dimensione del fenomeno; nell'approccio, che non è più dall'alto al basso bensì ibrido, poiché tutti possono produrre contenuti; infine, nel fatto che i proprietari delle Big Tech possano anche influenzare il modo in cui l'algoritmo pubblica il contenuto».

 

Perciò rischiamo di diventare «soldati»?

 

«Sì. La iper tecnologia, che disegna la cornice delle nostre vite, è duplice: civile e militare.

 Lo vediamo con” ChatGpt”, che può essere utilizzata per svago o per lavoro, ma anche sul campo di battaglia.

O con i social, che sono una forma di intrattenimento ma diventano un'arma nella cosiddetta “infowar”, che serve per interferire all'interno dei Paesi o in momenti di conflitto, come strumento di propaganda: perciò la chiamiamo guerra ibrida».

 

È il caso di TikTok, il social cinese così diffuso fra i giovani occidentali?

«Certamente, anche TikTok è diventato un'arma elettorale.

Durante la presidenza Biden, il direttore dell'Fbi ha detto che probabilmente TikTok è uno strumento di cyberspionaggio, ma di non averne le prove.

Eppure, proprio nel gennaio scorso, Trump ha detto di essere contento di TikTok, perché gli consente di raggiungere la platea dei giovani americani: quindi TikTok, in quanto cinese, è allo stesso tempo l'incubo dell'Occidente, ma anche uno strumento potentissimo di reclutamento.

E questa piccola storia è emblematica del dilemma dei social media: si trovano sempre in una zona grigia».

Però questa duplicità dei media e la propaganda non sono sempre esistite?

«Certo, ma la specificità di questo doppio uso dell'iper tecnologia è che tutti la utilizziamo, perché si trova nelle nostre tasche:

 il punto di contatto è il nostro smartphone, attraverso il quale possiamo diventare dei soldati inconsapevoli, esposti alla guerra ibrida, alla propaganda e alla manipolazione delle informazioni.

 Forse anche le nostre attività cerebrali finiranno per essere monitorate.

I vecchi concetti e le vecchie frontiere diventano liquidi:

sono avvolti in una nebbia nella quale ciascuno di noi diventa un bersaglio. Dobbiamo esserne consapevoli».

È quella l'inquietante «guerra cognitiva», in cui il nostro cervello è il terreno di battaglia finale?

 

«L' “infowar” è condotta per manipolare le informazioni e il loro contenuto, ma anche per manipolare il modo stesso in cui interpretiamo e consumiamo questi contenuti.

 È una tecnica sottile.

 L'abitudine di scrollare per ore sullo smartphone è parte della manipolazione cognitiva, perché spinge in uno stato ipnotico, in cui si diventa vulnerabili e si può accettare qualunque messaggio».

 

L'obiettivo finale qual è?

«Non il singolo, non il fatto che una persona sia d'accordo con il messaggio stesso, bensì il caos globale: che si dubiti di tutto.

Come diceva “Hannah Arendt”, se tutti dubitano di tutto, puoi far fare loro ciò che vuoi.

 È una forma sofisticata di manipolazione».

 

Come possiamo sopravvivere in questa guerra?

 

«Primo punto: la consapevolezza.

Secondo: educhiamo i nostri algoritmi, con le nostre ricerche.

 Terzo: un'igiene cognitiva, come la doccia e lo shampoo al mattino, una guida al consumo su internet».

 

La democrazia sopravviverà?

 

«Dipende da noi, collettivamente.

Da quale società vogliamo costruire.

 I partiti progressisti sono debolissimi perché non hanno una visione del mondo; quelli di estrema destra invece sono audaci nella loro visione, e i loro discorsi del resto sono molto popolari, perché in effetti siamo in crisi.

Perciò dobbiamo costruire una narrazione alternativa:

se i politici non si impegnano in questo senso, probabilmente perderemo».

 

Lo pensa davvero?

 

«È logico. I governi devono davvero impegnarsi, non pensare alla piccola politica, alle elezioni imminenti, alla carriera...

Dobbiamo pensare in grande e essere ambiziosi e costruire una narrazione e una strategia coraggiose, anche in economia.

Dov'è forte l'Europa, a livello di industrie? Nessuno lo sa.

 Va costruito tutto questo.

Se invece l'Europa continua a offrire solo parole vuote, perderemo».

 

 

Razzismo anti-musulmano.

 

Levandohistoria.se – Holga Ellengard – Direttore Generale – ci dice:

Il razzismo anti-musulmano è una forma di razzismo che colpisce le persone che sono o si ritiene siano musulmane, o che sono in altro modo legate all'Islam.

La percezione negativa dei musulmani ha una lunga storia e rappresenta ancora un problema serio in molti paesi, tra cui la Svezia.

Cos'è il razzismo anti-musulmano?

Razzismo anti-musulmano in Svezia.

Storia.

Indagini sul razzismo anti-musulmano.

Fonti e riferimenti.

Cos'è il razzismo anti-musulmano?

Il termine razzismo anti-musulmano viene utilizzato per descrivere atteggiamenti, convinzioni e azioni ostili e pieni di pregiudizi nei confronti di persone che sono o si ritiene siano musulmane.

Il termine è spesso usato come sinonimo di islamofobia.

Il razzismo anti-musulmano fa sì che le vittime vengano trattate peggio, discriminate o addirittura sottoposte a odio, minacce e violenza.

 Il razzismo anti-musulmano si basa su convinzioni stereotipate e negative sull'Islam e sui musulmani.

 Sia il Brå (Consiglio svedese per la prevenzione della criminalità) che il DO (Difensore civico svedese contro la discriminazione) pubblicano regolarmente relazioni che sottolineano come questa forma di razzismo sia un problema significativo e in crescita nella società.

Gli studi dimostrano che i musulmani e le altre minoranze religiose potrebbero essere particolarmente vulnerabili a scuola.

Definizioni.

Nell'ambito della ricerca esistono diverse definizioni del concetto di islamofobia. Uno dei ricercatori spesso citati è lo scienziato politico americano “Erik Bleich”.

Egli descrive l'islamofobia come "atteggiamenti e sentimenti negativi indiscriminati diretti contro l'Islam e i musulmani".

 Una definizione più dettagliata è stata proposta dai criminologi britannici” Imran Awad” e “Irene Zempi”.

Definiscono l'islamofobia come "varie forme di paura, pregiudizio o odio che si manifestano nell'intolleranza, nella provocazione o nell'ostilità verso i musulmani, e talvolta verso i non musulmani, e che possono sfociare in molestie, abusi, incitamenti o minacce".

La “National Encyclopedia” definisce il concetto sia come “pregiudizio e avversione verso l’Islam e i musulmani” sia come “azioni e pratiche che attaccano, escludono o discriminano le persone perché sono o si ritiene che siano musulmane e sono associate all’Islam”.

Il programma d'azione del governo contro l'islamofobia la definisce come "ideologie, percezioni o valori che esprimono ostilità verso i musulmani".

 

Il termine islamofobia viene quindi utilizzato per riferirsi ai pregiudizi nei confronti dell'Islam, nonché alle ideologie e alle azioni che mirano a emarginare o addirittura danneggiare i musulmani.

 Essere critici nei confronti dell'Islam non è la stessa cosa che essere islamofobi.

 I pregiudizi o gli atteggiamenti che contribuiscono a far sì che le persone vengano trattate peggio proprio perché sono, o sono percepite come, musulmane sono definiti islamofobia.

 

Sui concetti di islamofobia e razzismo anti-musulmano.

Per descrivere il razzismo che colpisce specificamente i musulmani, il termine islamofobia è da tempo un concetto consolidato, sia a livello internazionale che in Svezia.

Il programma d'azione del governo contro l'islamofobia, in vigore dal 2022 al 2024, la definisce come "ideologie, percezioni o valori che esprimono ostilità verso i musulmani".

La National Encyclopedia definisce il concetto sia come “pregiudizio e avversione verso l’Islam e i musulmani” sia come “atti e pratiche che attaccano, escludono o discriminano le persone perché sono o si ritiene che siano musulmane e sono associate all’Islam”.

 

L'uso del termine islamofobia è stato criticato perché alcuni ritengono che sia fuorviante.

 In parte perché non si tratta di una fobia in senso medico, e in parte perché focalizza l'attenzione sull'aspetto più astratto dell'"Islam" piuttosto che sulle persone colpite.

Parlare del problema come di una fobia può anche essere percepito come se riguardasse solo gli atteggiamenti delle singole persone.

 Si rischia di oscurare il fatto che l'islamofobia può anche assumere la forma di idee o ideologie condivise da gruppi più o meno grandi, che hanno conseguenze per l'intera società.

 

Sia l'islamofobia che il razzismo anti-musulmano vengono utilizzati in contesti diversi.

Qui e nel piano nazionale del governo contro il razzismo del 2024 viene utilizzato il termine "razzismo anti-musulmano."

 È diventato sempre più comune e descrive la stessa cosa dell'islamofobia.

Il piano d'azione del governo definisce il razzismo anti-musulmano "come una forma di razzismo rivolta contro i musulmani e le persone percepite come musulmane, ad esempio attraverso il loro abbigliamento o il loro nome".

 

Essere critici nei confronti dell'espressione della religione islamica non equivale ad essere islamofobi o razzisti nei confronti dei musulmani.

 

Espressioni di razzismo anti-musulmano in Svezia.

Il razzismo anti-musulmano può assumere diverse forme.

Si esprime sotto forma di odio, discriminazione o violenza.

In Svezia, la forma più comune di razzismo anti-musulmano è quella che si manifesta nelle situazioni quotidiane.

Gli studi dimostrano che, ad esempio, le donne che indossano il velo possono ricevere commenti al riguardo sull'autobus o nei centri commerciali.

 Può anche comportare sguardi, imprecazioni, sussurri, battute denigratorie o qualcuno che sputa davanti a te proprio perché sei o sei percepito come musulmano.

Gli abusi ricorrenti che le persone colpite devono affrontare nella loro vita quotidiana vengono talvolta definiti "razzismo quotidiano".

 

I rapporti del Difensore civico svedese per le discriminazioni (DO) dimostrano che le persone percepite come musulmane possono essere discriminate in diversi ambiti della società svedese, ad esempio negli incontri con i servizi sociali e nei procedimenti legali svedesi.

“DO” sottolinea inoltre che le persone con nomi musulmani o che suonano in arabo hanno meno probabilità di essere chiamate per un colloquio di lavoro rispetto a quelle con nomi che suonano in svedese.

Modelli simili di discriminazione emergono dagli studi su come le persone percepite come musulmane possano essere discriminate nel mercato immobiliare. In questi casi, a volte può essere difficile stabilire se la discriminazione sia legata all'appartenenza religiosa o ad altri motivi di discriminazione, come l'appartenenza nazionale o etnica.

Chi è interessato?

Sono soprattutto le persone che sono o sono percepite come musulmane a essere colpite dal razzismo anti-musulmano.

 I più vulnerabili sono coloro che indossano abiti o simboli che li rendono facilmente identificabili come musulmani.

 È anche comune che locali ed edifici, come le moschee, vengano vandalizzati.

 

Anche le persone che si identificano come musulmane per ragioni culturali, ad esempio, ma che non praticano la religione islamica, o magari hanno radici solo in Medio Oriente, possono essere colpite perché altre persone attribuiscono loro percezioni e valori che a loro volta associano all'Islam.

Ad esempio, ciò che conta nel determinare se qualcosa debba essere classificato come crimine d'odio islamofobo o anti-musulmano è il movente del crimine da parte dell'autore, non la religione o l'identità effettiva della vittima.

Anche le persone che non sono musulmane, ma sono percepite come musulmane, possono quindi essere colpite dal razzismo anti-musulmano.

 

Potrebbe trattarsi di persone che lavorano su questioni legate all'Islam, come un giornalista che ha scritto sull'Islam o un proprietario di immobili che affitta locali a una congregazione musulmana.

Questo perché individui o gruppi potrebbero voler intimidire o danneggiare persone che ritengono stiano aiutando i musulmani o non prendano le distanze dall'Islam.

 

La storia del razzismo anti-musulmano.

Fin dalla nascita dell'Islam, musulmani e cristiani hanno creato immagini invidiose l'uno dell'altro, ma sono anche riusciti a vivere insieme e a collaborare.

Una percezione negativa dell'Islam e dei musulmani emerse nei paesi cristiani, compresi quelli del Medio Oriente, dopo l'espansione dell'Islam a partire dal VII secolo e lo scoppio di conflitti e guerre tra regni musulmani e cristiani.

 Il razzismo che colpisce i musulmani oggi è in una certa misura una continuazione di queste credenze storiche.

 

Dalla fine del VI e fino al III secolo in poi, furono combattute numerose guerre tra regni musulmani e cristiani e i musulmani conquistarono o assediarono alcune zone d'Europa.

Negli scritti religiosi e talvolta anche nella politica statale della Svezia a partire dal XVI secolo, si nota che l'Islam e i musulmani venivano descritti come una minaccia. Ma con il diminuire della minaccia militare, a partire dal XVIII secolo e fino al XX secolo le persone cominciarono a considerare la cultura musulmana in modo più romanticizzato ed esotico.

Nel 1997, il think tank britannico “Runny mede Trus”t pubblicò il rapporto Islamophobia – a challenge for us all (Islamofobia – una sfida per tutti noi), che contribuì a diffondere maggiormente il concetto di islamofobia.

Si è notato che in Europa sono molto forti gli atteggiamenti stereotipati e negativi nei confronti dell'Islam e dei musulmani.

Gli atteggiamenti anti-musulmani sono aumentati in diverse parti del mondo dopo eventi drammatici, come dopo che il leader iraniano Ayatollah Khomeini ha invitato i musulmani a uccidere lo scrittore “Salman Rushdie” nel 1989.

Anche dopo gli attacchi terroristici che sono stati legittimati sulla base di diverse interpretazioni dell'Islam, con forse l'evento più significativo che è stato l'attacco terroristico alle Torri Gemelle di New York l'11 settembre 2001.

Indagini sul razzismo anti-musulmano.

Storie di vulnerabilità:

un'analisi della discriminazione legata a molteplici motivi di discriminazione (2023).

 

 

 

 

«Gli algoritmi non sono cose, ma disposizioni di potere

che riorganizzano

la nostra società.»

 

Vita.it - Marco Dotti- “26 gennaio 2021) – ci dice:

 

«Gli algoritmi non sono cose, ma disposizioni di potere che riorganizzano la nostra società»

(Paolo Benanti)

Finché gli algoritmi veicolavano notizie e beni immateriali - spiega il francescano, tra i massimi esperti di etica applicata alle tecnologie - siamo stati disposti a considerarli come mezzi neutrali al servizio di quei beni.

 Oggi che, dal lavoro alla salute, dalla distribuzione dei vaccini al colore delle Regioni, toccano tutti gli aspetti pubblici e privati delle nostre vite cresce la consapevolezza che gli algoritmi sono politica, non solo tecnica.

Gli algoritmi hanno un posto sempre più centrale nelle nostre vite.

Orientano le nostre scelte, determinano le politiche pubbliche, li percepiamo come arbitri neutrali di un processo di decisione e di scelta che, quando si inceppa, mostra che tanti, troppi nodi non sono compresi, discussi, risolti.

Francescano del Terzo Ordine Regolare (TOR),” Paolo Benanti” è tra i maggiori esperti di etica delle tecnologie e da molti anni invita a non sottovalutare la questione-algoritmi.

Una questione che apre a un campo di riflessione particolarmente urgente e complesso che viene oggi descritto con un termine divenuto corrente:

“algocrazia”.

L'algocrazia è un sistema di governance e di governo basato su algoritmi.

Decisioni politiche o tecniche?

 Il dibattito è aperto.

 

 

L'impatto etico degli algoritmi.

Professor Benanti, recenti fatti di cronaca hanno riportato al centro il dibattito sugli algoritmi.

 Tecnica o politica?

 Neutralità della prima e delega della seconda?

 Ci aiuta a comprendere il quadro in cui si collocano tali questioni nell'ottica di un'etica pubblica?

Quanto si parla di etica della tecnologia è importante ricordare il nome di un grande maestro come” Langdon Winner”.

Per capire che cosa significhi approcciarsi alla tecnologia con uno sguardo etico, nel 1980 “Winner” scrive un articolo importante e lo intitola così:

 Do Artifacts Have Politics?

Potremmo tradurre in questo modo: gli artefatti tecnologici hanno politica?

Eccoci arrivati al cuore della questione.

Le tecnologie non sono semplici aiuti all'attività umana, ma anche potenti forze che agiscono per rimodellare quell'attività e il suo significato.

 

Langdon Winner.

Guardiamo gli esempi che fa Winner e decliniamoli in quello che sta accadendo in questi giorni in Italia.

 Il primo esempio che fa è quello dei ponti in calcestruzzo che stanno sopra l'autostrada che da New York porta a Long Island.

Chiunque di noi guarda quei ponti cosa vede solo dei ponti in calcestruzzo.

 Ma se dovessimo fare un'analisi etica della tecnologia, dovremmo notare che quei ponti sono più bassi dello standard.

Se poi andiamo a leggere la biografia di “Robert Moses”, che fu il capo progettista di quei ponti, capiremmo che per sua stessa ambizione era un grande classista.

(Gli algoritmi sono disposizioni di potere che decidono chi ha accesso e chi no. Non sono semplicemente delle cose, sono modalità per organizzare la società e il potere, i diritti e i privilegi.

Paolo Benanti).

 

Moses fece così bassi quei ponti affinché solo la classe bianca agiata, che aveva auto di proprietà, potesse accedere alla spiaggia di Long Island.

 Le minoranze etniche che dovevano servirsi di autobus non potevano accedervi, perché gli autobus non passavano sotto quei ponti.

L'artefatto tecnologico è una disposizione di potere.

 

I ponti di una volta, oggi, sono diventati gli algoritmi…

Questi algoritmi sono disposizioni di potere che decidono chi ha accesso e chi no. Non sono semplicemente delle cose, sono modalità per organizzare la società e il potere, i diritti e i privilegi.

Winner fa poi un secondo esempio:

nel 1977 si diffuse la macchina meccanica per la raccolta di pomodori.

Da migliaia di raccoglitori di pomodori che c'erano, si scese a pochissimi. Ma ci fu un'altra questione: per resistere alla compressione meccanica del raccoglitore automatico venne selezionata una qualità di pomodori resistente, ma meno saporita.

Mercato, concentrazione, qualità delle relazioni.

Che cosa possiamo imparare da questi esempi?

Possiamo capire che l'innovazione tecnologica concentra il mercato e cambia la qualità del mercato stesso.

 Applichiamo questa legge agli algoritmi e capiamo cosa sta succedendo:

i grandi produttori di algoritmi che permettono di risparmiare rispetto ad altri sistemi tradizionali stanno concentrando il mercato.

Se applichiamo questa concentrazione algoritmica alle notizie che cosa accade?

Abbiamo una perdita di qualità.

Come per i pomodori americani, che non sanno di nulla…

Esattamente.

Da tutto questo, anche dalla perdita di qualità delle cose, emerge che il digitale non è neutrale.

Men che meno lo sono gli algoritmi.

Al contrario, anche il digitale è una disposizione di potere politico che cambia le relazioni tra i cittadini, cambia il mercato tra i cittadini e cambia le relazioni di potere.

 

Pensa sia cambiato qualcosa nella disposizione dell'opinione pubblica rispetto agli algoritmi?

Fino a quanto si trattava di muovere dei beni immateriali come le notizie abbiamo fatto fatica a capire la portata etica di quanto stava accadendo.

Ma se, adesso, quello che decidiamo tramite algoritmi sono stipendi, posti di lavoro, controllo sul luogo di lavoro o, ancora, scelte che riguardano la salute pubblica come la distribuzione dei vaccini le cose cambiano.

 

Il ruolo del Terzo settore.

Oggi abbiamo capito che l'impatto sulle nostre vite è potenzialmente deflagrante, ma questa comprensione non è necessariamente un male

Tutt'altro, perché una maggior consapevolezza e una maggior comprensione del problema porta le coscienze a diventare più critiche e a risvegliarsi. L'associazionismo, il Terzo settore, la società civile organizzata si stanno accorgendo che la tecnologia può diventare un moltiplicatore di disuguaglianze.

Il Terzo settore può dunque essere un attore importante in questo processo di re intermediazione?

San Tommaso diceva che non possiamo volere una cosa che è Bene, se non la conosciamo:

 la consapevolezza è la chiave per far cambiare le cose e smascherare le apparenti neutralità della tecnologia.

In questo riconosco al Terzo settore un ruolo primario:

quello di motore per una un'azione etica grandissima.

Anche perché questo mondo è un po' il nume tutelare di quelle fasce più deboli che non solo rischierebbero di non essere consapevoli, ma diverrebbero le prime vittime di questa inconsapevolezza.

 

 

 

“Shin Bet”: “Fondi del Qatar Autorizzati

dal Premier per Finanziare Hamas.”

Conoscenzealconfine.it – (1° Aprile 2025) – Redazione – Il giornale d’Italia -  ci dice:

“Qatargate” in Israele, arrestati collaboratori di Netanyahu “Urich” e “Feldstein” per corruzione;

“Shin Bet” (agenzia di intelligence per gli affari interni dello stato di Israele, subordinata direttamente al Primo ministro):

“Fondi da “Doha” (capitale del Qatar) autorizzati dal premier per finanziare Hamas”.

 

L’inchiesta potrebbe essere legata al licenziamento – poi sospeso – del capo di Shin Bet, Ronen Bar;

 il premier dello stato ebraico, chiamato a testimoniare, accusa: “Tentativo di colpo di Stato”.

Sono stati arrestati due collaboratori di Benjamin Netanyahu, Jonathan Urich ed Eli Feldstein all’interno dell’inchiesta Qatargate per sospetti di corruzione, contatto con agente straniero, abuso d’ufficio e violazioni fiscali.

L’ufficio del primo ministro ha dichiarato:

“Indagini inventate” e “tentativo di colpo di stato contro il governo,“ mentre Netanyahu – non indagato – viene citato a testimoniare sulla vicenda dalla procuratrice generale sfiduciata Gali Baharav-Miara.

 

Due collaboratori del primier ebraico Jonathan Urich ed Eli Feldstein, rispettivamente, consulente per i media e portavoce del primo ministro israeliano Benjamin Netanyahu, sono stati arrestati all’interno dell’inchiesta Qatargate sotto diverse accuse: corruzione, contatti con un agente straniero, abuso d’ufficio e violazioni fiscali;

 i due avrebbero ricevuto fondi provenienti dal Qatar per attività di comunicazione e pubbliche relazioni favorevoli a Doha.

 I pagamenti a Urich e Feldstein sarebbero arrivati attraverso la mediazione del businessman” Gil Birger” e il lobbista americano “Jay Footlik”.

 

L’indagine, condotta dall’unità anticorruzione” Lahav 433 “con la collaborazione dello “Shin Bet”, ha poi rivelato, che i fondi qatarioti sarebbero problematici perché trasferiti a Gaza con il consenso di Netanyahu negli anni precedenti;

questi avrebbero infatti contribuito a rafforzare militarmente Hamas nel corso del tempo.

 L’allora capo dello “Shin Bet” ha accusato il premier Netanyahu per le responsabilità politiche in questi fatti.

 

Nel frattempo la procuratrice generale sfiduciata dal governo, “Gali Baharav-Miara”, ha convocato Netanyahu per una testimonianza, il premier non risulta però tra gli indagati.

Tuttavia, l’opposizione ha replicato dura nei confronti del premier:

“Ha fallito in materia di sicurezza e ha permesso che il denaro del Qatar finanziasse Hamas.

 Ora cerca di sabotare le indagini”, ha detto “Yair Golan “che ha chiesto che anche Netanyahu venga indagato.

Secondo gli esperti, l’inchiesta in cui sarebbero stati arrestati i due collaboratori “Jonathan Urich” ed “Eli Feldstein “sarebbe legata alla rimozione del capo dello “Shin Bet”, “Ronen Bar”.

 

L’ufficio del primo ministro ha respinto ogni accusa: “Nessun funzionario israeliano è coinvolto nei trasferimenti di denaro. Le spese nell’ufficio del primo ministro avvengono solo secondo le procedure legali. Si tratta di indagini inventate e di un tentativo colpo di stato contro il governo.“

(Redazione Il giornale d’ Italia).

(ilgiornaleditalia.it/news/esteri/694932/qatargate-in-israele-arrestati-collaboratori-di-netanyahu-urich-e-feldstein-per-corruzione-shin-bet-fondi-da-doha-autorizzati-dal-premier-per-finanziare-hamas.html).

 

 

 

Gli algoritmi danno un punteggio

 ai nostri valori: perché la sovranità

degli Stati è a rischio.

Agendadigitale.eu - Bruno Fiammella-Avvocato – (28 Mar 2023) – ci dice:

 

 

Cultura e società digitali.

Cosa ne sa una macchina della natura umana?

E allora perché lasciamo che l’AI venga “indottrinata” allo studio dei valori su cui si fonda la nostra società attribuendo agli stessi valori un punteggio sulla base di logiche aziendali che non sempre rispettano finalità pubbliche o principi costituzionali?

Vediamo i rischi.

 

Big tech.

La domanda che pochi si pongono in tema di intelligenza artificiale, riguarda il fatto di capire perché dobbiamo utilizzarla ed avvalercene, quali siano gli effettivi benefici che la nostra specie ne può trarre e, soprattutto, se il costo da pagare non rischi di essere troppo alto o la direzione dello sviluppo umano non assuma una deriva pericolosa.

In particolare, è opportuno e urgente riflettere sul fatto che i sistemi di IA sono programmati per intervenire secondo regole dettate dalle società al cui servizio vengono costruiti ed implementati e diventano l’espressione di un potere sovranazionale le cui regole non sono scritte nelle costituzioni degli Stati e nel processo storico di sviluppo che ciascuna nazione ha avuto, ma sono scritte da esigenze privatistiche.

 

Quali sono, dunque, i rischi per gli Stati e per il nostro futuro?

 

Indice degli argomenti:

Tecnologia e disumanizzazione.

L’uomo al centro.

Limiti nell’addestramento dell’IA.

Il rischio di attribuire un punteggio a scelte etiche e morali.

Un’altra rivoluzione industriale.

Rischi per la governance degli Stati nazionali.

Conclusioni.

Tecnologia e disumanizzazione.

Come presupposto antecedente necessario alle scelte che i nostri leader economici hanno intrapreso, si impone allora un inevitabile momento di riflessione sul “chi siamo” e verso “dove andiamo”.

 Considerato che la riforma apportata dalla IA è in grado di mettere in crisi le sorti dello sviluppo dell’umanità (è inutile negarlo ma gli scenari vanno ipotizzati tutti con lungimiranza), occorre domandarsi se la direzione intrapresa dalle grandi aziende sia da seguire per come concepita sino ad oggi.

A volte le grandi riforme procedono da piccoli cambiamenti che consentono di inoculare alle masse, apparenti irrilevanti modifiche che, lentamente, consentono di approcciare, per assuefazione, per convincimento indiretto e mediato, alle grandi modifiche del sistema.

Oggi parlare di IA è indispensabile, è l’argomento tecnico scientifico del momento e soprattutto, come ai tempi della rivoluzione portata dalla rete internet prima, e dai device “mobile” successivamente, e se non la utilizzi, tra un po’ sarai fuori dal sistema.

 E questo è considerato, nel mondo del lavoro, un deficit, una carenza del servizio, una “deminutio” dell’offerta.

 

Lentamente veniamo indotti a credere che l’utilizzo di app, bot, software di IA e di sistemi di automazione in generale possa davvero rendere la nostra vita migliore. Non nascondo che in alcuni contesti è così, ma lo scenario, se analizzato con maggiore attenzione non sempre è roseo, dipende dalla direzione che verrà intrapresa nei prossimi anni.

Più l’uomo utilizza la tecnologia, più si accorge di quanto essa sia disumanizzante.

L’IA infatti può mettere a rischio le scelte valoriali ed è evidentemente il caso di iniziare ad osservarla con un’analisi critica ed un confronto aperto che consenta di sviluppare una riflessione:

decidiamo prima verso quale direzione e quali obiettivi debba essere condotto questo progresso, oppure sopportiamolo in silenzio, come tante pecore che, guidate da una IA scelgono di saltare nel fosso perché è la decisione che un software avrà preso loro, in un futuro in cui è “opportuno” il sacrificio di alcuni, per la salvaguardia di altri.

 

Solo attraverso l’analisi dei motivi che ci spingono ad avvalerci dei software di intelligenza artificiale nella nostra vita quotidiana, potremmo sviluppare contesti capaci di migliorare realmente il nostro stile di vita e costruire un sistema migliore.

L’uomo al centro.

Non traggo benefici, in buona sostanza, se l’intelligenza artificiale mi sostituisce nello svolgimento della mia attività lavorativa, in quanto perderò il posto di lavoro: traggo benefici se l’intelligenza artificiale mi aiuta a svolgere, con meno sforzo, in meno tempo e con meno rischi per la salute, quella medesima attività che prima svolgevo da solo e per la quale, oggi, riceverò il mio stipendio.

Remunerato per ciò che faccio con l’ausilio della mia applicazione di IA o con il mio robot personale, non licenziato per ciò che la IA può fare al posto mio.

Affiancare, non sostituire.

Migliorare la qualità della vita e accrescere le ore di tempo libero, non licenziare, devono essere i nostri obiettivi.

 L’uomo, non il profitto.

 

Viviamo in un’epoca in cui (assonnati anche dalle tecnologie e da un sistema che indirettamente ci tiene sempre di più sotto controllo) assistiamo ad un forte allontanamento della “ragione critica” in favore di una concezione dello sviluppo umano mediocre, “fondato sulla programmazione ed estrazione del dato”.

 

A differenza di alcuni rami della scienza storicizzati, come la medicina o il diritto, in tema di IA non esiste una struttura sovranazionale o governativa che ne coordini lo sviluppo o che la controlli (almeno apparentemente):

le definizioni e gli obiettivi concordati stanno nascendo in questi anni, e sono ancora probabilmente frutto di un ristretto oligopolio.

 La disciplina è in fermento ed in continuo divenire, con il pericoloso rischio che la direzione prenda pieghe di sviluppo non programmate o con evidenti vuoti normativi che causano distorsioni dal punto di vista sociale, comunicativo ed educativo.

Limiti nell’addestramento dell’IA.

È il modello di apprendimento automatico su cui si fonda il concetto di “deep learning” che andrebbe revisionato per iniziare a porre un cambiamento a questo processo: perché l’apprendimento di una IA è strutturato secondo modelli in forza dei quali l’algoritmo decisionale utilizza le informazioni in suo possesso per formulare calcoli predittivi su ciò che non conosce.

In questa tipologia di modello, nel momento in cui non conosciamo le regole poste alla base del funzionamento della programmazione, in cui non conosciamo i principi sottesi a cui si ispira l’algoritmo decisionale di costruzione del processo di auto apprendimento, stiamo avallando l’idea che un algoritmo proceda da ciò che è a lui “noto” (le informazioni caricate ed elaborate negli anni e non si sa bene come, “selezionate”) verso ciò che è a lui “ignoto”.

Il tutto senza una direttiva morale o etica posta a fondamento della scelta che dovrebbe guidare il passaggio da ciò che è assodato e conosciuto, verso ciò che ancora deve essere esplorato e compreso.

Le discriminazioni basate su sesso, razza religione, opinioni politiche e personali, ormai conquista della maggioranza dei sistemi socio politici, rischiano di essere messe nuovamente in discussione da un software mal programmato o che ha elaborato dati in maniera errata.

Gli esempi occorsi sono numerosi, basti pensare al famoso “caso Loomis” approdato alla “Corte Suprema” del Wisconsin.

La Corte Suprema, dopo aver stabilito che l’uso del “software Compas” può essere legittimo nell’ambito dei giudizi di determinazione della pena, ha indicato i limiti e le cautele che devono accompagnarne l’uso da parte degli organi giudicanti, esplicitamente soffermandosi sulla necessità che il giudice applichi i risultati raggiunti da un software contemperandoli con la propria discrezionalità e bilanciandoli con altri fattori parimenti rilevanti.

 Tra le altre cose, la Corte ha confermato che l’oggetto dell’algoritmo non può riguardare il grado di severità della pena, né la decisione sulla detenzione dell’imputato.

E che l’intermediazione del giudice su come valutare alcuni parametri forniti dal software sia indispensabile proprio per evitare risultati aberranti che possono scaturire da un atteggiamento troppo fideistico nei confronti della IA.

 

Ma c’è di più:

secondo alcuni studi, i database su cui si formano alcuni software di intelligenza artificiale sono ancora approssimativi e potrebbero essere viziati ab origine.

Occorre riflettere sul fatto che l’attività di raccogliere i dati, classificarli ed etichettarli per “addestrare” i sistemi d’IA è a tutti gli effetti ed a seconda di come viene svolta, un’attività dai risvolti socio – politici, perché attraverso la selezione e la raccolta delle informazioni si rappresenta la realtà lavorativa e sociale.

 In passato, molte delle tecniche di rilevamento delle emozioni ed i software utilizzati a tali fini hanno rivelato la fallacia dei software utilizzati a causa di errori nell’addestramento, svolto da personale non adeguatamente preparato o comunque a sua volta pre-condizionato dalla propria estrazione socio culturale nel classificare alcuni aspetti della mimica facciale riconducendoli a determinate emozioni.

Secondo alcuni studi, questi sono i primi errori nella programmazione di alcuni software di AI, ma sono errori importanti perché destinati ad influenzare tutti i processi susseguenti nella catena di programmazione dell’algoritmo.

 

Il rischio di attribuire un punteggio a scelte etiche e morali.

Ciò che preoccupa è il fatto che molte AI vengano “indottrinate” allo studio dei valori su cui si fonda la nostra società attribuendo agli stessi valori un punteggio.

Stiamo procedendo a rendere “contabile” ciò che in realtà la cultura anglosassone definirebbe come “uncuntable”.

 È sempre così facile attribuire un punteggio a delle scelte etiche – morali?

E soprattutto, è possibile disporre i valori su una scala e “gradarli” in modo da attribuire sempre, allo stesso principio, il medesimo punteggio, oppure questo dovrebbe cambiare di volta in volta in base al contesto socio – normativo – culturale in cui ci muoviamo?

 

È possibile quantificare il valore di una vita umana da sacrificare, perché se ne potrebbero salvare 100?

La risposta è sempre la stessa indipendentemente dal fatto che la vita appartenga ad un uomo politico, un personaggio famoso, i nostri genitori, un premio Nobel o un bambino?

 

La IA può comprendere un valore solo se lo quantifica in un punteggio che gli consenta di inserirlo in un calcolo probabilistico di opzioni:

 le differenze che a volte sono per il nostro contesto sociale un accrescimento, frutto di una evoluzione storica e culturale, le diversità, anche multietniche e sociali, che rappresentano una ricchezza per la comunità del terzo millennio, sono appiattite da una macchina e rischiano così di divenire delle unità computabili.

 Era “Nietzche” che sosteneva che cercare di rendere eterogeneo e calcolabile ciò che non lo è per sua natura, rendendolo simile e calcolabile, è una falsificazione della realtà.

 

Abbiamo di fronte una vera e propria industria estrattiva del dato, che lavora da oltre 20 anni e le cui regole per l’estrazione e l’elaborazione sono dettate da logiche aziendali che non sempre rispettano le finalità pubbliche o i principi costituzionali.

 Gli algoritmi non sono operatori indipendenti, ma condizionati (il problema è capire da chi) tanto da arrivare ad affermare che chi governa l’algoritmo, oggi, governa il mondo.

Ecco, per esempio, classificare ciò che è disumano e ciò che non lo è, è possibile farlo a priori?

La storia ci insegna che esiste una legge naturale scritta nel cuore dell’uomo ed in base alla quale, l’individuo, pur non avendone la conoscenza derivante dallo studio, ne è consapevole proprio perché insita nella natura umana in quanto tale.

Ma la macchina cosa ne sa della natura umana?

 

Un’altra rivoluzione industriale.

Non possiamo correre il rischio di rivivere il modello lavoristico di matrice Tayloriana delle prime fabbriche inglesi dell’ottocento, in cui la standardizzazione del processo lavorativo omologava ed appiattiva l’individuo, comprimendone diritti, identità e dignità.

 I braccialetti che oggi vibrano per segnalare al lavoratore l’”alert” che appare sui terminali di fronte ad un errore, potrebbero essere un nuovo modello di controllo imposto, rendendoci di fatto, schiavi di una tecnologia “performante” (secondo quale idea di performance? Il profitto?).

I software o le app di controllo della performance, del rendimento o della redditività di un comportamento del dipendente finalizzate all’apparente sicurezza del posto di lavoro sono un esempio di come stiamo utilizzando uno strumento nato per proteggere dai rischi per la salute, per una finalità alternativa: massimizzare il tempo di produzione, per incrementare il profitto.

 

Soddisfare le esigenze della predittività è diventata la logica naturale dell’apprendimento automatico.

E questa logica si sta facendo strada in maniera incontrovertibile (forse), perché contraddire il processo “progressista” della IA (che poi è nella realtà regressista, quando viola le conquiste raggiunte dalla scienza giuridica e sociale in termini di diritti umani) è come peccare di lesa maestà.

Ma a volte Il” deep learning” non è interpretabile dagli stessi ingegneri che lo hanno programmato e sta creando una potenza sovra umana rispetto alla quale, il creatore (l’uomo), non è in grado di opporre resistenza a ciò che ha creato.

Se riflettiamo sul funzionamento e la programmazione ci accorgiamo che l’IA non è una tecnica computazionale oggettiva, universale o neutrale, ma al contrario, le sue decisioni vengono assunte a seguito di un processo di valori volutamente o inconsapevolmente assegnati dai suoi programmatori.

 Il suo impatto sulla realtà socio – politica – economica è plasmato da esseri umani che risentono della storia di colui o colei che la descrive, o degli interessi che sottendono quel progetto di ricerca.

 

Rischi per la governance degli Stati nazionali.

Il fatto che una macchina sia in grado di produrre una quantità di calcolo impossibile all’individuo non significa che sia più intelligente o che compia delle scelte indiscriminate.

Questo è un concetto che va assimilato il prima possibile, ed i danni sono già sotto i nostri occhi:

il punteggio di attendibilità dei software di calcolo sta invadendo i mercati dei curricula per la selezione del personale, dei prestiti bancari, degli investimenti finanziari, della gestione del personale.

Quante volte ci rendiamo conto che solo un buon colloquio conoscitivo consente realmente di capire se quella persona ha le qualità per far parte del nostro team oppure no?

 

Gli Stati nazionali non hanno la forza e le informazioni per utilizzare proficuamente molti prodotti dell’industria cyber tecnologica e per sopperire alla carenza, si rivolgono alle aziende private.

La collaborazione tra lo Stato e l’industria determina che, avendo il primo bisogno di dati che solo la seconda può fornirgli, venga inconsapevolmente assegnato al privato un potere di controllo e preventiva selezione che per legge sarebbe di esclusiva competenza dell’autorità pubblica.

 Una volta, i software di riconoscimento facciale attingevano le informazioni dai database delle forze dell’ordine formatosi dalla raccolta di immagini provenienti da una pregressa attività di fermo, segnalazione o incriminazione.

 Oggi, alcuni software in dotazione alle Forze dell’Ordine di alcuni Stati, lavorano utilizzando database composti da immagini prelevate dei social senza alcun consenso da parte dei titolari.

 Esistono accordi commerciali tra i produttori di software ed alcuni organismi istituzionali.

 La domanda da prosi è a quale logica risponda il prodotto finale?

Quella codificata dal diritto o quella codificata dal programmatore privato statunitense, sovietico, cinese o africano che l’ha creata, istruita ed addestrata?

 

Pensiamo a cosa si possa fare con strumenti di “facial recognition” che possano attingere dalle foto personali di milioni di persone disponibili sul web o da quelle di milioni di videocamere di sorveglianza distribuite sul pianeta.

L’identificazione e il tracciamento delle persone in termini di una apparente sicurezza globale rappresentano un “business “in voga già da anni.

 In piena violazione di ogni normativa sul trattamento dei dati personali esistono archivi messi a disposizione dai privati alle istituzioni.

Tuttavia, il dato che arriverà alle autorità sarà filtrato da una tecnologia che le istituzioni non controllano né nella estrazione dei contenuti, né nella scelta dell’algoritmo selettivo ed identificativo degli stessi.

Il problema quindi è che chi programma il software lo dovrebbe fare secondo esigenze e regole pubbliciste di interessi costituzionalmente tutelati e non di una governance internazionale e privata.

 

Sono gli albori di una nuova sovranità nazionale che è determinata dall’algoritmo aziendale.

Il cui funzionamento è dettato da logiche aziendali complesse che superano i confini della sovranità territoriale, creando un rischio di sbilanciamento di potere tra le istituzioni e le aziende private, a discapito non tanto del singolo individuo, ma delle istituzioni stesse e del loro potere.

La storia che i padroni del mondo non sono sempre gli Stati la conosciamo, un contesto come questo ne ha rivelato la sua attualità.

Rischi per la sovranità statale quando è modulata dalla governance algoritmica aziendale si paventano.

Quali rimedi?

 

Conclusioni.

La ricerca e formazione di menti vigili, risvegliate, capaci di temperare la corsa ad un progresso senza fine, sono le uniche chiavi risolutive di una realtà in troppo rapido cambiamento, priva della necessaria fermentazione di fronte alle scelte innovative e priva di discernimento, caratteristiche umane necessarie ed indispensabili quando si lavora per il bene ed il progresso dell’umanità.

 

 

 

 

 

La debolezza transazionale

ribalta l'equilibrio del potere.

Unz.com - Alastair Crooke – (31 marzo 2025) – ci dice:

 

"Non fatevi illusioni; Non c'è nulla al di là di questa realtà.

Un "riequilibrio" economico degli Stati Uniti è in arrivo. Putin ha ragione. L'ordine economico del secondo dopoguerra "non c'è più".

L'esito geopolitico del secondo dopoguerra ha effettivamente determinato la struttura economica globale del dopoguerra.

Entrambi stanno ora subendo enormi cambiamenti.

Ciò che rimane bloccato, tuttavia, è “la weltanschauung generale” (occidentale) secondo cui tutto deve "cambiare" solo per rimanere lo stesso.

Le cose finanziarie continueranno come prima; non disturbare il sonno.

Il presupposto è che la classe degli oligarchi/donatori farà in modo che le cose restino le stesse.

 

Tuttavia, la distribuzione del potere del dopoguerra era unica.

Non c'è nulla di "per sempre" in questo; niente di intrinsecamente permanente.

 

In una recente conferenza di industriali e imprenditori russi, il presidente Putin ha evidenziato sia la frattura globale, sia ha delineato una visione alternativa che probabilmente sarà adottata dai BRICS e da molti altri.

Il suo discorso è stato, metaforicamente parlando, la controparte finanziaria del suo discorso del 2007 al “Forum sulla sicurezza di Monaco”, in cui ha accettato la sfida militare posta dalla "NATO collettiva".

Putin sta ora lasciando intendere che la Russia ha accettato la sfida posta dall'ordine finanziario del dopoguerra.

La Russia ha perseverato contro la guerra finanziaria, e sta prevalendo anche in questo.

 

Il discorso di Putin della scorsa settimana non è stato, in un certo senso, niente di veramente nuovo: rifletteva la dottrina classica dell'ex premier, “Yevgeny Primakov”.

Non essendo un romantico dell'Occidente, Primakov aveva capito che il suo ordine mondiale egemonico avrebbe sempre trattato la Russia come un subordinato. Quindi ha proposto un modello diverso, l'ordine multipolare, in cui Mosca bilancia i blocchi di potere, ma non vi si unisce.

In sostanza, la “Dottrina Primakov” si basava sull'evitamento di allineamenti binari, sulla preservazione della sovranità, sul mantenimento di legami con altre grandi potenze e sul rifiuto dell'ideologia in favore di una visione nazionalista russa.

 

Le negoziazioni odierne con Washington (ora strettamente incentrate sull'Ucraina) riflettono questa logica.

La Russia non sta implorando la revoca delle sanzioni né minacciando nulla di specifico.

Sta conducendo una procrastinazione strategica:

aspettando i cicli elettorali, testando l'unità occidentale e tenendo tutte le porte socchiuse.

Tuttavia, Putin non è contrario a esercitare un po' di pressione da parte sua:

 la finestra per accettare la sovranità russa sui quattro oblast orientali non è per sempre:

" Questo punto può anche spostarsi ", ha detto.

 

Non è la Russia che corre avanti con i negoziati;

al contrario, è Trump che sta correndo in avanti.

 Perché?

Sembra rifarsi all'attacco americano alla strategia di triangolazione di Kissinger: Russia subordinata; sbucciare l'Iran; e poi staccare la Russia dalla Cina.

Offrire carote e minacciare di "restare" alla Russia, e una volta subordinata in questo modo, la Russia potrebbe essere distaccata dall'Iran, rimuovendo così qualsiasi impedimento russo a un attacco dell'Asse Israele-Washington contro l'Iran.

“Primakov”, se fosse qui, probabilmente avvertirebbe che la "Grande Strategia" di Trump è quella di legare rapidamente la Russia a uno status subordinato, in modo che Trump possa continuare la normalizzazione israeliana dell'intero Medio Oriente.

 

“Witkof”f ha risolto molto chiara la strategia di Trump:

"La prossima cosa è: dobbiamo trattare con l'Iran... sono un benefattore degli eserciti per procura... Ma se riusciamo a far eliminare queste organizzazioni terroristiche come rischi... Poi ci normalizzeremo ovunque.

 Penso che il Libano potrebbe normalizzarsi con Israele... È davvero possibile... Anche la Siria:

 forse Colani in Siria [ora] è un tipo diverso.

Hanno cacciato l'Iran... Immagina se il Libano... Siria... e i sauditi firmano un trattato di normalizzazione con Israele... Voglio dire, sarebbe epico!"

 

I funzionari statunitensi affermano che la scadenza per una "decisione" sull'Iran è la primavera...

E con la Russia ridotta allo status di supplicante e l'Iran trattato (con un pensiero così fantasioso), il Team Trump può rivolgersi al principale avversario: la Cina.

Putin, naturalmente, lo capisce bene e ha puntualmente sfatato tutte queste illusioni:

" Mettiamo da parte le illusioni ", ha detto ai delegati la scorsa settimana:

 

"Sanzioni e restrizioni sono la realtà odierna – insieme a una nuova spirale di rivalità economica già scatenata...".

"Non fatevi illusioni: non c'è nulla al di là di questa realtà...".

"Le sanzioni non sono misure temporanee né mirate; costituiscono un meccanismo di pressione sistemica e strategica contro la nostra nazione.

Indipendentemente dagli sviluppi globali o dai cambiamenti nell'ordine internazionale, i nostri concorrenti cercheranno perpetuamente di limitare la Russia e di diminuire le sue capacità economiche e tecnologiche ...".

 

"Non dovresti sperare in una completa libertà di commercio, pagamenti e trasferimenti di capitali.

Non dovresti contare sui meccanismi occidentali per proteggere i diritti di investitori e imprenditori...

Non sto parlando di sistemi legali, semplicemente non esistono!

Esistono lì solo per sé stessi!

Questo è il trucco. Hai capito?!".

 

Le nostre sfide [russe] esistono, 'sì' - " ma anche le loro sono abbondanti. Il predominio occidentale sta scivolando via.

Nuovi “centri di crescita globale stanno prendendo il centro della scena", ha detto Putin.”

 

Queste [sfide] non sono il " problema";

 sono l'opportunità, ha sottolineato Putin:

 "Daremo priorità alla produzione nazionale e allo sviluppo delle industrie tecnologiche.

 Il vecchio modello è finito.

La produzione di petrolio e gas sarà semplicemente l'aggiunta a un'"economia reale" ampiamente circolante internamente e autosufficiente, con l'energia non più il suo motore.

Siamo aperti agli investimenti occidentali, ma solo alle nostre condizioni, e il piccolo settore "aperto" della nostra economia altrimenti chiusa continuerà naturalmente a commerciare con i nostri partner BRICS".

Ciò che Putin ha delineato in modo efficace è il ritorno al modello di economia prevalentemente chiusa e a circolazione interna della scuola tedesca (alla Friedrich List) e del premier russo “Sergej Witte”.

 

Giusto per essere chiari, Putin non stava solo spiegando come la Russia si fosse trasformata in un'economia resistente alle sanzioni che poteva disdegnare allo stesso modo le apparenti lusinghe dell'Occidente, così come le sue minacce.

 Stava sfidando il modello economico occidentale in modo più fondamentale.

 

Friedrich List era stato, fin dall'inizio, diffidente nei confronti del pensiero di Adam Smith che costituiva la base del "modello anglo."

 List ha avvertito che alla fine sarebbe stato controproducente;

Distoglierebbe il sistema dalla creazione di ricchezza e, in ultima analisi, renderebbe impossibile consumare così tanto o impiegare così tante persone.

Un tale cambiamento di modello economico ha profonde conseguenze:

mina l'intera modalità di diplomazia transazionale "Art of the Deal" su cui Trump fa affidamento.

Mette a nudo le debolezze transazionali.

"Il vostro allettamento alla revoca delle sanzioni, oltre agli altri incentivi agli investimenti e alla tecnologia occidentali, ora non significa nulla" – perché d'ora in poi accetteremo queste cose: solo alle nostre condizioni", ha detto Putin.

"Né", ha sostenuto, "le vostre minacce di un ulteriore assedio delle sanzioni hanno peso, perché le vostre sanzioni sono state la manna che ci ha portato al nostro nuovo modello economico".

In altre parole, che si tratti dell'Ucraina o delle relazioni con la Cina e l'Iran, la Russia può essere in gran parte impermeabile (a meno che non si tratti della minaccia reciprocamente distruttiva della Terza Guerra Mondiale) alle lusinghe degli Stati Uniti.

Mosca può prendersi il suo tempo per l'Ucraina e considerare altre questioni in base a un'analisi strettamente costi-benefici.

Può vedere che gli Stati Uniti non hanno una vera influenza.

 

Eppure il grande paradosso di tutto questo è che “List “e “Witte” avevano ragione – e “Adam Smith” aveva torto.

 Perché ora sono gli Stati Uniti che hanno scoperto che il modello anglosassone si è dimostrato davvero controproducente.

 

Gli Stati Uniti sono stati costretti a due importanti conclusioni:

 in primo luogo, che il deficit di bilancio, unito all'esplosione del debito federale, ha finalmente riacceso la "maledizione delle risorse" sugli Stati Uniti.

In qualità di "custode" della valuta di riserva globale – e come ha detto esplicitamente “JD Vance” – ha necessariamente fatto dell'esportazione primordiale dell'America il dollaro USA.

Per estensione, significa che il dollaro forte (sostenuto da una domanda sintetica globale per la valuta di riserva) ha sventrato l'economia reale dell'America – la sua base manifatturiera.

Questa è la "malattia olandese", in base alla quale l'apprezzamento della moneta sopprime lo sviluppo dei settori produttivi di esportazione e trasforma la politica in un conflitto a somma zero sulle rendite delle risorse.

 

All'udienza del Senato dell'anno scorso con “Jerome Powell”, il presidente della “Federal Reserve”, se lo status del dollaro USA come valuta di riserva globale potesse avere degli svantaggi.

“Vance” ha tracciato dei parallelismi con la classica "maledizione delle risorse", suggerendo che il ruolo globale del dollaro ha contribuito alla finanziarizzazione a scapito degli investimenti nell'economia reale:

 il modello anglosassone porta le economie a specializzarsi eccessivamente nel loro fattore abbondante, che si tratti di risorse naturali, manodopera a basso salario o asset finanziarizzati.

Il secondo punto – relativo alla sicurezza – un argomento su cui il Pentagono insiste da una decina d'anni, è che la valuta di riserva (e di conseguenza il dollaro forte) ha spinto molte linee di rifornimento militare degli Stati Uniti verso la Cina.

Non ha senso, sostenendo il Pentagono, che gli Stati Uniti dipendano dalle linee di rifornimento cinesi per fornire gli input alle armi prodotte dall'esercito statunitense, con le quali combatterebbero la Cina.

L'amministrazione statunitense ha due risposte a questo enigma: in primo luogo, un accordo multilaterale (sulla falsariga del Plaza Accord del 1985) per indebolire il valore del dollaro (e pari passo, quindi, per aumentare il valore delle valute degli stati partner).

Questa è l’opzione del "Mar-a-Lago Accord”.

 La soluzione degli Stati Uniti è quella di costringere il resto del mondo ad apprezzare le proprie valute per migliorare la competitività delle esportazioni statunitensi.

Il meccanismo per raggiungere questi obiettivi è minacciare i partner commerciali e di investimento con tariffe e ritiro dell'ombrello di sicurezza statunitense.

Come ulteriore svolta, il piano considera la possibilità di rivalutare le riserve auree statunitensi, una mossa che taglierebbe inversamente la valutazione del dollaro, del debito statunitense e delle partecipazioni estere in titoli del Tesoro statunitensi.

La seconda opzione è l'approccio unilaterale:

nell'approccio unilaterale verrebbe imposta una "commissione d'uso" sulle partecipazioni ufficiali estere in titoli del Tesoro USA per allontanare i gestori delle riserve dal dollaro, indebolendolo così.

 

Beh, è ovvio, non è vero? Un "riequilibrio" economico degli USA sta arrivando. Putin ha ragione.

 L'ordine economico del dopoguerra " è finito ".

Le fanfaronate e le minacce di sanzioni costringeranno i grandi stati a rafforzare le loro valute e ad accettare la ristrutturazione del debito statunitense (vale a dire i tagli imposti ai loro titoli obbligazionari)?

Sembra improbabile.

Il riallineamento delle valute previsto dall'”Accordo di Plaza” si basava sulla cooperazione degli stati più importanti, senza la quale le mosse unilaterali potevano rivelarsi spiacevoli.

Chi è la parte più debole?

Chi ha ora la leva nell'equilibrio di potere?

Putin ha risposto a questa domanda il 18 marzo 2025.

 

 

 

 

Le Big Tech sono sempre più

colluse con l’esercito israeliano

indipendente.online.it – (24 Gennaio 2025) – Walter Ferri – ci dice:

 

Tecnologia e Controllo.

La sorveglianza e la guerra rappresentano attività altamente redditizie, e l’industria tecnologica sembra esserne pienamente consapevole, sebbene preferisca spesso non pubblicizzare troppo i legami che intrattiene con governi ed eserciti.

Di tanto in tanto, però, emergono rivelazioni che svelano uno scorcio di ciò che avviene dietro le quinte.

Questa volta sotto i riflettori sono finite “Microsoft” e “Google”:

documenti trapelati rivelano il rapporto sempre più stretto tra le Big Tech e le forze armate israeliane, un legame che si è intensificato rapidamente dopo il 7 ottobre 2023, in concomitanza con l’attacco mosso nei territori palestinesi.

 

Già nell’agosto del 2024, la testata investigativa israelo-palestinese “+972 “aveva denunciato come Amazon, Microsoft e Google fossero impegnate in una vera e propria competizione per rispondere alla crescente domanda israeliana di “spazi di archiviazione cloud”, servizi che si rivelano fondamentali per supportare gli strumenti d’intelligenza artificiale e gestire le immense quantità di dati raccolti tramite operazioni di sorveglianza.

Ora, l’entità giornalistica indipendente “Drop Site” ha fornito in tal senso dettagli più concreti.

Analizzando contratti stipulati dal governo israeliano con Microsoft, il gruppo ha evidenziato come l’escalation del conflitto abbia portato a un aumento significativo della richiesta di servizi cloud offerti dalla “piattaforma Azure”.

 

A partire da ottobre 2023, i costi di supporto e consulenza richiesti dai militari israeliani hanno raggiunto la somma di 10 milioni di dollari, mentre ulteriori 30 milioni sono stati vagliati in sostegno delle spese del 2024.

Tra giugno 2023 e aprile 2024, l’utilizzo dei server messi a disposizione da Microsoft è cresciuto del 155%, un incremento significativo che suggerisce il ricorso intensivo a strumenti di intelligenza artificiale.

Per soddisfare le imponenti esigenze israeliane, la Big Tech ha dovuto spingersi oltre ai soli server locali, attingendo anche alle infrastrutture europee.

Attualmente, il Ministero della Difesa figura tra i 500 migliori clienti della società, tuttavia l’analisi delle dinamiche dei flussi di finanziamenti vengono rese più complesse dal fatto che le diverse entità militari possano siglare contratti in autonomia, utilizzando i rispettivi budget interni.

“The Washington Post,” dal canto suo, ha ottenuto documenti interni che rivelano maggiori informazioni sui rapporti intrattenuti da Google con le forze armate di Tel Aviv.

Anche in questo caso, la “domanda di servizi cloud “ha registrato un’impennata in concomitanza con l’avvio delle operazioni punitive.

 Il “Ministero della Difesa” ha richiesto un accesso ampliato ai servizi di intelligenza artificiale offerti dalla Big Tech, mostrando particolare interesse per “Vertex,” una “piattaforma di sviluppo IA” che consente ai clienti di caricare e analizzare i propri dati.

Documenti risalenti a novembre 2024 rivelano inoltre l’intenzione delle Forze di Difesa Israeliane (IDF) di utilizzare il “Gemini AI” sviluppato da Google per creare assistenti virtuali in grado utili a elaborare in maniera più efficiente documenti e contenuti audio.

Scambi di email interni suggeriscono che Google abbia assecondato con decisione le richieste israeliane, temendo che eventuali rallentamenti potessero convincere il Governo di Tel Aviv a rivolgersi ai servizi della concorrente “WAmazon Web Services”.

 

Le recenti rivelazioni non chiariscono un punto cruciale:

 come vengano effettivamente impiegati i servizi di cloud e intelligenza artificiale. Questi potrebbero, ipoteticamente, essere utilizzati per scopi amministrativi, contribuendo ad alleggerire il carico burocratico, oppure per altre finalità tecniche non direttamente collegate agli sforzi bellici.

Tuttavia, la scarsa trasparenza dimostrata dalle Big Tech, unita all’aumento del flusso di dati in concomitanza con le operazioni militari, non può che sollevare legittimi dubbi.

 Google, ad esempio, ha sempre assicurato che il servizio “Nimbus” fornito a Israele non venga usato per “carichi di lavoro altamente sensibili, classificati o militari rilevanti per le armi o i servizi di intelligence”.

 Eppure, questa posizione è stata di fatto smentita dal “Direttore generale della Direzione nazionale per la sicurezza informatica “del governo israeliano, “Gaby Portnoy”, il quale ha ammesso con una certa leggerezza che tale tecnologia ha permesso di “far capitare cose fenomenali durante i combattimenti”.

(Walter Ferri).

 

 

 

 

 

Gaza, i grandi nomi del tech sono

quasi tutti coinvolti nella guerra.

Wired.it – (12-02-2025) – Philip Di Salvo – ci dice:

Due inchieste giornalistiche hanno aiutato a delineare come le aziende tecnologiche Usa siano tra i maggiori fornitori di servizi per le forze armate israeliane

I bombardamenti nella Striscia di Gaza da parte delle forze armate israeliane.

Gaza, nelle scorse settimane due inchieste giornalistiche hanno raccontato dettagli ulteriori sui rapporti, molto stretti, tra aziende tecnologiche statunitensi e l’esercito israeliano, le “Israel Defense Forces” (Idf) e le sue operazioni nella Striscia.

Le due inchieste, pubblicate rispettivamente dal Washington Post e da un consorzio di testate di cui fanno parte il “Guardian”, “Drop Site News”,” +972 Magazine” e “Local Call”, hanno in particolare rivelato ulteriori dettagli sul coinvolgimento di” Google” e” Microsoft”.

 

Le due inchieste sono entrambe basate su leak – fughe di notizie – di documenti e raccontano come, dall’inizio dei bombardamenti nella Striscia di Gaza, la richiesta da parte dell’Idf per i loro servizi si sia rafforzata e come le Big Tech abbiano risposto intensificando le proprie forniture di servizi cloud e di intelligenza artificiale, spinte anche da ragioni di concorrenza tra di loro.

 

Che Google e Amazon siano alcune tra le maggiori fornitrici di servizi tech al governo israeliano e alle sue autorità militari non è notizia nuova.

Già almeno dal 2021 le due aziende sono coinvolte in “Project Nimbus”, un accordo commerciale da 1,2 miliardi di dollari che prevede proprio la fornitura di queste tecnologie.

Microsoft e Oracle persero allora quell’appalto, ma le rivelazioni di queste settimane confermano quanto anche l’azienda di Redmond sia coinvolta direttamente in queste attività.

Le due inchieste raccontano in particolare come i prodotti di “Google” e “Microsoft” siano stati utilizzati a Gaza a partire dall’ottobre del 2023 e quanto, di conseguenza, il loro utilizzo sia direttamente coinvolto nel genocidio nella Striscia.

La firma di “Project Nimbus” venne accolto con proteste da parte dei dipendenti di “Google e Amazon”, proteste che si sono riaccese dopo l’inizio della guerra a Gaza nel 2023.

Alle proteste sono seguiti licenziamenti.

 

Google e l'IA.

Il “Washington Post “ha potuto rivelare come l’ “Idf” abbia accesso alle tecnologie AI di Google sin dai primi giorni dell’offensiva nella Striscia.

 In particolare, come emerge dai documenti ottenuti dalla testata statunitense, l’esercito israeliano avrebbe richiesto di poter espandere il suo accesso a “Vertex,” la piattaforma di Google per lo sviluppo di applicazioni di IA.

Le autorità militari avrebbero, si legge sempre nel reporting del “Wash-Post”, fatto pressione su Google minacciando il colosso tecnologico di rivolgersi alla concorrenza, ovvero ad Amazon, per il medesimo servizio.

 A novembre 2024, a un anno dall’inizio della distruzione di Gaza, l’Idf avrebbe invece richiesto accesso a “Gemini”, la chatbot di IA generativa di Google, al fine di poter sviluppare un suo proprio strumento di intelligenza artificiale per l’analisi di documenti di vario tipo.

 

(Grande Giove: perché per” Federico Faggin” l'intelligenza artificiale non potrà mai superare l'uomo).

 

L'inchiesta del Washington Post non ha potuto costruire l’effettivo utilizzo finale delle tecnologie di Google da parte dell’esercito israeliano.

Parlando a una conferenza nel 2024, però, un portavoce del “National cyber directorate del governo israeliano” aveva dichiarato che “grazie al cloud pubblico di “Nimbus “stanno avvenendo cose fenomenali durante i combattimenti e queste cose giocano una parte significativa per la vittoria”.

Più recentemente - e dopo la pubblicazione dell'inchiesta del “Washington Post” - Google ha annunciato un cambiamento delle sue policy in termini di utilizzo dei suoi prodotti di AI in contesti militari.

“Alphabet” ha infatti riscritto le sue linee guida su come utilizzerà l'IA, rimuovendo una sezione che in precedenza escludeva le applicazioni che erano “probabilmente destinate a causare danni”, come scrive la “BBC”.

 

Microsoft, OpenAI e il ruolo del cloud.

L'inchiesta incentrata su Microsoft, invece, mostra quanto diffusamente anche i servizi cloud e IA dell’azienda sarebbero utilizzati dall’esercito israeliano e come il loro utilizzo sia aumentato nei momenti più cruenti della guerra a Gaza.

Come scrivono le testate che hanno firmato l’inchiesta, basata su documenti commerciali del ministero della Difesa di Tel Aviv e informazioni della filiale israeliana di Microsoft, a partire da ottobre 2023 l’azienda avrebbe stretto nuovi contratti per almeno 10 milioni di dollari per servizi infrastrutturali e di storage e per il supporto tecnico.

 

In particolare, si legge sul “Guardian”, mentre l’Idf userebbe servizi Microsoft per scopi amministrativi di ufficio quotidiani, i documenti mostrano anche come “Azure”, il servizio cloud di Redmond, sia utilizzato invece da diverse unità militari e di intelligence per il sostegno ad attività di combattimento e di intelligence.

L’esercito israeliano avrebbe anche accesso “su larga scala” a “ChatGPT-4”. Non è chiaro in che modo l’”IA di OpenAI”, di cui Microsoft è una delle principali finanziatrici e partner, sia utilizzata in questo contesto.

 

Di sicuro, proprio recentemente e piuttosto sottovoce, la stessa “OpenAI” ha cambiato le proprie policy in termini di collaborazione con clienti militari e di intelligence, annacquando le limitazioni fino a quel momento in essere.

Fino allo scorso gennaio, infatti, l’”azienda di Sam Altan” dichiarava come i suoi prodotti non potessero essere utilizzati per “lo sviluppo di armamenti”.

 Come ha scritto” The Verge,” in seguito a questo cambio di policy, “OpenAI” ha già annunciato una partnership con “Andruil”, uno dei maggiori produttori di tecnologie di difesa statunitensi, per fornire servizi all’esercito Usa.

 Secondo l’inchiesta di “Guardian,” Drop Site News, +972 Magazine e Local Call, dall’annuncio del cambio di policy, anche l’utilizzo della “suite di prodotti Azure OpenAI” da parte dell’esercito israeliano ha iniziato a crescere in modo significativo.

 

Secondo le analisi incluse nell’inchiesta, il consumo dei servizi di cloud storage Azure nei primi mesi della guerra a Gaza sarebbe cresciuto del 60%.

La suite machine learning di Azure, invece, avrebbe fatto registrare una crescita nell’utilizzo di circa 64 volte, scrive sempre il Guardian rispetto a prima dell’inizio dei bombardamenti a Gaza.

Anche in questo caso, non è chiaro in che modo l’Idf abbia impiegato le soluzioni di intelligenza artificiale di Azure, ma dai documenti emerge un utilizzo di strumenti avanzati per la traduzione e la trascrizione automatica del parlato.

Alcuni dettagli sono però emersi nei mesi scorsi.

 Inchieste precedenti, risalenti all’estate del 2024, illustravano come i servizi di Amazon per lo “storage nel cloud “fossero utilizzati da Israele per via della loro “capacità esponenziale” che consente all'esercito di avere una “memoria infinita per conservare informazioni di intelligence su sostanzialmente chiunque a Gaza”.

 

Le due nuove inchieste giornalistiche raccontano un pezzo ulteriore di come le tecnologie e i servizi di alcune tra le maggiori aziende Big Tech siano coinvolti nella guerra a Gaza che ha, fin qui, causato la morte di oltre 46mila persone.

Sempre nel 2024 erano emersi i dettagli di come l’Idf utilizzi l’intelligenza artificiale, e un sistema chiamato “Lavander “in particolare, per individuare potenziali target dei suoi bombardamenti, e come circa 37mila persone sarebbero state così indicate come potenziali obiettivi nella Striscia.

 Gli utilizzi dell’IA nella guerra sarebbero però molto più ampi e Gaza ha riacceso non a caso il dibattito sui “killer robot” e sull’automazione della guerra e degli armamenti.

 

La corsa agli armamenti e il ruolo dell'IA.

Il ruolo delle Big Tech più note, i cui prodotti fanno parte anche della nostra quotidianità, è sotto osservazione da molto tempo.

La guerra a Gaza è però il caso in cui il ruolo centrale delle infrastrutture digitali si è visto in modo più evidente.

L’ascesa tangibile dell’AI ha nel frattempo acceso l’interesse degli eserciti – di Israele ma anche nel resto del mondo – per queste tecnologie, rendendo progressivamente il ruolo di Big Tech più importante.

 Secondo un paper di “Roberto J. González”, pubblicato dal “Watson Institute for International and Public Affairs” della “Brown University”, “tra il 2019 e il 2022, le agenzie militari e di intelligence degli Stati Uniti hanno assegnato contratti a grandi aziende tecnologiche per un valore complessivo di almeno 53 miliardi di dollari”.

 

Le Big Tech sono coinvolte nelle attività militari già da un bel po' di tempo e hanno fornito, ad esempio, servizi cloud su larga scala”, spiega “Elke Schwarz”, professoressa di “Teoria politica alla Queen Mary University “di Londra, raggiunta da Wired per un commento sulle inchieste al centro di questo articolo.

Schwarz, oltre a svolgere ricerca sull’etica delle tecnologie belliche, è parte del coordinamento della campagna “Stop Killer Robots”, che si batte per la messa al bando degli armamenti automatizzati.

“Il Pentagono ha diviso il suo contratto cloud tra Amazon, Oracle, Google e Microsoft.

Altre aziende tecnologiche hanno fatto pressioni in modo aggressivo per ottenere contratti con organizzazioni della difesa, tra queste, Palantir, Anduril e SpaceX”, spiega ancora Schwarz.

 “Ognuna di queste aziende è diventata un’attrice significativa nel panorama della difesa, e le recenti indagini suggeriscono che sia Google che Microsoft siano fornitori di servizi di rilievo per le forze di difesa Israeliane”.

Le aziende al centro delle ultime inchieste non sono però le uniche a essere coinvolte nelle operazioni militari di Israele e nella strage in atto a Gaza, sospesa ora da un fragilissimo cessate il fuoco.

“Palantir, ad esempio, si è espressa in modo piuttosto esplicito a favore di Israele. Non è chiaro fino a che punto i suoi prodotti siano stati acquisiti dall'Idf, ma ci sono segnalazioni di alcuni contratti con le forze armate israeliane”, spiega ancora Schwarz riferendosi all’iper controversa azienda di data mining e sorveglianza fondata da “Peter Thiel”.

Anche aziende italiane sono fornitrici di servizi di intelligence a Israele.

 

Negli ultimi cinque anni, nel contesto di una più ampia corsa agli armamenti tecnologici e alle infrastrutture digitali, spiega “Elke Schwarz”, si è aggiunto anche l’interesse per l’IA, generativa e non, i cui principali fornitori e sviluppatori sono proprio le Big Tech:

 “Sempre più spesso, le aziende vendono i loro” large language model “(Llm) ai militari.

Microsoft, insieme a OpenAI, sta vendendo i suoi “Llm” alle forze armate; Meta (Facebook) ha collaborato con “Scale AI” per sviluppare “Defense Llama” pensato per le organizzazioni di difesa, e” Palantir” ha il proprio “sistema di tipo LLM” orientato alla difesa.

Dato che gli “Llm” sono noti per generare allucinazioni, questa spinta commerciale presenta problemi significativi”.

Il potere di Big Tech e la sua capacità tecnica e infrastrutturale rende poi queste aziende sostanzialmente insostituibili per quanto riguarda i servizi cloud:

“Ritengo che le queste aziende detengano una sorta di oligopolio in questo settore”, chiosa “Schwarz.”

 

 

 

 

 

I colossi tech e dell’IA americani

si allineano alla Difesa.

Aliseoeditoriale.it - Fabio Santamaria – (27 Gen. 2025) – ci dice:

 

Da “Palantir” ad “Anduril”, passando per “OpenAI”, le nuove aziende tech minano il monopolio degli storici contractor del Pentagono.

Ė noto che le compagnie tecnologiche statunitensi offrano servizi al Dipartimento della Difesa.

Le forniture maggiori riguardano l’archiviazione remota in cloud e l’analisi dei dati, che negli anni è stata aggiudicata a Microsoft, Amazon e, salvo poi tirarsi indietro, anche a Google.

L’incidenza dei contratti con il governo sul loro volume d’affari è comunque relativamente limitata.

Diverso è per chi mette a disposizione le proprie capacità in via quasi esclusiva alle strutture statali.

 È il caso di Palantir e Anduril, che stanno negoziando con altri concorrenti per partecipare a gare d’appalto del Pentagono come consorzio.

L’intento è acquisire una quota crescente delle commesse e creare una nuova generazione di produttori, smantellando l’oligopolio dei contractor storici come “Lockheed Martin”, “Rtx” e “Boeing”.

Le due società, insieme alla più celebre “SpaceX” di Elon Musk, sono l’emblema

 del nuovo corso che unisce il settore tecnologico al complesso militare-industriale.

 

“Palantir”, specializzata in big data, lavora da tempo con le agenzie governative e l’anno scorso, a quattro anni dalla quotazione, è entrata nell’ “S&P500”, il maggior indice finanziario statunitense.

“Anduril” invece realizza sistemi autonomi, robotica e droni.

 Il loro legame è addirittura nel nome.

Nel 2017 il fondatore di Anduril, “Palmer Luckey “(creatore degli Oculus VR di Facebook), l’ha chiamata così ispirandosi ai romanzi del “Signore degli Anelli”, come aveva fatto “Peter Thiel” con “Palantir “nel 2003.

 

Nel campo, aumentano le cooperazioni, specialmente con progetti di intelligenza artificiale.

Da quando OpenAI ha ritirato il divieto all’uso militare dei propri strumenti, si è unita ad Anduril per occuparsi di minacce aeree.

Perfino un altro rivale si è mosso:

“Anthropic,” una startup fondata dall’ex vice presidente della ricerca di OpenAI, “Dario Amodei” (di origini italiane).

 I suoi modelli Claude, ospitati sui server Amazon, sono utilizzati in accordo con Palantir dalle agenzie di intelligence.

 

Non solo Musk, l’ascesa di “Peter Thiel”.

Thiel nasce a Francoforte nell’allora Germania Ovest e si laurea in filosofia negli Stati Uniti.

È co-fondatore di PayPal, ed è tra i primi finanziatori di Facebook.

 Insieme a Musk è fra i maggiori rappresentanti della cosiddetta “PayPal Mafia“, la rete economico-finanziaria che poi ha reinvestito in altre imprese di successo.

 

Thiel, ancor più di Musk, ha un rapporto profondo con l’amministrazione Trump. Oltre a esporsi apertamente a favore del taycoon già nel 2016, è anche il primo sostenitore del suo “Vicepresidente J.D. Vance”.

 Quest’ultimo ha lavorato per “un fondo di venture capital” di Thiel, prima di lanciare il proprio e dargli ancora una volta un nome ispirato all’immaginario di Tolkien (curiosa passione in comune alla destra italiana).

 

Sulla scia del successo della sua autobiografia e del film “Hillbilly Elegy,” viene eletto senatore dell’Ohio alle elezioni di metà mandato del 2022, con una campagna finanziata proprio dal suo mentore “Thiel”.

Peter Thiel al Comitato Nazionale Repubblicano nel 2016.

Anche “Meta” fa touchdown.

Anche Zuckerberg ha aperto all’uso del suo modello Llama per applicazioni di sicurezza nazionale.

L’annuncio è arrivato poco dopo la notizia che ricercatori cinesi avevano usato una versione di” Llama”, che è open source, per sviluppare applicativi utili all’”Esercito Popolare di Liberazione”.

 

Per questo cresce la penetrazione di figure con specifiche competenze di sicurezza, quali alti ufficiali e funzionari, ai vertici di queste società.

 L’importanza strategica del ramo tech non è legata solo all’informazione, ma si materializza nella dimensione fisica dei data center, dei cavi sottomarini e dei satelliti.

Zuckerberg, nonostante il rapporto con Thiel in Facebook, era malvisto da Trump.

Ora cerca di ingraziarsi l‘amministrazione repubblicana con una forte attività di lobbying a Washington.

Allo stesso modo di tanti altri, va a Mar-a-lago in pellegrinaggio, finanzia la cerimonia di insediamento presidenziale e in segno di favore elimina il fact-checking dalle sue piattaforme.

Come detto, non è l’unico:

 fra gli altri Sam Altman di OpenAI e Jeff Bezos, dopo aver bloccato qualsiasi endorsement sul suo Washington Post, è andato in Florida dal Presidente eletto. Tutti loro hanno in comune l’essere avversari anche del patron di Tesla, chi sul fronte social, chi sull’AI e chi nello spazio.

 

A questo punto ci si chiede se si imporrà l’ideologia economica di Thiel, strenuo difensore dei monopoli.

 Dalla legge Sherman a fine Ottocento, le imprese di rilievo hanno sempre dovuto vedersela con l’antitrust, dalla Standard Oil a inizio secolo scorso, fino a Microsoft negli anni Novanta.

Più volte il potere politico ha chiamato davanti al Congresso capitani d’impresa per questioni di monopolio o di sicurezza, come capitato a Bill Gates o allo stesso Zuckerberg.

 

Tre data center di Amazon Web Services (AWS) con un quarto in costruzione.

La sfida della sicurezza nazionale ai tempi dell’AI.

C’è chi vede con fastidio la crescente influenza della rete di rapporti di figure quali Thiel o Musk, che nonostante alcune divergenze, si stanno ritagliando un ruolo sempre più importante.

Simboli di un’industria avanzata che ormai da tempo ha superato i confini della California.

Musk vuole fare politica sia per consolidare la sua posizione, sia perché i settori in cui opera sono fortemente regolamentati e la tecnica corre più veloce della regolamentazione.

 In più è stato incaricato di guidare un dipartimento per l’efficienza e il Pentagono è sicuramente nel mirino della riduzione di spesa.

Il primato di “SpaceX “nella riutilizzabilità del razzo, anche in ambito militare con il lancio di satelliti, ha già soppiantato i vecchi appaltatori per sofisticazione e per convenienza economica.

I committenti tradizionali dovrebbero essere incentivati a collaborare con attori emergenti della tecnologia, così come sta avvenendo nella Silicon Valley in senso allargato.

Infatti i colossi tech investono in intelligenza artificiale per mantenere la loro primazia.

Ha cominciato Google rilevando “Deep Mind.”

Per contrastarla, Musk ha dato vita a OpenAI, non riuscendo a portarla sotto Tesla, e Altman ha aperto a Microsoft.

“Meta” ha ideato il proprio modello e Amazon ha investito in “Anthropic”.

 

Questa attività ha bisogno di grandi capitali per i centri di elaborazione dati (sparsi soprattutto tra Virginia e Texas) e quindi di queste grandi aziende.

Sono loro ad avere impianti del genere, riforniti da “Nvidia” o altri concorrenti per avere capacità di calcolo, che è il fattore cruciale.

 

A indicare la direzione della nuova presidenza, nemmeno un giorno dopo l’insediamento è arrivato l’annuncio di un investimento fino a 500 miliardi per formare una joint venture di nome “Stargate” tra “OpenAI”, “Oracle e “Soft Bank”.

 La promessa è di generare 100mila posti di lavoro e limitare l’esportazione di chip per frenare anche in questo comparto l’ascesa della Cina come potenza globale.

Nessuno realizza da solo le infrastrutture perché quest’industria è caratterizzata da profonde interconnessioni.

Oltretutto, non bisogna mai dimenticare l’aspetto materiale e non solo virtuale di questi sistemi.

Perciò, oggi più che mai, è diventato importante analizzare, sotto la lente della sicurezza, le filiere industriali tecnologiche e garantire che non ne sia minacciata l’integrità da soggetti esterni ostili.

 

 

 

 

Cosa sta succedendo tra le Big Tech

e l’industria della Difesa Usa.

 Formiche.net - Riccardo Leoni – (10/02/2025) – ci dice:

 

Le startup tecnologiche come “Palantir”, “Anduril” e “SpaceX” stanno guadagnando terreno nel settore della difesa, mettendo sotto pressione i contractor storici del Pentagono.

Mentre l’amministrazione Trump valuta un cambiamento radicale nel regime degli appalti per le Forze armate, i mercati puntano sempre più sulle “emergine tech”. Tra innovazione, investitori in fermento e vecchie sfide irrisolte, il futuro dell’industria della difesa americana è a un bivio.

 

L’industria della Difesa statunitense potrebbe essere a un punto di svolta.

Con il processo di riarmo globale attualmente in corso, non è una sorpresa che i contractor della Difesa Usa — tra le società a più alta capitalizzazione del mondo — stiano vedendo una crescita positiva delle loro azioni.

 Tuttavia, è la performance delle startup innovative del settore a rappresentare la vera novità.

Aziende come “Palantir”, “Anduril” e “SpaceX”, altamente specializzate in soluzioni tecnologiche d’avanguardia, stanno vedendo crescere sempre più la loro influenza.

Le ragioni di questa rapida ascesa delle Big Tech nel settore della Difesa non sono imputabili unicamente alla rivoluzione portata dalle tecnologie emergenti dentro e fuori i campi di battaglia, ma hanno anche a che vedere con la strategia del “Dipartimento per l’efficientamento governativo” (Doge) guidato da Elon Musk e dalla fiducia degli investitori privati.

 

Gli appalti della Difesa negli Usa.

 

Negli ultimi decenni, gli appalti della Difesa statunitense si sono basati su “contratti cosiddetti Cost-plus”.

Tramite questo tipo di contratti, il governo rimborsa all’azienda appaltatrice tutte le spese sostenute per completare un progetto, oltre ad aggiungere un margine di profitto prestabilito.

Questo significa che l’azienda non corre rischi finanziari diretti, giacché tutte le spese vengono coperte, indipendentemente dall’efficienza con cui il progetto viene gestito.

 In un settore costantemente in evoluzione come quello della Difesa i costi di sviluppo non restano fissi e, anzi, la necessità di aggiornare le piattaforme con ogni ultimo ritrovato tecnico porta spesso a una loro crescita esponenziale, peraltro quasi impossibile da quantificare al momento dell’assegnazione dell’appalto.

Di conseguenza, sono nati i “contratti cost-plus”, per incentivare l’innovazione e non permettere che i timori sui costi portassero le aziende a lesinare sulla ricerca e sugli aggiornamenti.

Tuttavia, dall’altro lato della medaglia, questo ha anche portato alcuni programmi a raggiungere costi ai limiti del proibitivo, persino per il budget del Pentagono. Soprattutto in tempi recenti, questo ha portato i mercati a nutrire delle riserve nei confronti degli appaltatori della Difesa, accusati da alcuni di essersi adagiati sulla sicurezza fornita dai contratti cost-plus.

 

Le ipotesi sul taglio dei costi spingono in alto le big tech.

 

Ora, mentre la presidenza di Donald Trump punta a ridurre sensibilmente le spese del governo federale, il segretario alla Difesa, “Pete Hegseth”, si è detto favorevole a un nuovo regime di appalti tramite contratti “fixed-price “per ridurre gli sprechi.

 In modo diametralmente opposto ai “cost-plus”, i contratti “fixed-price” fissano un prezzo in anticipo e trasferiscono il rischio ai fornitori, svincolando il Pentagono da ogni obbligo di rimborso.

Per quanto, al momento, questa rimanga solamente una proposta, la prospettiva di un simile cambiamento è bastata a creare non poco scompiglio nel settore, soprattutto tra i contractor storici del Dipartimento della Difesa.

 “Percepiamo una grande paura da parte dei fornitori tradizionali”, ha affermato “Shyam Sankar”, Chief technology officer di Palantir.

 Secondo “Sankar” le nuove aziende emergenti, con i loro sistemi innovativi, rappresentano una minaccia per gli attuali fornitori di soluzioni software del Pentagono, i quali temono adesso la concorrenza delle emergine tech.

 

Vecchi problemi, nuove soluzioni?

 

La reintroduzione dei contratti “fixed-price”, già usati in passato come strumento per razionalizzare i costi della Difesa, potrebbe rivelarsi un’arma a doppio taglio.

Se da un lato l’abolizione dei “contratti cost-plus” promette di tagliare sprechi e inefficienze, aumentando quindi la fiducia degli investitori, l’assenza di garanzie di copertura potrebbe rivelarsi fatale per gli appaltatori.

Con un “contratto fixed-price”, un aumento imprevisto dei costi o un’eccessiva corsa al ribasso per aggiudicarsi l’appalto potrebbero portare i contractor a spendere più in progettazione di quanto guadagnerebbero dalle effettive forniture, e questo l’industria Usa lo sa bene.

In passato, sia negli anni 50 che negli anni 80, più di una società ha rischiato il fallimento a causa di dinamiche simili, portando in entrambi i casi a un ritorno agli “accordi cost-plus”.

 

Ciò che rende fiduciose le emergine tech è la rapidità dei propri processi e la natura dei cicli di sviluppo delle soluzioni software, più brevi e con un gap temporale ridotto tra progettazione e produzione.

Se nel settore ingegneristico tradizionale un dietrofront nello sviluppo può portare anche ad anni di ritardi, nel campo delle soluzioni software queste transizioni richiedono molto meno tempo e risorse per essere operate.

Tuttavia, la questione rimane ancora sul tavolo di “Hegseth” e, se il nuovo regime dovesse essere approvato, ci vorrà del tempo per capire se i nuovi player emergenti dell’industria della Difesa a stelle e strisce riusciranno a rendersi immuni dai problemi che hanno finora afflitto i loro concorrenti.

 

Biennaledemocrazia25, Risorse.

La longa manus delle Big Tech

sulla guerra.

 Futura.news.it - Anna Mulassano – (29 Marzo 2025) – ci dice:

 

Ad appena 80 anni dalla nascita del primo calcolatore elettronico, “Maniac”, prodotto dagli americani durante la Seconda guerra mondiale, ci troviamo immersi in un mondo completamente computerizzato.

 Come spiega “Juan Carlos De Martin”, professore di Ingegneria informatica al Politecnico di Torino, durante la lectio “Le Big Tech e la guerra” la vera computerizzazione del mondo è iniziata 25 anni fa, quando i computer sono diventati sufficientemente piccoli e connessi a Internet.

Questo processo è stato fagocitato da poche aziende, le Big Tech.

 

“Dario Guarascio”, professore di Politica economica all’Università La Sapienza di Roma, apre dunque la sua lectio al Polo del 900 parlando di una “storia di vecchie contraddizioni con una nuova veste tecnologica”.

I conflitti, infatti, sono direttamente collegati al potere economico.

E di potere economico, oggi, le Big Tech ne hanno eccome:

 sommandone la capitalizzazione in borsa si ottiene un valore che supera il Pil di Germania e Giappone, spiega Guarascio:

“Se guardiamo poi alle spese di sviluppo, ai brevetti e alle pubblicazioni scientifiche scopriamo che le Big Tech, de facto, detengono il controllo dell’evoluzione della frontiera tecnologica”.

Ma quali sono le cause che hanno consentito una tale concentrazione di potere economico e tecnologico e in così breve tempo?

“Il modello di business delle Big Tech – spiega Guarascio – è legato al nostro consenso alla profilazione dei dati.

 Per le piattaforme, i dati sono un vero e proprio bene, a esempio per la targhetizzazione della pubblicità.

La digitalizzazione della vita ci parla anche di un processo innato al capitalismo, vale a dire la mercificazione di qualsiasi cosa”.

 

Questa vita digitale riguarda tutti noi: i singoli individui, le aziende, gli Stati.

E proprio perché ci riguarda tutti da vicino è diventata pressoché irrinunciabile:

“La microeconomia ci viene in soccorso e ci aiuta a spiegare questo meccanismo: quando i beni e i servizi hanno una natura reticolare, cioè numeri elevati di utenti, ne aumentano attrattività e costo percepito per l’abbandono di quel servizio”.

Esattamente quello che accade con le piattaforme:

le app di messaggistica istantanea, a esempio, sono oggi così diffuse che rinunciarvi implicherebbe disagi enormi per ciascuno di noi.

 

Quello che prende forma negli Stati Uniti dopo il crollo delle Torri gemelle l’11 settembre 2001 è un complesso militare-digitale:

“L’egemonia americana deve fare i conti con un sistema globalizzato e interdipendente in cui gli Usa sono più deboli del previsto”.

In questo contesto, tuttavia, gli apparati militari capiscono di avere al proprio fianco “soggetti con elevata capacità tecnologica, che possono diventare partner fondamentali:

quella tecnologia può essere usata per la sorveglianza, per le sanzioni, per gli omicidi targhettizati”.

 Le Big Tech, infatti, posseggono elementi infrastrutturali di cui il governo non può fare a meno e su cui esse avevano investito, in controtendenza rispetto alle grandi imprese.

Spiega “Guarascio”:

 “Non è una questione esclusivamente materiale:

quando si controlla un’infrastruttura, si creano delle competenze legate a quella singola organizzazione molto difficili da replicare.

 È così che si diventa partner irrinunciabili”.

 

Oggi, infatti, le tecnologie delle Big Tech sono duali:

“Sono vitali nel mercato privato e sempre di più anche in ambito bellico, per la sorveglianza, la repressione e i cyber-attacchi.

Le tecnologie di intelligenza artificiale (IA) si innestano sul cloud, sono dietro gli armamenti di nuova generazione senza il controllo dei quali non si vince una guerra”.

L’intelligenza artificiale, tuttavia, segna una discontinuità rispetto all’inizio dell’era della rete internet:

la conoscenza di base era, allora, comprensibile per il settore pubblico, che aveva contribuito allo sviluppo di quelle tecnologie.

Oggi, invece, gli elementi fondamentali dietro l’IA generativa sono nelle mani delle Big Tech.

Questo rapporto, tuttavia, è di “mutua dipendenza”:

anche le Big Tech traggono beneficio, soprattutto in periodi di crisi economica, dagli elevati flussi di spesa militare per il digitale.

“Inoltre, i profitti che le Big Tech ottengono sui mercati civili non sono nemmeno paragonabili a quelli con il settore militare, che inoltre apre loro le porte all’accesso a dati sensibili, le rende titolari di infrastrutture vitali” specifica Guarascio.

La mutua dipendenza non è però solo economica, ma anche strategica:

 “Come lo Stato non può fare a meno delle Big Tech, che sono la longa manus dell’apparato militare, così anche per le Big Tech è importante il rapporto con la politica.

Basti pensare a quando, una settimana dopo l’inizio del conflitto russo-ucraino, l’allora presidente degli Stati Uniti, “Joe Biden”, chiese all’Unione europea di attenuare i vincoli del “Data protection regulation” e riattivare il trasferimento automatico dei dati verso gli Usa”.

 

Tutto questo accade, per altro, in aperta contraddizione con il principio ideologico sul quale erano nate le Big Tech:

“Le piattaforme che hanno costruito la loro origine ideologica millantando distanza dal potere pubblico, soprattutto quello connesso alle attività militari, si sono messe l’elmetto e sono completamente attive nei territori di guerra”.

 Per “Guarascio “però la partecipazione ai conflitti non è solo un modo per acquisire centralità, ma anche per usufruire di un contesto in cui testare e migliore le proprie tecnologie.

“E questo non accade per le aziende che non si trovano in questi contesti bellici”.

 

 

 

 

Davanti all’intelligenza artificiale

la politica non può restare neutrale.

Editorialedomani.it – (01 luglio 2024) - Nicola Lacetera, Mattia Marasti e Silvia Pareschi-ck dicono:

 

La politica non può essere neutrale davanti all’Intelligenza artificiale, e deve piuttosto rivendicare un ruolo fondamentale di guida e un approccio proattivo, per anticipare e correggere pericolose distorsioni prima che sia troppo tardi.

Questo può richiedere interventi sostanziali.

Nel 2012, la compagnia farmaceutica “Merck” ha organizzato una competizione per l’individuazione di molecole che potessero diventare la base di nuovi farmaci, partendo da una banca dati che conteneva informazioni sulla struttura di migliaia di molecole.

 

A sorpresa, il gruppo concorrente vittorioso (quello più accurato nell’identificazione delle molecole più promettenti) era composto da dottorandi dell’università di Toronto, con la supervisione del professor “Geoffrey Hinton”, nessuno dei quali aveva conoscenze di biochimica: erano tutti informatici.

Il loro algoritmo si basava “semplicemente” su un approccio statistico che individuava regolarità senza particolari basi teoriche, e sfruttava la banca dati per determinare quale molecola avrebbe avuto maggior probabilità di successo.

Solo pochi anni dopo,” Deep Mind”, un’impresa controllata a “Alphabet” (Google), ha introdotto “Alphafold”, un algoritmo che, di nuovo su basi quasi esclusivamente statistiche, riesce a determinare la struttura delle proteine a partire da sequenze di amminoacidi con straordinaria precisione.

Le implicazioni di questi risultati per il benessere e la salute degli individui sono enormi.

 

Questi algoritmi rappresentano ciò che oggi chiamiamo “Intelligenza artificiale”  (IA).

 In alcuni casi, sono conosciuti dagli esperti del settore da quasi cento anni.

 Ma solo negli ultimi decenni, grazie all’enorme accumulazione di dati in forma digitale e alle capacità di calcolo dei computer, hanno mostrato le loro prestazioni strabilianti in vari ambiti.

In particolare, l’approccio basato sull’utilizzo di reti neurali – il cosiddetto “deep learning” – è diventato dominante grazie alle sue applicazioni nel campo della salute, del riconoscimento di immagini, dell’addestramento di robot.

 

Oltre alla capacità predittiva di questi algoritmi, negli ultimi anni si è aggiunta quella generativa.

Attraverso semplici istruzioni in linguaggio naturale fornite dall’utente (e non tramite un linguaggio di programmazione), L’IA generativa può fornire, ad esempio, spiegazioni per qualsiasi argomento, ma anche produrre programmi informatici, traduzioni, email, articoli, immagini.

 

(Tecnologia.

Apple dichiara guerra all’Ue: così gli europei potrebbero ritrovarsi senza l’ultima versione di Siri.

“Daniele Erler”).

Troppo entusiasmo?

È davvero difficile, di fronte a queste meraviglie tecnologiche, non unirsi al vasto gruppo di entusiasti (osservatori, politici, accademici) che evidenziano l’indubbia positività di questi progressi, vedono nella loro crescente adozione un importante motore di crescita e prosperità, e promuovono un “laissez faire” regolatorio che ne minimizzi restrizioni all’uso e favorisca sempre più applicazioni.

Ci sono, tuttavia, molte ragioni per cui sarebbe bene riflettere prima di cedere a un entusiasmo incondizionato.

Ci limitiamo qui a tre punti essenziali.

Il primo è quello più discusso: l’impatto dell’IA sul lavoro. Nel recente saggio “Potere e progresso”, gli economisti “Daron Acemoglu” e “Simon Johnson” sostengono che l’impatto dell’IA sull’occupazione dipenderà dal tipo di sviluppo tecnologico che le imprese e la società in generale sceglieranno.

In alcuni casi, come nella medicina o l’educazione scolastica, l’IA può contribuire a migliorare diagnosi e terapie, oppure la definizione di piani di apprendimento personalizzati.

La presenza umana rimarrebbe però indispensabile.

L’automazione industriale tramite robot o l’uso di assistenti virtuali hanno invece effetti sostitutivi del lavoro umano, senza, almeno finora, offrire un servizio sensibilmente migliore.

Lo stesso vale per lavori che i modelli generativi possono compiere senza l’assistenza umana, come la scrittura e la produzione di immagini.

 L’evidenza mostra che la tendenza sostitutiva e banalizzante sta prevalendo su quella integrativa del lavoro.

Non solo: se gli effetti della robotica si concentravano sui lavori a bassa specializzazione, quelli dell’IA più in generale colpiscono anche i lavori ad alta specializzazione.

Non mancano poi gli effetti di queste tecnologie sulla sorveglianza dei lavoratori, andando a ledere il diritto alla privacy e con esso la qualità del lavoro stesso.

 

Tecnologia.

Miniere di litio e discariche: quanto inquina l’intelligenza artificiale.

La qualità del dibattito.

Il secondo tema riguarda la qualità dell’informazione e del dibattito pubblico.

 Il potere predittivo dell’IA serve alle imprese per definire, grazie ai nostri dati personali, i prodotti a cui siamo più interessati e le notizie a cui più presteremo maggior attenzione.

I social media stimolano traffico e coinvolgimento, e quindi ricavi pubblicitari, personalizzando i contenuti e stimolando sensazioni che più spingono alla partecipazione attiva, come identità, rabbia e odio.

 

Si formano così “casse di risonanza” in cui riceviamo soprattutto informazioni che confermano le nostre credenze, senza stimolare lo spirito critico. Ed è proprio questa polarizzazione che poi stimola la creazione di contenuti falsi, ma verosimili, che giornali e avversari riprendono per screditare politici e attivisti.

Questa tendenza fornisce terreno fertile a chi, come la destra radicale e illiberale, specula sull’odio e le divisioni, logorando progressivamente le nostre democrazie.

 

L’IA avrà sicuramente un notevole impatto, infine, anche sulla nozione più generale di cultura.

 Gli algoritmi generativi non fanno altro che ricombinare nozioni già esistenti, sfruttando (spesso gratuitamente) le opere dell'ingegno altrui.

In questo modo si riduce lo spazio per l’originalità individuale, che nella storia umana è sempre stata alla base non solo dell’arte, ma anche delle nuove scoperte scientifiche.

Il rischio è quello di un livellamento verso il basso della qualità dei prodotti culturali per raggiungere la cosiddetta “qualità accettabile”:

niente di straordinario, tutto uniformemente mediocre, e nulla che ci stimoli a riflettere mostrandoci qualcosa di insolito e inaspettato.

 Una fruizione così personalizzata di prodotti culturali potrebbe avere anche un impatto negativo sulla dimensione sociale, di condivisione e confronto della cultura.

Verrebbero meno occasioni di “esperienze condivise”, come le definisce il giurista “Cass Sunstein “nel suo #republic, che sono fondamentali per la convivenza pacifica e la coesione sociale.

 

Anticipare e correggere.

La pervasività e velocità di sviluppo delle applicazioni dell’IA sono tali da rendere questa tecnologia molto più di un mezzo “neutro”, un fattore di produzione applicabile a tanti ambiti come è stata ad esempio l’energia elettrica un secolo fa.

 

Per usare le recenti parole di papa Francesco, si tratta di uno strumento «affascinante e tremendo».

Sempre più osservatori, anche tra quelli inizialmente più entusiasti, vedono ora una traiettoria di sviluppo di queste tecnologie che favorisce il capitale sul lavoro, indebolisce le democrazie rinforza regimi illiberali e intrusivi, e banalizza la produzione culturale.

La politica quindi, a sua volta, non può essere neutrale, e deve piuttosto rivendicare un ruolo fondamentale di guida e un approccio proattivo, per anticipare e correggere pericolose distorsioni prima che sia troppo tardi.

Questo può richiedere interventi sostanziali.

 

Lo “Ai Act” dell’Unione europea, per esempio, limita certi usi dell’IA al fine di proteggere la privacy e limitare la diffusione di contenuti contraffatti.

 Un’altra leva è la politica tributaria, come lo spostamento di parte dell’imposizione fiscale dal lavoro al capitale, che potrebbe disincentivare l’eccessiva sostituzione del lavoro umano con macchine e robot, o la tassazione dei proventi pubblicitari delle piattaforme online per ridurre il ricorso a modelli di business basati sulla pubblicità che quindi traggono beneficio da un uso dei social media più frenetico e meno critico.

Una maggiore influenza dei lavoratori e dei sindacati nelle scelte aziendali favorirebbe investimenti in tecnologie che meglio contemperino le esigenze di tutti i portatori di interesse.

Norme più stingenti sul diritto d’autore renderebbero più costoso l’utilizzo del lavoro creativo di altri per alimentare gli algoritmi, e di conseguenza più appetibile la ricerca del nuovo e inaspettato.

 

L’obiettivo, ovviamente, non è ostacolare processo innovativo e quindi la crescita economica.

Ma ogni rivoluzione tecnologica è sempre stata orientata dalla politica e dalla società, a volte in maniera casuale, ma più’ spesso attraverso un dibattito informato, plurale, pubblico e diffuso su eventuali costi e benefici.

 La celebre esortazione di “Spinoza” che recita «non disperarci, non detestare, ma comprendere», sembra particolarmente adeguata a definire la filosofia da adottare nell’affrontare le sfide e le opportunità dell’Intelligenza Artificiale.

 C’è da chiedersi se le nostre società e classi politiche saranno abbastanza mature (e libere) da seguirla.

(Nicola Lacetera, Mattia Marasti e Silvia Pareschi).

 

 

La pericolosa illusione della “democrazia artificiale”.

Iltascabile.com - Andrea Daniele Signorelli / Elon Musk – (19.2.2025) -ci dice:

Mentre Elon Musk porta avanti il suo golpe digitale sugli organi federali, c’è chi teme (e chi auspica) che l’intelligenza artificiale possa prendere il posto della politica.

(Andrea Daniele Signorelli è giornalista freelance, si occupa del rapporto tra nuove tecnologie, politica e società. Scrive per Domani, Wired, Repubblica, Il Tascabile e altri. È autore del podcast “Crash” - La chiave per il digitale.)

Nei piani di Elon Musk, quella a cui stiamo assistendo in queste settimane è soltanto la prima fase dell’azione di DOGE (Department Of Government Efficiency), il dipartimento per l’efficienza governativa da lui guidato e nato per volontà di Donald Trump.

Una prima fase che prevede di individuare “ridondanze” nell’amministrazione pubblica, nei ministeri e nelle varie agenzie governative,  tagliare fino a tre quarti dei lavoratori federali, accorpare o cancellare enti considerati inutili o dannosi (a partire da “USAID”, “United States Agency for International Development”, il braccio umanitario del “soft power statunitense”), diminuire drasticamente le normative che regolano la macchina pubblica e, nel complesso, arrivare a ridurre anche di duemila miliardi di dollari il bilancio governativo.

 

Già in questa prima fase – che ha messo nel mirino, oltre a “USAID”, anche il “ministero dell’Educazione”, gli uffici che sovrintendono ai programmi di retribuzione per i dipendenti federali e tantissimi altri – Elon Musk sta sfruttando i sistemi di intelligenza artificiale (AI, Artificial Intelligence) per identificare ciò che considera spese superflue, personale sovrabbondante e programmi federali sgraditi.

 Non tutto sta andando per il verso giusto:

al di là delle azioni giudiziarie che hanno temporaneamente bloccato, o almeno tamponato, alcune intemerate di Musk e del suo staff, sono stati segnalati casi in cui l’accetta del DOGE si è abbattuta su persone che – anche volendo aderire al 100% all’ideologia “anti-woke” che ne guida l’operato – non avevano fatto nulla per caderne vittime.

È il caso per esempio delle 100 persone che sono state messe in congedo amministrativo in seguito all’ordine esecutivo con cui Trump ha vietato ogni iniziativa federale nell’ambito “DEI” (Diversity, Equity, Inclusion).

 Come segnala il “Washington Post”, “la grande maggioranza delle persone messe in congedo si era iscritta a un singolo corso d’aggiornamento sulla diversità, molti di loro perché li aiutava a soddisfare un requisito professionale da più parti richiesto”.

 È quello che avviene quando si agisce freneticamente, sfruttando sistemi automatizzati e guidati da un cieco fervore ideologico.

Lo ha parzialmente ammesso lo stesso “Musk”, che ospite di Trump alla Casa Bianca ha affermato:

 “Alcune delle cose che farò saranno sbagliate e dovranno essere corrette.

Nessuno può avere una media perfetta. Tutti commettiamo errori.

 Ma agiremo rapidamente per correggere qualsiasi errore”.

 

Ma questo, come detto, potrebbe essere solo il primo passo di un piano che, se riuscirà a vedere la luce, avrebbe un altro obiettivo, esplicitato nell’ottobre 2024 in un paper pubblicato dal “think tank Foundation for American innovation” (molto vicino a Musk).

Nel secondo capitolo del paper, intitolato “Utilizzare l’intelligenza artificiale per ottimizzare le operazioni e ridurre la burocrazia”, si legge:

“La Casa Bianca dovrebbe emanare un ordine esecutivo incaricando l’Ufficio per la gestione del personale e le agenzie federali di esaminare e individuare opportunità per l’uso dell’AI da parte del governo federale al fine di semplificare la burocrazia, anche attraverso la riduzione della forza lavoro federale per le posizioni che possono essere automatizzate”.

In sintesi, Musk non sta impiegando l’intelligenza artificiale solo per identificare i costi superflui da tagliare.

L’obiettivo ultimo della nuova amministrazione statunitense è quello di sostituire i dipendenti federali (e la loro autonomia) con dei sistemi automatici.

Di rimpiazzarli con uno strumento che – ha affermato lo stesso Trump in un suo ordine esecutivo – “è privo di “bias” ideologici o di agende sociali ingegnerizzate” (un’affermazione, come vedremo tra poco, completamente sbagliata).

 

È l’utopia tecno-soluzionista.

Un sistema in cui, nella sua versione ultima, i sistemi di intelligenza artificiale vengono dotati di effettivo potere politico.

“Ciò che si sta cercando di automatizzare non sono le pratiche burocratiche, ma il processo decisionale democratico”, ha scritto “Eryk Salvaggio” su “Tech Policy”.

“La ratio è basata sul mito della produttività, secondo cui l’obiettivo della burocrazia è esclusivamente ciò che essa produce (servizi, informazioni, governance) e può essere isolata dal processo attraverso il quale la democrazia consegue questi fini:

dibattito, deliberazione e consenso”.

È l’utopia tecno soluzionista.

Un sistema politico in cui, nella sua versione ultima, i sistemi di intelligenza artificiale vengono dotati di effettivo potere politico e incaricati di identificare gli sprechi, gli errori, le storture e di individuare le politiche più adatte per conseguire determinati obiettivi, sfruttando la loro capacità di scovare in un istante correlazioni invisibili a occhio umano, analizzando una quantità di dati immensa e avvantaggiandosi dell’aura di oggettività che circonda una tecnologia a base statistica.

E se succedesse davvero?

Se realmente il processo decisionale politico venisse sostituito da un algoritmo in grado di individuare la strada più efficiente per conseguire determinati obiettivi (crescita economica, pareggio di bilancio, lotta all’evasione fiscale o qualunque altra questione complessa)?

 

Nell’opinione pubblica, questa ipotesi gode di un certo sostegno:

nel 2021, un sondaggio del “Center for the governance of change” aveva mostrato come il 51% degli europei fosse favorevole a ridurre il numero di parlamentari nazionali e a riallocare questi seggi a un algoritmo di intelligenza artificiale.

 Il sostegno era particolarmente alto in Spagna (66%), Italia (59%) ed Estonia (56%).

 Ma come funzionerebbe una cosa del genere?

Le possibili alternative sono parecchie:

 c’è chi ha proposto, come “Joshua Davis” di “Wired USA”, che gli elettori si rechino alle urne per votare un’intelligenza artificiale di centrosinistra o una di centrodestra, incaricandola di portare avanti nel modo più efficace possibile il programma delle forze che appartengono ai due schieramenti.

Il 51% degli europei si dice favorevole a ridurre il numero di parlamentari nazionali e a riallocare questi seggi a un algoritmo di intelligenza artificiale.

Un algoritmo-premier, quindi, che farebbe propri i valori e i programmi dello schieramento vincitore e valuterebbe in base a essi quali politiche perseguire, senza farsi condizionare dall’andamento dei sondaggi, dalle polemiche del giorno, dai mille timori che troppo spesso impediscono ai governi guidati dagli esseri umani di perseguire iniziative coraggiose.

 In alternativa, si potrebbe decidere di votare su una serie di questioni specifiche (L’Italia deve uscire dall’Europa? Dobbiamo chiudere i porti? Bisogna alzare il salario minimo?) e poi lasciare che sia un algoritmo a decidere la strada migliore per portare a termine questi obiettivi.

 In entrambi i casi, il metodo dell’intelligenza artificiale sarebbe basato sull’analisi di ciò che è avvenuto in passato, applicando le ricette politiche ed economiche che hanno funzionato in determinate situazioni e scartando quelle che già hanno dimostrato di essere fallimentari.

 Questa intelligenza artificiale imparerebbe quindi dagli errori e dai successi del passato per individuare le strategie politico-economiche più efficaci.

Un algoritmo, seguendo questa interpretazione, potrebbe non accettare di introdurre misure che rischiano di aumentare il già spaventoso debito pubblico italiano (che mette a repentaglio le generazioni future).

 Non solo: “Immaginate un presidente AI nel 2003.

Il software avrebbe analizzato decenni di report su “Saddam Hussein”, assorbito tutta l’intelligence a disposizione sulle armi di distruzione di massa e concluso che l’invasione dell’Iraq non avrebbe in alcun modo diffuso la democrazia”, ha scritto sempre” Joshua Davis”.

 

Oppure, come ha provocatoriamente scritto Yuval Noah Harari in Homo Deus (2016), potremmo anche smettere di andare a votare:

 “A cosa servono delle elezioni democratiche quando gli algoritmi sanno già come ogni persona voterà e quando conoscono anche le esatte ragioni neurologiche per cui una persona vota democratico e un’altra repubblicano?”.

 Potremmo allora saltare la fase elettorale, determinare “neurologicamente” cosa vuole la maggioranza e poi affidarci a una AI per realizzarlo.

 

È difficile prendere sul serio queste suggestioni.

Se anche un algoritmo sapesse già a che partito va la mia preferenza (cosa effettivamente probabile), quale sarebbe il vantaggio di farlo votare al mio posto?

E davvero qualcuno pensa che i politici italiani varino misure che hanno la conseguenza di far aumentare il debito pubblico senza rendersene conto?

Chi ha il coraggio di credere che l’invasione dell’Iraq sia realmente stata fatta per “diffondere la democrazia”?

In tutti i casi citati, avere un algoritmo al posto di un politico non servirebbe a nulla.

Nell’ipotesi di Davis, se una percentuale di persone votasse per misure – tagli o bonus fiscali – che rischiano di aumentare il debito pubblico, l’intelligenza artificiale non potrebbe fare altro che obbedire.

E magari, se fornito di tutte le motivazioni geopolitiche ed economiche che hanno portato i neocon a decidere che fosse conveniente per gli interessi statunitensi invadere l’Iraq, l’algoritmo arriverebbe alla stessa conclusione, cioè che mentire sulle armi di distruzione di massa e destituire con la forza Saddam Hussein fosse la scelta giusta.

 

Fino a oggi, i sistemi d’intelligenza artificiale in campo pubblico-politico sono stati utilizzati cedendo alla macchina ampia autonomia decisionale e sottoponendola a scarsa supervisione umana. In molti casi con risultati disastrosi.

Gli scenari (al momento fantascientifici) che analizzano i modi in cui un’intelligenza artificiale potrebbe assumere un ruolo politico solitamente si dividono, come analizzato in un paper di “Mark Coeckelbergh” e “Henrik Skaug Sætra” pubblicato su “Technology & Society”, in due filoni: i

l primo propone l’AI come strumento per migliorare i processi democratici esistenti, pur mantenendo la guida umana (è più o meno l’ipotesi di Davis).

Il secondo filone vede invece nell’intelligenza artificiale un agente con un ruolo decisionale centrale (una compiuta tecnocrazia), in grado di sostituire – o quantomeno di superare – molte delle procedure democratiche.

Nel primo caso, l’AI si limita a eseguire le politiche decise dagli esseri umani nel modo più efficiente possibile;

nel secondo, è l’AI a decidere le politiche.

Fino a oggi, l’utilizzo dei sistemi d’intelligenza artificiale in campo pubblico-politico si è avvicinato più al primo filone, cedendo però alla macchina ampia autonomia decisionale e sottoponendola a scarsa supervisione umana.

In molti casi, i risultati sono stati disastrosi.

Per esempio, un algoritmo impiegato dalle agenzie di collocamento polacche, introdotto nel 2014 dal governo di Varsavia, ha sistematicamente penalizzato – come documentato dalla “ONG Algorithm Watch” – persone con disabilità, madri single, chi proveniva da zone rurali e altre categorie ancora.

Poiché i sistemi d’intelligenza artificiale funzionano tutti su base statistica, l’algoritmo si era limitato a “notare” come certe categorie venissero raramente assunte in passato per svolgere determinate professioni, valutandole quindi negativamente.

L’algoritmo – che infatti il governo ha poi ritirato in fretta e furia – non faceva altro che discriminare chi viene già solitamente discriminato, celando però queste criticità dietro l’aura della “oggettività statistica”.

Una situazione simile si è verificata nel 2020 nel Regno Unito, ma in questo caso le vittime di quello che è passato alla storia come “A-Level Fiasco” erano gli studenti in attesa di ottenere il diploma superiore e di conoscere quale sarebbe stato il loro voto finale:

un fattore decisivo per entrare nelle università più prestigiose.

A causa del Covid, nel 2020 il Regno Unito ha però rinunciato a svolgere l’equivalente britannico dei nostri esami di maturità.

Al suo posto, il dipartimento governativo preposto (Ofqual, Office of qualifications and examinations regulation) ha deciso che a dare i voti agli studenti sarebbe stato un algoritmo.

Come spiega sul sito della “London school of economics” il professor “Daan Kolkman”, docente di sociologia informatica, i voti venivano assegnati dall’algoritmo sulla base di tre aspetti:

 la distribuzione storica dei voti in una data scuola nei tre anni precedenti, le previsioni degli insegnanti sul voto finale degli studenti e i voti da essi ottenuti in ogni materia.

 

Risultato?

Gli studenti delle scuole private più prestigiose hanno ottenuto voti finali più alti di quelli attesi dai loro insegnanti (e quindi una maggiore possibilità di accedere alle migliori università), mentre gli studenti delle scuole pubbliche hanno ottenuto voti in media più bassi di quelli attesi dagli insegnanti.

Le ragioni dietro a questa discrepanza sono molteplici e spesso è quasi impossibile interpretarle, visto che un algoritmo effettua miliardi di calcoli sulla base di innumerevoli variabili.

L’oggettività statistica dell’intelligenza artificiale è un mito, ed è noto da tempo quanto questi sistemi siano soggetti a discriminazioni e pregiudizi che colpiscono quasi invariabilmente minoranze e fasce già penalizzate della popolazione.

In questo caso specifico, si sa però che – a causa della struttura dell’algoritmo – se in una specifica scuola nessuno studente aveva ottenuto il voto massimo nei tre anni precedenti, diventava praticamente impossibile per qualunque studente di quella scuola riuscire a conquistarlo.

La causa di ciò era la priorità accordata dall’algoritmo, nella valutazione dei singoli studenti, ai risultati ottenuti in quella scuola nei tre anni precedenti.

 I risultati del passato venivano quindi scaricati sulle spalle di ragazze e ragazzi incolpevoli, spesso appartenenti alle scuole pubbliche dei quartieri più difficili (i cui voti medi sono spesso più bassi) e penalizzando così gli studenti che – nonostante le condizioni socioeconomiche – si erano impegnati.

Sono solo due casi che mostrano come l’oggettività statistica dell’intelligenza artificiale sia un mito e quanto questi sistemi siano soggetti, come noto da tempo, a discriminazioni e pregiudizi che colpiscono quasi invariabilmente minoranze e fasce già penalizzate della popolazione.

Se non bastasse, è facilissimo celare – anche di proposito – i nostri espliciti pregiudizi all’interno di un sistema algoritmico di valutazione, confidando nell’enorme difficoltà di rendersi conto di ciò che sta avvenendo.

È il caso per esempio del sistema, inaugurato sempre da Trump, che rifiuta i finanziamenti a ricerche accademiche che contengono parole chiave come, appunto, “bias”, “attivismo”, “diversità”, “inclusione” e tantissime altre.

In questo caso, l’assurda procedura voluta da Trump è emersa subito pubblicamente, ma è fin troppo facile immaginare un futuro in cui dei sistemi automatici rifiutano finanziamenti (o sussidi o mutui o lavori) sulla base di parole chiave che non sono note al pubblico, impedendo che a fare le necessarie valutazioni siano degli esseri umani, nella loro diversità d’opinioni e sensibilità.

La capacità di macinare enormi quantità di dati e di scovare correlazioni a noi invisibili può essere estremamente utile in ambiti cruciali, come la medicina o il contrasto alla crisi climatica.

Nel campo della governance, i limiti maggiori dell’intelligenza artificiale sono fondamentalmente tre:

utilizza dati relativi al passato per modellare il futuro (con il rischio di perpetuare pregiudizi e stereotipi), favorisce il campione statisticamente dominante (penalizzando le minoranze) e risulta spesso incapace di modificare la sua analisi a seconda dei differenti contesti (il sistema di Trump potrebbe per esempio bloccare tutte le ricerche che contengono la parola “inclusione”, ma in questo modo escluderebbe paradossalmente anche quei progetti che mirano a confutare l’utilità delle politiche d’inclusione).

Più in generale, il timore segnalato sempre da “Salvaggio” è che l’iniziativa di “Trump” e “Musk “punti a “togliere al Congresso la supervisione sulla spesa pubblica e sui programmi stabiliti per legge, affidandola a un sistema automatizzato”.

 Questo rappresenterebbe “il primo segnale che il ‘colpo di Stato’ dell’intelligenza artificiale è compiuto.

 Indicherebbe il passaggio dalla governance democratica all’automatismo tecnocratico, in cui gli ingegneri stabiliscono come dirottare i finanziamenti del Congresso verso gli obiettivi del potere esecutivo”.

E quindi, l’utilizzo dell’intelligenza artificiale nel campo della governance, della pubblica amministrazione e della politica è tutto da buttare?

In realtà, no.

La capacità di macinare enormi quantità di dati e di scovare correlazioni a noi invisibili può essere estremamente utile in ambiti cruciali, come la medicina o il contrasto alla crisi climatica, dove l’intelligenza artificiale può aiutare a elaborare i dati sul cambiamento delle temperature e sulle emissioni di anidride carbonica, a prevedere gli eventi meteorologici estremi, a ottimizzare l’utilizzo delle fonti energetiche, a monitorare gli oceani e non solo.

Soprattutto nei campi più scientificamente complessi, l’intelligenza artificiale può essere un alleato estremamente utile del decisore umano.

Per certi versi, se usata nel modo giusto e in alcuni ambiti specifici, l’intelligenza artificiale potrebbe proiettare la politica e la governance in una sua era “Money ball”.

 

Con questo termine si fa riferimento alla rivoluzione che, nel mondo dello sport (a partire dal baseball e poi anche nel basket, calcio, ecc.), è stata abilitata dall’informatica, permettendo di analizzare in maniera scientifica i dati relativi a giocatori, schemi ed efficacia di entrambi, dove prima allenatori e manager potevano affidarsi soltanto a istinto, osservazione ed esperienza.

A oltre vent’anni di distanza da questa rivoluzione sportiva, allenatori e manager non sono stati sostituiti da algoritmi informatici, ma li hanno resi parte del loro processo decisionale e di valutazione.

 

Perché l’intelligenza artificiale deve sostituire l’essere umano, quando è la combinazione dei due a dare i risultati migliori?

Trovare una sintesi tra opportunità e rischi dell’intelligenza artificiale nel campo della governance non è poi così complesso.

 Si tratta soprattutto di uscire da quella visione predominante che mette in contrapposizione intelligenza artificiale ed esseri umani, in cui la prima mira “naturalmente” a sostituire i secondi.

In realtà, le competenze statistiche della macchina e la sua potenza e rapidità di calcolo sono complementari alle nostre abilità, che sono invece astrazione e generalizzazione della conoscenza, buon senso, istinto (inteso come capacità di reagire in modo corretto a situazioni inedite) e altro ancora.

 Perché l’intelligenza artificiale deve sostituire l’essere umano, quando è la combinazione dei due – come dimostrato anche dagli “scacchisti centauri” di Garri Kasparov – a dare i risultati migliori?

E allora perché non è questa la strada intrapresa da Musk?

La ragione è abbastanza evidente:

 lo scopo non è migliorare l’efficienza della macchina amministrativa, ma distruggere la sua forma attuale e sostituirla con algoritmi ciecamente obbedienti.

 Spiega sempre “Salvaggio”:

 

Per raggiungere il suo obiettivo, qualsiasi intelligenza artificiale impiegata in questo contesto non dovrebbe necessariamente essere capace di prendere buone decisioni o di mostrare nuove capacità.

Le basterebbe essere considerata una concorrente plausibile al processo decisionale umano, quel tanto che basta per estromettere gli attuali decisori nell’amministrazione pubblica, ossia le persone che incarnano i valori e la missione dell’istituzione.

 Una volta sostituite, si perderebbe la conoscenza umana su cui l’istituzione si fonda.

L’obiettivo di Elon Musk e Donald Trump è quello di ridurre al minimo la macchina dello Stato e spalancare le porte del potere alle entità private.

 Da questo punto di vista, segnalano” Kevin De Liban” di “Tech Tonic” e “Alice Marwick” di” Data & Society” in un articolo su “Tech Policy” “ridurre la capacità di svolgere compiti governativi di base porterà a un calo della fiducia pubblica, il che a sua volta giustificherà ulteriori tagli e favorirà l’espansione della sfera privata”.

Realizzando, così, la distopia anarco capitalista di Trump e Musk.

 

 

 

 

Verso un mondo senza informatici?

L’AI mette a rischio

il governo degli algoritmi.

 Strisciarossa.it – (12 Gennaio 2024) - In Società - Bruno Gravagnuolo – ci dice:

 

Candy. Si chiama come la lavatrice il chief della IBM responsabile generale per la Intelligenza artificiale. Mathew Candy. Sostiene una cosa strana: inutili in futuro le lauree in informatica. Le macchine dice Mr. Candy sono già in grado di calcolare progettare, sviluppare.

Disegnare e comporre. Che bisogno c’è allora di programmatori e ingegneri?

E in effetti già oggi un cilindro stampante in 3D è come un forno.

Visualizzi, imposti e dopo 20 minuti viene fuori un tostapane oppure una scultura. Lo abbiamo visto con i nostri occhi:

dal nostro dentista che la usa per le protesi, ma faceva anche uscire alberi di Natale e piccoli o grandi Batman (quelli per me).

E che dice ancora Mr. Candy?

Che conteranno le soft skills, abilità creative morbide.

Idee e cura per le persone, servizi, modellamenti ad hoc dei prodotti.

E infine decor, arti visive, e dunque immaginazione.

Del resto, ma questo è sottinteso, le “chat box “saranno in grado di programmarsi da sé e di farsi e darsi le domande e le risposte giuste.

 

Non v’è dunque alcuna necessità di informatici visto che queste figure stesse in origine decisive sono ormai obsolete come il bigliettaio!

 C’è da riflettere, dunque, poiché c’è del vero in tutto questo. E la fonte del discorso è credibile: I’IBM in persona.

Due considerazioni intanto.

La prima: Tutto questo non significherà affatto fine del lavoro comandato.

Lo scriveva anche “Federico Rampinl” da “New York” il 27 dicembre scorso sul “Corriere della Sera”.

Anzi vi sarà espansione nei servizi, nella cura alle persone, nelle mansioni più umili e faticose, nei call center.

Al contempo, conoscerà una espansione proprio l’industria minuta dei piccoli pezzi, e quella estrattiva delle terre rare per l’elettronica, mentre crescerà uno smisurato esercito di riserva flessibile e fluttuante.

Di disoccupati, consumatori indebitati.

Immigrati.

Un Proletariato consumer e customer, fatto di sussidi e mini Jobs.

E la seconda notazione è questa: senza informatici saremo davvero più liberi?

Senza gente che inventa e gestisca e ripari gli algoritmi saremo davvero più sicuri e alleggeriti?

Penso proprio di no. Anzi.

Da un lato diminuirà il numero di coloro in grado di capire e governare la scienza matematica e quantistica di cui sono fatti i computers di nuova generazione.

 Dall’altro resteranno pochi e selezionati macchinisti al vertice, tra i quali in primo luogo i tycoon manager delle piattaforme capitalisti di nuovo conio.

 Capitalisti informazionali, non puri manager come nelle vecchie analisi del capitalismo manageriale alla” Burnham – Managerial”, ma capitalisti scienziati e informatici.

Versati nelle matematiche e nelle scienze, oltre che nelle stock option, e abili anche nel registro dell’immaginario estetico, nell’invenzione estetica della fruizione, che è poi la molla che oggi alimenta il circolo produzione-consumo.

 Vale a dire. Invenzione di oggetti…

Spazi, avventure, spettacolo, persino scenari di guerre stellari o viaggi al centro della galassia.

E questa nuova cuspide di tecno capitalisti finanziari della AI, non ha affatto bisogno di informatici o scienziati di massa.

E nemmeno di istruzione diffusa. Ha la sua di istruzione, e ha i suoi di tecnici informatici.

 In primo luogo loro stessi e poi gli staff orizzontali connessi.

 

L’impresa stessa è ormai un lab e gli estranei non sono “admitted”.

 E lì dentro che si progetta il futuro e si impiantano le domande giuste e gli input, e gli algoritmi e gli scenari.

Si tratterà di vedere e studiare come questo “neo capitalismo tecno lab “verrà a patti con il “vecchio complesso militare industriale”.

Con la finanza e le classiche multinazionali.

Con la potenza ideocratica degli apparati imperiali dei grandi Stati come Russia e Cina, oggi ancora più forti di qualsivoglia imprenditore o capitalista lab.

Ma la strada del nuovo capitalismo occidentale è ormai tracciata.

Sarà elitaria la nuova forma egemone e niente affatto democratica.

Ecco perché l’IBM ci manda a dire: lasciate stare l’informatica e dedicatevi ad altro.

Ce ne occupiamo noi.

Dedicatevi alla invenzione di forme di consumo e all’estetica di massa.

E all’ arte dell’incontro con gli oggetti e le persone.

Alla cornice per generare il mondo e ai mezzi di produzione che sono i nostri, ci pensiamo noi.

(Bruno Gravagnuolo).

 

 

 

 

l libro degli incubi di Ursula von der Leyen:

una distopia che uccide l’anima dell’Europa.

 Strisciarossa.it – (31 Marzo 2025) - Pier Virgilio Dastoli – ci dice:

 Ursula von der Leyen – esponente della CDU tedesca confermata il 1° dicembre 2024 alla testa della Commissione europea con una maggioranza parlamentare più ristretta di quella ottenuta nel novembre 2019 – non conosciamo le qualità professionali nel settore sanitario ma sono invece giunti anche in Italia gli echi negativi della sua attività di Ministro della Difesa dal 2013 al 2019: giudicata dai vertici della “Bundeswehr” come la peggiore esperienza dalla creazione della difesa federale avvenuta nel 1955, dopo la malaugurata caduta della CED nel 1954, “al servizio della Germania” (Wir dienen Deutschland).

 

L’aumento delle spese nazionali avrà disastrose conseguenze.

Fondandosi su questa sua passata esperienza, Ursula von der Leyen si è gettata da un mese lungo l’impervia via di “riarmare l’Europa” (ReArmEuropa) come se i Paesi membri dell’Unione europea siano totalmente disarmati di fronte alle sfide della geopolitica – che era stato il fiore al suo occhiello nel 2019.

 E questo nonostante il livello globale della spesa militare europea, distinta  paese per paese, ci collochi dopo gli Stati Uniti ma prima della Russia e della Cina.

Dopo la sfortunata esperienza comunicativa del suo roboante annuncio del 4 marzo 2025, Ursula von der Leyen si è limitata a cambiare il titolo del suo piano legandolo all’idea della prontezza o della preparazione (Readiness) entro il 2030.

La sostanza del piano resta tuttavia la stessa perché l’ostilità di una forte minoranza di governi a creare nuovo debito comune dopo il NGEU o ancor più Eurobond per gettare le basi di una vera difesa europea renderebbe secondo la Commissione europea inevitabile la scelta di puntare sull’aumento delle spese nazionali ciascuno per sé con evidenti e disastrose conseguenze sulla insostenibilità dei debiti pubblici che pesano sul 50% dei bilanci nazionali.

Gli esperti ci dicono che, in mancanza di debito comune e nell’impossibilità politica di aumentare le tasse, i governi già indebitati potrebbero decidere di introdurre dei tagli di bilancio alle spese civili, escludendo invece la via più logica e ragionevole di aumentare il bilancio europeo attraverso l’introduzione di vere risorse proprie che colpiscano esternalità negative e finanziando così beni pubblici europei fra cui il settore della difesa.

Si sa negli ambienti delle istituzioni europee che, da alcune settimane, i dirigenti delle industrie militari italiane, francesi e tedesche hanno intensificato i loro viaggi a Bruxelles perché contano sulla possibilità che dal piano europeo giungano nuove risorse finanziare per creare quelli che Ursula von der Leyen ha chiamato “buoni posti di lavoro per aumentare la prosperità con ricadute positive nel settore civile” (sic!) che si dovrebbero aggiungere ai seicentomila addetti nei settori pubblico e privato delle difese nazionali.

Per ora il piano ideato da Ursula von der Leyen insieme ai commissari “Kallas” e “Kubilius” è solo un “libro degli incubi” che si è affiancato al “Libro Bianco della Difesa” – su cui si è inutilmente espresso il Parlamento europeo a metà febbraio con una lunghissima risoluzione priva di rilevanza giuridica – e che non si è ancora tradotto in proposte rilevanti dal punto di vista normativo e finanziario.

Il ricorso all’articolo 122 esclude qualsiasi controllo democratico.

Sul tavolo del Consiglio europeo e del Consiglio (ma non del Parlamento europeo nel caso in cui venisse accettata la base pattizia dell’art. 122 TUE che esclude il controllo democratico e parlamentare) c’è solo l’ipotesi teorica di un piano di ottocento miliardi di euro suddivisi fra centocinquanta miliardi di euro di prestiti agli Stati membri e seicentocinquanta miliardi di euro in parte provenienti da investimenti pubblici nazionali sottratti al rigore del Patto di stabilità e in parte da investimenti privati.

Secondo le idee partorite al tredicesimo piano del “Berlaymont”, il piano per la “prontezza” o la “preparazione” europea entro il 2030 (Readiness 2030) dovrebbe coprire nello stesso tempo:

 

         gli aiuti militari all’Ucraina (dove l’Unione europea ha investito in più di tre anni dall’aggressione di Putin il 24 febbraio 2022 globalmente meno degli Stati Uniti e in assenza di qualunque forma di coordinamento e interoperabilità),

         la progressiva sostituzione dell’ombrello statunitense in Europa nel quadro della NATO nell’ipotesi probabile di uno sganciamento di Washington,

         e il rafforzamento dell’autonomia strategica europea negli scenari internazionali a cui si aggiungerebbe anche un maggiore sostegno al ruolo civile delle forze armate.

 

Vaste programme”, avrebbe detto il Generale De Gaulle che si intendeva di questioni militari molto più della nostra Ursula von der Leyen.

Nessun vincolo giuridico sarebbe previsto invece per garantire l’interoperabilità fra le forze armate nazionali, così come per rendere obbligatori gli investimenti comuni per prodotti comuni ed europei in settori sensibili della nostra sicurezza terrestre, aerea e navale lasciando alle imprese pubbliche e nazionali la disponibilità di scegliere vie europee od altre forme di cooperazioni al di fuori dell’Unione europea.

A proposito del ruolo civile delle forze armate ha suscitato ironiche reazioni il video della “commissaria Lahbib” sul cosiddetto “kit di sopravvivenza” per settantadue ore considerato necessario anche per far fronte ad eventuali aggressioni militari, mentre dalla Commissione europea ci saremmo attesi proposte concrete ed ambiziose per dare attuazione alle azioni di sostegno, di promozione e di cooperazione nel settore della protezione civile previste dall’art. 196 TFUE.

Il Parlamento europeo convochi sessioni straordinarie.

Di fronte al “libro degli incubi” di Ursula von der Leyen e alla reiterata volontà di ignorare i principi del controllo democratico su cui dovrebbe fondarsi la politica estera e di sicurezza ivi compresa la dimensione della difesa, noi riteniamo che il Parlamento europeo debba far uso urgente del potere che gli è stato attribuito dal Trattato (art. 36 TUE) di organizzare un dibattito “sui progressi raggiunti nella realizzazione della politica estera e di sicurezza comune ivi compresa la politica di sicurezza e di  difesa comune” dando a questo dibattito la sostanza e la natura di sessioni straordinarie di “assise interparlamentari” come quelle che si svolsero a Roma nel novembre 1990 invitando come osservatori delegazioni dei parlamenti dei Paesi candidati.

 

Andando al di là del tema della difesa, le sessioni delle “assise interparlamentari” dovrebbero essere l’occasione per discutere nello stesso tempo del futuro quadro finanziario pluriennale 2028-2032 su cui la Commissione europea presenterà le sue proposte nel prossimo mese di luglio e per affermare il principio che la politica estera è parte essenziale dell’integrazione politica su cui si  dovrà aprire un processo costituente che si concluda con l’approvazione di una costituzione europea prima dell’allargamento dell’Unione europea ai Paesi candidati.

Le organizzazioni europee rappresentative della società civile, del mondo del lavoro e della produzione dovrebbero prendere l’impegno di affiancare le sessioni delle “assise interparlamentari” con sessioni della Conferenza sul futuro dell’Europa in un dialogo strutturato e permanente con le “assise ”.

(Pier Virgilio Dastoli).

 

 

 

 

La disinformazione non è solo

 colpa di algoritmi e

intelligenza artificiale.

Wired.it – (20-01-2025) – Roberto Pizzato – ci dice:

Le ricerche più recenti, senza minimizzare il problema, sembrano smentire gli allarmismi dei media.

Nell’agosto del 2024 Donald Trump postava sul suo social network Truth un collage di immagini e screenshot delle “Swifties for Trump”.

Il post divenne subito virale e tutti notarono che solo una delle quattro foto era autentica, le altre erano state create, almeno parzialmente, con l’intelligenza artificiale generativa.

Come sappiamo, l’endorsement da parte di “Taylor Swift” non è mai avvenuto, anzi la cantante avrebbe poi dichiarato di sostenere Kamala Harris.

Sui media comparvero diversi articoli sul pericolo rappresentato dalla “gen AI” e sull’ondata di disinformazione che avrebbe generato.

Il curriculum di Trump come megafono di notizie false e ingannevoli però inizia da ben prima dell’avvento dell’IA generativa e, in fondo, sarebbe stato possibile creare quelle stesse immagini con qualsiasi software di fotoritocco, come “Photo Shop”, a costi piuttosto modesti.

Inoltre, qualche sostenitrice di Trump tra le le fan di Taylor Swift c’era davvero, visto che una delle foto era autentica.

Certamente l’AI riduce i tempi e i costi, ma questo problema esiste da ben prima dei ”deep fake”, ed è ampiamente documentato dalla letteratura sui “cheap fake”.

 

Secondo il “World Economic Forum “la disinformazione è il rischio a breve termine più severo che il mondo deve affrontare, e l’intelligenza artificiale sta amplificando le informazioni fuorvianti che possono destabilizzare la nostra società.

 Dopo i dodici mesi che hanno portato alle urne il maggior numero di votanti della storia, possiamo provare a capire quale sia stato l’impatto di questa tecnologia.

I dati raccolti dal “Wired AI Elections Project “su 78 casi di utilizzo dei “deep fake” nel 2024 mostrano come la metà dei contenuti analizzati non era ingannevole e quel tipo di materiale poteva essere riprodotto, senza AI, a costi contenuti.

Questa tesi è piuttosto diffusa in ambito accademico ed è stata esposta in una serie di ricerche che appaiono in contrasto con i toni e le argomentazioni dominanti nel mondo del giornalismo e dei cosiddetti esperti di settore, che, in linea con le piattaforme in cui operano, prediligono racconti sensazionalistici ed emotivamente polarizzanti.

A sostenerlo, tra gli altri, ci sono “Sayash Kapoor” e “Arvind Narayanan”, autori di una ricerca che esamina i dati riportati qui sopra.

A commento dei casi analizzati, i due concludono che l’impatto a livello globale sia stato minore di quanto temuto.

 La loro catalogazione dei risultati però non considera come ingannevoli contenuti come le informazioni errate prodotte dai “chatbot” (comunemente chiamate allucinazioni) o i “deepfake” utilizzati come parodia o satira nei confronti degli avversari politici, minimizzando quindi altre problematiche.

In fondo, se metà dei deep fake erano ingannevoli, la percentuale è comunque alta.

Tuttavia, anche altre ricerche pubblicate su prestigiose riviste accademiche confermano questa tesi.

 

L'intelligenza artificiale può aiutarci a sconfiggere il crimine?

Che i timori nei confronti del pericolo di disinformazione legato all’IA fossero esagerati si poteva leggere anche in un articolo della “Harvard Kennedy School” datato ottobre 2023.

 Secondo gli autori, l’aumento dell’offerta di disinformazione generato dalle nuove tecnologie non incontrerebbe un aumento della domanda, che proviene principalmente da frange estremiste e già polarizzate, non dal consumatore medio di informazioni.

La disinformazione sarebbe quindi concentrata nella dieta informativa di una piccola, e molto attiva, parte della popolazione online, e nella maggior parte dei casi sarebbero questi gruppi a cercare narrazioni che riflettono le loro tendenze, esacerbate poi dagli algoritmi.

In sostanza, a trovare le “teorie del complotto online” sarebbe soprattutto chi le cerca o già le sostiene.

C'è un evidente disallineamento tra la ricerca accademica sul tema e quello che compare sui media mainstream.

Un paper pubblicato sulla “rivista Nature “a giugno dello scorso anno ne parla infatti in termini di “misunderstanding.”

I malintesi fondamentali riguardo alla disinformazione online sarebbero tre, che questa raccolta di ricerche sulla questione, forse la più completa a disposizione, scardina uno a uno.

Ne emerge che l’esposizione degli utenti alla disinformazione è limitata, che gli algoritmi non sono in realtà i maggiori responsabili della sua diffusione e che i social media non sono la causa della crescente polarizzazione.

 A sostegno di questo punto, viene citata la difficoltà di comprendere la differenza fondamentale tra correlazione e causalità, che andrebbe indagata con maggiori e più precise ricerche possibili solo con i dati di proprietà delle piattaforme social.

Secondo queste ricerche, il tema non sarebbe quindi tecnologico, ma di policy e di modelli di business.

L’idea che viene proposta è che concentrarsi sulla domanda piuttosto che sull’offerta di questi contenuti porterebbe ad una diagnosi più precisa e a soluzioni più efficaci.

 Questo non significa che i rischi legati all’utilizzo di questi strumenti non siano reali – come per esempio la creazione di immagini pornografiche non consensuali, solo per citarne uno – ma che nel contesto della disinformazione politica la tecnologia non sia l’aspetto centrale.

 Il problema è che, discutendo dello strumento, che facilita azioni già possibili prima – come per esempio modificare un’immagine con “Photo Shop” – siamo portati a pensare che la soluzione possa essere di tipo tecnologico, dimenticandoci aspetti strutturali e istituzionali fondamentali.

È come se per contrastare la disinformazione volessimo proibire l’uso di software di modifica delle immagini, o delle “piattaforme social” tout court.

 

La questione però non si può ridurre solo a quanto detto sinora.

Anche se l’impatto della disinformazione è minore di quanto possa sembrare, come abbiamo imparato, basta qualche decina di facinorosi per assaltare la sede del governo americano, e le scelte scellerate di qualche “no vax” possono impattare tutta la comunità.

È probabilmente su questo aspetto che andrebbe concentrata la ricerca di soluzioni.

Tornando alle elezioni poi, quelle più equilibrate possono essere decise da un pugno di voti.

Se così non fosse, probabilmente, non ci sarebbero ingenti investimenti in campagne social.

In fondo, Facebook è un social network progettato per massimizzare le rendite pubblicitarie, non per fare informazione di qualità.

 

L’AI generativa ha certamente compresso i tempi e facilitato le modalità di creazione di disinformazione, ma non ha cambiato le dinamiche con cui questi attecchiscono e vengono fatti circolare, un aspetto spesso non abbastanza considerato.

Al centro del dibattito dovremmo mettere il ruolo di chi si occupa di informazione e quello delle piattaforme in cui questi contenuti incontrano il pubblico.

La dinamica che sottende tutto questo è prettamente legata ai modelli di business sia dei giornali, che a parte qualche eccezione sono totalmente dipendenti dal social media, che delle piattaforme stesse. Puntare il dito sulla tecnologia è una semplificazione che distoglie l’attenzione dai problemi principali.

 

Commenti

Post popolari in questo blog

Quale futuro per il mondo?

Co2 per produrre alimenti.

Caos e dazi.