Gli algoritmi sono politici e poi tecnologici.
Gli
algoritmi sono politici e poi tecnologici.
Siamo
soldati (in)volontari
nell’esercito
delle BIG TECH.
Ilgiornale.it
– (30-3-2025) – Eleonora Barbieri – ci dice:
"Siamo
soldati (in)volontari nell'esercito delle Big Tech".
Parla
l'esperta del rapporto fra tecnologia e società, Asma Mhalla
"Gli
algoritmi sono ideologici e ci possono manipolare."
I
colossi tecnologici non ci offrono solo mezzi sempre più potenti e pervasivi (e
sono molto potenti e molto pervasivi).
Stanno
cambiando il nostro mondo dalle fondamenta:
vecchi dogmi si sgretolano, istituzioni
consolidate mostrano crepe, i contorni di antichi concetti come guerra,
società, democrazia, Stato, politica, intelligenza, individuo, economia, verità
e identità assumono nuove forme.
Di
questo si occupa “Asma Mhalla”, politologa franco-tunisina che insegna alla
Columbia, a Sciences Po e all'École polytechnique, nel suo saggio “Tecnopolitica”.
Come la tecnologia ci rende soldati (Add editore).
“Asma
Mhalla”, che cos'è la tecnopolitica del titolo?
«È un
concetto elaborato dagli studiosi occidentali al tempo delle “Primavere arabe”,
quando i social media apparivano strumenti straordinari di emancipazione per la
società.
Ma è un concetto debole, che ho ridefinito,
per dire che la tecnologia non riguarda la tecnica o gli strumenti, bensì la
politica: la tecnologia è politica, prima di tutto».
Parla
di un progetto di «Tecnologia totale». Che cosa significa?
«Oggi
esistono nuove forme di potere, collegate a quelle che chiamo Big Tech, o
giganti tecnologici, alle piattaforme digitali e agli Stati e questo insieme
ridefinisce i concetti stessi di sovranità, democrazia, stato di diritto...
Lo
sperimentiamo coi nostri strumenti di uso quotidiano:
i
social media, i dispositivi di IA, le piattaforme di e-commerce sono ormai
piattaforme di pubblica utilità e non più solo strumenti; il problema è che
queste piattaforme sono private e appartengono ai giganti tecnologici, i quali
perciò influenzano il modo in cui viviamo».
Come?
«Il
progetto di Tecnologia totale è l'idea che, attraverso queste tecnologie
private, le Big tech stiano realizzando un'agenda politica e ideologica di
controllo:
controllo della politica stessa, del nostro
futuro e del modo in cui funziona la democrazia. E questo controllo è nelle
mani di poche persone».
La
Tecnologia totale può diventare totalitarismo?
«Può
diventarlo.
Dipende da chi la controlla, ed è proprio
questo il grosso problema:
tutti dipendiamo dall'agenda politica e
ideologica dei proprietari di questi strumenti.
Le
loro aziende controllano i nostri dati e, perciò, le nostre vite.
Lo
vediamo anche con la situazione della democrazia negli Stati Uniti, con Musk e
Trump».
Però
Musk e Trump ci mettono anche di fronte alle debolezze del nostro sistema?
«Assolutamente
sì. Nel mondo occidentale siamo soliti giudicare i regimi autoritari come
fossero modelli lontanissimi dalle nostre democrazie liberali.
Ma ora, all'improvviso, ci siamo accorti che
anche le nostre democrazie rischiano di essere trascinate nell'autoritarismo.
Per
l'Europa poi c'è un problema ulteriore, dovuto al fatto che siamo dipendenti
dai sistemi tecnologici dei giganti americani: per questo siamo completamente
fragili e aperti alle loro interferenze».
Nella
sua visione, come funziona il sistema delle Big Tech?
«Non
si capisce la loro essenza se non comprendiamo che non sono solo aziende
capitalistiche, bensì entità ideologiche e anche attori militari.
Si pensi in Ucraina a Starlink e Palantir...
Le Big Tech sono entità politiche ibride.
E funzionano come un trittico, in cui la
dimensione tecnologica è guidata da un modello economico e dalla politica, in
modo interdipendente.
Lo
vediamo con Musk, il quale non si limita a cercare nuove tecnologie bensì
persegue una sua agenda ideologica, per realizzare la quale ha elaborato una
certa struttura tecnologica - per esempio X/Twitter - in modo che essa porti a
compimento la sua visione del mondo e, allo stesso tempo, gli permetta di fare
soldi.
È una interazione completa».
Gli
algoritmi sono ideologici?
«Lo
sono. Gli algoritmi sono per forza di cose impregnati di pregiudizi, perché
sono disegnati da esseri umani, i quali hanno sempre punti di vista, opinioni,
propensioni, idee...
Perciò
gli algoritmi non possono essere neutrali, anzi:
l'idea
che la tecnologia sia neutrale è falsa e pericolosa.
Detto ciò, all'interno di una certa agenda
politica possiamo progettare gli algoritmi in modo che alcune idee emergano e
siano più visibili, e altre vengano oscurate.
Perciò
gli algoritmi sono prima di tutto politici, e poi tecnologici».
Così
possono manipolare l'opinione pubblica?
«La
manipolano e la influenzano, ma non credo che esista una opinione pubblica,
perché ormai ne esistono molte: la società è estremamente polarizzata.
E
ovviamente i social media influenzano il modo in cui l'informazione viene
prodotta e, attraverso l'informazione, l'agenda politica;
in
questo processo, gli algoritmi si comportano come editori, scegliendo quali
informazioni dare e quali tenere più nascoste... Il risultato è che non abbiamo
pieno accesso alla realtà».
Lo
abbiamo mai avuto?
«La
differenza enorme, rispetto ai media tradizionali, è nella dimensione del
fenomeno; nell'approccio, che non è più dall'alto al basso bensì ibrido, poiché
tutti possono produrre contenuti; infine, nel fatto che i proprietari delle Big
Tech possano anche influenzare il modo in cui l'algoritmo pubblica il
contenuto».
Perciò
rischiamo di diventare «soldati»?
«Sì.
La iper tecnologia, che disegna la cornice delle nostre vite, è duplice: civile
e militare.
Lo vediamo con” ChatGpt”, che può essere
utilizzata per svago o per lavoro, ma anche sul campo di battaglia.
O con
i social, che sono una forma di intrattenimento ma diventano un'arma nella
cosiddetta “infowar”, che serve per interferire all'interno dei Paesi o in
momenti di conflitto, come strumento di propaganda: perciò la chiamiamo guerra
ibrida».
È il
caso di TikTok, il social cinese così diffuso fra i giovani occidentali?
«Certamente,
anche TikTok è diventato un'arma elettorale.
Durante
la presidenza Biden, il direttore dell'Fbi ha detto che probabilmente TikTok è
uno strumento di cyberspionaggio, ma di non averne le prove.
Eppure,
proprio nel gennaio scorso, Trump ha detto di essere contento di TikTok, perché
gli consente di raggiungere la platea dei giovani americani: quindi TikTok, in
quanto cinese, è allo stesso tempo l'incubo dell'Occidente, ma anche uno
strumento potentissimo di reclutamento.
E
questa piccola storia è emblematica del dilemma dei social media: si trovano
sempre in una zona grigia».
Però
questa duplicità dei media e la propaganda non sono sempre esistite?
«Certo,
ma la specificità di questo doppio uso dell'iper tecnologia è che tutti la
utilizziamo, perché si trova nelle nostre tasche:
il punto di contatto è il nostro smartphone,
attraverso il quale possiamo diventare dei soldati inconsapevoli, esposti alla
guerra ibrida, alla propaganda e alla manipolazione delle informazioni.
Forse anche le nostre attività cerebrali
finiranno per essere monitorate.
I
vecchi concetti e le vecchie frontiere diventano liquidi:
sono
avvolti in una nebbia nella quale ciascuno di noi diventa un bersaglio.
Dobbiamo esserne consapevoli».
È
quella l'inquietante «guerra cognitiva», in cui il nostro cervello è il terreno
di battaglia finale?
«L' “infowar”
è condotta per manipolare le informazioni e il loro contenuto, ma anche per
manipolare il modo stesso in cui interpretiamo e consumiamo questi contenuti.
È una tecnica sottile.
L'abitudine di scrollare per ore sullo
smartphone è parte della manipolazione cognitiva, perché spinge in uno stato
ipnotico, in cui si diventa vulnerabili e si può accettare qualunque
messaggio».
L'obiettivo
finale qual è?
«Non
il singolo, non il fatto che una persona sia d'accordo con il messaggio stesso,
bensì il caos globale: che si dubiti di tutto.
Come
diceva “Hannah Arendt”, se tutti dubitano di tutto, puoi far fare loro ciò che
vuoi.
È una forma sofisticata di manipolazione».
Come
possiamo sopravvivere in questa guerra?
«Primo
punto: la consapevolezza.
Secondo:
educhiamo i nostri algoritmi, con le nostre ricerche.
Terzo: un'igiene cognitiva, come la doccia e
lo shampoo al mattino, una guida al consumo su internet».
La
democrazia sopravviverà?
«Dipende
da noi, collettivamente.
Da
quale società vogliamo costruire.
I partiti progressisti sono debolissimi perché
non hanno una visione del mondo; quelli di estrema destra invece sono audaci
nella loro visione, e i loro discorsi del resto sono molto popolari, perché in
effetti siamo in crisi.
Perciò
dobbiamo costruire una narrazione alternativa:
se i
politici non si impegnano in questo senso, probabilmente perderemo».
Lo
pensa davvero?
«È
logico. I governi devono davvero impegnarsi, non pensare alla piccola politica,
alle elezioni imminenti, alla carriera...
Dobbiamo
pensare in grande e essere ambiziosi e costruire una narrazione e una strategia
coraggiose, anche in economia.
Dov'è
forte l'Europa, a livello di industrie? Nessuno lo sa.
Va costruito tutto questo.
Se
invece l'Europa continua a offrire solo parole vuote, perderemo».
Razzismo
anti-musulmano.
Levandohistoria.se
– Holga Ellengard – Direttore Generale – ci dice:
Il
razzismo anti-musulmano è una forma di razzismo che colpisce le persone che
sono o si ritiene siano musulmane, o che sono in altro modo legate all'Islam.
La
percezione negativa dei musulmani ha una lunga storia e rappresenta ancora un
problema serio in molti paesi, tra cui la Svezia.
Cos'è
il razzismo anti-musulmano?
Razzismo
anti-musulmano in Svezia.
Storia.
Indagini
sul razzismo anti-musulmano.
Fonti
e riferimenti.
Cos'è
il razzismo anti-musulmano?
Il
termine razzismo anti-musulmano viene utilizzato per descrivere atteggiamenti,
convinzioni e azioni ostili e pieni di pregiudizi nei confronti di persone che
sono o si ritiene siano musulmane.
Il
termine è spesso usato come sinonimo di islamofobia.
Il
razzismo anti-musulmano fa sì che le vittime vengano trattate peggio,
discriminate o addirittura sottoposte a odio, minacce e violenza.
Il razzismo anti-musulmano si basa su
convinzioni stereotipate e negative sull'Islam e sui musulmani.
Sia il Brå (Consiglio svedese per la prevenzione
della criminalità) che il DO (Difensore civico svedese contro la discriminazione) pubblicano regolarmente relazioni che
sottolineano come questa forma di razzismo sia un problema significativo e in
crescita nella società.
Gli
studi dimostrano che i musulmani e le altre minoranze religiose potrebbero
essere particolarmente vulnerabili a scuola.
Definizioni.
Nell'ambito
della ricerca esistono diverse definizioni del concetto di islamofobia. Uno dei
ricercatori spesso citati è lo scienziato politico americano “Erik Bleich”.
Egli
descrive l'islamofobia come "atteggiamenti e sentimenti negativi indiscriminati
diretti contro l'Islam e i musulmani".
Una definizione più dettagliata è stata
proposta dai criminologi britannici” Imran Awad” e “Irene Zempi”.
Definiscono
l'islamofobia come "varie forme di paura, pregiudizio o odio che si
manifestano nell'intolleranza, nella provocazione o nell'ostilità verso i
musulmani, e talvolta verso i non musulmani, e che possono sfociare in
molestie, abusi, incitamenti o minacce".
La
“National Encyclopedia” definisce il concetto sia come “pregiudizio e
avversione verso l’Islam e i musulmani” sia come “azioni e pratiche che
attaccano, escludono o discriminano le persone perché sono o si ritiene che
siano musulmane e sono associate all’Islam”.
Il
programma d'azione del governo contro l'islamofobia la definisce come
"ideologie, percezioni o valori che esprimono ostilità verso i
musulmani".
Il
termine islamofobia viene quindi utilizzato per riferirsi ai pregiudizi nei
confronti dell'Islam, nonché alle ideologie e alle azioni che mirano a
emarginare o addirittura danneggiare i musulmani.
Essere critici nei confronti dell'Islam non è
la stessa cosa che essere islamofobi.
I pregiudizi o gli atteggiamenti che
contribuiscono a far sì che le persone vengano trattate peggio proprio perché
sono, o sono percepite come, musulmane sono definiti islamofobia.
Sui
concetti di islamofobia e razzismo anti-musulmano.
Per
descrivere il razzismo che colpisce specificamente i musulmani, il termine
islamofobia è da tempo un concetto consolidato, sia a livello internazionale
che in Svezia.
Il
programma d'azione del governo contro l'islamofobia, in vigore dal 2022 al
2024, la definisce come "ideologie, percezioni o valori che esprimono
ostilità verso i musulmani".
La
National Encyclopedia definisce il concetto sia come “pregiudizio e avversione
verso l’Islam e i musulmani” sia come “atti e pratiche che attaccano, escludono
o discriminano le persone perché sono o si ritiene che siano musulmane e sono
associate all’Islam”.
L'uso
del termine islamofobia è stato criticato perché alcuni ritengono che sia
fuorviante.
In parte perché non si tratta di una fobia in
senso medico, e in parte perché focalizza l'attenzione sull'aspetto più
astratto dell'"Islam" piuttosto che sulle persone colpite.
Parlare
del problema come di una fobia può anche essere percepito come se riguardasse
solo gli atteggiamenti delle singole persone.
Si rischia di oscurare il fatto che l'islamofobia può
anche assumere la forma di idee o ideologie condivise da gruppi più o meno
grandi, che hanno conseguenze per l'intera società.
Sia
l'islamofobia che il razzismo anti-musulmano vengono utilizzati in contesti
diversi.
Qui e
nel piano nazionale del governo contro il razzismo del 2024 viene utilizzato il
termine "razzismo anti-musulmano."
È diventato sempre più comune e descrive la
stessa cosa dell'islamofobia.
Il
piano d'azione del governo definisce il razzismo anti-musulmano "come una
forma di razzismo rivolta contro i musulmani e le persone percepite come
musulmane, ad esempio attraverso il loro abbigliamento o il loro nome".
Essere
critici nei confronti dell'espressione della religione islamica non equivale ad
essere islamofobi o razzisti nei confronti dei musulmani.
Espressioni
di razzismo anti-musulmano in Svezia.
Il
razzismo anti-musulmano può assumere diverse forme.
Si
esprime sotto forma di odio, discriminazione o violenza.
In
Svezia, la forma più comune di razzismo anti-musulmano è quella che si
manifesta nelle situazioni quotidiane.
Gli
studi dimostrano che, ad esempio, le donne che indossano il velo possono
ricevere commenti al riguardo sull'autobus o nei centri commerciali.
Può anche comportare sguardi, imprecazioni,
sussurri, battute denigratorie o qualcuno che sputa davanti a te proprio perché
sei o sei percepito come musulmano.
Gli
abusi ricorrenti che le persone colpite devono affrontare nella loro vita
quotidiana vengono talvolta definiti "razzismo quotidiano".
I
rapporti del Difensore civico svedese per le discriminazioni (DO) dimostrano che le persone
percepite come musulmane possono essere discriminate in diversi ambiti della
società svedese, ad esempio negli incontri con i servizi sociali e nei
procedimenti legali svedesi.
“DO”
sottolinea inoltre che le persone con nomi musulmani o che suonano in arabo
hanno meno probabilità di essere chiamate per un colloquio di lavoro rispetto a
quelle con nomi che suonano in svedese.
Modelli
simili di discriminazione emergono dagli studi su come le persone percepite
come musulmane possano essere discriminate nel mercato immobiliare. In questi
casi, a volte può essere difficile stabilire se la discriminazione sia legata
all'appartenenza religiosa o ad altri motivi di discriminazione, come
l'appartenenza nazionale o etnica.
Chi è
interessato?
Sono
soprattutto le persone che sono o sono percepite come musulmane a essere
colpite dal razzismo anti-musulmano.
I più vulnerabili sono coloro che indossano
abiti o simboli che li rendono facilmente identificabili come musulmani.
È anche comune che locali ed edifici, come le
moschee, vengano vandalizzati.
Anche
le persone che si identificano come musulmane per ragioni culturali, ad
esempio, ma che non praticano la religione islamica, o magari hanno radici solo
in Medio Oriente, possono essere colpite perché altre persone attribuiscono loro percezioni e
valori che a loro volta associano all'Islam.
Ad
esempio, ciò che conta nel determinare se qualcosa debba essere classificato
come crimine d'odio islamofobo o anti-musulmano è il movente del crimine da
parte dell'autore, non la religione o l'identità effettiva della vittima.
Anche
le persone che non sono musulmane, ma sono percepite come musulmane, possono
quindi essere colpite dal razzismo anti-musulmano.
Potrebbe
trattarsi di persone che lavorano su questioni legate all'Islam, come un
giornalista che ha scritto sull'Islam o un proprietario di immobili che affitta
locali a una congregazione musulmana.
Questo
perché individui o gruppi potrebbero voler intimidire o danneggiare persone che
ritengono stiano aiutando i musulmani o non prendano le distanze dall'Islam.
La
storia del razzismo anti-musulmano.
Fin
dalla nascita dell'Islam, musulmani e cristiani hanno creato immagini invidiose
l'uno dell'altro, ma sono anche riusciti a vivere insieme e a collaborare.
Una
percezione negativa dell'Islam e dei musulmani emerse nei paesi cristiani,
compresi quelli del Medio Oriente, dopo l'espansione dell'Islam a partire dal
VII secolo e lo scoppio di conflitti e guerre tra regni musulmani e cristiani.
Il razzismo che colpisce i musulmani oggi è in
una certa misura una continuazione di queste credenze storiche.
Dalla
fine del VI e fino al III secolo in poi, furono combattute numerose guerre tra
regni musulmani e cristiani e i musulmani conquistarono o assediarono alcune
zone d'Europa.
Negli
scritti religiosi e talvolta anche nella politica statale della Svezia a
partire dal XVI secolo, si nota che l'Islam e i musulmani venivano descritti
come una minaccia. Ma con il diminuire della minaccia militare, a partire dal
XVIII secolo e fino al XX secolo le persone cominciarono a considerare la
cultura musulmana in modo più romanticizzato ed esotico.
Nel
1997, il think tank britannico “Runny mede Trus”t pubblicò il rapporto
Islamophobia – a challenge for us all (Islamofobia – una sfida per tutti noi),
che contribuì a diffondere maggiormente il concetto di islamofobia.
Si è
notato che in Europa sono molto forti gli atteggiamenti stereotipati e negativi
nei confronti dell'Islam e dei musulmani.
Gli
atteggiamenti anti-musulmani sono aumentati in diverse parti del mondo dopo
eventi drammatici, come dopo che il leader iraniano Ayatollah Khomeini ha
invitato i musulmani a uccidere lo scrittore “Salman Rushdie” nel 1989.
Anche
dopo gli attacchi terroristici che sono stati legittimati sulla base di diverse
interpretazioni dell'Islam, con forse l'evento più significativo che è stato
l'attacco terroristico alle Torri Gemelle di New York l'11 settembre 2001.
Indagini
sul razzismo anti-musulmano.
Storie
di vulnerabilità:
un'analisi
della discriminazione legata a molteplici motivi di discriminazione (2023).
«Gli
algoritmi non sono cose, ma disposizioni di potere
che
riorganizzano
la
nostra società.»
Vita.it
- Marco Dotti- “26 gennaio 2021) – ci dice:
«Gli
algoritmi non sono cose, ma disposizioni di potere che riorganizzano la nostra
società»
(Paolo
Benanti)
Finché
gli algoritmi veicolavano notizie e beni immateriali - spiega il francescano,
tra i massimi esperti di etica applicata alle tecnologie - siamo stati disposti
a considerarli come mezzi neutrali al servizio di quei beni.
Oggi che, dal lavoro alla salute, dalla
distribuzione dei vaccini al colore delle Regioni, toccano tutti gli aspetti
pubblici e privati delle nostre vite cresce la consapevolezza che gli algoritmi
sono politica, non solo tecnica.
Gli
algoritmi hanno un posto sempre più centrale nelle nostre vite.
Orientano
le nostre scelte, determinano le politiche pubbliche, li percepiamo come
arbitri neutrali di un processo di decisione e di scelta che, quando si
inceppa, mostra che tanti, troppi nodi non sono compresi, discussi, risolti.
Francescano
del Terzo Ordine Regolare (TOR),” Paolo Benanti” è tra i maggiori esperti di
etica delle tecnologie e da molti anni invita a non sottovalutare la
questione-algoritmi.
Una
questione che apre a un campo di riflessione particolarmente urgente e
complesso che viene oggi descritto con un termine divenuto corrente:
“algocrazia”.
L'algocrazia
è un sistema di governance e di governo basato su algoritmi.
Decisioni
politiche o tecniche?
Il dibattito è aperto.
L'impatto
etico degli algoritmi.
Professor
Benanti, recenti fatti di cronaca hanno riportato al centro il dibattito sugli
algoritmi.
Tecnica o politica?
Neutralità della prima e delega della seconda?
Ci aiuta a comprendere il quadro in cui si
collocano tali questioni nell'ottica di un'etica pubblica?
Quanto
si parla di etica della tecnologia è importante ricordare il nome di un grande
maestro come” Langdon Winner”.
Per
capire che cosa significhi approcciarsi alla tecnologia con uno sguardo etico,
nel 1980 “Winner” scrive un articolo importante e lo intitola così:
Do Artifacts Have Politics?
Potremmo
tradurre in questo modo: gli artefatti tecnologici hanno politica?
Eccoci
arrivati al cuore della questione.
Le
tecnologie non sono semplici aiuti all'attività umana, ma anche potenti forze
che agiscono per rimodellare quell'attività e il suo significato.
Langdon
Winner.
Guardiamo
gli esempi che fa Winner e decliniamoli in quello che sta accadendo in questi
giorni in Italia.
Il primo esempio che fa è quello dei ponti in
calcestruzzo che stanno sopra l'autostrada che da New York porta a Long Island.
Chiunque
di noi guarda quei ponti cosa vede solo dei ponti in calcestruzzo.
Ma se dovessimo fare un'analisi etica della
tecnologia, dovremmo notare che quei ponti sono più bassi dello standard.
Se poi
andiamo a leggere la biografia di “Robert Moses”, che fu il capo progettista di
quei ponti, capiremmo che per sua stessa ambizione era un grande classista.
(Gli
algoritmi sono disposizioni di potere che decidono chi ha accesso e chi no. Non
sono semplicemente delle cose, sono modalità per organizzare la società e il
potere, i diritti e i privilegi.
Paolo
Benanti).
Moses
fece così bassi quei ponti affinché solo la classe bianca agiata, che aveva
auto di proprietà, potesse accedere alla spiaggia di Long Island.
Le minoranze etniche che dovevano servirsi di
autobus non potevano accedervi, perché gli autobus non passavano sotto quei
ponti.
L'artefatto
tecnologico è una disposizione di potere.
I
ponti di una volta, oggi, sono diventati gli algoritmi…
Questi
algoritmi sono disposizioni di potere che decidono chi ha accesso e chi no. Non
sono semplicemente delle cose, sono modalità per organizzare la società e il
potere, i diritti e i privilegi.
Winner
fa poi un secondo esempio:
nel
1977 si diffuse la macchina meccanica per la raccolta di pomodori.
Da
migliaia di raccoglitori di pomodori che c'erano, si scese a pochissimi. Ma ci
fu un'altra questione: per resistere alla compressione meccanica del
raccoglitore automatico venne selezionata una qualità di pomodori resistente,
ma meno saporita.
Mercato,
concentrazione, qualità delle relazioni.
Che
cosa possiamo imparare da questi esempi?
Possiamo
capire che l'innovazione tecnologica concentra il mercato e cambia la qualità
del mercato stesso.
Applichiamo questa legge agli algoritmi e
capiamo cosa sta succedendo:
i
grandi produttori di algoritmi che permettono di risparmiare rispetto ad altri
sistemi tradizionali stanno concentrando il mercato.
Se
applichiamo questa concentrazione algoritmica alle notizie che cosa accade?
Abbiamo
una perdita di qualità.
Come
per i pomodori americani, che non sanno di nulla…
Esattamente.
Da
tutto questo, anche dalla perdita di qualità delle cose, emerge che il digitale
non è neutrale.
Men
che meno lo sono gli algoritmi.
Al
contrario, anche il digitale è una disposizione di potere politico che cambia
le relazioni tra i cittadini, cambia il mercato tra i cittadini e cambia le
relazioni di potere.
Pensa
sia cambiato qualcosa nella disposizione dell'opinione pubblica rispetto agli
algoritmi?
Fino a
quanto si trattava di muovere dei beni immateriali come le notizie abbiamo
fatto fatica a capire la portata etica di quanto stava accadendo.
Ma se,
adesso, quello che decidiamo tramite algoritmi sono stipendi, posti di lavoro,
controllo sul luogo di lavoro o, ancora, scelte che riguardano la salute
pubblica come la distribuzione dei vaccini le cose cambiano.
Il
ruolo del Terzo settore.
Oggi
abbiamo capito che l'impatto sulle nostre vite è potenzialmente deflagrante, ma
questa comprensione non è necessariamente un male…
Tutt'altro,
perché una maggior consapevolezza e una maggior comprensione del problema porta
le coscienze a diventare più critiche e a risvegliarsi. L'associazionismo, il Terzo settore,
la società civile organizzata si stanno accorgendo che la tecnologia può
diventare un moltiplicatore di disuguaglianze.
Il
Terzo settore può dunque essere un attore importante in questo processo di re intermediazione?
San
Tommaso diceva che non possiamo volere una cosa che è Bene, se non la
conosciamo:
la consapevolezza è la chiave per far cambiare
le cose e smascherare le apparenti neutralità della tecnologia.
In
questo riconosco al Terzo settore un ruolo primario:
quello
di motore per una un'azione etica grandissima.
Anche
perché questo mondo è un po' il nume tutelare di quelle fasce più deboli che
non solo rischierebbero di non essere consapevoli, ma diverrebbero le prime
vittime di questa inconsapevolezza.
“Shin
Bet”: “Fondi del Qatar Autorizzati
dal
Premier per Finanziare Hamas.”
Conoscenzealconfine.it
– (1° Aprile 2025) – Redazione – Il giornale d’Italia - ci dice:
“Qatargate”
in Israele, arrestati collaboratori di Netanyahu “Urich” e “Feldstein” per
corruzione;
“Shin
Bet” (agenzia di intelligence per gli affari interni dello stato di Israele,
subordinata direttamente al Primo ministro):
“Fondi
da “Doha” (capitale del Qatar) autorizzati dal premier per finanziare Hamas”.
L’inchiesta
potrebbe essere legata al licenziamento – poi sospeso – del capo di Shin Bet,
Ronen Bar;
il premier dello stato ebraico, chiamato a
testimoniare, accusa: “Tentativo di colpo di Stato”.
Sono
stati arrestati due collaboratori di Benjamin Netanyahu, Jonathan Urich ed Eli
Feldstein all’interno dell’inchiesta Qatargate per sospetti di corruzione,
contatto con agente straniero, abuso d’ufficio e violazioni fiscali.
L’ufficio
del primo ministro ha dichiarato:
“Indagini
inventate” e “tentativo di colpo di stato contro il governo,“ mentre Netanyahu
– non indagato – viene citato a testimoniare sulla vicenda dalla procuratrice
generale sfiduciata Gali Baharav-Miara.
Due
collaboratori del primier ebraico Jonathan Urich ed Eli Feldstein,
rispettivamente, consulente per i media e portavoce del primo ministro
israeliano Benjamin Netanyahu, sono stati arrestati all’interno dell’inchiesta
Qatargate sotto diverse accuse: corruzione, contatti con un agente straniero,
abuso d’ufficio e violazioni fiscali;
i due avrebbero ricevuto fondi provenienti dal
Qatar per attività di comunicazione e pubbliche relazioni favorevoli a Doha.
I pagamenti a Urich e Feldstein sarebbero
arrivati attraverso la mediazione del businessman” Gil Birger” e il lobbista
americano “Jay Footlik”.
L’indagine,
condotta dall’unità anticorruzione” Lahav 433 “con la collaborazione dello
“Shin Bet”, ha poi rivelato, che i fondi qatarioti sarebbero problematici
perché trasferiti a Gaza con il consenso di Netanyahu negli anni precedenti;
questi
avrebbero infatti contribuito a rafforzare militarmente Hamas nel corso del
tempo.
L’allora capo dello “Shin Bet” ha accusato il
premier Netanyahu per le responsabilità politiche in questi fatti.
Nel
frattempo la procuratrice generale sfiduciata dal governo, “Gali
Baharav-Miara”, ha convocato Netanyahu per una testimonianza, il premier non
risulta però tra gli indagati.
Tuttavia,
l’opposizione ha replicato dura nei confronti del premier:
“Ha
fallito in materia di sicurezza e ha permesso che il denaro del Qatar
finanziasse Hamas.
Ora cerca di sabotare le indagini”, ha detto
“Yair Golan “che ha chiesto che anche Netanyahu venga indagato.
Secondo
gli esperti, l’inchiesta in cui sarebbero stati arrestati i due collaboratori
“Jonathan Urich” ed “Eli Feldstein “sarebbe legata alla rimozione del capo
dello “Shin Bet”, “Ronen Bar”.
L’ufficio
del primo ministro ha respinto ogni accusa: “Nessun funzionario israeliano è
coinvolto nei trasferimenti di denaro. Le spese nell’ufficio del primo ministro
avvengono solo secondo le procedure legali. Si tratta di indagini inventate e
di un tentativo colpo di stato contro il governo.“
(Redazione
Il giornale d’ Italia).
(ilgiornaleditalia.it/news/esteri/694932/qatargate-in-israele-arrestati-collaboratori-di-netanyahu-urich-e-feldstein-per-corruzione-shin-bet-fondi-da-doha-autorizzati-dal-premier-per-finanziare-hamas.html).
Gli
algoritmi danno un punteggio
ai nostri valori: perché la sovranità
degli
Stati è a rischio.
Agendadigitale.eu
- Bruno Fiammella-Avvocato – (28 Mar 2023) – ci dice:
Cultura
e società digitali.
Cosa
ne sa una macchina della natura umana?
E
allora perché lasciamo che l’AI venga “indottrinata” allo studio dei valori su
cui si fonda la nostra società attribuendo agli stessi valori un punteggio
sulla base di logiche aziendali che non sempre rispettano finalità pubbliche o
principi costituzionali?
Vediamo
i rischi.
Big
tech.
La
domanda che pochi si pongono in tema di intelligenza artificiale, riguarda il
fatto di capire perché dobbiamo utilizzarla ed avvalercene, quali siano gli
effettivi benefici che la nostra specie ne può trarre e, soprattutto, se il
costo da pagare non rischi di essere troppo alto o la direzione dello sviluppo
umano non assuma una deriva pericolosa.
In
particolare, è opportuno e urgente riflettere sul fatto che i sistemi di IA
sono programmati per intervenire secondo regole dettate dalle società al cui
servizio vengono costruiti ed implementati e diventano l’espressione di un
potere sovranazionale le cui regole non sono scritte nelle costituzioni degli
Stati e nel processo storico di sviluppo che ciascuna nazione ha avuto, ma sono
scritte da esigenze privatistiche.
Quali
sono, dunque, i rischi per gli Stati e per il nostro futuro?
Indice
degli argomenti:
Tecnologia
e disumanizzazione.
L’uomo
al centro.
Limiti
nell’addestramento dell’IA.
Il
rischio di attribuire un punteggio a scelte etiche e morali.
Un’altra
rivoluzione industriale.
Rischi
per la governance degli Stati nazionali.
Conclusioni.
Tecnologia
e disumanizzazione.
Come
presupposto antecedente necessario alle scelte che i nostri leader economici
hanno intrapreso, si impone allora un inevitabile momento di riflessione sul
“chi siamo” e verso “dove andiamo”.
Considerato che la riforma apportata dalla IA è in
grado di mettere in crisi le sorti dello sviluppo dell’umanità (è inutile
negarlo ma gli scenari vanno ipotizzati tutti con lungimiranza), occorre
domandarsi se la direzione intrapresa dalle grandi aziende sia da seguire per
come concepita sino ad oggi.
A
volte le grandi riforme procedono da piccoli cambiamenti che consentono di
inoculare alle masse, apparenti irrilevanti modifiche che, lentamente,
consentono di approcciare, per assuefazione, per convincimento indiretto e
mediato, alle grandi modifiche del sistema.
Oggi
parlare di IA è indispensabile, è l’argomento tecnico scientifico del momento e
soprattutto, come ai tempi della rivoluzione portata dalla rete internet prima,
e dai device “mobile” successivamente, e se non la utilizzi, tra un po’ sarai
fuori dal sistema.
E questo è considerato, nel mondo del lavoro,
un deficit, una carenza del servizio, una “deminutio” dell’offerta.
Lentamente
veniamo indotti a credere che l’utilizzo di app, bot, software di IA e di
sistemi di automazione in generale possa davvero rendere la nostra vita
migliore. Non nascondo che in alcuni contesti è così, ma lo scenario, se
analizzato con maggiore attenzione non sempre è roseo, dipende dalla direzione
che verrà intrapresa nei prossimi anni.
Più
l’uomo utilizza la tecnologia, più si accorge di quanto essa sia
disumanizzante.
L’IA
infatti può mettere a rischio le scelte valoriali ed è evidentemente il caso di
iniziare ad osservarla con un’analisi critica ed un confronto aperto che
consenta di sviluppare una riflessione:
decidiamo
prima verso quale direzione e quali obiettivi debba essere condotto questo
progresso, oppure sopportiamolo in silenzio, come tante pecore che, guidate da
una IA scelgono di saltare nel fosso perché è la decisione che un software avrà
preso loro, in un futuro in cui è “opportuno” il sacrificio di alcuni, per la
salvaguardia di altri.
Solo
attraverso l’analisi dei motivi che ci spingono ad avvalerci dei software di
intelligenza artificiale nella nostra vita quotidiana, potremmo sviluppare
contesti capaci di migliorare realmente il nostro stile di vita e costruire un
sistema migliore.
L’uomo
al centro.
Non
traggo benefici, in buona sostanza, se l’intelligenza artificiale mi
sostituisce nello svolgimento della mia attività lavorativa, in quanto perderò
il posto di lavoro: traggo benefici se l’intelligenza artificiale mi aiuta a
svolgere, con meno sforzo, in meno tempo e con meno rischi per la salute,
quella medesima attività che prima svolgevo da solo e per la quale, oggi,
riceverò il mio stipendio.
Remunerato
per ciò che faccio con l’ausilio della mia applicazione di IA o con il mio
robot personale, non licenziato per ciò che la IA può fare al posto mio.
Affiancare,
non sostituire.
Migliorare
la qualità della vita e accrescere le ore di tempo libero, non licenziare,
devono essere i nostri obiettivi.
L’uomo, non il profitto.
Viviamo
in un’epoca in cui (assonnati anche dalle tecnologie e da un sistema che
indirettamente ci tiene sempre di più sotto controllo) assistiamo ad un forte
allontanamento della “ragione critica” in favore di una concezione dello
sviluppo umano mediocre, “fondato sulla programmazione ed estrazione del dato”.
A
differenza di alcuni rami della scienza storicizzati, come la medicina o il
diritto, in tema di IA non esiste una struttura sovranazionale o governativa
che ne coordini lo sviluppo o che la controlli (almeno apparentemente):
le
definizioni e gli obiettivi concordati stanno nascendo in questi anni, e sono
ancora probabilmente frutto di un ristretto oligopolio.
La disciplina è in fermento ed in continuo
divenire, con il pericoloso rischio che la direzione prenda pieghe di sviluppo
non programmate o con evidenti vuoti normativi che causano distorsioni dal
punto di vista sociale, comunicativo ed educativo.
Limiti
nell’addestramento dell’IA.
È il
modello di apprendimento automatico su cui si fonda il concetto di “deep
learning” che andrebbe revisionato per iniziare a porre un cambiamento a questo
processo: perché l’apprendimento di una IA è strutturato secondo modelli in
forza dei quali l’algoritmo decisionale utilizza le informazioni in suo
possesso per formulare calcoli predittivi su ciò che non conosce.
In
questa tipologia di modello, nel momento in cui non conosciamo le regole poste
alla base del funzionamento della programmazione, in cui non conosciamo i
principi sottesi a cui si ispira l’algoritmo decisionale di costruzione del
processo di auto apprendimento, stiamo avallando l’idea che un algoritmo
proceda da ciò che è a lui “noto” (le informazioni caricate ed elaborate negli
anni e non si sa bene come, “selezionate”) verso ciò che è a lui “ignoto”.
Il
tutto senza una direttiva morale o etica posta a fondamento della scelta che
dovrebbe guidare il passaggio da ciò che è assodato e conosciuto, verso ciò che
ancora deve essere esplorato e compreso.
Le
discriminazioni basate su sesso, razza religione, opinioni politiche e
personali, ormai conquista della maggioranza dei sistemi socio politici,
rischiano di essere messe nuovamente in discussione da un software mal
programmato o che ha elaborato dati in maniera errata.
Gli
esempi occorsi sono numerosi, basti pensare al famoso “caso Loomis” approdato
alla “Corte Suprema” del Wisconsin.
La
Corte Suprema, dopo aver stabilito che l’uso del “software Compas” può essere
legittimo nell’ambito dei giudizi di determinazione della pena, ha indicato i
limiti e le cautele che devono accompagnarne l’uso da parte degli organi
giudicanti, esplicitamente soffermandosi sulla necessità che il giudice
applichi i risultati raggiunti da un software contemperandoli con la propria
discrezionalità e bilanciandoli con altri fattori parimenti rilevanti.
Tra le altre cose, la Corte ha confermato che
l’oggetto dell’algoritmo non può riguardare il grado di severità della pena, né
la decisione sulla detenzione dell’imputato.
E che
l’intermediazione del giudice su come valutare alcuni parametri forniti dal
software sia indispensabile proprio per evitare risultati aberranti che possono
scaturire da un atteggiamento troppo fideistico nei confronti della IA.
Ma c’è
di più:
secondo
alcuni studi, i database su cui si formano alcuni software di intelligenza
artificiale sono ancora approssimativi e potrebbero essere viziati ab origine.
Occorre
riflettere sul fatto che l’attività di raccogliere i dati, classificarli ed
etichettarli per “addestrare” i sistemi d’IA è a tutti gli effetti ed a seconda
di come viene svolta, un’attività dai risvolti socio – politici, perché
attraverso la selezione e la raccolta delle informazioni si rappresenta la
realtà lavorativa e sociale.
In passato, molte delle tecniche di
rilevamento delle emozioni ed i software utilizzati a tali fini hanno rivelato
la fallacia dei software utilizzati a causa di errori nell’addestramento,
svolto da personale non adeguatamente preparato o comunque a sua volta
pre-condizionato dalla propria estrazione socio culturale nel classificare
alcuni aspetti della mimica facciale riconducendoli a determinate emozioni.
Secondo
alcuni studi, questi sono i primi errori nella programmazione di alcuni
software di AI, ma sono errori importanti perché destinati ad influenzare tutti
i processi susseguenti nella catena di programmazione dell’algoritmo.
Il
rischio di attribuire un punteggio a scelte etiche e morali.
Ciò
che preoccupa è il fatto che molte AI vengano “indottrinate” allo studio dei
valori su cui si fonda la nostra società attribuendo agli stessi valori un
punteggio.
Stiamo
procedendo a rendere “contabile” ciò che in realtà la cultura anglosassone
definirebbe come “uncuntable”.
È sempre così facile attribuire un punteggio a
delle scelte etiche – morali?
E
soprattutto, è possibile disporre i valori su una scala e “gradarli” in modo da
attribuire sempre, allo stesso principio, il medesimo punteggio, oppure questo
dovrebbe cambiare di volta in volta in base al contesto socio – normativo –
culturale in cui ci muoviamo?
È
possibile quantificare il valore di una vita umana da sacrificare, perché se ne
potrebbero salvare 100?
La
risposta è sempre la stessa indipendentemente dal fatto che la vita appartenga
ad un uomo politico, un personaggio famoso, i nostri genitori, un premio Nobel
o un bambino?
La IA
può comprendere un valore solo se lo quantifica in un punteggio che gli
consenta di inserirlo in un calcolo probabilistico di opzioni:
le differenze che a volte sono per il nostro
contesto sociale un accrescimento, frutto di una evoluzione storica e
culturale, le diversità, anche multietniche e sociali, che rappresentano una
ricchezza per la comunità del terzo millennio, sono appiattite da una macchina
e rischiano così di divenire delle unità computabili.
Era “Nietzche” che sosteneva che cercare di rendere
eterogeneo e calcolabile ciò che non lo è per sua natura, rendendolo simile e
calcolabile, è una falsificazione della realtà.
Abbiamo
di fronte una vera e propria industria estrattiva del dato, che lavora da oltre
20 anni e le cui regole per l’estrazione e l’elaborazione sono dettate da
logiche aziendali che non sempre rispettano le finalità pubbliche o i principi
costituzionali.
Gli algoritmi non sono operatori indipendenti,
ma condizionati (il problema è capire da chi) tanto da arrivare ad affermare
che chi governa l’algoritmo, oggi, governa il mondo.
Ecco,
per esempio, classificare ciò che è disumano e ciò che non lo è, è possibile
farlo a priori?
La
storia ci insegna che esiste una legge naturale scritta nel cuore dell’uomo ed
in base alla quale, l’individuo, pur non avendone la conoscenza derivante dallo
studio, ne è consapevole proprio perché insita nella natura umana in quanto
tale.
Ma la
macchina cosa ne sa della natura umana?
Un’altra
rivoluzione industriale.
Non
possiamo correre il rischio di rivivere il modello lavoristico di matrice
Tayloriana delle prime fabbriche inglesi dell’ottocento, in cui la
standardizzazione del processo lavorativo omologava ed appiattiva l’individuo,
comprimendone diritti, identità e dignità.
I braccialetti che oggi vibrano per segnalare al
lavoratore l’”alert” che appare sui terminali di fronte ad un errore,
potrebbero essere un nuovo modello di controllo imposto, rendendoci di fatto,
schiavi di una tecnologia “performante” (secondo quale idea di performance? Il
profitto?).
I
software o le app di controllo della performance, del rendimento o della
redditività di un comportamento del dipendente finalizzate all’apparente
sicurezza del posto di lavoro sono un esempio di come stiamo utilizzando uno
strumento nato per proteggere dai rischi per la salute, per una finalità
alternativa: massimizzare il tempo di produzione, per incrementare il profitto.
Soddisfare
le esigenze della predittività è diventata la logica naturale
dell’apprendimento automatico.
E
questa logica si sta facendo strada in maniera incontrovertibile (forse),
perché contraddire il processo “progressista” della IA (che poi è nella realtà
regressista, quando viola le conquiste raggiunte dalla scienza giuridica e
sociale in termini di diritti umani) è come peccare di lesa maestà.
Ma a
volte Il” deep learning” non è interpretabile dagli stessi ingegneri che lo
hanno programmato e sta creando una potenza sovra umana rispetto alla quale, il
creatore (l’uomo), non è in grado di opporre resistenza a ciò che ha creato.
Se
riflettiamo sul funzionamento e la programmazione ci accorgiamo che l’IA non è
una tecnica computazionale oggettiva, universale o neutrale, ma al contrario,
le sue decisioni vengono assunte a seguito di un processo di valori volutamente
o inconsapevolmente assegnati dai suoi programmatori.
Il suo impatto sulla realtà socio – politica –
economica è plasmato da esseri umani che risentono della storia di colui o
colei che la descrive, o degli interessi che sottendono quel progetto di
ricerca.
Rischi
per la governance degli Stati nazionali.
Il
fatto che una macchina sia in grado di produrre una quantità di calcolo
impossibile all’individuo non significa che sia più intelligente o che compia
delle scelte indiscriminate.
Questo
è un concetto che va assimilato il prima possibile, ed i danni sono già sotto i
nostri occhi:
il
punteggio di attendibilità dei software di calcolo sta invadendo i mercati dei
curricula per la selezione del personale, dei prestiti bancari, degli
investimenti finanziari, della gestione del personale.
Quante
volte ci rendiamo conto che solo un buon colloquio conoscitivo consente
realmente di capire se quella persona ha le qualità per far parte del nostro
team oppure no?
Gli
Stati nazionali non hanno la forza e le informazioni per utilizzare
proficuamente molti prodotti dell’industria cyber tecnologica e per sopperire
alla carenza, si rivolgono alle aziende private.
La
collaborazione tra lo Stato e l’industria determina che, avendo il primo
bisogno di dati che solo la seconda può fornirgli, venga inconsapevolmente
assegnato al privato un potere di controllo e preventiva selezione che per
legge sarebbe di esclusiva competenza dell’autorità pubblica.
Una volta, i software di riconoscimento
facciale attingevano le informazioni dai database delle forze dell’ordine
formatosi dalla raccolta di immagini provenienti da una pregressa attività di
fermo, segnalazione o incriminazione.
Oggi, alcuni software in dotazione alle Forze
dell’Ordine di alcuni Stati, lavorano utilizzando database composti da immagini
prelevate dei social senza alcun consenso da parte dei titolari.
Esistono accordi commerciali tra i produttori
di software ed alcuni organismi istituzionali.
La domanda da prosi è a quale logica risponda
il prodotto finale?
Quella
codificata dal diritto o quella codificata dal programmatore privato
statunitense, sovietico, cinese o africano che l’ha creata, istruita ed
addestrata?
Pensiamo
a cosa si possa fare con strumenti di “facial recognition” che possano
attingere dalle foto personali di milioni di persone disponibili sul web o da
quelle di milioni di videocamere di sorveglianza distribuite sul pianeta.
L’identificazione
e il tracciamento delle persone in termini di una apparente sicurezza globale rappresentano
un “business “in voga già da anni.
In piena violazione di ogni normativa sul
trattamento dei dati personali esistono archivi messi a disposizione dai
privati alle istituzioni.
Tuttavia,
il dato che arriverà alle autorità sarà filtrato da una tecnologia che le
istituzioni non controllano né nella estrazione dei contenuti, né nella scelta
dell’algoritmo selettivo ed identificativo degli stessi.
Il
problema quindi è che chi programma il software lo dovrebbe fare secondo
esigenze e regole pubbliciste di interessi costituzionalmente tutelati e non di
una governance internazionale e privata.
Sono
gli albori di una nuova sovranità nazionale che è determinata dall’algoritmo
aziendale.
Il cui
funzionamento è dettato da logiche aziendali complesse che superano i confini
della sovranità territoriale, creando un rischio di sbilanciamento di potere
tra le istituzioni e le aziende private, a discapito non tanto del singolo
individuo, ma delle istituzioni stesse e del loro potere.
La
storia che i padroni del mondo non sono sempre gli Stati la conosciamo, un contesto come
questo ne ha rivelato la sua attualità.
Rischi
per la sovranità statale quando è modulata dalla governance algoritmica
aziendale si paventano.
Quali
rimedi?
Conclusioni.
La
ricerca e formazione di menti vigili, risvegliate, capaci di temperare la corsa
ad un progresso senza fine, sono le uniche chiavi risolutive di una realtà in
troppo rapido cambiamento, priva della necessaria fermentazione di fronte alle
scelte innovative e priva di discernimento, caratteristiche umane necessarie ed
indispensabili quando si lavora per il bene ed il progresso dell’umanità.
La
debolezza transazionale
ribalta
l'equilibrio del potere.
Unz.com
- Alastair Crooke – (31 marzo 2025) – ci dice:
"Non
fatevi illusioni; Non c'è nulla al di là di questa realtà.
Un
"riequilibrio" economico degli Stati Uniti è in arrivo. Putin ha
ragione. L'ordine economico del secondo dopoguerra "non c'è più".
L'esito
geopolitico del secondo dopoguerra ha effettivamente determinato la struttura
economica globale del dopoguerra.
Entrambi
stanno ora subendo enormi cambiamenti.
Ciò
che rimane bloccato, tuttavia, è “la weltanschauung generale” (occidentale)
secondo cui tutto deve "cambiare" solo per rimanere lo stesso.
Le
cose finanziarie continueranno come prima; non disturbare il sonno.
Il
presupposto è che la classe degli oligarchi/donatori farà in modo che le cose
restino le stesse.
Tuttavia,
la distribuzione del potere del dopoguerra era unica.
Non
c'è nulla di "per sempre" in questo; niente di intrinsecamente
permanente.
In una
recente conferenza di industriali e imprenditori russi, il presidente Putin ha
evidenziato sia la frattura globale, sia ha delineato una visione alternativa
che probabilmente sarà adottata dai BRICS e da molti altri.
Il suo
discorso è stato, metaforicamente parlando, la controparte finanziaria del suo
discorso del 2007 al “Forum sulla sicurezza di Monaco”, in cui ha accettato la
sfida militare posta dalla "NATO collettiva".
Putin
sta ora lasciando intendere che la Russia ha accettato la sfida posta
dall'ordine finanziario del dopoguerra.
La Russia
ha perseverato contro la guerra finanziaria, e sta prevalendo anche in questo.
Il
discorso di Putin della scorsa settimana non è stato, in un certo senso, niente
di veramente nuovo: rifletteva la dottrina classica dell'ex premier, “Yevgeny
Primakov”.
Non
essendo un romantico dell'Occidente, Primakov aveva capito che il suo ordine
mondiale egemonico avrebbe sempre trattato la Russia come un subordinato.
Quindi ha proposto un modello diverso, l'ordine multipolare, in cui Mosca
bilancia i blocchi di potere, ma non vi si unisce.
In
sostanza, la “Dottrina Primakov” si basava sull'evitamento di allineamenti
binari, sulla preservazione della sovranità, sul mantenimento di legami con
altre grandi potenze e sul rifiuto dell'ideologia in favore di una visione
nazionalista russa.
Le
negoziazioni odierne con Washington (ora strettamente incentrate sull'Ucraina)
riflettono questa logica.
La
Russia non sta implorando la revoca delle sanzioni né minacciando nulla di
specifico.
Sta
conducendo una procrastinazione strategica:
aspettando
i cicli elettorali, testando l'unità occidentale e tenendo tutte le porte
socchiuse.
Tuttavia,
Putin non è contrario a esercitare un po' di pressione da parte sua:
la finestra per accettare la sovranità russa
sui quattro oblast orientali non è per sempre:
"
Questo punto può anche spostarsi ", ha detto.
Non è
la Russia che corre avanti con i negoziati;
al
contrario, è Trump che sta correndo in avanti.
Perché?
Sembra
rifarsi all'attacco americano alla strategia di triangolazione di Kissinger:
Russia subordinata; sbucciare l'Iran; e poi staccare la Russia dalla Cina.
Offrire
carote e minacciare di "restare" alla Russia, e una volta subordinata
in questo modo, la Russia potrebbe essere distaccata dall'Iran, rimuovendo così
qualsiasi impedimento russo a un attacco dell'Asse Israele-Washington contro
l'Iran.
“Primakov”,
se fosse qui, probabilmente avvertirebbe che la "Grande Strategia" di
Trump è quella di legare rapidamente la Russia a uno status subordinato, in
modo che Trump possa continuare la normalizzazione israeliana dell'intero Medio
Oriente.
“Witkof”f
ha risolto molto chiara la strategia di Trump:
"La
prossima cosa è: dobbiamo trattare con l'Iran... sono un benefattore degli
eserciti per procura... Ma se riusciamo a far eliminare queste organizzazioni
terroristiche come rischi... Poi ci normalizzeremo ovunque.
Penso che il Libano potrebbe normalizzarsi con
Israele... È davvero possibile... Anche la Siria:
forse Colani in Siria [ora] è un tipo diverso.
Hanno
cacciato l'Iran... Immagina se il Libano... Siria... e i sauditi firmano un
trattato di normalizzazione con Israele... Voglio dire, sarebbe epico!"
I
funzionari statunitensi affermano che la scadenza per una "decisione"
sull'Iran è la primavera...
E con
la Russia ridotta allo status di supplicante e l'Iran trattato (con un pensiero
così fantasioso), il Team Trump può rivolgersi al principale avversario: la
Cina.
Putin,
naturalmente, lo capisce bene e ha puntualmente sfatato tutte queste illusioni:
"
Mettiamo da parte le illusioni ", ha detto ai delegati la scorsa
settimana:
"Sanzioni
e restrizioni sono la realtà odierna – insieme a una nuova spirale di rivalità
economica già scatenata...".
"Non
fatevi illusioni: non c'è nulla al di là di questa realtà...".
"Le
sanzioni non sono misure temporanee né mirate; costituiscono un meccanismo di
pressione sistemica e strategica contro la nostra nazione.
Indipendentemente
dagli sviluppi globali o dai cambiamenti nell'ordine internazionale, i nostri
concorrenti cercheranno perpetuamente di limitare la Russia e di diminuire le
sue capacità economiche e tecnologiche ...".
"Non
dovresti sperare in una completa libertà di commercio, pagamenti e
trasferimenti di capitali.
Non
dovresti contare sui meccanismi occidentali per proteggere i diritti di
investitori e imprenditori...
Non
sto parlando di sistemi legali, semplicemente non esistono!
Esistono
lì solo per sé stessi!
Questo
è il trucco. Hai capito?!".
Le
nostre sfide [russe] esistono, 'sì' - " ma anche le loro sono abbondanti. Il predominio occidentale sta
scivolando via.
Nuovi “centri
di crescita globale stanno prendendo il centro della scena", ha detto
Putin.”
Queste
[sfide] non sono il " problema";
sono l'opportunità, ha sottolineato Putin:
"Daremo priorità alla produzione
nazionale e allo sviluppo delle industrie tecnologiche.
Il vecchio modello è finito.
La
produzione di petrolio e gas sarà semplicemente l'aggiunta a un'"economia
reale" ampiamente circolante internamente e autosufficiente, con l'energia
non più il suo motore.
Siamo
aperti agli investimenti occidentali, ma solo alle nostre condizioni, e il
piccolo settore "aperto" della nostra economia altrimenti chiusa
continuerà naturalmente a commerciare con i nostri partner BRICS".
Ciò
che Putin ha delineato in modo efficace è il ritorno al modello di economia
prevalentemente chiusa e a circolazione interna della scuola tedesca (alla
Friedrich List) e del premier russo “Sergej Witte”.
Giusto
per essere chiari, Putin non stava solo spiegando come la Russia si fosse trasformata in un'economia resistente
alle sanzioni che poteva disdegnare allo stesso modo le apparenti lusinghe
dell'Occidente, così come le sue minacce.
Stava sfidando il modello economico
occidentale in modo più fondamentale.
Friedrich
List era
stato, fin dall'inizio, diffidente nei confronti del pensiero di Adam Smith che costituiva la base del "modello anglo."
List ha avvertito che alla fine sarebbe stato
controproducente;
Distoglierebbe
il sistema dalla creazione di ricchezza e, in ultima analisi, renderebbe
impossibile consumare così tanto o impiegare così tante persone.
Un
tale cambiamento di modello economico ha profonde conseguenze:
mina
l'intera modalità di diplomazia transazionale "Art of the Deal" su
cui Trump fa affidamento.
Mette
a nudo le debolezze transazionali.
"Il
vostro allettamento alla revoca delle sanzioni, oltre agli altri incentivi agli
investimenti e alla tecnologia occidentali, ora non significa nulla" –
perché d'ora in poi accetteremo queste cose: solo alle nostre condizioni",
ha detto Putin.
"Né",
ha sostenuto, "le vostre minacce di un ulteriore assedio delle sanzioni
hanno peso, perché le vostre sanzioni sono state la manna che ci ha portato al
nostro nuovo modello economico".
In
altre parole, che si tratti dell'Ucraina o delle relazioni con la Cina e
l'Iran, la Russia può essere in gran parte impermeabile (a meno che non si
tratti della minaccia reciprocamente distruttiva della Terza Guerra Mondiale)
alle lusinghe degli Stati Uniti.
Mosca
può prendersi il suo tempo per l'Ucraina e considerare altre questioni in base
a un'analisi strettamente costi-benefici.
Può
vedere che gli Stati Uniti non hanno una vera influenza.
Eppure
il grande paradosso di tutto questo è che “List “e “Witte” avevano ragione – e “Adam
Smith” aveva torto.
Perché ora sono gli Stati Uniti che hanno
scoperto che il modello anglosassone si è dimostrato davvero controproducente.
Gli
Stati Uniti sono stati costretti a due importanti conclusioni:
in primo luogo, che il deficit di bilancio,
unito all'esplosione del debito federale, ha finalmente riacceso la
"maledizione delle risorse" sugli Stati Uniti.
In
qualità di "custode" della valuta di riserva globale – e come ha
detto esplicitamente “JD Vance” – ha necessariamente fatto dell'esportazione
primordiale dell'America il dollaro USA.
Per
estensione, significa che il dollaro forte (sostenuto da una domanda sintetica
globale per la valuta di riserva) ha sventrato l'economia reale dell'America –
la sua base manifatturiera.
Questa
è la "malattia olandese", in base alla quale l'apprezzamento della
moneta sopprime lo sviluppo dei settori produttivi di esportazione e trasforma
la politica in un conflitto a somma zero sulle rendite delle risorse.
All'udienza
del Senato dell'anno scorso con “Jerome Powell”, il presidente della “Federal
Reserve”, se lo status del dollaro USA come valuta di riserva globale potesse
avere degli svantaggi.
“Vance”
ha tracciato dei parallelismi con la classica "maledizione delle
risorse", suggerendo che il ruolo globale del dollaro ha contribuito alla
finanziarizzazione a scapito degli investimenti nell'economia reale:
il modello anglosassone porta le economie a
specializzarsi eccessivamente nel loro fattore abbondante, che si tratti di
risorse naturali, manodopera a basso salario o asset finanziarizzati.
Il
secondo punto – relativo alla sicurezza – un argomento su cui il Pentagono
insiste da una decina d'anni, è che la valuta di riserva (e di conseguenza il
dollaro forte) ha spinto molte linee di rifornimento militare degli Stati Uniti
verso la Cina.
Non ha
senso, sostenendo il Pentagono, che gli Stati Uniti dipendano dalle linee di
rifornimento cinesi per fornire gli input alle armi prodotte dall'esercito
statunitense, con le quali combatterebbero la Cina.
L'amministrazione
statunitense ha due risposte a questo enigma: in primo luogo, un accordo
multilaterale (sulla falsariga del Plaza Accord del 1985) per indebolire il
valore del dollaro (e pari passo, quindi, per aumentare il valore delle valute
degli stati partner).
Questa
è l’opzione del "Mar-a-Lago Accord”.
La soluzione degli Stati Uniti è quella di
costringere il resto del mondo ad apprezzare le proprie valute per migliorare
la competitività delle esportazioni statunitensi.
Il
meccanismo per raggiungere questi obiettivi è minacciare i partner commerciali
e di investimento con tariffe e ritiro dell'ombrello di sicurezza statunitense.
Come
ulteriore svolta, il piano considera la possibilità di rivalutare le riserve
auree statunitensi, una mossa che taglierebbe inversamente la valutazione del
dollaro, del debito statunitense e delle partecipazioni estere in titoli del
Tesoro statunitensi.
La
seconda opzione è l'approccio unilaterale:
nell'approccio
unilaterale verrebbe imposta una "commissione d'uso" sulle
partecipazioni ufficiali estere in titoli del Tesoro USA per allontanare i
gestori delle riserve dal dollaro, indebolendolo così.
Beh, è
ovvio, non è vero? Un "riequilibrio" economico degli USA sta
arrivando. Putin ha ragione.
L'ordine economico del dopoguerra " è
finito ".
Le
fanfaronate e le minacce di sanzioni costringeranno i grandi stati a rafforzare
le loro valute e ad accettare la ristrutturazione del debito statunitense (vale
a dire i tagli imposti ai loro titoli obbligazionari)?
Sembra
improbabile.
Il
riallineamento delle valute previsto dall'”Accordo di Plaza” si basava sulla
cooperazione degli stati più importanti, senza la quale le mosse unilaterali
potevano rivelarsi spiacevoli.
Chi è
la parte più debole?
Chi ha
ora la leva nell'equilibrio di potere?
Putin
ha risposto a questa domanda il 18 marzo 2025.
Le Big
Tech sono sempre più
colluse
con l’esercito israeliano
indipendente.online.it
– (24 Gennaio 2025) – Walter Ferri – ci dice:
Tecnologia
e Controllo.
La
sorveglianza e la guerra rappresentano attività altamente redditizie, e
l’industria tecnologica sembra esserne pienamente consapevole, sebbene
preferisca spesso non pubblicizzare troppo i legami che intrattiene con governi
ed eserciti.
Di
tanto in tanto, però, emergono rivelazioni che svelano uno scorcio di ciò che
avviene dietro le quinte.
Questa
volta sotto i riflettori sono finite “Microsoft” e “Google”:
documenti
trapelati rivelano il rapporto sempre più stretto tra le Big Tech e le forze
armate israeliane, un legame che si è intensificato rapidamente dopo il 7
ottobre 2023, in concomitanza con l’attacco mosso nei territori palestinesi.
Già
nell’agosto del 2024, la testata investigativa israelo-palestinese “+972 “aveva
denunciato come Amazon, Microsoft e Google fossero impegnate in una vera e propria competizione
per rispondere alla crescente domanda israeliana di “spazi di archiviazione
cloud”, servizi che si rivelano fondamentali per supportare gli strumenti
d’intelligenza artificiale e gestire le immense quantità di dati raccolti
tramite operazioni di sorveglianza.
Ora,
l’entità giornalistica indipendente “Drop Site” ha fornito in tal senso
dettagli più concreti.
Analizzando
contratti stipulati dal governo israeliano con Microsoft, il gruppo ha
evidenziato come l’escalation del conflitto abbia portato a un aumento
significativo della richiesta di servizi cloud offerti dalla “piattaforma
Azure”.
A
partire da ottobre 2023, i costi di supporto e consulenza richiesti dai
militari israeliani hanno raggiunto la somma di 10 milioni di dollari, mentre
ulteriori 30 milioni sono stati vagliati in sostegno delle spese del 2024.
Tra
giugno 2023 e aprile 2024, l’utilizzo dei server messi a disposizione da
Microsoft è cresciuto del 155%, un incremento significativo che suggerisce il
ricorso intensivo a strumenti di intelligenza artificiale.
Per
soddisfare le imponenti esigenze israeliane, la Big Tech ha dovuto spingersi
oltre ai soli server locali, attingendo anche alle infrastrutture europee.
Attualmente,
il Ministero della Difesa figura tra i 500 migliori clienti della società,
tuttavia l’analisi delle dinamiche dei flussi di finanziamenti vengono rese più
complesse dal fatto che le diverse entità militari possano siglare contratti in
autonomia, utilizzando i rispettivi budget interni.
“The
Washington Post,” dal canto suo, ha ottenuto documenti interni che rivelano
maggiori informazioni sui rapporti intrattenuti da Google con le forze armate
di Tel Aviv.
Anche
in questo caso, la “domanda di servizi cloud “ha registrato un’impennata in
concomitanza con l’avvio delle operazioni punitive.
Il “Ministero della Difesa” ha richiesto un
accesso ampliato ai servizi di intelligenza artificiale offerti dalla Big Tech,
mostrando particolare interesse per “Vertex,” una “piattaforma di sviluppo IA”
che consente ai clienti di caricare e analizzare i propri dati.
Documenti
risalenti a novembre 2024 rivelano inoltre l’intenzione delle Forze di Difesa
Israeliane (IDF) di utilizzare il “Gemini AI” sviluppato da Google per creare
assistenti virtuali in grado utili a elaborare in maniera più efficiente
documenti e contenuti audio.
Scambi
di email interni suggeriscono che Google abbia assecondato con decisione le
richieste israeliane, temendo che eventuali rallentamenti potessero convincere
il Governo di Tel Aviv a rivolgersi ai servizi della concorrente “WAmazon Web
Services”.
Le
recenti rivelazioni non chiariscono un punto cruciale:
come vengano effettivamente impiegati i
servizi di cloud e intelligenza artificiale. Questi potrebbero, ipoteticamente,
essere utilizzati per scopi amministrativi, contribuendo ad alleggerire il
carico burocratico, oppure per altre finalità tecniche non direttamente
collegate agli sforzi bellici.
Tuttavia,
la scarsa trasparenza dimostrata dalle Big Tech, unita all’aumento del flusso
di dati in concomitanza con le operazioni militari, non può che sollevare
legittimi dubbi.
Google, ad esempio, ha sempre assicurato che
il servizio “Nimbus” fornito a Israele non venga usato per “carichi di lavoro
altamente sensibili, classificati o militari rilevanti per le armi o i servizi
di intelligence”.
Eppure, questa posizione è stata di fatto
smentita dal “Direttore generale della Direzione nazionale per la sicurezza
informatica “del governo israeliano, “Gaby Portnoy”, il quale ha ammesso con
una certa leggerezza che tale tecnologia ha permesso di “far capitare cose
fenomenali durante i combattimenti”.
(Walter
Ferri).
Gaza,
i grandi nomi del tech sono
quasi
tutti coinvolti nella guerra.
Wired.it
– (12-02-2025) – Philip Di Salvo – ci dice:
Due
inchieste giornalistiche hanno aiutato a delineare come le aziende tecnologiche
Usa siano tra i maggiori fornitori di servizi per le forze armate israeliane
I
bombardamenti nella Striscia di Gaza da parte delle forze armate israeliane.
Gaza,
nelle scorse settimane due inchieste giornalistiche hanno raccontato dettagli
ulteriori sui rapporti, molto stretti, tra aziende tecnologiche statunitensi e
l’esercito israeliano, le “Israel Defense Forces” (Idf) e le sue operazioni
nella Striscia.
Le due
inchieste, pubblicate rispettivamente dal Washington Post e da un consorzio di
testate di cui fanno parte il “Guardian”, “Drop Site News”,” +972 Magazine” e “Local
Call”, hanno in particolare rivelato ulteriori dettagli sul coinvolgimento di”
Google” e” Microsoft”.
Le due
inchieste sono entrambe basate su leak – fughe di notizie – di documenti e
raccontano come, dall’inizio dei bombardamenti nella Striscia di Gaza, la
richiesta da parte dell’Idf per i loro servizi si sia rafforzata e come le Big
Tech abbiano risposto intensificando le proprie forniture di servizi cloud e di
intelligenza artificiale, spinte anche da ragioni di concorrenza tra di loro.
Che Google e Amazon siano alcune tra le maggiori
fornitrici di servizi tech al governo israeliano e alle sue autorità militari
non è notizia nuova.
Già
almeno dal 2021 le due aziende sono coinvolte in “Project Nimbus”, un accordo
commerciale da 1,2 miliardi di dollari che prevede proprio la fornitura di
queste tecnologie.
Microsoft
e Oracle persero
allora quell’appalto, ma le rivelazioni di queste settimane confermano quanto
anche l’azienda di Redmond sia coinvolta direttamente in queste attività.
Le due
inchieste raccontano in particolare come i prodotti di “Google” e “Microsoft”
siano stati utilizzati a Gaza a partire dall’ottobre del 2023 e quanto, di
conseguenza, il loro utilizzo sia direttamente coinvolto nel genocidio nella
Striscia.
La
firma di “Project Nimbus” venne accolto con proteste da parte dei dipendenti di
“Google e Amazon”, proteste che si sono riaccese dopo l’inizio della guerra a
Gaza nel 2023.
Alle
proteste sono seguiti licenziamenti.
Google
e l'IA.
Il “Washington
Post “ha potuto rivelare come l’ “Idf” abbia accesso alle tecnologie AI di Google sin dai primi giorni dell’offensiva
nella Striscia.
In particolare, come emerge dai documenti
ottenuti dalla testata statunitense, l’esercito israeliano avrebbe richiesto di
poter espandere il suo accesso a “Vertex,” la piattaforma di Google per lo
sviluppo di applicazioni di IA.
Le
autorità militari avrebbero, si legge sempre nel reporting del “Wash-Post”,
fatto pressione su Google minacciando il colosso tecnologico di rivolgersi alla
concorrenza, ovvero ad Amazon, per il medesimo servizio.
A novembre 2024, a un anno dall’inizio della
distruzione di Gaza, l’Idf avrebbe invece richiesto accesso a “Gemini”, la chatbot di IA generativa di Google, al fine di poter sviluppare un suo
proprio strumento di intelligenza artificiale per l’analisi di documenti di
vario tipo.
(Grande Giove: perché per” Federico
Faggin” l'intelligenza artificiale non potrà mai superare l'uomo).
L'inchiesta
del Washington Post non ha potuto costruire l’effettivo utilizzo finale delle
tecnologie di Google da parte dell’esercito israeliano.
Parlando
a una conferenza nel 2024, però, un portavoce del “National cyber directorate
del governo israeliano” aveva dichiarato che “grazie al cloud pubblico di “Nimbus
“stanno avvenendo cose fenomenali durante i combattimenti e queste cose giocano
una parte significativa per la vittoria”.
Più
recentemente - e dopo la pubblicazione dell'inchiesta del “Washington Post” -
Google ha annunciato un cambiamento delle sue policy in termini di utilizzo dei
suoi prodotti di AI in contesti militari.
“Alphabet”
ha infatti riscritto le sue linee guida su come utilizzerà l'IA, rimuovendo una
sezione che in precedenza escludeva le applicazioni che erano “probabilmente
destinate a causare danni”, come scrive la “BBC”.
Microsoft,
OpenAI e il ruolo del cloud.
L'inchiesta
incentrata su Microsoft, invece, mostra quanto diffusamente anche i servizi
cloud e IA dell’azienda sarebbero utilizzati dall’esercito israeliano e come il
loro utilizzo sia aumentato nei momenti più cruenti della guerra a Gaza.
Come
scrivono le testate che hanno firmato l’inchiesta, basata su documenti
commerciali del ministero della Difesa di Tel Aviv e informazioni della filiale
israeliana di Microsoft, a partire da ottobre 2023 l’azienda avrebbe stretto
nuovi contratti per almeno 10 milioni di dollari per servizi infrastrutturali e
di storage e per il supporto tecnico.
In
particolare, si legge sul “Guardian”, mentre l’Idf userebbe servizi Microsoft
per scopi amministrativi di ufficio quotidiani, i documenti mostrano anche come
“Azure”, il servizio cloud di Redmond, sia utilizzato invece da diverse unità
militari e di intelligence per il sostegno ad attività di combattimento e di
intelligence.
L’esercito
israeliano avrebbe anche accesso “su larga scala” a “ChatGPT-4”. Non è chiaro
in che modo l’”IA di OpenAI”, di cui Microsoft è una delle principali
finanziatrici e partner, sia utilizzata in questo contesto.
Di
sicuro, proprio recentemente e piuttosto sottovoce, la stessa “OpenAI” ha
cambiato le proprie policy in termini di collaborazione con clienti militari e
di intelligence, annacquando le limitazioni fino a quel momento in essere.
Fino
allo scorso gennaio, infatti, l’”azienda di Sam Altan” dichiarava come i suoi
prodotti non potessero essere utilizzati per “lo sviluppo di armamenti”.
Come ha scritto” The Verge,” in seguito a
questo cambio di policy, “OpenAI” ha già annunciato una partnership con “Andruil”,
uno dei maggiori produttori di tecnologie di difesa statunitensi, per fornire
servizi all’esercito Usa.
Secondo l’inchiesta di “Guardian,” Drop Site
News, +972 Magazine e Local Call, dall’annuncio del cambio di policy, anche
l’utilizzo della “suite di prodotti Azure OpenAI” da parte dell’esercito
israeliano ha iniziato a crescere in modo significativo.
Secondo
le analisi incluse nell’inchiesta, il consumo dei servizi di cloud storage
Azure nei primi mesi della guerra a Gaza sarebbe cresciuto del 60%.
La
suite machine learning di Azure, invece, avrebbe fatto registrare una crescita
nell’utilizzo di circa 64 volte, scrive sempre il Guardian rispetto a prima
dell’inizio dei bombardamenti a Gaza.
Anche
in questo caso, non è chiaro in che modo l’Idf abbia impiegato le soluzioni di
intelligenza artificiale di Azure, ma dai documenti emerge un utilizzo di
strumenti avanzati per la traduzione e la trascrizione automatica del parlato.
Alcuni
dettagli sono però emersi nei mesi scorsi.
Inchieste precedenti, risalenti all’estate del
2024, illustravano come i servizi di Amazon per lo “storage nel cloud “fossero
utilizzati da Israele per via della loro “capacità esponenziale” che consente
all'esercito di avere una “memoria infinita per conservare informazioni di
intelligence su sostanzialmente chiunque a Gaza”.
Le due
nuove inchieste giornalistiche raccontano un pezzo ulteriore di come le
tecnologie e i servizi di alcune tra le maggiori aziende Big Tech siano
coinvolti nella guerra a Gaza che ha, fin qui, causato la morte di oltre 46mila
persone.
Sempre
nel 2024 erano emersi i dettagli di come l’Idf utilizzi l’intelligenza
artificiale, e un sistema chiamato “Lavander “in particolare, per individuare
potenziali target dei suoi bombardamenti, e come circa 37mila persone sarebbero
state così indicate come potenziali obiettivi nella Striscia.
Gli utilizzi dell’IA nella guerra sarebbero
però molto più ampi e Gaza ha riacceso non a caso il dibattito sui “killer
robot” e sull’automazione della guerra e degli armamenti.
La
corsa agli armamenti e il ruolo dell'IA.
Il
ruolo delle Big Tech più note, i cui prodotti fanno parte anche della nostra quotidianità, è sotto osservazione da
molto tempo.
La
guerra a Gaza è però il caso in cui il ruolo centrale delle infrastrutture
digitali si è visto in modo più evidente.
L’ascesa
tangibile dell’AI ha nel frattempo acceso l’interesse degli eserciti – di
Israele ma anche nel resto del mondo – per queste tecnologie, rendendo
progressivamente il ruolo di Big Tech più importante.
Secondo un paper di “Roberto J. González”,
pubblicato dal “Watson Institute for International and Public Affairs” della “Brown
University”, “tra il 2019 e il 2022, le agenzie militari e di intelligence
degli Stati Uniti hanno assegnato contratti a grandi aziende tecnologiche per
un valore complessivo di almeno 53 miliardi di dollari”.
“Le Big Tech sono coinvolte nelle
attività militari già da un bel po' di tempo e hanno fornito, ad esempio,
servizi cloud su larga scala”, spiega “Elke Schwarz”, professoressa di “Teoria
politica alla Queen Mary University “di Londra, raggiunta da Wired per un
commento sulle inchieste al centro di questo articolo.
Schwarz,
oltre a svolgere ricerca sull’etica delle tecnologie belliche, è parte del
coordinamento della campagna “Stop Killer Robots”, che si batte per la messa al
bando degli armamenti automatizzati.
“Il
Pentagono ha diviso il suo contratto cloud tra Amazon, Oracle, Google e
Microsoft.
Altre
aziende tecnologiche hanno fatto pressioni in modo aggressivo per ottenere
contratti con organizzazioni della difesa, tra queste, Palantir, Anduril e SpaceX”, spiega ancora Schwarz.
“Ognuna di queste aziende è diventata
un’attrice significativa nel panorama della difesa, e le recenti indagini
suggeriscono che sia Google che Microsoft siano fornitori di servizi di rilievo
per le forze di difesa Israeliane”.
Le
aziende al centro delle ultime inchieste non sono però le uniche a essere
coinvolte nelle operazioni militari di Israele e nella strage in atto a Gaza,
sospesa ora da un fragilissimo cessate il fuoco.
“Palantir,
ad esempio, si è espressa in modo piuttosto esplicito a favore di Israele. Non
è chiaro fino a che punto i suoi prodotti siano stati acquisiti dall'Idf, ma ci
sono segnalazioni di alcuni contratti con le forze armate israeliane”, spiega
ancora Schwarz riferendosi all’iper controversa azienda di data mining e
sorveglianza fondata da “Peter Thiel”.
Anche aziende
italiane sono fornitrici di servizi di intelligence a Israele.
Negli
ultimi cinque anni, nel contesto di una più ampia corsa agli armamenti
tecnologici e alle infrastrutture digitali, spiega “Elke Schwarz”, si è
aggiunto anche l’interesse per l’IA, generativa e non, i cui principali
fornitori e sviluppatori sono proprio le Big Tech:
“Sempre più spesso, le aziende vendono i loro”
large language model “(Llm) ai militari.
Microsoft,
insieme a OpenAI, sta vendendo i suoi “Llm” alle forze armate; Meta (Facebook)
ha collaborato con “Scale AI” per sviluppare “Defense Llama” pensato per le
organizzazioni di difesa, e” Palantir” ha il proprio “sistema di tipo LLM”
orientato alla difesa.
Dato
che gli “Llm” sono noti per generare allucinazioni, questa spinta commerciale
presenta problemi significativi”.
Il
potere di Big Tech e la sua capacità tecnica e infrastrutturale rende poi
queste aziende sostanzialmente insostituibili per quanto riguarda i servizi
cloud:
“Ritengo
che le queste aziende detengano una sorta di oligopolio in questo settore”,
chiosa “Schwarz.”
I
colossi tech e dell’IA americani
si
allineano alla Difesa.
Aliseoeditoriale.it
- Fabio Santamaria – (27 Gen. 2025) – ci dice:
Da
“Palantir” ad “Anduril”, passando per “OpenAI”, le nuove aziende tech minano il
monopolio degli storici contractor del Pentagono.
Ė noto
che le compagnie tecnologiche statunitensi offrano servizi al Dipartimento
della Difesa.
Le
forniture maggiori riguardano l’archiviazione remota in cloud e l’analisi dei
dati, che negli anni è stata aggiudicata a Microsoft, Amazon e, salvo poi
tirarsi indietro, anche a Google.
L’incidenza
dei contratti con il governo sul loro volume d’affari è comunque relativamente
limitata.
Diverso
è per chi mette a disposizione le proprie capacità in via quasi esclusiva alle
strutture statali.
È il caso di Palantir e Anduril, che stanno
negoziando con altri concorrenti per partecipare a gare d’appalto del Pentagono
come consorzio.
L’intento
è acquisire una quota crescente delle commesse e creare una nuova generazione
di produttori, smantellando l’oligopolio dei contractor storici come “Lockheed
Martin”, “Rtx” e “Boeing”.
Le due
società, insieme alla più celebre “SpaceX” di Elon Musk, sono l’emblema
del nuovo corso che unisce il settore
tecnologico al complesso militare-industriale.
“Palantir”,
specializzata in big data, lavora da tempo con le agenzie governative e l’anno
scorso, a quattro anni dalla quotazione, è entrata nell’ “S&P500”, il
maggior indice finanziario statunitense.
“Anduril”
invece realizza sistemi autonomi, robotica e droni.
Il loro legame è addirittura nel nome.
Nel
2017 il fondatore di Anduril, “Palmer Luckey “(creatore degli Oculus VR di
Facebook), l’ha chiamata così ispirandosi ai romanzi del “Signore degli Anelli”,
come aveva fatto “Peter Thiel” con “Palantir “nel 2003.
Nel
campo, aumentano le cooperazioni, specialmente con progetti di intelligenza
artificiale.
Da
quando OpenAI ha ritirato il divieto all’uso militare dei propri strumenti, si
è unita ad Anduril per occuparsi di minacce aeree.
Perfino
un altro rivale si è mosso:
“Anthropic,”
una startup fondata dall’ex vice presidente della ricerca di OpenAI, “Dario
Amodei” (di origini italiane).
I suoi modelli Claude, ospitati sui server
Amazon, sono utilizzati in accordo con Palantir dalle agenzie di intelligence.
Non
solo Musk, l’ascesa di “Peter Thiel”.
Thiel
nasce a Francoforte nell’allora Germania Ovest e si laurea in filosofia negli
Stati Uniti.
È
co-fondatore di PayPal, ed è tra i primi finanziatori di Facebook.
Insieme a Musk è fra i maggiori rappresentanti
della cosiddetta “PayPal Mafia“, la rete economico-finanziaria che poi ha
reinvestito in altre imprese di successo.
Thiel,
ancor più di Musk, ha un rapporto profondo con l’amministrazione Trump. Oltre a
esporsi apertamente a favore del taycoon già nel 2016, è anche il primo
sostenitore del suo “Vicepresidente J.D. Vance”.
Quest’ultimo ha lavorato per “un fondo di
venture capital” di Thiel, prima di lanciare il proprio e dargli ancora una
volta un nome ispirato all’immaginario di Tolkien (curiosa passione in comune
alla destra italiana).
Sulla
scia del successo della sua autobiografia e del film “Hillbilly Elegy,” viene
eletto senatore dell’Ohio alle elezioni di metà mandato del 2022, con una
campagna finanziata proprio dal suo mentore “Thiel”.
Peter
Thiel al Comitato Nazionale Repubblicano nel 2016.
Anche “Meta”
fa touchdown.
Anche
Zuckerberg ha aperto all’uso del suo modello Llama per applicazioni di
sicurezza nazionale.
L’annuncio
è arrivato poco dopo la notizia che ricercatori cinesi avevano usato una
versione di” Llama”, che è open source, per sviluppare applicativi utili all’”Esercito
Popolare di Liberazione”.
Per
questo cresce la penetrazione di figure con specifiche competenze di sicurezza,
quali alti ufficiali e funzionari, ai vertici di queste società.
L’importanza strategica del ramo tech non è
legata solo all’informazione, ma si materializza nella dimensione fisica dei
data center, dei cavi sottomarini e dei satelliti.
Zuckerberg,
nonostante il rapporto con Thiel in Facebook, era malvisto da Trump.
Ora
cerca di ingraziarsi l‘amministrazione repubblicana con una forte attività di
lobbying a Washington.
Allo
stesso modo di tanti altri, va a Mar-a-lago in pellegrinaggio, finanzia la
cerimonia di insediamento presidenziale e in segno di favore elimina il
fact-checking dalle sue piattaforme.
Come
detto, non è l’unico:
fra gli altri Sam Altman di OpenAI e Jeff
Bezos, dopo aver bloccato qualsiasi endorsement sul suo Washington Post, è
andato in Florida dal Presidente eletto. Tutti loro hanno in comune l’essere
avversari anche del patron di Tesla, chi sul fronte social, chi sull’AI e chi
nello spazio.
A
questo punto ci si chiede se si imporrà l’ideologia economica di Thiel, strenuo
difensore dei monopoli.
Dalla legge Sherman a fine Ottocento, le
imprese di rilievo hanno sempre dovuto vedersela con l’antitrust, dalla
Standard Oil a inizio secolo scorso, fino a Microsoft negli anni Novanta.
Più
volte il potere politico ha chiamato davanti al Congresso capitani d’impresa
per questioni di monopolio o di sicurezza, come capitato a Bill Gates o allo
stesso Zuckerberg.
Tre
data center di Amazon Web Services (AWS) con un quarto in costruzione.
La
sfida della sicurezza nazionale ai tempi dell’AI.
C’è
chi vede con fastidio la crescente influenza della rete di rapporti di figure
quali Thiel o Musk, che nonostante alcune divergenze, si stanno ritagliando un
ruolo sempre più importante.
Simboli
di un’industria avanzata che ormai da tempo ha superato i confini della California.
Musk
vuole fare politica sia per consolidare la sua posizione, sia perché i settori
in cui opera sono fortemente regolamentati e la tecnica corre più veloce della
regolamentazione.
In più è stato incaricato di guidare un
dipartimento per l’efficienza e il Pentagono è sicuramente nel mirino della
riduzione di spesa.
Il
primato di “SpaceX “nella riutilizzabilità del razzo, anche in ambito militare
con il lancio di satelliti, ha già soppiantato i vecchi appaltatori per
sofisticazione e per convenienza economica.
I
committenti tradizionali dovrebbero essere incentivati a collaborare con attori
emergenti della tecnologia, così come sta avvenendo nella Silicon Valley in
senso allargato.
Infatti
i colossi tech investono in intelligenza artificiale per mantenere la loro
primazia.
Ha
cominciato Google rilevando “Deep Mind.”
Per
contrastarla, Musk ha dato vita a OpenAI, non riuscendo a portarla sotto Tesla,
e Altman ha aperto a Microsoft.
“Meta”
ha ideato il proprio modello e Amazon ha investito in “Anthropic”.
Questa
attività ha bisogno di grandi capitali per i centri di elaborazione dati
(sparsi soprattutto tra Virginia e Texas) e quindi di queste grandi aziende.
Sono
loro ad avere impianti del genere, riforniti da “Nvidia” o altri concorrenti
per avere capacità di calcolo, che è il fattore cruciale.
A
indicare la direzione della nuova presidenza, nemmeno un giorno dopo
l’insediamento è arrivato l’annuncio di un investimento fino a 500 miliardi per
formare una joint venture di nome “Stargate” tra “OpenAI”, “Oracle e “Soft Bank”.
La promessa è di generare 100mila posti di
lavoro e limitare l’esportazione di chip per frenare anche in questo comparto
l’ascesa della Cina come potenza globale.
Nessuno
realizza da solo le infrastrutture perché quest’industria è caratterizzata da
profonde interconnessioni.
Oltretutto,
non bisogna mai dimenticare l’aspetto materiale e non solo virtuale di questi
sistemi.
Perciò,
oggi più che mai, è diventato importante analizzare, sotto la lente della
sicurezza, le filiere industriali tecnologiche e garantire che non ne sia
minacciata l’integrità da soggetti esterni ostili.
Cosa
sta succedendo tra le Big Tech
e
l’industria della Difesa Usa.
Formiche.net - Riccardo Leoni – (10/02/2025) –
ci dice:
Le
startup tecnologiche come “Palantir”, “Anduril” e “SpaceX” stanno guadagnando
terreno nel settore della difesa, mettendo sotto pressione i contractor storici
del Pentagono.
Mentre
l’amministrazione Trump valuta un cambiamento radicale nel regime degli appalti
per le Forze armate, i mercati puntano sempre più sulle “emergine tech”. Tra
innovazione, investitori in fermento e vecchie sfide irrisolte, il futuro
dell’industria della difesa americana è a un bivio.
L’industria
della Difesa statunitense potrebbe essere a un punto di svolta.
Con il
processo di riarmo globale attualmente in corso, non è una sorpresa che i
contractor della Difesa Usa — tra le società a più alta capitalizzazione del
mondo — stiano vedendo una crescita positiva delle loro azioni.
Tuttavia, è la performance delle startup
innovative del settore a rappresentare la vera novità.
Aziende
come “Palantir”, “Anduril” e “SpaceX”, altamente specializzate in soluzioni
tecnologiche d’avanguardia, stanno vedendo crescere sempre più la loro
influenza.
Le
ragioni di questa rapida ascesa delle Big Tech nel settore della Difesa non
sono imputabili unicamente alla rivoluzione portata dalle tecnologie emergenti
dentro e fuori i campi di battaglia, ma hanno anche a che vedere con la
strategia del “Dipartimento per l’efficientamento governativo” (Doge) guidato
da Elon Musk e dalla fiducia degli investitori privati.
Gli
appalti della Difesa negli Usa.
Negli
ultimi decenni, gli appalti della Difesa statunitense si sono basati su
“contratti cosiddetti Cost-plus”.
Tramite
questo tipo di contratti, il governo rimborsa all’azienda appaltatrice tutte le
spese sostenute per completare un progetto, oltre ad aggiungere un margine di
profitto prestabilito.
Questo
significa che l’azienda non corre rischi finanziari diretti, giacché tutte le
spese vengono coperte, indipendentemente dall’efficienza con cui il progetto
viene gestito.
In un settore costantemente in evoluzione come
quello della Difesa i costi di sviluppo non restano fissi e, anzi, la necessità
di aggiornare le piattaforme con ogni ultimo ritrovato tecnico porta spesso a
una loro crescita esponenziale, peraltro quasi impossibile da quantificare al
momento dell’assegnazione dell’appalto.
Di
conseguenza, sono nati i “contratti cost-plus”, per incentivare l’innovazione e
non permettere che i timori sui costi portassero le aziende a lesinare sulla
ricerca e sugli aggiornamenti.
Tuttavia,
dall’altro lato della medaglia, questo ha anche portato alcuni programmi a
raggiungere costi ai limiti del proibitivo, persino per il budget del
Pentagono. Soprattutto in tempi recenti, questo ha portato i mercati a nutrire
delle riserve nei confronti degli appaltatori della Difesa, accusati da alcuni
di essersi adagiati sulla sicurezza fornita dai contratti cost-plus.
Le
ipotesi sul taglio dei costi spingono in alto le big tech.
Ora,
mentre la presidenza di Donald Trump punta a ridurre sensibilmente le spese del
governo federale, il segretario alla Difesa, “Pete Hegseth”, si è detto
favorevole a un nuovo regime di appalti tramite contratti “fixed-price “per
ridurre gli sprechi.
In modo diametralmente opposto ai “cost-plus”,
i contratti “fixed-price” fissano un prezzo in anticipo e trasferiscono il
rischio ai fornitori, svincolando il Pentagono da ogni obbligo di rimborso.
Per
quanto, al momento, questa rimanga solamente una proposta, la prospettiva di un
simile cambiamento è bastata a creare non poco scompiglio nel settore,
soprattutto tra i contractor storici del Dipartimento della Difesa.
“Percepiamo una grande paura da parte dei
fornitori tradizionali”, ha affermato “Shyam Sankar”, Chief technology officer
di Palantir.
Secondo “Sankar” le nuove aziende emergenti,
con i loro sistemi innovativi, rappresentano una minaccia per gli attuali
fornitori di soluzioni software del Pentagono, i quali temono adesso la
concorrenza delle emergine tech.
Vecchi
problemi, nuove soluzioni?
La
reintroduzione dei contratti “fixed-price”, già usati in passato come strumento
per razionalizzare i costi della Difesa, potrebbe rivelarsi un’arma a doppio
taglio.
Se da
un lato l’abolizione dei “contratti cost-plus” promette di tagliare sprechi e
inefficienze, aumentando quindi la fiducia degli investitori, l’assenza di
garanzie di copertura potrebbe rivelarsi fatale per gli appaltatori.
Con un
“contratto fixed-price”, un aumento imprevisto dei costi o un’eccessiva corsa
al ribasso per aggiudicarsi l’appalto potrebbero portare i contractor a
spendere più in progettazione di quanto guadagnerebbero dalle effettive
forniture, e questo l’industria Usa lo sa bene.
In
passato, sia negli anni 50 che negli anni 80, più di una società ha rischiato
il fallimento a causa di dinamiche simili, portando in entrambi i casi a un
ritorno agli “accordi cost-plus”.
Ciò
che rende fiduciose le emergine tech è la rapidità dei propri processi e la
natura dei cicli di sviluppo delle soluzioni software, più brevi e con un gap
temporale ridotto tra progettazione e produzione.
Se nel
settore ingegneristico tradizionale un dietrofront nello sviluppo può portare
anche ad anni di ritardi, nel campo delle soluzioni software queste transizioni
richiedono molto meno tempo e risorse per essere operate.
Tuttavia,
la questione rimane ancora sul tavolo di “Hegseth” e, se il nuovo regime
dovesse essere approvato, ci vorrà del tempo per capire se i nuovi player
emergenti dell’industria della Difesa a stelle e strisce riusciranno a rendersi
immuni dai problemi che hanno finora afflitto i loro concorrenti.
Biennaledemocrazia25,
Risorse.
La
longa manus delle Big Tech
sulla
guerra.
Futura.news.it - Anna Mulassano – (29 Marzo
2025) – ci dice:
Ad
appena 80 anni dalla nascita del primo calcolatore elettronico, “Maniac”,
prodotto dagli americani durante la Seconda guerra mondiale, ci troviamo
immersi in un mondo completamente computerizzato.
Come spiega “Juan Carlos De Martin”,
professore di Ingegneria informatica al Politecnico di Torino, durante la
lectio “Le Big Tech e la guerra” la vera computerizzazione del mondo è iniziata
25 anni fa, quando i computer sono diventati sufficientemente piccoli e
connessi a Internet.
Questo
processo è stato fagocitato da poche aziende, le Big Tech.
“Dario
Guarascio”, professore di Politica economica all’Università La Sapienza di
Roma, apre dunque la sua lectio al Polo del 900 parlando di una “storia di
vecchie contraddizioni con una nuova veste tecnologica”.
I
conflitti, infatti, sono direttamente collegati al potere economico.
E di
potere economico, oggi, le Big Tech ne hanno eccome:
sommandone la capitalizzazione in borsa si
ottiene un valore che supera il Pil di Germania e Giappone, spiega Guarascio:
“Se
guardiamo poi alle spese di sviluppo, ai brevetti e alle pubblicazioni
scientifiche scopriamo che le Big Tech, de facto, detengono il controllo
dell’evoluzione della frontiera tecnologica”.
Ma
quali sono le cause che hanno consentito una tale concentrazione di potere
economico e tecnologico e in così breve tempo?
“Il
modello di business delle Big Tech – spiega Guarascio – è legato al nostro
consenso alla profilazione dei dati.
Per le
piattaforme, i dati sono un vero e proprio bene, a esempio per la
targhetizzazione della pubblicità.
La digitalizzazione della vita ci parla anche di un
processo innato al capitalismo, vale a dire la mercificazione di qualsiasi
cosa”.
Questa
vita digitale riguarda tutti noi: i singoli individui, le aziende, gli Stati.
E
proprio perché ci riguarda tutti da vicino è diventata pressoché
irrinunciabile:
“La
microeconomia ci viene in soccorso e ci aiuta a spiegare questo meccanismo:
quando i beni e i servizi hanno una natura reticolare, cioè numeri elevati di
utenti, ne aumentano attrattività e costo percepito per l’abbandono di quel
servizio”.
Esattamente
quello che accade con le piattaforme:
le app
di messaggistica istantanea, a esempio, sono oggi così diffuse che rinunciarvi
implicherebbe disagi enormi per ciascuno di noi.
Quello
che prende forma negli Stati Uniti dopo il crollo delle Torri gemelle l’11
settembre 2001 è un complesso militare-digitale:
“L’egemonia
americana deve fare i conti con un sistema globalizzato e interdipendente in
cui gli Usa sono più deboli del previsto”.
In
questo contesto, tuttavia, gli apparati militari capiscono di avere al proprio
fianco “soggetti con elevata capacità tecnologica, che possono diventare
partner fondamentali:
quella
tecnologia può essere usata per la sorveglianza, per le sanzioni, per gli
omicidi targhettizati”.
Le Big Tech, infatti, posseggono elementi
infrastrutturali di cui il governo non può fare a meno e su cui esse avevano
investito, in controtendenza rispetto alle grandi imprese.
Spiega
“Guarascio”:
“Non è una questione esclusivamente materiale:
quando
si controlla un’infrastruttura, si creano delle competenze legate a quella
singola organizzazione molto difficili da replicare.
È così che si diventa partner irrinunciabili”.
Oggi,
infatti, le tecnologie delle Big Tech sono duali:
“Sono
vitali nel mercato privato e sempre di più anche in ambito bellico, per la
sorveglianza, la repressione e i cyber-attacchi.
Le
tecnologie di intelligenza artificiale (IA) si innestano sul cloud, sono dietro
gli armamenti di nuova generazione senza il controllo dei quali non si vince
una guerra”.
L’intelligenza
artificiale, tuttavia, segna una discontinuità rispetto all’inizio dell’era
della rete internet:
la
conoscenza di base era, allora, comprensibile per il settore pubblico, che
aveva contribuito allo sviluppo di quelle tecnologie.
Oggi,
invece, gli elementi fondamentali dietro l’IA generativa sono nelle mani delle
Big Tech.
Questo
rapporto, tuttavia, è di “mutua dipendenza”:
anche
le Big Tech traggono beneficio, soprattutto in periodi di crisi economica,
dagli elevati flussi di spesa militare per il digitale.
“Inoltre,
i profitti che le Big Tech ottengono sui mercati civili non sono nemmeno
paragonabili a quelli con il settore militare, che inoltre apre loro le porte
all’accesso a dati sensibili, le rende titolari di infrastrutture vitali”
specifica Guarascio.
La
mutua dipendenza non è però solo economica, ma anche strategica:
“Come lo Stato non può fare a meno delle Big
Tech, che sono la longa manus dell’apparato militare, così anche per le Big
Tech è importante il rapporto con la politica.
Basti
pensare a quando, una settimana dopo l’inizio del conflitto russo-ucraino,
l’allora presidente degli Stati Uniti, “Joe Biden”, chiese all’Unione europea
di attenuare i vincoli del “Data protection regulation” e riattivare il
trasferimento automatico dei dati verso gli Usa”.
Tutto
questo accade, per altro, in aperta contraddizione con il principio ideologico
sul quale erano nate le Big Tech:
“Le
piattaforme che hanno costruito la loro origine ideologica millantando distanza
dal potere pubblico, soprattutto quello connesso alle attività militari, si
sono messe l’elmetto e sono completamente attive nei territori di guerra”.
Per “Guarascio “però la partecipazione ai
conflitti non è solo un modo per acquisire centralità, ma anche per usufruire
di un contesto in cui testare e migliore le proprie tecnologie.
“E
questo non accade per le aziende che non si trovano in questi contesti
bellici”.
Davanti
all’intelligenza artificiale
la
politica non può restare neutrale.
Editorialedomani.it
– (01 luglio 2024) - Nicola Lacetera, Mattia Marasti e Silvia Pareschi-ck
dicono:
La
politica non può essere neutrale davanti all’Intelligenza artificiale, e deve
piuttosto rivendicare un ruolo fondamentale di guida e un approccio proattivo,
per anticipare e correggere pericolose distorsioni prima che sia troppo tardi.
Questo
può richiedere interventi sostanziali.
Nel
2012, la compagnia farmaceutica “Merck” ha organizzato una competizione per
l’individuazione di molecole che potessero diventare la base di nuovi farmaci,
partendo da una banca dati che conteneva informazioni sulla struttura di
migliaia di molecole.
A
sorpresa, il gruppo concorrente vittorioso (quello più accurato
nell’identificazione delle molecole più promettenti) era composto da dottorandi
dell’università di Toronto, con la supervisione del professor “Geoffrey
Hinton”, nessuno dei quali aveva conoscenze di biochimica: erano tutti
informatici.
Il
loro algoritmo si basava “semplicemente” su un approccio statistico che
individuava regolarità senza particolari basi teoriche, e sfruttava la banca dati per determinare quale molecola
avrebbe avuto maggior probabilità di successo.
Solo
pochi anni dopo,” Deep Mind”, un’impresa controllata a “Alphabet” (Google), ha
introdotto “Alphafold”, un algoritmo che, di nuovo su basi quasi esclusivamente
statistiche, riesce a determinare la struttura delle proteine a partire da
sequenze di amminoacidi con straordinaria precisione.
Le
implicazioni di questi risultati per il benessere e la salute degli individui
sono enormi.
Questi
algoritmi rappresentano ciò che oggi chiamiamo “Intelligenza artificiale” (IA).
In alcuni casi, sono conosciuti dagli esperti
del settore da quasi cento anni.
Ma solo negli ultimi decenni, grazie
all’enorme accumulazione di dati in forma digitale e alle capacità di calcolo
dei computer, hanno mostrato le loro prestazioni strabilianti in vari ambiti.
In
particolare, l’approccio basato sull’utilizzo di reti neurali – il cosiddetto
“deep learning” – è diventato dominante grazie alle sue applicazioni nel campo
della salute, del riconoscimento di immagini, dell’addestramento di robot.
Oltre
alla capacità predittiva di questi algoritmi, negli ultimi anni si è aggiunta
quella generativa.
Attraverso
semplici istruzioni in linguaggio naturale fornite dall’utente (e non tramite
un linguaggio di programmazione), L’IA generativa può fornire, ad esempio, spiegazioni
per qualsiasi argomento, ma anche produrre programmi informatici, traduzioni,
email, articoli, immagini.
(Tecnologia.
Apple
dichiara guerra all’Ue: così gli europei potrebbero ritrovarsi senza l’ultima
versione di Siri.
“Daniele
Erler”).
Troppo
entusiasmo?
È
davvero difficile, di fronte a queste meraviglie tecnologiche, non unirsi al
vasto gruppo di entusiasti (osservatori, politici, accademici) che evidenziano
l’indubbia positività di questi progressi, vedono nella loro crescente adozione
un importante motore di crescita e prosperità, e promuovono un “laissez faire”
regolatorio che ne minimizzi restrizioni all’uso e favorisca sempre più
applicazioni.
Ci
sono, tuttavia, molte ragioni per cui sarebbe bene riflettere prima di cedere a
un entusiasmo incondizionato.
Ci
limitiamo qui a tre punti essenziali.
Il
primo è quello più discusso: l’impatto dell’IA sul lavoro. Nel recente saggio
“Potere e progresso”, gli economisti “Daron Acemoglu” e “Simon Johnson”
sostengono che l’impatto dell’IA sull’occupazione dipenderà dal tipo di
sviluppo tecnologico che le imprese e la società in generale sceglieranno.
In
alcuni casi, come nella medicina o l’educazione scolastica, l’IA può
contribuire a migliorare diagnosi e terapie, oppure la definizione di piani di
apprendimento personalizzati.
La
presenza umana rimarrebbe però indispensabile.
L’automazione
industriale tramite robot o l’uso di assistenti virtuali hanno invece effetti
sostitutivi del lavoro umano, senza, almeno finora, offrire un servizio
sensibilmente migliore.
Lo
stesso vale per lavori che i modelli generativi possono compiere senza
l’assistenza umana, come la scrittura e la produzione di immagini.
L’evidenza mostra che la tendenza sostitutiva
e banalizzante sta prevalendo su quella integrativa del lavoro.
Non
solo: se gli effetti della robotica si concentravano sui lavori a bassa
specializzazione, quelli dell’IA più in generale colpiscono anche i lavori ad
alta specializzazione.
Non
mancano poi gli effetti di queste tecnologie sulla sorveglianza dei lavoratori,
andando a ledere il diritto alla privacy e con esso la qualità del lavoro
stesso.
Tecnologia.
Miniere
di litio e discariche: quanto inquina l’intelligenza artificiale.
La
qualità del dibattito.
Il
secondo tema riguarda la qualità dell’informazione e del dibattito pubblico.
Il potere predittivo dell’IA serve alle imprese per
definire, grazie ai nostri dati personali, i prodotti a cui siamo più
interessati e le notizie a cui più presteremo maggior attenzione.
I
social media stimolano traffico e coinvolgimento, e quindi ricavi pubblicitari,
personalizzando i contenuti e stimolando sensazioni che più spingono alla
partecipazione attiva, come identità, rabbia e odio.
Si
formano così “casse di risonanza” in cui riceviamo soprattutto informazioni che
confermano le nostre credenze, senza stimolare lo spirito critico. Ed è proprio
questa polarizzazione che poi stimola la creazione di contenuti falsi, ma
verosimili, che giornali e avversari riprendono per screditare politici e
attivisti.
Questa
tendenza fornisce terreno fertile a chi, come la destra radicale e illiberale,
specula sull’odio e le divisioni, logorando progressivamente le nostre
democrazie.
L’IA
avrà sicuramente un notevole impatto, infine, anche sulla nozione più generale
di cultura.
Gli algoritmi generativi non fanno altro che
ricombinare nozioni già esistenti, sfruttando (spesso gratuitamente) le opere
dell'ingegno altrui.
In
questo modo si riduce lo spazio per l’originalità individuale, che nella storia
umana è sempre stata alla base non solo dell’arte, ma anche delle nuove
scoperte scientifiche.
Il
rischio è quello di un livellamento verso il basso della qualità dei prodotti
culturali per raggiungere la cosiddetta “qualità accettabile”:
niente
di straordinario, tutto uniformemente mediocre, e nulla che ci stimoli a
riflettere mostrandoci qualcosa di insolito e inaspettato.
Una fruizione così personalizzata di prodotti
culturali potrebbe avere anche un impatto negativo sulla dimensione sociale, di
condivisione e confronto della cultura.
Verrebbero
meno occasioni di “esperienze condivise”, come le definisce il giurista “Cass
Sunstein “nel suo #republic, che sono fondamentali per la convivenza pacifica e
la coesione sociale.
Anticipare
e correggere.
La
pervasività e velocità di sviluppo delle applicazioni dell’IA sono tali da
rendere questa tecnologia molto più di un mezzo “neutro”, un fattore di
produzione applicabile a tanti ambiti come è stata ad esempio l’energia
elettrica un secolo fa.
Per
usare le recenti parole di papa Francesco, si tratta di uno strumento
«affascinante e tremendo».
Sempre
più osservatori, anche tra quelli inizialmente più entusiasti, vedono ora una
traiettoria di sviluppo di queste tecnologie che favorisce il capitale sul
lavoro, indebolisce le democrazie rinforza regimi illiberali e intrusivi, e
banalizza la produzione culturale.
La
politica quindi, a sua volta, non può essere neutrale, e deve piuttosto
rivendicare un ruolo fondamentale di guida e un approccio proattivo, per
anticipare e correggere pericolose distorsioni prima che sia troppo tardi.
Questo
può richiedere interventi sostanziali.
Lo “Ai
Act” dell’Unione europea, per esempio, limita certi usi dell’IA al fine di
proteggere la privacy e limitare la diffusione di contenuti contraffatti.
Un’altra leva è la politica tributaria, come
lo spostamento di parte dell’imposizione fiscale dal lavoro al capitale, che
potrebbe disincentivare l’eccessiva sostituzione del lavoro umano con macchine
e robot, o la tassazione dei proventi pubblicitari delle piattaforme online per
ridurre il ricorso a modelli di business basati sulla pubblicità che quindi
traggono beneficio da un uso dei social media più frenetico e meno critico.
Una
maggiore influenza dei lavoratori e dei sindacati nelle scelte aziendali
favorirebbe investimenti in tecnologie che meglio contemperino le esigenze di
tutti i portatori di interesse.
Norme
più stingenti sul diritto d’autore renderebbero più costoso l’utilizzo del
lavoro creativo di altri per alimentare gli algoritmi, e di conseguenza più
appetibile la ricerca del nuovo e inaspettato.
L’obiettivo,
ovviamente, non è ostacolare processo innovativo e quindi la crescita
economica.
Ma
ogni rivoluzione tecnologica è sempre stata orientata dalla politica e dalla
società, a volte in maniera casuale, ma più’ spesso attraverso un dibattito
informato, plurale, pubblico e diffuso su eventuali costi e benefici.
La celebre esortazione di “Spinoza” che recita
«non disperarci, non detestare, ma comprendere», sembra particolarmente
adeguata a definire la filosofia da adottare nell’affrontare le sfide e le
opportunità dell’Intelligenza Artificiale.
C’è da chiedersi se le nostre società e classi
politiche saranno abbastanza mature (e libere) da seguirla.
(Nicola
Lacetera, Mattia Marasti e Silvia Pareschi).
La
pericolosa illusione della “democrazia artificiale”.
Iltascabile.com
- Andrea Daniele Signorelli / Elon Musk – (19.2.2025) -ci dice:
Mentre
Elon Musk porta avanti il suo golpe digitale sugli organi federali, c’è chi
teme (e chi auspica) che l’intelligenza artificiale possa prendere il posto
della politica.
(Andrea
Daniele Signorelli è giornalista freelance, si occupa del rapporto tra nuove
tecnologie, politica e società. Scrive per Domani, Wired, Repubblica, Il
Tascabile e altri. È autore del podcast “Crash” - La chiave per il digitale.)
Nei
piani di Elon Musk, quella a cui stiamo assistendo in queste settimane è
soltanto la prima fase dell’azione di DOGE (Department Of Government
Efficiency), il dipartimento per l’efficienza governativa da lui guidato e nato
per volontà di Donald Trump.
Una
prima fase che prevede di individuare “ridondanze” nell’amministrazione
pubblica, nei ministeri e nelle varie agenzie governative, tagliare fino a tre quarti dei lavoratori
federali, accorpare o cancellare enti considerati inutili o dannosi (a partire
da “USAID”, “United States Agency for International Development”, il braccio
umanitario del “soft power statunitense”), diminuire drasticamente le normative
che regolano la macchina pubblica e, nel complesso, arrivare a ridurre anche di
duemila miliardi di dollari il bilancio governativo.
Già in
questa prima fase – che ha messo nel mirino, oltre a “USAID”, anche il “ministero
dell’Educazione”, gli uffici che sovrintendono ai programmi di retribuzione per
i dipendenti federali e tantissimi altri – Elon Musk sta sfruttando i sistemi
di intelligenza artificiale (AI, Artificial Intelligence) per identificare ciò
che considera spese superflue, personale sovrabbondante e programmi federali
sgraditi.
Non tutto sta andando per il verso giusto:
al di
là delle azioni giudiziarie che hanno temporaneamente bloccato, o almeno
tamponato, alcune intemerate di Musk e del suo staff, sono stati segnalati casi
in cui l’accetta del DOGE si è abbattuta su persone che – anche volendo aderire
al 100% all’ideologia “anti-woke” che ne guida l’operato – non avevano fatto
nulla per caderne vittime.
È il
caso per esempio delle 100 persone che sono state messe in congedo
amministrativo in seguito all’ordine esecutivo con cui Trump ha vietato ogni
iniziativa federale nell’ambito “DEI” (Diversity, Equity, Inclusion).
Come segnala il “Washington Post”, “la grande
maggioranza delle persone messe in congedo si era iscritta a un singolo corso
d’aggiornamento sulla diversità, molti di loro perché li aiutava a soddisfare
un requisito professionale da più parti richiesto”.
È quello che avviene quando si agisce
freneticamente, sfruttando sistemi automatizzati e guidati da un cieco fervore
ideologico.
Lo ha
parzialmente ammesso lo stesso “Musk”, che ospite di Trump alla Casa Bianca ha
affermato:
“Alcune delle cose che farò saranno sbagliate
e dovranno essere corrette.
Nessuno
può avere una media perfetta. Tutti commettiamo errori.
Ma agiremo rapidamente per correggere
qualsiasi errore”.
Ma
questo, come detto, potrebbe essere solo il primo passo di un piano che, se
riuscirà a vedere la luce, avrebbe un altro obiettivo, esplicitato nell’ottobre
2024 in un paper pubblicato dal “think tank Foundation for American innovation”
(molto vicino a Musk).
Nel
secondo capitolo del paper, intitolato “Utilizzare l’intelligenza artificiale
per ottimizzare le operazioni e ridurre la burocrazia”, si legge:
“La
Casa Bianca dovrebbe emanare un ordine esecutivo incaricando l’Ufficio per la
gestione del personale e le agenzie federali di esaminare e individuare
opportunità per l’uso dell’AI da parte del governo federale al fine di
semplificare la burocrazia, anche attraverso la riduzione della forza lavoro
federale per le posizioni che possono essere automatizzate”.
In
sintesi, Musk non sta impiegando l’intelligenza artificiale solo per
identificare i costi superflui da tagliare.
L’obiettivo
ultimo della nuova amministrazione statunitense è quello di sostituire i
dipendenti federali (e la loro autonomia) con dei sistemi automatici.
Di
rimpiazzarli con uno strumento che – ha affermato lo stesso Trump in un suo
ordine esecutivo – “è privo di “bias” ideologici o di agende sociali
ingegnerizzate” (un’affermazione, come vedremo tra poco, completamente sbagliata).
È
l’utopia tecno-soluzionista.
Un
sistema in cui, nella sua versione ultima, i sistemi di intelligenza
artificiale vengono dotati di effettivo potere politico.
“Ciò
che si sta cercando di automatizzare non sono le pratiche burocratiche, ma il
processo decisionale democratico”, ha scritto “Eryk Salvaggio” su “Tech Policy”.
“La
ratio è basata sul mito della produttività, secondo cui l’obiettivo della
burocrazia è esclusivamente ciò che essa produce (servizi, informazioni,
governance) e può essere isolata dal processo attraverso il quale la democrazia
consegue questi fini:
dibattito,
deliberazione e consenso”.
È
l’utopia tecno soluzionista.
Un
sistema politico in cui, nella sua versione ultima, i sistemi di intelligenza
artificiale vengono dotati di effettivo potere politico e incaricati di
identificare gli sprechi, gli errori, le storture e di individuare le politiche
più adatte per conseguire determinati obiettivi, sfruttando la loro capacità di
scovare in un istante correlazioni invisibili a occhio umano, analizzando una
quantità di dati immensa e avvantaggiandosi dell’aura di oggettività che
circonda una tecnologia a base statistica.
E se
succedesse davvero?
Se
realmente il processo decisionale politico venisse sostituito da un algoritmo
in grado di individuare la strada più efficiente per conseguire determinati
obiettivi (crescita
economica, pareggio di bilancio, lotta all’evasione fiscale o qualunque altra
questione complessa)?
Nell’opinione
pubblica, questa ipotesi gode di un certo sostegno:
nel
2021, un sondaggio del “Center for the governance of change” aveva mostrato
come il 51% degli europei fosse favorevole a ridurre il numero di parlamentari
nazionali e a riallocare questi seggi a un algoritmo di intelligenza
artificiale.
Il sostegno era particolarmente alto in Spagna
(66%), Italia (59%) ed Estonia (56%).
Ma come funzionerebbe una cosa del genere?
Le
possibili alternative sono parecchie:
c’è chi ha proposto, come “Joshua Davis” di “Wired
USA”, che gli elettori si rechino alle urne per votare un’intelligenza
artificiale di centrosinistra o una di centrodestra, incaricandola di portare
avanti nel modo più efficace possibile il programma delle forze che
appartengono ai due schieramenti.
Il 51%
degli europei si dice favorevole a ridurre il numero di parlamentari nazionali
e a riallocare questi seggi a un algoritmo di intelligenza artificiale.
Un
algoritmo-premier, quindi, che farebbe propri i valori e i programmi dello
schieramento vincitore e valuterebbe in base a essi quali politiche perseguire,
senza farsi condizionare dall’andamento dei sondaggi, dalle polemiche del
giorno, dai mille timori che troppo spesso impediscono ai governi guidati dagli
esseri umani di perseguire iniziative coraggiose.
In alternativa, si potrebbe decidere di votare
su una serie di questioni specifiche (L’Italia deve uscire dall’Europa?
Dobbiamo chiudere i porti? Bisogna alzare il salario minimo?) e poi lasciare
che sia un algoritmo a decidere la strada migliore per portare a termine questi
obiettivi.
In entrambi i casi, il metodo
dell’intelligenza artificiale sarebbe basato sull’analisi di ciò che è avvenuto
in passato, applicando le ricette politiche ed economiche che hanno funzionato
in determinate situazioni e scartando quelle che già hanno dimostrato di essere
fallimentari.
Questa intelligenza artificiale imparerebbe
quindi dagli errori e dai successi del passato per individuare le strategie
politico-economiche più efficaci.
Un
algoritmo, seguendo questa interpretazione, potrebbe non accettare di
introdurre misure che rischiano di aumentare il già spaventoso debito pubblico
italiano (che mette a repentaglio le generazioni future).
Non solo: “Immaginate un presidente AI nel
2003.
Il
software avrebbe analizzato decenni di report su “Saddam Hussein”, assorbito
tutta l’intelligence a disposizione sulle armi di distruzione di massa e
concluso che l’invasione dell’Iraq non avrebbe in alcun modo diffuso la
democrazia”, ha scritto sempre” Joshua Davis”.
Oppure,
come ha provocatoriamente scritto Yuval Noah Harari in Homo Deus (2016),
potremmo anche smettere di andare a votare:
“A cosa servono delle elezioni democratiche quando gli
algoritmi sanno già come ogni persona voterà e quando conoscono anche le esatte
ragioni neurologiche per cui una persona vota democratico e un’altra
repubblicano?”.
Potremmo allora saltare la fase elettorale,
determinare “neurologicamente” cosa vuole la maggioranza e poi affidarci a una
AI per realizzarlo.
È
difficile prendere sul serio queste suggestioni.
Se
anche un algoritmo sapesse già a che partito va la mia preferenza (cosa
effettivamente probabile), quale sarebbe il vantaggio di farlo votare al mio
posto?
E
davvero qualcuno pensa che i politici italiani varino misure che hanno la
conseguenza di far aumentare il debito pubblico senza rendersene conto?
Chi ha
il coraggio di credere che l’invasione dell’Iraq sia realmente stata fatta per
“diffondere la democrazia”?
In
tutti i casi citati, avere un algoritmo al posto di un politico non servirebbe
a nulla.
Nell’ipotesi
di Davis, se una percentuale di persone votasse per misure – tagli o bonus
fiscali – che rischiano di aumentare il debito pubblico, l’intelligenza
artificiale non potrebbe fare altro che obbedire.
E
magari, se fornito di tutte le motivazioni geopolitiche ed economiche che hanno
portato i neocon a decidere che fosse conveniente per gli interessi
statunitensi invadere l’Iraq, l’algoritmo arriverebbe alla stessa conclusione,
cioè che mentire sulle armi di distruzione di massa e destituire con la forza
Saddam Hussein fosse la scelta giusta.
Fino a
oggi, i sistemi d’intelligenza artificiale in campo pubblico-politico sono
stati utilizzati cedendo alla macchina ampia autonomia decisionale e
sottoponendola a scarsa supervisione umana. In molti casi con risultati
disastrosi.
Gli
scenari (al momento fantascientifici) che analizzano i modi in cui
un’intelligenza artificiale potrebbe assumere un ruolo politico solitamente si
dividono, come analizzato in un paper di “Mark Coeckelbergh” e “Henrik Skaug
Sætra” pubblicato su “Technology & Society”, in due filoni: i
l
primo propone l’AI come strumento per migliorare i processi democratici
esistenti, pur mantenendo la guida umana (è più o meno l’ipotesi di Davis).
Il
secondo filone vede invece nell’intelligenza artificiale un agente con un ruolo
decisionale centrale (una compiuta tecnocrazia), in grado di sostituire – o
quantomeno di superare – molte delle procedure democratiche.
Nel
primo caso, l’AI si limita a eseguire le politiche decise dagli esseri umani
nel modo più efficiente possibile;
nel
secondo, è l’AI a decidere le politiche.
Fino a
oggi, l’utilizzo dei sistemi d’intelligenza artificiale in campo
pubblico-politico si è avvicinato più al primo filone, cedendo però alla
macchina ampia autonomia decisionale e sottoponendola a scarsa supervisione
umana.
In
molti casi, i risultati sono stati disastrosi.
Per
esempio, un algoritmo impiegato dalle agenzie di collocamento polacche,
introdotto nel 2014 dal governo di Varsavia, ha sistematicamente penalizzato –
come documentato dalla “ONG Algorithm Watch” – persone con disabilità, madri
single, chi proveniva da zone rurali e altre categorie ancora.
Poiché
i sistemi d’intelligenza artificiale funzionano tutti su base statistica,
l’algoritmo si era limitato a “notare” come certe categorie venissero raramente
assunte in passato per svolgere determinate professioni, valutandole quindi
negativamente.
L’algoritmo
– che infatti il governo ha poi ritirato in fretta e furia – non faceva altro
che discriminare chi viene già solitamente discriminato, celando però queste
criticità dietro l’aura della “oggettività statistica”.
Una
situazione simile si è verificata nel 2020 nel Regno Unito, ma in questo caso
le vittime di quello che è passato alla storia come “A-Level Fiasco” erano gli
studenti in attesa di ottenere il diploma superiore e di conoscere quale
sarebbe stato il loro voto finale:
un
fattore decisivo per entrare nelle università più prestigiose.
A
causa del Covid, nel 2020 il Regno Unito ha però rinunciato a svolgere
l’equivalente britannico dei nostri esami di maturità.
Al suo
posto, il dipartimento governativo preposto (Ofqual, Office of qualifications
and examinations regulation) ha deciso che a dare i voti agli studenti sarebbe
stato un algoritmo.
Come
spiega sul sito della “London school of economics” il professor “Daan Kolkman”,
docente di sociologia informatica, i voti venivano assegnati dall’algoritmo
sulla base di tre aspetti:
la distribuzione storica dei voti in una data
scuola nei tre anni precedenti, le previsioni degli insegnanti sul voto finale
degli studenti e i voti da essi ottenuti in ogni materia.
Risultato?
Gli
studenti delle scuole private più prestigiose hanno ottenuto voti finali più
alti di quelli attesi dai loro insegnanti (e quindi una maggiore possibilità di
accedere alle migliori università), mentre gli studenti delle scuole pubbliche
hanno ottenuto voti in media più bassi di quelli attesi dagli insegnanti.
Le
ragioni dietro a questa discrepanza sono molteplici e spesso è quasi
impossibile interpretarle, visto che un algoritmo effettua miliardi di calcoli
sulla base di innumerevoli variabili.
L’oggettività
statistica dell’intelligenza artificiale è un mito, ed è noto da tempo quanto
questi sistemi siano soggetti a discriminazioni e pregiudizi che colpiscono
quasi invariabilmente minoranze e fasce già penalizzate della popolazione.
In
questo caso specifico, si sa però che – a causa della struttura dell’algoritmo
– se in una specifica scuola nessuno studente aveva ottenuto il voto massimo
nei tre anni precedenti, diventava praticamente impossibile per qualunque
studente di quella scuola riuscire a conquistarlo.
La
causa di ciò era la priorità accordata dall’algoritmo, nella valutazione dei
singoli studenti, ai risultati ottenuti in quella scuola nei tre anni
precedenti.
I risultati del passato venivano quindi
scaricati sulle spalle di ragazze e ragazzi incolpevoli, spesso appartenenti
alle scuole pubbliche dei quartieri più difficili (i cui voti medi sono spesso
più bassi) e penalizzando così gli studenti che – nonostante le condizioni
socioeconomiche – si erano impegnati.
Sono
solo due casi che mostrano come l’oggettività statistica dell’intelligenza
artificiale sia un mito e quanto questi sistemi siano soggetti, come noto da
tempo, a discriminazioni e pregiudizi che colpiscono quasi invariabilmente
minoranze e fasce già penalizzate della popolazione.
Se non
bastasse, è facilissimo celare – anche di proposito – i nostri espliciti
pregiudizi all’interno di un sistema algoritmico di valutazione, confidando
nell’enorme difficoltà di rendersi conto di ciò che sta avvenendo.
È il
caso per esempio del sistema, inaugurato sempre da Trump, che rifiuta i
finanziamenti a ricerche accademiche che contengono parole chiave come,
appunto, “bias”, “attivismo”, “diversità”, “inclusione” e tantissime altre.
In
questo caso, l’assurda procedura voluta da Trump è emersa subito pubblicamente,
ma è fin troppo facile immaginare un futuro in cui dei sistemi automatici
rifiutano finanziamenti (o sussidi o mutui o lavori) sulla base di parole
chiave che non sono note al pubblico, impedendo che a fare le necessarie
valutazioni siano degli esseri umani, nella loro diversità d’opinioni e
sensibilità.
La
capacità di macinare enormi quantità di dati e di scovare correlazioni a noi
invisibili può essere estremamente utile in ambiti cruciali, come la medicina o
il contrasto alla crisi climatica.
Nel
campo della governance, i limiti maggiori dell’intelligenza artificiale sono
fondamentalmente tre:
utilizza
dati relativi al passato per modellare il futuro (con il rischio di perpetuare
pregiudizi e stereotipi), favorisce il campione statisticamente dominante
(penalizzando le minoranze) e risulta spesso incapace di modificare la sua
analisi a seconda dei differenti contesti (il sistema di Trump potrebbe per
esempio bloccare tutte le ricerche che contengono la parola “inclusione”, ma in
questo modo escluderebbe paradossalmente anche quei progetti che mirano a
confutare l’utilità delle politiche d’inclusione).
Più in
generale, il timore segnalato sempre da “Salvaggio” è che l’iniziativa di “Trump”
e “Musk “punti a “togliere al Congresso la supervisione sulla spesa pubblica e
sui programmi stabiliti per legge, affidandola a un sistema automatizzato”.
Questo rappresenterebbe “il primo segnale che
il ‘colpo di Stato’ dell’intelligenza artificiale è compiuto.
Indicherebbe il passaggio dalla governance
democratica all’automatismo tecnocratico, in cui gli ingegneri stabiliscono
come dirottare i finanziamenti del Congresso verso gli obiettivi del potere
esecutivo”.
E
quindi, l’utilizzo dell’intelligenza artificiale nel campo della governance,
della pubblica amministrazione e della politica è tutto da buttare?
In
realtà, no.
La
capacità di macinare enormi quantità di dati e di scovare correlazioni a noi
invisibili può essere estremamente utile in ambiti cruciali, come la medicina o
il contrasto alla crisi climatica, dove l’intelligenza artificiale può aiutare
a elaborare i dati sul cambiamento delle temperature e sulle emissioni di
anidride carbonica, a prevedere gli eventi meteorologici estremi, a ottimizzare
l’utilizzo delle fonti energetiche, a monitorare gli oceani e non solo.
Soprattutto
nei campi più scientificamente complessi, l’intelligenza artificiale può essere
un alleato estremamente utile del decisore umano.
Per
certi versi, se usata nel modo giusto e in alcuni ambiti specifici,
l’intelligenza artificiale potrebbe proiettare la politica e la governance in
una sua era “Money ball”.
Con
questo termine si fa riferimento alla rivoluzione che, nel mondo dello sport (a
partire dal baseball e poi anche nel basket, calcio, ecc.), è stata abilitata
dall’informatica, permettendo di analizzare in maniera scientifica i dati
relativi a giocatori, schemi ed efficacia di entrambi, dove prima allenatori e
manager potevano affidarsi soltanto a istinto, osservazione ed esperienza.
A
oltre vent’anni di distanza da questa rivoluzione sportiva, allenatori e
manager non sono stati sostituiti da algoritmi informatici, ma li hanno resi
parte del loro processo decisionale e di valutazione.
Perché
l’intelligenza artificiale deve sostituire l’essere umano, quando è la
combinazione dei due a dare i risultati migliori?
Trovare
una sintesi tra opportunità e rischi dell’intelligenza artificiale nel campo
della governance non è poi così complesso.
Si tratta soprattutto di uscire da quella
visione predominante che mette in contrapposizione intelligenza artificiale ed
esseri umani, in cui la prima mira “naturalmente” a sostituire i secondi.
In
realtà, le competenze statistiche della macchina e la sua potenza e rapidità di
calcolo sono complementari alle nostre abilità, che sono invece astrazione e
generalizzazione della conoscenza, buon senso, istinto (inteso come capacità di
reagire in modo corretto a situazioni inedite) e altro ancora.
Perché l’intelligenza artificiale deve
sostituire l’essere umano, quando è la combinazione dei due – come dimostrato
anche dagli “scacchisti centauri” di Garri Kasparov – a dare i risultati
migliori?
E
allora perché non è questa la strada intrapresa da Musk?
La
ragione è abbastanza evidente:
lo scopo non è migliorare l’efficienza della
macchina amministrativa, ma distruggere la sua forma attuale e sostituirla con
algoritmi ciecamente obbedienti.
Spiega sempre “Salvaggio”:
Per
raggiungere il suo obiettivo, qualsiasi intelligenza artificiale impiegata in
questo contesto non dovrebbe necessariamente essere capace di prendere buone
decisioni o di mostrare nuove capacità.
Le
basterebbe essere considerata una concorrente plausibile al processo
decisionale umano, quel tanto che basta per estromettere gli attuali decisori
nell’amministrazione pubblica, ossia le persone che incarnano i valori e la
missione dell’istituzione.
Una volta sostituite, si perderebbe la
conoscenza umana su cui l’istituzione si fonda.
L’obiettivo
di Elon Musk e Donald Trump è quello di ridurre al minimo la macchina dello
Stato e spalancare le porte del potere alle entità private.
Da questo punto di vista, segnalano” Kevin De
Liban” di “Tech Tonic” e “Alice Marwick” di” Data & Society” in un articolo
su “Tech Policy” “ridurre la capacità di svolgere compiti governativi di base
porterà a un calo della fiducia pubblica, il che a sua volta giustificherà
ulteriori tagli e favorirà l’espansione della sfera privata”.
Realizzando,
così, la distopia anarco capitalista di Trump e Musk.
Verso
un mondo senza informatici?
L’AI
mette a rischio
il
governo degli algoritmi.
Strisciarossa.it – (12 Gennaio 2024) - In
Società - Bruno Gravagnuolo – ci dice:
Candy.
Si chiama come la lavatrice il chief della IBM responsabile generale per la
Intelligenza artificiale. Mathew Candy. Sostiene una cosa strana: inutili in
futuro le lauree in informatica. Le macchine dice Mr. Candy sono già in grado
di calcolare progettare, sviluppare.
Disegnare
e comporre. Che bisogno c’è allora di programmatori e ingegneri?
E in
effetti già oggi un cilindro stampante in 3D è come un forno.
Visualizzi,
imposti e dopo 20 minuti viene fuori un tostapane oppure una scultura. Lo
abbiamo visto con i nostri occhi:
dal
nostro dentista che la usa per le protesi, ma faceva anche uscire alberi di
Natale e piccoli o grandi Batman (quelli per me).
E che
dice ancora Mr. Candy?
Che
conteranno le soft skills, abilità creative morbide.
Idee e
cura per le persone, servizi, modellamenti ad hoc dei prodotti.
E
infine decor, arti visive, e dunque immaginazione.
Del
resto, ma questo è sottinteso, le “chat box “saranno in grado di programmarsi
da sé e di farsi e darsi le domande e le risposte giuste.
Non
v’è dunque alcuna necessità di informatici visto che queste figure stesse in
origine decisive sono ormai obsolete come il bigliettaio!
C’è da riflettere, dunque, poiché c’è del vero
in tutto questo. E la fonte del discorso è credibile: I’IBM in persona.
Due
considerazioni intanto.
La
prima: Tutto
questo non significherà affatto fine del lavoro comandato.
Lo
scriveva anche “Federico Rampinl” da “New York” il 27 dicembre scorso sul
“Corriere della Sera”.
Anzi
vi sarà espansione nei servizi, nella cura alle persone, nelle mansioni più
umili e faticose, nei call center.
Al
contempo, conoscerà una espansione proprio l’industria minuta dei piccoli
pezzi, e quella estrattiva delle terre rare per l’elettronica, mentre crescerà
uno smisurato esercito di riserva flessibile e fluttuante.
Di
disoccupati, consumatori indebitati.
Immigrati.
Un
Proletariato consumer e customer, fatto di sussidi e mini Jobs.
E la
seconda notazione è questa: senza informatici saremo davvero più liberi?
Senza
gente che inventa e gestisca e ripari gli algoritmi saremo davvero più sicuri e
alleggeriti?
Penso
proprio di no. Anzi.
Da un
lato diminuirà il numero di coloro in grado di capire e governare la scienza
matematica e quantistica di cui sono fatti i computers di nuova generazione.
Dall’altro resteranno pochi e selezionati
macchinisti al vertice, tra i quali in primo luogo i tycoon manager delle
piattaforme capitalisti di nuovo conio.
Capitalisti informazionali, non puri manager
come nelle vecchie analisi del capitalismo manageriale alla” Burnham –
Managerial”, ma capitalisti scienziati e informatici.
Versati
nelle matematiche e nelle scienze, oltre che nelle stock option, e abili anche
nel registro dell’immaginario estetico, nell’invenzione estetica della
fruizione, che è poi la molla che oggi alimenta il circolo produzione-consumo.
Vale a dire. Invenzione di oggetti…
Spazi,
avventure, spettacolo, persino scenari di guerre stellari o viaggi al centro
della galassia.
E
questa nuova cuspide di tecno capitalisti finanziari della AI, non ha affatto
bisogno di informatici o scienziati di massa.
E
nemmeno di istruzione diffusa. Ha la sua di istruzione, e ha i suoi di tecnici
informatici.
In primo luogo loro stessi e poi gli staff
orizzontali connessi.
L’impresa
stessa è ormai un lab e gli estranei non sono “admitted”.
E lì dentro che si progetta il futuro e si
impiantano le domande giuste e gli input, e gli algoritmi e gli scenari.
Si
tratterà di vedere e studiare come questo “neo capitalismo tecno lab “verrà a
patti con il “vecchio complesso militare industriale”.
Con la
finanza e le classiche multinazionali.
Con la
potenza ideocratica degli apparati imperiali dei grandi Stati come Russia e
Cina, oggi ancora più forti di qualsivoglia imprenditore o capitalista lab.
Ma la
strada del nuovo capitalismo occidentale è ormai tracciata.
Sarà
elitaria la nuova forma egemone e niente affatto democratica.
Ecco
perché l’IBM ci manda a dire: lasciate stare l’informatica e dedicatevi ad
altro.
Ce ne
occupiamo noi.
Dedicatevi
alla invenzione di forme di consumo e all’estetica di massa.
E all’
arte dell’incontro con gli oggetti e le persone.
Alla
cornice per generare il mondo e ai mezzi di produzione che sono i nostri, ci pensiamo noi.
(Bruno
Gravagnuolo).
l
libro degli incubi di Ursula von der Leyen:
una
distopia che uccide l’anima dell’Europa.
Strisciarossa.it – (31 Marzo 2025) - Pier
Virgilio Dastoli – ci dice:
Ursula von der Leyen – esponente della CDU
tedesca confermata il 1° dicembre 2024 alla testa della Commissione europea con
una maggioranza parlamentare più ristretta di quella ottenuta nel novembre 2019
– non conosciamo le qualità professionali nel settore sanitario ma sono invece
giunti anche in Italia gli echi negativi della sua attività di Ministro della
Difesa dal 2013 al 2019: giudicata dai vertici della “Bundeswehr” come la
peggiore esperienza dalla creazione della difesa federale avvenuta nel 1955,
dopo la malaugurata caduta della CED nel 1954, “al servizio della Germania” (Wir dienen Deutschland).
L’aumento delle spese nazionali avrà
disastrose conseguenze.
Fondandosi
su questa sua passata esperienza, Ursula von der Leyen si è gettata da un mese
lungo l’impervia via di “riarmare l’Europa” (ReArmEuropa) come se i Paesi
membri dell’Unione europea siano totalmente disarmati di fronte alle sfide
della geopolitica – che era stato il fiore al suo occhiello nel 2019.
E questo nonostante il livello globale della
spesa militare europea, distinta paese
per paese, ci collochi dopo gli Stati Uniti ma prima della Russia e della Cina.
Dopo
la sfortunata esperienza comunicativa del suo roboante annuncio del 4 marzo
2025, Ursula von der Leyen si è limitata a cambiare il titolo del suo piano
legandolo all’idea della prontezza o della preparazione (Readiness) entro il
2030.
La
sostanza del piano resta tuttavia la stessa perché l’ostilità di una forte
minoranza di governi a creare nuovo debito comune dopo il NGEU o ancor più
Eurobond per gettare le basi di una vera difesa europea renderebbe secondo la
Commissione europea inevitabile la scelta di puntare sull’aumento delle spese
nazionali ciascuno per sé con evidenti e disastrose conseguenze sulla
insostenibilità dei debiti pubblici che pesano sul 50% dei bilanci nazionali.
Gli
esperti ci dicono che, in mancanza di debito comune e nell’impossibilità
politica di aumentare le tasse, i governi già indebitati potrebbero decidere di
introdurre dei tagli di bilancio alle spese civili, escludendo invece la via
più logica e ragionevole di aumentare il bilancio europeo attraverso
l’introduzione di vere risorse proprie che colpiscano esternalità negative e
finanziando così beni pubblici europei fra cui il settore della difesa.
Si sa
negli ambienti delle istituzioni europee che, da alcune settimane, i dirigenti
delle industrie militari italiane, francesi e tedesche hanno intensificato i
loro viaggi a Bruxelles perché contano sulla possibilità che dal piano europeo
giungano nuove risorse finanziare per creare quelli che Ursula von der Leyen ha
chiamato “buoni posti di lavoro per aumentare la prosperità con ricadute
positive nel settore civile” (sic!) che si dovrebbero aggiungere ai
seicentomila addetti nei settori pubblico e privato delle difese nazionali.
Per
ora il piano ideato da Ursula von der Leyen insieme ai commissari “Kallas” e “Kubilius”
è solo un “libro degli incubi” che si è affiancato al “Libro Bianco della
Difesa” – su cui si è inutilmente espresso il Parlamento europeo a metà
febbraio con una lunghissima risoluzione priva di rilevanza giuridica – e che
non si è ancora tradotto in proposte rilevanti dal punto di vista normativo e
finanziario.
Il
ricorso all’articolo 122 esclude qualsiasi controllo democratico.
Sul
tavolo del Consiglio europeo e del Consiglio (ma non del Parlamento europeo nel
caso in cui venisse accettata la base pattizia dell’art. 122 TUE che esclude il
controllo democratico e parlamentare) c’è solo l’ipotesi teorica di un piano di
ottocento miliardi di euro suddivisi fra centocinquanta miliardi di euro di
prestiti agli Stati membri e seicentocinquanta miliardi di euro in parte
provenienti da investimenti pubblici nazionali sottratti al rigore del Patto di
stabilità e in parte da investimenti privati.
Secondo
le idee partorite al tredicesimo piano del “Berlaymont”, il piano per la
“prontezza” o la “preparazione” europea entro il 2030 (Readiness 2030) dovrebbe
coprire nello stesso tempo:
– gli aiuti militari all’Ucraina (dove
l’Unione europea ha investito in più di tre anni dall’aggressione di Putin il
24 febbraio 2022 globalmente meno degli Stati Uniti e in assenza di qualunque
forma di coordinamento e interoperabilità),
– la progressiva sostituzione
dell’ombrello statunitense in Europa nel quadro della NATO nell’ipotesi
probabile di uno sganciamento di Washington,
– e il rafforzamento dell’autonomia
strategica europea negli scenari internazionali a cui si aggiungerebbe anche un
maggiore sostegno al ruolo civile delle forze armate.
“Vaste programme”, avrebbe detto il
Generale De Gaulle che si intendeva di questioni militari molto più della
nostra Ursula von der Leyen.
Nessun
vincolo giuridico sarebbe previsto invece per garantire l’interoperabilità fra
le forze armate nazionali, così come per rendere obbligatori gli investimenti
comuni per prodotti comuni ed europei in settori sensibili della nostra
sicurezza terrestre, aerea e navale lasciando alle imprese pubbliche e
nazionali la disponibilità di scegliere vie europee od altre forme di
cooperazioni al di fuori dell’Unione europea.
A
proposito del ruolo civile delle forze armate ha suscitato ironiche reazioni il
video della
“commissaria Lahbib” sul cosiddetto “kit di sopravvivenza” per settantadue ore
considerato necessario anche per far fronte ad eventuali aggressioni militari,
mentre dalla Commissione europea ci saremmo attesi proposte concrete ed
ambiziose per dare attuazione alle azioni di sostegno, di promozione e di
cooperazione nel settore della protezione civile previste dall’art. 196 TFUE.
Il
Parlamento europeo convochi sessioni straordinarie.
Di
fronte al “libro degli incubi” di Ursula von der Leyen e alla reiterata volontà
di ignorare i principi del controllo democratico su cui dovrebbe fondarsi la
politica estera e di sicurezza ivi compresa la dimensione della difesa, noi
riteniamo che il Parlamento europeo debba far uso urgente del potere che gli è
stato attribuito dal Trattato (art. 36 TUE) di organizzare un dibattito “sui
progressi raggiunti nella realizzazione della politica estera e di sicurezza
comune ivi compresa la politica di sicurezza e di difesa comune” dando a questo dibattito la
sostanza e la natura di sessioni straordinarie di “assise interparlamentari”
come quelle che si svolsero a Roma nel novembre 1990 invitando come osservatori
delegazioni dei parlamenti dei Paesi candidati.
Andando
al di là del tema della difesa, le sessioni delle “assise interparlamentari”
dovrebbero essere l’occasione per discutere nello stesso tempo del futuro
quadro finanziario pluriennale 2028-2032 su cui la Commissione europea
presenterà le sue proposte nel prossimo mese di luglio e per affermare il
principio che la politica estera è parte essenziale dell’integrazione politica
su cui si dovrà aprire un processo
costituente che si concluda con l’approvazione di una costituzione europea
prima dell’allargamento dell’Unione europea ai Paesi candidati.
Le
organizzazioni europee rappresentative della società civile, del mondo del
lavoro e della produzione dovrebbero prendere l’impegno di affiancare le
sessioni delle “assise interparlamentari” con sessioni della Conferenza sul
futuro dell’Europa in un dialogo strutturato e permanente con le “assise ”.
(Pier Virgilio Dastoli).
La
disinformazione non è solo
colpa di algoritmi e
intelligenza
artificiale.
Wired.it
– (20-01-2025) – Roberto Pizzato – ci dice:
Le
ricerche più recenti, senza minimizzare il problema, sembrano smentire gli allarmismi
dei media.
Nell’agosto
del 2024 Donald Trump postava sul suo social network Truth un collage di
immagini e screenshot delle “Swifties for Trump”.
Il
post divenne subito virale e tutti notarono che solo una delle quattro foto era
autentica, le altre erano state create, almeno parzialmente, con l’intelligenza
artificiale generativa.
Come
sappiamo, l’endorsement da parte di “Taylor Swift” non è mai avvenuto, anzi la
cantante avrebbe poi dichiarato di sostenere Kamala Harris.
Sui
media comparvero diversi articoli sul pericolo rappresentato dalla “gen AI” e
sull’ondata di disinformazione che avrebbe generato.
Il
curriculum di Trump come megafono di notizie false e ingannevoli però inizia da
ben prima dell’avvento dell’IA generativa e, in fondo, sarebbe stato possibile
creare quelle stesse immagini con qualsiasi software di fotoritocco, come “Photo
Shop”, a costi piuttosto modesti.
Inoltre,
qualche sostenitrice di Trump tra le le fan di Taylor Swift c’era davvero,
visto che una delle foto era autentica.
Certamente
l’AI riduce i tempi e i costi, ma questo problema esiste da ben prima dei ”deep
fake”, ed è ampiamente documentato dalla letteratura sui “cheap fake”.
Secondo
il “World Economic Forum “la disinformazione è il rischio a breve termine più
severo che il mondo deve affrontare, e l’intelligenza artificiale sta
amplificando le informazioni fuorvianti che possono destabilizzare la nostra
società.
Dopo i dodici mesi che hanno portato alle urne
il maggior numero di votanti della storia, possiamo provare a capire quale sia
stato l’impatto di questa tecnologia.
I dati
raccolti dal “Wired AI Elections Project “su 78 casi di utilizzo dei “deep fake”
nel 2024 mostrano come la metà dei contenuti analizzati non era ingannevole e
quel tipo di materiale poteva essere riprodotto, senza AI, a costi contenuti.
Questa
tesi è piuttosto diffusa in ambito accademico ed è stata esposta in una serie
di ricerche che appaiono in contrasto con i toni e le argomentazioni dominanti
nel mondo del giornalismo e dei cosiddetti esperti di settore, che, in linea
con le piattaforme in cui operano, prediligono racconti sensazionalistici ed
emotivamente polarizzanti.
A
sostenerlo, tra gli altri, ci sono “Sayash Kapoor” e “Arvind Narayanan”, autori
di una ricerca che esamina i dati riportati qui sopra.
A
commento dei casi analizzati, i due concludono che l’impatto a livello globale
sia stato minore di quanto temuto.
La loro catalogazione dei risultati però non
considera come ingannevoli contenuti come le informazioni errate prodotte dai “chatbot”
(comunemente chiamate allucinazioni) o i “deepfake” utilizzati come parodia o
satira nei confronti degli avversari politici, minimizzando quindi altre
problematiche.
In
fondo, se metà dei deep fake erano ingannevoli, la percentuale è comunque alta.
Tuttavia,
anche altre ricerche pubblicate su prestigiose riviste accademiche confermano
questa tesi.
L'intelligenza
artificiale può aiutarci a sconfiggere il crimine?
Che i
timori nei confronti del pericolo di disinformazione legato all’IA fossero
esagerati si poteva leggere anche in un articolo della “Harvard Kennedy School”
datato ottobre 2023.
Secondo gli autori, l’aumento dell’offerta di
disinformazione generato dalle nuove tecnologie non incontrerebbe un aumento
della domanda, che proviene principalmente da frange estremiste e già
polarizzate, non dal consumatore medio di informazioni.
La
disinformazione sarebbe quindi concentrata nella dieta informativa di una
piccola, e molto attiva, parte della popolazione online, e nella maggior parte
dei casi sarebbero questi gruppi a cercare narrazioni che riflettono le loro
tendenze, esacerbate poi dagli algoritmi.
In
sostanza, a trovare le “teorie del complotto online” sarebbe soprattutto chi le
cerca o già le sostiene.
C'è un
evidente disallineamento tra la ricerca accademica sul tema e quello che
compare sui media mainstream.
Un
paper pubblicato sulla “rivista Nature “a giugno dello scorso anno ne parla
infatti in termini di “misunderstanding.”
I
malintesi fondamentali riguardo alla disinformazione online sarebbero tre, che
questa raccolta di ricerche sulla questione, forse la più completa a
disposizione, scardina uno a uno.
Ne
emerge che l’esposizione degli utenti alla disinformazione è limitata, che gli
algoritmi non sono in realtà i maggiori responsabili della sua diffusione e che
i social media non sono la causa della crescente polarizzazione.
A sostegno di questo punto, viene citata la
difficoltà di comprendere la differenza fondamentale tra correlazione e
causalità, che andrebbe indagata con maggiori e più precise ricerche possibili
solo con i dati di proprietà delle piattaforme social.
Secondo
queste ricerche, il tema non sarebbe quindi tecnologico, ma di policy e di
modelli di business.
L’idea
che viene proposta è che concentrarsi sulla domanda piuttosto che sull’offerta
di questi contenuti porterebbe ad una diagnosi più precisa e a soluzioni più
efficaci.
Questo non significa che i rischi legati
all’utilizzo di questi strumenti non siano reali – come per esempio la
creazione di immagini pornografiche non consensuali, solo per citarne uno – ma
che nel contesto della disinformazione politica la tecnologia non sia l’aspetto
centrale.
Il problema è che, discutendo dello strumento,
che facilita azioni già possibili prima – come per esempio modificare
un’immagine con “Photo Shop” – siamo portati a pensare che la soluzione possa
essere di tipo tecnologico, dimenticandoci aspetti strutturali e istituzionali
fondamentali.
È come
se per contrastare la disinformazione volessimo proibire l’uso di software di
modifica delle immagini, o delle “piattaforme social” tout court.
La
questione però non si può ridurre solo a quanto detto sinora.
Anche
se l’impatto della disinformazione è minore di quanto possa sembrare, come
abbiamo imparato, basta qualche decina di facinorosi per assaltare la sede del
governo americano, e le scelte scellerate di qualche “no vax” possono impattare
tutta la comunità.
È
probabilmente su questo aspetto che andrebbe concentrata la ricerca di
soluzioni.
Tornando
alle elezioni poi, quelle più equilibrate possono essere decise da un pugno di
voti.
Se
così non fosse, probabilmente, non ci sarebbero ingenti investimenti in
campagne social.
In
fondo, Facebook è un social network progettato per massimizzare le rendite
pubblicitarie, non per fare informazione di qualità.
L’AI
generativa ha certamente compresso i tempi e facilitato le modalità di
creazione di disinformazione, ma non ha cambiato le dinamiche con cui questi
attecchiscono e vengono fatti circolare, un aspetto spesso non abbastanza
considerato.
Al
centro del dibattito dovremmo mettere il ruolo di chi si occupa di informazione
e quello delle piattaforme in cui questi contenuti incontrano il pubblico.
La
dinamica che sottende tutto questo è prettamente legata ai modelli di business
sia dei giornali, che a parte qualche eccezione sono totalmente dipendenti dal
social media, che delle piattaforme stesse. Puntare il dito sulla tecnologia è
una semplificazione che distoglie l’attenzione dai problemi principali.
Commenti
Posta un commento