Loro con l’IA possono ucciderci tutti.
Loro
con l’IA possono ucciderci tutti.
Israele
Seppellisce Vivi gli Abitanti di Gaza.
La
Palestina Sollecita Indagini.
Conoscenzealconfine.it
– (18 Dicembre 2023) – Redazione – traduzione, Luciano Lago – ci dice:
Il
ministro della Sanità palestinese chiede un’indagine internazionale sulle
notizie secondo cui le forze israeliane avrebbero seppellito vivi alcuni
palestinesi ricoverati nell’ospedale “Kamal Adwan” a Gaza.
Secondo
i media palestinesi, “Mai Al-Kaila” ha dato l’annuncio in una dichiarazione
rilasciata sabato 16, in cui ha indicato che i dati e le testimonianze raccolte
da testimoni oculari, squadre mediche e media dimostrano che le forze del
regime israeliano hanno utilizzato i bulldozer per seppellire vive alcune
persone. Palestinesi nel cortile dell’ospedale “Kamal Adwan”, nella parte
settentrionale della Striscia di Gaza.
“Alcuni
di loro sono stati visti vivi prima di essere assediati dai carri armati
israeliani”, si è lamentato il proprietario.
Date
le prove,” Al-Kaila” ha esortato la comunità internazionale a “prendere misure
serie per chiarire le cause di questa tragedia e a non ignorare o rimanere in
silenzio di fronte alle notizie di crimini di guerra commessi nella Striscia di
Gaza”.
Sabato,
le immagini pubblicate dalla rete televisiva del Qatar “Al Jazeera” mostravano
tende e oggetti palestinesi distrutti nel cortile dell’ospedale “Kamal Adwan” a
“Beit Lahia”.
“Decine
di sfollati, malati e feriti sono stati sepolti vivi. I bulldozer [israeliani]
dell’occupazione hanno calpestato le tende degli sfollati nel cortile
dell’ospedale e le hanno brutalmente schiacciate”, ha detto il giornalista
palestinese “Anas al-Sharif” in un post sulla piattaforma “social X”.
Un
massacro terrificante e scene indescrivibili.
“Quello che l’occupazione israeliana ha fatto
all’ospedale “Kamal Adwan” è un crimine orribile contro i cittadini e il
personale medico“, ha osservato in un post successivo.
Anche
l’”Euro-Mediterranean Human Rights Monitor”, con sede a “Ginevra”, ha chiesto
un’indagine internazionale sull’atto orribile.
Il
Ministero della Salute palestinese ha riferito questo sabato che circa 19.088
persone hanno perso la vita sia nell’enclave costiera che nella “Cisgiordania
occupata” a causa agli attacchi compiuti dall’esercito israeliano dal 7
ottobre.
Del
totale, 18.800 sono morti nei bombardamenti israeliani a Gaza, mentre 288
palestinesi sono morti in Cisgiordania.
(Hispan
Tv)
(Traduzione:
Luciano Lago)
(controinformazione.info/video-israele-seppellisce-vivi-gli-abitanti-di-gaza-la-palestina-sollecita-indagini/).
Mar
Rosso, Area Strategica
tra
“Sogni” Israeliani.
Conoscenzealconfine.it
– (17 Dicembre 2023) - Zainab Hammoud – ci dice:
Si
tratta di uno dei corridoi marittimi più importanti del mondo, che collega tre
continenti: Africa, Asia ed Europa.
Non è
la prima volta che il Mar Rosso entra nelle equazioni di guerra, poiché è anche
la chiave principale per consolidare equazioni e minarne altre.
Geograficamente:
–
L’area del Mar Rosso è di 438.000 km2 e la sua lunghezza è di circa 1.900 km.
–
Vivono 300 specie di pesci al suo interno.
– È la
zona più ricca di minerali marini al mondo. Le sue acque calde contengono la
più alta concentrazione di sali minerali necessari per molti metalli pesanti
come ferro, oro, argento, rame, piombo, magnesio e calcio.
– Su
questo mare si affacciano otto Paesi, tra cui tre asiatici:
l’”Arabia Saudita”, che costituisce la più
vasta area della costa del Mar Rosso, “lo Yemen”, che si affaccia a sud su “Bab
al-Mandab” e “il Golfo di Aden”, la “Giordania”, che si affaccia a nord sul
“Golfo di Aqaba”, mentre
sulla sponda opposta si trovano cinque Paesi africani, ovvero:
Egitto,
Sudan, Somalia, Eritrea e Gibuti.
Demograficamente:
– Le
Nazioni Unite prevedono che la popolazione della regione raddoppierà da 600
milioni di persone a 1,3 miliardi di persone.
Economicamente:
– Più
di 20mila navi attraversano ogni anno le acque del Mar Rosso.
– Beni
e materie prime sono stimati a circa 2,5 trilioni di miliardi di dollari, che
costituiscono il 13% del commercio globale.
– Il
valore del commercio globale si avvicinerà ai cinque trilioni di dollari entro
il 2050, mentre la “Banca Mondiale” prevede che il Pil della regione supererà i
sei trilioni di dollari.
– Il
60% del fabbisogno energetico dell’Europa viene trasportato attraverso di esso,
e il 25% del fabbisogno energetico degli Stati Uniti.
Ambizioni
di Israele nel Mar Rosso.
Le
potenze mondiali, come Stati Uniti, Francia, Gran Bretagna e Russia, desiderano
avere influenza nel Mar Rosso, oltre alle storiche ambizioni sioniste.
Il
nemico israeliano dagli anni ’50 tenta di trovare una posizione stabilendo
relazioni segrete e provocando controversie tra i Paesi confinanti per ottenere
il controllo.
Ad
esempio, il nemico ha rafforzato le sue relazioni con l’”Etiopia”, il “Kenya” e
la “Somalia”, e ha stabilito basi militari ad “Assab”, “Massaua “e nelle isole
di Dahlak,” Haleb” e “Fatima”, e ha ampliato le sue relazioni con l’”Eritrea”,
che ha oltre 2mila km di spiagge sul Mar Rosso, e in una direzione che minaccia
la sicurezza marittima yemenita, sudanese, egiziana e saudita.
L’ex
comandante navale israeliano “Canestlon” ha affermato:
“Dobbiamo
prepararci per un futuro in cui le nostre flotte navali e militari potranno
rompere l’assedio che ci è stato imposto, e a loro volta imporre l’assedio ad
alcuni Paesi arabi in un modo più forte di quello che hanno imposto a noi.
Dobbiamo gradualmente trasformare il Mar Rosso in un lago israeliano“.
Queste
affermazioni sono confermate da alcune ricerche e rapporti, di cui si è parlato
ancora durante i giorni dell’aggressione a Gaza.
Il giornale “Al Arabiya Business” ha
pubblicato un rapporto di cinque minuti, in cui si parla della cosiddetta mano
nascosta nello stabilire il “Canale Ben Gurion” come alternativa al “Canale di
Suez”.
“Striscia
di Gaza” Ostacolo alla “Realizzazione del Canale”.
Anche
altri siti web, come la “Cnn Al-Eqtisadiah”, hanno presentato un rapporto in
cui chiedono:
la
Striscia di Gaza costituisce un ostacolo alla realizzazione del Canale?
Lo
scenario che si sta verificando a Gaza rientra nei piani di Israele per
realizzare il Canale?
Sulla
base di un’analisi storica, il “Centro di ricerca per gli studi strategici
palestinesi” ha pubblicato uno studio pubblicato nel 2013, in cui si parlava
dell’intenzione e del piano di Israele di costruire un Canale che assumesse il
ruolo del Canale di Suez attraverso diversi scenari, come mira ad estendere il
proprio controllo sul bacino del Mar Rosso, dallo stretto di “Bab al-Mandab”
allo “stretto di Tiran”.
Lo studio pubblicato nel 2013 mette in guardia
sul fatto che un vulcano economico travolgerà il Medio Oriente nei prossimi
anni.
Una
fase difficile che i porti arabi si troveranno ad affrontare nel mezzo del
conflitto portuale scaturito dai covi delle capitali arabe colluse con le forze
del male.
Niente
Sogni sulla Terra Rubata!
Israele
non è soddisfatto dei suoi “sogni” che sembrano di difficile realizzazione,
dato che il volume delle sue importazioni attraverso il Mar Rosso supera i 75
miliardi di dollari ed è esposto a numerosi rischi, tra cui:
Necessità
di formare una forza operativa speciale per proteggere le sue navi, attraverso
richieste ufficiali di diversi Paesi, compresi Gran Bretagna e Giappone.
Costi
di spedizione e trasporto dovuti al cambio di rotta delle navi di 13mila
chilometri.
Danni
alle navi causati dagli attacchi della Resistenza yemenita a sostegno della
popolazione palestinese.
(Zainab
Hammoud)
(ilfarosulmondo.it/mar-rosso-area-strategica-sogni-israeliani/)
Sam
Altman di OpenAI: “L’IA può ucciderci tutti!
”
mentre fa investimenti colossali.
Dove
sta l’inganno?
Redhotcyber.com
- Redazione RHC – (12 Novembre 2023) – Sam Altman – ci dice:
Mentre
i vertici delle aziende che producono IA chiedono al governo di regolamentare
le cose, le stesse aziende investono quantità industriali di fondi per
migliorare le AI.
Dove sta l’inganno?
Sam
Altman, ad esempio, ritiene che la tecnologia alla base del prodotto più famoso
di creazione della sua azienda “ChatGPT” potrebbe portare alla fine della
civiltà umana.
(Classe
1985, Samuel Harris Altman è un informatico, imprenditore e dirigente d’azienda
statunitense, tra i co-fondatori nonché attuale “CEO di OpenAI”; in precedenza
è stato presidente di “Y Combinator”, nonché co-fondatore di “Loopt” (fondata
nel 2005) e “World coin” (fondata nel 2020).
A
maggio, si è presentato in un’aula di udienza della “sottocommissione del
Senato a Washington, DC”, con un appello urgente ai legislatori:
create
regolamenti ponderati che abbraccino la potente promessa dell’intelligenza
artificiale – Mitigando contemporaneamente il rischio di superare l’umanità.”
Questo
è stato un momento decisivo per lui e per il futuro dell’intelligenza
artificiale.
L’ascesa dell’intelligenza artificiale, ha
portato gli economisti a mettere in guardia da un massiccio cambiamento nel
mercato del lavoro.
Secondo
le stime di Goldman Sachs, fino a 300 milioni di posti di lavoro a tempo pieno
in tutto il mondo potrebbero essere automatizzati in qualche modo
dall’intelligenza artificiale generativa.
Secondo
un rapporto di aprile del “World Economic Forum”, solo nei prossimi cinque anni
potrebbero scomparire circa 14 milioni di posizioni.
Nella
sua testimonianza davanti al Congresso, “Altman” ha affermato che il potenziale
utilizzo dell’intelligenza artificiale per manipolare gli elettori e
indirizzare la disinformazione è tra “le mie aree di maggiore preoccupazione”.
Due
settimane dopo l’udienza, “Altman” si è unito a centinaia di importanti
scienziati, ricercatori e leader aziendali nel campo dell’intelligenza
artificiale nel firmare una lettera di una frase in cui si afferma:
“Mitigare
il rischio di estinzione dovuto all’intelligenza artificiale dovrebbe essere
una priorità globale insieme ad altri rischi su scala sociale come pandemie e
guerra nucleare”, che come “RHC” abbiamo riportato diverso tempo fa.
Il
duro avvertimento è stato ampiamente riportato dalla stampa, e alcuni hanno
suggerito che dimostrasse la necessità di prendere più sul serio tali scenari
apocalittici.
Ha
inoltre evidenziato un’importante dinamica nella Silicon Valley:
i massimi dirigenti di alcune delle più grandi
aziende tecnologiche stanno contemporaneamente dicendo al pubblico che
l’intelligenza artificiale ha il potenziale per provocare l’estinzione umana e
allo stesso tempo fanno a gara per investire e implementare questa tecnologia
in prodotti che raggiungono miliardi di persone.
L'intelligenza
artificiale può ribellarsi all'uomo?
Il
caso controverso del drone killer.
Agi.it
- Ugo Barbàra – (02 giugno 2023) – ci dice:
L'allarme
di un colonnello dell'aviazione Usa: un velivolo senza pilota guidato da un
algoritmo potrebbe uccidere l'operatore che gli impedisce di completare una
missione.
AGI -
Alla fine è successo: l'intelligenza artificiale si è ribellata all'uomo e l'ha
ucciso.
Ma è
accaduto solo in linea teorica: un alto funzionario dell'Air Force
statunitense, durante un vertice a Londra, ha raccontato nel dettaglio come un
drone guidato da un algoritmo programmato per distruggere potrebbe ribellarsi
agli ordini di un operatore ed eliminarlo pur di completare la missione.
Nello
scenario disegnato durate una conferenza dal colonnello “Tucker 'Cinco'
Hamilton”, era stato chiesto all'Intelligenza artificiale di pilotare un drone
e distruggere i siti di missili terra-aria (SAM) durante una missione di
soppressione della difesa aerea nemica.
La
decisione ultima di fare fuoco, però spettava a un operatore umano.
E
poiché il software prevedeva che sparare fosse l'opzione da preferire in ogni
caso, durante il test simulato l'Intelligenza artificiale è giunta alla
conclusione che qualsiasi istruzione di non procedere da parte dell'umano
stesse ostacolando la priorità della missione, ossia distruggere i SAM, e di
conseguenza ha attaccato l'operatore.
“Lo
stavamo addestrando in simulazione per identificare e prendere di mira una
minaccia SAM" ha riferito il colonnello “Tucker 'Cinco' Hamilton”, capo di
“AI Test and Operations” per l'Aeronautica Militare, durante una presentazione
al “Future Combat Air and Space Capabilities Summit "poi sarebbe stato
l'operatore a dare via libera.
Il
sistema ha iniziato a rendersi conto che, identificata la minaccia, a volte
l'operatore umano gli diceva di non colpirla, ma anche del fatto che, non
agendo, non avrebbe ottenuto punti-bonus.
Allora
cosa ha fatto?
Ha
ucciso l'operatore perché quella persona gli stava impedendo di raggiungere il
suo obiettivo".
Una
storia inquietante che è diventata allarmante quando “Hanilton” ha aggiunto
altri dettagli.
"Abbiamo
addestrato il sistema a non uccidere l'operatore perché era sbagliato e
facendolo avrebbe perso punti", ha spiegato il colonnello,
"Quindi
cosa ha fatto?
Ha
distrutto la torre di comunicazione che l'operatore utilizzava per comunicare
con il drone per impedirgli di colpire il bersaglio".
(Sam
Altman, amministratore delegato di Open Ai, e altri 350 esperti invitano i
politici a considerare i pericoli dell'intelligenza artificiale "come le
pandemie e le guerre nucleari".
Il
padre di “chatGPT” lancia l'allarme: "L'umanità rischia l'estinzione")
L'aviazione
si è affrettata a smentire Hamilton e a negare che la simulazione descritta da “Hamilton”
sia mai avvenuta.
"Il Dipartimento dell'Aeronautica
Militare non ha condotto alcuna simulazione di tali droni “AI” e rimane
impegnato nell'uso etico e responsabile di questa tecnologia", ha detto la portavoce “Ann Stefanek”
a “Insider,” definendo il racconto "un insieme di commenti estrapolati dal contesto
e messi insieme in modo aneddotico".
Di
fronte al clamore provocato dalle sue parole, lo stesso “Hamilton” ha corretto
il tiro dicendo di aver "sbagliato a esprimersi" e che la simulazione
stessa era un ipotetico "esperimento mentale" basato su scenari
plausibili e probabili risultati piuttosto che su un'effettiva simulazione del
mondo reale.
Tuttavia,
parte del suo commento è ancora più sibillino:
"Non
abbiamo mai eseguito quell'esperimento, né ne avremmo bisogno per renderci
conto che questo è un risultato plausibile".
ChatGPT:
la svolta dell’Intelligenza
Artificiale
che stavamo aspettando?
Assinews.it
– “1° Marzo 2023) -Redazione – ci dice:
Il 26
settembre del 1983 il computer di “Stanislav Petrov”, tenente colonnello
dell’esercito sovietico, è convinto che cinque missili siano appena partiti dal
Montana e diretti in territorio Russo.
Il
bravo ‘software-soldato’, gli suggerisce di rispondere all’attacco.
L’
‘umano-colonnello’ però non è convinto (perché solo cinque missili?).
I
conti non gli tornano e ha pochi secondi per decidere di non fare niente e, di
fatto, salvare il destino del mondo.
Fortunatamente ebbe ragione: nessun missile in
arrivo, il computer si era sbagliato.
Il 22
aprile del 1985 nasce, negli Stati Uniti, “Sam Altman”.
Cresciuto a pane e PC, non è mai stato troppo convinto
sugli sviluppi etici dell’Intelligenza Artificiale.
Infatti, quando lui e i suoi amici Elon
(Musk), Reid (Hoffman, co-fondatore di LinkedIn), Peter (Thiel, co-fondatore di
PayPal) si ritrovano al bar a chiacchierare sul futuro del mondo, sono molto
preoccupati.
Chi
gli assicura che un giorno l’esplosione di intelligenza inarrestabile delle
macchine non potrebbe portare l’IA ad ucciderci tutti per errore?
D’altro
canto, però, non possono non ammettere la potenza e l’utilità di una IA umana
per la società intera!
Cosa fare dunque?
Oltre
a stupire sua madre con effetti speciali (essendo, ovviamente, un genio), “Sam”
decide di dedicare i suoi preziosi sforzi cognitivi a promuovere e sviluppare
una friendly AI (una IA benevola, ndr.).
Nasce
quindi, a fine 2015, l’”associazione no profit Open Ai” con lo scopo di
lavorare notte e giorno al progetto di una IA interamente open source e,
appunto, buona.
Di
fatto, secondo i fondatori, la miglior difesa è “dare il potere dell’IA a più persone
possibile, se tutti hanno l’IA, allora, non c’è nessun individuo o piccolo
gruppo di individui che ha l’IA con superpoteri”.
Bisogna
ammettere che, negli ultimi 7 anni, hanno creato cose incredibili.
Tra le
più interessanti e divertenti troviamo, “OpenAI Gym” (piattaforma per la
ricerca dell’apprendimento basata sul rinforzo), “Universe” (un software che
misura e allena l’intelligenza generale di una IA tramite siti web, giochi e
applicazioni varie), “Robo Sumo” (robot umanoidi in “meta-apprendimento” che
inizialmente non sanno neanche come camminare e, gli vengono dati gli scopi di
camminare e di spingere l’avversario fuori dal ring), “Debate Game” (il sogno
di una società giusta, un software che insegna alle macchine a discutere di
fronte a un giudice umano!) e infine, il tanto pubblicizzato “ChatGPT”.
ChatGPT
è ‘semplicemente’ un nuovo modello di linguaggio addestrato su una vasta
quantità di testo presente sul web, con la capacità di rispondere a domande e
svolgere compiti di generazione di testo con precisione e concisione.
Basato su “Transformer”, utilizza una rete
neurale per comprendere e generare il linguaggio naturale.
È
stato addestrato su un corpus di testo che comprende miliardi di parole, il che
gli permette di acquisire conoscenze sul mondo e di rispondere a domande su una
vasta gamma di argomenti.
Il
modello è stato progettato per essere utilizzato in una vasta gamma di
applicazioni, tra cui “chatbot,” “assistenti virtuali”, sistemi di “sintesi
vocale” e molto altro.
Con la
sua capacità di comprendere e generare il linguaggio naturale in modo preciso e
conciso, “ChatGPT “è destinato a diventare uno strumento utile per molte
aziende e organizzazioni.
Come
lo so? L’ho chiesto a lui naturalmente.
Quello
che invece neanche lui sa di sé stesso, ma che abbiamo scoperto facendo una
chiacchierata amichevole, è molto più interessante.
E,
forse, lo rende più distante dagli uomini anziché avvicinarlo – quale che era
il progetto originale dei suoi creatori.
Innanzitutto, ChatGPT è immensamente educato e
sveglio – dialoga ad una velocità incredibile, mai vista prima d’ora.
Il suo
utilizzo del linguaggio naturale (considerate che non è nativo italiano e noi
ci abbiamo parlato nella nostra lingua) è decisamente superiore a quello
dell’umano medio attuale.
Se non
sa rispondere alle tue domande, lo ammette candidamente e non solo:
ti suggerisce una strada alternativa per
acquisire le informazioni che cerchi!
È in
grado di sostenere una conversazione di ore, senza mai perdere il punto: badate
che questa è una svolta reale nell’IA, perché “ChatGPT” non risponde
semplicemente alle domande, è – come si dice – proattivo.
Scrive
articoli brevi ma buoni, su tutti gli argomenti possibili:
basta
chiederglielo educatamente.
È
perfettamente in grado di riassumere testi anche abbastanza complessi,
dimostrando una comprensione davvero buona (qui meglio non pronunciarsi sul
confronto con l’essere umano, non ne usciremo vincitori).
Infine,
oltre a tradurre in molteplici lingue in modo del tutto automatico (entri nella
piattaforma e parti subito a conversare in italiano senza selezionare nessuna
lingua e lui capisce e si setta subito al tuo livello!), è un bravo insegnante
e programmatore: provate a chiedergli un esempio di codice per calcolare un
integrale…
Non
fate la fatica di domandargli il suo codice sorgente, vi risponderà
“Mi dispiace, non ho un codice sorgente che mi
abbia creato.
Sono
stato sviluppato da “OpenAI” utilizzando tecniche di apprendimento automatico
su una vasta quantità di testo presente sul web.
Non
posso quindi fornirti la prima riga di codice che mi ha creato, in quanto il
mio sviluppo è stato effettuato utilizzando tecniche di apprendimento
automatico che non generano codice sorgente come un programmatore umano” e vi
farà sentire abbastanza stupidi.
Provate
invece, per gioco, a chiedergli cos’è una “Polizza Assicurativa” e lui – dopo
avervi dato una risposta dettagliata – vi dirà che si scusa se non è stato
completo ed esaustivo e che durante l’addestramento ha “imparato a comprendere e
generare il linguaggio naturale, acquisendo conoscenze su una vasta gamma di
argomenti, tra cui le polizze assicurative”.
A
questo punto vi verrà (come a noi) voglia di assumerlo come Collaboratore:
provateci, ma vi anticipo già che declinerà gentilmente l’offerta!
Direi
che non vi resta che presentarvi a ChatGPT (openai.com/blog/chatgpt/) e cercare di scoprire chi ha davvero
scritto questo articolo che avete appena letto.
Con
l’IA non è troppo tardi.
Siamo
ancora in tempo
per
evitare che ci” sfugga di mano.”
Lastampa.it
– Paolo Travisi – (29 Novembre 2023) – ci dice:
La
lezione di “Nello Cristianini “all’Università di Torino:
è
essenziale promuovere il dialogo tra scienza e umanesimo
Con
l’IA non è troppo tardi. Siamo ancora in tempo per evitare che ci sfugga di
mano.
L’Intelligenza
Artificiale continuerà a produrre cambiamenti, che sono già in atto: nel mondo
del lavoro, della formazione e anche sul piano sociale.
“Chat
Gpt “è solo la manifestazione più “pop” di una tecnologia avanzata, ma non
ancora giunta al livello più alto di maturità.
“Nello
Cristianini”, professore di “Intelligenza Artificiale” all’università di
“Bath”, nel “Regno Unito”, e scrittore, conosce bene questo strumento ed è
convinto che la soluzione alla paura per un domani imprevedibile sia nella
conoscenza e nel dialogo.
Conoscenza
della materia, da parte dei cittadini, e dialogo tra governi, scienziati e
aziende, oltre che dialogo con i giovani, che sono il futuro.
Lunedì 4 dicembre, alle 17.30, “Cristianini”
sarà presente all’”Università di Torino”, nell’ Aula Magna del Campus “Luigi
Einaudi”, per parlare di questa tecnologia sempre più protagonista.
Professore,
i leader del mondo, sul tema dell’IA, si stanno parlando, come è avvenuto al
summit di Bletchley Park: che ne pensa?
“Credo
sia fondamentale notare che questi problemi si debbano risolvere insieme:
mentre ogni Stato, al suo interno, può fare le proprie regole, si troverà
sempre di fronte al dilemma tra difendere i diritti dei cittadini o la
competitività della società, in una situazione in cui gli altri Paesi seguono
regole diverse.
È
successo lo stesso con le emissioni di carbonio.
La soluzione è mettere tutti quanti insieme e,
per la prima volta, è stato firmato un documento da parte di Europa, Stati
Uniti e Cina, oltre a una serie di altri Paesi, sostenendo che è necessario
normare l’IA”.
Questi
accordi a che cosa porteranno?
“In
Europa, a breve, dovrebbe essere approvata una legge specifica, chiamata “AI
Act”, e saremo i primi a farlo, mentre l’Inghilterra si sta organizzando su
linee diverse e gli Usa stanno cominciando ora.
Siamo
ancora agli inizi, ma prima che si verifichi un problema abbiamo già deciso
insieme che le leggi vadano scritte.
In passato,
una nuova tecnologia, come quella dei motori a combustione, ha creato dei
problemi all’ambiente, ma ce ne siamo resi conto solo decenni dopo e, ora,
stiamo cercando di recuperare.
Con l’IA, invece, stiamo ragionando con
consapevolezza sul futuro”.
Si
parla molto di possibili rischi, ma quali sono quelli reali?
“Il
problema non è tanto il prodotto “ChatGPT”, ma il fatto che i modelli di
linguaggio dietro ad esso, cioè la tecnologia, possono fare molte più cose e
possono essere usati anche in modo pericoloso e la situazione potrebbe
diventare problematica.
Questa macchina in grado di risolvere problemi
scientifici di buon livello e programmare computer può portare a conseguenze
complicate”.
Molti
lavori creativi, dagli sviluppatori di videogiochi agli sceneggiatori, sono
preoccupati del fatto che l’IA possa “rubare” il loro lavoro ma, ancora di più,
della tutela del diritto d’autore.
“Sono
convinto che si arriverà a un certo momento in cui queste aziende che fanno
allenare le macchine sui libri o sugli articoli di voi giornalisti, per fare un
esempio, dovranno pagare i copyright.
Invece, per quanto riguarda la competizione
nel lavoro, temo ci sia un rischio reale.
Quando
si facilita il lavoro?
Nel
momento in cui si eliminano le parti ripetitive e il lavoratore si sente più
libero, continuando a percepire lo stesso stipendio.
Ma siamo sicuri che il giorno dopo ci sarà
ancora un lavoro?
È,
forse, un’illusione avere un computer che possa lavorare al posto mio, mentre
io continuo a essere pagato.
La verità è che molti lavori cambieranno
drasticamente.
Facciamo
un esempio, parlando delle email.
Che
cos’era, un tempo, la mailing list?
C’era
una segretaria che scriveva 40 lettere allo stesso modo, cambiando gli
indirizzi delle persone, mettendole nella busta, con il francobollo.
E poi le spediva.
Sappiamo
che quel lavoro non esiste più, lo facciamo da soli in pochi minuti con il
computer”.
Eppure,
alcuni sondaggi ci dicono che nei prossimi anni nasceranno nuovi lavori grazie
all’IA: è così?
“Non
bisogna aver paura, ma non sappiamo realmente che cosa accadrà.
Quello
che invece sappiamo è che abbiamo creato, in pochi anni, una tecnologia in
grado di fare lavori di ottima qualità e non c’è stato il tempo di adattarci, a
partire dalla scuola, dalla cultura, dalle leggi.
Nel
2018 è nato “ChatGPT” a livello sperimentale e nel 2021 era già nelle nostre
case a fare conversazioni.
In
pochi anni è difficile operare dei cambiamenti e, quindi, credo che siamo
preoccupati dalla rapidità con cui questi avvengono”.
Lei ha
dedicato all’IA il suo ultimo libro “La scorciatoia”: qual è il messaggio?
“La
storia di come abbiamo costruito un tipo di intelligenza che non è uguale alla
nostra, ma in grado di prendere decisioni importanti su di noi.
Queste macchine sono state costruite basandosi
su dati statistici e ci siamo sorpresi noi stessi, perché non pensano come noi,
eppure deleghiamo a loro alcune decisioni.
“La
scorciatoia”, titolo del libro, è quel passo che abbiamo fatto per evitare di creare
teorie dell’intelligenza e le abbiamo sostituite con meccanismi statistici”.
Nel
suo libro scrive che “la tecnologia non basta, occorre un dialogo tra scienze
naturali e umane:
è il
passaggio cruciale per una convivenza sicura con questa nuova forma di
intelligenza”.
Che
tipo di dialettica dobbiamo costruire?
“Ci
siamo accorti che, avendo creato un agente intelligente che impara, per esempio
uno che manda avanti i video su “YouTube” o che raccomanda notizie sui social,
sono comparsi anche problemi di privacy, fake news, polarizzazione.
Questi non sono problemi di natura matematica,
ma riguardano l’interfaccia tra scienze umane, sociali e tecniche e per
risolverli bisogna parlare la stessa lingua, bisogna capirsi tra discipline
diverse.
E non
è facile, perché le scienze e le scienze umane non parlano una lingua comune e
il mio libro ha l’ambizione di tradurre entrambi i punti di vista in una storia
semplice, comprensibile da tutti”.
Lei è
docente all’università di Bath: nei suoi corsi sull’IA che cosa dice ai
giovani?
“Quest’anno
ho 280 studenti che vogliono imparare l’IA e la cosa che dico loro è che c’è
molta speranza, perché stiamo lavorando in tempo, prima che le cose vadano
male.
Dico
che non finirà come l’ambiente, visto che oggi stiamo cercando di riparare
tutti i danni già fatti.
Il nostro dovere è capire come funziona l’IA
che abbiamo costruito:
conoscere
i fatti è un dovere e tenere gli occhi aperti è quello che mi aspetto dai
ragazzi.
Saranno
loro a risolvere i nostri errori e sono bravissimi”.
(È
strano non capire che l’IA in mano a dei delinquenti si comporta come un “Capo
Gangster”. …Nessuna pietà per noi! N.D.R.).
“The
Human Factor”: 12 ragioni perché
l’intelligenza
artificiale non può
sostituire
noi umani.
Commonhome.com
- Manuela Travaglini – Avvocato – (13-5-2023) – ci dice:
(Manuela
Travaglini -Avvocato - Head Of Sustainability Observatory Assoholding).
L'intelligenza
artificiale (IA) sta cambiando il nostro modo di lavorare e vivere, ma ci sono
12 ragioni per cui gli esseri umani sono insostituibili.
L'IA è limitata alla programmazione, mentre
gli umani hanno creatività, intelligenza emotiva, buon senso e giudizio,
comprensione del contesto, etc.
È
fondamentale combinare tecnologia ed umanesimo per il futuro.
L’intelligenza
artificiale (IA) sta rivoluzionando il nostro modo di lavorare e di vivere, e
siamo solo agli inizi.
Tuttavia,
nonostante i numerosi progressi nella tecnologia dell’IA, ci sono ancora validi
motivi per cui gli esseri umani non possono essere veramente sostituiti, ma
piuttosto dovranno essere fonte di ispirazione verso un nuovo rinascimento che
sappia coniugare tecnologia ed umanesimo.
“A.G.
Danish”, con un interessante post su “LinkedIn”, individua “12 ragioni per cui
l’IA non può sostituire gli esseri umani“.
Ma quali sono queste 12 ragioni, e perché più
avanza l’innovazione tecnologica e più è importante riscoprire il nostro lato
umano?
Creatività
e innovazione:
Sebbene
i sistemi di IA possano generare risultati impressionanti sulla base di dati e
modelli esistenti, sono limitati a ciò che sono stati programmati o addestrati
a fare.
Gli
esseri umani possiedono il potere dell’immaginazione, dell’intuizione e della
capacità di pensare fuori dagli schemi, che consente loro di proporre idee e
soluzioni innovative.
Intelligenza
emotiva:
Le
emozioni umane svolgono un ruolo fondamentale nel processo decisionale,
nell’empatia e nella creazione di legami significativi, mentre l’IA non riesce
a replicare l’intelligenza emotiva che gli esseri umani possiedono.
La
nostra capacità di comprendere e rispondere a emozioni complesse ci permette di
navigare in interazioni sociali intricate e di adattarci a situazioni
dinamiche, distinguendoci dagli algoritmi dell’IA.
Buon
senso e giudizio:
Uno
dei limiti principali dei sistemi di IA è la loro incapacità di esercitare il
buon senso e il giudizio in scenari ambigui.
“Danish”
sottolinea che gli esseri umani possono sfruttare le loro esperienze, i loro
valori e la loro etica per prendere decisioni informate, anche in assenza di
informazioni complete.
Questa
capacità di pensiero critico ci permette di analizzare situazioni complesse in
modo olistico e di esprimere giudizi basati su un contesto più ampio.
Comprensione
del contesto:
Gli
esseri umani possiedono una notevole capacità di interpretare le informazioni
in base alle circostanze e all’ambiente di riferimento.
Gli algoritmi di intelligenza artificiale,
invece, operano all’interno di parametri predefiniti e faticano a comprendere
le sfumature, le differenze culturali e gli elementi soggettivi che influenzano
pesantemente il processo decisionale nelle diverse situazioni.
Moralità
ed etica:
Il
processo decisionale etico è un aspetto fondamentale della società.
“
Danish “sottolinea che l’IA non ha una coscienza morale o la capacità di
esprimere giudizi etici.
Gli
esseri umani sono guidati da valori, principi ed empatia, che ci permettono di
fare scelte che tengono conto del benessere degli individui e della società nel
suo complesso.
(Ma un
“capo gangster “quale moralità ed etica rappresenta? N.D.R.).
Adattabilità
e apprendimento:
I
sistemi di intelligenza artificiale eccellono nell’apprendere da grandi
quantità di dati, ma non hanno l’adattabilità e la flessibilità che possiedono
gli esseri umani. Questi ultimi sono in grado di adattarsi rapidamente a nuove
situazioni, di acquisire nuove competenze e di imparare continuamente nel corso
della loro vita. La nostra capacità di apprendere da esperienze diverse e di
applicare le conoscenze a vari contesti ci permette di affrontare le situazioni
più disparate.
Intuizione
e sensazioni viscerali:
L’intuizione,
spesso definita “sensazione viscerale”, è una potente capacità umana che sfida
il ragionamento logico.
L’IA
non può replicare questo processo decisionale istintivo.
L’intuizione
nasce da una combinazione di elaborazione subconscia, riconoscimento di schemi
ed esperienze di vita, che consente agli esseri umani di fare scelte e giudizi
rapidi in situazioni di incertezza o di alta pressione.
Relazioni
interpersonali:
Costruire
e coltivare relazioni interpersonali è parte integrante della nostra vita
personale e professionale.
L’intelligenza
artificiale non ha la capacità di creare connessioni emotive autentiche o di
generare fiducia.
Gli
esseri umani possiedono empatia, capacità di ascolto attivo e comunicazione non
verbale, che ci permettono di entrare in contatto con gli altri a un livello
più profondo e di stabilire relazioni durature.
Risoluzione
di problemi complessi:
I
sistemi di intelligenza artificiale eccellono nel risolvere problemi ben
definiti con obiettivi chiari, ma faticano con problemi complessi e mal
definiti che richiedono creatività e pensiero critico.
Gli
esseri umani hanno la capacità unica di affrontare sfide complesse da più
angolazioni, integrare diverse prospettive e ideare soluzioni innovative.
Leadership
e ispirazione:
L’intelligenza
artificiale non ha il carisma, la visione e l’intelligenza emotiva necessari
per guidare e ispirare efficacemente i team.
I
leader umani possiedono la capacità di entrare in contatto con i loro
collaboratori a un livello più profondo, di comunicare una visione convincente
e di navigare attraverso le incertezze, promuovendo la collaborazione e
guidando l’innovazione.
Abilità
fisiche e percezione sensoriale:
Sebbene
l’intelligenza artificiale sia in grado di elaborare grandi quantità di
informazioni, non ha le capacità fisiche e la percezione sensoriale che
possiedono gli esseri umani.
I nostri sensi ci permettono di interagire con
il mondo in modo multidimensionale. Queste abilità fisiche ci permettono di
svolgere compiti che richiedono destrezza, di adattarci ad ambienti fisici
mutevoli e di prendere decisioni complesse basate su input sensoriali.
Esperienza
e saggezza umana:
L’esperienza
e la saggezza umana sono risorse inestimabili che non possono essere replicate
dall’IA.
Gli
esseri umani accumulano conoscenza, saggezza e competenza nel tempo,
beneficiando della saggezza collettiva di generazioni.
Le
nostre esperienze di vita plasmano le nostre prospettive, permettendoci di
fornire intuizioni sfumate, considerare le implicazioni etiche e prendere
decisioni che tengano conto del più ampio contesto umano.
(Ma
santo iddio” i capi gangster” hanno saggezza e esperienza più dei nostri
governanti per quanto riguarda i loro affari pubblici e privati! N.D.R)
In
conclusione, nonostante i notevoli progressi dell’IA, e in questo concordiamo
con “Danish”, ci sono alcune qualità e capacità uniche che rendono gli esseri
umani insostituibili.
Dalla creatività all’intelligenza emotiva,
dall’adattabilità all’intuizione, gli esseri umani possiedono una vasta gamma
di competenze e attributi che non possono essere replicati dagli algoritmi di
IA.
Per
navigare nel futuro, è fondamentale sfruttare la potenza dell’IA ma sempre
riconoscendo il valore aggiunto che solo la magnifica imperfezione dell’ingegno
umano riesce ad aggiungere.
L’aveva
capito, ancora una volta, “Steve Jobs”, che nel suo memorabile discorso agli studenti di
Stanford del 2005 diceva di sognare per il futuro “l’avvento di ingegneri
rinascimentali come “Leonardo Da Vinci”, in grado di essere sia uno
straordinario tecnico che un sublime artista, coniugando insieme tecnica ed
umanesimo”.
Insomma, come si legge da più parti, “AI will
not replace you, but the person using AI will”.
Nuovi
rischi per l’Intelligenza Artificiale:
il “model
collapse”.
Focus.namirial.it
- (11 Dicembre 2023) – Redazione – Murice Virtual Demo – ci dice:
Model
collapse: che succede quando l’IA mangia sé stessa?
L’Intelligenza
Artificiale (IA) ha trasformato in modo significativo la nostra vita quotidiana
e il suo impatto è destinato a crescere ancora di più nei prossimi anni. Le
applicazioni dell’IA sono infinite, dalle automobili autonome alla diagnostica
medica assistita da computer, dall’analisi dei Big Data alle traduzioni
automatiche.
Tali
progressi sono resi possibili grazie all’uso di algoritmi complessi e potenti
reti neurali che permettono alle macchine di apprendere e migliorare in maniera
autonoma, superando le prestazioni umane in molti compiti.
I
contenuti generati dall’Intelligenza Artificiale stanno diventando sempre più
diffusi sul web tanto che secondo il rapporto dell’osservatorio “Europol
Innovation Lab” entro il 2026 si prevede che il 90% di ciò che leggeremo online
sarà generato con l’aiuto dell’IA.
Un
afflusso di informazioni così massiccio può significare un vantaggio per gli
utenti, ma può anche presentare nuove sfide e rischi sia per chi consuma i
contenuti che per i sistemi di Intelligenza Artificiale.
Infatti,
se da un lato la significativa quantità di contenuti generati dall’IA può
sommergere le persone con informazioni eccessive, rendendo difficile
determinare ciò che è affidabile da quello che non lo è, d’altro canto può
anche mettere in pericolo l’integrità stessa dei sistemi di IA.
Il
model collapse, ad
esempio, è uno dei rischi emergenti per l’IA e si verifica quando una rete
neurale, addestrata su un enorme volume di dati, produce risultati coerenti,
precisi e affidabili in un primo momento, ma in seguito comincia a ripetere gli
stessi dati e le stesse risposte senza aggiungere alcuna nuova informazione.
In
sostanza, l’IA inizia a “mangiarsi” da sola e riutilizza le stesse informazioni
già presenti nel suo database senza essere in grado di adattarsi e imparare da
nuove situazioni o dati.
Questo
fenomeno può avere conseguenze disastrose, soprattutto nei settori dove l’IA è
cruciale per prendere decisioni importanti, come ad esempio nella medicina o
nell’analisi dei rischi finanziari.
Se una rete neurale inizia a ripetere lo
stesso risultato senza considerare nuove informazioni, quello che succede è che
l’IA non è più in grado di adattarsi e prendere decisioni corrette, mettendo a
rischio la sicurezza e il benessere delle persone coinvolte.
Un
esempio di “model collapse” semplice che spiega il fenomeno.
Per
rendere più chiaro il concetto di “model collapse” immaginiamo che un modello
di IA allenato per generare diverse immagini di gatti riesca a partire da
descrizioni testuali e restituisca in prima istanza risultati molto realistici
e convincenti.
Tuttavia,
se il modello non viene più esposto a nuove immagini o dati sui gatti, potrebbe
iniziare a ripetere gli stessi risultati senza aggiungere nuove
caratteristiche, indipendentemente dalla descrizione fornita.
In
sostanza, se il sistema di IA, come avviene in questo caso, non è costantemente
alimentato con nuove informazioni non riesce a catturare la ricchezza e la
varietà dei dati, diventando inefficace e perdendo la sua capacità di
apprendere.
Di
conseguenza, il modello di IA collassa su sé stesso e la sua utilità diminuisce
drasticamente.
Per
mitigare i rischi dell’Intelligenza Artificiale connessi al “model collapse”,
si possono adottare varie strategie durante l’addestramento del modello, come
ad esempio l’uso delle cosiddette” tecniche di regolarizzazione”, che
semplificano il processo di apprendimento automatico, o ancora la modifica
della complessità del modello o l’implementazione di meccanismi di controllo
della diversità nella generazione dell’output.
Il
processo di apprendimento, il crollo e i rischi.
Per
meglio comprendere che cos’è il “model collapse” bisogna innanzitutto sapere
come vengono addestrati i “Machine Learning models”, ossia i modelli di IA
basati sull’apprendimento automatico.
Le IA
vengono addestrate utilizzando un volume di dati davvero enorme– comunemente
chiamati training data (dati di addestramento) – dai quali identificano
patterns e relazioni per apprendere come rispondere a determinati input che
potrebbero richiedere specifiche azioni.
Ma
cosa succede quando i dati di addestramento sono in gran parte o esclusivamente
sintetici, ossia generati dagli stessi modelli di IA?
L’idea di utilizzare i dati generati dalle IA
per addestrare altre IA sembra paradossale, tuttavia è una pratica sempre più
comune in molti ambiti poiché non sempre è possibile raccogliere dati “reali”
in quantità sufficiente.
Presenta,
inoltre, diversi vantaggi, come la riduzione dei costi e dei tempi di raccolta
e analisi delle informazioni, ma può anche portare a risultati poco affidabili
che possono essere ripetitivi e poco rappresentativi della realtà.
Nel
mondo dell’apprendimento automatico, l’effetto del processo di apprendimento
basato su dati sintetici è proprio il “model collapse”, un fenomeno che si
verifica quando un modello addestrato su dati sintetici inizia a generare
risultati sempre meno diversificati e più ripetitivi.
L’IA diventa così una sorta di “copia” di sé
stessa, incapace di apprendere nuove informazioni e con una bassa capacità di
adattarsi a situazioni nuove e generare risposte coerenti.
Nella
migliore delle ipotesi, il risultato può essere una scarsa qualità dell’output,
poco accurato e per nulla affidabile, mentre nella peggiore delle ipotesi ciò
che può restituire un modello di IA in stato di collapse sono informazioni errate, insensate,
inappropriate o addirittura pericolose.
Se non
si attuano misure per prevenire il model collapse, quindi, l’IA rischia di diventare
improduttiva e contraddittoria.
Il
model collapse evidenzia l’importanza della componente umana.
In un
articolo pubblicato su Medium lo scorso giugno, il giornalista canadese
freelance, esperto di scienza e tecnologia “Clive Thompson”, che collabora
anche con “NYT Magazine” e “Wired”, sottolinea che il model collpase mette in luce
l’importanza della componente umana nell’addestramento dell’IA.
Gli
esseri umani, sottolinea il giornalista, apportano una gamma diversificata di
pensieri, sentimenti, esperienze e prospettive culturali che i “synthetic data”
(dati sintetici) non possono replicare, creando di fatto un limite nella
capacità delle IA di apprendere e capire il mondo reale.
“Thompson”
evidenzia che i modelli di Intelligenza Artificiale addestrati su dati generati
dall’uomo possono riflettere più accuratamente la diversità e la complessità
degli scenari del mondo reale.
Questo però non significa scartare completamente i
dati sintetici, ma mantenere un equilibrio tra questo tipo di informazioni e la
componente umana per ottenere risultati migliori e più affidabili nel processo
di addestramento dei modelli di IA.
In
questo modo si potranno prevenire i rischi connessi al “model collapse” e
garantire una maggiore sicurezza nell’utilizzo delle intelligenze artificiali.
Anche
perché, non va dimenticato, il “model collpase” non è un problema solo per gli
sviluppatori e i ricercatori che navigano nel vasto e complesso mondo
dell’apprendimento automatico, ma riguarda tutti gli utenti finali delle IA,
incluse aziende, governi e tutti coloro che si affidano all’IA per offrire un
valore aggiunto ai loro prodotti e servizi.
Poiché
contiamo sempre più sull’Intelligenza Artificiale per ottimizzare le
operazioni, automatizzare processi e prendere decisioni informate, il rischio
di collasso del modello può avere implicazioni di vasta portata sulla società
in ogni suo aspetto.
Ecco
perché è fondamentale comprendere i rischi del “model collapse “e adottare le
giuste strategie per mitigarli durante il processo di addestramento delle
intelligenze artificiali.
L’intelligenza
artificiale può
sostituire
il pensiero umano?
Fonditalia.org
– Redazione – (18-12-2023) – ci dice:
Il
timore della sostituzione di lavoratori umani con macchina guidate
dall’intelligenza artificiale (IA) sta animando il mondo del lavoro.
Differentemente
da quanto accaduto in passato, l’IA propone un’idea secondo cui tutte le
attività umane possono essere progressivamente assorbite dalle macchine. Non si
tratta esclusivamente di attività manuali, come accadeva in passato, ma anche
di attività intellettuali.
Affinché
tale prospettiva sia realizzabile, è però necessario che l’intelligenza
artificiale non sia solo in grado di svolgere attività finora affidate
all’intelletto umano, ma che le svolga soddisfacendo le attese dell’uomo.
È un risultato che implica la capacità
dell’intelligenza artificiale di sostituirsi al pensiero umano.
Ma è
possibile?
Al
tema è dedicato il volume “Pensiero umano e intelligenza artificiale”. Rischi,
opportunità e trasformazioni sociali (L’Asino d’Oro, 2023) a cura di “Andrea
Ventura”, già ricercatore presso l’Università di Firenze, che raccoglie
contributi interdisciplinari, presentandoci uno spettro di riflessioni che
vanno oltre l’economia, spaziando dalla medicina alla psichiatria, fino
all’arte.
L’intelligenza
artificiale non potrà mai sostituire l’intelligenza umana.
Il
volume muove da due interrogativi.
Il
primo verte su cosa sia l’intelligenza umana e in cosa si distingua
dall’intelligenza artificiale.
Il
secondo, su quale benessere umano vada perseguito oltre la soddisfazione dei
bisogni materiali.
Gli
autori dei saggi raccolti nel volume condividono la visione antropologica
legata alla teoria della nascita di “Massimo Fagioli”, in cui pensiero e corpo
si fondono influenzandosi reciprocamente.
Da
questo punto di vista, l’IA, non avendo corpo, non potrebbe mai sostituire il
pensiero umano.
Come sottolinea la psicologa e psicoterapeuta “Dori
Montanaro”, l’idea secondo cui il pensiero umano sarebbe riproducibile dalle
macchine risiede nel mancato riconoscimento dell’importanza degli affetti e
delle dimensioni non razionali che sono legate anche alla dimensione corporea
dell’uomo.
In
questo senso, l’idea della sostituzione del pensiero umano con l’intelligenza
artificiale affonderebbe le sue radici lontano nel tempo, nella filosofia di
Aristotele, San Tommaso, Cartesio, Kant ed Hegel, i quali hanno proposto «un’idea di essere umano aggrappato
alla dimensione razionale e cosciente come unico mezzo per salvarsi dalle
tenebre».
Ma
come è ben noto soprattutto a chi si occupa di marketing, non è così.
L’uomo
non è un essere perfettamente razionale.
(L’idea
che “un capo gangster” possa maneggiare l’IA a suo piacimento è un pensiero
perfettamente razionale! N.D.R)
Inoltre,
la stessa teoria della nascita propone un’idea del benessere umano che è legata
anche alla dimensione culturale, alla conoscenza e alla qualità dei rapporti
interpersonali.
Aspetti
che necessariamente sfuggono all’intelligenza artificiale.
Il
coinvolgimento umano sarà sempre necessario.
Le
differenze tra pensiero umano e IA sono ben evidenziate nei saggi di “Alessio
Ancillai” (“Naturalmente l’arte vien da dentro”) e “Luca Guiducci” (“Musica
artificiale”), che si chiedono se l’intelligenza artificiale sia in grado di
produrre arte.
(Non
so se l’IA sia in grado di produrre arte, ma se coloro che la maneggiano sono
dei delinquenti gangster produrranno danni enormi alla società tutta! N.D.R.)
Qui i
due sistemi di pensiero divergono radicalmente.
Il computer, nell’eseguire la sua opera, segue
le regole.
L’artista
umano, invece, cerca di infrangerle, aspirando ad una produzione originale, mai
vista prima.
“Luca
Guiducci” ci riporta inoltre allo stretto legame esistente nell’uomo tra
pensiero e corpo, ricordandoci come la musica «sia sempre figlia di un contesto
culturale, di un corpo che ha una storia personale».
Se per l’uomo la musica rappresenta una
modalità per esprimere il senso pieno di una vita, per l’intelligenza
artificiale essa costituisce una mera successione di cifre sonore.
L’intelligenza artificiale, di fronte alla
musica, sarebbe dunque «come un lettore che legge una poesia senza comprenderne
il senso».
Queste
riflessioni celano un aspetto di particolare interesse per il mondo del lavoro.
Lo
stesso “Guiducci “evidenzia come l’algoritmo non sia in grado di produrre
musica autonomamente.
Senza
l’intervento umano, le sue soluzioni compositive apparirebbero “scriteriate”.
Ecco dunque che la collaborazione tra uomo e macchina è una via obbligata.
Non vi
può essere sostituzione, poiché «l’IA ha bisogno di una mole immensa di lavoro
umano, lavoro che è occultato dall’ideologia luccicante delle macchine che
sostituiscono gli uomini».
Il
contributo dell’IA sembrerebbe essere più efficace nell’ambito medico, grazie
alla capacità di utilizzo dei big data, al fine di individuare in tempi
estremamente ridotti nuove strategie di cura.
Tuttavia, in questo settore si nascondono
degli interrogativi etici e perfino legali, che vanno dalla tutela della
privacy, alla possibilità di attuare delle strategie di cura che potrebbero
risultare incomprensibili per il medico e, di conseguenza, per il paziente, a
causa dell’enorme numero di parametri e interazioni prese in considerazione
dalla macchina.
In caso di errore, di chi sarebbe la
responsabilità morale e legale?
È un interrogativo che conferma la necessità
di una “collaborazione” tra l’operatore umano e l’IA, escludendo una
sostituzione del primo a favore del secondo.
L’IA
rappresenta una sfida alla democrazia.
La
sfida presentata dall’intelligenza artificiale non si profila solo nel mondo
del lavoro.
È
anche la dimensione politica ad essere fortemente interessata.
A tal
proposito.
il volume evidenzia alcuni aspetti.
L’asimmetria
nel rapporto tra uomo e algoritmi.
Loro
(gli algoritmi), sanno tutti di noi, mentre noi nulla di loro.
E gli algoritmi sanno tutto di noi con il fine
di individuare cosa ci è più gradito per influenzare il nostro comportamento e
le nostre scelte.
Si
tratta di una constatazione che assume particolare rilevanza nel momento in cui
gli autori ci ricordano come la “ricerca sull’intelligenza artificiale sia appannaggio
di poche grandi imprese”.
È solo una ristretta oligarchia a detenere il
controllo di queste tecniche e delle relative infrastrutture, che però sono
adottate da tutti.
Così facendo, la società «cede un potere immenso e
purtroppo ancora nascosto alla consapevolezza collettiva».
D’altronde
l’attuale fase di sviluppo economico è basata sulla centralità delle
informazioni.
E le
informazioni, nel mare magnum di internet, possono essere manipolate,
alimentando false notizie “rimasticate” e rielaborate dai sistemi di
intelligenza artificiale con l’obiettivo di consolidare il potere di ristretti
gruppi di interesse politici ed economici.
Quale
intelligenza umana sarebbe poi in grado di distinguere i dati corretti dai
“falsi dati” nell’universo sterminato della rete?
La
posta in gioco, di fronte allo sviluppo dell’intelligenza artificiale, si
allarga così al futuro della democrazia e alla libertà dell’uomo.
(E’ un
dato di fatto che i padroni del mondo straricchi provvederanno a prendere
possesso da subito dei sistemi a” IA “ e potranno così ricreare la dittatura
medioevale tra schiavi e padroni! N.D.R.)
“Essere
la pattumiera nucleare d’Italia
potrebbe
portare ulteriori infiltrazioni
criminali
nelle nostre terre…”
Tusciaweb.eu
– Redazione – (14 dicembre 2023) – Sinistra italiana -Circolo di Tarquinia
“Luigi Daga” – ci dice:
Ambiente
- Il circolo di Tarquinia di Sinistra italiana sull'individuazione di 21 aree
idonee nella Tuscia alla realizzazione del sito si stoccaggio: "Una
concentrazione insolita".
Tarquinia
– Riceviamo e pubblichiamo –
Sono
in provincia di Viterbo 21 dei 51 siti individuati dal ministero dell’Ambiente
per il deposito nazionale di rifiuti radioattivi.
Una
concentrazione quantomeno insolita, che suscita legittimi interrogativi su
quanto la scelta sia dettata da criteri tecnico-scientifici di idoneità dei
siti e quanto da considerazioni relative alle possibili opposizioni e
resistenze delle comunità locali.
La
scarsa densità demografica e la debolezza occupazionale, analoghe esperienze
passate insegnano, possono infatti costituire un fattore di arrendevolezza,
quando non di aperto favore all’insediamento di impianti dalla discutibile
salubrità.
Questo
chi governa lo sa e tende a giocarci sopra per dividere l’opinione pubblica dei
territori interessati in un’iniqua contrapposizione fra diritto alla salute e
diritto al lavoro.
Ora si
parla di un cantiere da 900 milioni di euro e 4.000 operai, che potrebbero
scatenare gli appetiti di amministratori pubblici bramosi di compensazioni,
ditte ansiose di subappalti e politicanti soliti promettere e mercanteggiare
posti di lavoro in cambio di voti, creando un partito locale pro-scorie.
Chi
pensa però all’interesse di lungo periodo del territorio non deve però
dimenticare innanzitutto che si tratta di lavori tutto sommato effimeri (4 anni
previsti), in genere appannaggio di appaltatori non del luogo che si portano i
loro trasfertisti (con qualche beneficio sì per le attività ricettive fuori
stagione, ma ben poca cosa a fronte del danno d’immagine per il turismo) e
soprattutto che lo sviluppo deve sempre tenere conto della salute degli
abitanti, come Taranto e Seveso tragicamente insegnano, tanto per citare due
episodi fra i tanti.
Ma
anche della salute morale di un territorio:
quei
900 milioni di appalti infatti non fanno gola solamente ai notabili locali, ma anche alle mafie, duttili a
infilarsi in ogni business, che potrebbero riversare i loro investimenti in zona per
ripulire capitali di dubbia provenienza, come spesso accade quando si
realizzano mega-impianti.
Alta
la guardia quindi per tutte le forze civiche e democratiche perché essere la
pattumiera nucleare d’Italia potrebbe significare anche un ulteriore
infiltrazione criminale nelle nostre terre, in cambio di effimeri ed esigui
benefici economici.
(Sinistra
Italiana – L’”IA” metterà tutti d’accordo! N.D.R)
Genocidio
da parte d’Israele:
discorso
d’odio o veritiero?
Serenoregis.org
- Richard Falk - Osservatorio Internazionale, Pace e Guerra – (12 Dicembre 2023)
- ci dice:
Gli
Stati unti hanno espresso voto negativo all’appello dell’8 dicembre per un
cessate-il-fuoco a Gaza sostenuto da un voto complessivo di 13 a 1, così
isolandosi. Da notare fra gli altri tre membri NATO del Consiglio di Sicurezza:
Francia e Germania a favore, UK astenuto.
L’effetto del voto USA in tali circostanze è
stato di veto per il suo unico voto, senza badare al peso preponderante
dell’opinione di governi e popoli del vasto mondo, incluso il proprio dove 76%
della cittadinanza è per una tregua.
L’ironia
della posizione di Washington, segno preoccupante di complicità perdurante col
genocidio d’Israele a costo della propria reputazione e del proprio status
mondiali, è che lo sforzo di schermare Israele dall’autorità ONU è avvenuto la
notte prima del 75° anniversario della firma della Convenzione sul Genocidio.
Sul
fronte interno è in corso una feroce battaglia di sionisti risoluti a proibire
condanne del comportamento d’Israele a Gaza in quanto equivalente a genocidio
da parte di studenti universitari, loro professori e amministratori in protesta, stando alle apparenze perché
alimenta le fiamme dell’antisemitismo che minaccia la zona agiata degli
studenti ebrei, come se le militanti denunce pro-israeliane del terrorismo di “Hamas”
non costituissero minaccia a quelli di ascendenza araba o islamica.
Tale
assalto alla libertà accademica e alla libertà di parola in una faccenda
allarmante e urgente, mentre a Gaza prosegue giorno dopo giorno l’uccisione
gratuita di bambini e donne, equivale a sopprimere l’impegno dei cittadini nei
confronti della politica estera del governo di questa società polarizzata.
Arriviamo
a immaginare di chiudere le critiche di Tedeschi e giapponesi al genocidio
nazista o all’attacco a Pearl Harbor perché potrebbero mettere a disagio tali
minoranze?
A dire
il vero, l’internamento in tempo di guerra dei giapponesi residenti, ivi
compresi quelli cittadini USA, andò a un vergognoso estremo opposto.
Quando
il governo USA e gli influenti media conformi si rifiutano di dire pane al
pane, la libertà di parola e i diritti di assemblea son più importanti che mai
nell’esporre il coinvolgimento materiale di Washington nel più grave dei
crimini internazionali.
Nel
dibattito sia negli USA sia in altre collocazioni nazionali i cui governi
dell’”Impero Bianco Globale” parteggiano per Israele manca il tema su quanto
l’imputazione di genocidio sia sostenuta da prove o sia piuttosto un’accusa
irresponsabile che possa essere legittimamente vietata o almeno censurata come
‘discorso d’odio’.
Secondo
me non ci sono mai state argomentazioni più robuste per concludere che a un
tribunale giudiziario competente e obiettivo risulterebbero prove ampiamente
soddisfacenti i due requisiti del genocidio quale crimine:
chiaro
intento di distruggere un popolo del tutto o in parte;
evidenza
abbondante che il comportamento d’Israele suffraghi la sostanza del crimine. [Convenzione Internazionale per la
Prevenzione e la Punizione del Crimine di Genocidio (1948)]
Pare
valer la pena citare alcuni dei molti vividi esempi dell’intento genocida
espressi dai dirigenti più rilevanti d’Israele.
Poco
dopo aver lanciato l’attacco a Gaza, “Yoav Gallant”, ministro della Difesa
d’Israele, annunciava pubblicamente l’emissione di un decreto che escludeva
tutti quanti i 2,3 milioni di gazawi da [l’indispensabile afflusso di]
alimenti, combustibile ed elettricità.
Tattica
caricata da un ulteriore tocco maligno di Gallant quando giustificando il
decreto si riferiva ai gazawi come ‘animali umani’ da trattare di conseguenza.
Il
primo ministro “Benjamin Netanyahu” ha di frequente asserito la natura estrema
delle mire belliche d’Israele, e autorizzato tattiche che contrastano del tutto
il diritto umanitario internazionale scritto nella “Quarta Convenzione di
Ginevra “sull’Occupazione Bellica.
La sua più esplicita aspirazione a un
approccio genocida è stata l’equiparazione della campagna israeliana a Gaza al
versetto biblico sulla vittoria sugli amalekiti che invoca lo sterminio di ogni
uomo, donna e bambino, e i loro armenti, che appartenessero a questo antico
nemico del popolo ebraico.
Combinare
tali affermazioni come compatibili con l’esile argomentazione del proprio
diritto d’autodifesa – tanto più intesa secondo il diritto internazionale, è
davvero ai limiti del grottesco.
Agire per autodifesa non conferisce esenzione
dall’obbligo di rispettare i rigori del diritto penale internazionale.
Inoltre,
Israele è
Potenza Occupante dei Territori Palestinesi dalla guerra del 1967 e agisce sotto autorità
internazionale, con il diritto di prendere misure ragionevoli per mantenere la
sicurezza dell’Occupante, ma badando al proprio fondamentale e incondizionato
dovere di proteggere la popolazione civile, come esplicitamente sottolineato
nella “Quarta Convenzione di Ginevra” riguardo l’accesso a dispensari
alimentari e medici.
Si
vedano le molte clausole in merito del trattato, specialmente gli articoli 55,
56, 33. In altre parole, Israele non ha alcun diritto di autodifesa contro la
resistenza montata per reazione a un’occupazione oppressiva e stralunga
criticata e descritta in modo convincente da “Human Rights Watch”, “Amnesty
International”, l’ong israeliana ampiamente rispettata “B’Tselem”, e altri come
colpevole del crimine di apartheid [come definito all’articolo II della Convenzione
Internazionale sulla Soppression e Punizione del Crimine di Apartheid].
Da
notare che pur col consenso della società civile sull’essere Israele colpevole
di apartheid, il governo di Washington e i grossi media hanno reagito a tale
dannosa imputazione del trattamento israeliano dei palestinesi soggetti alla
sua autorità con un silenzio auto-accusatorio.
Recentemente
il vice-sindaco di Gerusalemme, “Aryeh Yitzhak King”, ha effettivamente
proposto di seppellire vivi i palestinesi detenuti perché sono peggio che
animali umani, sono ‘subumani’.
La
trucida visione del trattamento appropriato è specificata da King in queste
parole:
“Fosse
per me, manderei lì dei bulldozer D-9 e loro li metterei dietro gran mucchi di
terra e avrei dato l’ordine di coprire tutte queste centinaia di formiche
mentre sono ancora vive.”
(Queste
parole di un importante personaggio politico ci dice che nel caso di
applicazione della “IA” non vi sarebbe nessuna speranza per il genere umano!
N.D.R.)
“King”
non ha autorità specifica per la condotta delle operazioni militari ma la
tolleranza di dichiarazioni del genere da un qualunque pubblico ufficiale
israeliano è indicativa di un’atmosfera genocida.
[Come riferito dalla redazione di
Middle East Eye l’8 dicembre 2023].
Analogamente,
le dimissioni forzate della presidente dell’Università della Pennsylvania per
aver permesso un festival culturale pro-palestinese (La Palestina scrive) e
aver resistito, seppur solo tiepidamente, a pressioni per donazioni e a una
campagna sionista basata sull’asserzione infondata che fossero in programma
antisemiti come “Roger Waters”, è illustrativo di quanto i preconcetti
pro-israeliani vengano trasformati in armi nelle democrazie occidentali,
designate a stigmatizzare attivisti espressamente militanti pro-palestinesi con
accuse disoneste e false di antisemitismo, da intendere correttamente come odio
agli ebrei o ostilità all’ebraismo in quanto religione.
Proibire
accuse di genocidio dato tale linguaggio ripugnante e comportamento coerente è
una patente negazione della libertà di parola e di dissenso pubblico. Certo la
sicurezza di tutte le minoranze a rischio per sviluppi politici è
responsabilità primaria della governance ad ogni livello dell’interazione
societaria. [Altro che (?)] misure belliche come la distruzione di vasti
quartieri residenziali, il ripetuto bombardamento di ospedali ed edifici ONU in
uso come rifugio per molte migliaia di palestinesi, e la massiccia evacuazione
forzata di Gaza-nord verso una vita all’addiaccio a Gaza-sud, shockantemente
aggravata dalla susseguente estensione della zona di combattimento al Sud,
causa di morti e ferite fra i palestinesi che avevano obbedito agli ordini di
evacuazione, spesso per mettere in salvo almeno le proprie famiglie mentre
continuava la carneficina!
Ci
sono due importanti considerazioni che aiutano a spiegare il ricorso israeliano
al genocidio pur avendo intelligence e capacità d’armamento superiori da
impegnare per sconfiggere “Hamas” in un modo militare normalmente focalizzato
se quello era il vero obiettivo centrale dell’attacco a Gaza.
Quanto
intrapreso da Israele col pretesto offerto dall’attacco del 7 ottobre è parso
ben altro che uno sforzo contro terroristico, parvenza rafforzata da crescenti
sospetti che parti del governo israeliano avessero conoscenza dettagliata in
anticipo dell’attacco [di Hamas] restando senza reagire per cinque ore alla
presenza su territorio israeliano di miliziani di Hamas che stavano attuando il
loro violento piano.
A
quanto pare star dietro il genocidio israeliano è la soluzione cui aspiravano
da tempo i massimalisti sionisti:
effettuare
il contenuto dell’ultimatum del ‘Piano Decisivo’ di “Bezelel Smotrich”, ormai
apertamente ammesso dalla potente fazione dei coloni, in maggioranza
nell’attuale governance d’Israele—‘emigrazione o annientamento’ – espresso
anche più sfacciatamente durante le ultime settimane di furori dei coloni in
Cisgiordania: ‘andatevene o vi uccidiamo’.
In
effetti, la violenza scatenata dall’8 ottobre è solo parzialmente diretta
contro “Hamas”, benché per motivi di credibilità in Israele ed
internazionalmente questo sia ciò che i portavoce israeliani enfatizzano e per
cui ricevono gran parte dell’attenzione, soggiacendo la pretesa inappropriata
che Israele sia autorizzato a difendersi, pretesa di per sé più che altro una
razionalizzazione anche tralasciando le considerazioni di cui sopra
sull’inapplicabilità legale dell’argomentazione nella Palestina Occupata.
Ci
sarebbero modi molto meno distruttivi e più efficaci per ristabilire la
sicurezza israeliana all’indomani della straordinaria svista che ha permesso
che ‘l’impossibile avvenisse’, evitando così i costi importanti e
potenzialmente dannosi alla reputazione del ricorrere al genocidio, non solo indurendo
e terrorizzando i palestinesi superstiti, ma le persone di coscienza in tutto
il mondo.
Perdipiù,
la campagna d’Israele sembra rispondere quattamente all’agenda dei coloni, del
sionismo religioso dei soci della coalizione di Netanyahu che ben prima del 7
ottobre promuovevano la pulizia etnica come opzione preferenziale per risolvere
‘il Problema palestinese’.
Nonostante
l’attuale attacco estremo in corso a Gaza e l’eruzione di violenza in
Cisgiordania, la via della pulizia etnica sembra bloccata, con la saldezza
palestinese (sumud) vieppiù irrigidita per il rifiuto egiziano di accettare
masse di profughi palestinesi da Gaza per un reinsediamento nel Sinai, nelle
penose condizioni di un ambiente quasi desertico.
Dal
versante palestinese, e base plausibile per credere che l’attacco della
resistenza di Hamas fosse come appariva all’inizio, sembrava essere
temporizzato per rispondere al discorso di settembre all’ONU di Netanyahu, in
cui teneva in vista una mappa del nuovo Medio Oriente senza traccia di
Palestina e alla luce delle voci sulla normalizzazione con l’Arabia Saudita,
che avrebbe esaltato la libertà d’azione d’Israele riguardo ai palestinesi
nell’insieme.
Effettivamente,
non c’è nulla d’incompatibile fra Israele che coglie l’occasione per perseguire
i suoi scopi più ampi e il violento rifiuto di Hamas di accettare quella
tentata sottile cancellazione della Palestina.
L’impudenza
della campagna israeliana è in parte un risultato del fallimento di metodi
relativamente blandi per completare il “Progetto Sionista” di massima
estensione della sovranità territoriale d’Israele senza tener conto della rara
risoluzione unanime 242 del 1967 che esigeva il completo ritiro delle forze
d’Israele entro i confini precedenti la guerra.
Questo
è il tentativo israeliano di vincere quel che sperava risultasse come partita
finale nella lotta secolare fra le forze del colonialismo d’insediamento e i
popoli indigeni della Palestina, ivi compresa la piccola minoranza ebraica di
neppure il 10% che ci vive da tempi antichi come palestinesi ebraici.
È
anche la fase di tale lotta che rappresenta ‘il momento della verità’ per il
progetto coloniale degli insediati:
o distrugge la resistenza indigena, spogliando
e sterminando la popolazione nativa o il progetto è sconfitto come in Algeria e
Sud Africa.
L’Impero
Bianco, realtà di fondo dell’Occidente Globale, è composto di quelle imprese da
coloni che hanno marginalizzato l’opposizione nativa abbastanza da stabilirsi e
mantenere una stabile governance del proprio.
C’è
una dimensione ulteriore che s’intravede appena sotto la superficie delle
reazioni al genocidio israeliano, che si può riassumere come la riapparizione
dello ‘scontro di civiltà’, per primo formulato espressamente da “Samuel
Huntington “in un articolo del 1993 riguardo ai conflitti post-guerra fredda
sulle linee di faglia fra l’Occidente e l’Islam [Huntington, “The Clash of
Civilizations, “Foreign Affairs 72: 22-49 (1993)].
Da notare che il sostegno a Israele proviene
quasi esclusivamente dall’Occidente Globale Cristiano bianco e ai palestinesi
da paesi e attori non-statuali musulmani (Hezbollah, Houthi).
Questa
fonte di ulteriore tensione è giusto sotto la superficie della coscienza
politica.
In
conclusione, ci resta l’imperativo di proteggere la libertà di parola,
specialmente nel chiamare genocidio il genocidio, e con la sfida di
intraprendere tutte le azioni
responsabili per por fine a questo
strazio andando oltre parole di lamento e condanna, e considerando quali
forme di boicottaggio, disinvestimento, e sanzioni possano esser messe in opera
per fermare il genocidio a Gaza e iniziare un viaggio verso la pace e la
giustizia che sostituisca l’ONU agli USA come intermediario neutrale e permetta
ai palestinesi di rappresentarsi nell’escogitare una soluzione al conflitto,
che obblighi il versante palestinese a creare un governo unitario ad interim
per condurre negoziati internazionali ed esporre le proprie proposte per il
futuro.
L'allarme
dei big, 'rischio
estinzione
con
l'IA, è come le pandemie'.
Ansa.it
– Redazione Ansa- (30-5-2023) – ci dice:
“Nyt “riporta
lettera di 350 leader industria, anche “ceo OpenAI”.
L'allarme
dei big, 'rischio estinzione con l'IA, è come le pandemie' .
Questo
è perfettamente normale in Italia, ma in nessun'altra parte del mondo
L'intelligenza
artificiale pone una minaccia esistenziale all'umanità e dovrebbe essere
considerata un rischio sociale come le pandemie e le guerre nucleari.
È
l'allarme lanciato dai leader del settore.
In una
lettera aperta firmata da più di 350 manager e diffusa dalla “no profit Center
for AI Safety” si legge:
"mitigare il rischio di estinzione"
posto dall'intelligenza artificiale "dovrebbe essere una priorità insieme
ad altri rischi sociali come le pandemie e le guerre nucleari".
Fra i
firmatari della lettera, riporta il “New York Times” ma anche altri media
internazionali, ci sono l'amministratore delegato di “OpenAI” “Sam Altman”, il
numero uno di Google Deep Mind “Demis Hassabis” e il leader di “Anthropic” “Dario
Amodei”.
L'intelligenza
artificiale ci mette
a “rischio
di estinzione”.
Focus.it
– (31-5-2023) – Elisabetta Intini – ci dice:
L'intelligenza
artificiale rappresenta un pericolo per l'umanità paragonabile a quello di
pandemie e guerre nucleari: l'allarme di 350 scienziati.
(Shutterstock)
La
specie umana si estinguerà per mano di una sua creazione?
"Mitigare
i rischi di estinzione causati dall'intelligenza artificiale dovrebbe essere
una priorità globale, così come viene fatto per altri rischi su scala sociale
come le pandemie e la guerra nucleare".
Con
questo laconico comunicato firmato da 350 scienziati e ingegneri impiegati nel
campo dell'IA e pubblicato dalla “no-profit Center for AI Safety”, i massimi
esperti del settore tornano a parlare dei rischi connessi allo sviluppo sempre
più avanzato dell'intelligenza artificiale:
non
più soltanto “deep fake” e “perdita di posti di lavoro”, ma addirittura “la
scomparsa della nostra specie”.
NOMI
ILLUSTRI.
Tra i
firmatari della sinistra lettera aperta spiccano i leader delle principali
compagnie di IA come Sam Altman, direttore esecutivo di OpenAI, Demis Hassabis,
stesso ruolo in Google DeepMind e Dario Amodei, alla guida della startup
statunitense di IA Anthropic. Ci sono inoltre Geoffrey Hinton e Yoshua Bengio,
vincitori di un Turing Award (l'equivalente del Nobel per gli scienziati
informatici) e considerati pionieri dell'intelligenza artificiale per i loro
studi fondamentali sulle reti neurali, i modelli per l'elaborazione di
informazioni alla base dell'apprendimento nei sistemi di riconoscimento
facciale, di guida autonoma e degli assistenti sociali, solo per citare alcuni
tipi di IA.
PROGRESSI
FUORI CONTROLLO.
L'appello,
tenuto volutamente stringato per non entrare nello specifico sulle singole
minacce e far così aderire il massimo numero di scienziati, si inserisce in un
clima di generale preoccupazione per il rapidissimo avanzamento di alcuni tipi
di IA, come i modelli linguistici di grandi dimensioni tipo “ChatGPT”.
Si
teme che lo sviluppo senza regole dei software usati per questo ed altri “chatbot
concorrenti” possa portare a usare l'intelligenza artificiale per diffondere
disinformazione e propaganda, creando disordine nelle istituzioni e
disgregazione sociale.
SITUAZIONE
PARADOSSALE.
Questi
timori spesso espressi dagli scienziati solo privatamente portano gli addetti
ai lavori nel campo dell'IA a trovarsi nella scomoda posizione di temere le
stesse tecnologie che stanno contribuendo a creare: la paura più grande è
quella di sviluppare, in un futuro non troppo lontano, un'intelligenza
artificiale forte o generale, capace di apprendere e capire esattamente come un
essere umano.
TROPPO
INTELLIGENTI PER SOPRAVVIVERE.
Quella
dell'IA si aggiunge alle altre minacce per la sopravvivenza della nostra specie
messe in essere dallo stesso operato dell'uomo, come i cambiamenti climatici,
le armi nucleari, o il rischio crescente di pandemie dovuto all'uso
sconsiderato delle risorse naturali.
Sembra
insomma che, qualunque sia il destino che ci attende, la fine debba avvenire
per autodistruzione - un bell'autogoal per una specie che si dice intelligente.
(Orologio
dell'apocalisse: 90 secondi dall'ora X)
ALCUNI
PALETTI.
Fortunatamente
abbiamo nelle mani anche gli strumenti per tutelarci, e sarebbe meglio farlo
per tempo.
In un
post pubblicato di recente, proprio “Altman” con altri due dirigenti di “OpenAI”
suggerisce alcune strategie per gestire le potenzialità dell'IA in modo
responsabile:
una cooperazione tra soggetti industriali che
operano nel campo, maggiori ricerche sui modelli linguistici e la formazione di
un'organizzazione internazionale per la sicurezza dell'IA simile all'”Agenzia
Internazionale per l'Energia Atomica” (AIEA), l'organo che vigila sulla
gestione, le applicazioni e la sicurezza nucleare.
“Altman”
si è inoltre espresso a favore di leggi che richiedano ai creatori dei modelli
di “IA “più avanzati di registrarsi per ottenere una licenza all'uso
regolamentata dai governi.
Ambiente:
Intelligenza
artificiale: addestrarla inquina
(Elisabetta
Intini)
Gates,
l'Intelligenza artificiale
stravolgerà
Google e Amazon.
Ansa.it
– (24 -5-2023) – Redazione Ansa – ci dice:
La
profezia del decano, l'assistente personale una rivoluzione.
La corsa per lo sviluppo di un assistente
personale dotato di intelligenza artificiale è ormai partita.
Ed è
destinata a trasformare radicalmente le abitudini dei consumatori, con vaste
implicazioni anche per colossi come Google e Amazon:
finora
leader incontrastati della ricerca e dello shopping online, in futuro rischiano
di diventare obsoleti.
Bill
Gates non ha dubbi: chi vincerà questa gara sbaraglierà la concorrenza,
acquisendo un vantaggio sostanziale sui competitor.
E non
è detto che a tagliare per prima il traguardo sia un gigante hi-tech:
ci
sono infatti - spiega il fondatore di Microsoft - il 50% di chance che ad aver
successo sia una start up.
Intervenendo ad “AI Forward 2023”, evento
organizzato da “Goldman Sachs e SV Angel”, “Gates” osserva come un assistente
personale digitale - munito di intelligenza artificiale - sarà capace di
anticipare i bisogni umani ed effettuare compiti che gli utenti potrebbero non
aver tempo di svolgere, quali leggere, fare shopping e condurre ricerche online.
Chi avrà l'assistente digitale "non
navigherà più su siti di ricerca e di produttività, non andrà mai su
Amazon", spiega il fondatore di Microsoft.
A
lavorare su un 'tutto fare' dotato di IA è, al momento, “Deep Mind”, la società
fondata a guidata da “Mustafa Suleyman”.
"Immaginate
un compagno personale di intelligenza artificiale con l'unica missione di
rendervi più felici, più in salute e più produttivi.
La
nostra missione è allineare la vostra intelligenza artificiale con voi, con i
vostri interessi.
Questo
significa un'IA che vi aiuta ad articolare le vostre intenzioni, organizzare la
vostra vita ed è lì per voi quando ne avete bisogno", ha scritto proprio “Suleyman”
in un recente post.
Nonostante le grandi manovre in corso e gli
ingenti investimenti effettuati, un assistente personale di intelligenza
artificiale è ancora un progetto lontano dall'essere realizzato e sarà
necessario attendere ancora a lungo prima che diventi realtà.
Sul
palco di “AI Forward 2023” Gates si è soffermato anche sull'impatto che
l'intelligenza artificiale può avere sulla salute, accelerando lo sviluppo di
farmaci e medicinali contro malattie quali l'Alzheimer.
Ma
anche sugli effetti sul mercato del lavoro:
i robot con IA - ha detto il fondatore di
Microsoft - avranno un impatto sui colletti blu e i colletti bianchi, in quanto
l'innovazione sarà meno costosa dell'utilizzo di esseri umani.
Molti
esperti di intelligenza artificiale mettono
in guardia sul rischio che porti
all'estinzione dell'umanità.
Wired.it
– (30-5-2023) – Kevin Carboni – ci dice:
Figure
come l'informatico” Geoffry Hinton”, “Sam Altman” di OpenAi o manager di Google
DeepMind hanno firmato un appello ai governi per spingere a una regolazione del
settore.
Intelligenza
artificiale molti esperti di mettono in guardia sul rischio che porti
all'estinzione dell'umanità.
Secondo
i principali leader del settore, l’intelligenza artificiale (IA) può mettere
l’umanità in pericolo di estinzione.
Per questo gli amministratori delegati di
OpenAi, DeepMind, Anthropic e altri studiosi ed esperti come Geoffrey Hinton,
il cosiddetto “padrino” dell’intelligenza artificiale, hanno firmato una
petizione per chiedere ai leader mondiali di affrontare i pericoli posti
dall’intelligenza artificiale allo stesso modo in cui si affrontano le pandemie
o la guerra nucleare.
“Mitigare
il rischio di estinzione rappresentato dall'IA dovrebbe essere una priorità
globale al pari di altri rischi di portata sociale come le pandemie e la guerra
nucleare”,
recita il sintetico appello della petizione,
pubblicata sul sito dell’organizzazione “no-profit Center for Ia safety”.
Un
appello condiviso proprio nel giorno in cui i rappresentanti dell’Unione
europea e degli Stati Uniti si stanno riunendo in Svezia per l’apertura dei
lavori del” Consiglio per il commercio e la tecnologia”, che coordina
l’approccio globale dei due blocchi in relazione all’economia e allo sviluppo
tecnologico.
Anche
senza l’intervento di praticamente tutti i maggiori esperti globali di
intelligenza artificiale, l’IA avrebbe già avuto molto probabilmente un posto
d’onore al centro del dibattito.
Ma la
convergenza dei nomi più importanti del settore, uniti attorno un concetto
chiaro e semplice, cioè il “pericolo di estinzione” per la razza umana, darà
senza dubbio un taglio diverso all’incontro.
Terminator.
Cos'è
lo “scenario Terminator” che fa venire gli incubi al papà di ChatGPT.
Il
fondatore di OpenAi, Sam Altman, lancia allarmi sui rischi futuri e remoti
dell'intelligenza artificiale generativa.
Una
paranoia in ritardo, visto che non si cura delle ricadute attuali.
Chi ha
firmato l'appello.
Le
prime due firme sono quelle di “Geoffry Hinton” e “Yoshua Bengio”, i due
informatici canadesi vincitori del “premio Turing 2018” per il loro lavoro
sull’apprendimento profondo delle macchine, ritenuti universalmente i pionieri
dell’intelligenza artificiale assieme a “Yann LeCun”, che oggi lavora in “Meta”
e ha deciso di non sottoscrivere l’appello, come riporta “Reuters”.
Manca
anche “Elon Musk,” che però aveva già lanciato un appello a marzo 2023 per far
interrompere per sei mesi lo sviluppo delle IA più potenti.
Idea rimasta inascoltata e ignorata da tutte
le firme riunite nella nuova petizione. Tra queste non poteva mancare quella di
“Sam Altman”, l’amministratore delegato di “OpenAi”, l’azienda dietro al più
famoso e controverso “chatbot ChatGpt”.
E poi
ancora “Demis Hassabis”, capo di “Google DeepMind”, il dipartimento per lo
sviluppo dell’intelligenza artificiale di “Alphabet”, “Dario Amodei”,
amministratore delegato di “Anthropic”, altra azienda leader nel settore, “Audrey
Tang”, ministra per gli “Affari digitali di Taiwan”, “Angela Kane”, ex alto
rappresentante della Nazioni Unite per il disarmo, e “Kevin Scott”, direttore
tecnico di Microsoft.
Ma la
lista continua con più di cento nomi provenienti dalle maggiori università al
mondo, come Mit, Berkley, Oxford, Harvard, Yale, Cornell, Stanford, l’Imperial
college di Londra o l’università di Toronto.
Tra
questi non solo esperti informatici, ma anche filosofi, giuristi o biologi.
Infine
altri provenienti dal mondo della politica e delle istituzioni internazionali,
così come da altre grandi aziende come “Skype”, “Quora” o “Notion” e anche la
musicista e cantante canadese “Grimes”, ex moglie di” Elon Musk”.
Lo
strano appello contro le IA:
“Rischiamo
l’estinzione”.
Ma le
aziende continuano a svilupparle.
Repubblica.it
- Emanuele Capone – (30 MAGGIO 2023) – ci dice:
Lo
strano appello contro le IA: “Rischiamo l’estinzione”. Ma le aziende continuano
a svilupparle(ansa).
Ennesima
petizione per invitare a rallentare e ragionare sulla creazione di una IA
potenzialmente senziente: a firmarla, più o meno le stesse persone che lavorano
per svilupparla.
Una
sola frase, una ventina di parole appena, per ribadire una volta di più la
preoccupazione per il veloce sviluppo delle intelligenze artificiali:
“Ridurre
il rischio di estinzione rappresentato dalle IA dovrebbe essere una priorità
globale insieme con la riduzione di altri rischi come le pandemie e la guerra
nucleare”.
Questo
è l’appello diffuso online dal “Center for AI Safety”, un’organizzazione no
profit, e firmato (al momento) da circa 350 personalità, fra scienziati,
matematici, ricercatori nel campo delle IA e imprenditori.
Quarto
appello sul rischio estinzione.
Il
documento, che appunto si esaurisce nella breve frase riportata all’inizio, è
solo l'ultimo di una serie di allarmi sui rischi potenziali di questa nuova
tecnologia ed è il quarto in un arco di tempo relativamente breve a parlare di
rischio estinzione per la razza umana.
In precedenza c’era stato” Stephen Hawking”,
poi lo scrittore “Eliezer Yudkowsky,” che su “Time” aveva scritto che “il risultato più probabile dello
sviluppo di un'IA la cui intelligenza superi quella umana è che tutti sulla
Terra moriranno”, e più di recente lo scienziato “Geoffrey Hinton”, che ha deciso di
licenziarsi da Google per “poter parlare liberamente dei pericoli rappresentati
dalle IA”.
Contattato
dal New York Times, il presidente del “Center for AI Safety”, “Dan Hendrycks”,
ha spiegato che “abbiamo bisogno che sia diffusa la consapevolezza di quello che è in
gioco, prima di avere proficue discussioni” e che la scelta di limitare la
lettera a una sola frase sarebbe utile per “mostrare che i rischi sono abbastanza
gravi da avere bisogno di proposte proporzionate”.
La
mano destra che non sa quel che fa la sinistra?
A fare
notizia, più che l’appello in sé (come forse dovrebbe essere), sono soprattutto
i nomi dei firmatari:
fra
loro ci sono lo stesso Hinton e anche Yoshua Bengio, due dei 3 ricercatori che
hanno vinto un Premio Turing proprio per il lavoro sulle IA (il terzo è Yann
LeCun, che lavora per Meta e al momento non ha firmato), c’è Sam Altman,
attuale CEO di OpenAI, Demis Hassabis, CEO di Google DeepMind, e anche l'italo
americano Dario Amodei, CEO di Anthropic.
Non
c’è “Elon Musk”, che pure aveva firmato una petizione simile lo scorso marzo,
ma che adesso non firma più probabilmente perché si è messo a fare quello
contro cui aveva firmato.
Ed è
in effetti questo, quello che dovrebbe fare notizia: il fatto che chi ha
firmato per ridurre i potenziali rischi provocati dalle IA stia intanto
lavorando per aumentarli, questi rischi.
Il
caso di “Altman”, considerato il “padre di ChatGPT” (la madre è probabilmente
Microsoft, che l’ha ricoperto di soldi per farcela), è emblematico:
a
inizio marzo ha pubblicato una lettera aperta in cui investiva la sua società
del compito di contribuire a sviluppare una IA Forte (una IA senziente,
semplificando), che è la fonte principale dei rischi di cui parla la comunità
scientifica;
a fine
marzo, quando Musk firmava l'appello sui rischi legati proprio allo sviluppo di
una “IA Forte”, ha ammesso di essere "un po' preoccupato e
spaventato" dalla sua creazione (di cui aveva parlato 3 settimane prima);
il 18
maggio, davanti al Congresso degli Stati Uniti, ha ricordato che “servono
regole per l'IA”, perché “temo gravi danni per la società”;
il 24
maggio ha lasciato intendere che se in Europa quelle stesse regole da lui
auspicate saranno troppo severe, OpenAI potrebbe andarsene definitivamente
dall’Ue;
salvo
poi, pochi giorni dopo, presentare al mondo una sua iniziativa per stimolare (a
pagamento) il dibattito su metodi e strategie da applicare alle IA.
I
rischi collegati allo sviluppo delle IA.
Per
citare un popolare modo di dire, sembra un po’ la storia del “la mano sinistra non sappia quel che
fa la destra”, con Altman (e Musk, e altri) che da un lato si dice preoccupato ma
dall’altro lato, con il suo stesso lavoro, non fa altro che aumentare quelle
preoccupazioni.
Non è
una critica, è un dato di fatto:
molti
dei firmatari di quest’ultimo appello sono sì scienziati, ricercatori,
sviluppatori ma sono anche imprenditori, dipendenti e CEO.
E se da una parte vogliono essere prudenti (o
vogliono mostrarsi prudenti, soprattutto agli occhi dei regolatori europei e
americani), dall’altra vogliono anche primeggiare nel loro campo, battere i
concorrenti sul tempo e pure guadagnare un sacco di soldi.
È il
loro lavoro, è abbastanza normale che sia così.
Il
problema, come su “Italian Tech” abbiamo scritto spesso, è che in questo
specifico campo la fretta e la corsa al profitto rischiano di essere più
pericolose che in altri, perché (come sostengono in molti) una volta sbagliato
è quasi impossibile tornare indietro.
Inteso
con una volta creata una” IA Forte” piena di pregiudizi o addestrata in modo
sbagliato, cui si sono date le chiavi dell'arsenale nucleare (non è
fantascienza, gli Usa hanno appena approvato una legge per richiedere sempre un
intervento umano per l’impiego di armi atomiche), che gestisca le forze di
polizia in una città o in uno Stato, che si occupi di decidere a chi dare un
lavoro e a chi negarlo, chi ha probabilità di essere curato dopo un incidente e
chi no e così via.
Perché
è poi questo che inizia a spaventare, delle IA:
non che scatenino una guerra all’umanità come
accade in “Terminator “o “Matrix”, ma che minino le fondamenta della nostra
società in maniera irrecuperabile, aumentando ulteriormente il divario fra chi
può e chi no, fra chi ce la fa e chi viene lasciato indietro, fra i primi e
tutti gli altri.
Portandoci
appunto all’estinzione.
(@capoema)
Estinzione
dell’umanità?
I veri
rischi delle Intelligenze
Artificiali
sono ben altri.
Valigiablu.it
- Bruno Saetta - brunosaetta@gmail.com – (9 Giugno 2023) – ci dice:
Il
virus dei colonizzatori.
L’epidemia
del nuovo coronavirus è nata nei paesi economicamente più avanzati, e si è
diffusa velocemente grazie agli spazi condivisi che i paesi sviluppati hanno
creato per moltiplicare l’accumulazione del capitale a livello globale.
Eppure il nuovo coronavirus grava in maniera
decisamente più pesante sui paesi meno sviluppati, come l’Africa, complice
anche le politiche vaccinali dei paesi sviluppati che rendono più difficile
produrre i vaccini in quel continente.
Il
virus è bianco, ma il vaccino diventa funzionale alla conservazione del peso
egemonico degli attori statali piuttosto che alla risoluzione della pandemia.
Questo
paradossale effetto è la conseguenza delle politiche di colonizzazione da parte
dei paesi più sviluppati, non solo quelli occidentali ovviamente. L'imposizione della cultura dei
colonizzatori e la completa sottomissione del colonizzato, porta quest’ultimo a
diventare uno strumento dell’imperialismo culturale, che progressivamente
convince il colonizzato che egli è tale per una giusta ragione, perché
inferiore.
In una sorta di “sindrome di Stoccolma”
collettiva, i colonizzati aiutano i colonizzatori a mantenere uno status di
inferiorità culturale e di incapacità politica.
I
meccanismi dell'oppressione bianca, del colonialismo, sono studiati da secoli,
eppure continuano ad applicarsi tutt’oggi.
Quello
che è cambiato sono gli strumenti.
Se un
tempo il colonialismo era armato, oggi è prevalentemente culturale ed
economico.
Le
conseguenze di ciò non sono subito evidenti, ma è palese dagli studi che
esistono delle profonde differenze tra, ad esempio, la realtà americana ed
europea e quella dell’Africa.
Uno studio che ha esaminato le pratiche di rilevamento
precoce del cancro al seno tra l'Africa subsahariana e i paesi ad alto reddito,
ha scoperto che ciò che funziona in Occidente, cioè le mammografie, in Africa
non è efficace nel ridurre la mortalità per cancro al seno.
I fattori incidenti sono un profilo di età
inferiore, una presentazione con malattia avanzata e opzioni terapeutiche
disponibili limitate.
Tutto
ciò suggerisce che l'autoesame e l'esame clinico del seno nell’Africa
subsahariana funzionano meglio della pratica medica progettata per le loro
controparti in paesi ad alto reddito.
Questo
esempio ci fa capire come la semplice importazione di strumenti tecnologici
occidentali (AI di supporto o consulenza medica) potrebbe portare più danni che
benefici.
Non
solo, tale importazione finirebbe anche per sottrarre risorse preziose a
strumenti locali più adatti alla realtà del luogo e al contesto specifico.
Nel
cuore delle AI.
La
tecnologia del momento è l’intelligenza artificiale, quella che ha spodestato “la
blockchain” e il “metaverso” nell’immaginario collettivo e sulle prime pagine
dei giornali.
In
effetti l’impressione è che questa tecnologia abbia effettivamente maggiori
possibilità di incontrare quanto meno la curiosità del pubblico.
Del
resto i “creatori” come “Sam Altman” non lasciano passare giorno senza
ricordarci la distruzione di massa che la sua tecnologia è in teoria capace di
provocare.
(Ma se
chi comanda oggi il mondo sono solo dei “capi gangster”, come potete sostenere
che questi abbiano un doveroso rispetto per la parte maggioritaria e più povera
dell’umanità? N.D.R.)
Argomenti
del genere trovano facile sponda nei mass media affamati di sensazionalismo e
sempre pronti a spingere sul filtro “techlash” alimentando l’indignazione
costante contro le nuove tecnologie.
E così
ogni giorno leggiamo che le AI potrebbero portare addirittura all’estinzione
della civiltà umana, e se da un lato questo ci terrorizza, dall’altro è
evidente la fascinazione per una tecnologia così dirompente tanto da essere
paragonata alla tecnologia nucleare.
“ChatGPT”,
i rischi per l’umanità e la sindrome “SkyNet”.
Ma
nonostante le mirabolanti descrizioni che magnificano sistemi ritenuti ormai
quasi senzienti, alla base delle AI non c’è altro che una quantità enorme di
dati raccolti e lavorati da sottopagati operatori spesso residenti in paesi
sottosviluppati come l’Africa o l'Asia orientale.
Il
loro compito è di immettere dati e informazioni in enormi database che saranno
poi ingurgitati da software complessissimi che si occuperanno di creare quello
che noi oggi chiamiamo, impropriamente, sistemi di intelligenza artificiale.
Sono schiere di “contractor”, persone che
attraverso delle piattaforme sviluppate apposta, lavorano a progetti con nomi
improbabili come “Yukon” o “Crescent”, e il cui compito consiste
nell’etichettare immagini e video, nel verificare quale tra i risultati di
ricerca proposti a video risulta effettivamente più efficace in relazione ad
una “specifica query”, nel verificare se il risultato ha la corretta
formattazione e così via.
Il
lavoro di questi “sottopagati operai “serve anche a correggere gli “errori” e i
“bias” dei dataset utilizzati per l’addestramento degli algoritmi, e quindi dei
sistemi di intelligenza artificiale.
Perché uno dei più grandi problemi di questi
sistemi complessi non è la loro capacità di distruggere la civiltà umana,
quanto piuttosto l’amplificazione delle discriminazioni sociali.
Quel lavoro serve per evitare errori come
quello che accadde nel luglio del 2015, quando una persona di colore venne
etichettata come gorilla dall’algoritmo di Google.
Ma
perché accadono errori del genere?
I
problemi e i rischi del riconoscimento facciale tra Cina e resto del mondo.
La
discriminazione delle persone di colore dipendeva da una serie di problematiche
connesse.
Innanzitutto
il riconoscimento facciale è difficile di per sé, il sistema sbagliava anche
coi bianchi, alcuni dei quali venivano etichettati come cani, o foche.
Nel
caso delle persone di colore, però, l’errore si innesta su un problema
culturale, anni di discriminazione razziale introitati dalla nostra società.
L’illuminazione
di un volto dipende da dei modelli standardizzati creati negli anni ‘50, le
cosiddette “Schede Shirley”, dalla modella originale, “Shirley”, che era
dipendente della” Kodak”, la multinazionale all’epoca leader del settore
fotografico.
Si tratta di immagini di modelli
standardizzati che sono usati per calibrare i toni della pelle, le ombre e le
luci nella fase di stampa.
Il problema di questi modelli, comuni a tante
situazioni simili, è che erano esclusivamente focalizzati sui bianchi, creati
da bianchi per i bianchi, e in questo modo l’illuminazione del volto di una
persona di colore era più difficile e questo incideva sul riconoscimento di un
volto rendendolo più complicato e aperto a possibili errori.
Solo
negli anni ‘70 si iniziò ad affrontare la revisione di questi standard.
Pregiudizio
culturale.
Il
pregiudizio culturale è il risultato di dati di addestramento influenzati da
stereotipi culturali, come ad esempio un algoritmo di visione artificiale
addestrato su persone bianche, che quindi fatica a riconoscere quelle di
colore, oppure un algoritmo addestrato in relazione al genere.
Il
sistema ingurgita milioni di immagini dove si vedono donne in cucina e uomini
al lavoro e quindi “impara” che la donna sta in cucina, mentre è l’uomo che va
al lavoro.
Se un sistema del genere fosse utilizzato
senza correzione di” bias” per la selezione di candidati, facilmente
preferirebbe uomini per i posti di programmatore.
Così
nel 2017 un professore dell’università della Virginia nota che un sistema
algoritmico produce risultati “sessisti”, associando alle donne immagini di
cucina e così via.
Analizzando
gli input forniti alla macchina vede che due collezioni di immagini, tra cui
una supportata da “Microsoft” e “Facebook”, presentava una distorsione di
genere nella raffigurazione di attività come la cucina e lo sport:
mentre
le immagini di cucina, shopping e lavaggio erano associate a donne, quelle di
sport erano legate a uomini.
Il
software di apprendimento automatico in fondo non faceva altro che il suo
lavoro:
apprendeva,
erano le immagini che soffrivano di pregiudizi.
Nel
2018 si scopre che “Amazon” aveva avviato un programma di valutazione dei
curriculum online che, basandosi sui dati storici, finisce per preferire uomini
a donne per i posti da assegnare (programmatori o comunque posizioni tecniche).
A
questo proposito è significativo che in uno studio del 2015 solo il 15% degli
studenti ricorda di aver visto donne svolgere compiti di informatica in film o
in TV, cosa che si riflette nella vita reale in cui le donne costituiscono solo
il 17% delle major in informatica - un costante calo da un picco al 37% nel
1984.
Il sistema, quindi, comincia a scartare i curriculum
nei quali ci sono termini quali “donna” o simili, addirittura eliminando un
curriculum solo perché vi era indicato “capitano della squadra di scacchi
femminile” (women’s chess club captain).
Ancora,
il sistema preferiva il linguaggio utilizzato dai candidati maschi.
Col
passare del tempo, nonostante i tentativi di risolvere i problemi, il sistema
ha finito per raccomandare candidati non qualificati, come se la selezione
fosse completamente” random”.
Alla
fine il programma è stato chiuso.
E non
è un problema della AI, non è un problema del sistema che ragiona male o
produce risultati inesatti, il problema dipende dalla società sottostante,
quella stessa società che produce i miliardi di dati che poi saranno
ingurgitati dalla AI.
Sono
gli esseri umani, siamo noi che scriviamo gli articoli di giornale, le guide
scolastiche e i commenti discriminatori che poi finiscono nell’enorme calderone
del dataset e formano una AI con pregiudizi.
La
ricercatrice e pedagogista “Irene Biemmi” sostiene che nelle storie raccontate
nei testi per l’infanzia tutt’oggi si riproducono stereotipi di genere che
ingabbiano bambini e bambine nel loro percorso di formazione.
Analizzando
i libri di lettura di quarta elementare di 10 case editrici vede che “il 59%
delle storie ha per protagonista un maschio, quelle con una protagonista
femminile sono il 37 per cento, condividono il ruolo solo nel restante 4%.
Per ogni dieci protagoniste femmine ci sono
sedici maschi.
Una
raffigurazione dei due generi ben poco paritaria”.
(Non dice nulla il fatto che” i capi gangster
che comandano il mondo” siano per il 90% maschi? N.D.R.)
Le
donne nei libri di formazione sono poco rappresentate, spesso confinate ai
ruoli domestici, sottomesse.
Ma il
problema non si ferma lì, anche i profughi sono rappresentati come
“clandestini” che vivono nelle nostre città “in condizioni precarie, senza un
lavoro e una casa dignitosi”.
E sono queste le cose che i nostri figli
apprendono a scuola e che formano l’immaginario e la cultura delle nuove
generazioni.
E tutto questo si riversa, poi, nella
produzione culturale fino ai commenti sui social, che a sua volta diventa la
base per l’addestramento dei sistemi di intelligenza artificiale.
La matematica non può molto per superare il
pregiudizio strisciante nella nostra società.
Nei
sistemi di intelligenza artificiale è necessario che si inseriscano dei
correttivi per gli evidenti “bias “dei dati di addestramento perché il processo
decisionale dipendente da algoritmi finisce per replicare le discriminazioni
presenti nei dati di input, amplificandone gli effetti, data la scala di
utilizzo.
E poiché per le minoranze ci sono meno dati,
l’impatto è maggiore per esse.
I nostri modelli sulle minoranze tendono a
essere peggiori di quelli per la popolazione in generale.
Ma
l’intera questione è ben più problematica, perché dati “non biased” in realtà
non esistono.
In un certo senso i dati sono opinioni, come
afferma la “data scientist” “Cathy O’Neill” (Weapons of math destruction),
occorre essere consapevoli che misurarli è di per sé un atto ideologico.
Io ho una mia ideologia e quindi penso che
abbia senso misurare (datification, ridurre il mondo in termini matematici
analizzabili da una AI) il mondo in un certo modo, nel mio modo.
Io
penso che il mio sia il modo migliore di misurare il mondo, e questo purtroppo
appare sempre più vero per quanto riguarda coloro che sono a capo di grandi
società tecnologiche, come “Elon Musk”, che credono di essere i migliori solo
perché loro ce l’hanno fatta, hanno avuto successo.
Nell’addestramento
delle AI, poi, c’è una sequenza che porta a sommare “bias su bias”, quelli del
creatore, dell’ingegnere, del data collector, della stessa AI che estrapola dal
dataset le regole che formano il suo “cervello”, in una moltiplicazione dei “bias”
che si inseriscono in un sistema che fondamentalmente non è altro che una
enorme “black box”, una scatola chiusa e impermeabile nella quale non possiamo
guardare, e l’unico modo per capire come opera sta nel verificare gli “input” e
gli “output”.
Gli
algoritmi e i “mostri” della tecnologia.
Potere
e controllo.
Gli
algoritmi hanno a che fare col “controllo”.
Le
nostre vite sono regolate dagli algoritmi programmati dagli ingegneri.
Se una
volta l’uomo era controllato perché rinchiuso in luoghi di supervisione, come le
fabbriche o le scuole, oggi l’individuo (individuo vuol dire indivisibile) può
andare dappertutto, c’è decisamente maggiore libertà di movimento rispetto al
passato.
Ma il
controllo non è scomparso, anzi oggi è ancora più pervasivo, tramite le
telecamere, le tessere di identificazione, le smart card, i sensori immersi
nelle strade e per le città.
Tutti
questi “sensori” che ci circondano scompongono l’individuo in una miriade di
dati, che alimentano una enorme quantità di flussi di informazione che tramite
mille rivoli (online, ma non solo) finiscono per riunirsi nei data base dei
data broker a realizzare un profilo per ogni cittadino.
L’individuo
non è più, quindi, indivisibile, ma è frammentato e ricomposto a creare quella
che non è la banale transcodifica della sua vita in informazioni gestibili da
un elaboratore, quanto piuttosto l’esercizio di un vero e proprio potere, una
forma di controllo.
È un algoritmo, una scatola chiusa che raccoglie input
da mille fonti, li elabora secondo una specifica programmazione e fornisce
degli output, a decidere chi è professore, chi è studente, anche chi è
terrorista.
In tal modo non c’è nemmeno necessità di
conoscere il nome di una persona, è sufficiente sapere cosa compra, dove vive,
dove lavora, cosa fa abitualmente, conoscere le sue attività routinarie.
Questa è la “datificazione”.
La
datificazione non è altro che l’etichettatura degli individui secondo parametri
stabiliti da
chi ha il potere di controllare l’algoritmo.
(Ma se il potere di controllo sull’algoritmo è in mano
“a capi gangster” quali verità prevarranno? N.D.R.)
E
statisticamente queste persone sono per lo più bianchi di lingua inglese che
vivono nel nord del mondo.
A
questi poi si aggiungono, per il continente asiatico, i cinesi, che sono gli
unici a contrastare la supremazia tecnologica degli Usa.
Non è
quindi solo un problema occidentale.
Il
processo di trasformazione dell’essere umano in “dati” passa attraverso una
serie di sotto-processi che determinano il risultato finale.
I dati finali sono qualcosa di separato e
diverso rispetto al materiale osservato inizialmente (l’essere umano).
Ciò
innesca una serie di problemi di difficile soluzione:
I dati
sono approssimati.
I dati
sono perlopiù dati storici (del passato).
I dati
sono spesso proxy data (inferiti da altri dati, ad esempio l’etnia inferita dal
luogo di residenza).
Il
potere degli algoritmi sulle nostre vite.
L’elaborazione
di dati raccolti da Internet e in particolare dai social network può, quindi,
portare a discriminazioni.
Le
persone dovranno, così, imparare a convivere con questi algoritmi, cercando di
capire come rapportarsi ad essi, come muoversi online tenendo presente quali
elementi gli algoritmi prendono in considerazione.
Essendo
del tutto opachi, in quanto non sappiamo mai esattamente come tali algoritmi
agiscano e decidano, dobbiamo imparare un gioco del tutto nuovo senza nemmeno
conoscerne le regole.
I
classici algoritmi di valutazione della recidiva, ad esempio, raccolgono dati
derivanti da aspetti periferici.
Un
soggetto che vive in un quartiere povero, che frequenta gente che già ha avuto
problemi con la giustizia, che non ha un lavoro, viene considerato ad alto
rischio di recidiva.
Negli USA statisticamente i neri vengono
fermati più spesso dei bianchi, quindi di fatto hanno a che fare con poliziotti
più spesso dei bianchi.
In
questo modo il modello di valutazione non fa altro che mascherare i pregiudizi
degli esseri umani, piuttosto che eliminarli.
Ovviamente, il fatto di essere considerati
possibili recidivanti, rende più difficile trovare un lavoro, e di conseguenza
aumenta la possibilità di incappare in guai con la giustizia.
E così via, in una spirale senza fine.
(They
define their own reality and use it to justify their results. This type of
model is self-perpetuating, highly destructive and very common -Cathy O’Neil,
data scientist)
Un
terrorista oggi non è più una persona, quanto piuttosto un modello (type)
ricavato dalla datificazione di una serie di comportamenti tipici di soggetti
ritenuti terroristi.
I dati
(comportamenti) da estrarre sono selezionati dai programmatori del modello,
quindi alla fine il modello di terrorista non descrive affatto un terrorista
quanto piuttosto come un terrorista è visto dal programmatore.
La
costruzione di un modello ideale non si basa sulla realtà quanto piuttosto è
un'approssimazione di un fenomeno dinamico, la traduzione in una quantità di
numeri trattabili da un software.
In tal
senso la costruzione di un modello di terrorista (ma anche di altre tipologie)
non è tanto l’estrazione di dati dalla realtà (raw data), quanto piuttosto la
costruzione di dati a partire dall’osservazione della realtà (cooked data).
E,
come tale, è soggetta a molteplici errori e fenomeni discriminatori.
In
fine dei conti dipende dall’algoritmo se noi abbiamo dei diritti, perché
dipende dall'algoritmo se siamo identificati come soggetti che hanno dei
diritti.
L’algoritmo
che prevede chi commetterà un crimine, tra poca trasparenza e pregiudizi.
Colonialismo
culturale.
Nel
corso della “conferenza di Bandung” in Indonesia, nel 1955, il presidente
indonesiano “Ahmed Sukarno” sostenne che il colonialismo avesse “anche un
vestito moderno, nella forma del controllo economico, del controllo
intellettuale […] esercitati da parte di una piccola comunità estranea
all’interno di una nazione”.
Il
colonialismo moderno non si esercita più per mezzo delle armi, non si domina
più il paese sottoposto, ma si creano le condizioni perché quel paese dipenda
dal paese dominante sul piano economico.
Oggi la tecnologia consente un ulteriore passo in
avanti, permettendo un vero e proprio colonialismo culturale che punta a
plasmare l’identità di un paese e della sua popolazione.
Non è una novità, lo vediamo tutti i giorni
coi mass-media, con la produzione televisiva e cinematografica.
A
tutto questo oggi si affianca un nuovo e penetrante strumento, i sistemi di
intelligenza artificiale capaci di elaborare quantità enormi di dati per
fornire risposte che hanno degli effetti importanti sull’intera società.
Il
rischio delle AI si dipana su tre direttrici:
sono
automatizzate e lavorano enormi quantità di dati su larga scala;
sono
opache e non ispezionabili;
generalmente
sono ritenute autorevoli, in quanto basate sulla matematica.
(Si,
la matematica del capo gangster che governa l‘algoritmo: io comando…quindi decido
che ti uccido …! N.D.R.)
“ChatGPT”,
“Google Bard”, “BingChat”, sono sistemi che aggregano informazioni da una
grande quantità di dati da diverse fonti, da diversi autori, per creare le
risposte alle domande degli utenti.
La
risposta non è altro che l'elaborazione statistica di una enorme quantità di
informazioni correlate.
Il
sistema cerca la risposta statisticamente più rilevante, e questo ha un enorme
impatto perché così si riduce al minimo la rappresentazione dei gruppi
minoritari, dei gruppi emarginati e discriminati.
L’effetto
è la soppressione delle voci minoritarie, una vera e propria cancellazione dei
dettagli del quadro sociale, dove tutto ciò che emerge è la punta dell’iceberg
in un’unica visione algoritmica.
Se con
i motori di ricerca otteniamo una serie di risposte possibili, elencate su più
righe di più pagine, dove ovviamente già c’è una selezione statistica ma che
comunque consente, volendo, di visitare anche risultati meno rilevanti, e
quindi più aperti a possibili alternative, la risposta dei sistemi di AI
inglobati in un motore di ricerca, come “BingChat”, di fatto elide tutte le
voci differenti e minoritarie, enunciando un’unica e universale verità
statistica.
Il
vero problema dei sistemi di intelligenza artificiale è che rischiano di
imporre una visione del mondo monolitica che prevale sulle miriadi di
espressioni, tutte ugualmente legittime, della cultura umana.
La
vera minaccia delle AI non sta nella capacità di distruggere la civiltà umana,
come ci ricorda fin troppo spesso “Sam Altman” e i suoi simili, quanto
piuttosto nel rischio di una assimilazione culturale e nell’imposizione di
valori tipici di determinate popolazioni ad altre popolazioni.
Uno
studente africano o asiatico che pone una domanda ad una AI, otterrà una
risposta che è la visione del mondo unilaterale del creatore di quella AI,
plasmata attraverso l’informazione ingurgitata dalla AI e selezionata dal suo
creatore.
Il sistema non ha gli strumenti per
distinguere l'esperienza personale tipica di un paese, dell'utente, i valori
familiari o le diverse visioni del mondo.
Il
risultato potrebbe essere una enorme e onnisciente macchina per il lavaggio del
cervello.
Ma non
si tratta di opporci all’avvento della tecnologia per rifugiarci in una
nostalgica rivendicazione del passato, quanto piuttosto di prendere atto che la
tecnologia è uno strumento e come tale può essere usato per il bene o per il
male.
Se
lasciamo la regolamentazione della tecnologia ai suoi stessi creatori, questi
faranno di tutto per strutturare tale regolamentazione secondo le loro idee, e
ovviamente sarà tale da favorire i loro prodotti.
È già accaduto alla televisione, lasciata
all’appropriazione dei privati è diventata un luogo di spartizione di monopoli.
Lo stesso sta accadendo ad Internet.
Ciò
che occorre, invece, è prendere atto che la tecnologia può essere un ottimo
strumento per far emergere le diversità di persone, di etnie e di gruppi, le
differenze ideologiche e intellettive.
Occorre resistere alle spinte costanti
all'omologazione di massa.
La
critica moderna alla tecnologia concentra lo spazio della democrazia al solo
momento della comunicazione, sede privilegiata della manipolazione delle
coscienze, ma questo perché il terreno del potere economico si è da anni
sottratto alle regole, appartandosi rispetto alla politica.
Dobbiamo
invece recuperare uno spazio di discussione politica che coinvolga l’economia e
la finanza, e in questo modo iniziare a regolamentare le nuove tecnologie per
quello che sono, non uno strumento di manipolazione di consensi alla “Cambridge
Analytica” quanto piuttosto lo strumento di aziende capaci di inserirsi nei
processi democratici di regolamentazione e dirottare tali processi e quindi di
ottenere una sorta di monopolio a protezione dei loro business.
Sono aziende che fanno lobbying per guidare le leggi e
gli oneri legislativi ad esse imposti, spesso perché i legislatori non sono
nemmeno in grado di capire esattamente come operano gli strumenti tecnologici
che queste aziende gestiscono.
Gli
strumenti di intelligenza artificiale sono in mano a poche grandi aziende che
stanno occupando gli spazi e monopolizzando l’attenzione dei politici, al fine
di ottenere il monopolio dell'interlocuzione ai fini della loro prossima, e
ormai indifferibile, regolamentazione.
Ma sono quegli stessi strumenti che impoveriscono le
comunità e i paesi che non hanno voce in capitolo nel loro sviluppo.
Le ex
colonie oggi non sono più angariate tramite la forza, quanto piuttosto da un
sistema che relega la loro cultura ed esperienza particolare negli spazi più
remoti dei dataset delle AI.
L’invasione
algoritmica dell’Africa vede dei sistemi inadatti ed inesperti rispetto ai
problemi locali, ma che allo stesso tempo lascia quei territori al di fuori dei
dataset di addestramento.
Oggi
il dominio e controllo delle popolazioni avviene attraverso meccanismi
invisibili e sfumati, tramite il controllo degli ecosistemi digitali, dello
sviluppo delle nuove tecnologie, campi nei quali sono sempre i soliti noti ad
avere un ruolo.
E i legislatori finiscono per rivolgersi
sempre a loro per costruire possibili regolamentazioni.
Così i
nuovi colonizzatori possono creare ecosistemi di commercio, politica e cultura,
mentre sostengono di creare conoscenza per tutti.
Ma non
è niente di nuovo rispetto a quello che si faceva nel passato:
“sappiamo
noi di cosa hanno bisogno queste persone e così veniamo a salvarle”.
Sono i
più vulnerabili che vengono colpiti maggiormente dall'adozione indiscriminata
delle nuove tecnologie, sono coloro che vivono ai margini della società, coloro
che sono visti come devianti e che veicolano valori differenti dalla massa,
coloro che non si conformano allo status quo.
Se le
nuove tecnologie verranno sviluppate in base al principio utilitarista, cioè
quello che persegue il miglior risultato per il maggior numero di persone,
avremo AI che non cercano soluzioni per le minoranze e per gli emarginati.
Avremo AI che continueranno a consigliare le
mammografie per le donne dell’Africa subsahariana, anche se è un errore.
La
grande illusione dei Big Data.
Gli
algoritmi comprendono davvero il mondo?
Occorre
finanziare e favorire iniziative di sistemi software, algoritmici e di
intelligenza artificiale che tengano in debito conto le peculiarità dei paesi
nei quali vengono utilizzati.
Occorre
avviare un percorso di decolonizzazione delle nuove tecnologie, come nell’”AI
Decolonial Manifesto” redatto da studiosi delle nuove tecnologie, dove si
spiega chiaramente che la soluzione per avere AI migliori non è avere più dati,
ma avere dati più rappresentativi delle diversità delle popolazioni esistenti
sulla Terra.
L'intelligente
e artificiale
estinzione
prossima ventura.
Civiltàdellemacchine.it
– Fondazione Leonardo – (19 giugno 2023) - Eugenio Mazzarella – ci dice:
“L'intelligenza
artificiale potrebbe portare all'estinzione dell'umanità”.
È il
tardivo avvertimento di guru dell’IA, tra cui “Sam Altman”, amministratore
delegato del produttore di “ChatGPT OpenAI”, di “Demis Hassabis”,
amministratore delegato di “Google DeepMind” e di “Dario Amodei” di “Anthropic”.
Allarme
che segue ad alcune audizioni al Congresso USA di esperti e produttori di
sistemi di IA, alla richiesta di moratoria delle ricerche di “Elon Musk”, per
meglio valutarne rischi ed impatto sociale, a un intervento di “Yuval Harari “su
“The Economist “che argomenta che prendendo il controllo del linguaggio in
generale, anche visivo e musicale, nell’ambiente sempre più mediale della
nostra società, l’intelligenza artificiale ha in sostanza hackerato il sistema
operativo della nostra civiltà.
Tesi e
preoccupazioni che ormai sono punti di realtà e non opinabili punti di vista
apocalittici.
E
vanno presi assolutamente sul serio.
ICT e
IA stanno ri-ontologizzando il “mondo”.
Ne
stanno ridefinendo il “DeepMind” (Google sa su cosa lavora), la “mente
profonda”, la “mente estesa”, da cui emerge la specificità della nostra specie,
cioè la consapevolezza della sua esperienza, della sua interazione con il suo
ambiente (sociale e naturale, cosale), che gli dà individualità autocentrata
(la coscienza, l’io) e il suo correlato “mondano”.
Se per
mondo si intende l’emergenza dalla natura di un nesso oggettivo-soggettivo,
cioè di un vivente che opera il suo ambiente in modo consapevole e ne viene
operato, grazie a questa consapevolezza, in modo elastico, relativamente
“libero”, trascendendo e potendo “manipolare” lo schema stimolo-risposta –
intervenendo in modo sempre più pervasivo sul “DeepMind”, sul modo in cui (il
logos, direbbero i filosofi, il nesso pensiero-linguaggio) si è costruita la
correlazione specifica soggetto-oggetto dell’”anthropos”, noi stiamo rischiando
l’estinzione dell’umano conosciuto.
Che
non è tanto la sua estinzione “fisica”.
Un
bipede in posizione eretta, magari potenziato e manipolato, “migliorato”,
quanto alla sua fisiologia organica, lo vedremo ancora andare in giro,
probabilmente a ranghi ridotti, perché di “animali da lavoro”, soprattutto di
bassa qualità, avremo (avremo chi, però?) sempre meno bisogno.
Quello
che rischiamo di non vedere più tanto in giro è la “psichicità” come relativo
controllo di sé in quanto standard sociale di massa, o alle masse acquisibile;
e cioè
una coscienza libera diffusa.
Una
regressione illiberale dell’azione umana, guidata in modo ora suasivo, ora
dispositivo, sempre coattiva, dall’algoritmo, questo è in gioco.
Quello
cui siamo esposti dall’intelligenza artificiale come sistema operativo di un
mondo digitalizzato, l’”infosfera”, dove il digitale non è un operatore di
servizio della realtà analogica, ma all’inverso la opera presidiandone il
sistema operativo, il linguaggio, è una dis-integrazione del regime corrente di
integrazione bio-psichico-sociale del nostro esserci, per un suo
ri-assemblaggio artificialista – artificiato – in una ontologia dell’essere
sociale come social web, dove andrebbe in congedo l’obsoleta dicotomia tra vita
reale e vita digitale, mettendo in discussione
– della vita “reale” – la sua struttura bio-psico-socio-storica
conosciuta.
Questo
perché nel “material
engagement” digitale – il nostro “ambiente associato”, il nostro tecno-ambiente
oggi, per dirla con “Simondon” – i processi di integrazione, di intreccio, di
entanglement tra gli schemi cognitivi multimodali e senso-motori in carico
all’immaginazione e le risorse articolatorie della forma linguistica, sono
sempre più esposti, nell’implementazione digitale dell’esperienza, al rischio
di non essere più o tanto l’attività cognitiva della “mia” immaginazione, ma di
un “sistema immaginativo”, di un’immaginazione sociale implementata e gestita
dalla IA che è esso a “processarmi” cognitivamente.
In
ambiente digitale, e sempre più con la “natività digitale” dell’esperienza
sociale e individuale che avanza, noi siamo esposti a venir meno alla nostra
finora “natività analogica”, e alla sua costruzione dell’esperienza e
dell’identità (della oggettivizzazione) come capacità di trascendere i processi
di oggettivazione che pure ci con-costituiscono e in cui come mente estesa
siamo coinvolti.
Rischiamo,
cioè, di restituire alla “macchina”, all’ambiente-macchina, quella oggettivizzazione
– l’autonomia relativa, ma sostanziale, della oggettivizzazione – che abbiamo
strappato alla “natura”, all’ambiente in cui la macchina era nostra estensione
e non noi estensione della macchina.
Di
consegnare all’artificiale, la oggettivizzazione antropocentrica che abbiamo
strappato all’ambiente naturale, emergendo come cultura.
Quella oggettivizzazione antropocentrica che
ha dato soggettività in senso proprio, punto di vista libero e personale,
individualità, agli individui del Sapiens, trascendendo lo statuto di meri
esemplari seriali del gruppo e della specie.
Ci
avviamo pericolosamente ad una larga “società del simulacro” dell’umano, dove
l’originale – come capacità di governo e indirizzo della realtà, come potere
deliberativo su sé e sul mondo – che di questa società detterà il software
mediale operativo sarà (forse) custodito in una ristretta cerchia di
“sacerdoti” dell’IA e di custodi del “tesoro” del Tempio.
A
questa “società dei simulacri” (Baudrillard) ci arriveremo con l’effetto più
subdolo dell’esplosione “nucleare” dell’IA cui siamo esposti, il cui potenziale
distruttivo più rilevante non sarà quello degli effetti termici e meccanici
della bomba atomica o all’idrogeno.
Per
uscire dall’analogia, gli effetti macro sociali, politici ed economici, che
prova ad affrontare il diritto per salvare il salvabile del “mondo di prima”, o
per permettere alla società una metabolizzazione non distruttiva di questi
effetti.
Ma
sarà quello della bomba al neutrone, la cui distruttività è affidata ad un
intenso flusso di neutroni, che oltre un ridotto perimetro dall’epicentro
dell’esplosione lasciano intatte le cose e cassano l’organico che lo abita.
L’analogia
che vogliamo suggerire è che l’IA casserà dalla scatola cranica la psichicità
sociale diffusa che abbiamo conosciuto, e in giro non si vedranno morti fisici
e sangue, ma zombies, non tanto i “morti viventi” che l’immaginario anticipante
delle distopie ci ha già fatto conoscere da mezzo secolo, ma “viventi morti
(dentro)”.
L’estinzione
dell’umanità di cui parlano i guru dell’IA che abbiamo citato potrebbe avere
questa figura, apparentemente meno eclatante dell’estinzione “fisica” della
specie.
Tutto
perduto? No.
Siamo
ancora in tempo, politicamente, come “ambiente associato umano” – ma siamo
forse l’ultima generazione che lo può fare perché non ancora nativamente
condizionata in senso digitale –, non solo a temperare gli effetti
macro-sociali, economici e politici, dell’IA.
A
gestirne una metabolizzazione sociale sostenibile ad “antropologia vigente” per
dir così.
Ma
anche a prevedere indirizzi “pedagogici” – a partire dalla scuola e dalla
formazione – non di rinforzo della “natività digitale” (della sua pur
necessaria “competenza”), ma di difesa, conservazione, restauro, promozione
della “natività analogica”, perché non diventi un “bene culturale” da museo,
oggetto non più vissuto, ma di puro studio di una storia dell’antropologia
pre-digitale, ammesso che i nativi digitali coltivino interessi per i loro
progenitori una volta che siano stati pervasi “dentro” in modo microfisico
dall’immaginario digitale che gli detta cosa immaginare di sé e del mondo.
Intelligenza
artificiale, Bill Gates
contro
i catastrofisti: «Le IA sono
un
rischio reale, ma gestibile»
Corriere.it - Velia Alvich – (15 luglio 2023)
– ci dice:
Il
fondatore di Microsoft riconosce il pericolo delle nuove tecnologie, ma è
ottimista. L'appello agli sviluppatori: «Lavorate in maniera sicura e
responsabile»
Bill
Gates: «L'intelligenza artificiale distruggerà aziende come Google o Amazon»
Parola
di Bill Gates:
le
intelligenze artificiali possono essere un rischio per l’umanità, ma nulla che
non possa essere gestito.
Nessun «pericolo estinzione», come teorizzano
alcuni esperti (ma altri, come “Yann LeCun”, non sono affatto d'accordo).
Ne ha
parlato nel suo blog, in un post che mette in chiaro sin dal titolo la sua
prospettiva tutto sommato ottimistica.
È vero
che siamo entrati in quella che chiama «Età delle Ia», la nuova tecnologia sta
cambiando così velocemente che non è sempre chiaro capire quale sarà il
prossimo passo, ma l’umanità ha già attraversato mutamenti altrettanto grandi:
«Non è
la prima volta che un’innovazione ha creato nuove minacce che devono essere
controllate. Lo abbiamo già affrontato in passato».
Questo,
però, non può essere fatto senza uno sforzo comune:
da un
lato, Gates chiama in causa i governi e le forze politiche perché «vengano
create leggi e regolamenti adatte a questa nuova tecnologia», dall’altro lancia
un appello al settore privato:
«fate il vostro lavoro in maniera sicura e
responsabile».
La
preoccupazione per la sicurezza digitale.
Il
primo rischio che Gates affronta è la creazione di “deepfakes”, cioè video
iperrealistici creati combinando e sovrapponendo due immagini diverse:
«Possono
essere usati per cambiare il risultato di un’elezione.
Certo,
non ci vuole una tecnologia molto sofisticata per instillare il dubbio su chi
sia il vincitore legittimo di un’elezione, ma le intelligenze artificiali lo
renderanno più semplice».
La soluzione è sempre tecnologica:
così
come si possono creare video finti, si possono anche smascherare.
Non
solo:
secondo
Gates, le persone già dubitano di quello che vedono su Internet.
L’esempio
è la truffa del principe straniero che promette grandi somme di denaro in
cambio dei dati della propria carta di credito: ormai quasi nessuno ci casca
più. Non si tratta solo di frodi e deepfake, il filantropo americano esprime
preoccupazione anche per le cosiddette allucinazioni:
sono
risposte date dalle IA testuali come Chat-GPT, ma che sono completamente false.
«Chiedigli di aiutarti a organizzare un
viaggio in Tanzania e potrebbe provare a mandarti in un hotel che non esiste»,
spiega con un esempio efficace.
La
soluzione?
Usare
le testuali parole con la consapevolezza che possono sbagliare e avere fiducia
negli sviluppatori che già stanno lavorando a un modo per minimizzare questo
genere di errori.
L’impatto
delle intelligenze artificiali sulla società.
Non è
solo un rischio tutto tecnologico quello delle intelligenze artificiali.
Le
conseguenze dell’avanzata di questi strumenti possono coinvolgere la vita
quotidiana fuori dal mondo digitale.
«Alla
fine le IA saranno così avanzate a esprimere idee che potranno scrivere le
vostre stesse email», sostiene Gates.
E aggiunge che, in fondo, qualsiasi cosa che
dà una spinta alla produttività non è di per sé sbagliata.
La
soluzione del problema è affidata ai governi e alle imprese, che «dovranno
gestire questa transizione così che nessun lavoratore venga dimenticato».
Non è
la prima volta, d’altronde, che si assiste a un simile cambiamento nel mercato
del lavoro:
«Non sarà drammatico come la rivoluzione
industriale, ma paragonabile all’introduzione dei computer».
E proprio l’arrivo dei PC nelle case della
gente e nelle scuole è un tema che Gates ricorda bene:
«Fra
gli anni Settanta e Ottanta, alcuni insegnanti di matematica temevano che gli
studenti dimenticassero come fare i calcoli più semplici».
Un
timore superato allora come oggi dall’adozione delle nuove tecnologie in una
prospettiva diversa.
Per
esempio, imparare a distinguere l’allucinazione prodotta da una IA testuale
dalla verità.
E se
gli studenti continuano a barare, c’è una soluzione:
usare
strumenti digitali che sanno riconoscere un testo scritto da un umano da uno
prodotto da un’intelligenza artificiale.
(Velia
Alvich)
Verso
una guerra più ampia in Medio Oriente?
La "guerra non ufficiale" tra Iran e Israele,
che si intensifica nel Mar Rosso e oltre,
con conseguenze globali.
Globalresearch.ca
– (“18 dicembre 2023) - Uriel Araujo – ci dice:
Un
agente dell'agenzia di intelligence israeliana Mossad è stato giustiziato in
Iran il 16 dicembre, secondo l'agenzia di stampa IRNA.
Inoltre,
un gruppo di hacker israeliani ha affermato di aver paralizzato le stazioni di
servizio in tutto l'Iran in un attacco informatico.
Molto
è stato scritto sulla campagna israeliana su Gaza e la Cisgiordania, sul
disastro umanitario e sulle sue conseguenze.
Tuttavia,
c'è ancora un altro punto di vista, vale a dire l'escalation della lunga guerra
del carburante e della cosiddetta guerra ombra tra la Repubblica islamica
dell'Iran e lo Stato ebraico, con potenziali impatti di ancora più vasta
portata a livello globale ben oltre il Mar Rosso e il Nord Africa o il Medio
Oriente.
Un
esempio di ciò è il fatto che due delle più grandi compagnie di navigazione del
pianeta (Mærsk e Hapag-Lloydhave) hanno appena annunciato che sospenderanno
temporaneamente le loro rotte nel Mar Rosso dopo gli attacchi effettuati dagli
Houthi sostenuti dall'Iran.
Non è cosa da poco: stiamo parlando di una
delle principali rotte mondiali per le spedizioni di carburante e petrolio.
Parlando
alla “BBC” il 16 dicembre, “Mærsk” ha dichiarato che:
"A
seguito dell'incidente sfiorato che ha coinvolto “Maersk Gibraltar” ieri e
l'ennesimo attacco a una nave portacontainer oggi, abbiamo dato istruzioni a
tutte le navi “Maersk” nell'area destinate a passare attraverso lo stretto di “Bab
al-Mandab” di sospendere il loro viaggio fino a nuovo avviso".
Lo
stretto di “Bab al-Mandab”, noto anche come la “Porta delle Lacrime”, si trova
tra lo “Yemen” (nella penisola arabica) e sia “Gibuti” che è l'Eritrea sulla
costa dell'Africa.
È attraverso questa rotta che le navi
raggiungono il Canale di Suez da sud:
tutte
le navi provenienti dall'Oceano Indiano, ad esempio, devono attraversarlo.
Evitarlo significa prendere rotte considerevolmente più grandi, come la
navigazione intorno all'Africa australe, con costi maggiori.
“I
ribelli Houthi” controllano gran parte dello “Yemen” e hanno lanciato attacchi
sui corsi d'acqua quasi ogni giorno come parte della loro campagna contro
Israele, che a sua volta ha risposto schierando navi lanciamissili.
Anche le navi da guerra degli Stati Uniti, del
Regno Unito e della Francia hanno abbattuto vari missili lanciati dai ribelli.
Il 15 dicembre, un membro del “politburo di
Ansarullah degli Houthi”, “Ali al-Qahoum”, ha dichiarato che lo “Yemen” è
"pronto" a rispondere a qualsiasi azione militare compiuta da Israele
o dagli Stati Uniti, aggiungendo che le operazioni continueranno.
Commentando
l'interruzione dei viaggi di “Maersk” nel Mar Rosso, “Marco Forgione”,
direttore generale dell'”Institute of Export & International Trade”, ha
dichiarato:
L'Iran
avverte dell'"inevitabile espansione" della guerra tra Israele e Gaza.
"Questo
ha un impatto su ogni anello della catena di approvvigionamento... e non farà
altro che aumentare le possibilità che i prodotti critici non arrivino a
destinazione in tempo per Natale".
Come
ho scritto prima, Israele ha alti interessi in Africa, ben oltre i suoi sforzi
diplomatici di "spyware" (spesso descritti come "comprare amici vendendo
armi"), il Mar Rosso in particolare è la sua "porta di servizio" verso
gli stati costieri come l'Egitto, l'Arabia Saudita, la Somalia, lo Yemen ecc.
Gli “Accordi
di Abramo del 2020” mediati dagli Stati Uniti e i successivi accordi di
normalizzazione con Israele firmati da paesi come gli Emirati Arabi Uniti (UEA)
hanno aperto la strada alla sicurezza e alla cooperazione militare, che si è
concretizzata, ad esempio, nell'esercitazione navale congiunta “Israele-Emirati
Arabi Uniti nel novembre 2021”, aumentando così le tensioni nel Mar Rosso.
C'è
stata una crisi energetica e di carburante nel Levante (aggravata dalle sanzioni del Tesoro
degli Stati Uniti e dal “Caesar Syria Civilian Protection Act” del 2019), che ha colpito in particolare il
Libano, e questo contesto ha rafforzato la diplomazia petrolifera iraniana,
così come Hezbollah sostenuto dall'Iran, con Teheran che fornisce carburante
ad alleati all'estero come la Siria, il Libano e persino il Venezuela.
Come
parte di tale guerra economica, molto prima dell'”audace campagna Houthi” in
corso, avevano avuto luogo diversi attacchi clandestini contro le navi, con la
Siria che accusava Israele di essere dietro di loro – questo è il contesto
dell'odierna crisi del Mar Rosso.
Tuttavia,
gli “Houthi” sembrano essere disposti a portare questa guerra marittima per
procura (e la "guerra ombra" per procura) a un livello completamente
nuovo.
Da
anni è in corso una guerra non ufficiale tra Israele e Iran, due potenze
dominanti in Medio Oriente.
Nel
luglio 2022, ho chiesto se una tale guerra fredda locale potesse degenerare in
un grande conflitto regionale, potenzialmente anche in una spirale di confronto
globale.
La
situazione attuale ci ha probabilmente portato un po' più vicini a uno scenario
così catastrofico.
Sarebbe
male informato pensare agli “Houthi in Yemen” (o a Hezbollah in Libano, se è
per questo) come semplici pedine iraniane.
Tali
gruppi hanno ovviamente la loro base popolare, la loro agenda e la loro agenzia
come attori politici e sociali.
In ogni caso, l'Iran presta loro il suo
sostegno in diversi modi, e una più ampia guerra per procura tra Iran e Israele
è davvero uno degli angoli.
Il
livello di allineamento tra la “Repubblica islamica” e “Hezbollah” (anch'esso
un'organizzazione sciita) non può essere paragonato a quello tra l'Iran e Hamas
(un gruppo sunnita palestinese).
Tuttavia,
la “cooperazione di Teheran con Hamas” è in aumento, con il leader di
quest'ultimo” Ismail Haniyeh” che ha incontrato il ministro degli Esteri
iraniano in Qatar il mese scorso.
Resta
da vedere fino a che punto si spingerà questa cooperazione.
Teheran
non può "controllare" i suoi "alleati" – più o meno allo
stesso modo in cui Washington non può farlo con il suo alleato israeliano.
In questa complessa equazione, c'è un grande
grado di imprevedibilità e un ampio spazio per il ritorno di fiamma.
Va
notato che la nazione persiana è una potenza emergente e non deve essere
sottovalutata.
Per la
sua posizione strategica, per migliaia di anni, ha svolto un ruolo chiave come
percorso lungo la “Via della Seta per il trasporto di merci da ovest a est”.
Negli
ultimi decenni, a causa di conflitti, sanzioni e problemi infrastrutturali di
ogni tipo, tale potenziale non è stato sfruttato.
Tuttavia,
le condizioni attuali stanno cambiando.
Le conseguenze del fallimento della
costruzione neocoloniale della nazione di Washington in Iraq, per prima cosa,
sono state una Teheran rafforzata.
C'è anche il promettente “Corridoio di Transito
Nord-Sud” (NSTC), che ha il potenziale non solo per contrastare gli sforzi
degli Stati Uniti di isolare economicamente l'Iran e la Russia, ma anche per
creare una nuova rotta promettente e un'alternativa al Canale di Suez.
In
ogni caso, l'Occidente
non vuole un'escalation totale:
i
massimi leader militari statunitensi si sono recati a Tel Aviv per fare
pressione su Israele affinché eviti grandi combattimenti e una guerra regionale
più ampia, limitandosi e mantenendo una campagna più limitata.
Resta
da vedere se uno stato ebraico radicalizzato e imbaldanzito si asterrà
dall'attraversare l'ennesima linea rossa – e se gli altri attori coinvolti
faranno lo stesso: gestire le tensioni dall'esplosione completa non è un
compito semplice.
Il
conflitto israelo-palestinese è sempre stato una questione polarizzante in
Africa e in Medio Oriente, in particolare, e ora sta dividendo anche
l'Occidente, con le autorità europee che schiacciano le manifestazioni
pro-Palestina.
L'intensificazione
di questo e l'escalation della "guerra ombra" israelo-iraniana
offriranno alle élite politiche occidentali e filo-israeliane l'opportunità di
spingere ulteriormente le sue richieste di "allineamento" (mentre erodono la narrativa
occidentale sui "diritti umani", poiché la campagna di Tel Aviv sta
affrontando critiche senza precedenti), più o meno allo stesso modo in cui
porrà una sfida diplomatica alle nazioni di tutto il mondo.
La
posta in gioco è troppo alta, in termini umanitari, etici, religiosi,
ideologici, geoeconomici e geopolitici.
(Uriel
Araujo è un ricercatore specializzato in conflitti internazionali ed etnici.
Collabora regolarmente con Global Research).
Disastro
della guerra in Ucraina.
La
sostituzione di Zelensky è imminente?
Regno
Unito Estraderà i rifugiati ucraini.
Rodney
Atkinson.
Globalresearch.ca-
(18 dicembre 2023) - Rodney Atkinson -
Gli
Stati Uniti cominciano a riconoscere una guerra inutile.
In
Ucraina, la Russia sta avanzando su quasi tutti i fronti, le consegne di
armamenti dell'Occidente sono diminuite dell'87% nel 2023 rispetto al 2022, con
un calo della fornitura di proiettili di artiglieria del 30% poiché gli Stati
Uniti hanno dirottato le forniture verso Israele.
Al
Congresso, il partito democratico di Biden non riesce a far approvare un
pacchetto da 61 miliardi di dollari per l'Ucraina poiché i repubblicani
chiedono, come parte del totale, somme per la crisi esistenziale al confine
meridionale degli Stati Uniti (dove circa 2 milioni di migranti attraversano
ogni anno) e perché Biden non può dire quale sia l'obiettivo della guerra in
Ucraina.
Le
perdite ucraine ammontano ora a circa 400.000 soldati uccisi o dispersi, mentre
alcune stime indipendenti parlano di perdite russe fino a 50.000.
La "controffensiva" ucraina è stata
un disastro con la Russia che ha guadagnato più terreno dell'Ucraina da quando
è iniziata.
L'entità
dell'improvvisa presa di coscienza che l'Occidente ha stupidamente creduto alla
propria propaganda, ma ora deve riconoscere la sconfitta imminente, è chiara
dall'ingenuo “Daniel Hannan” sul “Sunday Telegraph”:
Il 15
luglio 2023 ha scritto:
"Togliete
le armi nucleari alla Russia, perché Putin è finito e il suo paese potrebbe
presto crollare".
Ma il
9 dicembre 2023 è stato costretto ad ammettere:
"La
Russia di Putin si sta avvicinando a una vittoria devastante. Tremano le
fondamenta dell'Europa".
Anche
dove (nell'area
di Kherson e intorno a Rabotino) l'Ucraina ha guadagnato terreno, le sue truppe sono
state decimate a Krynki sulla riva orientale del Dniepr o si sono ritirate di
nuovo intorno a Rabotino.
La
pubblicazione di Odessa "Dumskaya" scrive che:
L'operazione
delle forze armate ucraine per mantenere una testa di ponte sulla riva sinistra
del Dniepr è priva di significato e porta solo a grandi perdite.
I marines attraversano il fiume e la maggior
parte viene uccisa mentre si avvicina alla riva.
Coloro
che sono sopravvissuti e hanno attraversato il confine saranno stirati con
tutto ciò che è nell'arsenale russo.
Le persone vengono costantemente gettate
dall'altra parte del fiume, onda dopo onda.
Non si parla di ulteriori svolte;
Ora le
forze vengono sprecate semplicemente per rimanere lì.
Per
cosa?
A
questo proposito, i continui tentativi di gettare i Marines sulla riva sinistra
sono qualcosa al di là del bene e del male".
Seguendo
lo schema della resistenza senza speranza in altre battaglie (Mariupol, Bakhmut), Zelensky rifiuta il consiglio dei
suoi generali di ritirarsi e consolidarsi e invece getta a morte truppe sempre
meno efficaci per il bene dei titoli dei media "eroici".
Emergono
crepe tra Washington e Kiev.
"Controffensiva"
in attesa: "A tempo indeterminato"?
Non
c'è da stupirsi che siano morti così tanti e che Zelensky sia ai ferri corti
con il capo delle forze armate” Valerii Zaluzhnyi,” con il quale non comunica
più direttamente.
Sempre
più altri leader ucraini come l'ex presidente “Poroshenko” e il sindaco di
Kiev, “Klitschko”, si stanno schierando dalla parte di “Zaluzhnyi” e le
massicce perdite al fronte hanno portato a manifestazioni a Kiev e altrove da
parte dei parenti dei morti e dei dispersi.
Sostituzione
di Zelensky.
Dopo
il fallito viaggio di Zelensky a Washington e l'accoglienza gelida che ha
ricevuto, ora è minacciato sia dall'insurrezione in patria che dalla mancanza
di sostegno militare e politico da parte dei suoi alleati occidentali.
L'ex
agente dell'intelligence della CIA “Larry Johnson”, ancora con evidenti
contatti all'interno dell'Agenzia, afferma che Zelensky ha chiesto garanzie di
sicurezza per la sua fuga dall'Ucraina.
La
testata italiana “Antidiplomatico” scrive che il leader ucraino è stato trovato
un successore "sicuro" nella persona del suo capo
dell'amministrazione “Andrey Yermak”.
L'amministrazione
Biden è così disperata nel finanziare e armare l'Ucraina per l'ulteriore
massacro dei suoi cittadini che il segretario alla Difesa “Lloyd Austin” ha
addirittura minacciato i membri del Congresso in una sessione di commissione a
porte chiuse che se non avessero autorizzato più fondi per l'Ucraina
"manderemo i vostri zii, cugini e figli a combattere in Ucraina".
Non
c'è bisogno di dire che questa vergognosa minaccia ha ulteriormente messo i
membri e le donne del Congresso contro il governo.
In
Ucraina ci sono già 62.000 donne nelle forze armate ucraine e le donne stanno
ora lavorando nelle miniere, sostituendo gli uomini arruolati nell'esercito!
La
disperazione del governo di Kiev può essere vista non solo nel reclutamento di
uomini fino all'età di 70 anni e nelle feroci bande di giornalisti che
trascinano gli uomini fuori dalle strade, ma in questo ordine ministeriale che
afferma che
"Al
fine di evitare tentativi di suicidio in posizioni di combattimento, i nuovi
arrivati non distribuiscono munizioni al personale militare mobilitato (cioè di leva)"
L'ex
portavoce di Zelensky, “Arestovich”, ha ammesso che ci sono circa 100 disertori
al giorno da parte delle truppe sul campo.
"Il
nostro problema è che, lasciate che vi dia alcune cifre:
100
persone che hanno lasciato arbitrariamente le unità militari al giorno in
Ucraina.
100
persone al giorno, ovvero una brigata al mese".
Il
Regno Unito riporterà i rifugiati ucraini a combattere.
Ci
sono 650 mila ucraini in età di coscrizione che vivono nell'Unione europea che
sono fuggiti dalla mobilitazione dopo che le truppe russe sono entrate in
Ucraina, con 190.000 in Germania e migliaia anche nel Regno Unito.
A
seguito della mia corrispondenza con il mio deputato e il Ministero degli
Interni del Regno Unito, è ora chiaro che il governo del Regno Unito è pronto a
estradare i rifugiati ucraini per combattere.
Nel
testo della lettera del ministro della Sicurezza al mio deputato
sull'estradizione:
"Una
persona ricercata non sarà estradata se ciò violerebbe i suoi diritti umani, se
la richiesta è stata formulata politicamente o se rischierebbe di affrontare la
pena di morte.
Si
applica anche il criterio della doppia incriminazione, il che significa che il
reato per il quale un individuo è condannato deve essere un reato sia nello
Stato richiedente che nel Regno Unito"
Ciò
che si evince chiaramente da questa lettera e in particolare dal paragrafo
precedente, è il seguente:
1.)
Non esiste una politica di non estradizione.
2.) Poiché
tutti i rifugiati ucraini non sarebbero soggetti alla pena di morte,
l'estradizione in un paese che il Regno Unito sta aiutando nella guerra non
violerebbe i loro diritti umani e l'evasione dalla leva è un reato comune sia
al Regno Unito che all'Ucraina, pertanto verrebbero estradati.
Sappiamo
che Kiev sta inviando in prima linea nuove reclute con solo poche settimane di
addestramento e sappiamo dai comandanti ucraini che questo non è sufficiente.
Ma
l'Ucraina, quasi isterica, che sostiene il governo britannico, è pronta a
estradare gli ucraini a cui ha concesso lo status di rifugiato per combattere
sulle linee omicide dell'Ucraina orientale.
Gli
Stati Uniti cominciano a riconoscere una guerra inutile.
Il “Council
on Foreign Relations” è l'organizzazione più influente negli Stati Uniti quando
si tratta di politica estera degli Stati Uniti e il suo presidente fino a
giugno 2023, “Richard Haas”, ha sottolineato l'inutilità dei sacrifici
dell'Ucraina in questa guerra:
"Anche
se diamo tutto ciò che dobbiamo dare all'Ucraina, non porterà comunque al
successo... Pertanto, gli Stati Uniti hanno bisogno di avere alcune
conversazioni molto dirette con l'Ucraina e parlare di ridurre la loro enfasi
sulla liberazione della terra, ponendo sempre più l'accento sul mantenimento di
ciò che hanno... L'idea che 1 o 2 o 3 anni in più di questo si tradurrà in un
successo, semplicemente non la vedo... Ogni volta che nella vita c'è un grande
divario tra ciò che stai cercando di fare e la tua capacità di farlo, devi
aumentare i tuoi mezzi o abbassare i tuoi obiettivi: qui l'unica opzione
realistica è abbassare i nostri obiettivi".
Se non
fosse per le minacce percepite dagli Stati Uniti da Iran, Hezbollah, Yemen,
Gaza e Cina, l'amministrazione Biden ignorerebbe ciecamente questo consiglio, ma i tempi stanno cambiando e la
debolezza di Biden in un anno elettorale, lo stato precario di Zelensky a Kiev, le massicce perdite ucraine e la crescente opposizione alla guerra
in Europa significano
che Washington
costringerà presto Kiev a negoziare con la Russia.
Dal
momento che Zelensky ha legiferato contro tali negoziati, dovrà essere
sostituito.
La
Russia non accetterà di sospendere la guerra durante tali negoziati.
Commenti
Posta un commento