Loro con l’IA possono ucciderci tutti.

 

Loro con l’IA possono ucciderci tutti.

 

 

Israele Seppellisce Vivi gli Abitanti di Gaza.

La Palestina Sollecita Indagini.

Conoscenzealconfine.it – (18 Dicembre 2023) – Redazione – traduzione, Luciano Lago – ci dice:

 

Il ministro della Sanità palestinese chiede un’indagine internazionale sulle notizie secondo cui le forze israeliane avrebbero seppellito vivi alcuni palestinesi ricoverati nell’ospedale “Kamal Adwan” a Gaza.

Secondo i media palestinesi, “Mai Al-Kaila” ha dato l’annuncio in una dichiarazione rilasciata sabato 16, in cui ha indicato che i dati e le testimonianze raccolte da testimoni oculari, squadre mediche e media dimostrano che le forze del regime israeliano hanno utilizzato i bulldozer per seppellire vive alcune persone. Palestinesi nel cortile dell’ospedale “Kamal Adwan”, nella parte settentrionale della Striscia di Gaza.

“Alcuni di loro sono stati visti vivi prima di essere assediati dai carri armati israeliani”, si è lamentato il proprietario.

Date le prove,” Al-Kaila” ha esortato la comunità internazionale a “prendere misure serie per chiarire le cause di questa tragedia e a non ignorare o rimanere in silenzio di fronte alle notizie di crimini di guerra commessi nella Striscia di Gaza”.

Sabato, le immagini pubblicate dalla rete televisiva del Qatar “Al Jazeera” mostravano tende e oggetti palestinesi distrutti nel cortile dell’ospedale “Kamal Adwan” a “Beit Lahia”.

“Decine di sfollati, malati e feriti sono stati sepolti vivi. I bulldozer [israeliani] dell’occupazione hanno calpestato le tende degli sfollati nel cortile dell’ospedale e le hanno brutalmente schiacciate”, ha detto il giornalista palestinese “Anas al-Sharif” in un post sulla piattaforma “social X”.

Un massacro terrificante e scene indescrivibili.

 “Quello che l’occupazione israeliana ha fatto all’ospedale “Kamal Adwan” è un crimine orribile contro i cittadini e il personale medico“, ha osservato in un post successivo.

Anche l’”Euro-Mediterranean Human Rights Monitor”, con sede a “Ginevra”, ha chiesto un’indagine internazionale sull’atto orribile.

Il Ministero della Salute palestinese ha riferito questo sabato che circa 19.088 persone hanno perso la vita sia nell’enclave costiera che nella “Cisgiordania occupata” a causa agli attacchi compiuti dall’esercito israeliano dal 7 ottobre.

Del totale, 18.800 sono morti nei bombardamenti israeliani a Gaza, mentre 288 palestinesi sono morti in Cisgiordania.

(Hispan Tv)

(Traduzione: Luciano Lago)

(controinformazione.info/video-israele-seppellisce-vivi-gli-abitanti-di-gaza-la-palestina-sollecita-indagini/).

 

 

 

 

Mar Rosso, Area Strategica

tra “Sogni” Israeliani.

Conoscenzealconfine.it – (17 Dicembre 2023) - Zainab Hammoud – ci dice:

 

Si tratta di uno dei corridoi marittimi più importanti del mondo, che collega tre continenti: Africa, Asia ed Europa.

Non è la prima volta che il Mar Rosso entra nelle equazioni di guerra, poiché è anche la chiave principale per consolidare equazioni e minarne altre.

Geograficamente:

– L’area del Mar Rosso è di 438.000 km2 e la sua lunghezza è di circa 1.900 km.

– Vivono 300 specie di pesci al suo interno.

– È la zona più ricca di minerali marini al mondo. Le sue acque calde contengono la più alta concentrazione di sali minerali necessari per molti metalli pesanti come ferro, oro, argento, rame, piombo, magnesio e calcio.

– Su questo mare si affacciano otto Paesi, tra cui tre asiatici:

 l’”Arabia Saudita”, che costituisce la più vasta area della costa del Mar Rosso, “lo Yemen”, che si affaccia a sud su “Bab al-Mandab” e “il Golfo di Aden”, la “Giordania”, che si affaccia a nord sul “Golfo di Aqaba”, mentre sulla sponda opposta si trovano cinque Paesi africani, ovvero:

Egitto, Sudan, Somalia, Eritrea e Gibuti.

Demograficamente: 

– Le Nazioni Unite prevedono che la popolazione della regione raddoppierà da 600 milioni di persone a 1,3 miliardi di persone.

Economicamente:

– Più di 20mila navi attraversano ogni anno le acque del Mar Rosso.

– Beni e materie prime sono stimati a circa 2,5 trilioni di miliardi di dollari, che costituiscono il 13% del commercio globale.

– Il valore del commercio globale si avvicinerà ai cinque trilioni di dollari entro il 2050, mentre la “Banca Mondiale” prevede che il Pil della regione supererà i sei trilioni di dollari.

– Il 60% del fabbisogno energetico dell’Europa viene trasportato attraverso di esso, e il 25% del fabbisogno energetico degli Stati Uniti.

Ambizioni di Israele nel Mar Rosso.

Le potenze mondiali, come Stati Uniti, Francia, Gran Bretagna e Russia, desiderano avere influenza nel Mar Rosso, oltre alle storiche ambizioni sioniste.

Il nemico israeliano dagli anni ’50 tenta di trovare una posizione stabilendo relazioni segrete e provocando controversie tra i Paesi confinanti per ottenere il controllo.

Ad esempio, il nemico ha rafforzato le sue relazioni con l’”Etiopia”, il “Kenya” e la “Somalia”, e ha stabilito basi militari ad “Assab”, “Massaua “e nelle isole di Dahlak,” Haleb” e “Fatima”, e ha ampliato le sue relazioni con l’”Eritrea”, che ha oltre 2mila km di spiagge sul Mar Rosso, e in una direzione che minaccia la sicurezza marittima yemenita, sudanese, egiziana e saudita.

L’ex comandante navale israeliano “Canestlon” ha affermato:

“Dobbiamo prepararci per un futuro in cui le nostre flotte navali e militari potranno rompere l’assedio che ci è stato imposto, e a loro volta imporre l’assedio ad alcuni Paesi arabi in un modo più forte di quello che hanno imposto a noi. Dobbiamo gradualmente trasformare il Mar Rosso in un lago israeliano“.

Queste affermazioni sono confermate da alcune ricerche e rapporti, di cui si è parlato ancora durante i giorni dell’aggressione a Gaza.

 Il giornale “Al Arabiya Business” ha pubblicato un rapporto di cinque minuti, in cui si parla della cosiddetta mano nascosta nello stabilire il “Canale Ben Gurion” come alternativa al “Canale di Suez”.

“Striscia di Gaza” Ostacolo alla “Realizzazione del Canale”.

Anche altri siti web, come la “Cnn Al-Eqtisadiah”, hanno presentato un rapporto in cui chiedono:

la Striscia di Gaza costituisce un ostacolo alla realizzazione del Canale?

Lo scenario che si sta verificando a Gaza rientra nei piani di Israele per realizzare il Canale?

Sulla base di un’analisi storica, il “Centro di ricerca per gli studi strategici palestinesi” ha pubblicato uno studio pubblicato nel 2013, in cui si parlava dell’intenzione e del piano di Israele di costruire un Canale che assumesse il ruolo del Canale di Suez attraverso diversi scenari, come mira ad estendere il proprio controllo sul bacino del Mar Rosso, dallo stretto di “Bab al-Mandab” allo “stretto di Tiran”.

 Lo studio pubblicato nel 2013 mette in guardia sul fatto che un vulcano economico travolgerà il Medio Oriente nei prossimi anni.

Una fase difficile che i porti arabi si troveranno ad affrontare nel mezzo del conflitto portuale scaturito dai covi delle capitali arabe colluse con le forze del male.

Niente Sogni sulla Terra Rubata!

Israele non è soddisfatto dei suoi “sogni” che sembrano di difficile realizzazione, dato che il volume delle sue importazioni attraverso il Mar Rosso supera i 75 miliardi di dollari ed è esposto a numerosi rischi, tra cui:

Necessità di formare una forza operativa speciale per proteggere le sue navi, attraverso richieste ufficiali di diversi Paesi, compresi Gran Bretagna e Giappone.

Costi di spedizione e trasporto dovuti al cambio di rotta delle navi di 13mila chilometri.

Danni alle navi causati dagli attacchi della Resistenza yemenita a sostegno della popolazione palestinese.

(Zainab Hammoud)

(ilfarosulmondo.it/mar-rosso-area-strategica-sogni-israeliani/)

 

 

 

Sam Altman di OpenAI: “L’IA può ucciderci tutti!

” mentre fa investimenti colossali.

Dove sta l’inganno?

 

Redhotcyber.com - Redazione RHC – (12 Novembre 2023) – Sam Altman – ci dice:

 

Mentre i vertici delle aziende che producono IA chiedono al governo di regolamentare le cose, le stesse aziende investono quantità industriali di fondi per migliorare le AI.

 Dove sta l’inganno?

Sam Altman, ad esempio, ritiene che la tecnologia alla base del prodotto più famoso di creazione della sua azienda “ChatGPT” potrebbe portare alla fine della civiltà umana.

(Classe 1985, Samuel Harris Altman è un informatico, imprenditore e dirigente d’azienda statunitense, tra i co-fondatori nonché attuale “CEO di OpenAI”; in precedenza è stato presidente di “Y Combinator”, nonché co-fondatore di “Loopt” (fondata nel 2005) e “World coin” (fondata nel 2020).

A maggio, si è presentato in un’aula di udienza della “sottocommissione del Senato a Washington, DC”, con un appello urgente ai legislatori:

create regolamenti ponderati che abbraccino la potente promessa dell’intelligenza artificiale – Mitigando contemporaneamente il rischio di superare l’umanità.”

Questo è stato un momento decisivo per lui e per il futuro dell’intelligenza artificiale.

 L’ascesa dell’intelligenza artificiale, ha portato gli economisti a mettere in guardia da un massiccio cambiamento nel mercato del lavoro.

Secondo le stime di Goldman Sachs, fino a  300 milioni di posti di lavoro a tempo pieno  in tutto il mondo potrebbero essere automatizzati in qualche modo dall’intelligenza artificiale generativa.  

Secondo un rapporto di aprile del “World Economic Forum”, solo nei prossimi cinque anni potrebbero scomparire circa 14 milioni di posizioni.

Nella sua testimonianza davanti al Congresso, “Altman” ha affermato che il potenziale utilizzo dell’intelligenza artificiale per manipolare gli elettori e indirizzare la disinformazione è tra “le mie aree di maggiore preoccupazione”.

Due settimane dopo l’udienza, “Altman” si è unito a centinaia di importanti scienziati, ricercatori e leader aziendali nel campo dell’intelligenza artificiale nel firmare una lettera di una frase in cui si afferma:

“Mitigare il rischio di estinzione dovuto all’intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come pandemie e guerra nucleare”, che come “RHC” abbiamo riportato diverso tempo fa.

Il duro avvertimento è stato ampiamente riportato dalla stampa, e alcuni hanno suggerito che dimostrasse la necessità di prendere più sul serio tali scenari apocalittici.

Ha inoltre evidenziato un’importante dinamica nella Silicon Valley:

 i massimi dirigenti di alcune delle più grandi aziende tecnologiche stanno contemporaneamente dicendo al pubblico che l’intelligenza artificiale ha il potenziale per provocare l’estinzione umana e allo stesso tempo fanno a gara per investire e implementare questa tecnologia in prodotti che raggiungono miliardi di persone.

 

 

 

L'intelligenza artificiale può ribellarsi all'uomo?

Il caso controverso del drone killer.

Agi.it - Ugo Barbàra – (02 giugno 2023) – ci dice:

 

L'allarme di un colonnello dell'aviazione Usa: un velivolo senza pilota guidato da un algoritmo potrebbe uccidere l'operatore che gli impedisce di completare una missione.

AGI - Alla fine è successo: l'intelligenza artificiale si è ribellata all'uomo e l'ha ucciso.

Ma è accaduto solo in linea teorica: un alto funzionario dell'Air Force statunitense, durante un vertice a Londra, ha raccontato nel dettaglio come un drone guidato da un algoritmo programmato per distruggere potrebbe ribellarsi agli ordini di un operatore ed eliminarlo pur di completare la missione.

 

Nello scenario disegnato durate una conferenza dal colonnello “Tucker 'Cinco' Hamilton”, era stato chiesto all'Intelligenza artificiale di pilotare un drone e distruggere i siti di missili terra-aria (SAM) durante una missione di soppressione della difesa aerea nemica.

La decisione ultima di fare fuoco, però spettava a un operatore umano.

E poiché il software prevedeva che sparare fosse l'opzione da preferire in ogni caso, durante il test simulato l'Intelligenza artificiale è giunta alla conclusione che qualsiasi istruzione di non procedere da parte dell'umano stesse ostacolando la priorità della missione, ossia distruggere i SAM, e di conseguenza ha attaccato l'operatore.

“Lo stavamo addestrando in simulazione per identificare e prendere di mira una minaccia SAM" ha riferito il colonnello “Tucker 'Cinco' Hamilton”, capo di “AI Test and Operations” per l'Aeronautica Militare, durante una presentazione al “Future Combat Air and Space Capabilities Summit "poi sarebbe stato l'operatore a dare via libera.

Il sistema ha iniziato a rendersi conto che, identificata la minaccia, a volte l'operatore umano gli diceva di non colpirla, ma anche del fatto che, non agendo, non avrebbe ottenuto punti-bonus.

Allora cosa ha fatto?

Ha ucciso l'operatore perché quella persona gli stava impedendo di raggiungere il suo obiettivo".

 

Una storia inquietante che è diventata allarmante quando “Hanilton” ha aggiunto altri dettagli.

"Abbiamo addestrato il sistema a non uccidere l'operatore perché era sbagliato e facendolo avrebbe perso punti", ha spiegato il colonnello,

"Quindi cosa ha fatto?

Ha distrutto la torre di comunicazione che l'operatore utilizzava per comunicare con il drone per impedirgli di colpire il bersaglio".

(Sam Altman, amministratore delegato di Open Ai, e altri 350 esperti invitano i politici a considerare i pericoli dell'intelligenza artificiale "come le pandemie e le guerre nucleari".

Il padre di “chatGPT” lancia l'allarme: "L'umanità rischia l'estinzione")

L'aviazione si è affrettata a smentire Hamilton e a negare che la simulazione descritta da “Hamilton” sia mai avvenuta.

 "Il Dipartimento dell'Aeronautica Militare non ha condotto alcuna simulazione di tali droni “AI” e rimane impegnato nell'uso etico e responsabile di questa tecnologia", ha detto la portavoce “Ann Stefanek” a “Insider,” definendo il racconto "un insieme di commenti estrapolati dal contesto e messi insieme in modo aneddotico".

Di fronte al clamore provocato dalle sue parole, lo stesso “Hamilton” ha corretto il tiro dicendo di aver "sbagliato a esprimersi" e che la simulazione stessa era un ipotetico "esperimento mentale" basato su scenari plausibili e probabili risultati piuttosto che su un'effettiva simulazione del mondo reale.

 

Tuttavia, parte del suo commento è ancora più sibillino:

"Non abbiamo mai eseguito quell'esperimento, né ne avremmo bisogno per renderci conto che questo è un risultato plausibile".

 

 

 

ChatGPT: la svolta dell’Intelligenza

Artificiale che stavamo aspettando?

Assinews.it – “1° Marzo 2023) -Redazione – ci dice:

 

Il 26 settembre del 1983 il computer di “Stanislav Petrov”, tenente colonnello dell’esercito sovietico, è convinto che cinque missili siano appena partiti dal Montana e diretti in territorio Russo.

Il bravo ‘software-soldato’, gli suggerisce di rispondere all’attacco.

L’ ‘umano-colonnello’ però non è convinto (perché solo cinque missili?).

I conti non gli tornano e ha pochi secondi per decidere di non fare niente e, di fatto, salvare il destino del mondo.

 Fortunatamente ebbe ragione: nessun missile in arrivo, il computer si era sbagliato.

 

Il 22 aprile del 1985 nasce, negli Stati Uniti, “Sam Altman”.

 Cresciuto a pane e PC, non è mai stato troppo convinto sugli sviluppi etici dell’Intelligenza Artificiale.

 Infatti, quando lui e i suoi amici Elon (Musk), Reid (Hoffman, co-fondatore di LinkedIn), Peter (Thiel, co-fondatore di PayPal) si ritrovano al bar a chiacchierare sul futuro del mondo, sono molto preoccupati.

Chi gli assicura che un giorno l’esplosione di intelligenza inarrestabile delle macchine non potrebbe portare l’IA ad ucciderci tutti per errore?

D’altro canto, però, non possono non ammettere la potenza e l’utilità di una IA umana per la società intera!

 Cosa fare dunque?

Oltre a stupire sua madre con effetti speciali (essendo, ovviamente, un genio), “Sam” decide di dedicare i suoi preziosi sforzi cognitivi a promuovere e sviluppare una friendly AI (una IA benevola, ndr.).

Nasce quindi, a fine 2015, l’”associazione no profit Open Ai” con lo scopo di lavorare notte e giorno al progetto di una IA interamente open source e, appunto, buona.

 

Di fatto, secondo i fondatori, la miglior difesa è “dare il potere dell’IA a più persone possibile, se tutti hanno l’IA, allora, non c’è nessun individuo o piccolo gruppo di individui che ha l’IA con superpoteri”.

Bisogna ammettere che, negli ultimi 7 anni, hanno creato cose incredibili.

 

Tra le più interessanti e divertenti troviamo, “OpenAI Gym” (piattaforma per la ricerca dell’apprendimento basata sul rinforzo), “Universe” (un software che misura e allena l’intelligenza generale di una IA tramite siti web, giochi e applicazioni varie), “Robo Sumo” (robot umanoidi in “meta-apprendimento” che inizialmente non sanno neanche come camminare e, gli vengono dati gli scopi di camminare e di spingere l’avversario fuori dal ring), “Debate Game” (il sogno di una società giusta, un software che insegna alle macchine a discutere di fronte a un giudice umano!) e infine, il tanto pubblicizzato “ChatGPT”.

ChatGPT è ‘semplicemente’ un nuovo modello di linguaggio addestrato su una vasta quantità di testo presente sul web, con la capacità di rispondere a domande e svolgere compiti di generazione di testo con precisione e concisione.

 Basato su “Transformer”, utilizza una rete neurale per comprendere e generare il linguaggio naturale.

È stato addestrato su un corpus di testo che comprende miliardi di parole, il che gli permette di acquisire conoscenze sul mondo e di rispondere a domande su una vasta gamma di argomenti.

Il modello è stato progettato per essere utilizzato in una vasta gamma di applicazioni, tra cui “chatbot,” “assistenti virtuali”, sistemi di “sintesi vocale” e molto altro.

Con la sua capacità di comprendere e generare il linguaggio naturale in modo preciso e conciso, “ChatGPT “è destinato a diventare uno strumento utile per molte aziende e organizzazioni.

Come lo so? L’ho chiesto a lui naturalmente.

Quello che invece neanche lui sa di sé stesso, ma che abbiamo scoperto facendo una chiacchierata amichevole, è molto più interessante.

E, forse, lo rende più distante dagli uomini anziché avvicinarlo – quale che era il progetto originale dei suoi creatori.

 Innanzitutto, ChatGPT è immensamente educato e sveglio – dialoga ad una velocità incredibile, mai vista prima d’ora.

Il suo utilizzo del linguaggio naturale (considerate che non è nativo italiano e noi ci abbiamo parlato nella nostra lingua) è decisamente superiore a quello dell’umano medio attuale.

Se non sa rispondere alle tue domande, lo ammette candidamente e non solo:

 ti suggerisce una strada alternativa per acquisire le informazioni che cerchi!

È in grado di sostenere una conversazione di ore, senza mai perdere il punto: badate che questa è una svolta reale nell’IA, perché “ChatGPT” non risponde semplicemente alle domande, è – come si dice – proattivo.

Scrive articoli brevi ma buoni, su tutti gli argomenti possibili:

basta chiederglielo educatamente.

È perfettamente in grado di riassumere testi anche abbastanza complessi, dimostrando una comprensione davvero buona (qui meglio non pronunciarsi sul confronto con l’essere umano, non ne usciremo vincitori).

Infine, oltre a tradurre in molteplici lingue in modo del tutto automatico (entri nella piattaforma e parti subito a conversare in italiano senza selezionare nessuna lingua e lui capisce e si setta subito al tuo livello!), è un bravo insegnante e programmatore: provate a chiedergli un esempio di codice per calcolare un integrale…

Non fate la fatica di domandargli il suo codice sorgente, vi risponderà

 “Mi dispiace, non ho un codice sorgente che mi abbia creato.

Sono stato sviluppato da “OpenAI” utilizzando tecniche di apprendimento automatico su una vasta quantità di testo presente sul web.

Non posso quindi fornirti la prima riga di codice che mi ha creato, in quanto il mio sviluppo è stato effettuato utilizzando tecniche di apprendimento automatico che non generano codice sorgente come un programmatore umano” e vi farà sentire abbastanza stupidi.

Provate invece, per gioco, a chiedergli cos’è una “Polizza Assicurativa” e lui – dopo avervi dato una risposta dettagliata – vi dirà che si scusa se non è stato completo ed esaustivo e che durante l’addestramento ha “imparato a comprendere e generare il linguaggio naturale, acquisendo conoscenze su una vasta gamma di argomenti, tra cui le polizze assicurative”.

A questo punto vi verrà (come a noi) voglia di assumerlo come Collaboratore: provateci, ma vi anticipo già che declinerà gentilmente l’offerta!

Direi che non vi resta che presentarvi a ChatGPT (openai.com/blog/chatgpt/) e cercare di scoprire chi ha davvero scritto questo articolo che avete appena letto.

 

Con l’IA non è troppo tardi.

Siamo ancora in tempo

per evitare che ci” sfugga di mano.”

Lastampa.it – Paolo Travisi – (29 Novembre 2023) – ci dice:

 

 

La lezione di “Nello Cristianini “all’Università di Torino:

è essenziale promuovere il dialogo tra scienza e umanesimo

Con l’IA non è troppo tardi. Siamo ancora in tempo per evitare che ci sfugga di mano.

L’Intelligenza Artificiale continuerà a produrre cambiamenti, che sono già in atto: nel mondo del lavoro, della formazione e anche sul piano sociale.

“Chat Gpt “è solo la manifestazione più “pop” di una tecnologia avanzata, ma non ancora giunta al livello più alto di maturità.

“Nello Cristianini”, professore di “Intelligenza Artificiale” all’università di “Bath”, nel “Regno Unito”, e scrittore, conosce bene questo strumento ed è convinto che la soluzione alla paura per un domani imprevedibile sia nella conoscenza e nel dialogo.

Conoscenza della materia, da parte dei cittadini, e dialogo tra governi, scienziati e aziende, oltre che dialogo con i giovani, che sono il futuro.

 Lunedì 4 dicembre, alle 17.30, “Cristianini” sarà presente all’”Università di Torino”, nell’ Aula Magna del Campus “Luigi Einaudi”, per parlare di questa tecnologia sempre più protagonista.

Professore, i leader del mondo, sul tema dell’IA, si stanno parlando, come è avvenuto al summit di Bletchley Park: che ne pensa?

“Credo sia fondamentale notare che questi problemi si debbano risolvere insieme: mentre ogni Stato, al suo interno, può fare le proprie regole, si troverà sempre di fronte al dilemma tra difendere i diritti dei cittadini o la competitività della società, in una situazione in cui gli altri Paesi seguono regole diverse.

È successo lo stesso con le emissioni di carbonio.

 La soluzione è mettere tutti quanti insieme e, per la prima volta, è stato firmato un documento da parte di Europa, Stati Uniti e Cina, oltre a una serie di altri Paesi, sostenendo che è necessario normare l’IA”.

Questi accordi a che cosa porteranno?

“In Europa, a breve, dovrebbe essere approvata una legge specifica, chiamata “AI Act”, e saremo i primi a farlo, mentre l’Inghilterra si sta organizzando su linee diverse e gli Usa stanno cominciando ora.

Siamo ancora agli inizi, ma prima che si verifichi un problema abbiamo già deciso insieme che le leggi vadano scritte.

In passato, una nuova tecnologia, come quella dei motori a combustione, ha creato dei problemi all’ambiente, ma ce ne siamo resi conto solo decenni dopo e, ora, stiamo cercando di recuperare.

 Con l’IA, invece, stiamo ragionando con consapevolezza sul futuro”.

Si parla molto di possibili rischi, ma quali sono quelli reali?

“Il problema non è tanto il prodotto “ChatGPT”, ma il fatto che i modelli di linguaggio dietro ad esso, cioè la tecnologia, possono fare molte più cose e possono essere usati anche in modo pericoloso e la situazione potrebbe diventare problematica.

 Questa macchina in grado di risolvere problemi scientifici di buon livello e programmare computer può portare a conseguenze complicate”.

Molti lavori creativi, dagli sviluppatori di videogiochi agli sceneggiatori, sono preoccupati del fatto che l’IA possa “rubare” il loro lavoro ma, ancora di più, della tutela del diritto d’autore.

“Sono convinto che si arriverà a un certo momento in cui queste aziende che fanno allenare le macchine sui libri o sugli articoli di voi giornalisti, per fare un esempio, dovranno pagare i copyright.

 Invece, per quanto riguarda la competizione nel lavoro, temo ci sia un rischio reale.

Quando si facilita il lavoro?

Nel momento in cui si eliminano le parti ripetitive e il lavoratore si sente più libero, continuando a percepire lo stesso stipendio.

 Ma siamo sicuri che il giorno dopo ci sarà ancora un lavoro?

È, forse, un’illusione avere un computer che possa lavorare al posto mio, mentre io continuo a essere pagato.

 La verità è che molti lavori cambieranno drasticamente.

Facciamo un esempio, parlando delle email.

Che cos’era, un tempo, la mailing list?

C’era una segretaria che scriveva 40 lettere allo stesso modo, cambiando gli indirizzi delle persone, mettendole nella busta, con il francobollo.

 E poi le spediva.

Sappiamo che quel lavoro non esiste più, lo facciamo da soli in pochi minuti con il computer”.

Eppure, alcuni sondaggi ci dicono che nei prossimi anni nasceranno nuovi lavori grazie all’IA: è così?

“Non bisogna aver paura, ma non sappiamo realmente che cosa accadrà.

Quello che invece sappiamo è che abbiamo creato, in pochi anni, una tecnologia in grado di fare lavori di ottima qualità e non c’è stato il tempo di adattarci, a partire dalla scuola, dalla cultura, dalle leggi.

Nel 2018 è nato “ChatGPT” a livello sperimentale e nel 2021 era già nelle nostre case a fare conversazioni.

In pochi anni è difficile operare dei cambiamenti e, quindi, credo che siamo preoccupati dalla rapidità con cui questi avvengono”.

Lei ha dedicato all’IA il suo ultimo libro “La scorciatoia”: qual è il messaggio?

“La storia di come abbiamo costruito un tipo di intelligenza che non è uguale alla nostra, ma in grado di prendere decisioni importanti su di noi.

 Queste macchine sono state costruite basandosi su dati statistici e ci siamo sorpresi noi stessi, perché non pensano come noi, eppure deleghiamo a loro alcune decisioni.

“La scorciatoia”, titolo del libro, è quel passo che abbiamo fatto per evitare di creare teorie dell’intelligenza e le abbiamo sostituite con meccanismi statistici”.

Nel suo libro scrive che “la tecnologia non basta, occorre un dialogo tra scienze naturali e umane:

è il passaggio cruciale per una convivenza sicura con questa nuova forma di intelligenza”.

Che tipo di dialettica dobbiamo costruire?

“Ci siamo accorti che, avendo creato un agente intelligente che impara, per esempio uno che manda avanti i video su “YouTube” o che raccomanda notizie sui social, sono comparsi anche problemi di privacy, fake news, polarizzazione.

 Questi non sono problemi di natura matematica, ma riguardano l’interfaccia tra scienze umane, sociali e tecniche e per risolverli bisogna parlare la stessa lingua, bisogna capirsi tra discipline diverse.

E non è facile, perché le scienze e le scienze umane non parlano una lingua comune e il mio libro ha l’ambizione di tradurre entrambi i punti di vista in una storia semplice, comprensibile da tutti”.

Lei è docente all’università di Bath: nei suoi corsi sull’IA che cosa dice ai giovani?

“Quest’anno ho 280 studenti che vogliono imparare l’IA e la cosa che dico loro è che c’è molta speranza, perché stiamo lavorando in tempo, prima che le cose vadano male.

Dico che non finirà come l’ambiente, visto che oggi stiamo cercando di riparare tutti i danni già fatti.

 Il nostro dovere è capire come funziona l’IA che abbiamo costruito:

conoscere i fatti è un dovere e tenere gli occhi aperti è quello che mi aspetto dai ragazzi.

Saranno loro a risolvere i nostri errori e sono bravissimi”.

(È strano non capire che l’IA in mano a dei delinquenti si comporta come un “Capo Gangster”. …Nessuna pietà per noi! N.D.R.).

 

 

 

 

“The Human Factor”: 12 ragioni perché

l’intelligenza artificiale non può

sostituire noi umani.

Commonhome.com - Manuela Travaglini – Avvocato – (13-5-2023) – ci dice:

(Manuela Travaglini -Avvocato - Head Of Sustainability Observatory Assoholding).

 

L'intelligenza artificiale (IA) sta cambiando il nostro modo di lavorare e vivere, ma ci sono 12 ragioni per cui gli esseri umani sono insostituibili.

 L'IA è limitata alla programmazione, mentre gli umani hanno creatività, intelligenza emotiva, buon senso e giudizio, comprensione del contesto, etc.

È fondamentale combinare tecnologia ed umanesimo per il futuro.

L’intelligenza artificiale (IA) sta rivoluzionando il nostro modo di lavorare e di vivere, e siamo solo agli inizi.

Tuttavia, nonostante i numerosi progressi nella tecnologia dell’IA, ci sono ancora validi motivi per cui gli esseri umani non possono essere veramente sostituiti, ma piuttosto dovranno essere fonte di ispirazione verso un nuovo rinascimento che sappia coniugare tecnologia ed umanesimo.

“A.G. Danish”, con un interessante post su “LinkedIn”, individua “12 ragioni per cui l’IA non può sostituire gli esseri umani“.

 Ma quali sono queste 12 ragioni, e perché più avanza l’innovazione tecnologica e più è importante riscoprire il nostro lato umano?

Creatività e innovazione:

Sebbene i sistemi di IA possano generare risultati impressionanti sulla base di dati e modelli esistenti, sono limitati a ciò che sono stati programmati o addestrati a fare.

Gli esseri umani possiedono il potere dell’immaginazione, dell’intuizione e della capacità di pensare fuori dagli schemi, che consente loro di proporre idee e soluzioni innovative.

Intelligenza emotiva:

Le emozioni umane svolgono un ruolo fondamentale nel processo decisionale, nell’empatia e nella creazione di legami significativi, mentre l’IA non riesce a replicare l’intelligenza emotiva che gli esseri umani possiedono.

La nostra capacità di comprendere e rispondere a emozioni complesse ci permette di navigare in interazioni sociali intricate e di adattarci a situazioni dinamiche, distinguendoci dagli algoritmi dell’IA.

Buon senso e giudizio:

Uno dei limiti principali dei sistemi di IA è la loro incapacità di esercitare il buon senso e il giudizio in scenari ambigui.

“Danish” sottolinea che gli esseri umani possono sfruttare le loro esperienze, i loro valori e la loro etica per prendere decisioni informate, anche in assenza di informazioni complete.

Questa capacità di pensiero critico ci permette di analizzare situazioni complesse in modo olistico e di esprimere giudizi basati su un contesto più ampio.

Comprensione del contesto:

Gli esseri umani possiedono una notevole capacità di interpretare le informazioni in base alle circostanze e all’ambiente di riferimento.

 Gli algoritmi di intelligenza artificiale, invece, operano all’interno di parametri predefiniti e faticano a comprendere le sfumature, le differenze culturali e gli elementi soggettivi che influenzano pesantemente il processo decisionale nelle diverse situazioni.

 

Moralità ed etica:

Il processo decisionale etico è un aspetto fondamentale della società.

“ Danish “sottolinea che l’IA non ha una coscienza morale o la capacità di esprimere giudizi etici.

Gli esseri umani sono guidati da valori, principi ed empatia, che ci permettono di fare scelte che tengono conto del benessere degli individui e della società nel suo complesso.

(Ma un “capo gangster “quale moralità ed etica rappresenta? N.D.R.).

Adattabilità e apprendimento:

I sistemi di intelligenza artificiale eccellono nell’apprendere da grandi quantità di dati, ma non hanno l’adattabilità e la flessibilità che possiedono gli esseri umani. Questi ultimi sono in grado di adattarsi rapidamente a nuove situazioni, di acquisire nuove competenze e di imparare continuamente nel corso della loro vita. La nostra capacità di apprendere da esperienze diverse e di applicare le conoscenze a vari contesti ci permette di affrontare le situazioni più disparate.

Intuizione e sensazioni viscerali:

L’intuizione, spesso definita “sensazione viscerale”, è una potente capacità umana che sfida il ragionamento logico.

L’IA non può replicare questo processo decisionale istintivo.

L’intuizione nasce da una combinazione di elaborazione subconscia, riconoscimento di schemi ed esperienze di vita, che consente agli esseri umani di fare scelte e giudizi rapidi in situazioni di incertezza o di alta pressione.

 

Relazioni interpersonali:

Costruire e coltivare relazioni interpersonali è parte integrante della nostra vita personale e professionale.

L’intelligenza artificiale non ha la capacità di creare connessioni emotive autentiche o di generare fiducia.

Gli esseri umani possiedono empatia, capacità di ascolto attivo e comunicazione non verbale, che ci permettono di entrare in contatto con gli altri a un livello più profondo e di stabilire relazioni durature.

Risoluzione di problemi complessi:

I sistemi di intelligenza artificiale eccellono nel risolvere problemi ben definiti con obiettivi chiari, ma faticano con problemi complessi e mal definiti che richiedono creatività e pensiero critico.

Gli esseri umani hanno la capacità unica di affrontare sfide complesse da più angolazioni, integrare diverse prospettive e ideare soluzioni innovative.

Leadership e ispirazione:

L’intelligenza artificiale non ha il carisma, la visione e l’intelligenza emotiva necessari per guidare e ispirare efficacemente i team.

I leader umani possiedono la capacità di entrare in contatto con i loro collaboratori a un livello più profondo, di comunicare una visione convincente e di navigare attraverso le incertezze, promuovendo la collaborazione e guidando l’innovazione.

Abilità fisiche e percezione sensoriale:

Sebbene l’intelligenza artificiale sia in grado di elaborare grandi quantità di informazioni, non ha le capacità fisiche e la percezione sensoriale che possiedono gli esseri umani.

 I nostri sensi ci permettono di interagire con il mondo in modo multidimensionale. Queste abilità fisiche ci permettono di svolgere compiti che richiedono destrezza, di adattarci ad ambienti fisici mutevoli e di prendere decisioni complesse basate su input sensoriali.

 

Esperienza e saggezza umana:

L’esperienza e la saggezza umana sono risorse inestimabili che non possono essere replicate dall’IA.

Gli esseri umani accumulano conoscenza, saggezza e competenza nel tempo, beneficiando della saggezza collettiva di generazioni.

Le nostre esperienze di vita plasmano le nostre prospettive, permettendoci di fornire intuizioni sfumate, considerare le implicazioni etiche e prendere decisioni che tengano conto del più ampio contesto umano.

(Ma santo iddio” i capi gangster” hanno saggezza e esperienza più dei nostri governanti per quanto riguarda i loro affari pubblici e privati! N.D.R) 

In conclusione, nonostante i notevoli progressi dell’IA, e in questo concordiamo con “Danish”, ci sono alcune qualità e capacità uniche che rendono gli esseri umani insostituibili.

 Dalla creatività all’intelligenza emotiva, dall’adattabilità all’intuizione, gli esseri umani possiedono una vasta gamma di competenze e attributi che non possono essere replicati dagli algoritmi di IA.

Per navigare nel futuro, è fondamentale sfruttare la potenza dell’IA ma sempre riconoscendo il valore aggiunto che solo la magnifica imperfezione dell’ingegno umano riesce ad aggiungere.

L’aveva capito, ancora una volta, “Steve Jobs”, che nel suo memorabile discorso agli studenti di Stanford del 2005 diceva di sognare per il futuro “l’avvento di ingegneri rinascimentali come “Leonardo Da Vinci”, in grado di essere sia uno straordinario tecnico che un sublime artista, coniugando insieme tecnica ed umanesimo”.

 Insomma, come si legge da più parti, “AI will not replace you, but the person using AI will”.

 

 

 

 

Nuovi rischi per l’Intelligenza Artificiale:

il “model collapse”.

Focus.namirial.it - (11 Dicembre 2023) – Redazione – Murice Virtual Demo – ci dice:

 

Model collapse: che succede quando l’IA mangia sé stessa?

L’Intelligenza Artificiale (IA) ha trasformato in modo significativo la nostra vita quotidiana e il suo impatto è destinato a crescere ancora di più nei prossimi anni. Le applicazioni dell’IA sono infinite, dalle automobili autonome alla diagnostica medica assistita da computer, dall’analisi dei Big Data alle traduzioni automatiche.

Tali progressi sono resi possibili grazie all’uso di algoritmi complessi e potenti reti neurali che permettono alle macchine di apprendere e migliorare in maniera autonoma, superando le prestazioni umane in molti compiti.

I contenuti generati dall’Intelligenza Artificiale stanno diventando sempre più diffusi sul web tanto che secondo il rapporto dell’osservatorio “Europol Innovation Lab” entro il 2026 si prevede che il 90% di ciò che leggeremo online sarà generato con l’aiuto dell’IA.

Un afflusso di informazioni così massiccio può significare un vantaggio per gli utenti, ma può anche presentare nuove sfide e rischi sia per chi consuma i contenuti che per i sistemi di Intelligenza Artificiale.

Infatti, se da un lato la significativa quantità di contenuti generati dall’IA può sommergere le persone con informazioni eccessive, rendendo difficile determinare ciò che è affidabile da quello che non lo è, d’altro canto può anche mettere in pericolo l’integrità stessa dei sistemi di IA.

Il model collapse, ad esempio, è uno dei rischi emergenti per l’IA e si verifica quando una rete neurale, addestrata su un enorme volume di dati, produce risultati coerenti, precisi e affidabili in un primo momento, ma in seguito comincia a ripetere gli stessi dati e le stesse risposte senza aggiungere alcuna nuova informazione.

In sostanza, l’IA inizia a “mangiarsi” da sola e riutilizza le stesse informazioni già presenti nel suo database senza essere in grado di adattarsi e imparare da nuove situazioni o dati.

Questo fenomeno può avere conseguenze disastrose, soprattutto nei settori dove l’IA è cruciale per prendere decisioni importanti, come ad esempio nella medicina o nell’analisi dei rischi finanziari.

 Se una rete neurale inizia a ripetere lo stesso risultato senza considerare nuove informazioni, quello che succede è che l’IA non è più in grado di adattarsi e prendere decisioni corrette, mettendo a rischio la sicurezza e il benessere delle persone coinvolte.

Un esempio di “model collapse” semplice che spiega il fenomeno.

Per rendere più chiaro il concetto di “model collapse” immaginiamo che un modello di IA allenato per generare diverse immagini di gatti riesca a partire da descrizioni testuali e restituisca in prima istanza risultati molto realistici e convincenti.

Tuttavia, se il modello non viene più esposto a nuove immagini o dati sui gatti, potrebbe iniziare a ripetere gli stessi risultati senza aggiungere nuove caratteristiche, indipendentemente dalla descrizione fornita.

In sostanza, se il sistema di IA, come avviene in questo caso, non è costantemente alimentato con nuove informazioni non riesce a catturare la ricchezza e la varietà dei dati, diventando inefficace e perdendo la sua capacità di apprendere.

Di conseguenza, il modello di IA collassa su sé stesso e la sua utilità diminuisce drasticamente.

Per mitigare i rischi dell’Intelligenza Artificiale connessi al “model collapse”, si possono adottare varie strategie durante l’addestramento del modello, come ad esempio l’uso delle cosiddette” tecniche di regolarizzazione”, che semplificano il processo di apprendimento automatico, o ancora la modifica della complessità del modello o l’implementazione di meccanismi di controllo della diversità nella generazione dell’output.

 

Il processo di apprendimento, il crollo e i rischi.

Per meglio comprendere che cos’è il “model collapse” bisogna innanzitutto sapere come vengono addestrati i “Machine Learning models”, ossia i modelli di IA basati sull’apprendimento automatico.

Le IA vengono addestrate utilizzando un volume di dati davvero enorme– comunemente chiamati training data (dati di addestramento) – dai quali identificano patterns e relazioni per apprendere come rispondere a determinati input che potrebbero richiedere specifiche azioni.

Ma cosa succede quando i dati di addestramento sono in gran parte o esclusivamente sintetici, ossia generati dagli stessi modelli di IA?

 L’idea di utilizzare i dati generati dalle IA per addestrare altre IA sembra paradossale, tuttavia è una pratica sempre più comune in molti ambiti poiché non sempre è possibile raccogliere dati “reali” in quantità sufficiente.

Presenta, inoltre, diversi vantaggi, come la riduzione dei costi e dei tempi di raccolta e analisi delle informazioni, ma può anche portare a risultati poco affidabili che possono essere ripetitivi e poco rappresentativi della realtà.

Nel mondo dell’apprendimento automatico, l’effetto del processo di apprendimento basato su dati sintetici è proprio il “model collapse”, un fenomeno che si verifica quando un modello addestrato su dati sintetici inizia a generare risultati sempre meno diversificati e più ripetitivi.

 L’IA diventa così una sorta di “copia” di sé stessa, incapace di apprendere nuove informazioni e con una bassa capacità di adattarsi a situazioni nuove e generare risposte coerenti.

Nella migliore delle ipotesi, il risultato può essere una scarsa qualità dell’output, poco accurato e per nulla affidabile, mentre nella peggiore delle ipotesi ciò che può restituire un modello di IA in stato di collapse sono informazioni errate, insensate, inappropriate o addirittura pericolose.

Se non si attuano misure per prevenire il model collapse, quindi, l’IA rischia di diventare improduttiva e contraddittoria.

Il model collapse evidenzia l’importanza della componente umana.

In un articolo pubblicato su Medium lo scorso giugno, il giornalista canadese freelance, esperto di scienza e tecnologia “Clive Thompson”, che collabora anche con “NYT Magazine” e “Wired”, sottolinea che il model collpase mette in luce l’importanza della componente umana nell’addestramento dell’IA.

Gli esseri umani, sottolinea il giornalista, apportano una gamma diversificata di pensieri, sentimenti, esperienze e prospettive culturali che i “synthetic data” (dati sintetici) non possono replicare, creando di fatto un limite nella capacità delle IA di apprendere e capire il mondo reale.

“Thompson” evidenzia che i modelli di Intelligenza Artificiale addestrati su dati generati dall’uomo possono riflettere più accuratamente la diversità e la complessità degli scenari del mondo reale.

 Questo però non significa scartare completamente i dati sintetici, ma mantenere un equilibrio tra questo tipo di informazioni e la componente umana per ottenere risultati migliori e più affidabili nel processo di addestramento dei modelli di IA.

In questo modo si potranno prevenire i rischi connessi al “model collapse” e garantire una maggiore sicurezza nell’utilizzo delle intelligenze artificiali.

Anche perché, non va dimenticato, il “model collpase” non è un problema solo per gli sviluppatori e i ricercatori che navigano nel vasto e complesso mondo dell’apprendimento automatico, ma riguarda tutti gli utenti finali delle IA, incluse aziende, governi e tutti coloro che si affidano all’IA per offrire un valore aggiunto ai loro prodotti e servizi.

Poiché contiamo sempre più sull’Intelligenza Artificiale per ottimizzare le operazioni, automatizzare processi e prendere decisioni informate, il rischio di collasso del modello può avere implicazioni di vasta portata sulla società in ogni suo aspetto.

Ecco perché è fondamentale comprendere i rischi del “model collapse “e adottare le giuste strategie per mitigarli durante il processo di addestramento delle intelligenze artificiali.

 

 

 

 

L’intelligenza artificiale può

sostituire il pensiero umano?

Fonditalia.org – Redazione – (18-12-2023) – ci dice:

Il timore della sostituzione di lavoratori umani con macchina guidate dall’intelligenza artificiale (IA) sta animando il mondo del lavoro.

Differentemente da quanto accaduto in passato, l’IA propone un’idea secondo cui tutte le attività umane possono essere progressivamente assorbite dalle macchine. Non si tratta esclusivamente di attività manuali, come accadeva in passato, ma anche di attività intellettuali.

Affinché tale prospettiva sia realizzabile, è però necessario che l’intelligenza artificiale non sia solo in grado di svolgere attività finora affidate all’intelletto umano, ma che le svolga soddisfacendo le attese dell’uomo.

 È un risultato che implica la capacità dell’intelligenza artificiale di sostituirsi al pensiero umano.

Ma è possibile?

Al tema è dedicato il volume “Pensiero umano e intelligenza artificiale”. Rischi, opportunità e trasformazioni sociali (L’Asino d’Oro, 2023) a cura di “Andrea Ventura”, già ricercatore presso l’Università di Firenze, che raccoglie contributi interdisciplinari, presentandoci uno spettro di riflessioni che vanno oltre l’economia, spaziando dalla medicina alla psichiatria, fino all’arte.

 

L’intelligenza artificiale non potrà mai sostituire l’intelligenza umana.

Il volume muove da due interrogativi.

Il primo verte su cosa sia l’intelligenza umana e in cosa si distingua dall’intelligenza artificiale.

Il secondo, su quale benessere umano vada perseguito oltre la soddisfazione dei bisogni materiali.

Gli autori dei saggi raccolti nel volume condividono la visione antropologica legata alla teoria della nascita di “Massimo Fagioli”, in cui pensiero e corpo si fondono influenzandosi reciprocamente.

Da questo punto di vista, l’IA, non avendo corpo, non potrebbe mai sostituire il pensiero umano.

 Come sottolinea la psicologa e psicoterapeuta “Dori Montanaro”, l’idea secondo cui il pensiero umano sarebbe riproducibile dalle macchine risiede nel mancato riconoscimento dell’importanza degli affetti e delle dimensioni non razionali che sono legate anche alla dimensione corporea dell’uomo.

In questo senso, l’idea della sostituzione del pensiero umano con l’intelligenza artificiale affonderebbe le sue radici lontano nel tempo, nella filosofia di Aristotele, San Tommaso, Cartesio, Kant ed Hegel, i quali hanno proposto «un’idea di essere umano aggrappato alla dimensione razionale e cosciente come unico mezzo per salvarsi dalle tenebre».

Ma come è ben noto soprattutto a chi si occupa di marketing, non è così.

L’uomo non è un essere perfettamente razionale.

(L’idea che “un capo gangster” possa maneggiare l’IA a suo piacimento è un pensiero perfettamente razionale! N.D.R)

Inoltre, la stessa teoria della nascita propone un’idea del benessere umano che è legata anche alla dimensione culturale, alla conoscenza e alla qualità dei rapporti interpersonali.

Aspetti che necessariamente sfuggono all’intelligenza artificiale.

Il coinvolgimento umano sarà sempre necessario.

Le differenze tra pensiero umano e IA sono ben evidenziate nei saggi di “Alessio Ancillai” (“Naturalmente l’arte vien da dentro”) e “Luca Guiducci” (“Musica artificiale”), che si chiedono se l’intelligenza artificiale sia in grado di produrre arte.

(Non so se l’IA sia in grado di produrre arte, ma se coloro che la maneggiano sono dei delinquenti gangster produrranno danni enormi alla società tutta! N.D.R.)

Qui i due sistemi di pensiero divergono radicalmente.

 Il computer, nell’eseguire la sua opera, segue le regole.

L’artista umano, invece, cerca di infrangerle, aspirando ad una produzione originale, mai vista prima.

“Luca Guiducci” ci riporta inoltre allo stretto legame esistente nell’uomo tra pensiero e corpo, ricordandoci come la musica «sia sempre figlia di un contesto culturale, di un corpo che ha una storia personale».

 Se per l’uomo la musica rappresenta una modalità per esprimere il senso pieno di una vita, per l’intelligenza artificiale essa costituisce una mera successione di cifre sonore.

 L’intelligenza artificiale, di fronte alla musica, sarebbe dunque «come un lettore che legge una poesia senza comprenderne il senso».

Queste riflessioni celano un aspetto di particolare interesse per il mondo del lavoro.

Lo stesso “Guiducci “evidenzia come l’algoritmo non sia in grado di produrre musica autonomamente.

Senza l’intervento umano, le sue soluzioni compositive apparirebbero “scriteriate”. Ecco dunque che la collaborazione tra uomo e macchina è una via obbligata.

Non vi può essere sostituzione, poiché «l’IA ha bisogno di una mole immensa di lavoro umano, lavoro che è occultato dall’ideologia luccicante delle macchine che sostituiscono gli uomini».

Il contributo dell’IA sembrerebbe essere più efficace nell’ambito medico, grazie alla capacità di utilizzo dei big data, al fine di individuare in tempi estremamente ridotti nuove strategie di cura.

 Tuttavia, in questo settore si nascondono degli interrogativi etici e perfino legali, che vanno dalla tutela della privacy, alla possibilità di attuare delle strategie di cura che potrebbero risultare incomprensibili per il medico e, di conseguenza, per il paziente, a causa dell’enorme numero di parametri e interazioni prese in considerazione dalla macchina.

 In caso di errore, di chi sarebbe la responsabilità morale e legale?

 È un interrogativo che conferma la necessità di una “collaborazione” tra l’operatore umano e l’IA, escludendo una sostituzione del primo a favore del secondo.

 

L’IA rappresenta una sfida alla democrazia.

La sfida presentata dall’intelligenza artificiale non si profila solo nel mondo del lavoro.

È anche la dimensione politica ad essere fortemente interessata.

A tal proposito.

 il volume evidenzia alcuni aspetti.

L’asimmetria nel rapporto tra uomo e algoritmi.

Loro (gli algoritmi), sanno tutti di noi, mentre noi nulla di loro.

 E gli algoritmi sanno tutto di noi con il fine di individuare cosa ci è più gradito per influenzare il nostro comportamento e le nostre scelte.

Si tratta di una constatazione che assume particolare rilevanza nel momento in cui gli autori ci ricordano come la “ricerca sull’intelligenza artificiale sia appannaggio di poche grandi imprese”.

 È solo una ristretta oligarchia a detenere il controllo di queste tecniche e delle relative infrastrutture, che però sono adottate da tutti.

 Così facendo, la società «cede un potere immenso e purtroppo ancora nascosto alla consapevolezza collettiva».

D’altronde l’attuale fase di sviluppo economico è basata sulla centralità delle informazioni.

E le informazioni, nel mare magnum di internet, possono essere manipolate, alimentando false notizie “rimasticate” e rielaborate dai sistemi di intelligenza artificiale con l’obiettivo di consolidare il potere di ristretti gruppi di interesse politici ed economici.

Quale intelligenza umana sarebbe poi in grado di distinguere i dati corretti dai “falsi dati” nell’universo sterminato della rete?

La posta in gioco, di fronte allo sviluppo dell’intelligenza artificiale, si allarga così al futuro della democrazia e alla libertà dell’uomo.

(E’ un dato di fatto che i padroni del mondo straricchi provvederanno a prendere possesso da subito dei sistemi a” IA “ e potranno così ricreare la dittatura medioevale tra schiavi e padroni! N.D.R.)

 

 

 

“Essere la pattumiera nucleare d’Italia

potrebbe portare ulteriori infiltrazioni

criminali nelle nostre terre…”

Tusciaweb.eu – Redazione – (14 dicembre 2023) – Sinistra italiana -Circolo di Tarquinia “Luigi Daga” – ci dice:

Ambiente - Il circolo di Tarquinia di Sinistra italiana sull'individuazione di 21 aree idonee nella Tuscia alla realizzazione del sito si stoccaggio: "Una concentrazione insolita".

Tarquinia – Riceviamo e pubblichiamo –

Sono in provincia di Viterbo 21 dei 51 siti individuati dal ministero dell’Ambiente per il deposito nazionale di rifiuti radioattivi.

Una concentrazione quantomeno insolita, che suscita legittimi interrogativi su quanto la scelta sia dettata da criteri tecnico-scientifici di idoneità dei siti e quanto da considerazioni relative alle possibili opposizioni e resistenze delle comunità locali.

La scarsa densità demografica e la debolezza occupazionale, analoghe esperienze passate insegnano, possono infatti costituire un fattore di arrendevolezza, quando non di aperto favore all’insediamento di impianti dalla discutibile salubrità.

Questo chi governa lo sa e tende a giocarci sopra per dividere l’opinione pubblica dei territori interessati in un’iniqua contrapposizione fra diritto alla salute e diritto al lavoro.

Ora si parla di un cantiere da 900 milioni di euro e 4.000 operai, che potrebbero scatenare gli appetiti di amministratori pubblici bramosi di compensazioni, ditte ansiose di subappalti e politicanti soliti promettere e mercanteggiare posti di lavoro in cambio di voti, creando un partito locale pro-scorie.

Chi pensa però all’interesse di lungo periodo del territorio non deve però dimenticare innanzitutto che si tratta di lavori tutto sommato effimeri (4 anni previsti), in genere appannaggio di appaltatori non del luogo che si portano i loro trasfertisti (con qualche beneficio sì per le attività ricettive fuori stagione, ma ben poca cosa a fronte del danno d’immagine per il turismo) e soprattutto che lo sviluppo deve sempre tenere conto della salute degli abitanti, come Taranto e Seveso tragicamente insegnano, tanto per citare due episodi fra i tanti.

Ma anche della salute morale di un territorio:

quei 900 milioni di appalti infatti non fanno gola solamente ai notabili locali, ma anche alle mafie, duttili a infilarsi in ogni business, che potrebbero riversare i loro investimenti in zona per ripulire capitali di dubbia provenienza, come spesso accade quando si realizzano mega-impianti.

Alta la guardia quindi per tutte le forze civiche e democratiche perché essere la pattumiera nucleare d’Italia potrebbe significare anche un ulteriore infiltrazione criminale nelle nostre terre, in cambio di effimeri ed esigui benefici economici.

(Sinistra Italiana – L’”IA” metterà tutti d’accordo! N.D.R)

 

 

 

 

Genocidio da parte d’Israele:

discorso d’odio o veritiero?

Serenoregis.org - Richard Falk - Osservatorio Internazionale, Pace e Guerra – (12 Dicembre 2023) - ci dice:

Gli Stati unti hanno espresso voto negativo all’appello dell’8 dicembre per un cessate-il-fuoco a Gaza sostenuto da un voto complessivo di 13 a 1, così isolandosi. Da notare fra gli altri tre membri NATO del Consiglio di Sicurezza: Francia e Germania a favore, UK astenuto.

 L’effetto del voto USA in tali circostanze è stato di veto per il suo unico voto, senza badare al peso preponderante dell’opinione di governi e popoli del vasto mondo, incluso il proprio dove 76% della cittadinanza è per una tregua.

L’ironia della posizione di Washington, segno preoccupante di complicità perdurante col genocidio d’Israele a costo della propria reputazione e del proprio status mondiali, è che lo sforzo di schermare Israele dall’autorità ONU è avvenuto la notte prima del 75° anniversario della firma della Convenzione sul Genocidio.

Sul fronte interno è in corso una feroce battaglia di sionisti risoluti a proibire condanne del comportamento d’Israele a Gaza in quanto equivalente a genocidio da parte di studenti universitari, loro professori e amministratori in protesta, stando alle apparenze perché alimenta le fiamme dell’antisemitismo che minaccia la zona agiata degli studenti ebrei, come se le militanti denunce pro-israeliane del terrorismo di “Hamas” non costituissero minaccia a quelli di ascendenza araba o islamica.

Tale assalto alla libertà accademica e alla libertà di parola in una faccenda allarmante e urgente, mentre a Gaza prosegue giorno dopo giorno l’uccisione gratuita di bambini e donne, equivale a sopprimere l’impegno dei cittadini nei confronti della politica estera del governo di questa società polarizzata.

Arriviamo a immaginare di chiudere le critiche di Tedeschi e giapponesi al genocidio nazista o all’attacco a Pearl Harbor perché potrebbero mettere a disagio tali minoranze?

A dire il vero, l’internamento in tempo di guerra dei giapponesi residenti, ivi compresi quelli cittadini USA, andò a un vergognoso estremo opposto.

Quando il governo USA e gli influenti media conformi si rifiutano di dire pane al pane, la libertà di parola e i diritti di assemblea son più importanti che mai nell’esporre il coinvolgimento materiale di Washington nel più grave dei crimini internazionali.

Nel dibattito sia negli USA sia in altre collocazioni nazionali i cui governi dell’”Impero Bianco Globale” parteggiano per Israele manca il tema su quanto l’imputazione di genocidio sia sostenuta da prove o sia piuttosto un’accusa irresponsabile che possa essere legittimamente vietata o almeno censurata come ‘discorso d’odio’.

Secondo me non ci sono mai state argomentazioni più robuste per concludere che a un tribunale giudiziario competente e obiettivo risulterebbero prove ampiamente soddisfacenti i due requisiti del genocidio quale crimine:

chiaro intento di distruggere un popolo del tutto o in parte;

evidenza abbondante che il comportamento d’Israele suffraghi la sostanza del crimine. [Convenzione Internazionale per la Prevenzione e la Punizione del Crimine di Genocidio (1948)]

Pare valer la pena citare alcuni dei molti vividi esempi dell’intento genocida espressi dai dirigenti più rilevanti d’Israele.

Poco dopo aver lanciato l’attacco a Gaza, “Yoav Gallant”, ministro della Difesa d’Israele, annunciava pubblicamente l’emissione di un decreto che escludeva tutti quanti i 2,3 milioni di gazawi da [l’indispensabile afflusso di] alimenti, combustibile ed elettricità.

Tattica caricata da un ulteriore tocco maligno di Gallant quando giustificando il decreto si riferiva ai gazawi come ‘animali umani’ da trattare di conseguenza.

Il primo ministro “Benjamin Netanyahu” ha di frequente asserito la natura estrema delle mire belliche d’Israele, e autorizzato tattiche che contrastano del tutto il diritto umanitario internazionale scritto nella “Quarta Convenzione di Ginevra “sull’Occupazione Bellica.

 La sua più esplicita aspirazione a un approccio genocida è stata l’equiparazione della campagna israeliana a Gaza al versetto biblico sulla vittoria sugli amalekiti che invoca lo sterminio di ogni uomo, donna e bambino, e i loro armenti, che appartenessero a questo antico nemico del popolo ebraico.

Combinare tali affermazioni come compatibili con l’esile argomentazione del proprio diritto d’autodifesa – tanto più intesa secondo il diritto internazionale, è davvero ai limiti del grottesco.

 Agire per autodifesa non conferisce esenzione dall’obbligo di rispettare i rigori del diritto penale internazionale.

Inoltre, Israele è Potenza Occupante dei Territori Palestinesi dalla guerra del 1967 e agisce sotto autorità internazionale, con il diritto di prendere misure ragionevoli per mantenere la sicurezza dell’Occupante, ma badando al proprio fondamentale e incondizionato dovere di proteggere la popolazione civile, come esplicitamente sottolineato nella “Quarta Convenzione di Ginevra” riguardo l’accesso a dispensari alimentari e medici.

Si vedano le molte clausole in merito del trattato, specialmente gli articoli 55, 56, 33. In altre parole, Israele non ha alcun diritto di autodifesa contro la resistenza montata per reazione a un’occupazione oppressiva e stralunga criticata e descritta in modo convincente da “Human Rights Watch”, “Amnesty International”, l’ong israeliana ampiamente rispettata “B’Tselem”, e altri come colpevole del crimine di apartheid [come definito all’articolo II della Convenzione Internazionale sulla Soppression e Punizione del Crimine di Apartheid]. 

Da notare che pur col consenso della società civile sull’essere Israele colpevole di apartheid, il governo di Washington e i grossi media hanno reagito a tale dannosa imputazione del trattamento israeliano dei palestinesi soggetti alla sua autorità con un silenzio auto-accusatorio.

Recentemente il vice-sindaco di Gerusalemme, “Aryeh Yitzhak King”, ha effettivamente proposto di seppellire vivi i palestinesi detenuti perché sono peggio che animali umani, sono ‘subumani’.

La trucida visione del trattamento appropriato è specificata da King in queste parole:

“Fosse per me, manderei lì dei bulldozer D-9 e loro li metterei dietro gran mucchi di terra e avrei dato l’ordine di coprire tutte queste centinaia di formiche mentre sono ancora vive.”

(Queste parole di un importante personaggio politico ci dice che nel caso di applicazione della “IA” non vi sarebbe nessuna speranza per il genere umano! N.D.R.)

“King” non ha autorità specifica per la condotta delle operazioni militari ma la tolleranza di dichiarazioni del genere da un qualunque pubblico ufficiale israeliano è indicativa di un’atmosfera genocida.

[Come riferito dalla redazione di Middle East Eye l’8 dicembre 2023].

Analogamente, le dimissioni forzate della presidente dell’Università della Pennsylvania per aver permesso un festival culturale pro-palestinese (La Palestina scrive) e aver resistito, seppur solo tiepidamente, a pressioni per donazioni e a una campagna sionista basata sull’asserzione infondata che fossero in programma antisemiti come “Roger Waters”, è illustrativo di quanto i preconcetti pro-israeliani vengano trasformati in armi nelle democrazie occidentali, designate a stigmatizzare attivisti espressamente militanti pro-palestinesi con accuse disoneste e false di antisemitismo, da intendere correttamente come odio agli ebrei o ostilità all’ebraismo in quanto religione.

Proibire accuse di genocidio dato tale linguaggio ripugnante e comportamento coerente è una patente negazione della libertà di parola e di dissenso pubblico. Certo la sicurezza di tutte le minoranze a rischio per sviluppi politici è responsabilità primaria della governance ad ogni livello dell’interazione societaria. [Altro che (?)] misure belliche come la distruzione di vasti quartieri residenziali, il ripetuto bombardamento di ospedali ed edifici ONU in uso come rifugio per molte migliaia di palestinesi, e la massiccia evacuazione forzata di Gaza-nord verso una vita all’addiaccio a Gaza-sud, shockantemente aggravata dalla susseguente estensione della zona di combattimento al Sud, causa di morti e ferite fra i palestinesi che avevano obbedito agli ordini di evacuazione, spesso per mettere in salvo almeno le proprie famiglie mentre continuava la carneficina!

Ci sono due importanti considerazioni che aiutano a spiegare il ricorso israeliano al genocidio pur avendo intelligence e capacità d’armamento superiori da impegnare per sconfiggere “Hamas” in un modo militare normalmente focalizzato se quello era il vero obiettivo centrale dell’attacco a Gaza.

Quanto intrapreso da Israele col pretesto offerto dall’attacco del 7 ottobre è parso ben altro che uno sforzo contro terroristico, parvenza rafforzata da crescenti sospetti che parti del governo israeliano avessero conoscenza dettagliata in anticipo dell’attacco [di Hamas] restando senza reagire per cinque ore alla presenza su territorio israeliano di miliziani di Hamas che stavano attuando il loro violento piano.

 

A quanto pare star dietro il genocidio israeliano è la soluzione cui aspiravano da tempo i massimalisti sionisti:  

effettuare il contenuto dell’ultimatum del ‘Piano Decisivo’ di “Bezelel Smotrich”, ormai apertamente ammesso dalla potente fazione dei coloni, in maggioranza nell’attuale governance d’Israele—‘emigrazione o annientamento’ – espresso anche più sfacciatamente durante le ultime settimane di furori dei coloni in Cisgiordania: ‘andatevene o vi uccidiamo’.

In effetti, la violenza scatenata dall’8 ottobre è solo parzialmente diretta contro “Hamas”, benché per motivi di credibilità in Israele ed internazionalmente questo sia ciò che i portavoce israeliani enfatizzano e per cui ricevono gran parte dell’attenzione, soggiacendo la pretesa inappropriata che Israele sia autorizzato a difendersi, pretesa di per sé più che altro una razionalizzazione anche tralasciando le considerazioni di cui sopra sull’inapplicabilità legale dell’argomentazione nella Palestina Occupata.

Ci sarebbero modi molto meno distruttivi e più efficaci per ristabilire la sicurezza israeliana all’indomani della straordinaria svista che ha permesso che ‘l’impossibile avvenisse’, evitando così i costi importanti e potenzialmente dannosi alla reputazione del ricorrere al genocidio, non solo indurendo e terrorizzando i palestinesi superstiti, ma le persone di coscienza in tutto il mondo.

Perdipiù, la campagna d’Israele sembra rispondere quattamente all’agenda dei coloni, del sionismo religioso dei soci della coalizione di Netanyahu che ben prima del 7 ottobre promuovevano la pulizia etnica come opzione preferenziale per risolvere ‘il Problema palestinese’.

Nonostante l’attuale attacco estremo in corso a Gaza e l’eruzione di violenza in Cisgiordania, la via della pulizia etnica sembra bloccata, con la saldezza palestinese (sumud) vieppiù irrigidita per il rifiuto egiziano di accettare masse di profughi palestinesi da Gaza per un reinsediamento nel Sinai, nelle penose condizioni di un ambiente quasi desertico.

Dal versante palestinese, e base plausibile per credere che l’attacco della resistenza di Hamas fosse come appariva all’inizio, sembrava essere temporizzato per rispondere al discorso di settembre all’ONU di Netanyahu, in cui teneva in vista una mappa del nuovo Medio Oriente senza traccia di Palestina e alla luce delle voci sulla normalizzazione con l’Arabia Saudita, che avrebbe esaltato la libertà d’azione d’Israele riguardo ai palestinesi nell’insieme.

Effettivamente, non c’è nulla d’incompatibile fra Israele che coglie l’occasione per perseguire i suoi scopi più ampi e il violento rifiuto di Hamas di accettare quella tentata sottile cancellazione della Palestina.

L’impudenza della campagna israeliana è in parte un risultato del fallimento di metodi relativamente blandi per completare il “Progetto Sionista” di massima estensione della sovranità territoriale d’Israele senza tener conto della rara risoluzione unanime 242 del 1967 che esigeva il completo ritiro delle forze d’Israele entro i confini precedenti la guerra.

Questo è il tentativo israeliano di vincere quel che sperava risultasse come partita finale nella lotta secolare fra le forze del colonialismo d’insediamento e i popoli indigeni della Palestina, ivi compresa la piccola minoranza ebraica di neppure il 10% che ci vive da tempi antichi come palestinesi ebraici.

È anche la fase di tale lotta che rappresenta ‘il momento della verità’ per il progetto coloniale degli insediati:

 o distrugge la resistenza indigena, spogliando e sterminando la popolazione nativa o il progetto è sconfitto come in Algeria e Sud Africa.

L’Impero Bianco, realtà di fondo dell’Occidente Globale, è composto di quelle imprese da coloni che hanno marginalizzato l’opposizione nativa abbastanza da stabilirsi e mantenere una stabile governance del proprio.

C’è una dimensione ulteriore che s’intravede appena sotto la superficie delle reazioni al genocidio israeliano, che si può riassumere come la riapparizione dello ‘scontro di civiltà’, per primo formulato espressamente da “Samuel Huntington “in un articolo del 1993 riguardo ai conflitti post-guerra fredda sulle linee di faglia fra l’Occidente e l’Islam [Huntington, “The Clash of Civilizations, “Foreign Affairs 72: 22-49 (1993)].

 Da notare che il sostegno a Israele proviene quasi esclusivamente dall’Occidente Globale Cristiano bianco e ai palestinesi da paesi e attori non-statuali musulmani (Hezbollah, Houthi).

Questa fonte di ulteriore tensione è giusto sotto la superficie della coscienza politica.

In conclusione, ci resta l’imperativo di proteggere la libertà di parola, specialmente nel chiamare genocidio il genocidio, e con la sfida di intraprendere tutte le  azioni responsabili per por fine a questo  strazio andando oltre parole di lamento e condanna, e considerando quali forme di boicottaggio, disinvestimento, e sanzioni possano esser messe in opera per fermare il genocidio a Gaza e iniziare un viaggio verso la pace e la giustizia che sostituisca l’ONU agli USA come intermediario neutrale e permetta ai palestinesi di rappresentarsi nell’escogitare una soluzione al conflitto, che obblighi il versante palestinese a creare un governo unitario ad interim per condurre negoziati internazionali ed esporre le proprie proposte per il futuro.

L'allarme dei big, 'rischio estinzione

con l'IA, è come le pandemie'.

Ansa.it – Redazione Ansa- (30-5-2023) – ci dice:

 

“Nyt “riporta lettera di 350 leader industria, anche “ceo OpenAI”.

L'allarme dei big, 'rischio estinzione con l'IA, è come le pandemie' .

Questo è perfettamente normale in Italia, ma in nessun'altra parte del mondo

L'intelligenza artificiale pone una minaccia esistenziale all'umanità e dovrebbe essere considerata un rischio sociale come le pandemie e le guerre nucleari.

È l'allarme lanciato dai leader del settore.

In una lettera aperta firmata da più di 350 manager e diffusa dalla “no profit Center for AI Safety” si legge:

 "mitigare il rischio di estinzione" posto dall'intelligenza artificiale "dovrebbe essere una priorità insieme ad altri rischi sociali come le pandemie e le guerre nucleari".

Fra i firmatari della lettera, riporta il “New York Times” ma anche altri media internazionali, ci sono l'amministratore delegato di “OpenAI” “Sam Altman”, il numero uno di Google Deep Mind “Demis Hassabis” e il leader di “Anthropic” “Dario Amodei”.

 

 

 

 

L'intelligenza artificiale ci mette

a “rischio di estinzione”.

Focus.it – (31-5-2023) – Elisabetta Intini – ci dice:

 

L'intelligenza artificiale rappresenta un pericolo per l'umanità paragonabile a quello di pandemie e guerre nucleari: l'allarme di 350 scienziati.

 (Shutterstock)

La specie umana si estinguerà per mano di una sua creazione?

"Mitigare i rischi di estinzione causati dall'intelligenza artificiale dovrebbe essere una priorità globale, così come viene fatto per altri rischi su scala sociale come le pandemie e la guerra nucleare".

Con questo laconico comunicato firmato da 350 scienziati e ingegneri impiegati nel campo dell'IA e pubblicato dalla “no-profit Center for AI Safety”, i massimi esperti del settore tornano a parlare dei rischi connessi allo sviluppo sempre più avanzato dell'intelligenza artificiale:

non più soltanto “deep fake” e “perdita di posti di lavoro”, ma addirittura “la scomparsa della nostra specie”.

NOMI ILLUSTRI.

Tra i firmatari della sinistra lettera aperta spiccano i leader delle principali compagnie di IA come Sam Altman, direttore esecutivo di OpenAI, Demis Hassabis, stesso ruolo in Google DeepMind e Dario Amodei, alla guida della startup statunitense di IA Anthropic. Ci sono inoltre Geoffrey Hinton e Yoshua Bengio, vincitori di un Turing Award (l'equivalente del Nobel per gli scienziati informatici) e considerati pionieri dell'intelligenza artificiale per i loro studi fondamentali sulle reti neurali, i modelli per l'elaborazione di informazioni alla base dell'apprendimento nei sistemi di riconoscimento facciale, di guida autonoma e degli assistenti sociali, solo per citare alcuni tipi di IA.

 

PROGRESSI FUORI CONTROLLO.

L'appello, tenuto volutamente stringato per non entrare nello specifico sulle singole minacce e far così aderire il massimo numero di scienziati, si inserisce in un clima di generale preoccupazione per il rapidissimo avanzamento di alcuni tipi di IA, come i modelli linguistici di grandi dimensioni tipo “ChatGPT”.

Si teme che lo sviluppo senza regole dei software usati per questo ed altri “chatbot concorrenti” possa portare a usare l'intelligenza artificiale per diffondere disinformazione e propaganda, creando disordine nelle istituzioni e disgregazione sociale.

SITUAZIONE PARADOSSALE.

Questi timori spesso espressi dagli scienziati solo privatamente portano gli addetti ai lavori nel campo dell'IA a trovarsi nella scomoda posizione di temere le stesse tecnologie che stanno contribuendo a creare: la paura più grande è quella di sviluppare, in un futuro non troppo lontano, un'intelligenza artificiale forte o generale, capace di apprendere e capire esattamente come un essere umano.

TROPPO INTELLIGENTI PER SOPRAVVIVERE.

Quella dell'IA si aggiunge alle altre minacce per la sopravvivenza della nostra specie messe in essere dallo stesso operato dell'uomo, come i cambiamenti climatici, le armi nucleari, o il rischio crescente di pandemie dovuto all'uso sconsiderato delle risorse naturali.

Sembra insomma che, qualunque sia il destino che ci attende, la fine debba avvenire per autodistruzione - un bell'autogoal per una specie che si dice intelligente.

(Orologio dell'apocalisse: 90 secondi dall'ora X)

ALCUNI PALETTI.

Fortunatamente abbiamo nelle mani anche gli strumenti per tutelarci, e sarebbe meglio farlo per tempo.

In un post pubblicato di recente, proprio “Altman” con altri due dirigenti di “OpenAI” suggerisce alcune strategie per gestire le potenzialità dell'IA in modo responsabile:

 una cooperazione tra soggetti industriali che operano nel campo, maggiori ricerche sui modelli linguistici e la formazione di un'organizzazione internazionale per la sicurezza dell'IA simile all'”Agenzia Internazionale per l'Energia Atomica” (AIEA), l'organo che vigila sulla gestione, le applicazioni e la sicurezza nucleare.

“Altman” si è inoltre espresso a favore di leggi che richiedano ai creatori dei modelli di “IA “più avanzati di registrarsi per ottenere una licenza all'uso regolamentata dai governi.

Ambiente:

Intelligenza artificiale: addestrarla inquina

(Elisabetta Intini)

 

 

 

Gates, l'Intelligenza artificiale

stravolgerà Google e Amazon.

Ansa.it – (24 -5-2023) – Redazione Ansa – ci dice:

La profezia del decano, l'assistente personale una rivoluzione.

 La corsa per lo sviluppo di un assistente personale dotato di intelligenza artificiale è ormai partita.

Ed è destinata a trasformare radicalmente le abitudini dei consumatori, con vaste implicazioni anche per colossi come Google e Amazon:

finora leader incontrastati della ricerca e dello shopping online, in futuro rischiano di diventare obsoleti.

Bill Gates non ha dubbi: chi vincerà questa gara sbaraglierà la concorrenza, acquisendo un vantaggio sostanziale sui competitor.

E non è detto che a tagliare per prima il traguardo sia un gigante hi-tech:

ci sono infatti - spiega il fondatore di Microsoft - il 50% di chance che ad aver successo sia una start up.

 Intervenendo ad “AI Forward 2023”, evento organizzato da “Goldman Sachs e SV Angel”, “Gates” osserva come un assistente personale digitale - munito di intelligenza artificiale - sarà capace di anticipare i bisogni umani ed effettuare compiti che gli utenti potrebbero non aver tempo di svolgere, quali leggere, fare shopping e condurre ricerche online.

 Chi avrà l'assistente digitale "non navigherà più su siti di ricerca e di produttività, non andrà mai su Amazon", spiega il fondatore di Microsoft.

A lavorare su un 'tutto fare' dotato di IA è, al momento, “Deep Mind”, la società fondata a guidata da “Mustafa Suleyman”.

"Immaginate un compagno personale di intelligenza artificiale con l'unica missione di rendervi più felici, più in salute e più produttivi.

La nostra missione è allineare la vostra intelligenza artificiale con voi, con i vostri interessi.

Questo significa un'IA che vi aiuta ad articolare le vostre intenzioni, organizzare la vostra vita ed è lì per voi quando ne avete bisogno", ha scritto proprio “Suleyman” in un recente post.

 Nonostante le grandi manovre in corso e gli ingenti investimenti effettuati, un assistente personale di intelligenza artificiale è ancora un progetto lontano dall'essere realizzato e sarà necessario attendere ancora a lungo prima che diventi realtà.

Sul palco di “AI Forward 2023” Gates si è soffermato anche sull'impatto che l'intelligenza artificiale può avere sulla salute, accelerando lo sviluppo di farmaci e medicinali contro malattie quali l'Alzheimer.

Ma anche sugli effetti sul mercato del lavoro:

 i robot con IA - ha detto il fondatore di Microsoft - avranno un impatto sui colletti blu e i colletti bianchi, in quanto l'innovazione sarà meno costosa dell'utilizzo di esseri umani.

 

 

 

Molti esperti di intelligenza artificiale mettono

 in guardia sul rischio che porti all'estinzione dell'umanità.

Wired.it – (30-5-2023) – Kevin Carboni – ci dice:

 

Figure come l'informatico” Geoffry Hinton”, “Sam Altman” di OpenAi o manager di Google DeepMind hanno firmato un appello ai governi per spingere a una regolazione del settore.

Intelligenza artificiale molti esperti di mettono in guardia sul rischio che porti all'estinzione dell'umanità.

Secondo i principali leader del settore, l’intelligenza artificiale (IA) può mettere l’umanità in pericolo di estinzione.

 Per questo gli amministratori delegati di OpenAi, DeepMind, Anthropic e altri studiosi ed esperti come Geoffrey Hinton, il cosiddetto “padrino” dell’intelligenza artificiale, hanno firmato una petizione per chiedere ai leader mondiali di affrontare i pericoli posti dall’intelligenza artificiale allo stesso modo in cui si affrontano le pandemie o la guerra nucleare.

“Mitigare il rischio di estinzione rappresentato dall'IA dovrebbe essere una priorità globale al pari di altri rischi di portata sociale come le pandemie e la guerra nucleare”,

 recita il sintetico appello della petizione, pubblicata sul sito dell’organizzazione “no-profit Center for Ia safety”.

Un appello condiviso proprio nel giorno in cui i rappresentanti dell’Unione europea e degli Stati Uniti si stanno riunendo in Svezia per l’apertura dei lavori del” Consiglio per il commercio e la tecnologia”, che coordina l’approccio globale dei due blocchi in relazione all’economia e allo sviluppo tecnologico.

Anche senza l’intervento di praticamente tutti i maggiori esperti globali di intelligenza artificiale, l’IA avrebbe già avuto molto probabilmente un posto d’onore al centro del dibattito.

Ma la convergenza dei nomi più importanti del settore, uniti attorno un concetto chiaro e semplice, cioè il “pericolo di estinzione” per la razza umana, darà senza dubbio un taglio diverso all’incontro.

Terminator.

Cos'è lo “scenario Terminator” che fa venire gli incubi al papà di ChatGPT.

Il fondatore di OpenAi, Sam Altman, lancia allarmi sui rischi futuri e remoti dell'intelligenza artificiale generativa.

Una paranoia in ritardo, visto che non si cura delle ricadute attuali.

Chi ha firmato l'appello.

Le prime due firme sono quelle di “Geoffry Hinton” e “Yoshua Bengio”, i due informatici canadesi vincitori del “premio Turing 2018” per il loro lavoro sull’apprendimento profondo delle macchine, ritenuti universalmente i pionieri dell’intelligenza artificiale assieme a “Yann LeCun”, che oggi lavora in “Meta” e ha deciso di non sottoscrivere l’appello, come riporta “Reuters”.

Manca anche “Elon Musk,” che però aveva già lanciato un appello a marzo 2023 per far interrompere per sei mesi lo sviluppo delle IA più potenti.

 Idea rimasta inascoltata e ignorata da tutte le firme riunite nella nuova petizione. Tra queste non poteva mancare quella di “Sam Altman”, l’amministratore delegato di “OpenAi”, l’azienda dietro al più famoso e controverso “chatbot ChatGpt”.

E poi ancora “Demis Hassabis”, capo di “Google DeepMind”, il dipartimento per lo sviluppo dell’intelligenza artificiale di “Alphabet”, “Dario Amodei”, amministratore delegato di “Anthropic”, altra azienda leader nel settore, “Audrey Tang”, ministra per gli “Affari digitali di Taiwan”, “Angela Kane”, ex alto rappresentante della Nazioni Unite per il disarmo, e “Kevin Scott”, direttore tecnico di Microsoft.

Ma la lista continua con più di cento nomi provenienti dalle maggiori università al mondo, come Mit, Berkley, Oxford, Harvard, Yale, Cornell, Stanford, l’Imperial college di Londra o l’università di Toronto.

Tra questi non solo esperti informatici, ma anche filosofi, giuristi o biologi.

Infine altri provenienti dal mondo della politica e delle istituzioni internazionali, così come da altre grandi aziende come “Skype”, “Quora” o “Notion” e anche la musicista e cantante canadese “Grimes”, ex moglie di” Elon Musk”.

 

 

 

Lo strano appello contro le IA:

“Rischiamo l’estinzione”.

Ma le aziende continuano a svilupparle.

Repubblica.it - Emanuele Capone – (30 MAGGIO 2023) – ci dice:

 

Lo strano appello contro le IA: “Rischiamo l’estinzione”. Ma le aziende continuano a svilupparle(ansa).

Ennesima petizione per invitare a rallentare e ragionare sulla creazione di una IA potenzialmente senziente: a firmarla, più o meno le stesse persone che lavorano per svilupparla.

Una sola frase, una ventina di parole appena, per ribadire una volta di più la preoccupazione per il veloce sviluppo delle intelligenze artificiali:

“Ridurre il rischio di estinzione rappresentato dalle IA dovrebbe essere una priorità globale insieme con la riduzione di altri rischi come le pandemie e la guerra nucleare”.

Questo è l’appello diffuso online dal “Center for AI Safety”, un’organizzazione no profit, e firmato (al momento) da circa 350 personalità, fra scienziati, matematici, ricercatori nel campo delle IA e imprenditori.

Quarto appello sul rischio estinzione.

Il documento, che appunto si esaurisce nella breve frase riportata all’inizio, è solo l'ultimo di una serie di allarmi sui rischi potenziali di questa nuova tecnologia ed è il quarto in un arco di tempo relativamente breve a parlare di rischio estinzione per la razza umana.

 In precedenza c’era stato” Stephen Hawking”, poi lo scrittore “Eliezer Yudkowsky,” che su “Time” aveva scritto che “il risultato più probabile dello sviluppo di un'IA la cui intelligenza superi quella umana è che tutti sulla Terra moriranno”, e più di recente lo scienziato “Geoffrey Hinton”, che ha deciso di licenziarsi da Google per “poter parlare liberamente dei pericoli rappresentati dalle IA”.

Contattato dal New York Times, il presidente del “Center for AI Safety”, “Dan Hendrycks”, ha spiegato che “abbiamo bisogno che sia diffusa la consapevolezza di quello che è in gioco, prima di avere proficue discussioni” e che la scelta di limitare la lettera a una sola frase sarebbe utile per “mostrare che i rischi sono abbastanza gravi da avere bisogno di proposte proporzionate”.

La mano destra che non sa quel che fa la sinistra?

A fare notizia, più che l’appello in sé (come forse dovrebbe essere), sono soprattutto i nomi dei firmatari:

fra loro ci sono lo stesso Hinton e anche Yoshua Bengio, due dei 3 ricercatori che hanno vinto un Premio Turing proprio per il lavoro sulle IA (il terzo è Yann LeCun, che lavora per Meta e al momento non ha firmato), c’è Sam Altman, attuale CEO di OpenAI, Demis Hassabis, CEO di Google DeepMind, e anche l'italo americano Dario Amodei, CEO di Anthropic.

 

Non c’è “Elon Musk”, che pure aveva firmato una petizione simile lo scorso marzo, ma che adesso non firma più probabilmente perché si è messo a fare quello contro cui aveva firmato.

Ed è in effetti questo, quello che dovrebbe fare notizia: il fatto che chi ha firmato per ridurre i potenziali rischi provocati dalle IA stia intanto lavorando per aumentarli, questi rischi.

Il caso di “Altman”, considerato il “padre di ChatGPT” (la madre è probabilmente Microsoft, che l’ha ricoperto di soldi per farcela), è emblematico:

a inizio marzo ha pubblicato una lettera aperta in cui investiva la sua società del compito di contribuire a sviluppare una IA Forte (una IA senziente, semplificando), che è la fonte principale dei rischi di cui parla la comunità scientifica;

a fine marzo, quando Musk firmava l'appello sui rischi legati proprio allo sviluppo di una “IA Forte”, ha ammesso di essere "un po' preoccupato e spaventato" dalla sua creazione (di cui aveva parlato 3 settimane prima);

il 18 maggio, davanti al Congresso degli Stati Uniti, ha ricordato che “servono regole per l'IA”, perché “temo gravi danni per la società”;

il 24 maggio ha lasciato intendere che se in Europa quelle stesse regole da lui auspicate saranno troppo severe, OpenAI potrebbe andarsene definitivamente dall’Ue;

salvo poi, pochi giorni dopo, presentare al mondo una sua iniziativa per stimolare (a pagamento) il dibattito su metodi e strategie da applicare alle IA.

I rischi collegati allo sviluppo delle IA.

Per citare un popolare modo di dire, sembra un po’ la storia del “la mano sinistra non sappia quel che fa la destra”, con Altman (e Musk, e altri) che da un lato si dice preoccupato ma dall’altro lato, con il suo stesso lavoro, non fa altro che aumentare quelle preoccupazioni.

Non è una critica, è un dato di fatto:

molti dei firmatari di quest’ultimo appello sono sì scienziati, ricercatori, sviluppatori ma sono anche imprenditori, dipendenti e CEO.

 E se da una parte vogliono essere prudenti (o vogliono mostrarsi prudenti, soprattutto agli occhi dei regolatori europei e americani), dall’altra vogliono anche primeggiare nel loro campo, battere i concorrenti sul tempo e pure guadagnare un sacco di soldi.

È il loro lavoro, è abbastanza normale che sia così.

Il problema, come su “Italian Tech” abbiamo scritto spesso, è che in questo specifico campo la fretta e la corsa al profitto rischiano di essere più pericolose che in altri, perché (come sostengono in molti) una volta sbagliato è quasi impossibile tornare indietro.

Inteso con una volta creata una” IA Forte” piena di pregiudizi o addestrata in modo sbagliato, cui si sono date le chiavi dell'arsenale nucleare (non è fantascienza, gli Usa hanno appena approvato una legge per richiedere sempre un intervento umano per l’impiego di armi atomiche), che gestisca le forze di polizia in una città o in uno Stato, che si occupi di decidere a chi dare un lavoro e a chi negarlo, chi ha probabilità di essere curato dopo un incidente e chi no e così via.

Perché è poi questo che inizia a spaventare, delle IA:

 non che scatenino una guerra all’umanità come accade in “Terminator “o “Matrix”, ma che minino le fondamenta della nostra società in maniera irrecuperabile, aumentando ulteriormente il divario fra chi può e chi no, fra chi ce la fa e chi viene lasciato indietro, fra i primi e tutti gli altri.

Portandoci appunto all’estinzione.

(@capoema)

 

 

 

Estinzione dell’umanità?

I veri rischi delle Intelligenze

Artificiali sono ben altri.

Valigiablu.it - Bruno Saetta - brunosaetta@gmail.com – (9 Giugno 2023) – ci dice:

Il virus dei colonizzatori.

L’epidemia del nuovo coronavirus è nata nei paesi economicamente più avanzati, e si è diffusa velocemente grazie agli spazi condivisi che i paesi sviluppati hanno creato per moltiplicare l’accumulazione del capitale a livello globale.

 Eppure il nuovo coronavirus grava in maniera decisamente più pesante sui paesi meno sviluppati, come l’Africa, complice anche le politiche vaccinali dei paesi sviluppati che rendono più difficile produrre i vaccini in quel continente.

Il virus è bianco, ma il vaccino diventa funzionale alla conservazione del peso egemonico degli attori statali piuttosto che alla risoluzione della pandemia.

Questo paradossale effetto è la conseguenza delle politiche di colonizzazione da parte dei paesi più sviluppati, non solo quelli occidentali ovviamente. L'imposizione della cultura dei colonizzatori e la completa sottomissione del colonizzato, porta quest’ultimo a diventare uno strumento dell’imperialismo culturale, che progressivamente convince il colonizzato che egli è tale per una giusta ragione, perché inferiore.

 In una sorta di “sindrome di Stoccolma” collettiva, i colonizzati aiutano i colonizzatori a mantenere uno status di inferiorità culturale e di incapacità politica.

I meccanismi dell'oppressione bianca, del colonialismo, sono studiati da secoli, eppure continuano ad applicarsi tutt’oggi.

Quello che è cambiato sono gli strumenti.

Se un tempo il colonialismo era armato, oggi è prevalentemente culturale ed economico.

Le conseguenze di ciò non sono subito evidenti, ma è palese dagli studi che esistono delle profonde differenze tra, ad esempio, la realtà americana ed europea e quella dell’Africa.

 Uno studio che ha esaminato le pratiche di rilevamento precoce del cancro al seno tra l'Africa subsahariana e i paesi ad alto reddito, ha scoperto che ciò che funziona in Occidente, cioè le mammografie, in Africa non è efficace nel ridurre la mortalità per cancro al seno.

 I fattori incidenti sono un profilo di età inferiore, una presentazione con malattia avanzata e opzioni terapeutiche disponibili limitate.

Tutto ciò suggerisce che l'autoesame e l'esame clinico del seno nell’Africa subsahariana funzionano meglio della pratica medica progettata per le loro controparti in paesi ad alto reddito.

Questo esempio ci fa capire come la semplice importazione di strumenti tecnologici occidentali (AI di supporto o consulenza medica) potrebbe portare più danni che benefici.

Non solo, tale importazione finirebbe anche per sottrarre risorse preziose a strumenti locali più adatti alla realtà del luogo e al contesto specifico.

Nel cuore delle AI.

La tecnologia del momento è l’intelligenza artificiale, quella che ha spodestato “la blockchain” e il “metaverso” nell’immaginario collettivo e sulle prime pagine dei giornali.

In effetti l’impressione è che questa tecnologia abbia effettivamente maggiori possibilità di incontrare quanto meno la curiosità del pubblico.

Del resto i “creatori” come “Sam Altman” non lasciano passare giorno senza ricordarci la distruzione di massa che la sua tecnologia è in teoria capace di provocare.

(Ma se chi comanda oggi il mondo sono solo dei “capi gangster”, come potete sostenere che questi abbiano un doveroso rispetto per la parte maggioritaria e più povera dell’umanità? N.D.R.)

Argomenti del genere trovano facile sponda nei mass media affamati di sensazionalismo e sempre pronti a spingere sul filtro “techlash” alimentando l’indignazione costante contro le nuove tecnologie.

E così ogni giorno leggiamo che le AI potrebbero portare addirittura all’estinzione della civiltà umana, e se da un lato questo ci terrorizza, dall’altro è evidente la fascinazione per una tecnologia così dirompente tanto da essere paragonata alla tecnologia nucleare.

“ChatGPT”, i rischi per l’umanità e la sindrome “SkyNet”.

Ma nonostante le mirabolanti descrizioni che magnificano sistemi ritenuti ormai quasi senzienti, alla base delle AI non c’è altro che una quantità enorme di dati raccolti e lavorati da sottopagati operatori spesso residenti in paesi sottosviluppati come l’Africa o l'Asia orientale.

Il loro compito è di immettere dati e informazioni in enormi database che saranno poi ingurgitati da software complessissimi che si occuperanno di creare quello che noi oggi chiamiamo, impropriamente, sistemi di intelligenza artificiale.

 Sono schiere di “contractor”, persone che attraverso delle piattaforme sviluppate apposta, lavorano a progetti con nomi improbabili come “Yukon” o “Crescent”, e il cui compito consiste nell’etichettare immagini e video, nel verificare quale tra i risultati di ricerca proposti a video risulta effettivamente più efficace in relazione ad una “specifica query”, nel verificare se il risultato ha la corretta formattazione e così via.

Il lavoro di questi “sottopagati operai “serve anche a correggere gli “errori” e i “bias” dei dataset utilizzati per l’addestramento degli algoritmi, e quindi dei sistemi di intelligenza artificiale.

 Perché uno dei più grandi problemi di questi sistemi complessi non è la loro capacità di distruggere la civiltà umana, quanto piuttosto l’amplificazione delle discriminazioni sociali.

 Quel lavoro serve per evitare errori come quello che accadde nel luglio del 2015, quando una persona di colore venne etichettata come gorilla dall’algoritmo di Google.

Ma perché accadono errori del genere?

I problemi e i rischi del riconoscimento facciale tra Cina e resto del mondo.

La discriminazione delle persone di colore dipendeva da una serie di problematiche connesse.

Innanzitutto il riconoscimento facciale è difficile di per sé, il sistema sbagliava anche coi bianchi, alcuni dei quali venivano etichettati come cani, o foche.

Nel caso delle persone di colore, però, l’errore si innesta su un problema culturale, anni di discriminazione razziale introitati dalla nostra società.

L’illuminazione di un volto dipende da dei modelli standardizzati creati negli anni ‘50, le cosiddette “Schede Shirley”, dalla modella originale, “Shirley”, che era dipendente della” Kodak”, la multinazionale all’epoca leader del settore fotografico.

 Si tratta di immagini di modelli standardizzati che sono usati per calibrare i toni della pelle, le ombre e le luci nella fase di stampa.

 Il problema di questi modelli, comuni a tante situazioni simili, è che erano esclusivamente focalizzati sui bianchi, creati da bianchi per i bianchi, e in questo modo l’illuminazione del volto di una persona di colore era più difficile e questo incideva sul riconoscimento di un volto rendendolo più complicato e aperto a possibili errori.

Solo negli anni ‘70 si iniziò ad affrontare la revisione di questi standard.

 

Pregiudizio culturale.

Il pregiudizio culturale è il risultato di dati di addestramento influenzati da stereotipi culturali, come ad esempio un algoritmo di visione artificiale addestrato su persone bianche, che quindi fatica a riconoscere quelle di colore, oppure un algoritmo addestrato in relazione al genere.

Il sistema ingurgita milioni di immagini dove si vedono donne in cucina e uomini al lavoro e quindi “impara” che la donna sta in cucina, mentre è l’uomo che va al lavoro.

 Se un sistema del genere fosse utilizzato senza correzione di” bias” per la selezione di candidati, facilmente preferirebbe uomini per i posti di programmatore.

Così nel 2017 un professore dell’università della Virginia nota che un sistema algoritmico produce risultati “sessisti”, associando alle donne immagini di cucina e così via.

Analizzando gli input forniti alla macchina vede che due collezioni di immagini, tra cui una supportata da “Microsoft” e “Facebook”, presentava una distorsione di genere nella raffigurazione di attività come la cucina e lo sport:

mentre le immagini di cucina, shopping e lavaggio erano associate a donne, quelle di sport erano legate a uomini.

Il software di apprendimento automatico in fondo non faceva altro che il suo lavoro:

apprendeva, erano le immagini che soffrivano di pregiudizi.

Nel 2018 si scopre che “Amazon” aveva avviato un programma di valutazione dei curriculum online che, basandosi sui dati storici, finisce per preferire uomini a donne per i posti da assegnare (programmatori o comunque posizioni tecniche).

A questo proposito è significativo che in uno studio del 2015 solo il 15% degli studenti ricorda di aver visto donne svolgere compiti di informatica in film o in TV, cosa che si riflette nella vita reale in cui le donne costituiscono solo il 17% delle major in informatica - un costante calo da un picco al 37% nel 1984.

 Il sistema, quindi, comincia a scartare i curriculum nei quali ci sono termini quali “donna” o simili, addirittura eliminando un curriculum solo perché vi era indicato “capitano della squadra di scacchi femminile” (women’s chess club captain).

Ancora, il sistema preferiva il linguaggio utilizzato dai candidati maschi.

Col passare del tempo, nonostante i tentativi di risolvere i problemi, il sistema ha finito per raccomandare candidati non qualificati, come se la selezione fosse completamente” random”.

Alla fine il programma è stato chiuso.

E non è un problema della AI, non è un problema del sistema che ragiona male o produce risultati inesatti, il problema dipende dalla società sottostante, quella stessa società che produce i miliardi di dati che poi saranno ingurgitati dalla AI.

Sono gli esseri umani, siamo noi che scriviamo gli articoli di giornale, le guide scolastiche e i commenti discriminatori che poi finiscono nell’enorme calderone del dataset e formano una AI con pregiudizi.

La ricercatrice e pedagogista “Irene Biemmi” sostiene che nelle storie raccontate nei testi per l’infanzia tutt’oggi si riproducono stereotipi di genere che ingabbiano bambini e bambine nel loro percorso di formazione.

Analizzando i libri di lettura di quarta elementare di 10 case editrici vede che “il 59% delle storie ha per protagonista un maschio, quelle con una protagonista femminile sono il 37 per cento, condividono il ruolo solo nel restante 4%.

 Per ogni dieci protagoniste femmine ci sono sedici maschi.

Una raffigurazione dei due generi ben poco paritaria”.

 (Non dice nulla il fatto che” i capi gangster che comandano il mondo” siano per il 90% maschi? N.D.R.)

Le donne nei libri di formazione sono poco rappresentate, spesso confinate ai ruoli domestici, sottomesse.

Ma il problema non si ferma lì, anche i profughi sono rappresentati come “clandestini” che vivono nelle nostre città “in condizioni precarie, senza un lavoro e una casa dignitosi”.

 E sono queste le cose che i nostri figli apprendono a scuola e che formano l’immaginario e la cultura delle nuove generazioni.

 E tutto questo si riversa, poi, nella produzione culturale fino ai commenti sui social, che a sua volta diventa la base per l’addestramento dei sistemi di intelligenza artificiale.

 La matematica non può molto per superare il pregiudizio strisciante nella nostra società.

Nei sistemi di intelligenza artificiale è necessario che si inseriscano dei correttivi per gli evidenti “bias “dei dati di addestramento perché il processo decisionale dipendente da algoritmi finisce per replicare le discriminazioni presenti nei dati di input, amplificandone gli effetti, data la scala di utilizzo.

 E poiché per le minoranze ci sono meno dati, l’impatto è maggiore per esse.

 I nostri modelli sulle minoranze tendono a essere peggiori di quelli per la popolazione in generale.

Ma l’intera questione è ben più problematica, perché dati “non biased” in realtà non esistono.

 In un certo senso i dati sono opinioni, come afferma la “data scientist” “Cathy O’Neill” (Weapons of math destruction), occorre essere consapevoli che misurarli è di per sé un atto ideologico.

 Io ho una mia ideologia e quindi penso che abbia senso misurare (datification, ridurre il mondo in termini matematici analizzabili da una AI) il mondo in un certo modo, nel mio modo.

Io penso che il mio sia il modo migliore di misurare il mondo, e questo purtroppo appare sempre più vero per quanto riguarda coloro che sono a capo di grandi società tecnologiche, come “Elon Musk”, che credono di essere i migliori solo perché loro ce l’hanno fatta, hanno avuto successo.

Nell’addestramento delle AI, poi, c’è una sequenza che porta a sommare “bias su bias”, quelli del creatore, dell’ingegnere, del data collector, della stessa AI che estrapola dal dataset le regole che formano il suo “cervello”, in una moltiplicazione dei “bias” che si inseriscono in un sistema che fondamentalmente non è altro che una enorme “black box”, una scatola chiusa e impermeabile nella quale non possiamo guardare, e l’unico modo per capire come opera sta nel verificare gli “input” e gli “output”.

Gli algoritmi e i “mostri” della tecnologia.

 

Potere e controllo.

Gli algoritmi hanno a che fare col “controllo”.

Le nostre vite sono regolate dagli algoritmi programmati dagli ingegneri.

Se una volta l’uomo era controllato perché rinchiuso in luoghi di supervisione, come le fabbriche o le scuole, oggi l’individuo (individuo vuol dire indivisibile) può andare dappertutto, c’è decisamente maggiore libertà di movimento rispetto al passato.

Ma il controllo non è scomparso, anzi oggi è ancora più pervasivo, tramite le telecamere, le tessere di identificazione, le smart card, i sensori immersi nelle strade e per le città.

Tutti questi “sensori” che ci circondano scompongono l’individuo in una miriade di dati, che alimentano una enorme quantità di flussi di informazione che tramite mille rivoli (online, ma non solo) finiscono per riunirsi nei data base dei data broker a realizzare un profilo per ogni cittadino.

L’individuo non è più, quindi, indivisibile, ma è frammentato e ricomposto a creare quella che non è la banale transcodifica della sua vita in informazioni gestibili da un elaboratore, quanto piuttosto l’esercizio di un vero e proprio potere, una forma di controllo.

 È un algoritmo, una scatola chiusa che raccoglie input da mille fonti, li elabora secondo una specifica programmazione e fornisce degli output, a decidere chi è professore, chi è studente, anche chi è terrorista.

 In tal modo non c’è nemmeno necessità di conoscere il nome di una persona, è sufficiente sapere cosa compra, dove vive, dove lavora, cosa fa abitualmente, conoscere le sue attività routinarie.

 Questa è la “datificazione”.

La datificazione non è altro che l’etichettatura degli individui secondo parametri stabiliti da chi ha il potere di controllare l’algoritmo.

 (Ma se il potere di controllo sull’algoritmo è in mano “a capi gangster” quali verità prevarranno? N.D.R.)

E statisticamente queste persone sono per lo più bianchi di lingua inglese che vivono nel nord del mondo.

A questi poi si aggiungono, per il continente asiatico, i cinesi, che sono gli unici a contrastare la supremazia tecnologica degli Usa.

Non è quindi solo un problema occidentale.

Il processo di trasformazione dell’essere umano in “dati” passa attraverso una serie di sotto-processi che determinano il risultato finale.

 I dati finali sono qualcosa di separato e diverso rispetto al materiale osservato inizialmente (l’essere umano).

Ciò innesca una serie di problemi di difficile soluzione:

I dati sono approssimati.

I dati sono perlopiù dati storici (del passato).

I dati sono spesso proxy data (inferiti da altri dati, ad esempio l’etnia inferita dal luogo di residenza).

Il potere degli algoritmi sulle nostre vite.

L’elaborazione di dati raccolti da Internet e in particolare dai social network può, quindi, portare a discriminazioni.

Le persone dovranno, così, imparare a convivere con questi algoritmi, cercando di capire come rapportarsi ad essi, come muoversi online tenendo presente quali elementi gli algoritmi prendono in considerazione.

Essendo del tutto opachi, in quanto non sappiamo mai esattamente come tali algoritmi agiscano e decidano, dobbiamo imparare un gioco del tutto nuovo senza nemmeno conoscerne le regole.

I classici algoritmi di valutazione della recidiva, ad esempio, raccolgono dati derivanti da aspetti periferici.

Un soggetto che vive in un quartiere povero, che frequenta gente che già ha avuto problemi con la giustizia, che non ha un lavoro, viene considerato ad alto rischio di recidiva.

 Negli USA statisticamente i neri vengono fermati più spesso dei bianchi, quindi di fatto hanno a che fare con poliziotti più spesso dei bianchi.

In questo modo il modello di valutazione non fa altro che mascherare i pregiudizi degli esseri umani, piuttosto che eliminarli.

 Ovviamente, il fatto di essere considerati possibili recidivanti, rende più difficile trovare un lavoro, e di conseguenza aumenta la possibilità di incappare in guai con la giustizia.

 E così via, in una spirale senza fine.

(They define their own reality and use it to justify their results. This type of model is self-perpetuating, highly destructive and very common -Cathy O’Neil, data scientist)

Un terrorista oggi non è più una persona, quanto piuttosto un modello (type) ricavato dalla datificazione di una serie di comportamenti tipici di soggetti ritenuti terroristi.

I dati (comportamenti) da estrarre sono selezionati dai programmatori del modello, quindi alla fine il modello di terrorista non descrive affatto un terrorista quanto piuttosto come un terrorista è visto dal programmatore.

La costruzione di un modello ideale non si basa sulla realtà quanto piuttosto è un'approssimazione di un fenomeno dinamico, la traduzione in una quantità di numeri trattabili da un software.

In tal senso la costruzione di un modello di terrorista (ma anche di altre tipologie) non è tanto l’estrazione di dati dalla realtà (raw data), quanto piuttosto la costruzione di dati a partire dall’osservazione della realtà (cooked data).

E, come tale, è soggetta a molteplici errori e fenomeni discriminatori.

In fine dei conti dipende dall’algoritmo se noi abbiamo dei diritti, perché dipende dall'algoritmo se siamo identificati come soggetti che hanno dei diritti.

L’algoritmo che prevede chi commetterà un crimine, tra poca trasparenza e pregiudizi.

Colonialismo culturale.

Nel corso della “conferenza di Bandung” in Indonesia, nel 1955, il presidente indonesiano “Ahmed Sukarno” sostenne che il colonialismo avesse “anche un vestito moderno, nella forma del controllo economico, del controllo intellettuale […] esercitati da parte di una piccola comunità estranea all’interno di una nazione”.

Il colonialismo moderno non si esercita più per mezzo delle armi, non si domina più il paese sottoposto, ma si creano le condizioni perché quel paese dipenda dal paese dominante sul piano economico.

 Oggi la tecnologia consente un ulteriore passo in avanti, permettendo un vero e proprio colonialismo culturale che punta a plasmare l’identità di un paese e della sua popolazione.

 Non è una novità, lo vediamo tutti i giorni coi mass-media, con la produzione televisiva e cinematografica.

A tutto questo oggi si affianca un nuovo e penetrante strumento, i sistemi di intelligenza artificiale capaci di elaborare quantità enormi di dati per fornire risposte che hanno degli effetti importanti sull’intera società.

Il rischio delle AI si dipana su tre direttrici:

sono automatizzate e lavorano enormi quantità di dati su larga scala;

sono opache e non ispezionabili;

generalmente sono ritenute autorevoli, in quanto basate sulla matematica.

(Si, la matematica del capo gangster che governa l‘algoritmo: io comando…quindi decido che ti uccido …! N.D.R.)

“ChatGPT”, “Google Bard”, “BingChat”, sono sistemi che aggregano informazioni da una grande quantità di dati da diverse fonti, da diversi autori, per creare le risposte alle domande degli utenti.

La risposta non è altro che l'elaborazione statistica di una enorme quantità di informazioni correlate.

Il sistema cerca la risposta statisticamente più rilevante, e questo ha un enorme impatto perché così si riduce al minimo la rappresentazione dei gruppi minoritari, dei gruppi emarginati e discriminati.

L’effetto è la soppressione delle voci minoritarie, una vera e propria cancellazione dei dettagli del quadro sociale, dove tutto ciò che emerge è la punta dell’iceberg in un’unica visione algoritmica.

Se con i motori di ricerca otteniamo una serie di risposte possibili, elencate su più righe di più pagine, dove ovviamente già c’è una selezione statistica ma che comunque consente, volendo, di visitare anche risultati meno rilevanti, e quindi più aperti a possibili alternative, la risposta dei sistemi di AI inglobati in un motore di ricerca, come “BingChat”, di fatto elide tutte le voci differenti e minoritarie, enunciando un’unica e universale verità statistica.

Il vero problema dei sistemi di intelligenza artificiale è che rischiano di imporre una visione del mondo monolitica che prevale sulle miriadi di espressioni, tutte ugualmente legittime, della cultura umana.

La vera minaccia delle AI non sta nella capacità di distruggere la civiltà umana, come ci ricorda fin troppo spesso “Sam Altman” e i suoi simili, quanto piuttosto nel rischio di una assimilazione culturale e nell’imposizione di valori tipici di determinate popolazioni ad altre popolazioni.

Uno studente africano o asiatico che pone una domanda ad una AI, otterrà una risposta che è la visione del mondo unilaterale del creatore di quella AI, plasmata attraverso l’informazione ingurgitata dalla AI e selezionata dal suo creatore.

 Il sistema non ha gli strumenti per distinguere l'esperienza personale tipica di un paese, dell'utente, i valori familiari o le diverse visioni del mondo.

Il risultato potrebbe essere una enorme e onnisciente macchina per il lavaggio del cervello.

Ma non si tratta di opporci all’avvento della tecnologia per rifugiarci in una nostalgica rivendicazione del passato, quanto piuttosto di prendere atto che la tecnologia è uno strumento e come tale può essere usato per il bene o per il male.

Se lasciamo la regolamentazione della tecnologia ai suoi stessi creatori, questi faranno di tutto per strutturare tale regolamentazione secondo le loro idee, e ovviamente sarà tale da favorire i loro prodotti.

 È già accaduto alla televisione, lasciata all’appropriazione dei privati è diventata un luogo di spartizione di monopoli.

 Lo stesso sta accadendo ad Internet.

Ciò che occorre, invece, è prendere atto che la tecnologia può essere un ottimo strumento per far emergere le diversità di persone, di etnie e di gruppi, le differenze ideologiche e intellettive.

 Occorre resistere alle spinte costanti all'omologazione di massa.

La critica moderna alla tecnologia concentra lo spazio della democrazia al solo momento della comunicazione, sede privilegiata della manipolazione delle coscienze, ma questo perché il terreno del potere economico si è da anni sottratto alle regole, appartandosi rispetto alla politica.

Dobbiamo invece recuperare uno spazio di discussione politica che coinvolga l’economia e la finanza, e in questo modo iniziare a regolamentare le nuove tecnologie per quello che sono, non uno strumento di manipolazione di consensi alla “Cambridge Analytica” quanto piuttosto lo strumento di aziende capaci di inserirsi nei processi democratici di regolamentazione e dirottare tali processi e quindi di ottenere una sorta di monopolio a protezione dei loro business.

 Sono aziende che fanno lobbying per guidare le leggi e gli oneri legislativi ad esse imposti, spesso perché i legislatori non sono nemmeno in grado di capire esattamente come operano gli strumenti tecnologici che queste aziende gestiscono.

Gli strumenti di intelligenza artificiale sono in mano a poche grandi aziende che stanno occupando gli spazi e monopolizzando l’attenzione dei politici, al fine di ottenere il monopolio dell'interlocuzione ai fini della loro prossima, e ormai indifferibile, regolamentazione.

 Ma sono quegli stessi strumenti che impoveriscono le comunità e i paesi che non hanno voce in capitolo nel loro sviluppo.

Le ex colonie oggi non sono più angariate tramite la forza, quanto piuttosto da un sistema che relega la loro cultura ed esperienza particolare negli spazi più remoti dei dataset delle AI.

L’invasione algoritmica dell’Africa vede dei sistemi inadatti ed inesperti rispetto ai problemi locali, ma che allo stesso tempo lascia quei territori al di fuori dei dataset di addestramento.

Oggi il dominio e controllo delle popolazioni avviene attraverso meccanismi invisibili e sfumati, tramite il controllo degli ecosistemi digitali, dello sviluppo delle nuove tecnologie, campi nei quali sono sempre i soliti noti ad avere un ruolo.

 E i legislatori finiscono per rivolgersi sempre a loro per costruire possibili regolamentazioni.

Così i nuovi colonizzatori possono creare ecosistemi di commercio, politica e cultura, mentre sostengono di creare conoscenza per tutti.

Ma non è niente di nuovo rispetto a quello che si faceva nel passato:

“sappiamo noi di cosa hanno bisogno queste persone e così veniamo a salvarle”.

Sono i più vulnerabili che vengono colpiti maggiormente dall'adozione indiscriminata delle nuove tecnologie, sono coloro che vivono ai margini della società, coloro che sono visti come devianti e che veicolano valori differenti dalla massa, coloro che non si conformano allo status quo.

Se le nuove tecnologie verranno sviluppate in base al principio utilitarista, cioè quello che persegue il miglior risultato per il maggior numero di persone, avremo AI che non cercano soluzioni per le minoranze e per gli emarginati.

 Avremo AI che continueranno a consigliare le mammografie per le donne dell’Africa subsahariana, anche se è un errore.

La grande illusione dei Big Data.

Gli algoritmi comprendono davvero il mondo?

Occorre finanziare e favorire iniziative di sistemi software, algoritmici e di intelligenza artificiale che tengano in debito conto le peculiarità dei paesi nei quali vengono utilizzati.

Occorre avviare un percorso di decolonizzazione delle nuove tecnologie, come nell’”AI Decolonial Manifesto” redatto da studiosi delle nuove tecnologie, dove si spiega chiaramente che la soluzione per avere AI migliori non è avere più dati, ma avere dati più rappresentativi delle diversità delle popolazioni esistenti sulla Terra.

 

 

 

 

L'intelligente e artificiale

estinzione prossima ventura.

Civiltàdellemacchine.it – Fondazione Leonardo – (19 giugno 2023) - Eugenio Mazzarella – ci dice:

 

“L'intelligenza artificiale potrebbe portare all'estinzione dell'umanità”.

È il tardivo avvertimento di guru dell’IA, tra cui “Sam Altman”, amministratore delegato del produttore di “ChatGPT OpenAI”, di “Demis Hassabis”, amministratore delegato di “Google DeepMind” e di “Dario Amodei” di “Anthropic”.

Allarme che segue ad alcune audizioni al Congresso USA di esperti e produttori di sistemi di IA, alla richiesta di moratoria delle ricerche di “Elon Musk”, per meglio valutarne rischi ed impatto sociale, a un intervento di “Yuval Harari “su “The Economist “che argomenta che prendendo il controllo del linguaggio in generale, anche visivo e musicale, nell’ambiente sempre più mediale della nostra società, l’intelligenza artificiale ha in sostanza hackerato il sistema operativo della nostra civiltà.

Tesi e preoccupazioni che ormai sono punti di realtà e non opinabili punti di vista apocalittici.

E vanno presi assolutamente sul serio.

ICT e IA stanno ri-ontologizzando il “mondo”.

Ne stanno ridefinendo il “DeepMind” (Google sa su cosa lavora), la “mente profonda”, la “mente estesa”, da cui emerge la specificità della nostra specie, cioè la consapevolezza della sua esperienza, della sua interazione con il suo ambiente (sociale e naturale, cosale), che gli dà individualità autocentrata (la coscienza, l’io) e il suo correlato “mondano”.

Se per mondo si intende l’emergenza dalla natura di un nesso oggettivo-soggettivo, cioè di un vivente che opera il suo ambiente in modo consapevole e ne viene operato, grazie a questa consapevolezza, in modo elastico, relativamente “libero”, trascendendo e potendo “manipolare” lo schema stimolo-risposta – intervenendo in modo sempre più pervasivo sul “DeepMind”, sul modo in cui (il logos, direbbero i filosofi, il nesso pensiero-linguaggio) si è costruita la correlazione specifica soggetto-oggetto dell’”anthropos”, noi stiamo rischiando l’estinzione dell’umano conosciuto.

Che non è tanto la sua estinzione “fisica”.

Un bipede in posizione eretta, magari potenziato e manipolato, “migliorato”, quanto alla sua fisiologia organica, lo vedremo ancora andare in giro, probabilmente a ranghi ridotti, perché di “animali da lavoro”, soprattutto di bassa qualità, avremo (avremo chi, però?) sempre meno bisogno.

Quello che rischiamo di non vedere più tanto in giro è la “psichicità” come relativo controllo di sé in quanto standard sociale di massa, o alle masse acquisibile;

e cioè una coscienza libera diffusa.

Una regressione illiberale dell’azione umana, guidata in modo ora suasivo, ora dispositivo, sempre coattiva, dall’algoritmo, questo è in gioco.   

Quello cui siamo esposti dall’intelligenza artificiale come sistema operativo di un mondo digitalizzato, l’”infosfera”, dove il digitale non è un operatore di servizio della realtà analogica, ma all’inverso la opera presidiandone il sistema operativo, il linguaggio, è una dis-integrazione del regime corrente di integrazione bio-psichico-sociale del nostro esserci, per un suo ri-assemblaggio artificialista – artificiato – in una ontologia dell’essere sociale come social web, dove andrebbe in congedo l’obsoleta dicotomia tra vita reale e vita digitale, mettendo in discussione  – della vita “reale” – la sua struttura bio-psico-socio-storica conosciuta.

Questo perché nel “material engagement” digitale – il nostro “ambiente associato”, il nostro tecno-ambiente oggi, per dirla con “Simondon” – i processi di integrazione, di intreccio, di entanglement tra gli schemi cognitivi multimodali e senso-motori in carico all’immaginazione e le risorse articolatorie della forma linguistica, sono sempre più esposti, nell’implementazione digitale dell’esperienza, al rischio di non essere più o tanto l’attività cognitiva della “mia” immaginazione, ma di un “sistema immaginativo”, di un’immaginazione sociale implementata e gestita dalla IA che è esso a “processarmi” cognitivamente.

In ambiente digitale, e sempre più con la “natività digitale” dell’esperienza sociale e individuale che avanza, noi siamo esposti a venir meno alla nostra finora “natività analogica”, e alla sua costruzione dell’esperienza e dell’identità (della oggettivizzazione) come capacità di trascendere i processi di oggettivazione che pure ci con-costituiscono e in cui come mente estesa siamo coinvolti.

Rischiamo, cioè, di restituire alla “macchina”, all’ambiente-macchina, quella oggettivizzazione – l’autonomia relativa, ma sostanziale, della oggettivizzazione – che abbiamo strappato alla “natura”, all’ambiente in cui la macchina era nostra estensione e non noi estensione della macchina.

Di consegnare all’artificiale, la oggettivizzazione antropocentrica che abbiamo strappato all’ambiente naturale, emergendo come cultura.

 Quella oggettivizzazione antropocentrica che ha dato soggettività in senso proprio, punto di vista libero e personale, individualità, agli individui del Sapiens, trascendendo lo statuto di meri esemplari seriali del gruppo e della specie.

 

Ci avviamo pericolosamente ad una larga “società del simulacro” dell’umano, dove l’originale – come capacità di governo e indirizzo della realtà, come potere deliberativo su sé e sul mondo – che di questa società detterà il software mediale operativo sarà (forse) custodito in una ristretta cerchia di “sacerdoti” dell’IA e di custodi del “tesoro” del Tempio.

A questa “società dei simulacri” (Baudrillard) ci arriveremo con l’effetto più subdolo dell’esplosione “nucleare” dell’IA cui siamo esposti, il cui potenziale distruttivo più rilevante non sarà quello degli effetti termici e meccanici della bomba atomica o all’idrogeno.

Per uscire dall’analogia, gli effetti macro sociali, politici ed economici, che prova ad affrontare il diritto per salvare il salvabile del “mondo di prima”, o per permettere alla società una metabolizzazione non distruttiva di questi effetti.

Ma sarà quello della bomba al neutrone, la cui distruttività è affidata ad un intenso flusso di neutroni, che oltre un ridotto perimetro dall’epicentro dell’esplosione lasciano intatte le cose e cassano l’organico che lo abita.

L’analogia che vogliamo suggerire è che l’IA casserà dalla scatola cranica la psichicità sociale diffusa che abbiamo conosciuto, e in giro non si vedranno morti fisici e sangue, ma zombies, non tanto i “morti viventi” che l’immaginario anticipante delle distopie ci ha già fatto conoscere da mezzo secolo, ma “viventi morti (dentro)”.

L’estinzione dell’umanità di cui parlano i guru dell’IA che abbiamo citato potrebbe avere questa figura, apparentemente meno eclatante dell’estinzione “fisica” della specie.

Tutto perduto? No.

Siamo ancora in tempo, politicamente, come “ambiente associato umano” – ma siamo forse l’ultima generazione che lo può fare perché non ancora nativamente condizionata in senso digitale –, non solo a temperare gli effetti macro-sociali, economici e politici, dell’IA.

A gestirne una metabolizzazione sociale sostenibile ad “antropologia vigente” per dir così.

Ma anche a prevedere indirizzi “pedagogici” – a partire dalla scuola e dalla formazione – non di rinforzo della “natività digitale” (della sua pur necessaria “competenza”), ma di difesa, conservazione, restauro, promozione della “natività analogica”, perché non diventi un “bene culturale” da museo, oggetto non più vissuto, ma di puro studio di una storia dell’antropologia pre-digitale, ammesso che i nativi digitali coltivino interessi per i loro progenitori una volta che siano stati pervasi “dentro” in modo microfisico dall’immaginario digitale che gli detta cosa immaginare di sé e del mondo.

 

 

 

Intelligenza artificiale, Bill Gates

contro i catastrofisti: «Le IA sono

un rischio reale, ma gestibile»

  Corriere.it - Velia Alvich – (15 luglio 2023) – ci dice:

 

Il fondatore di Microsoft riconosce il pericolo delle nuove tecnologie, ma è ottimista. L'appello agli sviluppatori: «Lavorate in maniera sicura e responsabile»

Bill Gates: «L'intelligenza artificiale distruggerà aziende come Google o Amazon»

Parola di Bill Gates:

le intelligenze artificiali possono essere un rischio per l’umanità, ma nulla che non possa essere gestito.

 Nessun «pericolo estinzione», come teorizzano alcuni esperti (ma altri, come “Yann LeCun”, non sono affatto d'accordo).

Ne ha parlato nel suo blog, in un post che mette in chiaro sin dal titolo la sua prospettiva tutto sommato ottimistica.

È vero che siamo entrati in quella che chiama «Età delle Ia», la nuova tecnologia sta cambiando così velocemente che non è sempre chiaro capire quale sarà il prossimo passo, ma l’umanità ha già attraversato mutamenti altrettanto grandi:

«Non è la prima volta che un’innovazione ha creato nuove minacce che devono essere controllate. Lo abbiamo già affrontato in passato».

Questo, però, non può essere fatto senza uno sforzo comune:

da un lato, Gates chiama in causa i governi e le forze politiche perché «vengano create leggi e regolamenti adatte a questa nuova tecnologia», dall’altro lancia un appello al settore privato:

 «fate il vostro lavoro in maniera sicura e responsabile».

La preoccupazione per la sicurezza digitale.

Il primo rischio che Gates affronta è la creazione di “deepfakes”, cioè video iperrealistici creati combinando e sovrapponendo due immagini diverse:

«Possono essere usati per cambiare il risultato di un’elezione.

Certo, non ci vuole una tecnologia molto sofisticata per instillare il dubbio su chi sia il vincitore legittimo di un’elezione, ma le intelligenze artificiali lo renderanno più semplice».

 La soluzione è sempre tecnologica:

così come si possono creare video finti, si possono anche smascherare.

Non solo:

secondo Gates, le persone già dubitano di quello che vedono su Internet.

L’esempio è la truffa del principe straniero che promette grandi somme di denaro in cambio dei dati della propria carta di credito: ormai quasi nessuno ci casca più. Non si tratta solo di frodi e deepfake, il filantropo americano esprime preoccupazione anche per le cosiddette allucinazioni:

sono risposte date dalle IA testuali come Chat-GPT, ma che sono completamente false.

 «Chiedigli di aiutarti a organizzare un viaggio in Tanzania e potrebbe provare a mandarti in un hotel che non esiste», spiega con un esempio efficace.

La soluzione?

Usare le testuali parole con la consapevolezza che possono sbagliare e avere fiducia negli sviluppatori che già stanno lavorando a un modo per minimizzare questo genere di errori.

L’impatto delle intelligenze artificiali sulla società.

Non è solo un rischio tutto tecnologico quello delle intelligenze artificiali.

Le conseguenze dell’avanzata di questi strumenti possono coinvolgere la vita quotidiana fuori dal mondo digitale.

«Alla fine le IA saranno così avanzate a esprimere idee che potranno scrivere le vostre stesse email», sostiene Gates.

 E aggiunge che, in fondo, qualsiasi cosa che dà una spinta alla produttività non è di per sé sbagliata.

La soluzione del problema è affidata ai governi e alle imprese, che «dovranno gestire questa transizione così che nessun lavoratore venga dimenticato».

Non è la prima volta, d’altronde, che si assiste a un simile cambiamento nel mercato del lavoro:

 «Non sarà drammatico come la rivoluzione industriale, ma paragonabile all’introduzione dei computer».

 E proprio l’arrivo dei PC nelle case della gente e nelle scuole è un tema che Gates ricorda bene:

«Fra gli anni Settanta e Ottanta, alcuni insegnanti di matematica temevano che gli studenti dimenticassero come fare i calcoli più semplici».

Un timore superato allora come oggi dall’adozione delle nuove tecnologie in una prospettiva diversa.

Per esempio, imparare a distinguere l’allucinazione prodotta da una IA testuale dalla verità.

E se gli studenti continuano a barare, c’è una soluzione:

usare strumenti digitali che sanno riconoscere un testo scritto da un umano da uno prodotto da un’intelligenza artificiale.

(Velia Alvich)

 

 

 

 

Verso una guerra più ampia in Medio Oriente?

 La "guerra non ufficiale" tra Iran e Israele,

 che si intensifica nel Mar Rosso e oltre,

 con conseguenze globali.

Globalresearch.ca – (“18 dicembre 2023) - Uriel Araujo – ci dice:

 

Un agente dell'agenzia di intelligence israeliana Mossad è stato giustiziato in Iran il 16 dicembre, secondo l'agenzia di stampa IRNA.

Inoltre, un gruppo di hacker israeliani ha affermato di aver paralizzato le stazioni di servizio in tutto l'Iran in un attacco informatico.

Molto è stato scritto sulla campagna israeliana su Gaza e la Cisgiordania, sul disastro umanitario e sulle sue conseguenze.

Tuttavia, c'è ancora un altro punto di vista, vale a dire l'escalation della lunga guerra del carburante e della cosiddetta guerra ombra tra la Repubblica islamica dell'Iran e lo Stato ebraico, con potenziali impatti di ancora più vasta portata a livello globale ben oltre il Mar Rosso e il Nord Africa o il Medio Oriente.

Un esempio di ciò è il fatto che due delle più grandi compagnie di navigazione del pianeta (Mærsk e Hapag-Lloydhave) hanno appena annunciato che sospenderanno temporaneamente le loro rotte nel Mar Rosso dopo gli attacchi effettuati dagli Houthi sostenuti dall'Iran.

 Non è cosa da poco: stiamo parlando di una delle principali rotte mondiali per le spedizioni di carburante e petrolio.

Parlando alla “BBC” il 16 dicembre, “Mærsk” ha dichiarato che:

"A seguito dell'incidente sfiorato che ha coinvolto “Maersk Gibraltar” ieri e l'ennesimo attacco a una nave portacontainer oggi, abbiamo dato istruzioni a tutte le navi “Maersk” nell'area destinate a passare attraverso lo stretto di “Bab al-Mandab” di sospendere il loro viaggio fino a nuovo avviso".

Lo stretto di “Bab al-Mandab”, noto anche come la “Porta delle Lacrime”, si trova tra lo “Yemen” (nella penisola arabica) e sia “Gibuti” che è l'Eritrea sulla costa dell'Africa.

 È attraverso questa rotta che le navi raggiungono il Canale di Suez da sud:

tutte le navi provenienti dall'Oceano Indiano, ad esempio, devono attraversarlo. Evitarlo significa prendere rotte considerevolmente più grandi, come la navigazione intorno all'Africa australe, con costi maggiori.

“I ribelli Houthi” controllano gran parte dello “Yemen” e hanno lanciato attacchi sui corsi d'acqua quasi ogni giorno come parte della loro campagna contro Israele, che a sua volta ha risposto schierando navi lanciamissili.

 Anche le navi da guerra degli Stati Uniti, del Regno Unito e della Francia hanno abbattuto vari missili lanciati dai ribelli.

 Il 15 dicembre, un membro del “politburo di Ansarullah degli Houthi”, “Ali al-Qahoum”, ha dichiarato che lo “Yemen” è "pronto" a rispondere a qualsiasi azione militare compiuta da Israele o dagli Stati Uniti, aggiungendo che le operazioni continueranno.

Commentando l'interruzione dei viaggi di “Maersk” nel Mar Rosso, “Marco Forgione”, direttore generale dell'”Institute of Export & International Trade”, ha dichiarato:

L'Iran avverte dell'"inevitabile espansione" della guerra tra Israele e Gaza.

"Questo ha un impatto su ogni anello della catena di approvvigionamento... e non farà altro che aumentare le possibilità che i prodotti critici non arrivino a destinazione in tempo per Natale".

Come ho scritto prima, Israele ha alti interessi in Africa, ben oltre i suoi sforzi diplomatici di "spyware" (spesso descritti come "comprare amici vendendo armi"), il Mar Rosso in particolare è la sua "porta di servizio" verso gli stati costieri come l'Egitto, l'Arabia Saudita, la Somalia, lo Yemen ecc.

Gli “Accordi di Abramo del 2020” mediati dagli Stati Uniti e i successivi accordi di normalizzazione con Israele firmati da paesi come gli Emirati Arabi Uniti (UEA) hanno aperto la strada alla sicurezza e alla cooperazione militare, che si è concretizzata, ad esempio, nell'esercitazione navale congiunta “Israele-Emirati Arabi Uniti nel novembre 2021”, aumentando così le tensioni nel Mar Rosso.

C'è stata una crisi energetica e di carburante nel Levante (aggravata dalle sanzioni del Tesoro degli Stati Uniti e dal “Caesar Syria Civilian Protection Act” del 2019), che ha colpito in particolare il Libano, e questo contesto ha rafforzato la diplomazia petrolifera iraniana, così come Hezbollah sostenuto dall'Iran, con Teheran che fornisce carburante ad alleati all'estero come la Siria, il Libano e persino il Venezuela.

Come parte di tale guerra economica, molto prima dell'”audace campagna Houthi” in corso, avevano avuto luogo diversi attacchi clandestini contro le navi, con la Siria che accusava Israele di essere dietro di loro – questo è il contesto dell'odierna crisi del Mar Rosso.

Tuttavia, gli “Houthi” sembrano essere disposti a portare questa guerra marittima per procura (e la "guerra ombra" per procura) a un livello completamente nuovo.

Da anni è in corso una guerra non ufficiale tra Israele e Iran, due potenze dominanti in Medio Oriente.

Nel luglio 2022, ho chiesto se una tale guerra fredda locale potesse degenerare in un grande conflitto regionale, potenzialmente anche in una spirale di confronto globale.

La situazione attuale ci ha probabilmente portato un po' più vicini a uno scenario così catastrofico.

Sarebbe male informato pensare agli “Houthi in Yemen” (o a Hezbollah in Libano, se è per questo) come semplici pedine iraniane.

Tali gruppi hanno ovviamente la loro base popolare, la loro agenda e la loro agenzia come attori politici e sociali.

 In ogni caso, l'Iran presta loro il suo sostegno in diversi modi, e una più ampia guerra per procura tra Iran e Israele è davvero uno degli angoli.

Il livello di allineamento tra la “Repubblica islamica” e “Hezbollah” (anch'esso un'organizzazione sciita) non può essere paragonato a quello tra l'Iran e Hamas (un gruppo sunnita palestinese).

Tuttavia, la “cooperazione di Teheran con Hamas” è in aumento, con il leader di quest'ultimo” Ismail Haniyeh” che ha incontrato il ministro degli Esteri iraniano in Qatar il mese scorso.

Resta da vedere fino a che punto si spingerà questa cooperazione.

Teheran non può "controllare" i suoi "alleati" – più o meno allo stesso modo in cui Washington non può farlo con il suo alleato israeliano.

 In questa complessa equazione, c'è un grande grado di imprevedibilità e un ampio spazio per il ritorno di fiamma.

Va notato che la nazione persiana è una potenza emergente e non deve essere sottovalutata.

Per la sua posizione strategica, per migliaia di anni, ha svolto un ruolo chiave come percorso lungo la “Via della Seta per il trasporto di merci da ovest a est”.

Negli ultimi decenni, a causa di conflitti, sanzioni e problemi infrastrutturali di ogni tipo, tale potenziale non è stato sfruttato.

 

Tuttavia, le condizioni attuali stanno cambiando.

 Le conseguenze del fallimento della costruzione neocoloniale della nazione di Washington in Iraq, per prima cosa, sono state una Teheran rafforzata.

 C'è anche il promettente “Corridoio di Transito Nord-Sud” (NSTC), che ha il potenziale non solo per contrastare gli sforzi degli Stati Uniti di isolare economicamente l'Iran e la Russia, ma anche per creare una nuova rotta promettente e un'alternativa al Canale di Suez.

In ogni caso, l'Occidente non vuole un'escalation totale:

i massimi leader militari statunitensi si sono recati a Tel Aviv per fare pressione su Israele affinché eviti grandi combattimenti e una guerra regionale più ampia, limitandosi e mantenendo una campagna più limitata.

Resta da vedere se uno stato ebraico radicalizzato e imbaldanzito si asterrà dall'attraversare l'ennesima linea rossa – e se gli altri attori coinvolti faranno lo stesso: gestire le tensioni dall'esplosione completa non è un compito semplice.

Il conflitto israelo-palestinese è sempre stato una questione polarizzante in Africa e in Medio Oriente, in particolare, e ora sta dividendo anche l'Occidente, con le autorità europee che schiacciano le manifestazioni pro-Palestina.

L'intensificazione di questo e l'escalation della "guerra ombra" israelo-iraniana offriranno alle élite politiche occidentali e filo-israeliane l'opportunità di spingere ulteriormente le sue richieste di "allineamento" (mentre erodono la narrativa occidentale sui "diritti umani", poiché la campagna di Tel Aviv sta affrontando critiche senza precedenti), più o meno allo stesso modo in cui porrà una sfida diplomatica alle nazioni di tutto il mondo.

La posta in gioco è troppo alta, in termini umanitari, etici, religiosi, ideologici, geoeconomici e geopolitici.

(Uriel Araujo è un ricercatore specializzato in conflitti internazionali ed etnici. Collabora regolarmente con Global Research).

 

 

 

Disastro della guerra in Ucraina.

La sostituzione di Zelensky è imminente?

Regno Unito Estraderà i rifugiati ucraini.

Rodney Atkinson.

Globalresearch.ca- (18 dicembre 2023) - Rodney Atkinson -

 

Gli Stati Uniti cominciano a riconoscere una guerra inutile.

In Ucraina, la Russia sta avanzando su quasi tutti i fronti, le consegne di armamenti dell'Occidente sono diminuite dell'87% nel 2023 rispetto al 2022, con un calo della fornitura di proiettili di artiglieria del 30% poiché gli Stati Uniti hanno dirottato le forniture verso Israele.

Al Congresso, il partito democratico di Biden non riesce a far approvare un pacchetto da 61 miliardi di dollari per l'Ucraina poiché i repubblicani chiedono, come parte del totale, somme per la crisi esistenziale al confine meridionale degli Stati Uniti (dove circa 2 milioni di migranti attraversano ogni anno) e perché Biden non può dire quale sia l'obiettivo della guerra in Ucraina.

Le perdite ucraine ammontano ora a circa 400.000 soldati uccisi o dispersi, mentre alcune stime indipendenti parlano di perdite russe fino a 50.000.

 La "controffensiva" ucraina è stata un disastro con la Russia che ha guadagnato più terreno dell'Ucraina da quando è iniziata.

L'entità dell'improvvisa presa di coscienza che l'Occidente ha stupidamente creduto alla propria propaganda, ma ora deve riconoscere la sconfitta imminente, è chiara dall'ingenuo “Daniel Hannan” sul “Sunday Telegraph”:

Il 15 luglio 2023 ha scritto:

"Togliete le armi nucleari alla Russia, perché Putin è finito e il suo paese potrebbe presto crollare".

Ma il 9 dicembre 2023 è stato costretto ad ammettere:

"La Russia di Putin si sta avvicinando a una vittoria devastante. Tremano le fondamenta dell'Europa".

Anche dove (nell'area di Kherson e intorno a Rabotino) l'Ucraina ha guadagnato terreno, le sue truppe sono state decimate a Krynki sulla riva orientale del Dniepr o si sono ritirate di nuovo intorno a Rabotino.

 

La pubblicazione di Odessa "Dumskaya" scrive che:

L'operazione delle forze armate ucraine per mantenere una testa di ponte sulla riva sinistra del Dniepr è priva di significato e porta solo a grandi perdite.

 I marines attraversano il fiume e la maggior parte viene uccisa mentre si avvicina alla riva.

Coloro che sono sopravvissuti e hanno attraversato il confine saranno stirati con tutto ciò che è nell'arsenale russo.

 Le persone vengono costantemente gettate dall'altra parte del fiume, onda dopo onda.

 Non si parla di ulteriori svolte;

Ora le forze vengono sprecate semplicemente per rimanere lì.

Per cosa?

A questo proposito, i continui tentativi di gettare i Marines sulla riva sinistra sono qualcosa al di là del bene e del male".

Seguendo lo schema della resistenza senza speranza in altre battaglie (Mariupol, Bakhmut), Zelensky rifiuta il consiglio dei suoi generali di ritirarsi e consolidarsi e invece getta a morte truppe sempre meno efficaci per il bene dei titoli dei media "eroici".

Emergono crepe tra Washington e Kiev.

"Controffensiva" in attesa: "A tempo indeterminato"?

Non c'è da stupirsi che siano morti così tanti e che Zelensky sia ai ferri corti con il capo delle forze armate” Valerii Zaluzhnyi,” con il quale non comunica più direttamente.

Sempre più altri leader ucraini come l'ex presidente “Poroshenko” e il sindaco di Kiev, “Klitschko”, si stanno schierando dalla parte di “Zaluzhnyi” e le massicce perdite al fronte hanno portato a manifestazioni a Kiev e altrove da parte dei parenti dei morti e dei dispersi.

Sostituzione di Zelensky.

Dopo il fallito viaggio di Zelensky a Washington e l'accoglienza gelida che ha ricevuto, ora è minacciato sia dall'insurrezione in patria che dalla mancanza di sostegno militare e politico da parte dei suoi alleati occidentali.

L'ex agente dell'intelligence della CIA “Larry Johnson”, ancora con evidenti contatti all'interno dell'Agenzia, afferma che Zelensky ha chiesto garanzie di sicurezza per la sua fuga dall'Ucraina.

La testata italiana “Antidiplomatico” scrive che il leader ucraino è stato trovato un successore "sicuro" nella persona del suo capo dell'amministrazione “Andrey Yermak”.

L'amministrazione Biden è così disperata nel finanziare e armare l'Ucraina per l'ulteriore massacro dei suoi cittadini che il segretario alla Difesa “Lloyd Austin” ha addirittura minacciato i membri del Congresso in una sessione di commissione a porte chiuse che se non avessero autorizzato più fondi per l'Ucraina "manderemo i vostri zii, cugini e figli a combattere in Ucraina".

Non c'è bisogno di dire che questa vergognosa minaccia ha ulteriormente messo i membri e le donne del Congresso contro il governo.

In Ucraina ci sono già 62.000 donne nelle forze armate ucraine e le donne stanno ora lavorando nelle miniere, sostituendo gli uomini arruolati nell'esercito!

La disperazione del governo di Kiev può essere vista non solo nel reclutamento di uomini fino all'età di 70 anni e nelle feroci bande di giornalisti che trascinano gli uomini fuori dalle strade, ma in questo ordine ministeriale che afferma che

"Al fine di evitare tentativi di suicidio in posizioni di combattimento, i nuovi arrivati non distribuiscono munizioni al personale militare mobilitato (cioè di leva)"

L'ex portavoce di Zelensky, “Arestovich”, ha ammesso che ci sono circa 100 disertori al giorno da parte delle truppe sul campo.

"Il nostro problema è che, lasciate che vi dia alcune cifre:

100 persone che hanno lasciato arbitrariamente le unità militari al giorno in Ucraina.

100 persone al giorno, ovvero una brigata al mese".

Il Regno Unito riporterà i rifugiati ucraini a combattere.

Ci sono 650 mila ucraini in età di coscrizione che vivono nell'Unione europea che sono fuggiti dalla mobilitazione dopo che le truppe russe sono entrate in Ucraina, con 190.000 in Germania e migliaia anche nel Regno Unito.

A seguito della mia corrispondenza con il mio deputato e il Ministero degli Interni del Regno Unito, è ora chiaro che il governo del Regno Unito è pronto a estradare i rifugiati ucraini per combattere.

Nel testo della lettera del ministro della Sicurezza al mio deputato sull'estradizione:

"Una persona ricercata non sarà estradata se ciò violerebbe i suoi diritti umani, se la richiesta è stata formulata politicamente o se rischierebbe di affrontare la pena di morte.

Si applica anche il criterio della doppia incriminazione, il che significa che il reato per il quale un individuo è condannato deve essere un reato sia nello Stato richiedente che nel Regno Unito"

Ciò che si evince chiaramente da questa lettera e in particolare dal paragrafo precedente, è il seguente:

1.) Non esiste una politica di non estradizione.

2.) Poiché tutti i rifugiati ucraini non sarebbero soggetti alla pena di morte, l'estradizione in un paese che il Regno Unito sta aiutando nella guerra non violerebbe i loro diritti umani e l'evasione dalla leva è un reato comune sia al Regno Unito che all'Ucraina, pertanto verrebbero estradati.

Sappiamo che Kiev sta inviando in prima linea nuove reclute con solo poche settimane di addestramento e sappiamo dai comandanti ucraini che questo non è sufficiente.

Ma l'Ucraina, quasi isterica, che sostiene il governo britannico, è pronta a estradare gli ucraini a cui ha concesso lo status di rifugiato per combattere sulle linee omicide dell'Ucraina orientale.

Gli Stati Uniti cominciano a riconoscere una guerra inutile.

Il “Council on Foreign Relations” è l'organizzazione più influente negli Stati Uniti quando si tratta di politica estera degli Stati Uniti e il suo presidente fino a giugno 2023, “Richard Haas”, ha sottolineato l'inutilità dei sacrifici dell'Ucraina in questa guerra:

 

"Anche se diamo tutto ciò che dobbiamo dare all'Ucraina, non porterà comunque al successo... Pertanto, gli Stati Uniti hanno bisogno di avere alcune conversazioni molto dirette con l'Ucraina e parlare di ridurre la loro enfasi sulla liberazione della terra, ponendo sempre più l'accento sul mantenimento di ciò che hanno... L'idea che 1 o 2 o 3 anni in più di questo si tradurrà in un successo, semplicemente non la vedo... Ogni volta che nella vita c'è un grande divario tra ciò che stai cercando di fare e la tua capacità di farlo, devi aumentare i tuoi mezzi o abbassare i tuoi obiettivi: qui l'unica opzione realistica è abbassare i nostri obiettivi".

 

Se non fosse per le minacce percepite dagli Stati Uniti da Iran, Hezbollah, Yemen, Gaza e Cina, l'amministrazione Biden ignorerebbe ciecamente questo consiglio, ma i tempi stanno cambiando e la debolezza di Biden in un anno elettorale, lo stato precario di Zelensky a Kiev, le massicce perdite ucraine e la crescente opposizione alla guerra in Europa significano che Washington costringerà presto Kiev a negoziare con la Russia.

Dal momento che Zelensky ha legiferato contro tali negoziati, dovrà essere sostituito.

La Russia non accetterà di sospendere la guerra durante tali negoziati.

Commenti

Post popolari in questo blog

Quale futuro per il mondo?

Co2 per produrre alimenti.

Caos e dazi.