STRUMENTO COERCITIVO: IL CONTROLLO DIGITALE.

 STRUMENTO COERCITIVO: IL CONTROLLO DIGITALE.

 

Sorveglianza di massa in Cina,

il modello che spaventa l’Occidente.

Agendadigitale.eu- Barbara Calderini – (04 Mar 2020) – ci dice:

 

Spyware nei cellulari, telecamere per il riconoscimento facciale, wi-fi sniffer. Si basa su un mix di tecnologie vecchie e nuove la grande rete voluta dal presidente Xi Jinping che punta a “spiare” 1,4 mld di abitanti. Il prezzo pagato alla privacy del nuovo Panopticon che spaventa il mondo.

digital panopticìon.

Un’immensa rete di sorveglianza copre le città cinesi e conferisce alla polizia poteri quasi illimitati. Conversazioni via smartphone, espressioni del volto, movimenti vengono controllati costantemente grazie a un potente sistema di tecnologie integrate gestite da applicazioni di Intelligenza artificiale. Ecco com’è realizzato uno dei più grandi apparati di spionaggio del mondo. Che agisce a scapito della privacy. E che non sarà facile fermare.

Cina, prima al mondo per telecamere.

Sono anche i motivi per cui a febbraio la Commissione europea presentando il libro bianco sull’AI (intelligenza artificiale) ha ribadito la necessità di evitare che si impongano, nella corsa tecnologica, modelli contrari ai principi fondanti dell’Europa.

Già perché le città cinesi sono le più monitorate al mondo. La società di sicurezza Comparitech ha steso una classifica basata sul numero di telecamere a circuito chiuso ogni 1.000 persone: la Cina detiene il primato con otto delle prime 10 città più sorvegliate al mondo e l’apice si tocca a Chongqing, grande agglomerato urbano situato nel sud-ovest del paese dove confluiscono i fiumi Azzurro e Jialing. Nella graduatoria mondiale la Cina è seguita da Malesia e Pakistan, Usa, India, Indonesia, Filippine e Taiwan. Irlanda e Portogallo a fine elenco, Italia a metà.

Le uniche due città non cinesi nella top 10 sono Londra al sesto posto e Atlanta negli Stati Uniti al n. 10 mentre tra le città cinesi, oltre a Chongqing al primo posto con quasi 2,6 milioni di telecamere, ovvero 168,03 per 1.000 persone; Shenzhen, nella provincia meridionale del Guangdong, è arrivata al secondo posto con 159,09 telecamere per 1.000 persone. Urumqi, nota capitale della regione autonoma cinese dello Xinjiang Uygur si è classificata al 14esimo posto, con 12,4 telecamere per 1.000 persone.

Una fitta rete di scanner e fotocamere ricopre la maggior parte delle città cinesi. La complessa gamma di tecnologie di sorveglianza implementate in tutta la Cina ha suscitato un’attenzione diffusa ed una preoccupazione generale in varie parti del mondo.

Il focus dei media internazionali.

Due giornalisti del New York Times, Paul Mozur e Aaron Krolik, hanno esaminato il modo in cui i vari strumenti di sorveglianza vengono combinati all’interno di un sistema integrato costantemente connesso, fatto di tecnologie miste, alcune all’avanguardia ed altre piuttosto datate.

L’articolo, pubblicato a metà dicembre, descrive con ricchezza di particolari e riscontri video come queste funzionalità siano ormai diventate largamente disponibili per le Autorità di polizia di ogni livello e come i dati raccolti possano essere resi accessibili ad una vasta gamma di terze parti sia pubbliche, per scopi di intelligence e sicurezza pubblica, che private, per scopi commerciali e di marketing. Il tutto, peraltro, attraverso pratiche di sicurezza del tutto assenti se non inadeguate.

Scanner del telefono, tecnologia di riconoscimento facciale ed enormi database di volti e impronte digitali sono tra gli strumenti utilizzati.

“I dati di ogni persona formano una traccia – ha riferito alla testata Agnes Ouyang, impiegata in ambito tecnologico di Shenzhen – che può essere utilizzata dal Governo e dai dirigenti delle grandi aziende per mettere in atto forme di controllo e direzione. Le nostre vite valgono come spazzatura”.

Dati personali in mano alla polizia.

La polizia è stata autorizzata a divenire una sorta di custode indiscusso delle enormi quantità di dati personali, compresi i dati biometrici, dei suoi quasi 1,4 miliardi di persone. I lavoratori migranti, le minoranze, le voci contrarie al regime e i tossicodipendenti, sono tutti profilati.

E i casi d’uso emersi indicano procedure inquietanti quanto discutibili sotto molteplici profili di legittimità: dalla profilazione di donne ipotizzate come dedite alla prostituzione sulla base dei soli check-in effettuati in più di un hotel in una notte, alle verifiche e le perquisizioni nelle abitazioni di coloro che vivono in alloggi sovvenzionati per assicurarsi che non prestino assistenza ed ospitalità a persone contrarie al regime o dedite al crimine.

Edward Schwarck, uno studente che sta specializzandosi in sicurezza pubblica cinese presso l’Università di Oxford, ha approfondito il ruolo del ministero della Pubblica Sicurezza Cinese descrivendone lo sviluppo nel corso del tempo in chiave di intelligence.

Le sue analisi hanno evidenziato come il ministero iniziò a riformare ed aggiornare le sue strutture di intelligence all’inizio degli anni 2000 con l’intento di ristabilire il “dominio dell’informazione” su una società sempre più fluida e tecnologicamente sofisticata, e hanno dimostrato come lo stesso si sia adattato allo sviluppo tecnologico trasformando ed adeguando alle potenzialità offerte dalle nuove tecnologie le proprie procedure di raccolta, analisi e diffusione delle informazioni fino a dare forma all’attuale sistema di intelligence di pubblica sicurezza.

Secondo Schwarck “definire un modello simile come sistema di polizia basato sull’intelligence o sulle analisi predittive distoglie in realtà l’attenzione dal fatto che ciò che sta accadendo nello Xinjiang non riguarda affatto la polizia, ma una forma di vera e propria ingegneria sociale “.

Tecnologie dell’intelligence cinese.

La sorveglianza in Cina è chiaramente molto più di una semplice telecamera. Sniffer WiFi (software utili a localizzare rapidamente un segnale WiFi attivo) e tracker di targhe sono costantemente puntati su auto e telefoni; il riconoscimento facciale si è spinto fino ai complessi abitativi e all’interno delle metropolitane.

Paul Mozur, in un tweet descrive il sistema di sorveglianza che combina una stazione BTS (che acquisisce automaticamente le informazioni del telefono) con telecamere di riconoscimento facciale. “The idea was to directly link face info to phone info as people walked by”.

Il video allegato mostra il processo ineludibile di acquisizione delle immagini.

“I localizzatori telefonici sono ovunque in Cina. Spesso passano inosservati. Sono solo piccole scatole con antenne incastonate sotto installazioni di telecamere molto più intimidatorie”, riferisce Mozur.

Il controllo degli Uiguri.

Nello Xinjiang, dove la Cina ha “internato” 1 milione di Uiguri, il reporter del NYT, ha mappato i localizzatori telefonici presenti in uno dei quartieri della città vecchia di Kashga e ha trovato almeno 37 dispositivi su un’area di un chilometro quadrato in grado di registrare ogni arteria cittadina, comprese le pertinenze private delle abitazioni civili: “A Shaoxing alcuni tecnici incaricati hanno ricevuto il preciso compito di installare, nei pressi dei cancelli di ingresso, strumenti video di riconoscimento facciale” riporta Mozur. Il tutto con buona pace delle proteste e delle preoccupazioni rese palesi, non a caso, dai residenti coinvolti.

Sempre su Twitter, Simon Rabinovitch dell’Economist ha mostrato alcuni esempi di come i distributori delle tecnologie di sorveglianza abbiano sviluppato sofisticate tattiche di marketing nel presentare i propri prodotti non solo al mercato cinese bensì globale.

Ma le preoccupazioni sono forti. Preoccupazioni peraltro amplificate da un’analisi del Financial Times, che mostra come i gruppi cinesi esercitino un’influenza significativa nel definire gli standard internazionali in materia di tecnologia.

Il rapporto descrive in dettaglio come società tra cui ZTE, Dahua e China Telecom stanno proponendo standard per il riconoscimento facciale all’International Telecommunication Union (ITU) delle Nazioni Unite, l’organismo responsabile degli standard tecnici globali nel settore delle telecomunicazioni.

E IPVM, sito che si autodefinisce “autorità indipendente, leader a livello mondiale nel campo della videosorveglianza” ha ammonito:

Yuan Yang con un articolo sul Financial Times intitolato Il ruolo dell’IA nella repressione della Cina sugli Uiguri, ha reso noto quanto emerso da una serie di documenti “riservati” interni al Partito Comunista, i “China cables”. Ne è emerso un quadro dettagliato dei piani del Governo cinese nella regione di confine dello Xinjiang, dove sono stati arrestati circa 1,8 milioni di membri della minoranza musulmana del paese, gli Uiguri.

Altrettanto ha fatto un report del Consortium of Investigative Journalism sui sistemi di repressione e sorveglianza usate dal governo cinese contro le minoranze musulmane dello Xinjiang: “La tecnologia è in grado di guidare una violazione sistematica dei diritti su scala industriale”.

La polizia, secondo i documenti pubblicati, userebbe una piattaforma chiamata Ijop (Integrated Joint Operation Platform) per raccogliere e classificare dati personali e informazioni catturate da molteplici sensori come spyware installati nei telefonini, Wi-Fi sniffers e videocamere TVCC dotate di riconoscimento facciale e visione notturna, installate in stazioni di servizio, posti di blocco, ma anche scuole e palestre.

Tutti questi dati verrebbero quindi elaborati da sistemi di intelligenza artificiale per meglio identificare e mappare i residenti dello Xinjiang o contribuire in vario modo alla Dragnet cinese, ovvero il processo utilizzato dagli organi di polizia per rintracciare i sospetti criminali.

L’uso di questa piattaforma non è peraltro nuovo. Già nel 2016 alcuni report ne avevano descritto le caratteristiche: l’Ijop sarebbe in grado di raccogliere e classificare informazioni molto dettagliate sulle persone indagate, compreso l’aspetto, l’altezza, il gruppo sanguigno, il livello di educazione, le abitudini e la professione. Il report offre dunque una finestra senza precedenti sulla sorveglianza di massa nello Xinjiang.

Il controllo della comunità musulmana.

Nel report si parla inoltre di un’applicazione diffusa tra i musulmani chiamata Zapya, nota in cinese come Kuai Ya.

Zapya, sviluppata da DewMobile Inc., consente agli utenti di smartphone di inviare video, foto e altri file direttamente da uno smartphone all’altro senza essere connessi al Web (con ciò rendendola popolare in quelle aree in cui il servizio Internet è scarso o inesistente) e apparentemente incoraggia gli utenti a scaricare il Corano e condividerne gli insegnamenti religiosi con i propri cari.

“I cinesi hanno aderito ad un modello di sorveglianza basato sulla raccolta dei dati in larga scala, e che grazie all’intelligenza artificiale sarebbe in grado di prevedere in anticipo dove potrebbero verificarsi possibili reati – ha commentato James Mulvenon, direttore dell’Integrazione dell’intelligence presso SOS International, esaminando i documenti del governo cinese -. Quindi, con questo sistema, gli organi di polizia rintracciano in maniera preventiva tutte le persone che utilizzano o scambiano dati sospetti, prima ancora che abbiano avuto la possibilità di commettere effettivamente il crimine”.

L’autodifesa del governo cinese.

Il governo cinese ha bollato i report e i resoconti giornalistici come “pura invenzione e fake news”.

In una nota, l’ufficio stampa del Governo cinese ha dichiarato: “Non esistono ‘campi di detenzione’ nello Xinjiang. Sono stati istituiti centri di istruzione e formazione professionale per la prevenzione del terrorismo”.

Una “missione” talmente “necessaria” da aver indotto Pechino a chiedere fondi di finanziamento alla stessa Banca Mondiale, secondo il rapporto pubblicato dal sito americano Axios. Secondo i documenti visionati da Axios, i prestiti chiesti alla Banca Mondiale erano volti all’acquisto della tecnologia di riconoscimento facciale da utilizzare nella regione nord-occidentale dello Xinjiang in Cina. Per l’istituto bancario mondiale tali fondi non sono mai stati erogati.

Lo Xinjiang ha una popolazione di circa 22 milioni, 10 dei quali di etnia uigura che salgono a 12 considerando le altre minoranze turco-musulmane.

 Ad oggi, pur non disponendo di numeri ufficiali, sarebbero oltre un milione gli Uiguri detenuti nei “campi di rieducazione e addestramento” della regione.

Tale misura viene giudicata necessaria dal Consiglio di Stato, il supremo organismo amministrativo della Repubblica Popolare cinese, per “rimuovere il tumore maligno del terrore e dell’estremismo che minaccia le vite e la sicurezza della gente, custodire il valore e la dignità delle persone, proteggere il diritto alla vita, alla salute, allo sviluppo, e per assicurare il godimento di un ambiente sociale pacifico e armonioso”.

Ma sul punto merita di essere evidenziato come il Parlamento Europeo con una Risoluzione approvata il 19 dicembre scorso abbia fermamente condannato le pratiche repressive e discriminatorie messe in atto dal governo di Pechino nei confronti degli uiguri e delle persone di etnia kazakha.

I deputati UE hanno chiesto alle autorità cinesi di garantire ai giornalisti e agli osservatori internazionali un accesso libero alla Regione autonoma uigura dello Xinjiang per valutarne la situazione.

Secondo gli europarlamentari è essenziale che l’Ue sollevi la questione della violazione dei diritti umani in Cina in ogni dialogo politico con le autorità cinesi ed hanno chiesto al Consiglio di adottare sanzioni mirate e di congelare i beni, se ritenuto opportuno ed efficace, contro i funzionari cinesi responsabili di una grave repressione dei diritti fondamentali nello Xinjiang.

Il sistema Xue Liang.

«Xue Liang», ovvero «Occhio di falco» è il nome del programma di videosorveglianza a tappeto del presidente Xi Jinping e di Pechino.

Un network di sorveglianza onnipresente, totalmente connesso che comprende progetti di videosorveglianza di massa che incorporano la tecnologia di riconoscimento facciale compreso quello emozionale; software di riconoscimento vocale in grado di identificare gli altoparlanti durante le telefonate; e un programma ampio e invadente di raccolta del DNA.

Gli operatori di telefonia in Cina hanno oggi l’obbligo di registrare le scansioni facciali di chi compra un nuovo numero di telefono o un nuovo smartphone poiché come dichiarato a settembre dal ministero cinese dell’Industria e dell’information technology una tale decisione mira “a tutelare i diritti legittimi e gli interessi dei cittadini online”.

Il Great Firewall cinese blocca decine di migliaia di siti Web oltre a fungere da strumento di sorveglianza.

Non ultimo il sistema nazionale di credito sociale (un insieme di «modelli» per verificare l’«affidabilità» delle persone associandole a un punteggio e a blacklist) inteso a valutare “e dunque prevenire” la condotta di ogni cittadino cinese in ogni ambito dall’accesso al credito alla tendenza alla commissione dei crimini.

L’utilizzo dei big data.

I big data costituiscono la risorsa inestimabile per fare tali previsioni. I funzionari possono attingere a questa capacità per gestire crimini, proteste o impennate dell’opinione pubblica online.

Un network quindi dove la repressione del crimine va di pari passo con l’analisi di polizia predittiva e la censura con la propaganda: coloro che esprimono opinioni non ortodosse online possono diventare soggetti di attacchi personali mirati nei media statali. La sorveglianza e l’intimidazione sono ulteriormente integrate da una vera e propria coercizione, tra cui visite di polizia, arresti, “confinamenti rieducativi”.

Il nuovo Panopticon: non solo cinese.

L’origine dell’odierno Panopticon cinese e la sua inarrestabile evoluzione non sono altro che il risultato di un’accelerazione resa possibile dalla grande trasformazione tecnologica del paese (e con essa la nuova straordinaria capacità di raccogliere dati biometrici da parte di Pechino).

Il «sistema dei crediti sociali» rappresenta solo uno dei tanti aspetti oscuri e distopici dei piani di ingegnerizzazione sociale in Cina.

Se infatti da una parte i crediti sociali mirano a creare una società basata sulla fiducia dove però cosa è virtuoso e morale lo decide il partito comunista, un’ulteriore «griglia sociale» sarà stabilita dalle smart city, a loro volta governate socialmente attraverso crediti sociali e capacità tecnologiche che consentono raccolta ed elaborazioni di dati continua.

La diffusione della sorveglianza, in particolar modo applicata all’AI, continua senza sosta.

E se Il suo utilizzo da parte di regimi autoritari per progettare repressioni contro popolazioni mirate ha già suonato campanelli d’allarme, tuttavia anche in paesi con forti tradizioni di stato di diritto, l’IA (intelligenza artificiale) fa sorgere problematiche etiche fastidiose ed urgenti.

Un numero crescente di stati nel mondo oltre alla Cina sta implementando strumenti avanzati di sorveglianza dell’IA per monitorare, rintracciare e sorvegliare i cittadini per raggiungere una serie di obiettivi politici: alcuni legali, altri che violano palesemente i diritti umani e molti che cadono in una via di mezzo oscura.

Questo è il quadro descritto da Carnegie Endowment for International Peace, uno dei più antichi e autorevoli think tank statunitensi di studi internazionali.

“La tecnologia legata alle società cinesi – in particolare Huawei, Hikvision, Dahua e ZTE – fornisce la tecnologia di sorveglianza dell’IA in 63 paesi, 36 dei quali hanno aderito alla Belt and Road Initiative cinese” afferma il Rapporto.

Oltre alle società cinesi, la giapponese NEC fornisce la tecnologia di sorveglianza dell’IA a 14 paesi e IBM in 11 paesi, secondo il rapporto Carnegie. “Anche altre società con sede in democrazie liberali – Francia, Germania, Israele, Giappone – svolgono un ruolo importante nel proliferare di questa tecnologia”. Tutti questi paesi, evidenzia il Rapporto “non stanno però adottando misure adeguate a monitorare e controllare la diffusione di tecnologie sofisticate collegate a una serie di importanti violazioni”.

Gli esperti esprimono preoccupazione in merito ai tassi di errore del riconoscimento facciale e all’aumento dei falsi positivi per le popolazioni minoritarie.

 Il pubblico è sempre più consapevole dei pregiudizi algoritmici nei set di dati di addestramento di AI e del loro impatto pregiudizievole sugli algoritmi di polizia predittiva e altri strumenti analitici utilizzati dalle forze dell’ordine.

Anche applicazioni IOT benigne (internet delle cose) – altoparlanti intelligenti, blocchi di accesso remoti senza chiave, display con trattino intelligente per autoveicoli – possono aprire percorsi problematici alla sorveglianza.

Le tecnologie pilota che gli Stati stanno testando ai loro confini – come il sistema di riconoscimento affettivo di iBorderCtrl – si stanno espandendo nonostante le critiche che si basano su scienza difettosa e ricerca non comprovata. Inevitabilmente sorgono le domande inquietanti sull’accuratezza, correttezza, coerenza metodologica e impatto pregiudizievole delle tecnologie di sorveglianza avanzate.

Tecnologia e progresso sostenibile.

Una volta apprezzata la crescente ubiquità degli algoritmi e le loro potenzialità nel bene come nel male, e una volta compresa l’urgenza del tema, la necessità di pensare in modo critico e consapevole sui sistemi di sorveglianza e certo sugli algoritmi di AI in generale diventa evidente.

Non servono, però, approcci solo teorici o peggio solo distopici.

Parlando di intelligenza artificiale – ci riferiamo a qualcosa che in realtà ha zero intelligenza e zero semantica: il significato e il senso lo danno le persone.

Che si parli di stato totalitario o di sorveglianza di massa piuttosto che di monopolio digitale e di capitalismo di sorveglianza, il solo discrimine e la vera ricchezza tra ciò che ci consentirà o meno di guidare consapevolmente ed efficacemente il percorso verso un progetto umano sostenibile e la necessaria riconciliazione tra l’umanità e lo sviluppo tecnologico, dipende in primis dall’uomo stesso.

Se la strategia cinese mira al controllo totalitario della propria società e al predominio in campo scientifico entro il 2030, quella russa si concentra sulle applicazioni in materia di intelligence e d’altra parte, negli Stati Uniti, il modello liberista ha creato una biforcazione tra settore pubblico e privato, in cui i colossi tecnologici della Silicon Valley puntano alla mercificazione deregolata delle opportunità tecnologiche. E, ancora oggi, il ruolo dell’Unione europea nell’ecosistema digitale globale è in gran parte ancora da decidere.

“E gli uomini vollero piuttosto le tenebre che la luce” come ha tradotto dal greco neotestamentario Giacomo Leopardi in epigrafe a La ginestra o il fiore del deserto.

 

 

 

Controllo digitale.

It.wikipedia.org-Redazione-(4-3-2021) – ci dice:

 

Microcontrollore.

Il controllo digitale è una branca della teoria dei controlli che utilizza dispositivi elettronici digitali per il controllo di sistemi dinamici: a seconda dei requisiti, un sistema di controllo di questo tipo può avere la forma di un ASIC, un microcontrollore oppure un normale computer. L'applicazione del controllo digitale può essere prontamente compresa nell'utilizzo del concetto di retroazione. Siccome un computer digitale lavora con dati discreti (cioè non continui), nell'ambito di analisi e sintesi di questi sistemi si sfrutta diffusamente la trasformata zeta al posto della trasformata di Laplace. Inoltre, disponendo un computer di una precisione finita (si veda la voce quantizzazione), è necessaria cautela per assicurare che l'errore nei coefficienti, la conversione analogico-digitale, la conversione digitale/analogica, ecc. non producano effetti indesiderati o imprevisti.

Vantaggi.

Dalla creazione del primo computer digitale nei primi anni quaranta i costi sono scesi in maniera considerevole, il che li ha resi componenti-chiave per le seguenti ragioni:

economicità: meno di 5 dollari per molti microcontrollori

flessibilità: facilità di configurare e riconfigurare attraverso software

operazioni statiche: minore sensibilità alle condizioni ambientali rispetto a capacità, induttori, ecc.

scalabilità: la dimensione dei programmi può crescere sino ai limiti della memoria o dello spazio di memorizzazione senza costi aggiuntivi

adattabilità: i parametri del programma possono cambiare con il tempo (si veda la voce controllo adattativo)

Implementazione di un controllore digitale

Un controllore digitale è solitamente messo in cascata con la linea da controllare in un sistema a reazione. Il resto del sistema può essere o digitale o analogico.

Tipicamente si richiede:

conversione analogico-digitale: per convertire gli ingressi analogici in una forma leggibile dalla macchina.

conversione digitale-analogica: per convertire le uscite digitali in una forma che possa essere messa in ingresso alla linea da controllare.

un programma che metta in relazione le uscite con gli ingressi.

Programma d'uscita.

le uscite del controllore digitale sono funzione dei campioni presenti e passati, così come dei valori già mandati in uscita. Questo può essere implementato memorizzando i valori rilevanti di ingresso e d'uscita in dei registri. L'uscita può essere così calcolata come media pesata di tali valori.

I programmi possono assumere svariate forme ed effettuare molteplici funzioni:

un filtro digitale per il filtraggio passa-basso (quelli analogici sono preferiti, in quanto introducono meno ritardo);

un modello dello spazio degli stati di un sistema che si comporti come osservatore dello stato;

un sistema di telemetria.

Stabilità.

Si noti che sebbene un controllore possa essere stabile quando implementato in maniera analogica, potrebbe essere instabile nel caso digitale per via di un lungo intervallo di campionamento. Per questo l'intervallo di campionamento caratterizza il transitorio e la stabilità del sistema compensato, e deve aggiornare i valori in ingresso al controllore con una frequenza tale da non causare instabilità.

 

 

 

 Ue: Paesi scelgono Fasce orarie

per il Taglio dei Consumi.

Conoscenzealconfine.it – (13 Settembre 2022) – Redazione- Ansa.it- ci dice:

La Commissione europea proporrà un obiettivo obbligatorio di riduzione dei consumi di elettricità durante le ore di picco.

 

È quanto emerge dalla bozza di regolamento in materia, che l’ANSA ha potuto consultare. La bozza propone anche un limite obbligatorio ai ricavi degli operatori che producono energia da rinnovabili, nucleare e lignite, cioè diverse dal gas.

Il limite si applicherà ai ricavi per MegaWatt ora di elettricità prodotta. Le eccedenze di ricavi derivanti dall’applicazione del cap dovranno essere ‘girate’ a cittadini e imprese “esposti a prezzi elevati dell’energia elettrica”, con gli Stati a decidere le misure redistributive più adatte.

La bozza prevede anche l’obbligo di incentivare i contratti di acquisto a lungo termine, che servono a iniettare liquidità nel mercato delle rinnovabili. Gli Stati potranno anche condividere l’extragettito e estendere alle Pmi i prezzi regolati. Infine, si legge nella bozza, gli Stati membri saranno obbligati a introdurre un “contributo di solidarietà eccezionale e temporaneo per l’industria fossile”, “sulla base dell’utile imponibile realizzato nell’anno fiscale 2022” e solo in quell’anno. Le proposte passeranno via articolo 122, cioè direttamente dagli Stati, che potranno emendarle e approvarle a maggioranza qualificata.

Riduzione obbligatoria dei consumi di elettricità sulla base di un target mensile, lasciando ai singoli Stati membri la discrezionalità di individuare in quali ore implementare tale taglio. È su questo binario che, a quanto si apprende, dovrebbe svilupparsi la proposta della Commissione Ue sul taglio ai consumi energetici, prevista per oggi dopo il collegio dei Commissari. Secondo la bozza visionata dall’ANSA “il target obbligatorio dovrebbe risultare dalla selezione di una media di 3-4 ore di picco” individuate “per ogni giorno feriale” sulla cui scelta gli Stati membri hanno “un margine di discrezionalità”.

La fascia oraria in cui implementare la riduzione dei consumi, si legge sulla bozza, “potrebbe includere anche quelle nelle quali la generazione di elettricità da fonti rinnovabili è bassa”. Il target della riduzione dei consumi non è quantificato nella bozza e sarà oggetto di dibattito quando si riunirà il collegio dei commissari.

 

La settimana scorsa l’orientamento della Commissione era quello di una riduzione del 10%. La quantificazione del taglio mensile viene fatta con il raffronto con lo stesso mese nel “periodo di riferimento”, basandosi sulla media dei consumi dei 5 anni precedenti al periodo 1° novembre-31 marzo, nel quale l’Ue chiede il taglio della domanda.

(ansa.it)

 

 

 

 

Contro l’Educazione di Stato:

ci vogliono far Morire senza Figli

o vogliono Sottrarceli per indottrinarli.

Conoscenzealconfine.it – (12 Settembre 2022) - Chiara Volpe -ci dice:

 

Stampaglia immonda, cantantucoli di filastrocche estive, influencer per deficienter, persino pornostar tramutate in intellettuali si sbattono per discutere di questioni di cultura e morale che dovrebbero urgentemente dar luogo a misure statali.

Nei sogni di qualcuno c’è un Paese ateo, multietnico, in cui i bambini non appartengono ai genitori naturali e non spetta loro educarli.

Qui, nessun genitore ha diritto ad essere informato o a non essere d’accordo con le lezioni o le attività che si svolgono in asili obbligatori, in materia di morale, sesso e coscienza. Il contrario potrebbe rappresentare un atto di censura educativa intollerabile, a svantaggio della libertà di ognuno di ricevere un’educazione che sia legale.

L’indottrinamento statale ribalta ruoli fondamentali, ribadisce e promuove l’odio verso le proprie origini, diseduca attraverso un lavaggio del cervello sin dalla più tenera età, affinché si scelga di essere soldati e figli adottivi, a disposizione dalla nascita alla morte, non più individui autonomi quindi, e senza alcun peso.

Dovesse davvero andare come auspicano, cosa accadrà? I bambini staranno in casa fino ad una certa età e poi verranno prelevati e condotti in scuole dirette da maestri selezionati? Ci sarà un test anche per gli scolari che terrà conto della robustezza del candidato? E se si preferisse una scuola parentale? E se i genitori volessero fare iniziare il proprio figlio dalle elementari, ci sarebbe da aspettarsi le forze dell’ordine a casa?

Col pretesto di aiutare le famiglie dove i coniugi lavorano (in particolare, le donne) e di elevare il livello di istruzione, di eliminare le “prime odiose diseguaglianze” tra studenti, hanno palesemente intenzione di forgiare le menti, affinché ciò abbia ripercussioni psicologiche, oltre che materiali.

Consegnare obbligatoriamente un individuo allo Stato equivale a separarlo dal proprio nucleo, che indirizza e guida ed è anche protettivo, di sostegno. Un individuo solo e isolato è debole e facilmente manipolabile.

Inoltre, all’atto pratico, l’estensione dell’obbligo scolastico rappresenterebbe un costo ulteriore per lo Stato, perché ci si dovrebbe occupare di garantire la disponibilità di posti per tutti i bambini nelle scuole d’infanzia e anche per tutti i ragazzi in quelle superiori, assumere dunque nuovo personale e costruire nuove strutture dopo aver rinnovato le vecchie. Ma soprattutto, la scuola dovrebbe essere gratuita, in ciò comprendendo i costi affrontati per le strutture paritarie.

Un sistema auto-distruttivo, a tratti utopistico, venduto come vantaggioso per la comunità.

A uno Stato che si fa Dio, che vorrebbe derubare tutti, che fondamentalmente odia l’individuo sin da quando nasce e anche prima e, soprattutto, odia il suo sacrosanto diritto di essere libero e di esercitare tale libertà, bisogna dire di no, rifiutarsi sempre e comunque, se è il caso, dichiaragli guerra.

Uno Stato saggio dovrebbe attuare altre politiche, invece noi siamo importanti solamente se lavoriamo, produciamo, paghiamo le tasse, facciamo silenzio accettando tutto e infine moriamo. Possibilmente senza figli.

(Chiara Volpe - ildetonatore.it/2022/09/08/contro-leducazione-di-stato-ci-vogliono-far-morire-senza-figli-o-sottrarceli-per-indottrinarli-di-chiara-volpe/)

 

 

 

Ma quale Inverno Nucleare?

Se Scoppiasse un Conflitto Nucleare

non sarebbero le Città ad essere Colpite…

Conoscenzealconfine.it-( 12 Settembre 2022) - Claudio Martinotti Doria -ci dice:

 

Mi capita, con sempre maggiore frequenza, di assistere a video on line nei quali presunti esperti descrivono i rischi di escalation militare del conflitto in corso in Ucraina, prospettando un pericolo di guerra nucleare.

Tra l’altro colgo l’occasione per riflettere sul fatto che i video stanno proliferando mentre gli articoli seri ed esaustivi latitano, presumo per il semplice fatto che sia molto più facile fornire un video a volte improvvisato e superficiale, rispetto a uno scritto meditato, documentato e ponderato.

Devo dedurre che si sceglie la via più comoda per comunicare, che non è garanzia che sia anche quella più consona a informare correttamente. E questo purtroppo accade nella cosiddetta informazione indipendente detta impropriamente controinformazione. Che è uno dei motivi per cui ho sempre rifiutato di prestarmi a interviste e a interventi in video, anche per canali con decine di migliaia d’iscritti, quando non centinaia di migliaia.

Preferisco scrivere, anche se i lettori saranno sempre pochi, perché leggere e capire costa fatica, rispetto all’essere spettatori passivi.

In quasi tutti questi video cui mi riferisco, si descrive perlopiù il rischio di una guerra nucleare utilizzando paradigmi obsoleti e anacronistici, tipici della prima Guerra Fredda, cioè risalenti a una quarantina e oltre di anni fa.

E così facendo non si offre un buon servizio d’informazione ma si contribuisce a creare il panico nella popolazione, facendo il gioco del sistema di potere, seppure in buona fede.

Per citare un esempio che rende bene l’idea, quasi tutti questi presunti esperti descrivono le conseguenze di una guerra nucleare come si sarebbe svolta negli anni ’70 e ’80 se fosse esplosa all’epoca. Insistono, infatti, sugli effetti che avrebbe sulla popolazione dando per scontato che si colpirebbero le città con ordigni nucleari di parecchi chilotoni o addirittura megatoni se ricorressero alle armi termonucleari, che sono molto più potenti.Ma perché mai allo stato attuale della tecnologia e strategia militare si dovrebbero bombardare le grandi città? Per estinguere l’umanità? E a chi gioverebbe la distruzione reciproca?

Personalmente non condivido quest’approccio nel valutare il rischio di un conflitto nucleare, pur non escludendolo. Semplicemente sono convinto che non avverrebbe in questo modo.

Le città a mio avviso non costituiscono un obiettivo primario. Gli obiettivi di un conflitto nucleare sarebbero semmai militari e strategici, colpirebbero cioè basi e depositi militari, aeroporti, porti, centri di comando e controllo e di comunicazione, satelliti, navi, sottomarini e portaerei, centrali elettriche, ecc. …

E per farlo ricorrerebbero a bombe nucleari tattiche, cioè a bassa potenza e con fallout ridotto. Il pericolo di estinzione dell’umanità paventato dai presunti esperti sarebbe ridotto. Chi colpisse per primo sarebbe ovviamente favorito, soprattutto se lo facesse con un numero elevato di ordigni lanciati quasi contemporaneamente, non dando modo all’avversario di fare altrettanto.

Quello sopra rappresentato è forse il pericolo maggiore, perché indurrebbe una delle grandi potenze a colpire per prima, contando sulla presunzione di disporre di armi più sofisticate e non in grado di essere intercettate.

Il pericolo maggiore in termini culturali e d’impostazione guerrafondaia e psicopatica è indubbiamente rappresentato in questa epoca dagli USA e UK, che però fortunatamente non dispongono delle armi più sofisticate (ipersoniche) in materia nucleare, essendo i russi e i cinesi molto più avanzati tecnologicamente di loro.

Spero pertanto che la consapevolezza della loro inferiorità militare li faccia desistere, perché sono pressoché certo che se le parti fossero invertite non esiterebbero a colpire per primi, come del resto dichiarato esplicitamente dal neo premier UK Liz Truss in una sua recente intervista, nella quale si vantava che non esiterebbe a ordinare l’impiego di armi nucleari se la situazione secondo lei lo richiedesse.

Un soggetto quest’ultimo che emula pateticamente la Lady di Ferro nel suo decisionismo, ma senza possederne neppure una minima porzione di capacità, cultura e lungimiranza, essendo di un’ignoranza conclamata.

I mediocri e gli stupidi in posizione di potere politico sono funzionali al sistema finanziario dominante, perché prendono ordini senza valutare criticamente e responsabilmente le ripercussioni sulla popolazione.

 Ecco perché contribuiscono ad aumentare la tensione e le provocazioni, gettando benzina sul fuoco, per indurre la Russia alla prima reazione nucleare, sperando sia di modesta entità, quanto basta per giustificare un loro intervento congiunto come NATO contro la Russia.

Si tratterebbe in ogni caso di pura ipocrisia, perché la NATO è già di fatto cobelligerante in Ucraina contro la Russia, essendo presenti in combattimento migliaia di loro truppe, seppur con divise ucraine.

 E la Russia sarebbe perfettamente giustificata dal punto di vista giuridico bellico a considerare i paesi NATO in guerra contro di essa, sia per le forniture di armi all’Ucraina sia per la presenza di loro soldati al fronte.

Quindi se la situazione degenerasse in un conflitto nucleare, è vero che avremmo pressappoco le ripercussioni descritte dai pseudo esperti che straparlano di inverno nucleare, ma non perché raderebbero al suolo le città con estinzioni di massa conseguenti, ma perché la distruzione sistematica degli obiettivi militari e strategici, azzererebbe tutti i servizi cui siamo abituati, torneremmo cioè all’età della pietra, quantomeno per un periodo più o meno lungo, privandoci di tutto quello cui siamo abituati e che diamo per scontati: dall’acqua potabile, all’energia elettrica, dal collegamento a internet all’uso dei cellulari, dai rifornimenti presso i supermercati a tutti i mezzi che la modernità ci ha fornito. Non funzionerebbe più nulla, soprattutto per gli effetti elettromagnetici provocati dalle esplosioni nucleari, oltre alla distruzione dei siti di produzione ed erogazione dei servizi.

A morire nelle fasi immediatamente successive alle esplosioni nucleari locali sarebbero le popolazioni presenti nei siti colpiti e nelle loro immediate vicinanze. Le altre località potrebbero subire gli effetti delle limitate ricadute del materiale radioattivo, secondo la direzione dei venti in ogni singola area geografica.

Il problema per l’Italia sarebbe comunque molto grave, essendo il paese NATO con il maggior numero di basi militari straniere sul proprio suolo, tra cui due aeroporti militari dotati di decine di bombe nucleari, e il più grande deposito di armi dell’intero continente, situato in Toscana.

Credo che quanto da me descritto sia più attinente ai rischi reali che stiamo correndo, molto più che descrivere di presunti bombardamenti sulle grandi città che raderebbero al suolo non solo la superficie urbana ma l’intero paese, che se non immediatamente distrutto diverrebbe comunque invivibile per i decenni a venire per gli effetti devastanti e nefasti della radioattività e dei cambiamenti climatici, questi si reali e non fittizi.

È pertanto corretto essere preoccupati per i rischi reali che stiamo correndo ma non ricorrendo a paradigmi di quarant’anni fa ma a ipotesi molto più plausibili e aggiornate, come quelle cui ho fatto riferimento.

Come si possono evitare questi rischi? Prendendo una chiara, netta e risoluta posizione contro i guerrafondai e i loro complici in tutti i governi europei, manifestando con forte determinazione la propria contrarietà a rifornire l’Ucraina di armi e a farsi usare come carne da cannone dagli angloamericani per i loro interessi.

Che lo facciano i paesi dell’est europeo è comprensibile, essendo russofobi e colonie anglosassoni finanziate lautamente, ma che noi nell’occidente europeo ci si presti a questo gioco al massacro, è da utili idioti e imbecilli suicidi, avendo tutto da perdere, compresa la vita.

(Dottor Claudio Martinotti Doria- cavalieredimonferrato.it/)

 

 

 

Politica e popolarità online:

il potere degli algoritmi.

Fondazionefeltrinelli.it- Giovanni Boccia Artieri- (27 gennaio 2020)- ci dice:

 

Proponiamo un estratto del testo di Giovanni Boccia Artieri, professore ordinario di Sociologia della comunicazione e dei media digitali all’Università di Urbino Carlo Bo, dal Rapporto di ricerca di Politica oltre la politica.

Nel saggio lo studioso sviluppa una riflessione sull’intreccio caratteristico della comunicazione politica contemporanea fra popolarizzazione e personalizzazione facilitato dalle dinamiche di disintermediazione legate ai social media.

Ci troviamo, infatti, in un’epoca di transizione in cui la politica si trasforma attraverso un percorso di “spettacolarizzazione” per riuscire a raggiungere anche strati sociali solitamente meno interessati alle vicende politiche (in Italia un esempio può essere considerato l’ingresso di Matteo Salvini su Tik Tok, piattaforma social usata dai teenager), a dimostrazione di un più ampio mutamento culturale. Diventa quindi cruciale sapersi orientare in un contesto ancora non pienamente compreso, fra il ruolo degli algoritmi e le nuove forme di mediazione dei social in cui prevalgono logiche di affinità che rischiano di degenerare in “echo chambers” dove tramonta il dubbio metodico e resiste solo una logica pericolosamente settaria.

Popolarità e visibilità online: l’azione di mediazione degli algoritmi.

Un punto da affrontare riguarda il nesso fra popolarità, affordance delle piattaforme e struttura del network. Il che richiede di riflettere in che modo la dimensione della popolarità si intreccia a quella della visibilità online, cioè alla capacità che ha un contenuto di emergere nel flusso di contenuti visibili ai singoli account e divenire un contenuto condivisibile in quanto condiviso da un numero significativo di nodi della rete o da una nicchia di pubblico altamente motivata.

Internet in generale e i social media in particolare, funzionano come piattaforme di connessione tra le persone che lavorano sulle relazioni ad un livello che non ha precedenti in termini di numerosità e di velocità.

 Se pensiamo alla rete come un fattore di mediazione, dobbiamo considerare la natura “interna” di tale mediazione, cioè alle dinamiche di diffusione dell’informazione a partire dalle possibilità di pubblicazione online di UGC (Univer Generated Content) attraverso specifiche piattaforme e la sua propagazione e trasformazione attraverso le piattaforme stesse.

 L’azione di mediazione è in tal senso operata attraverso gli algoritmi, cioè degli agenti matematici capaci di tradurre i metadati dei contenuti e i comportamenti agiti su di essi (visualizzazioni, condivisioni, reazioni) in “pesi” capaci di produrre una visibilità del contenuto stesso a fronte di dinamiche selettive – come ad esempio la ricerca attraverso un motore, il suo ranking in una piattaforma o una maggiore visibilità nell’esplorazione delle proprie reti connesse da parte di un utente.

In tal senso un contenuto diventa popolare quando diventa visibile nell’economia dell’informazione di una specifica piattaforma – ad esempio su Twitter come Trending Topics – o per il fatto di ottenere condivisioni sia significative numericamente sia capaci di penetrare network diversi sfruttando la porosità delle bolle comunicative.

Allo stesso tempo – in modo simmetrico – la formazione di echo chambers su specifiche piattaforme consente a un contenuto di assumere una popolarità “interna” dandogli valore assoluto, proprio per l’impossibilità di osservare da un punto di vista esterno.

Se ad esempio la mia rete di riferimento su Facebook coincide con una sorta di bolla in cui si rendono visibili solo contenuti politici di una determinata componente politica o con un orientamento specifico su una tematica – ad esempio antivaccinista – si genererà una popolarità di contenuti interna che finisce per dare per scontato che quel contenuto sia visibile urbis et orbis.

A differenza della popolarità mediale dove sono le testate a fornire la visibilità di un contenuto alle audience così da renderlo familiare e popolare, su Internet e in particolare nella logica dei social network, ogni nodo sarà soggetto ai meccanismi di messa in visibilità delle piattaforme che frequenta o dei motori di ricerca che utilizza per informarsi. In pratica la visibilità che porta alla popolarità è assoggettata alle dinamiche dell’algoritmo.

L’acquisizione di visibilità di un contenuto politico nei media mainstream deve passare dalla mediazione di professionisti dell’informazione che trattano eventi e fatti a partire da norme e procedure condivise.

Online, diversamente, è possibile sviluppare strategie di messa in visibilità che sfruttano le dinamiche di disintermediazione, cioè di contatto diretto fra fonte che produce il contenuto e le audience diffuse. E ciò anche attraverso processi tecnici – talvolta al limite della liceità morale – che fanno leva su come gli algoritmi rendono visibili i contenuti.

Per fare un esempio, su Facebook l’algoritmo di visibilità combina selettivamente i diversi contenuti secondo pesi pre-determinati che tengono conto sia di criteri decisi dalla piattaforma (ad esempio il peso di amici e familiari a scapito di editori e brand) sia dei comportamenti degli utenti (ad esempio reactions e commenti ai posts).

La presenza dell’algoritmo rappresenta in tal senso una forma cibernetica di controllo della complessità e della contingenza che permette a Facebook di operare in modo autonomo e di produrre il suo ordine interno (Boccia Artieri & Gemini 2019). Da questo ordine alcuni contenuti emergono rispetto ad altri ma in quanto, appunto, “realtà emergente” da una serie di fattori la cui selettività è allo stesso tempo predeterminata e contingente.

In tal senso il monitoraggio della popolarità e del sentiment online sui temi costituisce un momento propedeutico alla produzione di contenuti popolari, cioè con possibilità di essere diffusi in quanto incontrano la propensione delle persone.

Ad esempio, quello che viene definito nell’ambito della comunicazione online di Matteo Salvini come “La Bestia” – così definito un po’ mitologicamente nel giornalismo – altro non pare essere che «un semplice strumento di monitoraggio della rete.

Un tool in grado di leggere commenti e conversazioni che riguardano un argomento specifico, come ce ne sono tanti in giro. Se anche così fosse sarebbe una novità comunque se fosse utilizzato sistematicamente. Non mi risultano staff politici che ne fanno un uso sistematico. L’ascolto è importante. Certo, in questo caso, molto spesso è funzionale a riattizzare il fuoco delle polemiche più che a comprendere per costruire proposte risolutive di problemi» (Cosenza, 2019).

Si tratta quindi di un listing tool utile alla social media manager guidati da Luca Morisi, spin doctor digital della Lega, per indicare momenti e temi sui quali prendere posizione, sfruttando magari una certa propensione di pubblici online ad accordare attenzione e lasciarsi emotivamente colpire.

Un altro esempio è costituito invece dalla costruzione di reti online di supporto, utili alla condivisione e amplificazione di contenuti, che possono essere organiche o artificiali.

Nel primo caso si tratta di reti auto-organizzate, ad esempio da attivisti politici, dove spesso i singoli utenti possono governare diversi profili e prendere decisioni di intervenire in precisi momenti per supportare un determinato profilo politico o scoraggiarne un altro: «è normale vedere un utente pro-Lega o pro-M5S gestire anche cinque account con nomi diversi: cento persone in un gruppo segreto di Facebook o su un canale Telegram, con cinque account ciascuno, fanno 500 troll pronti ad attaccare, e scoraggiare utenti standard a un confronto politico».

Nel secondo caso parliamo della costruzione di botnet, ad esempio su Twitter, particolarmente diffuse nella comunicazione politica contemporanea (Howard, Woolley & Calo 2018) costituite da account falsi ma riconducibili a utenti verosimili (con foto profilo e nome proprio) che tendono ad avere pochi follower, a produrre gli stessi tweet moltiplicando l’effetto di diffusione di un contenuto e a sparire in seguito dalle piattaforme di social networking.

Ad esempio, un’analisi svolta da ricercatori della City, University of London (Bastos & Mercea 2017) a proposito della Brexit ha individuato su Twitter una rete di oltre 13.000 account sospetti (una vera e propria botnet) che hanno twittato prevalentemente messaggi pro-Brexit prima di essere eliminati o rimossi da Twitter durante il ballottaggio.

La ricerca evidenzia, da una parte, come sia possibile costruire una strategia di comunicazione attraverso political bot capaci di diffondere specifici contenuti in tempi molto rapidi e con buona penetrazione in comunità online e che il contenuto ritwittato comprende notizie hyper-partisan generate dagli utenti ma la cui durata di conservazione è notevolmente breve.

 La rapidità e la penetrazione di specifici contenuti online finiscono in tal senso per amplificare il portato valoriale di determinate idee (Bruns e Burgess 2011): l’associarsi di velocità e massa di utenti raggiunta sovra-determina il valore di una specifica notizia e delle questioni associate, amplifica i fenomeni, produce istantaneamente senso comune. In pratica questo lavoro mette al centro una delle dinamiche della post-verità che non ha a che fare necessariamente con la produzione e diffusione sistematica di contenuti falsi ma con il rischio di distorsione potenziale delle forme di comunicazione pubblica.

In pratica «è possibile usare botnet sofisticate per forzare gli algoritmi di visibilità delle piattaforme (più facile su Twitter che altrove), ma si tratta di strategie di breve periodo e che funzionano quando quelle reti di bot poi riescono a intercettare il sentimento di persone vere che rilanciano quei contenuti. In pratica con quelle tecniche si accende il primo focolaio, poi c’è bisogno di un humus specifico per far sviluppare l’incendio» (Cosenza, 2019).

In tal senso è possibile far diventare una particolare notizia o una particolare posizione politica un elemento di cultura condivisa, rendendola virale in tempi stretti attraverso la capacità di replicarla e renderla visibile agendo sulla botnet.

L’effetto finale è quello di una “popolarità affidabile”, confermata sia dall’autorevolezza della fonte, ad esempio un leader politico che la condivide sui suoi profili, sia dal numero di condivisioni che la rendono in quel modo difficilmente contestabile.

 

 

 

Non lasciare mai che una

buona crisi vada sprecata.

Unz.com- FILIPPO GIRALDI – ( 13 SETTEMBRE 2022)- ci dice:

 

Il reportage implacabile dell'Ucraina aiuta a nascondere altri conflitti.

È stupefacente quanti osservatori della guerra in Ucraina, che avrebbero dovuto conoscerla meglio, siano stati inclini a prendere alla lettera le affermazioni di “fonti” che chiaramente provengono dai vari governi coinvolti nel conflitto.

 Quei leader che sono impegnati nell'inesorabile marcia degli Stati Uniti e dei loro alleati per trasformare la crisi dell'Ucraina nella terza guerra mondiale hanno sicuramente imparato la lezione che gestire la narrazione di ciò che sta accadendo è l'arma più grande che i falchi della guerra hanno in loro possesso.

Si ricorda come dopo l'11 settembre e prima della guerra in Iraq, la Casa Bianca di George W. Bush e i neocon del Pentagono abbiano mentito su quasi tutto per convincere il pubblico che Saddam Hussein era un terrorista sostenitore del megalomane armato di armi di distruzione di massa, descrivendolo inevitabilmente come un uomo per certi versi paragonabile ad Adolf Hitler.

L'Iraq in un certo senso è stata un'esperienza di apprendimento per coloro al governo e anche per coloro che nei media hanno fatto il lavoro pesante propagando l'inganno a un pubblico in gran parte ignaro.

Ciò che stiamo vedendo ora in relazione all'Ucraina e alla Russia, tuttavia, fa sembrare l'esperienza dell'Iraq un gioco da ragazzi in termini di pura audacia delle presunte informazioni che le fanno, o non le fanno, nelle notizie.

Noto in particolare il recente attentato terroristico con un'autobomba alla giornalista attivista russa Dalya Dugina da parte di un assassino ucraino ha fatto notizia per circa quarantotto ore prima di scomparire, ma non prima che la menzogna secondo cui il primo ministro Vladimir Putin fosse responsabile fosse fermamente radicata in un certo numero di luoghi nei media mainstream.

Ora che Joe Biden sta per designare un generale a due o tre stelle a capo della campagna in Ucraina e ha promesso miliardi di dollari in più in aiuti, l'Ucraina sarà sempre la notizia.                                   Il coinvolgimento degli Stati Uniti avrà anche un nome accattivante.

Suggerirei l'Operazione Portafogli Vuoti, che è ciò che gli americani sperimenteranno presto a causa dei salvataggi del governo e di altre spese dissolute, o forse Operazione Give Me a Break.

E creerà anche una nuova dimensione nella formazione narrativa in quanto il dominio dell'Ucraina su ciò che esce dalle redazioni sta già uccidendo molto di ciò che altrimenti potrebbe apparire in TV o sui giornali. Quella gestione selettiva delle informazioni fornisce copertura per trascurare storie che potrebbero rivelarsi imbarazzanti per chi è al potere.

Tutto ciò porta ad esaminare cosa hanno combinato i due paesi che si sono dichiarati unilateralmente responsabili e responsabili dell'applicazione delle regole.

Questi due paesi forse non sono sorprendentemente gli Stati Uniti e Israele.

Gli Stati Uniti stanno, infatti, aumentando il loro ruolo di combattimento in Africa con attacchi aerei in Somalia, tutti avvenuti da quando il presidente degli Stati Uniti Joe Biden ha approvato la ridistribuzione di centinaia di truppe delle forze speciali in quel paese a maggio, annullando la decisione dell'ex presidente Donald Trump di ridurre i livelli di truppe in AFRICOM.

I due ultimi attacchi hanno ucciso almeno una ventina di somali, tutti ovviamente descritti come “terroristi” dal comando statunitense.

Fonti indipendenti affermano che le forze statunitensi hanno bombardato la Somalia almeno 16 volte sotto Biden, uccidendo tra i 465 ei 545 presunti militanti di al-Shabaab, inclusi non meno di 200 individui in un unico drone più le forze di terra hanno colpito il 13 marzo.

Descrivendo la scarsità di rapporti sulla questione, Kelley Beaucar Vlahos, consulente senior del Quincy Institute for Responsible Statecraft, ha osservato :                    "Se non sapevi che stavamo bombardando la Somalia, non sentirti male, questo è completamente sotto-il- notiziario radar, curiosamente assente dai titoli di tutti i principali giornali…”

E poi c'è la Siria, dove la scarsità di informazioni nei media riflette la politica della Casa Bianca. Gli Stati Uniti, che hanno forse fino a una dozzina di basi illegali in Siria, hanno un'importante base aerea situata nel giacimento petrolifero di al-Omar nella provincia siriana nordorientale di Deir Ezzor.

Diverse settimane fa, secondo quanto riferito, tre soldati statunitensi sono stati leggermente feriti in attacchi missilistici diretti alla base da presunti "militanti sostenuti dall'Iran".

Gli Stati Uniti hanno risposto ai presunti attacchi lanciando attacchi da elicotteri Apache contro tre veicoli appartenente a una milizia sciita afgana, uccidendo tra i sei e i dieci "militanti", e ci sono rapporti secondo cui sono probabili più scontri a fuoco.

Il CENTCOM ha poi affermato che il presidente Joe Biden ha ordinato personalmente gli scioperi per "autodifesa" e li ha giustificati citando l'articolo II della Costituzione degli Stati Uniti.

Ma la Costituzione non è mai stata intesa a coprire l'attività illegale in una terra straniera dove le forze americane stanno occupando un paese con il quale non è in guerra e che ha un governo funzionante che si oppone alla presenza americana. Secondo quanto riferito, gli Stati Uniti hanno le loro basi illegali situate principalmente nella produzione di petrolio e nel paniere agricolo del paese.

Sia il grano che il petrolio vengono regolarmente rubati dagli Stati Uniti e gran parte del petrolio finisce in Israele.

Quindi, si arriva inevitabilmente a Israele, che ha utilizzato la copertura fornita dall'Ucraina non solo per bombardare frequentemente la Siria, ma anche per uccidere palestinesi sia a Gaza che nella Cisgiordania occupata.

Di recente il ritmo è accelerato con l'esercito israeliano e la polizia che uccidono in media diversi palestinesi ogni giorno, di cui molto poco viene riportato dai media statunitensi, un tasso di mortalità cinque volte superiore a quello prevalso nel 2021.                    È chiaramente una politica deliberata intensificare la pressione sui palestinesi e una parte vitale del processo è lasciare che avvenga con il minimo controllo da parte dei media e del pubblico, quindi Israele sta pubblicizzando ampiamente il sostegno che sta dando all'Ucraina per distogliere l'attenzione da ciò che fa a livello locale.

In breve, Israele sta aumentando gli sforzi per rendere la Palestina storica libera dai palestinesi rendendo la vita così miserabile che molti arabi decideranno di andarsene.

L'uso della violenza selettiva e delle continue molestie fa tutto parte di questo sforzo e i palestinesi hanno scoperto che descrivere Israele come uno stato di "apartheid" non descrive accuratamente l'intensità delle punizioni indiscriminate e delle uccisioni da parte dei soldati che sono diventate fin troppo comuni.

Israele nel frattempo sta anche facendo del suo meglio per delegittimare l'identità nazionale palestinese etichettando i gruppi arabi per i diritti umani come "terroristi".

 La polizia israeliana ha recentemente fatto irruzione negli uffici di sette di questi gruppi, ha confiscato le loro apparecchiature e comunicazioni per ufficio e ha ordinato la chiusura totale dei locali.

 Ironia della sorte, una valutazione della CIA sui gruppi ha stabilito che non erano in alcun modo collegati al terrorismo. L'amministrazione Joe Biden ha tipicamente risposto allo sviluppo indicando di essere "preoccupata" ma non ha condannato l'azione israeliana.

Quindi, se apri un giornale o accendi la televisione e guardi o leggi le notizie internazionali, ti verrà detto cosa pensare di quello che sta succedendo in Ucraina.

E sarà dal punto di vista del governo ucraino/americano. Se sei interessato a ciò che gli Stati Uniti e Israele stanno facendo in Medio Oriente, molto spesso sarai sfortunato perché "difendere la democrazia" in Ucraina mentre demonizza anche la Russia sta fornendo copertura a Washington e Gerusalemme per entrare in tutti i tipi di dispetti.

È una realtà derivata dal modo in cui i media e il governo lavorano collettivamente per dare forma a politiche che in nessun modo avvantaggiano il pubblico americano.

Invece, potenti gruppi di interesse con abbondanza di denaro guidano il processo e sono quelli che ottengono ancora più potere e denaro attraverso di esso. È la triste realtà di ciò che è successo alla nostra "terra dei liberi e casa dei coraggiosi".

(Philip M. Giraldi, Ph.D., è Direttore Esecutivo del Council for the National Interest, una fondazione educativa deducibile dalle tasse 501(c)3 (Federal ID Number #52-1739023) che cerca una politica estera statunitense più basata sugli interessi in Medio Oriente. Il sito web è councilforthenationalinterest.org, l'indirizzo è PO Box 2157, Purcellville VA 20134)

 

 

 

 

Algoritmi e diritti umani:

qual è il punto d’incontro?

Iusinitinere.it- FRANCESCA BUCCI – (03/04/2022) – ci dice:

 

1. Gli algoritmi come fenomeno sociale.

La rivoluzione tecnologica ha permesso, grazie alla digitalizzazione dei contenuti, di reinterpretare la società moderna, nella quale la conoscenza è diventata una fonte di potere e produttività.

L’elaborazione dei dati, sempre più potente e rapida, ha reso necessaria l’adozione di strumenti tecnologici in grado di effettuare tale elaborazione in tempi sempre più brevi e in assenza dell’intervento umano: questi sono gli algoritmi, che consistono in una presenza costante, seppur silenziosa, nella vita degli individui, essendo in grado di elaborare, selezionale e distribuire ingenti quantità di dati, a partire dalle più banali attività di vita quotidiana.

 Le singole attività di ognuno di noi, infatti, vengono scandite, e spesso anche influenzate dai risultati mostrati dai dispositivi digitali, a seguito del lavoro svolto dagli algoritmi sui dati.

Ad oggi è possibile osservare che l’ubiquità degli algoritmi ha degli effetti potenzialmente rivoluzionari sia nell’ambito della vita quotidiana che nella ricerca sociale.

Tuttavia, capire le modalità attraverso cui gli algoritmi operano è un’indagine decisamente complessa.  Un primo approccio potrebbe essere quello di individuare le operazioni che essi compiono: innanzitutto, gli algoritmi selezionano le informazioni rilevanti scartando quelle che non lo sono, compiono una struttura delle priorità e sono di ausilio nei processi di ricerca e decisioni mediante sistemi di selezione e raccomandazione.

Tutto ciò si rende necessario anche considerando l’espansione repentina delle reti e del web all’interno della c.d. network society, la quale comporta un’esplosione del volume dei contenuti ivi presenti e impone l’ausilio di soggetti intermediari (quali i motori di ricerca e i sistemi di raccomandazione) ormai fondamentali per orientarsi nel sovraffollamento informativo presente online.

Dunque, le potenzialità algoritmiche sono immense; tuttavia, è opportuno mettere in luce i due limiti di tale potere sociale.

 Da un lato va considerata l’opacità algoritmica, e dall’altro, la percezione diretta a cui essi sfuggono. Infatti, gli algoritmi sono intrinsecamente opachi e ciò significa che è molto difficile sapere perché ed in che modo un algoritmo produca un determinato risultato, anche per i soggetti che lo hanno progettato. Inoltre, spesso, il risultato finale apprezzabile non viene presentato come l’esito di un processo selettivo tra varie possibilità, ma piuttosto come un mero dato di fatto.

Per aprire quella che viene definita la black box algoritmica bisogna quindi operare una raccolta di conoscenze dalle matrici disciplinari molto diverse, tra cui anche quella giuridica.

 Gli algoritmi hanno, dunque, potenzialità immense, ma il loro potere non è illimitato e incontrastabile.

In particolare, va osservato che gli algoritmi non sono infallibili ed il loro utilizzo deve essere ridimensionato nel momento in cui entrano in contrasto con il rispetto dei diritti fondamentali degli individui.

 

2. L’impatto degli algoritmi sui diritti umani.

Spesso le problematiche relative all’utilizzo dell’intelligenza artificiale (IA) e degli algoritmi portano a riflettere su questioni tecniche relative al fattore sicurezza delle tecnologie utilizzate per produrre, trasmettere ed archiviare le informazioni digitali. Tuttavia, anche il più corretto utilizzo degli strumenti digitali comporterebbe un inevitabile e notevole impatto sui diritti fondamentali degli individui. Il problema esiste da sempre ma ad oggi è sempre più amplificato, dato il repentino sviluppo tecnologico in tema di IA.

Già nel maggio 2019, il Commissariato per i diritti umani del Consiglio d’Europa ha adottato alcune raccomandazioni sul punto, indirizzate alle autorità nazionali nell’ottica di massimizzare il potenziale dei sistemi di IA e prevenire l’impatto negativo sui diritti umani.

 L’interesse primario era quello di rendere possibile e concreta l’effettuazione di consultazioni pubbliche per valutare l’impatto dei sistemi di IA sui diritti umani; la facilitazione dell’implementazione delle norme sui diritti umani nel settore privato, imponendo agli Stati membri una garanzia di sviluppo di condizioni a favore del rispetto dei diritti umani attraverso accurata informazione, trasparenza, e una supervisione indipendente ed efficace sulla conformità delle tecnologie, senza creare ostacoli all’individuazione delle responsabilità e dei rimedi in caso di violazione dei diritti, nell’ottica del rispetto dei principi di non discriminazione, uguaglianza e protezione dei dati personali.

Con lo scopo di predisporre un quadro giuridico per lo sviluppo, la progettazione e l’applicazione dell’IA basata sugli standard del Consiglio d’Europa in materia di: diritti umani, democrazia e stato di diritto, è stato istituito nello stesso anno il Comitato ad hoc per l’Intelligenza Artificiale (CAHAI).

Si tratta di un comitato intergovernativo la cui prima riunione si è svolta a Strasburgo dal 18 al 20 novembre 2019 e l’ultima dal 15 al 17 dicembre 2020. L’obiettivo di tale Comitato è quello di valutare l’impatto delle applicazioni dell’IA sull’individuo e sulla società, sugli strumenti di soft law esistenti che si occupano specificamente dell’IA e legalmente vincolanti in ambito internazionale applicabili in materia.

 

Su queste basi, l’European Union Agency for Fundamental Rights (FRA) si è fatta carico, in un report del 14 dicembre 2020, di esporre la necessità di eseguire una valutazione d’impatto più ampia, circa l’utilizzo di ogni strumento di IA, tenendo conto non solo delle potenziali problematiche tecniche che l’IA solleva, ma anche di quelle sociali, poiché il fenomeno, originariamente informatico, ad oggi si è tramutato in una vera e propria questione sociale.

Il report ha ad oggetto quattro macroaree fondamentali nelle quali la valutazione d’impatto deve essere più incisiva: servizi sociali, polizia predittiva, servizi sanitari, pubblicità mirata.

Nell’epoca della profilazione, del tracing sanitario e della diffusione di tecniche di riconoscimento facciale per semplificare il lavoro della polizia, non è difficile immaginare il motivo della concentrazione del lavoro delle istituzioni europee su questi temi.

 In queste aree sono state raccolte le informazioni emerse da un campione di quasi 100 interviste a funzionari di amministrazioni pubbliche e private, autorità di vigilanza e controllo, avvocati ed altri esperti, con l’obiettivo di capire se i nostri diritti vengono considerati in fase di implementazione e commercializzazione dell’IA.

Infatti, la necessità di operare un contemperamento tra l’esigenza di tutelare ed incentivare lo sviluppo tecnologico e quella di rispettare i diritti degli individui, assume ad oggi un rilievo assoluto.

 

3. Il caso CGIL c. Delivero.

Un caso di recentissima applicazione, nel quale si evince la fallibilità di un algoritmo in evidente contrasto con i diritti degli individui, è quello relativo alla c.d. vicenda CGIL c. Delivero. Si tratta della prima causa avviata in Italia che abbia ad oggetto l’analisi di un algoritmo ritenuto discriminatorio, ma non è la prima volta nella quale si discute sull’impatto degli algoritmi sui diritti degli individui: basti pensare alla nota vicenda Exodus, relativa al mal direzionamento di un software che ha causato l’installazione automatica di un trojan di Stato sui cellulari di una ingente quantità di cittadini estranea alle indagini per le quali doveva essere utilizzata quella tecnologia.

Nel caso CGIL c. Delivero, il sindacato nazionale, in qualità di ricorrente, poiché protettore di un interesse collettivo della categoria dei lavoratori riders, ha agito in giudizio contro la piattaforma digitale di consegna di cibo a domicilio Delivero o ritenendo discriminatorio l’algoritmo “Frank”, utilizzato dalla stessa azienda per assegnare le consegne ai riders.

 Secondo CGIL, infatti, l’azienda emarginava i lavoratori che per motivi personali legati a diritti costituzionalmente tutelati, oltre che dalla L. n. 128/2019 sulla tutela dei riders, come malattia e sciopero, non si rendevano continuativamente disponibili al lavoro.

 In questo modo i riders che non si adeguavano al meccanismo venivano declassati ingiustamente dal ciclo produttivo aziendale e gradualmente escluso dalle possibilità di impiego.

Nonostante la tesi contraria dell’azienda, il Tribunale di Bologna ha stabilito con ordinanza, lo scorso 31 dicembre 2020, che l’algoritmo fosse davvero discriminatorio.

Nelle motivazioni attraverso cui ha l’azienda si è mostrata contraria alla tesi secondo cui l’algoritmo fosse discriminatorio, il suo General Manager ha affermato che: “gli algoritmi di Delivero  sono creati dalle persone e l’algoritmo implementa delle regole che sono sviluppate dalle persone”. In realtà, anche questo è un fattore di importante riflessione sul tema della discriminazione algoritmica. Posto che gli algoritmi possono essere mal direzionati dai soggetti che si occupano della loro progettazione ed implementazione, ciò fa emergere un altro nodo da risolvere: la neutralità algoritmica è un mito da decostruire.

L’intelligenza artificiale può considerarsi neutrale proprio perché implementata da persone. Dunque, se il soggetto preposto a progettare un algoritmo ha dei pregiudizi è del tutto probabile che i medesimi pregiudizi saranno inglobati dall’algoritmo.

 In questo caso l’algoritmo discriminatorio non distingueva le assenze, considerandole tutte uguali, sia che provenissero da motivi futili che da reali esigenze.

Dunque, se l’algoritmo riflette le intenzioni dell’azienda, il messaggio che Delivero finiva per veicolare non era positivo, considerando che i riders, in quanto persone e categoria di lavoratori, hanno dei diritti.

Nel 2019 il Consiglio d’Europa menzionava, tra i diritti da tutelare rispetto all’utilizzo di strumenti di IA, anche il diritto alla libertà di espressione, di riunione, di associazione ed il diritto al lavoro.

Dunque, gli Stati membri devono tenere contro di tutti gli standard internazionali sui diritti umani che possono essere coinvolti dall’IA, nell’ottica di rispettare anche questi diritti.

Attualmente Delivero  ha fatto sapere a mezzo stampa di aver già modificato la tecnologia, dunque l’algoritmo oggetto di contestazione è ormai in disuso, ma ciò fa emergere un’ulteriore questione problematica: come si può controllare l’operato di un’azienda che afferma di aver modificato un algoritmo, la cui struttura non è resa pubblica? Innanzitutto bisogna riflettere e capire se sia possibile, ed eventualmente come, contestare l’attendibilità di un dato raccolto automaticamente, anche in un contesto di contenzioso.

Non c’è alcun motivo per cui una parte possa contestare l’attendibilità di una prova se non ha accesso ad alcuni dati fondamentali, come il codice sorgente ed altre informazioni tecniche circa il processo di generazione del dato.

 In realtà, va osservato che diversi modelli computazionali hanno vari modelli di accessibilità e consentono una verifica dei risultati dell’elaborazione di un software, anche ex post, seppure talvolta limitata.

Dunque, a seconda di come è stato progettato il software, può diventare possibile capire come e perché il sistema abbia generato un dato piuttosto che un altro, e chi porta davanti al giudice quel dato può sfruttare l’incapacità dell’altra parte a contestarne l’affidabilità. Riflettendo su quali potrebbero essere le soluzioni ad un tema così complicato e che appare irrisolvibile, occorre riflettere sull’importanza di avere una trasparenza algoritmica, necessaria ma spesso utopica.

4. Trasparenza algoritmica: quando la garanzia di accessibilità non basta.

Per capire se sia possibile risalire alle modalità di funzionamento di un algoritmo bisogna prima individuare il tipo di protezione fornita al software che ha generato il dato:

se si tratta di un software dal formato proprietario, vorrà dire che i produttori decideranno di non fornire il codice sorgente del programma, tutelando la segretezza delle loro licenze intellettuali.

Indubbiamente i codici sorgente potrebbero rivelarsi fondamentali nell’ambito di un controllo ex post dei dati generati, ma non tale controllo potrebbe risultare decisivo per una valutazione completa del software nell’ottica dell’affermazione della famigerata trasparenza algoritmica.

 

L’accessibilità e la trasparenza sono concetti estremamente diversi e mettere a disposizione il codice sorgente di un software potrebbe garantirne l’accessibilità, ma non la trasparenza. Solo gli esperti possono validare il processo di creazione dell’output sulla base de codice sorgente, poiché a causa dell’immaterialità dei dati, i soggetti non esperti non sono in grado di capire il processo di generazione del modello computazionale e individuarne le eventuali manomissioni. Oltretutto, non è detto che i codici sorgente garantiscano sempre una rendicontazione e una responsabilità in tutti i casi in cui vengono diffusi e analizzati ex post. Anzi, una riflessione sulla validità degli output generati, molto spesso non è sufficiente, seppure accurata. L’ignoto sulla derivazione dei dati generati ha delle implicazioni fondamentali sui diritti degli individui che vengono colpiti dalle scelte degli algoritmi.

Un processo automatizzato di generazione dei dati non sempre, come si è visto, può essere ricostruito, e la normale prudenza umana che viene utilizzata per valutare l’attendibilità delle informazioni può essere incompatibile con il fenomeno digitale. È proprio qui che si evince l’importanza del significato della trasparenza algoritmica per rispettare i diritti fondamentali degli individui.

La complicata soluzione al problema della discriminazione algoritmica non è giuridica, ma piuttosto va ricercata nella tecnologia.

Non ci si può basare, nell’ambito di un controllo di questa portata, solo sui mezzi tradizionali del ragionamento umano, ma servono delle solide basi di convalida dei processi tecnologici.

Spesso si verifica una fiducia eccessiva nei confronti dei dati digitali: in tali casi è essenziale che il giudice, in una situazione di contestazione giurisdizionale di un algoritmo, sia disposto ed in grado di permettere una convalida indipendente dei dati generati come output in modo automatico.

Ciò, però, può avvenire solo in presenza di alcune condizioni specifiche: il software che ha prodotto i dati dovrebbe essere open-source e ciò non sempre è possibile, molto spesso per questioni legate alla proprietà intellettuale.

Tuttavia, il progresso tecnologico è di ausilio anche nell’ottenimento di tale equilibrio senza il necessario ricorso a metodi giurisdizionali: infatti, in alcuni casi, si può ricorrere a strumenti crittografici che permettono di provare le proprietà della politica decisionale di un software, senza rivelarne comunque la politica decisionale. Questa appare una via di mezzo per consentire alla difesa di contestare l’affidabilità della prova a suo carico generata automaticamente, senza implicare obbligatoriamente la divulgazione dei codici sorgente, e dunque, la loro riscrittura successiva.

 

L’opacità algoritmica amplifica i problemi su come poter verificare le informazioni digitali in un contesto giudiziale. Dunque, si ritiene che la soluzione ad un problema che, come si è visto, è ormai una questione sociale, comprenda la realizzazione ex ante dei modelli che permettano di comprendere, attraverso tecniche di c.d. reverse engineering, quale sia stato il processo di generazione dei dati, e stabilire degli standard di revisione ex post che possano convalidare tecnicamente dei dati generati.

Come si è visto, il Consiglio d’Europa ha in molte occasioni dimostrato la sua capacità di aprire la strada a nuovi standard, divenuti anche i punti di riferimento globali.

Lo sviluppo delle tecniche di IA deve essere affrontato attraverso un approccio multistakeholder con altre organizzazioni internazionali, con la società civile, le imprese ed il mondo accademico e scientifico.

È importante, dunque, la collaborazione puntuale di diverse classi di professionisti con l’obiettivo comune della salvaguardia dei diritti umani.

 

 

 

Potrebbe finire Molto Male

per Tutti, Ucraini in primis.

 

Conoscenzealconfine.it- (13 Settembre 2022) -DB-Redazione- ci dice:

 

Vasti territori e città dell’Ucraina sono senza corrente, con linee elettriche, centrali e trasformatori in fiamme.

Ingenti i danni che non saranno riparabili in breve tempo. Prima si evitava di colpire le infrastrutture vitali, perché si mirava a non fare soffrire oltremodo la popolazione civile, adesso le cose potrebbero essere cambiate e la guerra purtroppo potrebbe essere totale.

Il riscaldamento in Ucraina è dipendente dal gas dalla Russia che, nonostante il conflitto, non è mai venuto a mancare perché Putin ha fatto in modo di mantenere il rifornimento a Kiev, anche se indirettamente.

Un inverno in Ucraina senza gas e con l’elettricità a singhiozzo significherebbe la paralisi della nazione e mi duole dirlo, gli ucraini non potranno di certo scaldarsi con i dollari americani e gli armamenti.

Chi fornirà il necessario a Kiev?

 Non abbiamo nemmeno abbastanza gas per noi stessi in Europa, abbiamo a malapena scorte per l’inverno e lo elemosiniamo in giro per il mondo pagandolo il quadruplo.

Prima di festeggiare come Pirro per le controffensive o presunte tali si sappia che si potrebbe profilare un disastro di proporzioni bibliche nel nostro continente, il tutto causato dall’ostinazione occidentale di combattere la Russia sull’uscio di casa.

Prima o poi finirà, ma potrebbe finire molto male per tutti.

(DB-Redazione- t.me/weltanschauungitaliaofficial)

 

 

 

 

L’utilizzo dell’algoritmo nel

procedimento amministrativo.

Andig.it- Luigi Santoro – (2 ottobre 2020) – ci dice:

Da qualche tempo, la pubblica amministrazione ha iniziato a far ricorso agli algoritmi nello svolgimento di procedimenti amministrativi, sfruttando le potenzialità di calcolo e di elaborazione che i suddetti strumenti offrono e giovando dei vantaggi derivanti dalla contrazione delle tempistiche e della quantità di risorse impiegate.

Tuttavia, la capacità degli algoritmi di effettuare operazioni automatizzate in grado di sostituirsi all’attività umana e di soppiantare intere fasi procedimentali, pone dei dubbi sulla loro compatibilità con i principi stabiliti dall’ordinamento per il legittimo esercizio del potere pubblico.

Sul solco di tali dubbi, il presente contributo esamina il rapporto tra l’utilizzo degli algoritmi e i principi procedimentali, tenendo conto degli orientamenti della giurisprudenza amministrativa.

 

1. L’algoritmo.

 

L’algoritmo consiste in una serie di istruzioni finalizzate alla soluzione di un problema o al raggiungimento di un determinato risultato.

Il suo nome deriva del matematico arabo Mohammed ibn-Musa al-Khwarizmi, vissuto tra il 780 e l’850 d.C., considerato uno dei pionieri nella comprensione e nell’utilizzo di tale “strumento”.

Le istruzioni che compongono l’algoritmo sono poste in sequenza e sono eseguite secondo l’ordine prestabilito; esse vengono solitamente rappresentate attraverso un diagramma di flusso (c.d. flow chart).

Uno dei settori prediletti per l’utilizzo degli algoritmi è quello dell’Information Technologies, essendo comunemente utilizzati nella programmazione e nello sviluppo di software, in ragione della loro attitudine a risolvere problematiche complesse in modo automatizzato.

In tale ambito, è oggi particolarmente rilevante l’utilizzo degli algoritmi per lo sviluppo dell’intelligenza artificiale, che vede la progettazione di software che non si limitano ad eseguire le istruzioni programmate, bensì ad apprendere nuove informazioni dalla realtà circostante.

Nonostante, quindi, l’algoritmo abbia origini antiche, le sue applicazioni sono fondamentali per il progresso tecnologico, il cui evolversi condiziona non solo gli stili di vita, ma anche lo sviluppo della cultura sociale.

La vis attractiva dei vantaggi dell’utilizzo di un algoritmo non ha certo lasciato indifferente la pubblica amministrazione, che vede con favore l’agevolazione di attività amministrative a volte complesse e defatiganti, nelle quali non è certo trascurabile la probabilità dell’errore umano.

 

2. Algoritmo e principi del procedimento amministrativo.

Il vento dell’innovazione tecnologica, seppur con tempistiche non sempre celeri e le annesse difficoltà per gli opportuni adattamenti organizzativi, ha investito da tempo la pubblica amministrazione.

Significativa, a tal riguardo, è stata l’introduzione del Codice dell’amministrazione digitale, ad opera del decreto legislativo 7 marzo 2005, n. 82, la cui finalità, espressamente indicata all’art. 2, comma 1, consiste nell’assicurare “la disponibilità, la gestione, l'accesso, la trasmissione, la conservazione e la fruibilità dell'informazione in modalità digitale […] utilizzando con le modalità più appropriate, le tecnologie dell'informazione e della comunicazione”.

In particolare, il successivo art. 12 precisa, al comma 1, che “[l]e pubbliche amministrazioni nell'organizzare autonomamente la propria attività utilizzano le tecnologie dell'informazione e della comunicazione per la realizzazione degli obiettivi di efficienza, efficacia, economicità, imparzialità, trasparenza, semplificazione e partecipazione nel rispetto dei principi di uguaglianza e di non discriminazione, nonché per l'effettivo riconoscimento dei diritti dei cittadini e delle imprese […]”.

Le tecnologie dell’informazione, quindi, assurgono a strumento agevolatore per il rispetto dei principi che informano l’attività amministrativa e per i diritti dei privati.

Ad ulteriore conferma, l’art. 3-bis della legge n. 241/90 sul procedimento amministrativo promuove l’uso della telematica, sia tra i rapporti interni alle pubbliche amministrazioni che nei rapporti con i privati, al fine di conseguire “maggiore efficienza”.

Invero, sono innegabili le facilitazioni che derivano dalla fruizione, da parte dei cittadini, dei servizi on line offerti dalle varie amministrazioni, facendo venire meno la necessità di recarsi presso gli uffici amministrativi ed evitando le, spesso, interminabili attese in coda, con conseguente risparmio di tempo, di costi e di risorse.

Tali servizi informatici sono stati, ad esempio, fondamentali durante il periodo di lockdown dovuto all’emergenza sanitaria da Covid-19.

Il processo di informatizzazione della pubblica amministrazione è stato definito come “e-governement”, consistente nel “l’uso delle tecnologie dell’informazione e della comunicazione nelle pubbliche amministrazioni, coniugato a modifiche organizzative ed all’acquisizione di nuove competenze al fine di migliorare i servizi pubblici ed i processi democratici e di rafforzare il sostegno alle politiche pubbliche”.

L’evoluzione tecnologica delle pubbliche amministrazioni però non si è limitata all’uso delle tecnologie di informazione e comunicazione, ma si è spinta, più recentemente, fino all’utilizzo degli algoritmi all’interno dei procedimenti amministrativi.

A titolo esemplificativo, si pensi alle procedure di trasferimento o di assegnazione di prima sede degli insegnanti, oppure al riconoscimento di contributi assistenziali sulla base di determinati parametri, o ancora agli accertamenti fiscali su base presuntiva che si fondano sulla sussistenza di alcuni indici rivelatori di reddito sommerso.

 

Tali procedimenti sono soliti caratterizzarsi per: (i) un numero elevato dei destinatari; (ii) la presenza di criteri standardizzati individuati a monte da una disposizione normativa; (iii) una ridotta discrezionalità da parte dell’amministrazione.

Ebbene, l’uso dell’algoritmo consente di elaborare con grande facilità e speditezza i dati necessari per l’emanazione del provvedimento finale.

Conseguentemente l’utilizzo dell’algoritmo comporta un quid pluris rispetto alla telematica o agli strumenti della tecnologia dell’informazione e della comunicazione che le norme citate espressamente richiamano: infatti, mentre questi ultimi attengono prevalentemente alla forma degli atti e non intaccano le caratteristiche del procedimento amministrativo, l’algoritmo è idoneo a sostituire alcune fasi procedimentali, andando quindi ad incidere sulla sostanza del procedimento e sui principi stabiliti dall’ordinamento.

Il grado di incidenza sul procedimento dipende anche della concezione di quest’ultimo.

Secondo la concezione “formale” (o teleologica), il procedimento amministrativo si sostanzia nell’insieme di una pluralità di atti, susseguenti e diversi fra loro e preordinati all’adozione di un provvedimento finale, che danno di conseguenza vita a una fattispecie a formazione progressiva.

Diversamente, secondo la concezione “sostanziale” del procedimento, quest’ultimo rappresenta la modalità di esercizio del potere pubblico, ovvero la “forma della funzione amministrativa”. Secondo tale concezione, il procedimento costituisce il momento di “coordinamento e composizione di opposti interessi pubblici e privati”.

Entrambe le concezioni sembrano mal conciliarsi con la modalità operativa dell’algoritmo: nell’ottica della concezione formale, l’utilizzo dell’algoritmo potrebbe far venir meno le diverse fasi precedenti all’emanazione del provvedimento finale e, conseguentemente, la pluralità di atti tipici del procedimento amministrativo; nell’ottica della concezione sostanziale, potrebbe invece venire meno il momento di coordinamento e composizione degli interessi pubblici e privati.

Ciò è ancor più evidente se si tiene conto che il procedimento consente la partecipazione e il contraddittorio dei soggetti incisi dal provvedimento finale, fungendo da fonte di legittimazione del potere pubblico e garantendo la democraticità dell’ordinamento amministrativo. 

La partecipazione dei privati nel procedimento amministrativo garantisce quella che viene definita come legalità procedurale, la quale si affianca alla legalità sostanziale, correggendone eventuali deficit, specie nelle ipotesi in cui la legge appare indeterminata e viene lasciato al potere amministrativo il compito di stabilire la disciplina di dettaglio (si pensi al potere regolatorio delle Autorità amministrative indipendenti).  

 

La partecipazione del privato nel procedimento amministrativo è, inoltre, alla base della teoria normativa dell’interesse legittimo elaborata da Mario Nigro, ormai predominante in dottrina e giurisprudenza, secondo la quale esso consiste nella posizione giuridica di vantaggio riconosciuto al privato di influire sull’azione amministrativa, condizionandola, al fine di tutelare il bene della vita alla cui conservazione o acquisizione il privato stesso aspira.

Motivo per cui, se l’istruttoria procedimentale è soppiantata da un’elaborazione robotizzata, il privato, pur astrattamente titolare di un interesse legittimo, difficilmente potrebbe influire sull’azione amministrativa.

Recentemente, la Corte Costituzionale ha ricordato che “il procedimento amministrativo costituisce il luogo elettivo di composizione degli interessi, in quanto «[è] nella sede procedimentale […] che può e deve avvenire la valutazione sincronica degli interessi pubblici coinvolti e meritevoli di tutela, a confronto sia con l’interesse del soggetto privato operatore economico, sia ancora (e non da ultimo) con ulteriori interessi di cui sono titolari singoli cittadini e comunità, e che trovano nei princìpi costituzionali la loro previsione e tutela. La struttura del procedimento amministrativo, infatti, rende possibili l’emersione di tali interessi, la loro adeguata prospettazione, nonché la pubblicità e la trasparenza della loro valutazione […]»”.

Il contemperamento degli interessi pubblici e privati è garantito dalle previsioni contenute in diverse disposizioni della L. n. 241/1990, tra le quali si evidenziano: l’art. 7, che prevede la comunicazione di avvio del procedimento ai soggetti nei confronti dei quali il provvedimento finale è destinato a produrre effetti diretti ed a quelli che per legge debbono intervenirvi; l’art. 9, che riconosce la facoltà di intervento nel procedimento a qualunque soggetto portatore di interessi pubblici o privati; l’art. 10-bis, il quale prevede che nei procedimenti ad istanza di parte il responsabile del procedimento o l’autorità competente, prima di adottare un provvedimento negativo, comunica tempestivamente agli istanti i motivi che ostano all’accoglimento della domanda, in modo da consentire loro di presentare eventuali osservazioni o documenti.

 

Al contempo, vi sono delle fattispecie in cui la partecipazione dei privati non è prevista, come ad esempio nei procedimenti volti all’emanazione di atti che non incidono direttamente su di una posizione giuridica soggettiva, come gli atti normativi, quelli amministrativi generali, o di pianificazione e organizzazione; o ancora, nei procedimenti dove, almeno nelle prime fasi, occorre mantenere una certa riservatezza al fine di non comprometterne gli esiti, quale ad esempio gli accertamenti di natura tributaria.

Ma indipendentemente dalle ipotesi in cui la partecipazione del privato è espressamente esclusa dalla legge, occorre evidenziare che l’art. 21-octies, comma 2, della L. n. 241/90, relativo alla non annullabilità per vizi meramente formali dell’atto, sancisce che “[i]l provvedimento amministrativo non è comunque annullabile per mancata comunicazione dell'avvio del procedimento qualora l'amministrazione dimostri in giudizio che il contenuto del provvedimento non avrebbe potuto essere diverso da quello in concreto adottato”.

Infatti, l’intervento del privato, è teso a “condizionare” l’esercizio del potere amministrativo, sicché laddove quest’ultimo sia comunque insensibile a qualsiasi tipo di condizionamento, ne deriva l’irrilevanza dell’intervento medesimo.

Tale situazione può verificarsi, ad esempio nelle ipotesi di “attività vincolata”, nelle quali l’amministrazione è chiamata solo a verificare la sussistenza dei presupposti determinati dalla legge al fine dell’emanazione del provvedimento finale. In tali ipotesi, la partecipazione del privato nulla potrebbe aggiungere ove i presupposti richiamati dalla legge effettivamente sussistano e non vi sia necessità di alcuna valutazione discrezionale da parte dell’amministrazione.

Ebbene, nelle ipotesi di attività vincolata, l’uso di un algoritmo che, in modo automatizzato, faccia applicazione dei criteri individuati a monte dalla legge, non dovrebbe ledere gli interessi del privato inciso dal provvedimento finale.

Naturalmente, l’uso dell’algoritmo, pur in presenza di attività vincolata, non attenua in alcun modo, da parte dell’amministrazione, l’obbligo di trasparenza, né quello di motivazione del provvedimento finale ai sensi dell’art. 3 della L. n. 241/90, al fine di consentire la comprensione dei presupposti di fatto e delle ragioni giuridiche alla base dell’agire amministrativo. 

 

Di conseguenza, il privato dovrebbe sempre essere messo in condizione di comprendere le logiche e le istruzioni sottese al funzionamento dell’algoritmo, anche allo scopo di agire in giudizio ove ravvisasse la lesione dei propri diritti o interessi legittimi.

Ai principi ed ai diritti riconosciuti al privato dalla legge nazionale, si aggiungono quelli previsti dalle disposizioni del Regolamento UE 2016/679.

3. Il Regolamento UE 2016/679 e il diritto degli interessati a non essere sottoposti a una decisione basata unicamente su un trattamento automatizzato.

  L’art. 22, par. 1, del Regolamento UE 2016/679 (GDPR) sancisce il diritto dell’interessato “di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato […] che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla persona”.

La norma prevede alcune eccezioni al paragrafo 2, tra le quali, tralasciando le ipotesi che non rilevano all’interno di un procedimento amministrativo, la fattispecie in cui il processo decisionale automatizzato sia autorizzato dal diritto dell’Unione o dello Stato membro a cui è soggetto il titolare del trattamento, che deve precisare le misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato.

 Una simile previsione è contenuta anche nella direttiva (UE) 2016/680, relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle Autorità competenti ai fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, nonché alla libera circolazione di tali dati, recepita con D.Lgs. 18 maggio 2018, n. 51.

La disposizione in commento è frutto della consapevolezza del legislatore europeo che una decisione derivante da un trattamento completamente automatizzato e da cui derivano conseguenze giuridiche per i destinatari potrebbe sfuggire a forme di controllo sulla regolarità e correttezza della decisione medesima.

Per tale ragione, è necessaria l’individuazione di misure appropriate per la tutela dei diritti e delle libertà degli interessati, tra le quali rientra il “diritto di ottenere l’intervento umano da parte del titolare del trattamento” e il “diritto di esprimere la propria opinione e di contestare la decisione”.

I predetti diritti sono esplicitamente previsti dall’art. 22, par. 3, GDPR quali garanzie minime nelle ipotesi in cui il trattamento automatizzato sia stato autorizzato dall’interessato tramite consenso esplicito, oppure sia necessario alla conclusione o all’esecuzione di un contratto tra l’interessato medesimo e il titolare del trattamento.

Non viene richiamata, invece, la suddetta tutela minima anche per l’ipotesi in cui la decisione tramite trattamento automatizzato sia autorizzata da una fonte normativa interna o sovranazionale: in tali casi, infatti, la stessa normativa dovrebbe indicare le misure adeguate per la tutela dei diritti e per le libertà degli interessati.

Va però evidenziato che il considerando n. 71 del GDPR precisa che “[i]n ogni caso, tale trattamento dovrebbe essere subordinato a garanzie adeguate, che dovrebbero comprendere la specifica informazione all'interessato e il diritto di ottenere l'intervento umano, di esprimere la propria opinione, di ottenere una spiegazione della decisione conseguita dopo tale valutazione e di contestare la decisione”.

 

La locuzione “in ogni caso” lascia intendere che anche nelle ipotesi in cui la decisione automatizzata sia autorizzata dal diritto interno o sovranazionale, tra le misure adeguate alla tutela dei diritti degli interessati dovrebbero comunque rientrare il diritto di ottenere l’intervento umano, quello di esprimere la propria opinione, di conoscere le ragioni alla base della decisione e di contestare la decisione medesima.

Invero, una parte dei diritti appena elencati sembrano corrispondere, almeno parzialmente, alle guarentigie procedimentali previste dalla L. n. 241/90: il diritto di esprimere le proprie opinioni risponde infatti alla logica della partecipazione al procedimento amministrativo; il diritto di conoscere le ragioni alla base della decisione è speculare tanto al diritto di accesso, quanto all’obbligo di motivazione del provvedimento da parte della pubblica amministrazione; il diritto di contestare la decisone medesima è riconosciuto sia attraverso strumenti amministrativi, quali il ricorso gerarchico o l’istanza per l’esercizio dell’autotutela, sia attraverso il ricorso giurisdizionale.

Quanto, invece, al diritto di ottenere l’intervento umano, è opportuno tenere presente che l’art. 5 della L. n. 241/90 prevede la figura del “responsabile del procedimento”, il quale deve essere necessariamente nominato per ogni procedimento amministrativo.

Tra i compiti del responsabile, ai sensi dell’art. 6 della medesima L. n. 241/90, vi sono quelli di: valutare la sussistenza dei presupposti per l’emanazione del provvedimento finale, adottare il provvedimento finale o trasmettere gli atti dell’istruttoria all’organo competente per l’emanazione del provvedimento finale, emettere il provvedimento finale discostandosi dalle risultanze dell’istruttoria, purché con idonea motivazione.

La presenza del responsabile del procedimento potrebbe garantire, di fatto, il controllo umano anche sui procedimenti automatizzati.

Tuttavia ci si chiede se il potenziale controllo del responsabile sia in concreto realizzabile in presenza di uno strumento robotizzato e se sia sufficiente a garantire, in maniera effettiva, i diritti previsti dal GDPR.

A fronte di un vuoto normativo sul punto, il Consiglio di Stato ha elaborato una serie di principi e di regole per l’uso legittimo degli algoritmi da parte delle pubbliche amministrazioni.

 

4. Il punto della giurisprudenza.

In materia di utilizzo degli algoritmi nel procedimento amministrativo si registrano diverse sentenze della giurisprudenza amministrativa, frutto di due visioni contrapposte: da una parte quella del Tribunale amministrativo regionale per il Lazio, restìa all’utilizzo di tali strumenti, dall’altra quella del Consiglio di Stato, aperto all’utilizzo degli stessi, pur nel rispetto di determinati principi.

In particolare, il Tar, in una delle pronunce sul tema, evidenzia come l’utilizzo dell’algoritmo fa venire meno l’attività amministrativa, devolvendola ad un meccanismo matematico od informatico impersonale “orfano di capacità valutazionali delle singole fattispecie concrete, tipiche invece della tradizionale e garantistica istruttoria procedimentale che deve informare l’attività amministrativa, specie ove sfociante in atti provvedimentali incisivi di posizioni giuridiche soggettive di soggetti privati e di conseguenziali ovvie ricadute anche sugli apparati e gli assetti della pubblica amministrazione”.

Pur impostando l’algoritmo in modo da tener conto di tutti i presupposti che la legge richiede per l’emanazione del provvedimento finale, secondo il Tar “giammai può assicurare la salvaguardia delle guarentigie procedimentali che gli artt. 2, 6,7,8,9,10 della legge 7.8.1990 n. 241 hanno apprestato, tra l’altro in recepimento di un inveterato percorso giurisprudenziale e dottrinario […] gli istituti di partecipazione, di trasparenza e di accesso, in sintesi, di relazione del privato con i pubblici poteri non possono essere legittimamente mortificati e compressi soppiantando l’attività umana con quella impersonale, che poi non è attività, ossia prodotto delle azioni dell’uomo, che può essere svolta in applicazione di regole o procedure informatiche o matematiche. A essere inoltre vulnerato non è solo il canone di trasparenza e di partecipazione procedimentale, ma anche l’obbligo di motivazione delle decisioni amministrative, con il risultato di una frustrazione anche delle correlate garanzie processuali che declinano sul versante del diritto di azione e difesa in giudizio di cui all’art. 24 Cost., diritto che risulta compromesso tutte le volte in cui l’assenza della motivazione non permette inizialmente all’interessato e successivamente, su impulso di questi, al Giudice, di percepire l’iter logico – giuridico seguito dall’amministrazione per giungere ad un determinato approdo provvedimentale”.

Ancor più esplicativa è la considerazione secondo la quale le “procedure informatiche, finanche ove pervengano al loro maggior grado di precisione e addirittura alla perfezione, non possano mai soppiantare, sostituendola davvero appieno, l’attività cognitiva, acquisitiva e di giudizio che solo un’istruttoria affidata ad un funzionario persona fisica è in grado di svolgere e che pertanto, al fine di assicurare l’osservanza degli istituti di partecipazione, di interlocuzione procedimentale, di acquisizione degli apporti collaborativi del privato e degli interessi coinvolti nel procedimento, deve seguitare ad essere il dominus del procedimento stesso, all’uopo dominando le stesse procedure informatiche predisposte in funzione servente e alle quali va dunque riservato tutt’oggi un ruolo strumentale e meramente ausiliario in seno al procedimento amministrativo e giammai dominante o surrogatorio dell’attività dell’uomo; ostando alla deleteria prospettiva orwelliana di dismissione delle redini della funzione istruttoria e di abdicazione a quella provvedimentale, il presidio costituito dal baluardo dei valori costituzionali scolpiti negli artt. 3, 24, 97 della Costituzione oltre che all’art. 6 della Convezione europea dei diritti dell’uomo”.

Di diverso avviso, invece, è il Consiglio di Stato.

Con una prima pronuncia, i Giudici di Palazzo Spada osservano come un più elevato livello di digitalizzazione dell’amministrazione pubblica è fondamentale per il miglioramento della qualità dei servizi ai cittadini e agli utenti.

Allo stesso modo, evidenzia il Consiglio di Stato, l’automazione del processo decisionale della pubblica amministrazione mediante l’utilizzo di una procedura digitale ed attraverso un algoritmo in grado di valutare e graduare una moltitudine di domande comporta indiscutibili vantaggi, in particolare nelle procedure “seriali o standardizzate”, caratterizzate dall’elaborazione di ingenti quantità di istanze e dall’acquisizione di “dati certi ed oggettivamente comprovabili e dall’assenza di ogni apprezzamento discrezionale”.

Il processo automatizzato è “conforme ai canoni di efficienza ed economicità dell’azione amministrativa (art. 1 l. 241/90), i quali, secondo il principio costituzionale di buon andamento dell’azione amministrativa (art. 97 Cost.), impongono all’amministrazione il conseguimento dei propri fini con il minor dispendio di mezzi e risorse e attraverso lo snellimento e l’accelerazione dell’iter procedimentale”.

Di conseguenza, secondo il Consiglio, “l’utilizzo di una procedura informatica che conduca direttamente alla decisione finale non deve essere stigmatizzata, ma anzi, in linea di massima, incoraggiata: essa comporta infatti numerosi vantaggi quali, ad esempio, la notevole riduzione della tempistica procedimentale per operazioni meramente ripetitive e prive di discrezionalità, l’esclusione di interferenze dovute a negligenza (o peggio dolo) del funzionario (essere umano) e la conseguente maggior garanzia di imparzialità della decisione automatizzata”.

Tuttavia, precisa il Supremo Consesso della giustizia amministrativa, l’utilizzo di procedure robotizzate non deve portare all’elusione dei principi che conformano l’ordinamento e lo svolgersi dell’attività amministrativa.

A tal proposito, il Collegio elabora un “decalogo” contenente i criteri in presenza dei quali l’utilizzo dell’algoritmo è legittimo e conforme ai suddetti principi, ovvero quando la regola tecnica posta alla sua base:

“possiede una piena valenza giuridica e amministrativa, anche se viene declinata in forma matematica, e come tale, come si è detto, deve soggiacere ai principi generali dell’attività amministrativa, quali quelli di pubblicità e trasparenza (art. 1 l. 241/90), di ragionevolezza, di proporzionalità, etc.;

non può lasciare spazi applicativi discrezionali (di cui l’elaboratore elettronico è privo), ma deve prevedere con ragionevolezza una soluzione definita per tutti i casi possibili, anche i più improbabili (e ciò la rende in parte diversa da molte regole amministrative generali); la discrezionalità amministrativa, se senz’altro non può essere demandata al software, è quindi da rintracciarsi al momento dell’elaborazione dello strumento digitale;

vede sempre la necessità che sia l’amministrazione a compiere un ruolo ex ante di mediazione e composizione di interessi, anche per mezzo di costanti test, aggiornamenti e modalità di perfezionamento dell’algoritmo (soprattutto nel caso di apprendimento progressivo e di deep learning);

deve contemplare la possibilità che – come è stato autorevolmente affermato – sia il giudice a “dover svolgere, per la prima volta sul piano ‘umano’, valutazioni e accertamenti fatti direttamente in via automatica”, con la conseguenza che la decisione robotizzata “impone al giudice di valutare la correttezza del processo automatizzato in tutte le sue componenti”.

Secondo il Consiglio di Stato, l’algoritmo, ovvero il relativo software, deve essere considerato a tutti gli effetti come un “atto amministrativo informatico”, quindi soggetto ai principi procedimentali previsti dall’ordinamento, tra cui quello della trasparenza.

In tali fattispecie, però, la trasparenza assume una “declinazione rafforzata” che si sostanzia nella piena conoscibilità: (i) della regola espressa in un linguaggio diverso rispetto a quello giuridico, (ii) degli autori dell’algoritmo, (iii) del procedimento utilizzato per la sua elaborazione, (iv) del meccanismo di decisione e (v) dei criteri o dei dati utilizzati a tal riguardo.

In sostanza, continua il Collegio, “la “caratterizzazione multidisciplinare” dell’algoritmo (costruzione che certo non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative) non esime dalla necessità che la “formula tecnica”, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la rendano leggibile e comprensibile, sia per i cittadini che per il giudice”.

 

Inoltre, la regola algoritmica è soggetta alla piena cognizione del giudice amministrativo, il quale deve poter verificare come il potere sia stato concretamente esercitato dall’amministrazione, a tutela anche del diritto di difesa dei privati, che non può essere precluso dalle concrete modalità di esercizio del potere.

Sicché, il giudice deve poter valutare la correttezza del processo informatico in tutte le sue componenti, dalla sua costruzione all’inserimento dei dati, compresa la validità degli stessi e la loro gestione e, conseguentemente, la logicità e la ragionevolezza della decisione amministrativa robotizzata, anche attraverso la regola che governa l’algoritmo.

I principi sopra enunciati sono stati confermati dal Consiglio di Stato in una successiva pronuncia, nella quale viene ulteriormente messo in evidenza il vantaggio dell’utilizzo degli algoritmi per l’assunzione di decisioni da parte della pubblica amministrazione, in quanto idonei a “correggere le storture e le imperfezioni che caratterizzano tipicamente i processi cognitivi e le scelte compiute dagli esseri umani, messi in luce soprattutto negli ultimi anni da un’imponente letteratura di economia comportamentale e psicologia cognitiva”.

Inoltre, il Collegio specifica che non sussistono motivi per limitare l’utilizzo di tali strumenti alla sola attività vincolata, piuttosto che discrezionale, “atteso che ogni attività autoritativa comporta una fase quantomeno di accertamento e di verifica della scelta ai fini attribuiti dalla legge”. Di conseguenza, “se il ricorso agli strumenti informatici può apparire di più semplice utilizzo in relazione alla c.d. attività vincolata, nulla vieta che i medesimi fini predetti, perseguiti con il ricorso all’algoritmo informatico, possano perseguirsi anche in relazione ad attività connotata da ambiti di discrezionalità”.

 

Fondamentale, però, è garantire gli elementi minimi di garanzia per il privato, consistenti nel rispetto del principio di trasparenza, nella predetta declinazione “forte”, e l’imputabilità della decisione all’organo titolare del potere, il quale deve poter svolgere la necessaria verifica di logicità e di legittimità della scelta e degli esiti affidati all’algoritmo e sul quale cade l’eventuale responsabilità per la violazione dei diritti e degli interessi dei soggetti incisi.

Con la predetta pronuncia, il Consiglio di Stato, richiamando alcune disposizioni sovranazionali, elabora tre ulteriori principi:

il principio di conoscibilità, in base al quale ognuno ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino e, nel caso vi siano, ottenere informazioni significative sulla logica utilizzata. Tale principio si pone quale applicazione degli artt. 13, 14 e 15 del Regolamento UE 2016/679, sull’obbligo di informativa agli interessati da parte del titolare del trattamento e sul diritto di accesso, nonché dell’art. 42 della Carta Europea dei Diritti Fondamentali, che sancisce il diritto di accesso ai documenti nel contesto dell’Unione europea, e risponde al “Right to a good administration”, in base al quale quando l’Amministrazione intende adottare una decisione che può avere effetti avversi su di una persona, essa ha l’obbligo di sentirla prima di agire e di consentire l’accesso ai suoi documenti, dando le ragioni della propria decisione. Nel caso di utilizzo degli algoritmi, alla conoscibilità deve accompagnarsi anche la “comprensibilità”, ovvero la possibilità di ricevere informazioni sulla logica utilizzata;

principio di non esclusività della decisione algoritmica, che trova il suo fondamento nell’art. 22 del GDPR e si sostanzia nel diritto a non vedersi applicare una decisione completamente automatizzata nel caso in cui la stessa produca effetti giuridici che riguardino o incidano significativamente su una persona. Nello specifico, deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione robotizzata (secondo il modello HITL – human in the loop);

principio di non discriminazione algoritmica, ricavabile dal considerando n. 71 del GDPR, in base al quale è opportuno che il titolare del trattamento metta in atto delle procedure volte a limitare il rischio di errori e inesattezze che possano incidere sui diritti e le libertà delle persone a cui è rivolto il procedimento automatizzato, impedendo effetti discriminatori sulla base della razza, dell’origine etnica, delle opinioni politiche, della religione, delle opinioni personali, dell’appartenenza sindacale, dello status genetico, dello stato di salute o dell’orientamento sessuale. Per evitare tali effetti, occorre che vi sia la possibilità di rettificare i dati “in ingresso” presi in considerazione dall’algoritmo.

Più recentemente, il Consiglio di Stato ha ulteriormente ribadito le argomentazioni sopra illustrate, evidenziando che il ricorso all’algoritmo deve essere inquadrato in termini di modulo organizzativo, di strumento procedimentale ed istruttorio, soggetto alle verifiche tipiche di ogni procedimento amministrativo, il quale resta il modus operandi della scelta autoritativa, da svolgersi nel rispetto dei principi e dei limiti previsti dalla legge attributiva del potere, nonché delle norme del GDPR precedentemente citate.

5. Un nuovo significato di “trasparenza.”

Tra i principi elaborati nelle sentenze del Consiglio di Stato precedentemente illustrate, quello della “trasparenza” gioca un ruolo fondamentale per il legittimo utilizzo dell’algoritmo nel procedimento amministrativo.

Infatti, le elaborazioni automatiche che tale strumento comporta, caratterizzate da logiche matematiche o informatiche, di fatto potrebbero impedire un’adeguata conoscenza delle logiche sottese e della correttezza dei parametri e delle informazioni elaborate, tanto da parte dei soggetti destinatari del provvedimento quanto dello stesso giudice chiamato a vagliarne la legittimità.

Di conseguenza, la trasparenza deve spingersi fino a consentire la piena conoscenza dei meccanismi alla base del funzionamento dei suddetti strumenti automatizzati, senza che a ciò possa opporsi l’eventuale riservatezza delle informazioni legate ai software utilizzati da parte delle imprese produttrici.

A tal proposito, infatti, il Consiglio di Stato ha chiarito che “non può assumere rilievo l’invocata riservatezza delle imprese produttrici dei meccanismi informatici utilizzati i quali, ponendo al servizio del potere autoritativo tali strumenti, all’evidenza ne accettano le relative conseguenze in termini di necessaria trasparenza”.

Il principio di trasparenza viene, inoltre, ulteriormente rinvigorito dalle disposizioni del Regolamento UE 2016/679, che ne tratteggiano nuovi contorni.

Ci si riferisce, in particolare, all’obbligo di informativa che la pubblica amministrazione, in qualità di titolare del trattamento, è tenuta a fornire agli interessati ai sensi degli artt. 13 e 14 del GDPR, nella quale deve essere indicata l’eventuale esistenza di un processo decisionale automatizzato, nonché le informazioni significative sulla logica utilizzata, unitamente all'importanza e alle conseguenze previste dal trattamento.

All’obbligo di informativa fa da contraltare il diritto di accesso alle medesime informazioni da parte degli interessati, ai sensi dell’art. 15 del GDPR.

Tale tipologia di accesso si aggiunge a quello procedimentale ex artt. 22 e ss. della L. n. 241/90, nonché a quello civico e civico generalizzato di cui al D.Lgs. n. 33/2013, innalzando il livello della trasparenza dell’azione amministrativa.

La trasparenza, quindi, a fronte dell’utilizzo di tecnologie non sempre facilmente intelligibili per l’uomo comune, raggiunge un nuovo stadio della sua evoluzione, rafforzandosi e consacrando il suo ruolo di garanzia insopprimibile per i privati, nella consapevolezza che il potere opaco, il potere nascosto, rappresenta -come affermava Norberto Bobbio- un’insidia alla democrazia.

6. Conclusioni.

L’uso degli algoritmi da parte della pubblica amministrazione appare la naturale conseguenza dell’evoluzione tecnologica, effetto di quella che è stata definita come la “rivoluzione 4.0”.

I nuovi strumenti automatizzati sono potenzialmente insidiosi per i diritti e per le libertà delle persone, ma ad evitare possibili derive del potere soccorrono i tradizionali principi che l’ordinamento prevede per l’esercizio dell’azione amministrativa, in primis quello di trasparenza.

Tali principi, pur pensati in un periodo storico lontano da quello attuale, lungi dall’essere un mero eco dei tempi che furono, si ammantano di rigenerata forza e assumono nuovi significati, evolvendosi di pari passo con il progresso tecnologico e con il contesto storico-sociale e culturale.

Su questi presupposti l’azione amministrativa, che si dipana tra nuove tecnologie e“vecchi” principi, appare come Giano Bifronte, le cui due facce, secondo la mitologia, consentivano di guardare contemporaneamente il passato ed il futuro.

È proprio nel connubio tra passato e futuro, tra rispetto dei citati principi e consapevolezza del ruolo della tecnologia, un ruolo servente e non sostitutivo dell’agire umano, che si individua il giusto equilibrio per un legittimo utilizzo dell’algoritmo nel procedimento amministrativo.

 

 

 

LA DITTATURA DELL’ALGORITMO.

 

Internationalwebpost.org – Andrea Alessandrino – (14 settembre 2022) – ci dice:

 

Un potere strisciante e self driven.

Non c’era probabilmente bisogno di sperimentare gli effetti della pandemia per comprendere come le nuove tecnologie di comunicazione, in primis i social media, abbiano condizionato a dismisura le relazioni e i comportamenti collettivi.

Scienziati, studiosi, esperti di vari settori hanno stabilito come gli attuali enormi flussi di informazione siano ormai sottratti a una iniziale selezione naturale e siano oggi invece strutturati sempre più dalle tecnologie di comunicazione digitale.

Sono i prodotti del mondo digitale per l’appunto ad aver dato un imprimatur decisivo ai cambiamenti nella sfera sociale che vanno dalle relazioni interpersonali fino ai modi e ai tempi della politica di raggiungere il consenso di massa (Chomsky docet).

 Bisognerebbe allora concentrarsi e confrontarsi assieme sulle conseguenze di cambiamenti decisivi delle nostre relazioni oggi ancora poco chiare e soprattutto poco comprese e studiate.

L’ecosistema dell’informazione di cui facciamo parte ha acquisito un fortissimo impatto sulla società in ragione della pervasività della tecnologia nelle nostre vite e ha conseguentemente prodotto agenti patogeni come la disinformazione veicolati da social media usati in maniera disinvolta e spesso eterodiretta da parte di utenti inconsapevoli.

Le nuove sfide globali (pandemia, riscaldamento del pianeta, povertà) non possono essere risolti localmente ma devono essere affrontati come sfide globali comunicate su reti mondiali e per questo diffuse perché collegate da tecnologie digitali come smartphone e social media;

 è allora necessario avere consapevolezza degli strumenti forniti dalle tech company per comprendere perché poi si manifestino determinati comportamenti collettivi (razzismo, hate speech, complottismo, ecc.).

L’architettura dei social network e le fonti di informazione presenti in essi provengono da menti e decisioni di tipo ingegneristico finalizzate solo per rendere massima la redditività e il profitto delle aziende.

La tecnologia e il digitale hanno prodotto cambiamenti sociali non solo epocali ma anche non regolamentati in particolar modo per ciò che riguarda il cambiamento del comportamento degli utenti.

I cambiamenti sociali sono stati a lungo sottovalutati per ciò che riguarda i loro effetti problematici e significativi all’interno della struttura della rete che permette di avere contatti sociali con una massa di individui non paragonabile a nessun periodo storico del passato.

Effetti collaterali di fenomeni come echo chamber e polarizzazione delle posizioni non sono altro che le caratteristiche più evidenti di macro strutture che possono erodere la fiducia nell’altro e favorire fenomeni di grave instabilità politica.

Al centro di processi che scivolano via dal nostro diretto controllo, vi sono gli algoritmi, sistemi progettati per massimizzare la redditività, insufficienti o, come direbbe Massimo Chiriatti, egoisti nel promuovere una società giusta e informata.

L’effetto della tirannia algoritmica ha come effetto la produzione di schegge impazzite di disinformazione che viaggiano velocissime e senza controllo con la produzione spesso di danni collaterali come l’influenza che date informazioni veicolate su specifiche piattaforme possano rivelarsi tossiche per l’intera platea di utenti che ne fanno parte.

Come tutti gli ecosistemi, dunque, anche quello della rete è soggetto a effetti destabilizzanti dati dalle azioni sbagliate messe in atto contemporaneamente da una società in un lasso di tempo illimitato.

La specie algoritmica alla base delle nostre scelte non solo comunicative ma anche sociali, decide in una modalità detta humanless (cfr. #humanless. L’algortimo egoista di M. Chiriatti, Hoepli editore), ovvero attraverso caratteristiche che pur non appartenendo alla natura umana provengono da azioni umane, come immettere dati e produrre incessantemente interazione, interazione che non fa altro che aumentare a mano a mano che gli oggetti rimpiccioliscono e diventano portabili.

 Il mondo è algoritmico perché il machine learning da cui è alimentato lo porta ad evolversi sempre più grazie alle informazioni e alle specifiche immesse volontariamente da miliardi di operai della rete chiamati per il politically correct, utenti.

Se dunque agli algoritmi abbiamo lasciato l’opportunità e la responsabilità nel prendere ogni decisione che ci riguardi, è necessario che chiunque si occupi di comportamento collettivo, in particolar modo all’interno delle aziende tecnologiche, si doti di una popperiana patente che non solo li renda maggiormente responsabili, ma che avverta i produttori di contenuti e delle relative piattaforme su cui sono veicolati, a rispettare le persone prima che gli utenti e nel contempo sviluppino sistemi che possano promuovere in primis il benessere, mettendo in disparte, senza però escluderla, la possibilità di creare valore per gli stackeholder (rubandoci subdolamente la nostra attenzione collettiva).

(Andrea Alessandrino)

Algoritmi e scelte consapevoli?

Netreputation.it- Marco Pini – (3-5-2022) – ci dice:

Gli algoritmi che “governano” le piattaforme digitali, non sono “strumenti neutri”. La loro “presenza di sottofondo” influenza il nostro comportamento nelle piattaforme digitali.

Le piattaforme digitali che utilizziamo ogni giorno sono un po come degli “ambienti” e ogni ambiente (che sia fisico o virtuale) ha una influenza sulle persone che lo abitano o che ci transitano.

(Questo intervento fa parte dell’ebook Digitale Diffuso).

Cosa succede quando facciamo una ricerca su Google? Oppure quando accediamo ad un social network?

In una frazione di secondo ci vengono date risposte (la lista dei risultati della ricerca di Google) o proposti contenuti da scorrere nelle nostre bacheche sui social network.

Sono “gli algoritmi” che scelgono cosa mostrarci provando ad interpretare i nostri desideri o le nostre domande e ricerche.

Per farlo si basano su tantissimi “fattori” (che possono anche variare da Paese a Paese), spesso non noti (e protetti da brevetti per l’alto valore che rivestono per le aziende che li hanno creati e che quotidianamente li modificano, affinano, migliorano, cambiano ecc.).

In generale come utenti sottovalutiamo “l’acqua in cui nuotiamo“, siamo abituati a pensare, che siamo sempre e soltanto noi a scegliere, a guidare i nostri percorsi di navigazione sulla Rete.

Non è sempre esattamente così. Tanto che, solo per fare un esempio, da molto tempo si parla tra gli “addetti ai lavori” di “neuromarketing” che, appunto, nasce per cercare di portare l’utente a compiere determinate scelte, per esempio effettuare un’azione di un qualche valore economico (acquistare un prodotto, chiedere un preventivo ecc.).

Certo è vero che non tutte le persone reagiscono allo stesso modo ad uno “stimolo” (lo stesso vale anche per la pubblicità “tradizionale” che non “colpisce sempre” tutte le persone in egual misura) anche per questo molto spesso vengono fatti dei “test” sulle piattaforme digitali proponendo a campioni di utenti una nuova interfaccia o semplicemente un “nome” diverso per un pulsante su cui l’utente “deve” cliccare, per valutare “l’impatto” di tale modifica ed eventualmente estenderla a tutti gli altri utenti.

Gli algoritmi delle piattaforme digitali mediano tra noi e le “troppe” informazioni presenti in Rete.

Quanti contenuti vengono prodotti sulla rete ogni ora?

Tantissimi.

In particolare oggi con la proliferazione dei contenuti prodotti dagli utenti, dai bot (software) che producono contenuti automaticamente, dalle aziende (sempre di più coinvolte nella creazione di contenuti “in giro sulla rete” per promuoversi o rendere “nota” l’esistenza di un prodotto o servizio o di un “bisogno” ecc.), da chi con i contenuti di un blog prova a pagarci le bollette, dagli editori più o meno “tradizionali” ecc.

Più o meno tutti (umani e non) creiamo contenuti.

Serve quindi una “mediazione”, per fare un esempio quando cerchiamo qualcosa su Google, il motore di ricerca NON potendo mostrarci tutti insieme (ed allo stesso livello di “importanza) i contenuti “individuati” come possibili “risposte” alla nostra ricerca, li “classifica” e ce ne mostra 10 per pagina, scegliendo quei contenuti che ritiene (l’algoritmo) maggiormente attinenti alla nostra ricerca.

I contenuti in Rete sono tanti, di conseguenza (quando utilizziamo le “piattaforme digitali”) viene operata una scelta, che sia la bacheca di un social network che ci mostra contenuti, che siano risultati della ricerca di Google che deve trovare una “risposta” spesso tra milioni di possibilità.

Le informazioni che vediamo sono quindi gestite da Algoritmi:

Algoritmo: processo logico formale strutturato in passaggi logici elementari che conduce a un risultato ben definito in un numero finito di passaggi. Definizione tratta da: Ippolita, Tecnologie del dominio.

Gli algoritmi non sono pubblici ma sono creati ed aggiornati costantemente da grandi aziende private.

Gli algoritmi delle piattaforme digitali che utilizziamo quotidianamente per acquistare, informarci magari sul Covid-19, curiosare, intrattenerci sono gestiti da multinazionali private ed è abbastanza normale che ad esempio Google e Facebook abbiano come obiettivo principale quello di fare profitti… al di là della “narrazione di marketing sulle nobili intenzioni scritte sulle mission”.

Sono inoltre tutelati da brevetti e nessuno conosce esattamente come funzionano (l’apertura all’open source delle big tech meriterebbe un approfondimento a parte dati gli indubbi vantaggi economici, per le piattaforme) per questo non sono trasparenti (come lo sono sempre di più le nostre attività sulla rete) ma opachi (come giustamente mette in evidenza il librino sopracitato del gruppo Ippolita).

Non a caso, noi “addetti ai lavori” ci confrontiamo, discutiamo, litighiamo su “come funzionano questi algoritmi” e su come creare contenuti che siano GRADITI a questi algoritmi. Vengono anche costantemente “aggiornati”, per fare un esempio Google dichiara di realizzare centinaia e centinaia di piccoli e grandi “aggiornamenti” ogni anno che possono impattare profondamente i “risultati della ricerca”.

La domanda da porsi è: come è possibile che queste piattaforme pur facendo enormi profitti, richiedendo il lavoro di sviluppatori, analisti, sistemisti, valutatori dei contenuti ecc. oltre all’impiego di risorse fisiche enormi (il “cloud” è fisico, sono server, datacenter di proprietà delle piattaforme) siano ad accesso “gratuito “?

Monetizzazione tramite pubblicità personalizzate in base ai nostri comportamenti.

Una delle caratteristiche comuni alle piattaforme digitali che utilizziamo quotidianamente (Google per le ricerche, Facebook, Instagram, YouTube ecc.) è che guadagnano dalla vendita di inserzioni pubblicitarie (oramai onnipresenti), gli annunci che più o meno tutti noi visualizziamo nelle nostre sessioni di navigazione in Internet.

Le piattaforme digitali dunque generano enormi profitti grazie ad inserzioni pubblicitarie che vengono personalizzate in base alle attività online di noi utenti.

Siamo costantemente bombardati nelle nostre navigazioni in rete da messaggi pubblicitari, più o meno “velati“, più o meno “nascosti” e molto spesso ridondanti (vediamo un “messaggio” similare anche 10 volte nell’arco di pochi giorni).

Generalizzando si va dall’articolo  post promozionale (a volte non dichiarato come tale) cui ci imbattiamo facendo una ricerca su Google, all’inserzione georeferenziata quando cerchiamo qualcosa (gli annunci a pagamento di Google), alle pubblicità che arrivano sulla nostra bacheca Facebook (o LinkedIn o Instagram… su WhatsApp molto presto) sulla base dei nostri comportamenti, interazioni (che determinano i nostri “interessi” all’interno delle piattaforme) o del nostro profilo demografico (sesso dichiarato, dove diciamo di risiedere, età, professione ecc.).

Penso che ora sia più chiaro perché si usa tantissimo il termine PROFILAZIONE.

Siamo costantemente profilati come utenti che accedono alle piattaforme digitali.

In sostanza la “profilazione” avviene grazie alle nostre interazioni, click, commenti, mi piace che consentono agli algoritmi di provare ad estrarre (dai nostri comportamenti) i nostri gusti, i nostri hobby, i nostri “bisogni” più o meno reali e quindi mostrarci inserzioni pubblicitarie (di aziende che fanno pubblicità dei loro prodotti o servizi sui canali digitali) su cui è più probabile che manifesteremo un qualche interesse.Semplificando, ci sono quindi diversi attori (e non sono certo “sullo stesso piano” e non è detto che abbiano interessi che coincidono) i principali che mi vengono in mente:

Noi utenti singoli che ci auto-profiliamo con le nostre azioni quotidiane sulle piattaforme digitali che, ricordiamolo, possono [le piattaforme digitali] in qualsiasi momento modificare a loro insindacabile giudizio l’ambiente in cui agiamo (per esempio l’interfaccia grafica su cui interagiamo o le “regole contrattuali”) o decidere che un “servizio” non esiste più.

Le piattaforme che aggregano i nostri dati e li mettono a disposizione di aziende, associazioni o persone che vogliono veicolare messaggi, (quindi vendendo “inserzioni” che si basano sui nostri dati aggregati).

Le aziende (o associazioni, o anche singole persone) che desiderano fare pubblicità mirata di marketing e che di conseguenza scelgono un “pubblico” cui mostrare le loro inserzioni ed acquistano uno “spazio pubblicitario interattivo” o che vogliono incrementare la loro visibilità quando gli utenti cercano i loro prodotti o servizi su Google (o su un altro motore di ricerca).

Gli addetti ai lavori del digitale (blogger, agenzie di marketing, seo, web designer, copywriter, influencer, social media manager etc.) che lavorano affinché alcuni contenuti e messaggi finiscano nelle ricerche o nelle bacheche degli utenti.

Leggi che regolamentano (o cercano di farlo) il digitale, la pubblicità, cosa è “lecito” e cosa ti può “mandare in galera” (si pensi ai purtroppo tanti blogger che in alcuni paesi sono finiti in carcere per cosa hanno scritto sui loro siti o social) ecc., le connessioni ad internet, la libertà di opinione ecc. Che variano da paese a paese e che possono portare ad accordi tra Piattaforme digitali e Stati (tantissimi sono i casi).

Tornando al “funzionamento” degli algoritmi, visto che le “parole sono importanti” (come sanno tutte le persone che sul digitale o meno si occupano di contenuti) e plasmano il nostro modo di pensare, ci “inducono” emozioni, è importante chiedersi da dove nasce “profilazione”, o quantomeno, forse è interessante chiederselo.

Il termine deriva da “profiling” una parola che in origine indicava [e tuttora indica] il metodo con cui i criminologi tracciano il profilo di un “sospettato “.

Lo vediamo spesso nel cinema poliziesco quando il poliziotto prova a fare un “profilo del criminale” che sta cercando ovvero una: “descrizione del profilo psicologico e comportamentale dell’autore di un crimine.”

(“profilazione s. f. [in marketing]: Stesura di un profilo, mediante l’identificazione e la raccolta dei dati personali e delle abitudini caratteristiche di qualcuno.” treccani.it/vocabolario/profilazione_%28Neologismi%29/)

Siamo produttori oltre che consumatori quando interagiamo sulle piattaforme digitali.

Non è esaustiva l’affermazione che gira da tanti anni “se è gratis il prodotto sei tu”, c’è molto più di questo, siamo anche veri e propri produttori (come utenti che “vivono” quotidianamente nelle piattaforme digitali).

Creiamo [con le nostre micro-interazioni] il “valore economico” che viene ottenuto dai “nostri dati”.

Costruiamo i dati che servono a profilarci e quindi a “vendere” inserzioni pubblicitarie, grazie ai quali le piattaforme digitali possono vendere “inserzioni pubblicitarie” alle aziende. Siamo noi che produciamo i “big data” collettivamente, tanto che si parla della necessità di trattarli come “bene comune “.

Non è facile astrarsi dall’ambiente mediale che fruiamo ogni giorno, ma è indubbio che il valore economico delle piattaforme digitali venga misurato anche dal numero di utenti (persone) attivi/e che le utilizza (stesso ragionamento per gli “influencer” che pubblicizzano prodotti e servizi ai loro “follower”), siamo quindi produttori dei dati che consentono alle piattaforme di profilarci e vendere inserzioni pubblicitarie mirate e diventiamo consumatori (una dimensione che mi sembra sempre più invasiva sulla rete) quando visualizziamo le inserzioni pubblicitarie sulle nostre bacheche, nelle nostre ricerche o quando navighiamo in rete. Insomma quando stiamo ore ed ore sui social a cazzeggiare stiamo lavorando per una “migliore profilazione”.

 

Mi ricorda anche certi appelli all’autenticità (bel vantaggio per un sistema di profilazione avere persone che condividono - postano - interagiscono senza distinguere ad esempio sfera privata e pubblica, contesto ecc.), a pensare di essere “marchi-brand” (una debordante sfera “professionale”) concetti anzi visioni che trovo sbagliati.

Nel “mezzo” (tra utente, piattaforma, azienda che vuol farsi pubblicità), alle volte, ci siamo “noi addetti ai lavori” che cerchiamo di fare il possibile affinché determinati contenuti finiscano nelle ricerche e nelle bacheche degli “utenti giusti” (non sempre riuscendoci ma è altro discorso) .

“Il prodotto lo stiamo creando noi [persone], i nostri dati sono la “merce” che viene venduta”.

Si comincia a “leggere” (da diversi anni per la verità) di richieste di far partecipare gli utenti ai “guadagni” delle piattaforme… ok, ma teniamo sempre presente la domanda fondamentale: davvero tutto deve essere basato sull’economia?

Penso che si debba cominciare a discutere di questo dogma (primato assoluto della dimensione “economica”) anche sul digitale. In sintesi al primo posto dovrebbe sempre esserci la promozione del benessere sociale ed individuale (e non gli interessi economici delle grandi piattaforme).

Visualizziamo soltanto i contenuti “che ci meritiamo”?

Il nostro comportamento online influenza cosa vedremo in rete in futuro.

Lo proviamo tutti i giorni:

cerchiamo un libro di storia in rete e per 30 giorni ci vengono riproposti annunci che provano a venderci libri di storia ovunque (o quasi) navighiamo

interagiamo con una pagina Facebook e vedremo di più i contenuti di quella pagina o di “pagine considerate simili dall’algoritmo di FB”.

Guardiamo un video di un certo genere musicale su YouTube ed eccoci che quella tipologia di musica ci verrà mostrata più spesso… e così via….

Ritenere che siamo solo noi gli unici arbitri di “cosa ci viene proposto sul web” [potrebbe essere uno slogan tipo: ognuno di noi ha l’algoritmo che si merita!] è parziale (esattamente come “se è gratis il prodotto sei tu “), e forse anche un po’ “ideologico” (non “esistono solo gli individui” e le loro azioni come singoli, viviamo in società e culture complesse).

Tornando al Digitale Diffuso, il “singolo/a utente” compie azioni in relazione con una interfaccia (su cui non decide) “governata” da un algoritmo opaco (un esempio di “opacità”: le “liste di utenti speciali” emerse grazie all’inchiesta del Wall Street Journal) di proprietà di una multinazionale privata che crea profitti vendendo pubblicità sulla base delle nostre interazioni online, che crea profitti più che restiamo sulla piattaforma, clicchiamo ed interagiamo con essa [solo per fare un esempio, si è molto parlato degli interessi in campo nella proliferazione delle fake news sul Covid – questo il report di cui ha anche parlato il Presidente degli USA Biden relativamente alla proliferazione di disinformazione anche grazie al “modello di business” di Facebook].

Senza scomodare le influenze della cultura di riferimento.. oppure il grado di “alfabetizzazione informatica” di ognuno di noi (inteso in senso ampio), la “possibilità di fermarsi ed approfondire”, la “visione del mondo” sottostante ad alcune scelte delle piattaforme digitali e potrei continuare all’infinito.

Basta questo, credo, a considerare che non siamo gli unici ed esclusivi arbitri dei nostri destini “on-life” (mentre siamo costantemente “bombardati” da questa visione).

Anche  per questo è importante aumentare la nostra consapevolezza digitale capire come gli ambienti mediali ci influenzano ed in che misura, nel nostro piccolo, è lo spirito che cerchiamo di portare avanti nell’ambito di Radio Diffusa e che ha dato vita al nostro ebook Digitale Diffuso.

Dovrebbe ora essere più chiaro un altro elemento molto importante che sta caratterizzando una parte significativa della nostra fruizione della rete (che, ricordiamolo, passa sempre di più attraverso pochi grandi siti web o piattaforme digitali di proprietà di multinazionali che vendono pubblicità basata sulle nostre abitudini, interazioni in rete).

(“Echo-chamber (definizione dal sito della Treccani – treccani.it/vocabolario/echo-chamber_(Neologismi)/).

Nella società contemporanea dei mezzi di comunicazione di massa, caratterizzata da forte interattività, situazione in cui informazioni, idee o credenze più o meno veritiere vengono amplificate da una ripetitiva trasmissione e ritrasmissione all’interno di un ambito omogeneo e chiuso, in cui visioni e interpretazioni divergenti finiscono per non trovare più considerazione. (…) la tendenza ad aggregarsi con persone con le stesse attitudini e interessi [è] un processo determinante sia nel rinforzare l’echo-chamber sia nel determinare la dimensione di un processo virale “.

Sempre generalizzando un “funzionamento” comune tra le piattaforme digitali, queste ci mostrano quello che pensano [gli algoritmi] ci “piacerà” (la dimensione dell’intrattenimento mi pare sia diventata prevalente) o su cui abbiamo più probabilità di interagire, più che “lavoriamo per le piattaforme” e più che cresceranno i dati attraverso i quali gli algoritmi potranno mostrarci anche inserzioni pubblicitarie mirate. Nel caso della “ricerca di Google” le “risposte” che sembrano più in linea con cosa abbiamo digitato sul motore ma anche con le nostre precedenti abitudini di navigazione, e chissà se sono davvero le “migliori risposte” oppure le “uniche risposte possibili”.

Questo ci porta sui Social a vedere contenuti spesso molto simili tra loro, o a fruire sempre più di contenuti legati all’intrattenimento, o ad essere stimolati a “fare qualcosa”, “scrivere qualcosa”, “cliccare da qualche parte” oppure a “scorrere” fino a trovare qualcosa di (finalmente) interessante su cui vale la pena soffermarsi e magari interagire (e continuare la nostra auto-profilazione). Quantità di azioni rapide e veloci... a discapito della “qualità”.

Per questo si parla di “bolle” in cui siamo “immersi” e di possibilità, per tanti utenti, di restare “prigionieri” nelle proprie bolle con poche possibilità di imbattersi in opinioni e pensieri diversi rispetto alle proprie credenze (e a quelle della propria cerchia di amicizie) e forse anche per questo, alcuni utenti, quando si imbattono in “opinioni diverse dalla loro” preferiscono risolverla con l’insulto (facilitato anche dalla fretta, da reazioni emotive, sfoghi di rabbia ecc.) oppure possiamo rimanere attratti da “fantasiose teorie” che però trovano consenso nella nostra bolla o ci paiono verosimili.

Questo processo porta un enorme beneficio economico alle piattaforme digitali, ma porta davvero un benessere a noi utenti? E alle nostre comunità?

(Sugli aspetti legati a fake news e disinformazione rimando a: marcopini.info/contrastare-la-diffusione-di-fake-news-grazie-ai-principi-della-media-education/)

Gli algoritmi sono stati creati da persone che hanno la loro visione del mondo, i loro obiettivi economici ecc.

Nel film “The Social network” (sulla storia della nascita di Facebook) a un certo punto del film c’è una battuta che spiega molto bene una determinata “visione del mondo”:

“Un milione di dollari non è fico… Sai cos’è fico? Un miliardo di dollari.”

Mi viene spontanea una battuta, strano, avrei invece giurato che era figo “aiutare le persone a restare in contatto tra di loro” come vuole la narrazione…

Fin dalla loro creazione gli algoritmi vengono creati e progettati sulla base di determinati “fattori”, escludendone altri possibili.

Un po’ come quando facciamo una fotografia scegliamo l’inquadratura escludendo altre possibilità.

 

Sono creati [gli algoritmi di Google e Facebook ad esempio] da persone, dunque manifestano anche la “visione del mondo” dei loro creatori, per esempio il loro concetto di “miglior risultato possibile “(nel caso di Google).

Faccio un esempio, tra i tanti possibili, che riguarda la SEO (search engine optimization – fare in modo che un contenuto sia “gradito” agli algoritmi dei motori di ricerca).

Per migliorare la visibilità di un sito internet su Google sono molto importanti i link che altri siti fanno verso una risorsa web-pagina web  (tutti i manuali di SEO lo confermeranno e credo tutti i miei colleghi SEO) ed è così fin dalla nascita di Google.

Questo perché l’algoritmo di Google dà rilevanza ai link (considerati come “voti” verso una determinata risorsa web) fin dalle sue origini e tuttora è nella “mission” di Google:

(about.google/intl/it/philosophy/)

alla “verità 4” si legge:

“La Ricerca Google funziona perché si basa sui milioni di individui che pubblicano link su siti web per determinare quali altri siti offrono contenuti utili”.

Una sorta di “voto”.

Non entro sul concetto di “democrazia” (che per me è ben più profondo di una “conta “) perché sarebbe lunga ed in parte ne abbiamo parlato con il mio collega Walid Gabteni nell’ambito di Radio Diffusa .

Altro riferimento alla “nascita” di Google ed ai link (se ci pensiamo la caratteristica attraente della Rete Internet è la sua “apertura”, il suo “decentramento”):

L’idea è nata ispirandosi al modo in cui gli scienziati “misurano l’importanza” dei paper scientifici. Questo si fa guardando il numero di citazioni fatti da altri paper scientifici a quello preso in esame. Sergey e Larry [gli “inventori” di Google] studiano questo concetto e lo applicano al web misurando le citazioni (i link) tra le pagine.” (ahrefs.com/blog/it/google-pagerank/)

Gli algoritmi possono essere “manipolati”?

La SEO (per continuare nell’esempio, ma se ne potrebbero fare tanti altri su altre piattaforme, per esempio quelle i cui algoritmi vengono influenzati da “likes” e “condivisioni”. Si pensi ai tanti utilizzi politici da parte degli stati dei “bot automatici” – se ti interessa guarda “Cosa sono i bot e come influenzano l’opinione pubblica” ) può esser vista anche come un tentativo di manipolazione dell’algoritmo di Google per esempio acquisendo link (nella pratica quotidiana NON tutti i link (noi SEO lo sappiamo bene quanto sia difficile ottenere “link spontanei”) sono “citazioni naturali-spontanee” ma vengono anche acquisiti in altro modo, per esempio dietro un corrispettivo economico, per tornare alla dimensione “economica” della rete e alla proliferazione di contenuti, che magari hanno solo lo scopo di “piazzare un link” verso un sito web).

Non sto dicendo che è tutto “manipolato” anzi non lo penso sarebbe troppo facile ed è bene cominciare a diffidare delle semplificazioni, e che tutti i link sono costruiti in modo artificiale senza creare un contenuto di valore (parola purtroppo abusata), che “arricchisca” la rete, o che Google non sia il motore di ricerca migliore (tra quelli che uso io almeno lo ritengo il migliore, e poi ci lavoro quotidianamente) ma che è fondamentale, in prima battuta, che si conosca il funzionamento dei luoghi dove ogni giorno “entriamo” per chattare, leggere, ricercare, informarsi, interagire… e penso anche che chiunque di noi si sia imbattuto in contenuti creati solo per finalità di “manipolazione” dell’algoritmo (nota da addetto ai lavori: Google da sempre cerca di correre ai ripari con appositi filtri contro la pratica della “link building” che rimane un’attività complessa da fare e che ha il suo “fascino” ). Ma questo non vuol dire che, per fortuna, la rete non sia piena anche di contenuti di approfondimento, che ci fanno scoprire nuove cose, che ci fanno incontrare altre persone.

Interfacce progettate per favorire le Dipendenze Digitali?

Si parla tantissimo di dipendenze digitali in termini psicologici (giustamente) voglio invece fare una piccola riflessione intorno alle “interfacce” su cui operiamo quotidianamente “insieme” agli algoritmi e che, come abbiamo visto, possono contribuire a farci “rimanere nelle piattaforme digitali” (si tende sempre di più a creare ambienti “chiusi” sul web, anche per questo abbiamo invece scelto una strada diversa: un LIBRO DIFFUSO sul DIGITALE DIFFUSO con contributi “in giro” sulla rete).

Anche le interfacce con cui interagiamo non sono “neutre”.

Le interfacce sono gli elementi (l’arredamento) che troviamo quando accediamo ad un sito web, ad un motore di ricerca, quando entriamo in una applicazione o accediamo ad un programma.

Non sono solo un “elemento decorativo” o “tecnico”, sono funzionali a “determinati obiettivi”. Ricordiamoci che più usiamo le piattaforme, più veniamo profilati, più che affiniamo la nostra auto-profilazione e più che cresce la possibilità di vendita delle inserzioni pubblicitarie (Su “qualsiasi cosa” per esempio di prodotti di cui non sapevamo neanche l’esistenza, figuriamoci se ne sentivamo il “bisogno”, oppure di pregiudizi su minoranze, che possono diventare funzionali per conquistare qualche voto in più).

Le interfacce sono un insieme visuale di elementi: testi, icone, grafiche dove i “designer”, i programmatori, i marketer, i “webbari” decidono quali elementi mettere in rilievo, su quali “pulsanti” deve cadere la nostra attenzione.

Le interfacce possono influenzare il nostro comportamento ad esempio su un sito web con:

Elementi a cui viene data priorità. Per fare un esempio pensa a quando vai sul sito di un giornale qual’ è la prima cosa che noti? Probabilmente il titolo del primo articolo mentre noterai meno la “partita iva” posizionata nel fondo della pagina.

Dimensioni e formattazione.

Un testo più grande e colorato attira di più l’attenzione dell’utente [per esempio diversi anni fa l’avviso di nuove notifiche su Facebook è stato cambiato da verde a rosso proprio con l’obiettivo di ottenere maggiore attenzione dall’utente].

Testi. Non solo i contenuti o  articoli ma anche il così detto microcopy. Anche cambiare l’etichetta di un pulsante può fare una differenza enorme (specie su siti web complessi con tanti contenuti). Le così dette “CTA” (call to action, chiamate all’azione per l’utente, dove l’utente dovrebbe cliccare) più evidenti ed “appetibili “.

Immagini ed icone. Che possono guidare l’attenzione dell’utente.

Percorsi di navigazione. Per esempio perché su FB è molto facile postare qualcosa e molto più complicato trovare come cancellarsi dal social network?

Potrei continuare con tanti altri esempi (anche presi in prestito dalla mia attività professionale quotidiana come “ux e progettista web”) ma spero di aver reso l’idea di quello che voglio dire.

Le interfacce (anche senza scomodare il cd “neuromarketing” o il concetto di “copy persuasivo“) sono strutturate per provare a far compiere agli utenti determinati percorsi (spesso questi due “approcci” sono collegati più o meno velatamente con “ti regalo qualcosa, intanto però lasciami la mail” che poi così ti posso provare a vendere qualcosa (sto generalizzando lo so), ah, anche per questo NON ti chiediamo la mail per scaricare il nostro Digitale Diffuso o il precedente Generazioni a confronto).

Questo significa che tutti faremo le stesse azioni sulle interfacce? Assolutamente no, sarebbe troppo “semplicistico” ma è indubbio che ci saranno utenti (persone) magari meno “formati o consapevoli” o semplicemente più distratti o frettolosi o più motivati o pronti ad effettuare un’azione specifica, che saranno “indotti” a seguire o credere maggiormente a quello che l’interfaccia propone esattamente, mi si perdoni il paragone un po’ forzato, come quando si diceva “è vero, l’ha detto la tv”.

Provo a fare un esempio più esteso…. prendendo a riferimento Facebook.

L’interfaccia di Facebook invita costantemente ad “agire velocemente”.

L’importante è che fai qualcosa (click, mi piace, commento, condivisione), agisci rapidamente, del resto non ci viene ripetuto spesso che la velocità è un valore                     in sé? (ovvio che non sono d’accordo, la velocità non è un valore sempre positivo, dipende).

Un post su un social, lo scopriamo subito, dura poco tempo prima di essere dimenticato, perché il meccanismo è quello di “scorrere” fino a quando qualcosa di “sensazionale” attira la nostra attenzione e ci fa “fermare “e ci “premia”.

Uno scroll infinito (inventato dal “pentito” Aza Raskin), simile al meccanismo e allo scroll delle “slot machine” e delle cosiddette ricompense casuali, quando scriviamo un post o mettiamo una foto non sappiamo “quanto piacerà” quanti “like” riceveremo questo ci spinge a tornare sulla piattaforma o a lasciare accese le notifiche.

Anche quando scrolliamo l’interfaccia di un social non possiamo sapere quale sarà il contenuto (selezionato per noi dagli algoritmi) che attirerà la nostra attenzione questo ci invoglia a “rimanere sulla piattaforma” e crea una sorta di “dipendenza“, quanti di noi passano tempo a scrollare Facebook o TikTok o a navigare sui video di YouTube perdendo il controllo del “tempo” oppure quanti di noi sono “dipendenti” dalle risposte su WhtasApp o si allarmano se ad una mail non viene risposto in tempo reale oppure scrivono la stessa informazione su più canali disperdendo il tempo anziché guadagnarlo, della serie “ti scrivo su WhatsApp che ti ho mandato una mail, ricevuta?” (un’ansia digitale generalizzata, spesso inutile).

Cosa accadrebbe se l’interfaccia di Facebook ci avvisasse prima di postare un commento con un messaggio “Sei proprio sicuro di voler commentare questo post? Hai riletto quello che hai scritto?”.

Pensi che questa modifica all’interfaccia di Facebook potrebbe influenzare il “numero di messaggi che ogni giorno vengono lasciati su Facebook”?

Non correre ma fermarsi a riflettere.

Non si tratta di auspicare un ritorno all’analogico (pur amando molto il suono di certi vinili), ma in prima battuta di aumentare la consapevolezza mentre usiamo il digitale, di comprendere gli interessi economici in campo, la visione del mondo digitale in gioco, di darsi delle alternative off-line anche di socialità, di contrastare la preponderanza della dimensione economica e di marketing presente in rete e in generale nella nostra società dei consumi (come se tutto fosse riconducibile ad essere una merce, addirittura un brand individuale da esporre e “vendere” oppure dei consumatori e stop, una visione davvero limitata e triste dell’essere umano, anzi penso che sia esattamente la negazione dell’umano), di rivendicare usi alternativi e conviviali degli spazi digitali magari “dirottandone” il significato iniziale verso altri scopi da trovare insieme, di non aver paura di conflitto e pensiero critico, di riflettere sul fatto che anche il digitale inquina ed è energivoro, che i materiali con cui i nostri dispositivi digitali (spesso caratterizzati da una obsolescenza tecnologica accelerata) sono estratti  sfruttando spesso il lavoro (anche minorile).

Insomma provare a fare un percorso che vada al di là della “cornice” proposta dalle piattaforme digitali. Noi addetti ai lavori abbiamo una grande responsabilità e spesso invece ci fermiamo a ragionare ore, giorni, mesi sempre e solo sulle stesse questioni che so “ma quanto deve essere lungo un titolo?” – “non invitare gli amici a mettere likes sulla pagina” – “il link lo metto nei commenti quando faccio un post sui social?” [Domande utili nel lavoro quotidiano, non lo nego]. Mi chiedo se, oltre agli aspetti tecnici, oltre le stesse citazioni dagli stessi libri (o da libri diversi che però dicono le stesse cose) non possiamo anche andare oltre ad una visione del digitale che trovo sempre più appiattita, ristretta alla visione del mondo delle GAFAM (acronimo che indica le grandi multinazionali tecnologiche dell’Occidente – Google, Apple, Facebook, Amazon, Microsoft).

Nel nostro piccolo, cercheremo di “uscire dalle Bolle per riveder le stelle” sia come “lavoratori/lavoratrici del digitale” sia con la nostra iniziativa “Radio diffusa”, sia con il nostro librino “digitale diffuso” a partire dal quale vogliamo costruire un dibattito orizzontale e conviviale.

E quindi? Che si fa?

Non ho risposte ma prevalentemente dubbi, interrogativi, domande e voglia di confrontare le idee per provare ad immaginarci una tecnologia al servizio di tutta l’umanità!

Penso che la realtà la si capisca considerandola [insieme] nella sua complessità: le strutture economiche e sociali, la cultura di una determinata civiltà, le sotto-culture, le credenze maggiormente diffuse e le azioni dei singoli che agiscono quotidianamente nel “digitale diffuso“, i “rapporti di forza” tra differenti visioni del mondo.

Penso che abbiamo “rinchiuso” il digitale in una dimensione limitante, economicista, tecnicista.

Penso, ad esempio, che sia anche importante valutare la qualità del tempo che passiamo dentro al digitale.

Il tempo che passiamo su internet e sui social aumenta infatti a dismisura e tutte le ricerche ci dicono che stiamo sempre più tempo su internet.

Ma non basta “dare i numeri” urge farsi domande (esempio di ricerca su quanto stiamo online (wearesocial.com/it/blog/2021/01/digital-2021-i-dati-globali) perché spendiamo sempre di più tempo sul digitale? Al posto di quali altre attività? A cosa rinunciamo? Cosa guadagniamo dal tempo investito nel Digitale Diffuso? Quanto le piattaforme ci spingono a “stare connessi” o a “spendere tempo” su di esse?

Cosa facciamo “di preciso” quando siamo connessi? Come queste attività digitali ci cambiano? Quali sono le opportunità? Quali i vantaggi del digitale diffuso e perché li riteniamo tali? Quali sono i costi e i risvolti sociali? Ci sono effetti sulla nostra memoria e sul nostro “essere”? Quali impatti sulle giovanissime generazioni e sui bambini ha questo restare connessi? Quanto stress accumuliamo nell’ansia di rispondere sempre, anche la domenica, alle mail di lavoro? Quanto influisce su di noi avere sui nostri profili contemporaneamente: amici, colleghi, conoscenti, familiari (il cd collasso del contesto)? E tante, tante altre domande che ci aiuteranno a comprendere la realtà (anche) del digitale e degli algoritmi, capire è sempre il primo passo per cambiare in meglio la realtà. Anche di questo stiamo parlando nella “nostra” Radio diffusa ed abbiamo “lanciato” un sondaggio (volutamente breve) sulle “distrazioni e dipendenze digitali”.

Guerri: Giorgia provi a sorprendere

gli italiani, sia innovatrice sulle orme di D’Annunzio.

 

Secoloditalia.it- Vittoria Belmonte – (12 Set. 2022) – ci dice:

 

Lo storico Giordano Bruno Guerri, che ha nel suo curriculum centinaia di pagine scritte sul fascismo e su D’Annunzio, non vede rischi di dittatura all’orizzonte.

 Si sottrae dunque alla narrazione dominante a sinistra sui fantasmi del Ventennio ma invia qualche suggerimento a Giorgia Meloni. Deve, a suo avviso, sorprendere gli italiani nel solco di D’Annunzio. Immaginazione al potere dunque e meno conservatorismo.

Guerri: il vero fascismo è quello delle multinazionali.

Ecco le sue parole in una intervista a La Verità: “Non vedo nessun pericolo di fascismo, se per fascismo intendiamo una dittatura di destra che certamente non è nell’interesse di nessuno resuscitare. E se anche fosse l’Europa non ce lo permetterebbe. Peraltro l’Europa è una falsa nemica. C’è sì un fascismo che dobbiamo temere: è quello delle multinazionali, delle grandi aziende di internet. È di questo tipo di potere assoluto degli algoritmi di oggi che si deve avere paura perché quello è il vero pericolo”.

Un eventuale governo di centrodestra dovrà stare in guardia contro le ingerenze della magistratura, secondo Guerri. “Certamente la magistratura interviene volentieri e la sinistra farà il suo lavoro. Cercherà, come peraltro è riuscita più volte, a impapocchiare, a produrre un’accozzaglia pur di smentire i risultati delle elezioni. Se accadrà non ci sarà nulla di nuovo sotto il sole”.

Guerri: Meloni si ispiri a D’Annunzio.

“Per questo – continua – è importante la tenuta di un governo di destra che sono convinto sarà sorprendente a parte la possibile leadership di una donna. Giorgia Meloni il primo presidente donna con governo di destra. Sarà un governo sorprendente se come D’Annunzio saprà innovare.

Lui non era di questo tipo di destra, la paura che mi fa questa destra è quando s’ ispira e pratica un conservatorismo spinto. Non bisogna conservare c’è da innovare. L’Italia ha bisogno di andare avanti velocemente perché sta perdendo la sfida della modernità sociale, tecnologica, negli studi. Serve una destra capace di guardare avanti”.

“Concentrare tutte le energie sulla scuola”.

A parte l’evocazione di una destra più futurista e meno conservatrice, Guerri suggerisce di focalizzare l’attenzione delle politiche del prossimo governo sulla scuola.

«Sulla scuola sono 50 anni che dico che è il vero grande problema del Paese, lì va fatto ogni sforzo: di soldi, d’intelletto e di energie. Ciò detto l’identità dei popoli è oggi il problema dell’Europa. Il grande errore è stato puntare tutto sull’economia e non sulla cultura. Nel lungo periodo i popoli si devono conoscere e riconoscere.

 

 

 

L’inaffidabilità degli algoritmi.

 

Ilmanifesto.it- Frank Pasquale – (27 novembre 2020) - ci dice:

CYBER MONDI. Parla Frank Pasquale, docente di diritto alla Brooklyn Law School ed esperto di Intelligenza Artificiale.

«Se non possiamo distinguere tra androidi e umani la vita perde valore e viene privata di significato. È inverosimile che l’introduzione di una app possa rimpiazzare ciò che fanno ad esempio psicologi, dermatologi o anche insegnanti. Gli esperti devono gestire la tecnologia. Invece di venire sostituiti da questi strumenti, i professionisti dovranno governarli»

Interprete attento della rivoluzione digitale, Frank Pasquale è stato di recente tra gli ospiti della Biennale Tecnologia. L’autore è diventato famoso per il libro Black Box Society (2015) in cui denunciava che a guidare motori di ricerca e servizi finanziari siano algoritmi opachi, nascosti dentro scatole nere che impediscono di riconoscere le regole che ne determinano le preferenze e ne organizzano i risultati. Da giurista, Pasquale mantiene una sensibilità molto spiccata per questioni filosofiche e tecnologiche ed è stato tra i primi a segnalare il rischio della deriva tecno-burocratica della società digitalizzata.

Alla manifestazione torinese ha presentato il suo nuovo volume: “New laws of robotics: defending human expertise in the age of AI” (Belknap Press).

Il suo obiettivo è evitare di rincorrere la tecnologia robotica per regolamentarla, come è avvenuto con le piattaforme.

 È convinto che sia meglio favorire l’Augmented Intelligence (AI) invece dell’Artificial Intelligence (IA), cioè usare strumenti che possano potenziare la capacità di intelligenza umana, invece che cercare di sostituirla con l’imitazione.

Le leggi che dovrebbero sostituire quelle di Asimov sono quattro: complementarità dei dispositivi rispetto alle capacità umane AI invece che IA; non contraffazione dell’umanità; cooperazione invece di competizione (contro la corsa agli armamenti robotici); responsabilità (deve essere sempre possibile attribuire la responsabilità delle azioni e delle decisioni prese a un soggetto umano).

Abbiamo raggiunto Frank Pasquale per qualche domanda.

Nel suo libro parla dell’effetto mistificatorio di usare robot e software AI che facciano finta di agire come esseri umani, e ritiene che dobbiamo essere protetti da questo inganno.

Ma Turing nell’articolo sul gioco dell’imitazione (1950) ha affermato esplicitamente che le macchine sarebbero state in grado di ingannare una giuria di non esperti e questo avrebbe permesso loro di essere considerate intelligenti.

Turing è una specie di fantasma che infesta tutto il libro e alla fine prende la forma del personaggio del romanzo di Ian McEwan Macchine come noi. Possiamo accettare il test perché è al centro di tanta parte dello sviluppo dell’intelligenza artificiale, ma possiamo anche rifiutare l’idea che i dispositivi debbano essere un’emulazione abbastanza buona dell’essere umano.

Le relazioni tra le persone sono basate su una millenaria storia socio-biologica e prendono senso in un ambiente culturale di lungo periodo, pensare di farle valere fuori dal contesto mantenendo solo le parole e i gesti agiti dalla macchina sarebbe scorretto.

Sostituire un essere umano con un dispositivo meccanico, come fa notare Walter Benjamin a proposito della riproduzione meccanica, priva dell’aura l’espressione artistica, ma anche le persone. Se non possiamo distinguere tra androidi e umani la vita perde valore, perché gli androidi non ne hanno. Contraffare la comunicazione, l’affetto, l’espressione emotiva e l’azione le priva di significato in assoluto.

Se la tecnologia è un sistema per organizzare il mondo al fine di farlo corrispondere alle sue aspettative, prima o poi entrerà in contrasto con la legge rispetto a chi tra gli esperti dei due campi abbia l’autorità per stabilire le regole. Qual è la migliore strategia per vincere nel conflitto come regolatori?

Per vincere dobbiamo allocare meglio le risorse.

La lotta è impari se quelli che devono imporre la regolamentazione hanno risorse cento o mille volte inferiori a quelli che dovrebbero essere oggetto delle loro regole. Abbiamo molto da imparare dai paesi di successo in Asia. Stati Uniti ed Europa devono impegnarsi anche attraverso il sistema di tassazione, per ridurre il peso politico delle aziende da regolare. Non si può chiedere ai regolatori di entrare in azione solo dopo che il disastro è avvenuto. La regolazione deve trainare attivamente la tecnologia e intervenire prima che i danni siano compiuti.

É convinto che maggiore sia l’impiego di intelligenza artificiale e algoritmi di «machine learning», più abbiamo bisogno di esperti e professionisti. Come mai?

Voglio mettere in discussione la narrazione standard sul carattere dirompente dell’intelligenza artificiale, come se l’introduzione di un app per monitorare la pelle potesse sostituire i dermatologi o si potesse sostituire uno psicologo con una app per fare la terapia, o un insegnante coi corsi online automatizzati e personalizzati. La maggior parte di questi strumenti sono estremamente inefficienti e abbiamo bisogno di esperti professionisti, non solo per prendere decisioni come in passato, ma anche per gestire in modo proficuo la tecnologia nel loro ambito. Invece di venire sostituiti da questi strumenti, i professionisti dovranno governarli.

Lei sostiene che sia preferibile una tecnologia capace di potenziare le capacità umane fornendo solo un supporto per la presa di decisione. Non pensa che questo possa produrre una situazione in cui le macchine prendono le decisioni di cui poi le persone si assumono la responsabilità senza comprenderne le motivazioni, a causa del pregiudizio dell’affidabilità di ogni automazione?

Questo costituisce un rischio, ma ci sono modi per alleviarlo o combatterlo. Bisogna spiegare alle persone che la maggior parte dei loro problemi sono complessi perché ci sono molte dimensioni tutte incommensurabili tra loro e prendere una decisione implica comprendere questa pluralità. Se si deve misurare l’esito di un intervento di protesi al ginocchio possiamo scegliere tanti aspetti: quanto dolore si è sopportato, quanto tempo ci è voluto per riprendere l’attività, quanto per correre, com’è stata l’esperienza di convalescenza, ma anche altre variabili a lungo termine. Se la protesi manda nel sangue tracce del suo metallo bisogna capire come intervenire. Il monitoraggio di tutte gli elementi richiederà un expertise umano.

Le tecnologie non possono essere preparate in tutto, né gli esperti di informatica possono sostituire quelli di medicina o di ogni altro campo. Ci sarà sempre bisogno di scelte creative e prospettive originali. L’intelligenza artificiale non è una scienza, ma solo il preludio alla scienza, è il modo in cui si possono generare ipotesi partendo dall’analisi delle correlazioni, ma non trova le cause dei fenomeni. L’addestramento degli esperti deve servire anche per non farli soccombere al pregiudizio dell’automazione.

Alla fine del libro afferma la necessità della responsabilità personale per una governance legittima. Crede che abbia a che fare con la capacità di empatia propria degli umani o con l’inevitabile pluralismo dei diversi punti di vista che permette l’innovazione, la sorpresa, la serendipità e imprevedibilità dei comportamenti?

Credo riguardi tutti e due gli aspetti. L’empatia è un elemento cruciale capace di tenere insieme una comunità politica, in quanto costituisce la linfa di appartenenza a un corpo comune. Altrettanto conta l’impredicibilità delle persone: dobbiamo decidere quello che vogliamo conservare e quello che dobbiamo scartare del passato.

 Parte della tensione costruttiva del libro si riferisce al riconoscimento di tutti i modi in cui la tecnologia possa aprire nuove opportunità e insieme costituire una sorta di tradimento, nella forma di un’erosione dell’insieme di valori e impegni che sono parte della nostra identità.

Nel libro si parla di robot, ma non possiamo dimenticare le piattaforme che già dominano l’ambiente digitale. Come possiamo tenere sotto controllo il loro potere?

Penso che le piattaforme siano simili alle telecomunicazioni che sono state pesantemente regolamentate, per favorire la concorrenza. Dobbiamo creare un’infrastruttura solida che le governi su due profili: assicurarci che non facciano circolare e non amplifichino il discorso d’odio e le teorie cospirazioniste e evitare che prendano il controllo dell’economia nel suo insieme, strangolando le aziende più piccole.

Si potrebbe separare Facebook da Whatsapp e da Instagram, così come Google da YouTube. Bisognerebbe contenere la posizione dominante di Apple nel suo app store, così come impedire a Amazon di possedere sia la piattaforma di e-commerce sia di usarla per vendere le merci. Tali azioni regolative aggressive sono necessarie e sta crescendo l’approvazione tra gli esperti del digitale. Aspettiamo solo la volontà politica di correggere le incongruenze.

 

 

 

 

 

L’ingiustizia degli “Algoritmi”

Conoscenzealconfine.it-( 8 Settembre 2019) - Intervista di Alessandro Longo a Virginia Eubanks:

 

È possibile essere discriminati da un Software?

Gli algoritmi stanno facendo il loro ingresso nei servizi di welfare negli Stati Uniti e in numerosi altri paesi.

Decidono a chi erogare i sussidi per la disoccupazione o addirittura quali bambini togliere ai genitori (in caso di maltrattamenti o di trascuratezza). In questo modo, ci siamo esposti al rischio di “automatizzare la diseguaglianza” e di usare la tecnologia per disempatizzare i nostri sentimenti nei confronti dei più poveri e deboli.

Parole di Virginia Eubanks, professore associato all’università di Albany (New York), che con il suo “Automating Inequality” ha toccato il nervo scoperto di una nazione.

E non di una soltanto, come dimostra il suo tour di presentazione del libro in molti paesi: dalla Scandinavia all’India, fino in Australia.

 La particolarità del saggio (acclamato anche dal New York Times e dal Guardian) è l’aver raccolto “centinaia di testimonianze, da parte di persone che sono state soggette al trattamento algoritmico da parte del sistema pubblico: tutte riferiscono di essersi sentite disumanizzate da questo processo”, racconta a Le Macchine Volanti.

Alcune di queste situazioni rappresentano casi di vera e propria ingiustizia: nello stato dell’Indiana, per esempio, un algoritmo analizza i big data per capire a chi dare (o togliere) il sussidio di disoccupazione e invalidità.

In decine di migliaia di casi, però, le persone hanno perso il diritto a ottenerlo perché non sono riuscite a rispondere prontamente alla telefonata di verifica (com’è avvenuto a Sheila Purdue, non udente); o perché hanno riattaccato il telefono dopo 50 minuti di attesa al call center dedicato, sovraccaricato dalle inefficienze del sistema stesso.

 

D: Quali sono gli ultimi segni di questo fenomeno di “automatizzazione della diseguaglianza”?

Mi sono accorta nel mio tour di come questi strumenti automatici siano implementati in molteplici posti, sempre più spesso. In Australia vengono utilizzati per identificare le persone a cui il governo – in base ad alcuni parametri – ritiene di aver pagato troppi sussidi.

Ci sono decine di migliaia di persone che ricevono una lettera dal governo in cui si chiede di restituire somme anche di 2 o 3 mila dollari.

E se si ritiene di star subendo un’ingiustizia, bisogna dimostrare di avere avuto pieno diritto al sussidio. Spesso, però, si tratta di casi che risalgono anche a 20-30 anni prima, come si può quindi dimostrare di essere nel giusto?

In India si usano anche sistemi di identificazione biometrica per chi riceve sussidi pubblici, nonostante ci sia un dubbio di costituzionalità. In generale, vedo sempre più esempi simili a quelli descritti nel libro: la maggior parte degli stati ora usa algoritmi per stabilire chi ha diritto a un sussidio, incorrendo negli stessi problemi sperimentati in Indiana.

Il Coordinated Entry System è invece un servizio di assistenza per i senzatetto di cui ho descritto il funzionamento a Los Angeles, ma che oggi sta diventando uno standard sempre più utilizzato.

Si stanno diffondendo anche algoritmi che stabiliscono chi maltratta i propri figli: nel libro racconto un caso di Pittsburgh, ma ora sta prendendo piede anche in Inghilterra.

D: La tua tesi è che l’automazione di questi servizi sia un problema perché, togliendo il filtro umano, diamo maggiore potere all’algoritmo e riduciamo le possibilità di ribaltare il modello.

Esatto. Ma anche quando l’algoritmo funziona bene, ho riscontrato che le persone se ne sono sentite comunque vittime. Parlandomi, mi hanno riferito di essersi sentite disumanizzate. Ridotte a un blocco di dati da analizzare. E persino terrorizzate all’idea che il governo, grazie a questi dati, potesse prevedere il loro futuro comportamento.

D: Sorprende che questi sistemi si diffondano, nonostante i problemi riscontrati.

Il problema è di base: non ci preoccupiamo abbastanza delle persone in condizione di povertà, su cui – soprattutto negli USA – grava uno stigma culturale. Li accusiamo della loro condizione e attraverso gli algoritmi vogliamo dimostrare il nostro pregiudizio, secondo cui si meritano di essere poveri e di conseguenza di essere in alcuni casi puniti. Per questo motivo, dico che serve un cambio culturale prima di automatizzare questi sistemi, altrimenti il rischio è di automatizzare solo i nostri pregiudizi.

D: Quali soluzioni prevedi?

Nel libro invoco la necessità di un cambio culturale e politico; aumentare la consapevolezza sulle reali cause delle situazioni di povertà. La povertà è un fatto sociale, non può essere risolta con soluzioni tecnologiche come vorrebbero alcuni. Ma visto che l’eventuale soluzione ci metterà molto tempo ad arrivare, nel frattempo bisogna stare attenti a sviluppare tecnologie non dannose. Che non peggiorino il problema, insomma. Nel libro, per prima cosa, mi appello al senso di responsabilità di chi sviluppa i sistemi. Li invito a un nuovo giuramento di Ippocrate per i data scientists, in modo che non programmino algoritmi potenzialmente discriminatori.

D: Ma il senso di responsabilità può non bastare. Le istituzioni europee stanno adottando un doppio approccio, con linee guida e leggi sulla privacy per ottenere la collaborazione di chi sviluppa questi sistemi, indicando alcuni principi etici e stabilendo leggi molto stringenti. È il caso del Gdpr, che prevede che le persone abbiano il diritto di non ricevere trattamenti automatizzati di dati che possono avere un impatto nelle loro vite.

Sì, ma mi sono accorta che queste regole hanno poi problemi di applicazione. Nel libro racconto la vicenda di un gruppo di persone che aveva scelto, essendocene la possibilità, di non far trattare i propri dati dagli algoritmi, ma che poi proprio per questa ragione hanno perso il sussidio. Del Gdpr, invece, apprezzo il principio secondo cui le persone hanno diritto a un controllo sui propri dati personali e a che ci sia sempre un “decisore umano” per aspetti che hanno un impatto sulle loro vite. Il decisore umano ci protegge di più, perché permette di mettere in discussione – anche in una controversia legale – una decisione che ci penalizza da parte di un ente pubblico.

(Intervista di Alessandro Longo a Virginia Eubanks- lemacchinevolanti.it/approfondimenti/lingiustizia-degli-algoritmi)

 

 

 

 

 

 

«Il digitale è progresso, ma la giustizia

 non sia schiava degli algoritmi».

 

Ildubbio.news - Orlando Trinchi – (15 SETTEMBRE 2021) -ci dice:

 

Parla il magistrato francese Antoine Garapon, giurista e scrittore: «Il giudizio non è solo l'applicazione del diritto, ma anche l'esercizio della pratica».

«Potrebbero porre rimedio alla lentezza della giustizia e permettere l’abbassamento dei costi, ma attenzione a non credere in un effetto magico del digitale, uno strumento tecnico che diventa efficace solo se sostenuto da una determinazione della comunità professionale dei giuristi e uno sviluppo culturale accompagnato politicamente».

Il magistrato francese Antoine Garapon commenta gli stanziamenti per la digitalizzazione dei procedimenti giudiziari, contenuti, insieme ad altre misure, nel PNRR (Piano Nazionale di Ripresa e Resilienza), presentato dal Governo italiano alla Commissione europea il 30 aprile 2021.

Un tale carattere d’innovazione non deve essere disgiunto dall’orizzonte sociale cui afferisce: «Occorre sostenere le capacità del pubblico di assorbire l’innovazione, diffidare dell’analfabetismo informatico e della frattura digitale. Le classi meno abbienti potrebbero non avere accesso a questi strumenti. Bisogna agire congiuntamente su tre livelli: strumenti, formazione e supporto sociale».

Giurista e scrittore – fra i suoi ultimi titoli, «Crimini che non si possono perdonare né punire. L’emergere di una giustizia internazionale» (il Mulino, 2005), «Lo stato minimo. Il neoliberalismo e la giustizia» (Raffaele Cortina Editore, 2012) e «La despazializzazione della giustizia» (Mimesis Edizioni, 2021) –, Garapon analizza nel suo nuovo saggio, «La giustizia digitale. Determinismo tecnologico e libertà» – scritto a quattro mani con il filosofo ed epistemologo Jean Lassègue e pubblicato in Italia dal Mulino – opportunità e limiti dei processi di digitalizzazione nell’ambito della giustizia.

La cosiddetta “delega alle macchine” che, alla stregua di una vera e propria credenza collettiva, sta informando i più svariati settori produttivi, si accompagna, per quanto concerne la giustizia, alla pretesa d’infallibilità del giudizio.

«È un sogno assoluto – rileva l’autore – che abbiamo chiamato “il mito della delega alle macchine”.

Il giudizio non è solo l’applicazione del diritto, ma anche l’esercizio della saggezza pratica; non vediamo proprio come una macchina possa sostituirsi ad essa.

D’altro canto, l’analisi dei dati giudiziari può portare allo scoperto talune tendenze invisibili alla coscienza del giudice, e, rivelandogliele, renderlo più prudente».

Garapon pone l’accento sul rischio di de-simbolizzazione che potrebbe ingenerare l’imporsi della nuova scrittura digitale in ambiti come quello giuridico e sociale. Il potere espressivo della parola conferisce un valore simbolico ai singoli segni, che rende gli individui partecipi di un ordine a loro sovrastante e attiva una dimensione di efficacia simbolica del tutto assente con l’elaborazione informatica dei segni medesimi.

Trattandosi di un’attività grafica affidata al computer, la scrittura digitale, a differenza di quella alfabetica, ritarda la comparsa del significato, aspirando a una nuova efficacia che dipende esclusivamente da sé stessa: “scrittura normativa” che trae impulso da una performatività autonoma ben distinta da una performatività sociale o giuridica, in quanto sostanzialmente grafica.

La legaltech, che su tale tipo di scrittura si fonda, comporta un significativo stravolgimento delle professioni giuridiche, proponendo un’offerta di mediazione fra la moltitudine e gli strumenti di regolazione che, se da un lato penalizza avvocati, notai e altri giuristi, dall’altro si pone come infinitamente più performante e affidabile.

«Le conseguenze dell’avvento della legaltech – osserva il magistrato – sono potenzialmente molto rilevanti, in quanto essa colloca la tecnica in posizione di preminenza rispetto alla politica, al diritto, ai giudici e all’esperienza personale.

Il digitale pretende di rivelare “la verità” del testo di diritto.

Sono ingegneri, che non hanno alcuna capacità giuridica, che stabiliranno, attraverso degli algoritmi, il vero contenuto della legge, determinando ciò che è realmente deciso dai giudici».

Una prospettiva nuova di ascendenza libertariana, in cui avvocati e giuristi diventano subalterni a ingegneri e geeks, matematici e uomini d’affari, padroni della tecnica informatica e processori di big data che, in seguito alla penetrazione della logica capitalista nella professione di avvocato, vendono disintermediazione e un facile accesso al diritto, osteggiando le istituzioni ma assecondando le leggi di mercato.

Ineludibile portato del digitale è la digital disruption, la distorsione delle categorie di spazio e tempo finora comunemente intese: essa stravolge e distrugge le dimensioni della durata – contrae il tempo di uno scambio a un niente, mentre estende all’infinito la possibilità di conservare dati – e della distanza, da una parte originando rapporti ubiquitari e dall’altra annullando la prossimità spaziale.

«Il processo – aggiunge Garapon – è profondamente uno spazio di incontro: bisogna fare lo sforzo di arrivarci (con la paura che ne deriva), e di rivedere gente che non si vorrebbe affatto rivedere.

Tutte queste emozioni fanno parte dell’esperienza della giustizia: una miriade di informazioni passano attraverso queste esperienze che ci permettono di regolare il nostro comportamento. Immaginiamo la stessa scena su uno schermo, è completamente diverso. La de-spazializzazione consiste nell’eterotopia per cui si è sia qui che altrove. Non vi è più l’iscrizione dell’esperienza della giustizia nei corpi».

La tecnica muta modalità e percezione dell’evento di giustizia: la visione su uno schermo viene vissuta in maniera privata, senza la necessaria ritualità e la relativa pressione (la persona interrogata può trovarsi davanti a un caffé, un detenuto da una prigione in Sicilia può testimoniare in un processo a Chicago, ecc.).

Il processo classico è invece frutto ineludibile dell’intreccio tra spazio e tempo, percezioni soggettive e realtà oggettive e deve creare, a livello ottimale, sinergia fra  tre tipi di efficienza: procedurale, simbolica e sociale. Esso permette di riunire nella stessa sala tutte le parti – giudice, avvocati, esperti, testimoni e pubblico – allo scopo di dirimere una questione e giungere a un epilogo che, nei migliori dei casi, produce una catharsis, ovvero un effetto sociale di pacificazione.

In tale versante si innesta la distinzione tra iterazione informatica, che esprime la ripetizione sempre uguale di procedure definite in anticipo, e la ripetizione rituale, che invece, proprio attraverso la mediazione simbolica, intende riportare l’estraneo al familiare, l’orrore a un ordine sublimato.

Bisogna infatti ricordare che pertiene al rituale giudiziario una dimensione di gioco minacciata dalla radicalizzazione della regola, ovvero quando una regola viene eseguita senza dover essere interpretata: «ogni regola troppo rigida produce ingiustizia (si pensi alle griglie delle pene negli Stati Uniti), perché il diritto è fondamentalmente un gioco».

Nel sistema della blockchain – «catena di blocchi», contrassegnata da un rigido determinismo prodotto dai mezzi della crittologia – l’atto autentico, ovvero l’esecuzione del programma che investe i termini codificati del contratto, schiaccia quella rappresentazione che consente il gioco, e quindi l’interpretazione, l’argomentazione, la discussione e la correzione dopo un’esperienza politica non conforme al disegno del legislatore.

La giustizia «ha bisogno di ritagliarsi uno spazio di gioco per soppesare i pro e i contro e trovare di volta in volta la soluzione più giusta. L’imperfezione, per quanto paradossale possa apparire, è una condizione del diritto».

Un gioco, quello della giustizia, insidiato anche dal ricorso alla funzione predittiva, che mira a dedurre il futuro dal passato, contestualizzando il caso in esame secondo specifiche caratteristiche e anticipando le probabilità delle decisioni che potrebbero essere prese.

Con esiti potenzialmente ancora da scoprire:

«C’è da scommettere che fra qualche anno, in ogni causa importante, saranno fornite da ciascuna parte delle valutazioni predittive, forse contraddittorie fra loro (cosa che le indebolirà); esse compariranno nel fascicolo come un’ecografia in una cartella clinica; un’informazione di un genere nuovo, che coadiuva il lavoro di ciascuno, senza sostituirlo».

Il lavoro predittivo, che riguarda tutti i settori della giustizia e non solo le sentenze, potrebbe comportare, in estrema analisi, un’abolizione del tempo, in quanto il futuro diventerebbe presumibilmente conosciuto quanto il passato, generando una prospettiva di chiusura.

«In realtà – precisa Garapon, – l’utilizzo più massiccio dei software predittivi interviene a monte attraverso le parti fortunate che possono permetterseli, al fine di decidere se andare a giudizio sulla base delle probabilità di successo. Il che non è esente da effetti perversi, poiché a volte l’audacia di una nuova argomentazione può cambiare la posizione dei tribunali».

L’illusione prolettica è, appunto, solo un’illusione. Ma fino a che punto essa potrebbe risultare determinante? «Non credo che avrà una grande influenza. Non dimentichiamo che il ruolo della giustizia è di trattare delle passioni umane – odio, avidità e gelosia, per esempio. Noi non siamo “attori razionali”, a dispetto di una sorta di economicismo dilagante. Questo non deve essere un pretesto per respingere gli strumenti digitali, ma per farne un uso adeguato». Senza idolatria né inutili pregiudizi.

(Antoine Garapon-magistrato francese).

Commenti

Post popolari in questo blog

Quale futuro per il mondo?

Co2 per produrre alimenti.

Caos e dazi.