STRUMENTO COERCITIVO: IL CONTROLLO DIGITALE.
STRUMENTO COERCITIVO: IL CONTROLLO DIGITALE.
Sorveglianza
di massa in Cina,
il
modello che spaventa l’Occidente.
Agendadigitale.eu-
Barbara Calderini – (04 Mar 2020) – ci dice:
Spyware
nei cellulari, telecamere per il riconoscimento facciale, wi-fi sniffer. Si
basa su un mix di tecnologie vecchie e nuove la grande rete voluta dal
presidente Xi Jinping che punta a “spiare” 1,4 mld di abitanti. Il prezzo
pagato alla privacy del nuovo Panopticon che spaventa il mondo.
digital
panopticìon.
Un’immensa
rete di sorveglianza copre le città cinesi e conferisce alla polizia poteri
quasi illimitati. Conversazioni via smartphone, espressioni del volto, movimenti vengono
controllati costantemente grazie a un potente sistema di tecnologie integrate
gestite da applicazioni di Intelligenza artificiale. Ecco com’è realizzato uno
dei più grandi apparati di spionaggio del mondo. Che agisce a scapito della
privacy. E che non sarà facile fermare.
Cina,
prima al mondo per telecamere.
Sono
anche i motivi per cui a febbraio la Commissione europea presentando il libro
bianco sull’AI (intelligenza artificiale) ha ribadito la necessità di evitare
che si impongano, nella corsa tecnologica, modelli contrari ai principi
fondanti dell’Europa.
Già
perché le città cinesi sono le più monitorate al mondo. La società di sicurezza
Comparitech ha steso una classifica basata sul numero di telecamere a circuito
chiuso ogni 1.000 persone: la Cina detiene il primato con otto delle prime 10
città più sorvegliate al mondo e l’apice si tocca a Chongqing, grande
agglomerato urbano situato nel sud-ovest del paese dove confluiscono i fiumi
Azzurro e Jialing. Nella graduatoria mondiale la Cina è seguita da Malesia e
Pakistan, Usa, India, Indonesia, Filippine e Taiwan. Irlanda e Portogallo a
fine elenco, Italia a metà.
Le
uniche due città non cinesi nella top 10 sono Londra al sesto posto e Atlanta
negli Stati Uniti al n. 10 mentre tra le città cinesi, oltre a Chongqing al
primo posto con quasi 2,6 milioni di telecamere, ovvero 168,03 per 1.000
persone; Shenzhen, nella provincia meridionale del Guangdong, è arrivata al
secondo posto con 159,09 telecamere per 1.000 persone. Urumqi, nota capitale
della regione autonoma cinese dello Xinjiang Uygur si è classificata al 14esimo
posto, con 12,4 telecamere per 1.000 persone.
Una
fitta rete di scanner e fotocamere ricopre la maggior parte delle città cinesi.
La complessa gamma di tecnologie di sorveglianza implementate in tutta la Cina
ha suscitato un’attenzione diffusa ed una preoccupazione generale in varie
parti del mondo.
Il
focus dei media internazionali.
Due
giornalisti del New York Times, Paul Mozur e Aaron Krolik, hanno esaminato il
modo in cui i vari strumenti di sorveglianza vengono combinati all’interno di
un sistema integrato costantemente connesso, fatto di tecnologie miste, alcune
all’avanguardia ed altre piuttosto datate.
L’articolo,
pubblicato a metà dicembre, descrive con ricchezza di particolari e riscontri
video come queste funzionalità siano ormai diventate largamente disponibili per
le Autorità di polizia di ogni livello e come i dati raccolti possano essere
resi accessibili ad una vasta gamma di terze parti sia pubbliche, per scopi di
intelligence e sicurezza pubblica, che private, per scopi commerciali e di
marketing. Il tutto, peraltro, attraverso pratiche di sicurezza del tutto
assenti se non inadeguate.
Scanner
del telefono, tecnologia di riconoscimento facciale ed enormi database di volti
e impronte digitali sono tra gli strumenti utilizzati.
“I
dati di ogni persona formano una traccia – ha riferito alla testata Agnes
Ouyang, impiegata in ambito tecnologico di Shenzhen – che può essere utilizzata
dal Governo e dai dirigenti delle grandi aziende per mettere in atto forme di
controllo e direzione. Le nostre vite valgono come spazzatura”.
Dati
personali in mano alla polizia.
La
polizia è stata autorizzata a divenire una sorta di custode indiscusso delle
enormi quantità di dati personali, compresi i dati biometrici, dei suoi quasi
1,4 miliardi di persone. I lavoratori migranti, le minoranze, le voci contrarie
al regime e i tossicodipendenti, sono tutti profilati.
E i
casi d’uso emersi indicano procedure inquietanti quanto discutibili sotto
molteplici profili di legittimità: dalla profilazione di donne ipotizzate come dedite alla
prostituzione sulla base dei soli check-in effettuati in più di un hotel in una
notte, alle verifiche e le perquisizioni nelle abitazioni di coloro che vivono
in alloggi sovvenzionati per assicurarsi che non prestino assistenza ed
ospitalità a persone contrarie al regime o dedite al crimine.
Edward
Schwarck, uno studente che sta specializzandosi in sicurezza pubblica cinese
presso l’Università di Oxford, ha approfondito il ruolo del ministero della
Pubblica Sicurezza Cinese descrivendone lo sviluppo nel corso del tempo in
chiave di intelligence.
Le sue
analisi hanno evidenziato come il ministero iniziò a riformare ed aggiornare le
sue strutture di intelligence all’inizio degli anni 2000 con l’intento di
ristabilire il “dominio dell’informazione” su una società sempre più fluida e
tecnologicamente sofisticata, e hanno dimostrato come lo stesso si sia adattato
allo sviluppo tecnologico trasformando ed adeguando alle potenzialità offerte
dalle nuove tecnologie le proprie procedure di raccolta, analisi e diffusione
delle informazioni fino a dare forma all’attuale sistema di intelligence di pubblica
sicurezza.
Secondo
Schwarck “definire un modello simile come sistema di polizia basato
sull’intelligence o sulle analisi predittive distoglie in realtà l’attenzione dal
fatto che ciò che sta accadendo nello Xinjiang non riguarda affatto la polizia,
ma una forma di vera e propria ingegneria sociale “.
Tecnologie
dell’intelligence cinese.
La
sorveglianza in Cina è chiaramente molto più di una semplice telecamera.
Sniffer WiFi (software utili a localizzare rapidamente un segnale WiFi attivo)
e tracker di targhe sono costantemente puntati su auto e telefoni; il
riconoscimento facciale si è spinto fino ai complessi abitativi e all’interno
delle metropolitane.
Paul
Mozur, in un tweet descrive il sistema di sorveglianza che combina una stazione
BTS (che acquisisce automaticamente le informazioni del telefono) con
telecamere di riconoscimento facciale. “The idea was to directly link face info
to phone info as people walked by”.
Il
video allegato mostra il processo ineludibile di acquisizione delle immagini.
“I
localizzatori telefonici sono ovunque in Cina. Spesso passano inosservati. Sono
solo piccole scatole con antenne incastonate sotto installazioni di telecamere
molto più intimidatorie”, riferisce Mozur.
Il
controllo degli Uiguri.
Nello
Xinjiang, dove la Cina ha “internato” 1 milione di Uiguri, il reporter del NYT,
ha mappato i localizzatori telefonici presenti in uno dei quartieri della città
vecchia di Kashga e ha trovato almeno 37 dispositivi su un’area di un
chilometro quadrato in grado di registrare ogni arteria cittadina, comprese le
pertinenze private delle abitazioni civili: “A Shaoxing alcuni tecnici incaricati
hanno ricevuto il preciso compito di installare, nei pressi dei cancelli di
ingresso, strumenti video di riconoscimento facciale” riporta Mozur. Il tutto
con buona pace delle proteste e delle preoccupazioni rese palesi, non a caso,
dai residenti coinvolti.
Sempre
su Twitter, Simon Rabinovitch dell’Economist ha mostrato alcuni esempi di come
i distributori delle tecnologie di sorveglianza abbiano sviluppato sofisticate
tattiche di marketing nel presentare i propri prodotti non solo al mercato
cinese bensì globale.
Ma le
preoccupazioni sono forti. Preoccupazioni peraltro amplificate da un’analisi
del Financial Times, che mostra come i gruppi cinesi esercitino un’influenza
significativa nel definire gli standard internazionali in materia di
tecnologia.
Il
rapporto descrive in dettaglio come società tra cui ZTE, Dahua e China Telecom
stanno proponendo standard per il riconoscimento facciale all’International
Telecommunication Union (ITU) delle Nazioni Unite, l’organismo responsabile
degli standard tecnici globali nel settore delle telecomunicazioni.
E
IPVM, sito che si autodefinisce “autorità indipendente, leader a livello mondiale nel
campo della videosorveglianza” ha ammonito:
Yuan
Yang con un articolo sul Financial Times intitolato Il ruolo dell’IA nella
repressione della Cina sugli Uiguri, ha reso noto quanto emerso da una serie di
documenti “riservati” interni al Partito Comunista, i “China cables”. Ne è
emerso un quadro dettagliato dei piani del Governo cinese nella regione di
confine dello Xinjiang, dove sono stati arrestati circa 1,8 milioni di membri
della minoranza musulmana del paese, gli Uiguri.
Altrettanto
ha fatto un report del Consortium of Investigative Journalism sui sistemi di
repressione e sorveglianza usate dal governo cinese contro le minoranze
musulmane dello Xinjiang: “La tecnologia è in grado di guidare una violazione
sistematica dei diritti su scala industriale”.
La
polizia, secondo i documenti pubblicati, userebbe una piattaforma chiamata
Ijop (Integrated Joint Operation Platform) per raccogliere e classificare dati
personali
e informazioni catturate da molteplici sensori come spyware installati nei
telefonini, Wi-Fi sniffers e videocamere TVCC dotate di riconoscimento facciale
e visione notturna, installate in stazioni di servizio, posti di blocco, ma
anche scuole e palestre.
Tutti
questi dati verrebbero quindi elaborati da sistemi di intelligenza artificiale
per meglio identificare e mappare i residenti dello Xinjiang o contribuire in
vario modo alla Dragnet cinese, ovvero il processo utilizzato dagli organi di
polizia per rintracciare i sospetti criminali.
L’uso
di questa piattaforma non è peraltro nuovo. Già nel 2016 alcuni report ne
avevano descritto le caratteristiche: l’Ijop sarebbe in grado di
raccogliere e classificare informazioni molto dettagliate sulle persone
indagate, compreso l’aspetto, l’altezza, il gruppo sanguigno, il livello di
educazione, le abitudini e la professione. Il report offre dunque una finestra
senza precedenti sulla sorveglianza di massa nello Xinjiang.
Il
controllo della comunità musulmana.
Nel
report si parla inoltre di un’applicazione diffusa tra i musulmani chiamata
Zapya, nota in cinese come Kuai Ya.
Zapya,
sviluppata da DewMobile Inc., consente agli utenti di smartphone di inviare
video, foto e altri file direttamente da uno smartphone all’altro senza essere
connessi al Web (con ciò rendendola popolare in quelle aree in cui il servizio
Internet è scarso o inesistente) e apparentemente incoraggia gli utenti a
scaricare il Corano e condividerne gli insegnamenti religiosi con i propri
cari.
“I
cinesi hanno aderito ad un modello di sorveglianza basato sulla raccolta dei
dati in larga scala, e che grazie all’intelligenza artificiale sarebbe in grado
di prevedere in anticipo dove potrebbero verificarsi possibili reati – ha commentato James Mulvenon,
direttore dell’Integrazione dell’intelligence presso SOS International,
esaminando i documenti del governo cinese -. Quindi, con questo sistema, gli
organi di polizia rintracciano in maniera preventiva tutte le persone che
utilizzano o scambiano dati sospetti, prima ancora che abbiano avuto la
possibilità di commettere effettivamente il crimine”.
L’autodifesa
del governo cinese.
Il
governo cinese ha bollato i report e i resoconti giornalistici come “pura
invenzione e fake news”.
In una
nota, l’ufficio stampa del Governo cinese ha dichiarato: “Non esistono ‘campi di detenzione’
nello Xinjiang. Sono stati istituiti centri di istruzione e formazione
professionale per la prevenzione del terrorismo”.
Una
“missione” talmente “necessaria” da aver indotto Pechino a chiedere fondi di
finanziamento alla stessa Banca Mondiale, secondo il rapporto pubblicato dal
sito americano Axios. Secondo i documenti visionati da Axios, i prestiti
chiesti alla Banca Mondiale erano volti all’acquisto della tecnologia di
riconoscimento facciale da utilizzare nella regione nord-occidentale dello
Xinjiang in Cina. Per l’istituto bancario mondiale tali fondi non sono mai
stati erogati.
Lo
Xinjiang ha una popolazione di circa 22 milioni, 10 dei quali di etnia uigura
che salgono a 12 considerando le altre minoranze turco-musulmane.
Ad oggi, pur non disponendo di numeri
ufficiali, sarebbero oltre un milione gli Uiguri detenuti nei “campi di
rieducazione e addestramento” della regione.
Tale
misura viene giudicata necessaria dal Consiglio di Stato, il supremo organismo
amministrativo della Repubblica Popolare cinese, per “rimuovere il tumore maligno del
terrore e dell’estremismo che minaccia le vite e la sicurezza della gente,
custodire il valore e la dignità delle persone, proteggere il diritto alla
vita, alla salute, allo sviluppo, e per assicurare il godimento di un ambiente
sociale pacifico e armonioso”.
Ma sul
punto merita di essere evidenziato come il Parlamento Europeo con una
Risoluzione approvata il 19 dicembre scorso abbia fermamente condannato le
pratiche repressive e discriminatorie messe in atto dal governo di Pechino nei
confronti degli uiguri e delle persone di etnia kazakha.
I
deputati UE hanno chiesto alle autorità cinesi di garantire ai giornalisti e
agli osservatori internazionali un accesso libero alla Regione autonoma uigura
dello Xinjiang per valutarne la situazione.
Secondo
gli europarlamentari è essenziale che l’Ue sollevi la questione della
violazione dei diritti umani in Cina in ogni dialogo politico con le autorità
cinesi ed hanno chiesto al Consiglio di adottare sanzioni mirate e di congelare
i beni, se ritenuto opportuno ed efficace, contro i funzionari cinesi
responsabili di una grave repressione dei diritti fondamentali nello Xinjiang.
Il
sistema Xue Liang.
«Xue
Liang», ovvero «Occhio di falco» è il nome del programma di videosorveglianza a
tappeto del presidente Xi Jinping e di Pechino.
Un
network di sorveglianza onnipresente, totalmente connesso che comprende
progetti di videosorveglianza di massa che incorporano la tecnologia di
riconoscimento facciale compreso quello emozionale; software di riconoscimento
vocale in grado di identificare gli altoparlanti durante le telefonate; e un programma ampio e invadente di
raccolta del DNA.
Gli
operatori di telefonia in Cina hanno oggi l’obbligo di registrare le scansioni
facciali di chi compra un nuovo numero di telefono o un nuovo smartphone poiché
come dichiarato a settembre dal ministero cinese dell’Industria e
dell’information technology una tale decisione mira “a tutelare i diritti
legittimi e gli interessi dei cittadini online”.
Il
Great Firewall cinese blocca decine di migliaia di siti Web oltre a fungere da
strumento di sorveglianza.
Non
ultimo il sistema nazionale di credito sociale (un insieme di «modelli» per verificare
l’«affidabilità» delle persone associandole a un punteggio e a blacklist)
inteso a valutare “e dunque prevenire” la condotta di ogni cittadino cinese in
ogni ambito dall’accesso al credito alla tendenza alla commissione dei crimini.
L’utilizzo
dei big data.
I big
data costituiscono la risorsa inestimabile per fare tali previsioni. I funzionari possono attingere a
questa capacità per gestire crimini, proteste o impennate dell’opinione
pubblica online.
Un
network quindi dove la repressione del crimine va di pari passo con l’analisi
di polizia predittiva e la censura con la propaganda: coloro che esprimono opinioni non
ortodosse online possono diventare soggetti di attacchi personali mirati nei
media statali. La sorveglianza e l’intimidazione sono ulteriormente integrate da una
vera e propria coercizione, tra cui visite di polizia, arresti, “confinamenti
rieducativi”.
Il
nuovo Panopticon: non solo cinese.
L’origine
dell’odierno Panopticon cinese e la sua inarrestabile evoluzione non sono altro
che il risultato di un’accelerazione resa possibile dalla grande trasformazione
tecnologica del paese (e con essa la nuova straordinaria capacità di
raccogliere dati biometrici da parte di Pechino).
Il
«sistema dei crediti sociali» rappresenta solo uno dei tanti aspetti oscuri e
distopici dei piani di ingegnerizzazione sociale in Cina.
Se
infatti da una parte i crediti sociali mirano a creare una società basata sulla
fiducia dove però cosa è virtuoso e morale lo decide il partito comunista, un’ulteriore
«griglia sociale» sarà stabilita dalle smart city, a loro volta governate
socialmente attraverso crediti sociali e capacità tecnologiche che consentono
raccolta ed elaborazioni di dati continua.
La
diffusione della sorveglianza, in particolar modo applicata all’AI, continua
senza sosta.
E se
Il suo utilizzo da parte di regimi autoritari per progettare repressioni contro
popolazioni mirate ha già suonato campanelli d’allarme, tuttavia anche in paesi
con forti tradizioni di stato di diritto, l’IA (intelligenza artificiale) fa
sorgere problematiche etiche fastidiose ed urgenti.
Un
numero crescente di stati nel mondo oltre alla Cina sta implementando strumenti
avanzati di sorveglianza dell’IA per monitorare, rintracciare e sorvegliare i
cittadini per raggiungere una serie di obiettivi politici: alcuni legali, altri
che violano palesemente i diritti umani e molti che cadono in una via di mezzo
oscura.
Questo
è il quadro descritto da Carnegie Endowment for International Peace, uno dei più antichi e autorevoli
think tank statunitensi di studi internazionali.
“La
tecnologia legata alle società cinesi – in particolare Huawei, Hikvision, Dahua
e ZTE – fornisce la tecnologia di sorveglianza dell’IA in 63 paesi, 36 dei
quali hanno aderito alla Belt and Road Initiative cinese” afferma il Rapporto.
Oltre
alle società cinesi, la giapponese NEC fornisce la tecnologia di sorveglianza
dell’IA a 14 paesi e IBM in 11 paesi, secondo il rapporto Carnegie. “Anche
altre società con sede in democrazie liberali – Francia, Germania, Israele,
Giappone – svolgono un ruolo importante nel proliferare di questa tecnologia”. Tutti questi paesi, evidenzia il
Rapporto “non stanno però adottando misure adeguate a monitorare e controllare
la diffusione di tecnologie sofisticate collegate a una serie di importanti
violazioni”.
Gli
esperti esprimono preoccupazione in merito ai tassi di errore del
riconoscimento facciale e all’aumento dei falsi positivi per le popolazioni
minoritarie.
Il pubblico è sempre più consapevole dei
pregiudizi algoritmici nei set di dati di addestramento di AI e del loro
impatto pregiudizievole sugli algoritmi di polizia predittiva e altri strumenti
analitici utilizzati dalle forze dell’ordine.
Anche
applicazioni IOT benigne (internet delle cose) – altoparlanti intelligenti,
blocchi di accesso remoti senza chiave, display con trattino intelligente per
autoveicoli – possono aprire percorsi problematici alla sorveglianza.
Le
tecnologie pilota che gli Stati stanno testando ai loro confini – come il
sistema di riconoscimento affettivo di iBorderCtrl – si stanno espandendo
nonostante le critiche che si basano su scienza difettosa e ricerca non
comprovata. Inevitabilmente sorgono le domande inquietanti sull’accuratezza,
correttezza, coerenza metodologica e impatto pregiudizievole delle tecnologie
di sorveglianza avanzate.
Tecnologia
e progresso sostenibile.
Una
volta apprezzata la crescente ubiquità degli algoritmi e le loro potenzialità
nel bene come nel male, e una volta compresa l’urgenza del tema, la necessità di
pensare in modo critico e consapevole sui sistemi di sorveglianza e certo sugli
algoritmi di AI in generale diventa evidente.
Non
servono, però, approcci solo teorici o peggio solo distopici.
Parlando
di intelligenza artificiale – ci riferiamo a qualcosa che in realtà ha zero
intelligenza e zero semantica: il significato e il senso lo danno le persone.
Che si
parli di stato totalitario o di sorveglianza di massa piuttosto che di
monopolio digitale e di capitalismo di sorveglianza, il solo discrimine e la vera
ricchezza tra ciò che ci consentirà o meno di guidare consapevolmente ed
efficacemente il percorso verso un progetto umano sostenibile e la necessaria riconciliazione
tra l’umanità e lo sviluppo tecnologico, dipende in primis dall’uomo stesso.
Se la
strategia cinese mira al controllo totalitario della propria società e al
predominio in campo scientifico entro il 2030, quella russa si concentra sulle
applicazioni in materia di intelligence e d’altra parte, negli Stati Uniti, il
modello liberista ha creato una biforcazione tra settore pubblico e privato, in
cui i colossi tecnologici della Silicon Valley puntano alla mercificazione
deregolata delle opportunità tecnologiche. E, ancora oggi, il ruolo dell’Unione
europea nell’ecosistema digitale globale è in gran parte ancora da decidere.
“E gli
uomini vollero piuttosto le tenebre che la luce” come ha tradotto dal greco
neotestamentario Giacomo Leopardi in epigrafe a La ginestra o il fiore del
deserto.
Controllo
digitale.
It.wikipedia.org-Redazione-(4-3-2021)
– ci dice:
Microcontrollore.
Il
controllo digitale è una branca della teoria dei controlli che utilizza
dispositivi elettronici digitali per il controllo di sistemi dinamici: a seconda dei requisiti, un sistema
di controllo di questo tipo può avere la forma di un ASIC, un microcontrollore
oppure un normale computer. L'applicazione del controllo digitale può essere prontamente
compresa nell'utilizzo del concetto di retroazione. Siccome un computer digitale lavora
con dati discreti (cioè non continui), nell'ambito di analisi e sintesi di
questi sistemi si sfrutta diffusamente la trasformata zeta al posto della
trasformata di Laplace. Inoltre, disponendo un computer di una precisione finita (si
veda la voce quantizzazione), è necessaria cautela per assicurare che l'errore
nei coefficienti, la conversione analogico-digitale, la conversione
digitale/analogica, ecc. non producano effetti indesiderati o imprevisti.
Vantaggi.
Dalla
creazione del primo computer digitale nei primi anni quaranta i costi sono
scesi in maniera considerevole, il che li ha resi componenti-chiave per le
seguenti ragioni:
economicità:
meno di 5 dollari per molti microcontrollori
flessibilità:
facilità di configurare e riconfigurare attraverso software
operazioni
statiche: minore sensibilità alle condizioni ambientali rispetto a capacità,
induttori, ecc.
scalabilità:
la dimensione dei programmi può crescere sino ai limiti della memoria o dello
spazio di memorizzazione senza costi aggiuntivi
adattabilità:
i parametri del programma possono cambiare con il tempo (si veda la voce
controllo adattativo)
Implementazione
di un controllore digitale
Un
controllore digitale è solitamente messo in cascata con la linea da controllare
in un sistema a reazione. Il resto del sistema può essere o digitale o
analogico.
Tipicamente
si richiede:
conversione
analogico-digitale: per convertire gli ingressi analogici in una forma leggibile
dalla macchina.
conversione
digitale-analogica: per convertire le uscite digitali in una forma che possa
essere messa in ingresso alla linea da controllare.
un
programma che metta in relazione le uscite con gli ingressi.
Programma
d'uscita.
le
uscite del controllore digitale sono funzione dei campioni presenti e passati,
così come dei valori già mandati in uscita. Questo può essere implementato
memorizzando i valori rilevanti di ingresso e d'uscita in dei registri. L'uscita può essere così calcolata
come media pesata di tali valori.
I
programmi possono assumere svariate forme ed effettuare molteplici funzioni:
un
filtro digitale per il filtraggio passa-basso (quelli analogici sono preferiti,
in quanto introducono meno ritardo);
un modello
dello spazio degli stati di un sistema che si comporti come osservatore dello
stato;
un
sistema di telemetria.
Stabilità.
Si
noti che sebbene un controllore possa essere stabile quando implementato in
maniera analogica, potrebbe essere instabile nel caso digitale per via di un
lungo intervallo di campionamento. Per questo l'intervallo di campionamento caratterizza
il transitorio e la stabilità del sistema compensato, e deve aggiornare i valori in
ingresso al controllore con una frequenza tale da non causare instabilità.
Ue: Paesi scelgono Fasce orarie
per il
Taglio dei Consumi.
Conoscenzealconfine.it
– (13 Settembre 2022) – Redazione- Ansa.it- ci dice:
La
Commissione europea proporrà un obiettivo obbligatorio di riduzione dei consumi
di elettricità durante le ore di picco.
È
quanto emerge dalla bozza di regolamento in materia, che l’ANSA ha potuto
consultare. La bozza propone anche un limite obbligatorio ai ricavi degli
operatori che producono energia da rinnovabili, nucleare e lignite, cioè
diverse dal gas.
Il
limite si applicherà ai ricavi per MegaWatt ora di elettricità prodotta. Le
eccedenze di ricavi derivanti dall’applicazione del cap dovranno essere
‘girate’ a cittadini e imprese “esposti a prezzi elevati dell’energia
elettrica”, con gli Stati a decidere le misure redistributive più adatte.
La
bozza prevede anche l’obbligo di incentivare i contratti di acquisto a lungo
termine, che servono a iniettare liquidità nel mercato delle rinnovabili. Gli Stati potranno anche
condividere l’extragettito e estendere alle Pmi i prezzi regolati. Infine, si
legge nella bozza, gli Stati membri saranno obbligati a introdurre un
“contributo di solidarietà eccezionale e temporaneo per l’industria fossile”,
“sulla base dell’utile imponibile realizzato nell’anno fiscale 2022” e solo in
quell’anno. Le proposte passeranno via articolo 122, cioè direttamente dagli
Stati, che potranno emendarle e approvarle a maggioranza qualificata.
Riduzione
obbligatoria dei consumi di elettricità sulla base di un target mensile,
lasciando ai singoli Stati membri la discrezionalità di individuare in quali
ore implementare tale taglio. È su questo binario che, a quanto si apprende,
dovrebbe svilupparsi la proposta della Commissione Ue sul taglio ai consumi
energetici, prevista per oggi dopo il collegio dei Commissari. Secondo la bozza
visionata dall’ANSA “il target obbligatorio dovrebbe risultare dalla selezione
di una media di 3-4 ore di picco” individuate “per ogni giorno feriale” sulla
cui scelta gli Stati membri hanno “un margine di discrezionalità”.
La
fascia oraria in cui implementare la riduzione dei consumi, si legge sulla
bozza, “potrebbe includere anche quelle nelle quali la generazione di
elettricità da fonti rinnovabili è bassa”. Il target della riduzione dei
consumi non è quantificato nella bozza e sarà oggetto di dibattito quando si
riunirà il collegio dei commissari.
La
settimana scorsa l’orientamento della Commissione era quello di una riduzione
del 10%. La
quantificazione del taglio mensile viene fatta con il raffronto con lo stesso
mese nel “periodo di riferimento”, basandosi sulla media dei consumi dei 5 anni
precedenti al periodo 1° novembre-31 marzo, nel quale l’Ue chiede il taglio
della domanda.
(ansa.it)
Contro
l’Educazione
di Stato:
ci
vogliono far Morire senza Figli
o
vogliono Sottrarceli per indottrinarli.
Conoscenzealconfine.it
– (12 Settembre 2022) - Chiara Volpe -ci dice:
Stampaglia
immonda, cantantucoli di filastrocche estive, influencer per deficienter,
persino pornostar tramutate in intellettuali si sbattono per discutere di
questioni di cultura e morale che dovrebbero urgentemente dar luogo a misure
statali.
Nei
sogni di qualcuno c’è un Paese ateo, multietnico, in cui i bambini non
appartengono ai genitori naturali e non spetta loro educarli.
Qui,
nessun genitore ha diritto ad essere informato o a non essere d’accordo con le
lezioni o le attività che si svolgono in asili obbligatori, in materia di
morale, sesso e coscienza. Il contrario potrebbe rappresentare un atto di censura
educativa intollerabile, a svantaggio della libertà di ognuno di ricevere
un’educazione che sia legale.
L’indottrinamento
statale ribalta ruoli fondamentali, ribadisce e promuove l’odio verso le
proprie origini, diseduca attraverso un lavaggio del cervello sin dalla più tenera età, affinché si scelga di essere soldati
e figli adottivi, a disposizione dalla nascita alla morte, non più individui
autonomi quindi, e senza alcun peso.
Dovesse
davvero andare come auspicano, cosa accadrà? I bambini staranno in casa fino ad
una certa età e poi verranno prelevati e condotti in scuole dirette da maestri
selezionati? Ci sarà un test anche per gli scolari che terrà conto della robustezza
del candidato? E se si preferisse una scuola parentale? E se i genitori volessero fare
iniziare il proprio figlio dalle elementari, ci sarebbe da aspettarsi le forze
dell’ordine a casa?
Col
pretesto di aiutare le famiglie dove i coniugi lavorano (in particolare, le
donne) e di elevare il livello di istruzione, di eliminare le “prime odiose
diseguaglianze” tra studenti, hanno palesemente intenzione di forgiare le
menti, affinché ciò abbia ripercussioni psicologiche, oltre che materiali.
Consegnare
obbligatoriamente un individuo allo Stato equivale a separarlo dal proprio
nucleo, che indirizza e guida ed è anche protettivo, di sostegno. Un individuo
solo e isolato è debole e facilmente manipolabile.
Inoltre,
all’atto pratico, l’estensione dell’obbligo scolastico rappresenterebbe un
costo ulteriore per lo Stato, perché ci si dovrebbe occupare di garantire la
disponibilità di posti per tutti i bambini nelle scuole d’infanzia e anche per
tutti i ragazzi in quelle superiori, assumere dunque nuovo personale e
costruire nuove strutture dopo aver rinnovato le vecchie. Ma soprattutto, la scuola dovrebbe
essere gratuita, in ciò comprendendo i costi affrontati per le strutture
paritarie.
Un
sistema auto-distruttivo, a tratti utopistico, venduto come vantaggioso per la
comunità.
A uno
Stato che si fa Dio, che vorrebbe derubare tutti, che fondamentalmente odia
l’individuo sin da quando nasce e anche prima e, soprattutto, odia il suo
sacrosanto diritto di essere libero e di esercitare tale libertà, bisogna dire
di no, rifiutarsi sempre e comunque, se è il caso, dichiaragli guerra.
Uno
Stato saggio dovrebbe attuare altre politiche, invece noi siamo importanti solamente
se lavoriamo, produciamo, paghiamo le tasse, facciamo silenzio accettando tutto
e infine moriamo. Possibilmente senza figli.
(Chiara
Volpe - ildetonatore.it/2022/09/08/contro-leducazione-di-stato-ci-vogliono-far-morire-senza-figli-o-sottrarceli-per-indottrinarli-di-chiara-volpe/)
Ma
quale Inverno Nucleare?
Se
Scoppiasse un Conflitto Nucleare
non
sarebbero le Città ad essere Colpite…
Conoscenzealconfine.it-(
12 Settembre 2022) - Claudio Martinotti Doria -ci dice:
Mi
capita, con sempre maggiore frequenza, di assistere a video on line nei quali
presunti esperti descrivono i rischi di escalation militare del conflitto in
corso in Ucraina, prospettando un pericolo di guerra nucleare.
Tra
l’altro colgo l’occasione per riflettere sul fatto che i video stanno
proliferando mentre gli articoli seri ed esaustivi latitano, presumo per il
semplice fatto che sia molto più facile fornire un video a volte improvvisato e
superficiale, rispetto a uno scritto meditato, documentato e ponderato.
Devo
dedurre che si sceglie la via più comoda per comunicare, che non è garanzia che
sia anche quella più consona a informare correttamente. E questo purtroppo accade nella
cosiddetta informazione indipendente detta impropriamente controinformazione. Che è uno dei motivi per cui ho
sempre rifiutato di prestarmi a interviste e a interventi in video, anche per canali con decine di
migliaia d’iscritti, quando non centinaia di migliaia.
Preferisco
scrivere, anche se i lettori saranno sempre pochi, perché leggere e capire
costa fatica, rispetto all’essere spettatori passivi.
In
quasi tutti questi video cui mi riferisco, si descrive perlopiù il rischio di
una guerra nucleare utilizzando paradigmi obsoleti e anacronistici, tipici
della prima Guerra Fredda, cioè risalenti a una quarantina e oltre di anni fa.
E così
facendo non si offre un buon servizio d’informazione ma si contribuisce a
creare il panico nella popolazione, facendo il gioco del sistema di
potere, seppure in buona fede.
Per
citare un esempio che rende bene l’idea, quasi tutti questi presunti esperti
descrivono le conseguenze di una guerra nucleare come si sarebbe svolta negli
anni ’70 e ’80 se fosse esplosa all’epoca. Insistono, infatti, sugli effetti che
avrebbe sulla popolazione dando per scontato che si colpirebbero le città con
ordigni nucleari di parecchi chilotoni o addirittura megatoni se ricorressero
alle armi termonucleari, che sono molto più potenti.Ma perché mai allo stato attuale
della tecnologia e strategia militare si dovrebbero bombardare le grandi città?
Per estinguere l’umanità? E a chi gioverebbe la distruzione reciproca?
Personalmente
non condivido quest’approccio nel valutare il rischio di un conflitto nucleare,
pur non escludendolo. Semplicemente sono convinto che non avverrebbe in questo
modo.
Le
città a mio avviso non costituiscono un obiettivo primario. Gli obiettivi di un conflitto
nucleare sarebbero semmai militari e strategici, colpirebbero cioè basi e
depositi militari, aeroporti, porti, centri di comando e controllo e di
comunicazione, satelliti, navi, sottomarini e portaerei, centrali elettriche,
ecc. …
E per
farlo ricorrerebbero a bombe nucleari tattiche, cioè a bassa potenza e con
fallout ridotto. Il pericolo di estinzione dell’umanità paventato dai presunti
esperti sarebbe ridotto. Chi colpisse per primo sarebbe ovviamente favorito,
soprattutto se lo facesse con un numero elevato di ordigni lanciati quasi
contemporaneamente, non dando modo all’avversario di fare altrettanto.
Quello
sopra rappresentato è forse il pericolo maggiore, perché indurrebbe una delle
grandi potenze a colpire per prima, contando sulla presunzione di disporre di
armi più sofisticate e non in grado di essere intercettate.
Il
pericolo maggiore in termini culturali e d’impostazione guerrafondaia e
psicopatica è indubbiamente rappresentato in questa epoca dagli USA e UK, che
però fortunatamente non dispongono delle armi più sofisticate (ipersoniche) in
materia nucleare, essendo i russi e i cinesi molto più avanzati tecnologicamente
di loro.
Spero
pertanto che la consapevolezza della loro inferiorità militare li faccia
desistere, perché sono pressoché certo che se le parti fossero invertite non
esiterebbero a colpire per primi, come del resto dichiarato esplicitamente dal neo premier
UK Liz Truss in una sua recente intervista, nella quale si vantava che non
esiterebbe a ordinare l’impiego di armi nucleari se la situazione secondo lei
lo richiedesse.
Un
soggetto quest’ultimo che emula pateticamente la Lady di Ferro nel suo decisionismo,
ma senza
possederne neppure una minima porzione di capacità, cultura e lungimiranza,
essendo di un’ignoranza conclamata.
I
mediocri e gli stupidi in posizione di potere politico sono funzionali al
sistema finanziario dominante, perché prendono ordini senza valutare
criticamente e responsabilmente le ripercussioni sulla popolazione.
Ecco perché contribuiscono ad aumentare la
tensione e le provocazioni, gettando benzina sul fuoco, per indurre la Russia
alla prima reazione nucleare, sperando sia di modesta entità, quanto basta per giustificare un loro
intervento congiunto come NATO contro la Russia.
Si
tratterebbe in ogni caso di pura ipocrisia, perché la NATO è già di fatto
cobelligerante in Ucraina contro la Russia, essendo presenti in combattimento
migliaia di loro truppe, seppur con divise ucraine.
E la Russia sarebbe perfettamente giustificata dal
punto di vista giuridico bellico a considerare i paesi NATO in guerra contro di
essa, sia per le forniture di armi all’Ucraina sia per la presenza di loro
soldati al fronte.
Quindi
se la situazione degenerasse in un conflitto nucleare, è vero che avremmo
pressappoco le ripercussioni descritte dai pseudo esperti che straparlano di
inverno nucleare, ma non perché raderebbero al suolo le città con estinzioni di
massa conseguenti, ma perché la distruzione sistematica degli obiettivi
militari e strategici, azzererebbe tutti i servizi cui siamo abituati,
torneremmo cioè all’età della pietra, quantomeno per un periodo più o meno
lungo, privandoci di tutto quello cui siamo abituati e che diamo per scontati:
dall’acqua potabile, all’energia elettrica, dal collegamento a internet all’uso
dei cellulari, dai rifornimenti presso i supermercati a tutti i mezzi che la
modernità ci ha fornito. Non funzionerebbe più nulla, soprattutto per gli
effetti elettromagnetici provocati dalle esplosioni nucleari, oltre alla
distruzione dei siti di produzione ed erogazione dei servizi.
A
morire nelle fasi immediatamente successive alle esplosioni nucleari locali
sarebbero le popolazioni presenti nei siti colpiti e nelle loro immediate
vicinanze.
Le altre località potrebbero subire gli effetti delle limitate ricadute del
materiale radioattivo, secondo la direzione dei venti in ogni singola area
geografica.
Il
problema per l’Italia sarebbe comunque molto grave, essendo il paese NATO con
il maggior numero di basi militari straniere sul proprio suolo, tra cui due
aeroporti militari dotati di decine di bombe nucleari, e il più grande deposito
di armi dell’intero continente, situato in Toscana.
Credo
che quanto da me descritto sia più attinente ai rischi reali che stiamo
correndo, molto più che descrivere di presunti bombardamenti sulle grandi città
che raderebbero al suolo non solo la superficie urbana ma l’intero paese, che
se non immediatamente distrutto diverrebbe comunque invivibile per i decenni a
venire per gli effetti devastanti e nefasti della radioattività e dei
cambiamenti climatici, questi si reali e non fittizi.
È
pertanto corretto essere preoccupati per i rischi reali che stiamo correndo ma
non ricorrendo a paradigmi di quarant’anni fa ma a ipotesi molto più plausibili
e aggiornate, come quelle cui ho fatto riferimento.
Come
si possono evitare questi rischi? Prendendo una chiara, netta e risoluta
posizione contro i guerrafondai e i loro complici in tutti i governi europei,
manifestando con forte determinazione la propria contrarietà a rifornire
l’Ucraina di armi e a farsi usare come carne da cannone dagli angloamericani
per i loro interessi.
Che lo
facciano i paesi dell’est europeo è comprensibile, essendo russofobi e colonie
anglosassoni finanziate lautamente, ma che noi nell’occidente europeo ci si
presti a questo gioco al massacro, è da utili idioti e imbecilli suicidi,
avendo tutto da perdere, compresa la vita.
(Dottor
Claudio Martinotti Doria- cavalieredimonferrato.it/)
Politica
e popolarità online:
il
potere degli algoritmi.
Fondazionefeltrinelli.it-
Giovanni Boccia Artieri- (27 gennaio 2020)- ci dice:
Proponiamo
un estratto del testo di Giovanni Boccia Artieri, professore ordinario di
Sociologia della comunicazione e dei media digitali all’Università di Urbino
Carlo Bo, dal Rapporto di ricerca di Politica oltre la politica.
Nel
saggio lo studioso sviluppa una riflessione sull’intreccio caratteristico della
comunicazione politica contemporanea fra popolarizzazione e personalizzazione
facilitato dalle dinamiche di disintermediazione legate ai social media.
Ci
troviamo, infatti, in un’epoca di transizione in cui la politica si trasforma
attraverso un percorso di “spettacolarizzazione” per riuscire a raggiungere
anche strati sociali solitamente meno interessati alle vicende politiche (in Italia un esempio può essere
considerato l’ingresso di Matteo Salvini su Tik Tok, piattaforma social usata
dai teenager), a dimostrazione di un più ampio mutamento culturale. Diventa quindi cruciale sapersi
orientare in un contesto ancora non pienamente compreso, fra il ruolo degli algoritmi e le
nuove forme di mediazione dei social in cui prevalgono logiche di affinità che
rischiano di degenerare in “echo chambers” dove tramonta il dubbio metodico e
resiste solo una logica pericolosamente settaria.
Popolarità
e visibilità online: l’azione di mediazione degli algoritmi.
Un
punto da affrontare riguarda il nesso fra popolarità, affordance delle
piattaforme e struttura del network. Il che richiede di riflettere in che
modo la dimensione della popolarità si intreccia a quella della visibilità
online, cioè alla capacità che ha un contenuto di emergere nel flusso di
contenuti visibili ai singoli account e divenire un contenuto condivisibile in
quanto condiviso da un numero significativo di nodi della rete o da una nicchia
di pubblico altamente motivata.
Internet
in generale e i social media in particolare, funzionano come piattaforme di
connessione tra le persone che lavorano sulle relazioni ad un livello che non
ha precedenti in termini di numerosità e di velocità.
Se pensiamo alla rete come un fattore di
mediazione, dobbiamo considerare la natura “interna” di tale mediazione, cioè
alle dinamiche di diffusione dell’informazione a partire dalle possibilità di
pubblicazione online di UGC (Univer Generated Content) attraverso specifiche piattaforme e
la sua propagazione e trasformazione attraverso le piattaforme stesse.
L’azione di mediazione è in tal senso operata
attraverso gli algoritmi, cioè degli agenti matematici capaci di tradurre i metadati
dei contenuti e i comportamenti agiti su di essi (visualizzazioni, condivisioni, reazioni) in “pesi” capaci di produrre una
visibilità del contenuto stesso a fronte di dinamiche selettive – come ad esempio la ricerca
attraverso un motore, il suo ranking in una piattaforma o una maggiore visibilità
nell’esplorazione delle proprie reti connesse da parte di un utente.
In tal
senso un contenuto diventa popolare quando diventa visibile nell’economia
dell’informazione di una specifica piattaforma – ad esempio su Twitter come
Trending Topics – o per il fatto di ottenere condivisioni sia significative
numericamente sia capaci di penetrare network diversi sfruttando la porosità
delle bolle comunicative.
Allo
stesso tempo – in modo simmetrico – la formazione di echo chambers su specifiche piattaforme consente a
un contenuto di assumere una popolarità “interna” dandogli valore assoluto,
proprio per l’impossibilità di osservare da un punto di vista esterno.
Se ad
esempio la mia rete di riferimento su Facebook coincide con una sorta di bolla
in cui si rendono visibili solo contenuti politici di una determinata
componente politica o con un orientamento specifico su una tematica – ad
esempio antivaccinista – si genererà una popolarità di contenuti interna che
finisce per dare per scontato che quel contenuto sia visibile urbis et orbis.
A
differenza della popolarità mediale dove sono le testate a fornire la
visibilità di un contenuto alle audience così da renderlo familiare e popolare, su Internet e in particolare nella
logica dei social network, ogni nodo sarà soggetto ai meccanismi di messa in
visibilità delle piattaforme che frequenta o dei motori di ricerca che utilizza
per informarsi. In
pratica la visibilità che porta alla popolarità è assoggettata alle dinamiche
dell’algoritmo.
L’acquisizione
di visibilità di un contenuto politico nei media mainstream deve passare dalla
mediazione di professionisti dell’informazione che trattano eventi e fatti a
partire da norme e procedure condivise.
Online,
diversamente, è possibile sviluppare strategie di messa in visibilità che
sfruttano le dinamiche di disintermediazione, cioè di contatto diretto fra
fonte che produce il contenuto e le audience diffuse. E ciò anche attraverso processi
tecnici – talvolta al limite della liceità morale – che fanno leva su come gli
algoritmi rendono visibili i contenuti.
Per
fare un esempio, su Facebook l’algoritmo di visibilità combina selettivamente i
diversi contenuti secondo pesi pre-determinati che tengono conto sia di criteri
decisi dalla piattaforma (ad esempio il peso di amici e familiari a scapito di
editori e brand) sia dei comportamenti degli utenti (ad esempio reactions e
commenti ai posts).
La
presenza dell’algoritmo rappresenta in tal senso una forma cibernetica di
controllo della complessità e della contingenza che permette a Facebook di
operare in modo autonomo e di produrre il suo ordine interno (Boccia Artieri
& Gemini 2019). Da questo ordine alcuni contenuti emergono rispetto ad
altri ma in quanto, appunto, “realtà emergente” da una serie di fattori la cui
selettività è allo stesso tempo predeterminata e contingente.
In tal
senso il monitoraggio della popolarità e del sentiment online sui temi
costituisce un momento propedeutico alla produzione di contenuti popolari, cioè
con possibilità di essere diffusi in quanto incontrano la propensione delle
persone.
Ad
esempio, quello che viene definito nell’ambito della comunicazione online di
Matteo Salvini come “La Bestia” – così definito un po’ mitologicamente nel
giornalismo – altro non pare essere che «un semplice strumento di monitoraggio
della rete.
Un
tool in grado di leggere commenti e conversazioni che riguardano un argomento
specifico, come ce ne sono tanti in giro. Se anche così fosse sarebbe una
novità comunque se fosse utilizzato sistematicamente. Non mi risultano staff politici che
ne fanno un uso sistematico. L’ascolto è importante. Certo, in questo caso, molto spesso
è funzionale a riattizzare il fuoco delle polemiche più che a comprendere per
costruire proposte risolutive di problemi» (Cosenza, 2019).
Si
tratta quindi di un listing tool utile alla social media manager guidati da Luca
Morisi, spin doctor digital della Lega, per indicare momenti e temi sui
quali prendere posizione, sfruttando magari una certa propensione di pubblici
online ad accordare attenzione e lasciarsi emotivamente colpire.
Un altro
esempio è costituito invece dalla costruzione di reti online di supporto, utili
alla condivisione e amplificazione di contenuti, che possono essere organiche o
artificiali.
Nel
primo caso si tratta di reti auto-organizzate, ad esempio da attivisti politici,
dove spesso i singoli utenti possono governare diversi profili e prendere
decisioni di intervenire in precisi momenti per supportare un determinato
profilo politico o scoraggiarne un altro: «è normale vedere un utente pro-Lega
o pro-M5S gestire anche cinque account con nomi diversi: cento persone in un
gruppo segreto di Facebook o su un canale Telegram, con cinque account
ciascuno, fanno 500 troll pronti ad attaccare, e scoraggiare utenti standard a
un confronto politico».
Nel
secondo caso parliamo della costruzione di botnet, ad esempio su Twitter,
particolarmente diffuse nella comunicazione politica contemporanea (Howard,
Woolley & Calo 2018) costituite da account falsi ma riconducibili a utenti
verosimili (con foto profilo e nome proprio) che tendono ad avere pochi
follower, a produrre gli stessi tweet moltiplicando l’effetto di diffusione di
un contenuto e a sparire in seguito dalle piattaforme di social networking.
Ad
esempio, un’analisi
svolta da ricercatori della City, University of London (Bastos & Mercea 2017) a
proposito della Brexit ha individuato su Twitter una rete di oltre 13.000
account sospetti (una vera e propria botnet) che hanno twittato prevalentemente
messaggi pro-Brexit prima di essere eliminati o rimossi da Twitter durante il
ballottaggio.
La
ricerca evidenzia, da una parte, come sia possibile costruire una strategia di
comunicazione attraverso political bot capaci di diffondere specifici contenuti in tempi
molto rapidi e con buona penetrazione in comunità online e che il contenuto
ritwittato comprende notizie hyper-partisan generate dagli utenti ma la cui
durata di conservazione è notevolmente breve.
La rapidità e la penetrazione di specifici
contenuti online finiscono in tal senso per amplificare il portato valoriale di
determinate idee (Bruns e Burgess 2011): l’associarsi di velocità e massa di
utenti raggiunta sovra-determina il valore di una specifica notizia e delle
questioni associate, amplifica i fenomeni, produce istantaneamente senso
comune. In
pratica questo lavoro mette al centro una delle dinamiche della post-verità che
non ha a che fare necessariamente con la produzione e diffusione sistematica di
contenuti falsi ma con il rischio di distorsione potenziale delle forme di
comunicazione pubblica.
In
pratica «è possibile usare botnet sofisticate per forzare gli algoritmi di
visibilità delle piattaforme (più facile su Twitter che altrove), ma si tratta
di strategie di breve periodo e che funzionano quando quelle reti di bot poi
riescono a intercettare il sentimento di persone vere che rilanciano quei
contenuti.
In pratica con quelle tecniche si accende il primo focolaio, poi c’è bisogno di un humus specifico
per far sviluppare l’incendio» (Cosenza, 2019).
In tal
senso è possibile far diventare una particolare notizia o una particolare
posizione politica un elemento di cultura condivisa, rendendola virale in tempi
stretti attraverso la capacità di replicarla e renderla visibile agendo sulla
botnet.
L’effetto
finale è quello di una “popolarità affidabile”, confermata sia
dall’autorevolezza della fonte, ad esempio un leader politico che la condivide
sui suoi profili, sia dal numero di condivisioni che la rendono in quel modo
difficilmente contestabile.
Non
lasciare mai che una
buona
crisi vada sprecata.
Unz.com-
FILIPPO GIRALDI – ( 13 SETTEMBRE 2022)- ci dice:
Il
reportage implacabile dell'Ucraina aiuta a nascondere altri conflitti.
È
stupefacente quanti osservatori della guerra in Ucraina, che avrebbero dovuto
conoscerla meglio, siano stati inclini a prendere alla lettera le affermazioni
di “fonti” che chiaramente provengono dai vari governi coinvolti nel conflitto.
Quei leader che sono impegnati
nell'inesorabile marcia degli Stati Uniti e dei loro alleati per trasformare la
crisi dell'Ucraina nella terza guerra mondiale hanno sicuramente imparato la
lezione che gestire la narrazione di ciò che sta accadendo è l'arma più grande
che i falchi della guerra hanno in loro possesso.
Si
ricorda come dopo l'11 settembre e prima della guerra in Iraq, la Casa Bianca
di George W. Bush e i neocon del Pentagono abbiano mentito su quasi tutto per
convincere il pubblico che Saddam Hussein era un terrorista sostenitore del
megalomane armato di armi di distruzione di massa, descrivendolo
inevitabilmente come un uomo per certi versi paragonabile ad Adolf Hitler.
L'Iraq
in un certo senso è stata un'esperienza di apprendimento per coloro al governo
e anche per coloro che nei media hanno fatto il lavoro pesante propagando
l'inganno a un pubblico in gran parte ignaro.
Ciò
che stiamo vedendo ora in relazione all'Ucraina e alla Russia, tuttavia, fa
sembrare l'esperienza dell'Iraq un gioco da ragazzi in termini di pura audacia
delle presunte informazioni che le fanno, o non le fanno, nelle notizie.
Noto
in particolare il recente attentato terroristico con un'autobomba alla
giornalista attivista russa Dalya Dugina da parte di un assassino ucraino ha
fatto notizia per circa quarantotto ore prima di scomparire, ma non prima che la menzogna secondo
cui il primo ministro Vladimir Putin fosse responsabile fosse fermamente
radicata in un certo numero di luoghi nei media mainstream.
Ora
che Joe Biden sta per designare un generale a due o tre stelle a capo della
campagna in Ucraina e ha promesso miliardi di dollari in più in aiuti,
l'Ucraina sarà sempre la notizia. Il
coinvolgimento degli Stati Uniti avrà anche un nome accattivante.
Suggerirei
l'Operazione Portafogli Vuoti, che è ciò che gli americani sperimenteranno
presto a causa dei salvataggi del governo e di altre spese dissolute, o forse
Operazione Give Me a Break.
E
creerà anche una nuova dimensione nella formazione narrativa in quanto il
dominio dell'Ucraina su ciò che esce dalle redazioni sta già uccidendo molto di
ciò che altrimenti potrebbe apparire in TV o sui giornali. Quella gestione selettiva delle
informazioni fornisce copertura per trascurare storie che potrebbero rivelarsi
imbarazzanti per chi è al potere.
Tutto
ciò porta ad esaminare cosa hanno combinato i due paesi che si sono dichiarati
unilateralmente responsabili e responsabili dell'applicazione delle regole.
Questi
due paesi forse non sono sorprendentemente gli Stati Uniti e Israele.
Gli
Stati Uniti stanno, infatti, aumentando il loro ruolo di combattimento in
Africa con attacchi aerei in Somalia, tutti avvenuti da quando il presidente
degli Stati Uniti Joe Biden ha approvato la ridistribuzione di centinaia di
truppe delle forze speciali in quel paese a maggio, annullando la decisione
dell'ex presidente Donald Trump di ridurre i livelli di truppe in AFRICOM.
I due
ultimi attacchi hanno ucciso almeno una ventina di somali, tutti ovviamente
descritti come “terroristi” dal comando statunitense.
Fonti
indipendenti affermano che le forze statunitensi hanno bombardato la Somalia
almeno 16 volte sotto Biden, uccidendo tra i 465 ei 545 presunti militanti di
al-Shabaab, inclusi non meno di 200 individui in un unico drone più le forze di
terra hanno colpito il 13 marzo.
Descrivendo
la scarsità di rapporti sulla questione, Kelley Beaucar Vlahos, consulente
senior del Quincy Institute for Responsible Statecraft, ha osservato : "Se non sapevi che stavamo
bombardando la Somalia, non sentirti male, questo è completamente sotto-il-
notiziario radar, curiosamente assente dai titoli di tutti i principali
giornali…”
E poi
c'è la Siria, dove la scarsità di informazioni nei media riflette la politica
della Casa Bianca. Gli Stati Uniti, che hanno forse fino a una dozzina di basi
illegali in Siria, hanno un'importante base aerea situata nel giacimento
petrolifero di al-Omar nella provincia siriana nordorientale di Deir Ezzor.
Diverse
settimane fa, secondo quanto riferito, tre soldati statunitensi sono stati
leggermente feriti in attacchi missilistici diretti alla base da presunti
"militanti sostenuti dall'Iran".
Gli
Stati Uniti hanno risposto ai presunti attacchi lanciando attacchi da
elicotteri Apache contro tre veicoli appartenente a una milizia sciita afgana,
uccidendo tra i sei e i dieci "militanti", e ci sono rapporti secondo
cui sono probabili più scontri a fuoco.
Il
CENTCOM ha poi affermato che il presidente Joe Biden ha ordinato personalmente
gli scioperi per "autodifesa" e li ha giustificati citando l'articolo
II della Costituzione degli Stati Uniti.
Ma la
Costituzione non è mai stata intesa a coprire l'attività illegale in una terra
straniera dove le forze americane stanno occupando un paese con il quale non è
in guerra e che ha un governo funzionante che si oppone alla presenza
americana. Secondo
quanto riferito, gli Stati Uniti hanno le loro basi illegali situate
principalmente nella produzione di petrolio e nel paniere agricolo del paese.
Sia il
grano che il petrolio vengono regolarmente rubati dagli Stati Uniti e gran
parte del petrolio finisce in Israele.
Quindi,
si arriva inevitabilmente a Israele, che ha utilizzato la copertura fornita
dall'Ucraina non solo per bombardare frequentemente la Siria, ma anche per
uccidere palestinesi sia a Gaza che nella Cisgiordania occupata.
Di
recente il ritmo è accelerato con l'esercito israeliano e la polizia che
uccidono in media diversi palestinesi ogni giorno, di cui molto poco viene
riportato dai media statunitensi, un tasso di mortalità cinque volte superiore
a quello prevalso nel 2021. È
chiaramente una politica deliberata intensificare la pressione sui palestinesi
e una parte vitale del processo è lasciare che avvenga con il minimo controllo
da parte dei media e del pubblico, quindi Israele sta pubblicizzando ampiamente il
sostegno che sta dando all'Ucraina per distogliere l'attenzione da ciò che fa a
livello locale.
In
breve, Israele sta aumentando gli sforzi per rendere la Palestina storica
libera dai palestinesi rendendo la vita così miserabile che molti arabi
decideranno di andarsene.
L'uso
della violenza selettiva e delle continue molestie fa tutto parte di questo
sforzo e i palestinesi hanno scoperto che descrivere Israele come uno stato di
"apartheid" non descrive accuratamente l'intensità delle punizioni
indiscriminate e delle uccisioni da parte dei soldati che sono diventate fin
troppo comuni.
Israele
nel frattempo sta anche facendo del suo meglio per delegittimare l'identità
nazionale palestinese etichettando i gruppi arabi per i diritti umani come
"terroristi".
La polizia israeliana ha recentemente fatto irruzione
negli uffici di sette di questi gruppi, ha confiscato le loro apparecchiature e
comunicazioni per ufficio e ha ordinato la chiusura totale dei locali.
Ironia della sorte, una valutazione della CIA
sui gruppi ha stabilito che non erano in alcun modo collegati al terrorismo.
L'amministrazione Joe Biden ha tipicamente risposto allo sviluppo indicando di
essere "preoccupata" ma non ha condannato l'azione israeliana.
Quindi,
se apri un giornale o accendi la televisione e guardi o leggi le notizie
internazionali, ti verrà detto cosa pensare di quello che sta succedendo in Ucraina.
E sarà
dal punto di vista del governo ucraino/americano. Se sei interessato a ciò che gli
Stati Uniti e Israele stanno facendo in Medio Oriente, molto spesso sarai
sfortunato perché "difendere la democrazia" in Ucraina mentre
demonizza anche la Russia sta fornendo copertura a Washington e Gerusalemme per
entrare in tutti i tipi di dispetti.
È una
realtà derivata dal modo in cui i media e il governo lavorano collettivamente
per dare forma a politiche che in nessun modo avvantaggiano il pubblico
americano.
Invece,
potenti gruppi di interesse con abbondanza di denaro guidano il processo e sono
quelli che ottengono ancora più potere e denaro attraverso di esso. È la triste realtà di ciò che è
successo alla nostra "terra dei liberi e casa dei coraggiosi".
(Philip
M. Giraldi, Ph.D., è Direttore Esecutivo del Council for the National Interest,
una fondazione educativa deducibile dalle tasse 501(c)3 (Federal ID Number
#52-1739023) che cerca una politica estera statunitense più basata sugli
interessi in Medio Oriente. Il sito web è councilforthenationalinterest.org,
l'indirizzo è PO Box 2157, Purcellville VA 20134)
Algoritmi
e diritti umani:
qual è
il punto d’incontro?
Iusinitinere.it-
FRANCESCA BUCCI – (03/04/2022) – ci dice:
1. Gli
algoritmi come fenomeno sociale.
La
rivoluzione tecnologica ha permesso, grazie alla digitalizzazione dei
contenuti, di reinterpretare la società moderna, nella quale la conoscenza è
diventata una fonte di potere e produttività.
L’elaborazione
dei dati, sempre più potente e rapida, ha reso necessaria l’adozione di
strumenti tecnologici in grado di effettuare tale elaborazione in tempi sempre
più brevi e in assenza dell’intervento umano: questi sono gli algoritmi, che
consistono in una presenza costante, seppur silenziosa, nella vita degli
individui, essendo in grado di elaborare, selezionale e distribuire ingenti
quantità di dati, a partire dalle più banali attività di vita quotidiana.
Le singole attività di ognuno di noi, infatti,
vengono scandite, e spesso anche influenzate dai risultati mostrati dai
dispositivi digitali, a seguito del lavoro svolto dagli algoritmi sui dati.
Ad
oggi è possibile osservare che l’ubiquità degli algoritmi ha degli effetti
potenzialmente rivoluzionari sia nell’ambito della vita quotidiana che nella
ricerca sociale.
Tuttavia,
capire le modalità attraverso cui gli algoritmi operano è un’indagine
decisamente complessa. Un primo
approccio potrebbe essere quello di individuare le operazioni che essi
compiono: innanzitutto,
gli algoritmi selezionano le informazioni rilevanti scartando quelle che non lo
sono,
compiono una struttura delle priorità e sono di ausilio nei processi di ricerca
e decisioni mediante sistemi di selezione e raccomandazione.
Tutto
ciò si rende necessario anche considerando l’espansione repentina delle reti e
del web all’interno della c.d. network society, la quale comporta un’esplosione
del volume dei contenuti ivi presenti e impone l’ausilio di soggetti
intermediari (quali i motori di ricerca e i sistemi di raccomandazione) ormai
fondamentali per orientarsi nel sovraffollamento informativo presente online.
Dunque,
le potenzialità algoritmiche sono immense; tuttavia, è opportuno mettere in
luce i due limiti di tale potere sociale.
Da un lato va considerata l’opacità
algoritmica, e dall’altro, la percezione diretta a cui essi sfuggono. Infatti, gli algoritmi sono
intrinsecamente opachi e ciò significa che è molto difficile sapere perché ed
in che modo un algoritmo produca un determinato risultato, anche per i soggetti
che lo hanno progettato. Inoltre, spesso, il risultato finale apprezzabile non viene
presentato come l’esito di un processo selettivo tra varie possibilità, ma
piuttosto come un mero dato di fatto.
Per
aprire quella che viene definita la black box algoritmica bisogna quindi
operare una raccolta di conoscenze dalle matrici disciplinari molto diverse,
tra cui anche quella giuridica.
Gli algoritmi hanno, dunque, potenzialità
immense, ma il loro potere non è illimitato e incontrastabile.
In
particolare, va osservato che gli algoritmi non sono infallibili ed il loro utilizzo deve essere
ridimensionato nel momento in cui entrano in contrasto con il rispetto dei
diritti fondamentali degli individui.
2.
L’impatto degli algoritmi sui diritti umani.
Spesso
le problematiche relative all’utilizzo dell’intelligenza artificiale (IA) e
degli algoritmi portano a riflettere su questioni tecniche relative al fattore
sicurezza delle tecnologie utilizzate per produrre, trasmettere ed archiviare
le informazioni digitali. Tuttavia, anche il più corretto utilizzo degli strumenti
digitali comporterebbe un inevitabile e notevole impatto sui diritti
fondamentali degli individui. Il problema esiste da sempre ma ad oggi è sempre
più amplificato, dato il repentino sviluppo tecnologico in tema di IA.
Già
nel maggio 2019, il Commissariato per i diritti umani del Consiglio d’Europa ha
adottato alcune raccomandazioni sul punto, indirizzate alle autorità nazionali
nell’ottica di massimizzare il potenziale dei sistemi di IA e prevenire
l’impatto negativo sui diritti umani.
L’interesse primario era quello di rendere
possibile e concreta l’effettuazione di consultazioni pubbliche per valutare
l’impatto dei sistemi di IA sui diritti umani; la facilitazione
dell’implementazione delle norme sui diritti umani nel settore privato,
imponendo agli Stati membri una garanzia di sviluppo di condizioni a favore del
rispetto dei diritti umani attraverso accurata informazione, trasparenza, e una
supervisione indipendente ed efficace sulla conformità delle tecnologie, senza
creare ostacoli all’individuazione delle responsabilità e dei rimedi in caso di
violazione dei diritti, nell’ottica del rispetto dei principi di non
discriminazione, uguaglianza e protezione dei dati personali.
Con lo
scopo di predisporre un quadro giuridico per lo sviluppo, la progettazione e
l’applicazione dell’IA basata sugli standard del Consiglio d’Europa in materia
di: diritti umani, democrazia e stato di diritto, è stato istituito nello stesso
anno il Comitato ad hoc per l’Intelligenza Artificiale (CAHAI).
Si
tratta di un comitato intergovernativo la cui prima riunione si è svolta a
Strasburgo dal 18 al 20 novembre 2019 e l’ultima dal 15 al 17 dicembre 2020. L’obiettivo di tale Comitato è quello
di valutare l’impatto delle applicazioni dell’IA sull’individuo e sulla
società, sugli strumenti di soft law esistenti che si occupano specificamente
dell’IA e legalmente vincolanti in ambito internazionale applicabili in
materia.
Su
queste basi, l’European Union Agency for Fundamental Rights (FRA) si è fatta carico, in un report
del 14 dicembre 2020, di esporre la necessità di eseguire una valutazione
d’impatto più ampia, circa l’utilizzo di ogni strumento di IA, tenendo conto
non solo delle potenziali problematiche tecniche che l’IA solleva, ma anche di
quelle sociali, poiché il fenomeno, originariamente informatico, ad oggi si è
tramutato in una vera e propria questione sociale.
Il
report ha ad oggetto quattro macroaree fondamentali nelle quali la valutazione
d’impatto deve essere più incisiva: servizi sociali, polizia predittiva,
servizi sanitari, pubblicità mirata.
Nell’epoca
della profilazione, del tracing sanitario e della diffusione di tecniche di
riconoscimento facciale per semplificare il lavoro della polizia, non è
difficile immaginare il motivo della concentrazione del lavoro delle
istituzioni europee su questi temi.
In queste aree sono state raccolte le
informazioni emerse da un campione di quasi 100 interviste a funzionari di
amministrazioni pubbliche e private, autorità di vigilanza e controllo,
avvocati ed altri esperti, con l’obiettivo di capire se i nostri diritti
vengono considerati in fase di implementazione e commercializzazione dell’IA.
Infatti,
la necessità di operare un contemperamento tra l’esigenza di tutelare ed
incentivare lo sviluppo tecnologico e quella di rispettare i diritti degli
individui, assume ad oggi un rilievo assoluto.
3. Il
caso CGIL c. Delivero.
Un
caso di recentissima applicazione, nel quale si evince la fallibilità di un
algoritmo in evidente contrasto con i diritti degli individui, è quello
relativo alla c.d. vicenda CGIL c. Delivero. Si tratta della prima causa avviata
in Italia che abbia ad oggetto l’analisi di un algoritmo ritenuto
discriminatorio, ma non è la prima volta nella quale si discute sull’impatto
degli algoritmi sui diritti degli individui: basti pensare alla nota vicenda
Exodus, relativa al mal direzionamento di un software che ha causato
l’installazione automatica di un trojan di Stato sui cellulari di una ingente
quantità di cittadini estranea alle indagini per le quali doveva essere
utilizzata quella tecnologia.
Nel
caso CGIL c. Delivero, il sindacato nazionale, in qualità di ricorrente, poiché
protettore di un interesse collettivo della categoria dei lavoratori riders, ha
agito in giudizio contro la piattaforma digitale di consegna di cibo a
domicilio Delivero o ritenendo discriminatorio l’algoritmo “Frank”, utilizzato
dalla stessa azienda per assegnare le consegne ai riders.
Secondo CGIL, infatti, l’azienda emarginava i
lavoratori che per motivi personali legati a diritti costituzionalmente
tutelati, oltre che dalla L. n. 128/2019 sulla tutela dei riders, come malattia
e sciopero, non si rendevano continuativamente disponibili al lavoro.
In questo modo i riders che non si adeguavano al
meccanismo venivano declassati ingiustamente dal ciclo produttivo aziendale e
gradualmente escluso dalle possibilità di impiego.
Nonostante
la tesi contraria dell’azienda, il Tribunale di Bologna ha stabilito con
ordinanza, lo scorso 31 dicembre 2020, che l’algoritmo fosse davvero
discriminatorio.
Nelle
motivazioni attraverso cui ha l’azienda si è mostrata contraria alla tesi
secondo cui l’algoritmo fosse discriminatorio, il suo General Manager ha
affermato che: “gli algoritmi di Delivero sono
creati dalle persone e l’algoritmo implementa delle regole che sono sviluppate
dalle persone”. In realtà, anche questo è un fattore di importante riflessione sul
tema della discriminazione algoritmica. Posto che gli algoritmi possono
essere mal direzionati dai soggetti che si occupano della loro progettazione ed
implementazione, ciò fa emergere un altro nodo da risolvere: la neutralità
algoritmica è un mito da decostruire.
L’intelligenza
artificiale può considerarsi neutrale proprio perché implementata da persone. Dunque, se il soggetto preposto a
progettare un algoritmo ha dei pregiudizi è del tutto probabile che i medesimi
pregiudizi saranno inglobati dall’algoritmo.
In questo caso l’algoritmo discriminatorio non
distingueva le assenze, considerandole tutte uguali, sia che provenissero da
motivi futili che da reali esigenze.
Dunque,
se l’algoritmo riflette le intenzioni dell’azienda, il messaggio che Delivero
finiva per veicolare non era positivo, considerando che i riders, in quanto
persone e categoria di lavoratori, hanno dei diritti.
Nel
2019 il Consiglio d’Europa menzionava, tra i diritti da tutelare rispetto
all’utilizzo di strumenti di IA, anche il diritto alla libertà di espressione,
di riunione, di associazione ed il diritto al lavoro.
Dunque,
gli Stati membri devono tenere contro di tutti gli standard internazionali sui
diritti umani che possono essere coinvolti dall’IA, nell’ottica di rispettare
anche questi diritti.
Attualmente
Delivero ha fatto sapere a mezzo stampa
di aver già modificato la tecnologia, dunque l’algoritmo oggetto di contestazione
è ormai in disuso, ma ciò fa emergere un’ulteriore questione problematica: come si può controllare l’operato di
un’azienda che afferma di aver modificato un algoritmo, la cui struttura non è
resa pubblica? Innanzitutto bisogna riflettere e capire se sia possibile, ed
eventualmente come, contestare l’attendibilità di un dato raccolto
automaticamente, anche in un contesto di contenzioso.
Non
c’è alcun motivo per cui una parte possa contestare l’attendibilità di una
prova se non ha accesso ad alcuni dati fondamentali, come il codice sorgente ed
altre informazioni tecniche circa il processo di generazione del dato.
In realtà, va osservato che diversi modelli
computazionali hanno vari modelli di accessibilità e consentono una verifica
dei risultati dell’elaborazione di un software, anche ex post, seppure talvolta
limitata.
Dunque,
a seconda di come è stato progettato il software, può diventare possibile
capire come e perché il sistema abbia generato un dato piuttosto che un altro,
e chi porta davanti al giudice quel dato può sfruttare l’incapacità dell’altra
parte a contestarne l’affidabilità. Riflettendo su quali potrebbero essere le
soluzioni ad un tema così complicato e che appare irrisolvibile, occorre
riflettere sull’importanza di avere una trasparenza algoritmica, necessaria ma
spesso utopica.
4.
Trasparenza algoritmica: quando la garanzia di accessibilità non basta.
Per
capire se sia possibile risalire alle modalità di funzionamento di un algoritmo
bisogna prima individuare il tipo di protezione fornita al software che ha
generato il dato:
se si
tratta di un software dal formato proprietario, vorrà dire che i produttori
decideranno di non fornire il codice sorgente del programma, tutelando la
segretezza delle loro licenze intellettuali.
Indubbiamente
i codici sorgente potrebbero rivelarsi fondamentali nell’ambito di un controllo
ex post dei dati generati, ma non tale controllo potrebbe risultare decisivo per una
valutazione completa del software nell’ottica dell’affermazione della
famigerata trasparenza algoritmica.
L’accessibilità
e la trasparenza sono concetti estremamente diversi e mettere a disposizione il
codice sorgente di un software potrebbe garantirne l’accessibilità, ma non la
trasparenza. Solo gli esperti possono validare il processo di creazione dell’output
sulla base de codice sorgente, poiché a causa dell’immaterialità dei dati, i
soggetti non esperti non sono in grado di capire il processo di generazione del
modello computazionale e individuarne le eventuali manomissioni. Oltretutto, non è detto che i
codici sorgente garantiscano sempre una rendicontazione e una responsabilità in
tutti i casi in cui vengono diffusi e analizzati ex post. Anzi, una riflessione sulla validità
degli output generati, molto spesso non è sufficiente, seppure accurata. L’ignoto sulla derivazione dei dati
generati ha delle implicazioni fondamentali sui diritti degli individui che vengono
colpiti dalle scelte degli algoritmi.
Un
processo automatizzato di generazione dei dati non sempre, come si è visto, può
essere ricostruito, e la normale prudenza umana che viene utilizzata per valutare
l’attendibilità delle informazioni può essere incompatibile con il fenomeno
digitale.
È proprio qui che si evince l’importanza del significato della trasparenza algoritmica
per rispettare i diritti fondamentali degli individui.
La
complicata soluzione al problema della discriminazione algoritmica non è
giuridica, ma piuttosto va ricercata nella tecnologia.
Non ci
si può basare, nell’ambito di un controllo di questa portata, solo sui mezzi
tradizionali del ragionamento umano, ma servono delle solide basi di convalida
dei processi tecnologici.
Spesso
si verifica una fiducia eccessiva nei confronti dei dati digitali: in tali casi è essenziale che il
giudice, in una situazione di contestazione giurisdizionale di un algoritmo,
sia disposto ed in grado di permettere una convalida indipendente dei dati
generati come output in modo automatico.
Ciò,
però, può avvenire solo in presenza di alcune condizioni specifiche: il software che ha prodotto i dati
dovrebbe essere open-source e ciò non sempre è possibile, molto spesso per
questioni legate alla proprietà intellettuale.
Tuttavia,
il progresso tecnologico è di ausilio anche nell’ottenimento di tale equilibrio
senza il necessario ricorso a metodi giurisdizionali: infatti, in alcuni casi, si può
ricorrere a strumenti crittografici che permettono di provare le proprietà
della politica decisionale di un software, senza rivelarne comunque la politica
decisionale. Questa appare una via di mezzo per consentire alla difesa di contestare
l’affidabilità della prova a suo carico generata automaticamente, senza
implicare obbligatoriamente la divulgazione dei codici sorgente, e dunque, la
loro riscrittura successiva.
L’opacità
algoritmica amplifica i problemi su come poter verificare le informazioni
digitali in un contesto giudiziale. Dunque, si ritiene che la soluzione ad un problema
che, come si è visto, è ormai una questione sociale, comprenda la realizzazione ex
ante dei modelli che permettano di comprendere, attraverso tecniche di c.d.
reverse engineering, quale sia stato il processo di generazione dei dati, e
stabilire degli standard di revisione ex post che possano convalidare
tecnicamente dei dati generati.
Come
si è visto, il Consiglio d’Europa ha in molte occasioni dimostrato la sua
capacità di aprire la strada a nuovi standard, divenuti anche i punti di
riferimento globali.
Lo
sviluppo delle tecniche di IA deve essere affrontato attraverso un approccio
multistakeholder con altre organizzazioni internazionali, con la società
civile, le imprese ed il mondo accademico e scientifico.
È importante,
dunque, la collaborazione puntuale di diverse classi di professionisti con
l’obiettivo comune della salvaguardia dei diritti umani.
Potrebbe
finire Molto Male
per
Tutti, Ucraini in primis.
Conoscenzealconfine.it-
(13 Settembre 2022) -DB-Redazione- ci dice:
Vasti
territori e città dell’Ucraina sono senza corrente, con linee elettriche,
centrali e trasformatori in fiamme.
Ingenti
i danni che non saranno riparabili in breve tempo. Prima si evitava di colpire
le infrastrutture vitali, perché si mirava a non fare soffrire oltremodo la
popolazione civile, adesso le cose potrebbero essere cambiate e la guerra
purtroppo potrebbe essere totale.
Il
riscaldamento in Ucraina è dipendente dal gas dalla Russia che, nonostante il
conflitto, non è mai venuto a mancare perché Putin ha fatto in modo di
mantenere il rifornimento a Kiev, anche se indirettamente.
Un
inverno in Ucraina senza gas e con l’elettricità a singhiozzo significherebbe
la paralisi della nazione e mi duole dirlo, gli ucraini non potranno di certo
scaldarsi con i dollari americani e gli armamenti.
Chi
fornirà il necessario a Kiev?
Non abbiamo nemmeno abbastanza gas per noi
stessi in Europa, abbiamo a malapena scorte per l’inverno e lo elemosiniamo in
giro per il mondo pagandolo il quadruplo.
Prima
di festeggiare come Pirro per le controffensive o presunte tali si sappia che
si potrebbe profilare un disastro di proporzioni bibliche nel nostro
continente, il tutto causato dall’ostinazione occidentale di combattere la
Russia sull’uscio di casa.
Prima
o poi finirà, ma potrebbe finire molto male per tutti.
(DB-Redazione-
t.me/weltanschauungitaliaofficial)
L’utilizzo
dell’algoritmo nel
procedimento
amministrativo.
Andig.it-
Luigi Santoro – (2 ottobre 2020) – ci dice:
Da
qualche tempo, la pubblica amministrazione ha iniziato a far ricorso agli
algoritmi nello svolgimento di procedimenti amministrativi, sfruttando le
potenzialità di calcolo e di elaborazione che i suddetti strumenti offrono e
giovando dei vantaggi derivanti dalla contrazione delle tempistiche e della
quantità di risorse impiegate.
Tuttavia,
la capacità degli algoritmi di effettuare operazioni automatizzate in grado di
sostituirsi all’attività umana e di soppiantare intere fasi procedimentali,
pone dei dubbi sulla loro compatibilità con i principi stabiliti
dall’ordinamento per il legittimo esercizio del potere pubblico.
Sul
solco di tali dubbi, il presente contributo esamina il rapporto tra l’utilizzo
degli algoritmi e i principi procedimentali, tenendo conto degli orientamenti
della giurisprudenza amministrativa.
1.
L’algoritmo.
L’algoritmo
consiste in una serie di istruzioni finalizzate alla soluzione di un problema o
al raggiungimento di un determinato risultato.
Il suo
nome deriva del matematico arabo Mohammed ibn-Musa al-Khwarizmi, vissuto tra il
780 e l’850 d.C., considerato uno dei pionieri nella comprensione e
nell’utilizzo di tale “strumento”.
Le
istruzioni che compongono l’algoritmo sono poste in sequenza e sono eseguite
secondo l’ordine prestabilito; esse vengono solitamente rappresentate
attraverso un diagramma di flusso (c.d. flow chart).
Uno
dei settori prediletti per l’utilizzo degli algoritmi è quello dell’Information Technologies, essendo comunemente utilizzati nella
programmazione e nello sviluppo di software, in ragione della loro attitudine a
risolvere problematiche complesse in modo automatizzato.
In
tale ambito, è oggi particolarmente rilevante l’utilizzo degli algoritmi per lo
sviluppo dell’intelligenza artificiale, che vede la progettazione di
software che non si limitano ad eseguire le istruzioni programmate, bensì ad
apprendere nuove informazioni dalla realtà circostante.
Nonostante,
quindi, l’algoritmo abbia origini antiche, le sue applicazioni sono fondamentali
per il progresso tecnologico, il cui evolversi condiziona non solo gli stili di
vita, ma anche lo sviluppo della cultura sociale.
La vis
attractiva dei vantaggi dell’utilizzo di un algoritmo non ha certo lasciato
indifferente la pubblica amministrazione, che vede con favore l’agevolazione di
attività amministrative a volte complesse e defatiganti, nelle quali non è
certo trascurabile la probabilità dell’errore umano.
2.
Algoritmo e principi del procedimento amministrativo.
Il
vento dell’innovazione tecnologica, seppur con tempistiche non sempre celeri e le
annesse difficoltà per gli opportuni adattamenti organizzativi, ha investito da
tempo la pubblica amministrazione.
Significativa,
a tal riguardo, è stata l’introduzione del Codice dell’amministrazione digitale,
ad opera del decreto legislativo 7 marzo 2005, n. 82, la cui finalità, espressamente
indicata all’art. 2, comma 1, consiste nell’assicurare “la disponibilità, la gestione,
l'accesso, la trasmissione, la conservazione e la fruibilità dell'informazione
in modalità digitale […] utilizzando con le modalità più appropriate, le
tecnologie dell'informazione e della comunicazione”.
In
particolare, il successivo art. 12 precisa, al comma 1, che “[l]e pubbliche amministrazioni
nell'organizzare autonomamente la propria attività utilizzano le tecnologie
dell'informazione e della comunicazione per la realizzazione degli obiettivi di
efficienza, efficacia, economicità, imparzialità, trasparenza, semplificazione
e partecipazione nel rispetto dei principi di uguaglianza e di non
discriminazione, nonché per l'effettivo riconoscimento dei diritti dei
cittadini e delle imprese […]”.
Le
tecnologie dell’informazione, quindi, assurgono a strumento agevolatore per il
rispetto dei principi che informano l’attività amministrativa e per i diritti
dei privati.
Ad
ulteriore conferma, l’art. 3-bis della legge n. 241/90 sul procedimento
amministrativo promuove l’uso della telematica, sia tra i rapporti interni alle
pubbliche amministrazioni che nei rapporti con i privati, al fine di conseguire “maggiore
efficienza”.
Invero,
sono innegabili le facilitazioni che derivano dalla fruizione, da parte dei
cittadini, dei servizi on line offerti dalle varie amministrazioni, facendo
venire meno la necessità di recarsi presso gli uffici amministrativi ed
evitando le, spesso, interminabili attese in coda, con conseguente risparmio di
tempo, di costi e di risorse.
Tali
servizi informatici sono stati, ad esempio, fondamentali durante il periodo di
lockdown dovuto all’emergenza sanitaria da Covid-19.
Il
processo di informatizzazione della pubblica amministrazione è stato definito
come “e-governement”,
consistente nel “l’uso delle tecnologie dell’informazione e della comunicazione
nelle pubbliche amministrazioni, coniugato a modifiche organizzative ed
all’acquisizione di nuove competenze al fine di migliorare i servizi pubblici
ed i processi democratici e di rafforzare il sostegno alle politiche
pubbliche”.
L’evoluzione
tecnologica delle pubbliche amministrazioni però non si è limitata all’uso delle
tecnologie di informazione e comunicazione, ma si è spinta, più recentemente, fino all’utilizzo degli algoritmi
all’interno dei procedimenti amministrativi.
A
titolo esemplificativo, si pensi alle procedure di trasferimento o di
assegnazione di prima sede degli insegnanti, oppure al riconoscimento di
contributi assistenziali sulla base di determinati parametri, o ancora agli accertamenti fiscali su
base presuntiva che si fondano sulla sussistenza di alcuni indici rivelatori di
reddito sommerso.
Tali
procedimenti sono soliti caratterizzarsi per: (i) un numero elevato dei
destinatari; (ii) la presenza di criteri standardizzati individuati a monte da
una disposizione normativa; (iii) una ridotta discrezionalità da parte
dell’amministrazione.
Ebbene,
l’uso dell’algoritmo consente di elaborare con grande facilità e speditezza i
dati necessari per l’emanazione del provvedimento finale.
Conseguentemente
l’utilizzo dell’algoritmo comporta un quid pluris rispetto alla telematica o
agli strumenti della tecnologia dell’informazione e della comunicazione che le
norme citate espressamente richiamano: infatti, mentre questi ultimi
attengono prevalentemente alla forma degli atti e non intaccano le
caratteristiche del procedimento amministrativo, l’algoritmo è idoneo a sostituire
alcune fasi procedimentali, andando quindi ad incidere sulla sostanza del
procedimento e sui principi stabiliti dall’ordinamento.
Il
grado di incidenza sul procedimento dipende anche della concezione di
quest’ultimo.
Secondo
la concezione “formale” (o teleologica), il procedimento amministrativo si
sostanzia nell’insieme di una pluralità di atti, susseguenti e diversi fra loro
e preordinati all’adozione di un provvedimento finale, che danno di conseguenza
vita a una fattispecie a formazione progressiva.
Diversamente,
secondo la concezione “sostanziale” del procedimento, quest’ultimo rappresenta
la modalità di esercizio del potere pubblico, ovvero la “forma della funzione
amministrativa”. Secondo tale concezione, il procedimento costituisce il momento di
“coordinamento e composizione di opposti interessi pubblici e privati”.
Entrambe
le concezioni sembrano mal conciliarsi con la modalità operativa
dell’algoritmo: nell’ottica della concezione formale, l’utilizzo dell’algoritmo
potrebbe far venir meno le diverse fasi precedenti all’emanazione del
provvedimento finale e, conseguentemente, la pluralità di atti tipici del
procedimento amministrativo; nell’ottica della concezione sostanziale, potrebbe invece
venire meno il momento di coordinamento e composizione degli interessi pubblici
e privati.
Ciò è
ancor più evidente se si tiene conto che il procedimento consente la
partecipazione e il contraddittorio dei soggetti incisi dal provvedimento
finale, fungendo da fonte di legittimazione del potere pubblico e garantendo la democraticità
dell’ordinamento amministrativo.
La
partecipazione dei privati nel procedimento amministrativo garantisce quella
che viene definita come legalità procedurale, la quale si affianca alla
legalità sostanziale, correggendone eventuali deficit, specie nelle ipotesi in
cui la legge appare indeterminata e viene lasciato al potere amministrativo il
compito di stabilire la disciplina di dettaglio (si pensi al potere regolatorio delle
Autorità amministrative indipendenti).
La
partecipazione del privato nel procedimento amministrativo è, inoltre, alla
base della teoria normativa dell’interesse legittimo elaborata da Mario Nigro,
ormai predominante in dottrina e giurisprudenza, secondo la quale esso consiste
nella posizione giuridica di vantaggio riconosciuto al privato di influire
sull’azione amministrativa, condizionandola, al fine di tutelare il bene della
vita alla cui conservazione o acquisizione il privato stesso aspira.
Motivo
per cui, se l’istruttoria procedimentale è soppiantata da un’elaborazione
robotizzata, il privato, pur astrattamente titolare di un interesse legittimo,
difficilmente potrebbe influire sull’azione amministrativa.
Recentemente,
la Corte
Costituzionale ha ricordato che “il procedimento amministrativo costituisce il
luogo elettivo di composizione degli interessi, in quanto «[è] nella sede
procedimentale […] che può e deve avvenire la valutazione sincronica degli
interessi pubblici coinvolti e meritevoli di tutela, a confronto sia con
l’interesse del soggetto privato operatore economico, sia ancora (e non da
ultimo) con ulteriori interessi di cui sono titolari singoli cittadini e
comunità, e che trovano nei princìpi costituzionali la loro previsione e
tutela. La
struttura del procedimento amministrativo, infatti, rende possibili l’emersione
di tali interessi, la loro adeguata prospettazione, nonché la pubblicità e la
trasparenza della loro valutazione […]»”.
Il
contemperamento degli interessi pubblici e privati è garantito dalle previsioni
contenute in diverse disposizioni della L. n. 241/1990, tra le quali si
evidenziano: l’art. 7, che prevede la comunicazione di avvio del procedimento ai soggetti nei
confronti dei quali il provvedimento finale è destinato a produrre effetti
diretti ed a quelli che per legge debbono intervenirvi; l’art. 9, che riconosce la facoltà di
intervento nel procedimento a qualunque soggetto portatore di interessi
pubblici o privati; l’art. 10-bis, il quale prevede che nei procedimenti ad istanza di
parte il responsabile del procedimento o l’autorità competente, prima di
adottare un provvedimento negativo, comunica tempestivamente agli istanti i
motivi che ostano all’accoglimento della domanda, in modo da consentire loro di
presentare eventuali osservazioni o documenti.
Al
contempo, vi sono delle fattispecie in cui la partecipazione dei privati non è
prevista, come ad esempio nei procedimenti volti all’emanazione di atti che non
incidono direttamente su di una posizione giuridica soggettiva, come gli atti
normativi, quelli amministrativi generali, o di pianificazione e
organizzazione; o ancora, nei procedimenti dove, almeno nelle prime fasi, occorre
mantenere una certa riservatezza al fine di non comprometterne gli esiti, quale
ad esempio gli accertamenti di natura tributaria.
Ma
indipendentemente dalle ipotesi in cui la partecipazione del privato è
espressamente esclusa dalla legge, occorre evidenziare che l’art. 21-octies, comma 2,
della L. n. 241/90, relativo alla non annullabilità per vizi meramente formali
dell’atto, sancisce che “[i]l provvedimento amministrativo non è comunque
annullabile per mancata comunicazione dell'avvio del procedimento qualora
l'amministrazione dimostri in giudizio che il contenuto del provvedimento non
avrebbe potuto essere diverso da quello in concreto adottato”.
Infatti,
l’intervento del privato, è teso a “condizionare” l’esercizio del potere
amministrativo, sicché laddove quest’ultimo sia comunque insensibile a
qualsiasi tipo di condizionamento, ne deriva l’irrilevanza dell’intervento
medesimo.
Tale
situazione può verificarsi, ad esempio nelle ipotesi di “attività vincolata”,
nelle quali l’amministrazione è chiamata solo a verificare la sussistenza dei
presupposti determinati dalla legge al fine dell’emanazione del provvedimento
finale. In
tali ipotesi, la partecipazione del privato nulla potrebbe aggiungere ove i
presupposti richiamati dalla legge effettivamente sussistano e non vi sia
necessità di alcuna valutazione discrezionale da parte dell’amministrazione.
Ebbene,
nelle ipotesi di attività vincolata, l’uso di un algoritmo che, in modo
automatizzato, faccia applicazione dei criteri individuati a monte dalla legge,
non dovrebbe ledere gli interessi del privato inciso dal provvedimento finale.
Naturalmente,
l’uso dell’algoritmo, pur in presenza di attività vincolata, non attenua in
alcun modo, da parte dell’amministrazione, l’obbligo di trasparenza, né quello
di motivazione del provvedimento finale ai sensi dell’art. 3 della L. n. 241/90,
al fine di consentire la comprensione dei presupposti di fatto e delle ragioni
giuridiche alla base dell’agire amministrativo.
Di
conseguenza, il privato dovrebbe sempre essere messo in condizione di
comprendere le logiche e le istruzioni sottese al funzionamento dell’algoritmo,
anche allo scopo di agire in giudizio ove ravvisasse la lesione dei propri
diritti o interessi legittimi.
Ai
principi ed ai diritti riconosciuti al privato dalla legge nazionale, si
aggiungono quelli previsti dalle disposizioni del Regolamento UE 2016/679.
3. Il
Regolamento UE 2016/679 e il diritto degli interessati a non essere sottoposti
a una decisione basata unicamente su un trattamento automatizzato.
L’art. 22, par. 1, del Regolamento UE
2016/679 (GDPR) sancisce il diritto dell’interessato “di non essere sottoposto a una
decisione basata unicamente sul trattamento automatizzato […] che produca
effetti giuridici che lo riguardano o che incida in modo analogo
significativamente sulla persona”.
La
norma prevede alcune eccezioni al paragrafo 2, tra le quali, tralasciando le
ipotesi che non rilevano all’interno di un procedimento amministrativo, la
fattispecie in cui il processo decisionale automatizzato sia autorizzato dal
diritto dell’Unione o dello Stato membro a cui è soggetto il titolare del
trattamento, che deve precisare le misure adeguate a tutela dei diritti, delle libertà
e dei legittimi interessi dell’interessato.
Una simile previsione è contenuta anche nella
direttiva (UE) 2016/680, relativa alla protezione delle persone fisiche con
riguardo al trattamento dei dati personali da parte delle Autorità competenti
ai fini di prevenzione, indagine, accertamento e perseguimento di reati o
esecuzione di sanzioni penali, nonché alla libera circolazione di tali dati,
recepita con D.Lgs. 18 maggio 2018, n. 51.
La
disposizione in commento è frutto della consapevolezza del legislatore europeo
che una decisione derivante da un trattamento completamente automatizzato e da
cui derivano conseguenze giuridiche per i destinatari potrebbe sfuggire a forme di
controllo sulla regolarità e correttezza della decisione medesima.
Per
tale ragione, è necessaria l’individuazione di misure appropriate per la tutela
dei diritti e delle libertà degli interessati, tra le quali rientra il “diritto
di ottenere l’intervento umano da parte del titolare del trattamento” e il
“diritto di esprimere la propria opinione e di contestare la decisione”.
I
predetti diritti sono esplicitamente previsti dall’art. 22, par. 3, GDPR quali
garanzie minime nelle ipotesi in cui il trattamento automatizzato sia stato
autorizzato dall’interessato tramite consenso esplicito, oppure sia necessario
alla conclusione o all’esecuzione di un contratto tra l’interessato medesimo e
il titolare del trattamento.
Non
viene richiamata, invece, la suddetta tutela minima anche per l’ipotesi in cui
la decisione tramite trattamento automatizzato sia autorizzata da una fonte
normativa interna o sovranazionale: in tali casi, infatti, la stessa
normativa dovrebbe indicare le misure adeguate per la tutela dei diritti e per
le libertà degli interessati.
Va
però evidenziato che il considerando n. 71 del GDPR precisa che “[i]n ogni caso, tale trattamento
dovrebbe essere subordinato a garanzie adeguate, che dovrebbero comprendere la
specifica informazione all'interessato e il diritto di ottenere l'intervento
umano, di esprimere la propria opinione, di ottenere una spiegazione della
decisione conseguita dopo tale valutazione e di contestare la decisione”.
La
locuzione “in ogni caso” lascia intendere che anche nelle ipotesi in cui la
decisione automatizzata sia autorizzata dal diritto interno o sovranazionale,
tra le misure adeguate alla tutela dei diritti degli interessati dovrebbero comunque rientrare il
diritto di ottenere l’intervento umano, quello di esprimere la propria
opinione, di conoscere le ragioni alla base della decisione e di contestare la
decisione medesima.
Invero,
una parte dei diritti appena elencati sembrano corrispondere, almeno
parzialmente, alle guarentigie procedimentali previste dalla L. n. 241/90: il diritto di esprimere le proprie
opinioni risponde infatti alla logica della partecipazione al procedimento
amministrativo; il diritto di conoscere le ragioni alla base della decisione è
speculare tanto al diritto di accesso, quanto all’obbligo di motivazione del
provvedimento da parte della pubblica amministrazione; il diritto di contestare la decisone
medesima è riconosciuto sia attraverso strumenti amministrativi, quali il
ricorso gerarchico o l’istanza per l’esercizio dell’autotutela, sia attraverso
il ricorso giurisdizionale.
Quanto,
invece, al diritto di ottenere l’intervento umano, è opportuno tenere presente
che l’art. 5 della L. n. 241/90 prevede la figura del “responsabile del procedimento”,
il quale deve essere necessariamente nominato per ogni procedimento
amministrativo.
Tra i
compiti del responsabile, ai sensi dell’art. 6 della medesima L. n. 241/90, vi
sono quelli di: valutare la sussistenza dei presupposti per l’emanazione del
provvedimento finale, adottare il provvedimento finale o trasmettere gli atti
dell’istruttoria all’organo competente per l’emanazione del provvedimento
finale, emettere il provvedimento finale discostandosi dalle risultanze
dell’istruttoria, purché con idonea motivazione.
La
presenza del responsabile del procedimento potrebbe garantire, di fatto, il
controllo umano anche sui procedimenti automatizzati.
Tuttavia
ci si chiede se il potenziale controllo del responsabile sia in concreto
realizzabile in presenza di uno strumento robotizzato e se sia sufficiente a
garantire, in maniera effettiva, i diritti previsti dal GDPR.
A
fronte di un vuoto normativo sul punto, il Consiglio di Stato ha elaborato
una serie di principi e di regole per l’uso legittimo degli algoritmi da parte
delle pubbliche amministrazioni.
4. Il
punto della giurisprudenza.
In
materia di utilizzo degli algoritmi nel procedimento amministrativo si
registrano diverse sentenze della giurisprudenza amministrativa, frutto di due
visioni contrapposte: da una parte quella del Tribunale amministrativo regionale
per il Lazio, restìa all’utilizzo di tali strumenti, dall’altra quella del
Consiglio di Stato, aperto all’utilizzo degli stessi, pur nel rispetto di
determinati principi.
In
particolare, il Tar, in una delle pronunce sul tema, evidenzia come l’utilizzo
dell’algoritmo fa venire meno l’attività amministrativa, devolvendola ad un
meccanismo matematico od informatico impersonale “orfano di capacità valutazionali
delle singole fattispecie concrete, tipiche invece della tradizionale e
garantistica istruttoria procedimentale che deve informare l’attività
amministrativa, specie ove sfociante in atti provvedimentali incisivi di
posizioni giuridiche soggettive di soggetti privati e di conseguenziali ovvie
ricadute anche sugli apparati e gli assetti della pubblica amministrazione”.
Pur
impostando l’algoritmo in modo da tener conto di tutti i presupposti che la
legge richiede per l’emanazione del provvedimento finale, secondo il Tar “giammai può
assicurare la salvaguardia delle guarentigie procedimentali che gli artt. 2,
6,7,8,9,10 della legge 7.8.1990 n. 241 hanno apprestato, tra l’altro in
recepimento di un inveterato percorso giurisprudenziale e dottrinario […] gli
istituti di partecipazione, di trasparenza e di accesso, in sintesi, di
relazione del privato con i pubblici poteri non possono essere legittimamente
mortificati e compressi soppiantando l’attività umana con quella impersonale,
che poi non è attività, ossia prodotto delle azioni dell’uomo, che può essere
svolta in applicazione di regole o procedure informatiche o matematiche. A
essere inoltre vulnerato non è solo il canone di trasparenza e di
partecipazione procedimentale, ma anche l’obbligo di motivazione delle
decisioni amministrative, con il risultato di una frustrazione anche delle correlate
garanzie processuali che declinano sul versante del diritto di azione e difesa
in giudizio di cui all’art. 24 Cost., diritto che risulta compromesso tutte le
volte in cui l’assenza della motivazione non permette inizialmente
all’interessato e successivamente, su impulso di questi, al Giudice, di
percepire l’iter logico – giuridico seguito dall’amministrazione per giungere
ad un determinato approdo provvedimentale”.
Ancor
più esplicativa è la considerazione secondo la quale le “procedure informatiche, finanche
ove pervengano al loro maggior grado di precisione e addirittura alla
perfezione, non possano mai soppiantare, sostituendola davvero appieno,
l’attività cognitiva, acquisitiva e di giudizio che solo un’istruttoria
affidata ad un funzionario persona fisica è in grado di svolgere e che
pertanto, al fine di assicurare l’osservanza degli istituti di partecipazione,
di interlocuzione procedimentale, di acquisizione degli apporti collaborativi
del privato e degli interessi coinvolti nel procedimento, deve seguitare ad essere il dominus
del procedimento stesso, all’uopo dominando le stesse procedure informatiche
predisposte in funzione servente e alle quali va dunque riservato tutt’oggi un
ruolo strumentale e meramente ausiliario in seno al procedimento amministrativo
e giammai dominante o surrogatorio dell’attività dell’uomo; ostando alla deleteria prospettiva
orwelliana di dismissione delle redini della funzione istruttoria e di
abdicazione a quella provvedimentale, il presidio costituito dal baluardo
dei valori costituzionali scolpiti negli artt. 3, 24, 97 della Costituzione
oltre che all’art. 6 della Convezione europea dei diritti dell’uomo”.
Di
diverso avviso, invece, è il Consiglio di Stato.
Con
una prima pronuncia, i Giudici di Palazzo Spada osservano come un più elevato
livello di digitalizzazione dell’amministrazione pubblica è fondamentale per il
miglioramento della qualità dei servizi ai cittadini e agli utenti.
Allo
stesso modo, evidenzia il Consiglio di Stato, l’automazione del processo
decisionale della pubblica amministrazione mediante l’utilizzo di una procedura
digitale ed attraverso un algoritmo in grado di valutare e graduare una
moltitudine di domande comporta indiscutibili vantaggi, in particolare nelle
procedure “seriali o standardizzate”, caratterizzate dall’elaborazione di
ingenti quantità di istanze e dall’acquisizione di “dati certi ed oggettivamente
comprovabili e dall’assenza di ogni apprezzamento discrezionale”.
Il
processo automatizzato è “conforme ai canoni di efficienza ed economicità dell’azione
amministrativa (art. 1 l. 241/90), i quali, secondo il principio costituzionale
di buon andamento dell’azione amministrativa (art. 97 Cost.), impongono all’amministrazione il
conseguimento dei propri fini con il minor dispendio di mezzi e risorse e
attraverso lo snellimento e l’accelerazione dell’iter procedimentale”.
Di
conseguenza, secondo il Consiglio, “l’utilizzo di una procedura informatica che
conduca direttamente alla decisione finale non deve essere stigmatizzata, ma
anzi, in linea di massima, incoraggiata: essa comporta infatti numerosi
vantaggi quali, ad esempio, la notevole riduzione della tempistica
procedimentale per operazioni meramente ripetitive e prive di discrezionalità,
l’esclusione di interferenze dovute a negligenza (o peggio dolo) del
funzionario (essere umano) e la conseguente maggior garanzia di imparzialità
della decisione automatizzata”.
Tuttavia,
precisa il Supremo Consesso della giustizia amministrativa, l’utilizzo di
procedure robotizzate non deve portare all’elusione dei principi che conformano
l’ordinamento e lo svolgersi dell’attività amministrativa.
A tal
proposito, il Collegio elabora un “decalogo” contenente i criteri in presenza dei
quali l’utilizzo dell’algoritmo è legittimo e conforme ai suddetti principi,
ovvero quando la regola tecnica posta alla sua base:
“possiede
una piena valenza giuridica e amministrativa, anche se viene declinata in forma
matematica, e come tale, come si è detto, deve soggiacere ai principi generali
dell’attività amministrativa, quali quelli di pubblicità e trasparenza (art. 1
l. 241/90), di ragionevolezza, di proporzionalità, etc.;
non
può lasciare spazi applicativi discrezionali (di cui l’elaboratore elettronico
è privo), ma deve prevedere con ragionevolezza una soluzione definita per tutti
i casi possibili, anche i più improbabili (e ciò la rende in parte diversa da
molte regole amministrative generali); la discrezionalità amministrativa, se
senz’altro non può essere demandata al software, è quindi da rintracciarsi al
momento dell’elaborazione dello strumento digitale;
vede
sempre la necessità che sia l’amministrazione a compiere un ruolo ex ante di
mediazione e composizione di interessi, anche per mezzo di costanti test,
aggiornamenti e modalità di perfezionamento dell’algoritmo (soprattutto nel
caso di apprendimento progressivo e di deep learning);
deve
contemplare la possibilità che – come è stato autorevolmente affermato – sia il
giudice a “dover svolgere, per la prima volta sul piano ‘umano’, valutazioni e
accertamenti fatti direttamente in via automatica”, con la conseguenza che la
decisione robotizzata “impone al giudice di valutare la correttezza del
processo automatizzato in tutte le sue componenti”.
Secondo
il Consiglio di Stato, l’algoritmo, ovvero il relativo software, deve essere considerato a tutti gli
effetti come un “atto amministrativo informatico”, quindi soggetto ai principi
procedimentali previsti dall’ordinamento, tra cui quello della trasparenza.
In
tali fattispecie, però, la trasparenza assume una “declinazione rafforzata” che
si sostanzia nella piena conoscibilità: (i) della regola espressa in un
linguaggio diverso rispetto a quello giuridico, (ii) degli autori dell’algoritmo,
(iii) del procedimento utilizzato per la sua elaborazione, (iv) del meccanismo
di decisione e (v) dei criteri o dei dati utilizzati a tal riguardo.
In
sostanza, continua il Collegio, “la “caratterizzazione multidisciplinare”
dell’algoritmo (costruzione che certo non richiede solo competenze giuridiche,
ma tecniche, informatiche, statistiche, amministrative) non esime dalla
necessità che la “formula tecnica”, che di fatto rappresenta l’algoritmo, sia corredata
da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che
la rendano leggibile e comprensibile, sia per i cittadini che per il giudice”.
Inoltre,
la regola algoritmica è soggetta alla piena cognizione del giudice
amministrativo, il quale deve poter verificare come il potere sia stato
concretamente esercitato dall’amministrazione, a tutela anche del diritto di
difesa dei privati, che non può essere precluso dalle concrete modalità di
esercizio del potere.
Sicché,
il giudice
deve poter valutare la correttezza del processo informatico in tutte le sue
componenti, dalla sua costruzione all’inserimento dei dati, compresa la
validità degli stessi e la loro gestione e, conseguentemente, la logicità e la
ragionevolezza della decisione amministrativa robotizzata, anche attraverso la regola
che governa l’algoritmo.
I
principi sopra enunciati sono stati confermati dal Consiglio di Stato in una
successiva pronuncia, nella quale viene ulteriormente messo in evidenza il
vantaggio dell’utilizzo degli algoritmi per l’assunzione di decisioni da parte
della pubblica amministrazione, in quanto idonei a “correggere le storture e le
imperfezioni che caratterizzano tipicamente i processi cognitivi e le scelte
compiute dagli esseri umani, messi in luce soprattutto negli ultimi anni da
un’imponente letteratura di economia comportamentale e psicologia cognitiva”.
Inoltre,
il Collegio specifica che non sussistono motivi per limitare l’utilizzo di tali
strumenti alla sola attività vincolata, piuttosto che discrezionale, “atteso che ogni attività autoritativa
comporta una fase quantomeno di accertamento e di verifica della scelta ai fini
attribuiti dalla legge”. Di conseguenza, “se il ricorso agli strumenti
informatici può apparire di più semplice utilizzo in relazione alla c.d.
attività vincolata, nulla vieta che i medesimi fini predetti, perseguiti con il
ricorso all’algoritmo informatico, possano perseguirsi anche in relazione ad
attività connotata da ambiti di discrezionalità”.
Fondamentale,
però, è
garantire gli elementi minimi di garanzia per il privato, consistenti nel
rispetto del principio di trasparenza, nella predetta declinazione “forte”, e
l’imputabilità della decisione all’organo titolare del potere, il quale deve poter svolgere la
necessaria verifica di logicità e di legittimità della scelta e degli esiti
affidati all’algoritmo e sul quale cade l’eventuale responsabilità per la violazione
dei diritti e degli interessi dei soggetti incisi.
Con la
predetta pronuncia, il Consiglio di Stato, richiamando alcune disposizioni
sovranazionali, elabora tre ulteriori principi:
il
principio di conoscibilità, in base al quale ognuno ha diritto a conoscere l’esistenza
di processi decisionali automatizzati che lo riguardino e, nel caso vi siano,
ottenere informazioni significative sulla logica utilizzata. Tale principio si
pone quale applicazione degli artt. 13, 14 e 15 del Regolamento UE 2016/679,
sull’obbligo di informativa agli interessati da parte del titolare del
trattamento e sul diritto di accesso, nonché dell’art. 42 della Carta Europea dei
Diritti Fondamentali, che sancisce il diritto di accesso ai documenti nel
contesto dell’Unione europea, e risponde al “Right to a good administration”,
in base al quale quando l’Amministrazione intende adottare una decisione che
può avere effetti avversi su di una persona, essa ha l’obbligo di sentirla
prima di agire e di consentire l’accesso ai suoi documenti, dando le ragioni
della propria decisione. Nel caso di utilizzo degli algoritmi, alla
conoscibilità deve accompagnarsi anche la “comprensibilità”, ovvero la
possibilità di ricevere informazioni sulla logica utilizzata;
principio
di non esclusività della decisione algoritmica, che trova il suo fondamento
nell’art. 22 del GDPR e si sostanzia nel diritto a non vedersi applicare una
decisione completamente automatizzata nel caso in cui la stessa produca effetti
giuridici che riguardino o incidano significativamente su una persona. Nello
specifico, deve comunque esistere nel processo decisionale un contributo umano
capace di controllare, validare ovvero smentire la decisione robotizzata
(secondo il modello HITL – human in the loop);
principio
di non discriminazione algoritmica, ricavabile dal considerando n. 71 del GDPR, in base
al quale è opportuno che il titolare del trattamento metta in atto delle
procedure volte a limitare il rischio di errori e inesattezze che possano
incidere sui diritti e le libertà delle persone a cui è rivolto il procedimento
automatizzato, impedendo effetti discriminatori sulla base della razza, dell’origine
etnica, delle opinioni politiche, della religione, delle opinioni personali,
dell’appartenenza sindacale, dello status genetico, dello stato di salute o
dell’orientamento sessuale. Per evitare tali effetti, occorre che vi sia la possibilità
di rettificare i dati “in ingresso” presi in considerazione dall’algoritmo.
Più
recentemente, il Consiglio di Stato ha ulteriormente ribadito le argomentazioni
sopra illustrate, evidenziando che il ricorso all’algoritmo deve essere
inquadrato in termini di modulo organizzativo, di strumento procedimentale ed
istruttorio, soggetto alle verifiche tipiche di ogni procedimento
amministrativo, il quale resta il modus operandi della scelta autoritativa, da
svolgersi nel rispetto dei principi e dei limiti previsti dalla legge
attributiva del potere, nonché delle norme del GDPR precedentemente citate.
5. Un
nuovo significato di “trasparenza.”
Tra i
principi elaborati nelle sentenze del Consiglio di Stato precedentemente
illustrate, quello della “trasparenza” gioca un ruolo fondamentale per il legittimo
utilizzo dell’algoritmo nel procedimento amministrativo.
Infatti,
le elaborazioni automatiche che tale strumento comporta, caratterizzate da
logiche matematiche o informatiche, di fatto potrebbero impedire
un’adeguata conoscenza delle logiche sottese e della correttezza dei parametri
e delle informazioni elaborate, tanto da parte dei soggetti destinatari del
provvedimento quanto dello stesso giudice chiamato a vagliarne la legittimità.
Di
conseguenza, la trasparenza deve spingersi fino a consentire la piena
conoscenza dei meccanismi alla base del funzionamento dei suddetti strumenti
automatizzati, senza che a ciò possa opporsi l’eventuale riservatezza delle informazioni
legate ai software utilizzati da parte delle imprese produttrici.
A tal
proposito, infatti, il Consiglio di Stato ha chiarito che “non può assumere rilievo l’invocata
riservatezza delle imprese produttrici dei meccanismi informatici utilizzati i
quali, ponendo al servizio del potere autoritativo tali strumenti, all’evidenza
ne accettano le relative conseguenze in termini di necessaria trasparenza”.
Il
principio di trasparenza viene, inoltre, ulteriormente rinvigorito dalle
disposizioni del Regolamento UE 2016/679, che ne tratteggiano nuovi contorni.
Ci si
riferisce,
in particolare, all’obbligo di informativa che la pubblica amministrazione, in
qualità di titolare del trattamento, è tenuta a fornire agli interessati ai
sensi degli artt. 13 e 14 del GDPR, nella quale deve essere indicata
l’eventuale esistenza di un processo decisionale automatizzato, nonché le
informazioni significative sulla logica utilizzata, unitamente all'importanza e
alle conseguenze previste dal trattamento.
All’obbligo
di informativa fa da contraltare il diritto di accesso alle medesime informazioni
da parte degli interessati, ai sensi dell’art. 15 del GDPR.
Tale
tipologia di accesso si aggiunge a quello procedimentale ex artt. 22 e ss.
della L. n. 241/90, nonché a quello civico e civico generalizzato di cui al
D.Lgs. n. 33/2013, innalzando il livello della trasparenza dell’azione
amministrativa.
La
trasparenza, quindi, a fronte dell’utilizzo di tecnologie non sempre facilmente
intelligibili per l’uomo comune, raggiunge un nuovo stadio della sua
evoluzione, rafforzandosi e consacrando il suo ruolo di garanzia insopprimibile
per i privati, nella consapevolezza che il potere opaco, il potere nascosto,
rappresenta -come affermava Norberto Bobbio- un’insidia alla democrazia.
6.
Conclusioni.
L’uso
degli algoritmi da parte della pubblica amministrazione appare la naturale
conseguenza dell’evoluzione tecnologica, effetto di quella che è stata definita
come la “rivoluzione 4.0”.
I
nuovi strumenti automatizzati sono potenzialmente insidiosi per i diritti e per
le libertà delle persone, ma ad evitare possibili derive del potere soccorrono i
tradizionali principi che l’ordinamento prevede per l’esercizio dell’azione
amministrativa, in primis quello di trasparenza.
Tali
principi, pur pensati in un periodo storico lontano da quello attuale, lungi
dall’essere un mero eco dei tempi che furono, si ammantano di rigenerata forza
e assumono nuovi significati, evolvendosi di pari passo con il progresso
tecnologico e con il contesto storico-sociale e culturale.
Su
questi presupposti l’azione amministrativa, che si dipana tra nuove tecnologie
e“vecchi” principi, appare come Giano Bifronte, le cui due facce, secondo la
mitologia, consentivano di guardare contemporaneamente il passato ed il futuro.
È
proprio nel connubio tra passato e futuro, tra rispetto dei citati principi e
consapevolezza del ruolo della tecnologia, un ruolo servente e non sostitutivo
dell’agire umano, che si individua il giusto equilibrio per un legittimo
utilizzo dell’algoritmo nel procedimento amministrativo.
LA
DITTATURA DELL’ALGORITMO.
Internationalwebpost.org
– Andrea Alessandrino – (14 settembre 2022) – ci dice:
Un
potere strisciante e self driven.
Non
c’era probabilmente bisogno di sperimentare gli effetti della pandemia per
comprendere come le nuove tecnologie di comunicazione, in primis i social
media, abbiano condizionato a dismisura le relazioni e i comportamenti
collettivi.
Scienziati,
studiosi, esperti di vari settori hanno stabilito come gli attuali enormi
flussi di informazione siano ormai sottratti a una iniziale selezione naturale
e siano oggi invece strutturati sempre più dalle tecnologie di comunicazione
digitale.
Sono i
prodotti del mondo digitale per l’appunto ad aver dato un imprimatur decisivo
ai cambiamenti nella sfera sociale che vanno dalle relazioni interpersonali
fino ai modi e ai tempi della politica di raggiungere il consenso di massa
(Chomsky docet).
Bisognerebbe allora concentrarsi e
confrontarsi assieme sulle conseguenze di cambiamenti decisivi delle nostre
relazioni oggi ancora poco chiare e soprattutto poco comprese e studiate.
L’ecosistema
dell’informazione di cui facciamo parte ha acquisito un fortissimo impatto
sulla società in ragione della pervasività della tecnologia nelle nostre vite e
ha conseguentemente prodotto agenti patogeni come la disinformazione veicolati
da social media usati in maniera disinvolta e spesso eterodiretta da parte di
utenti inconsapevoli.
Le
nuove sfide globali (pandemia, riscaldamento del pianeta, povertà) non possono
essere risolti localmente ma devono essere affrontati come sfide globali
comunicate su reti mondiali e per questo diffuse perché collegate da tecnologie
digitali come smartphone e social media;
è allora necessario avere consapevolezza degli
strumenti forniti dalle tech company per comprendere perché poi si manifestino
determinati comportamenti collettivi (razzismo, hate speech, complottismo,
ecc.).
L’architettura
dei social network e le fonti di informazione presenti in essi provengono da
menti e decisioni di tipo ingegneristico finalizzate solo per rendere massima
la redditività e il profitto delle aziende.
La
tecnologia e il digitale hanno prodotto cambiamenti sociali non solo epocali ma
anche non regolamentati in particolar modo per ciò che riguarda il cambiamento
del comportamento degli utenti.
I
cambiamenti sociali sono stati a lungo sottovalutati per ciò che riguarda i
loro effetti problematici e significativi all’interno della struttura della
rete che permette di avere contatti sociali con una massa di individui non
paragonabile a nessun periodo storico del passato.
Effetti
collaterali di fenomeni come echo chamber e polarizzazione delle posizioni non sono altro che le
caratteristiche più evidenti di macro strutture che possono erodere la fiducia
nell’altro e favorire fenomeni di grave instabilità politica.
Al
centro di processi che scivolano via dal nostro diretto controllo, vi sono gli
algoritmi, sistemi progettati per massimizzare la redditività, insufficienti o,
come direbbe Massimo Chiriatti, egoisti nel promuovere una società giusta e
informata.
L’effetto
della tirannia algoritmica ha come effetto la produzione di schegge impazzite
di disinformazione che viaggiano velocissime e senza controllo con la
produzione spesso di danni collaterali come l’influenza che date informazioni
veicolate su specifiche piattaforme possano rivelarsi tossiche per l’intera
platea di utenti che ne fanno parte.
Come
tutti gli ecosistemi, dunque, anche quello della rete è soggetto a effetti
destabilizzanti dati dalle azioni sbagliate messe in atto contemporaneamente da
una società in un lasso di tempo illimitato.
La
specie algoritmica alla base delle nostre scelte non solo comunicative ma anche
sociali, decide in una modalità detta humanless (cfr. #humanless. L’algortimo
egoista di M. Chiriatti, Hoepli editore), ovvero attraverso caratteristiche che
pur non appartenendo alla natura umana provengono da azioni umane, come
immettere dati e produrre incessantemente interazione, interazione che non fa
altro che aumentare a mano a mano che gli oggetti rimpiccioliscono e diventano
portabili.
Il mondo è algoritmico perché il machine
learning da cui è alimentato lo porta ad evolversi sempre più grazie alle
informazioni e alle specifiche immesse volontariamente da miliardi di operai
della rete chiamati
per il politically correct, utenti.
Se
dunque agli algoritmi abbiamo lasciato l’opportunità e la responsabilità nel
prendere ogni decisione che ci riguardi, è necessario che chiunque si occupi di
comportamento collettivo, in particolar modo all’interno delle aziende
tecnologiche, si doti di una popperiana patente che non solo li renda
maggiormente responsabili, ma che avverta i produttori di contenuti e delle
relative piattaforme su cui sono veicolati, a rispettare le persone prima che
gli utenti e nel contempo sviluppino sistemi che possano promuovere in primis il
benessere,
mettendo in disparte, senza però escluderla, la possibilità di creare valore
per gli stackeholder (rubandoci subdolamente la nostra attenzione collettiva).
(Andrea
Alessandrino)
Algoritmi
e scelte consapevoli?
Netreputation.it-
Marco Pini – (3-5-2022) – ci dice:
Gli
algoritmi che “governano” le piattaforme digitali, non sono “strumenti neutri”.
La loro “presenza di sottofondo” influenza il nostro comportamento nelle
piattaforme digitali.
Le
piattaforme digitali che utilizziamo ogni giorno sono un po come degli
“ambienti” e ogni ambiente (che sia fisico o virtuale) ha una influenza sulle
persone che lo abitano o che ci transitano.
(Questo
intervento fa parte dell’ebook Digitale Diffuso).
Cosa
succede quando facciamo una ricerca su Google? Oppure quando accediamo ad un
social network?
In una
frazione di secondo ci vengono date risposte (la lista dei risultati della ricerca
di Google) o proposti contenuti da scorrere nelle nostre bacheche sui social
network.
Sono
“gli algoritmi” che scelgono cosa mostrarci provando ad interpretare i nostri desideri
o le nostre domande e ricerche.
Per
farlo si basano su tantissimi “fattori” (che possono anche variare da Paese
a Paese), spesso
non noti (e
protetti da brevetti per l’alto valore che rivestono per le aziende che li
hanno creati e che quotidianamente li modificano, affinano, migliorano,
cambiano ecc.).
In
generale come utenti sottovalutiamo “l’acqua in cui nuotiamo“, siamo abituati a
pensare, che siamo sempre e soltanto noi a scegliere, a guidare i nostri
percorsi di navigazione sulla Rete.
Non è
sempre esattamente così. Tanto che, solo per fare un esempio, da molto tempo si parla tra gli
“addetti ai lavori” di “neuromarketing” che, appunto, nasce per cercare di
portare l’utente a compiere determinate scelte, per esempio effettuare
un’azione di un qualche valore economico (acquistare un prodotto, chiedere un
preventivo ecc.).
Certo
è vero che non tutte le persone reagiscono allo stesso modo ad uno “stimolo”
(lo stesso vale anche per la pubblicità “tradizionale” che non “colpisce
sempre” tutte le persone in egual misura) anche per questo molto spesso vengono
fatti dei “test” sulle piattaforme digitali proponendo a campioni di utenti una
nuova interfaccia o semplicemente un “nome” diverso per un pulsante su cui
l’utente “deve” cliccare, per valutare “l’impatto” di tale modifica ed
eventualmente estenderla a tutti gli altri utenti.
Gli
algoritmi delle piattaforme digitali mediano tra noi e le “troppe” informazioni
presenti in Rete.
Quanti
contenuti vengono prodotti sulla rete ogni ora?
Tantissimi.
In
particolare oggi con la proliferazione dei contenuti prodotti dagli utenti, dai
bot (software) che producono contenuti automaticamente, dalle aziende (sempre
di più coinvolte nella creazione di contenuti “in giro sulla rete” per
promuoversi o rendere “nota” l’esistenza di un prodotto o servizio o di un
“bisogno” ecc.), da chi con i contenuti di un blog prova a pagarci le bollette,
dagli editori più o meno “tradizionali” ecc.
Più o
meno tutti (umani e non) creiamo contenuti.
Serve
quindi una “mediazione”, per fare un esempio quando cerchiamo qualcosa su
Google, il motore di ricerca NON potendo mostrarci tutti insieme (ed allo
stesso livello di “importanza) i contenuti “individuati” come possibili
“risposte” alla nostra ricerca, li “classifica” e ce ne mostra 10 per pagina,
scegliendo quei contenuti che ritiene (l’algoritmo) maggiormente attinenti alla
nostra ricerca.
I
contenuti in Rete sono tanti, di conseguenza (quando utilizziamo le
“piattaforme digitali”) viene operata una scelta, che sia la bacheca di un
social network che ci mostra contenuti, che siano risultati della ricerca di
Google che deve trovare una “risposta” spesso tra milioni di possibilità.
Le
informazioni che vediamo sono quindi gestite da Algoritmi:
Algoritmo: processo logico formale strutturato
in passaggi logici elementari che conduce a un risultato ben definito in un
numero finito di passaggi. Definizione tratta da: Ippolita, Tecnologie del dominio.
Gli
algoritmi non sono pubblici ma sono creati ed aggiornati costantemente da grandi
aziende private.
Gli
algoritmi delle piattaforme digitali che utilizziamo quotidianamente per
acquistare, informarci magari sul Covid-19, curiosare, intrattenerci sono
gestiti da multinazionali private ed è abbastanza normale che ad esempio Google
e Facebook abbiano come obiettivo principale quello di fare profitti… al di là
della “narrazione di marketing sulle nobili intenzioni scritte sulle mission”.
Sono
inoltre tutelati da brevetti e nessuno conosce esattamente come funzionano (l’apertura all’open source delle
big tech meriterebbe un approfondimento a parte dati gli indubbi vantaggi
economici, per le piattaforme) per questo non sono trasparenti (come lo sono sempre di più le nostre
attività sulla rete) ma opachi (come giustamente mette in evidenza il librino sopracitato
del gruppo Ippolita).
Non a
caso, noi “addetti ai lavori” ci confrontiamo, discutiamo, litighiamo su “come
funzionano questi algoritmi” e su come creare contenuti che siano GRADITI a
questi algoritmi. Vengono anche costantemente “aggiornati”, per fare un esempio
Google dichiara di realizzare centinaia e centinaia di piccoli e grandi
“aggiornamenti” ogni anno che possono impattare profondamente i “risultati
della ricerca”.
La
domanda da porsi è: come è possibile che queste piattaforme pur facendo enormi
profitti, richiedendo il lavoro di sviluppatori, analisti, sistemisti,
valutatori dei contenuti ecc. oltre all’impiego di risorse fisiche enormi (il
“cloud” è fisico, sono server, datacenter di proprietà delle piattaforme) siano
ad accesso “gratuito “?
Monetizzazione
tramite pubblicità personalizzate in base ai nostri comportamenti.
Una
delle caratteristiche comuni alle piattaforme digitali che utilizziamo
quotidianamente (Google per le ricerche, Facebook, Instagram, YouTube ecc.) è
che guadagnano dalla vendita di inserzioni pubblicitarie (oramai onnipresenti),
gli annunci che più o meno tutti noi visualizziamo nelle nostre sessioni di
navigazione in Internet.
Le
piattaforme digitali dunque generano enormi profitti grazie ad inserzioni
pubblicitarie che vengono personalizzate in base alle attività online di noi
utenti.
Siamo
costantemente bombardati nelle nostre navigazioni in rete da messaggi
pubblicitari, più o meno “velati“, più o meno “nascosti” e molto spesso
ridondanti (vediamo
un “messaggio” similare anche 10 volte nell’arco di pochi giorni).
Generalizzando
si va dall’articolo post promozionale (a
volte non dichiarato come tale) cui ci imbattiamo facendo una ricerca su
Google, all’inserzione georeferenziata quando cerchiamo qualcosa (gli annunci a
pagamento di Google), alle pubblicità che arrivano sulla nostra bacheca Facebook
(o LinkedIn o Instagram… su WhatsApp molto presto) sulla base dei nostri
comportamenti, interazioni (che determinano i nostri “interessi” all’interno
delle piattaforme) o del nostro profilo demografico (sesso dichiarato, dove
diciamo di risiedere, età, professione ecc.).
Penso
che ora sia più chiaro perché si usa tantissimo il termine PROFILAZIONE.
Siamo
costantemente profilati come utenti che accedono alle piattaforme digitali.
In
sostanza la “profilazione” avviene grazie alle nostre interazioni, click,
commenti, mi piace che consentono agli algoritmi di provare ad estrarre (dai
nostri comportamenti) i nostri gusti, i nostri hobby, i nostri “bisogni” più o
meno reali e quindi mostrarci inserzioni pubblicitarie (di aziende che fanno
pubblicità dei loro prodotti o servizi sui canali digitali) su cui è più
probabile che manifesteremo un qualche interesse.Semplificando, ci sono quindi diversi
attori (e non sono certo “sullo stesso piano” e non è detto che abbiano
interessi che coincidono) i principali che mi vengono in mente:
Noi
utenti singoli che ci auto-profiliamo con le nostre azioni quotidiane sulle
piattaforme digitali che, ricordiamolo, possono [le piattaforme digitali] in
qualsiasi momento modificare a loro insindacabile giudizio l’ambiente in cui
agiamo (per esempio l’interfaccia grafica su cui interagiamo o le “regole
contrattuali”) o decidere che un “servizio” non esiste più.
Le
piattaforme che aggregano i nostri dati e li mettono a disposizione di aziende,
associazioni o persone che vogliono veicolare messaggi, (quindi vendendo
“inserzioni” che si basano sui nostri dati aggregati).
Le
aziende (o associazioni, o anche singole persone) che desiderano fare
pubblicità mirata di marketing e che di conseguenza scelgono un “pubblico” cui
mostrare le loro inserzioni ed acquistano uno “spazio pubblicitario
interattivo” o che vogliono incrementare la loro visibilità quando gli utenti
cercano i loro prodotti o servizi su Google (o su un altro motore di ricerca).
Gli
addetti ai lavori del digitale (blogger, agenzie di marketing, seo, web
designer, copywriter, influencer, social media manager etc.) che lavorano
affinché alcuni contenuti e messaggi finiscano nelle ricerche o nelle bacheche
degli utenti.
Leggi
che regolamentano (o cercano di farlo) il digitale, la pubblicità, cosa è
“lecito” e cosa ti può “mandare in galera” (si pensi ai purtroppo tanti blogger
che in alcuni paesi sono finiti in carcere per cosa hanno scritto sui loro siti
o social) ecc., le connessioni ad internet, la libertà di opinione ecc. Che
variano da paese a paese e che possono portare ad accordi tra Piattaforme
digitali e Stati (tantissimi sono i casi).
Tornando
al “funzionamento” degli algoritmi, visto che le “parole sono importanti” (come
sanno tutte le persone che sul digitale o meno si occupano di contenuti) e
plasmano il nostro modo di pensare, ci “inducono” emozioni, è importante
chiedersi da dove nasce “profilazione”, o quantomeno, forse è interessante
chiederselo.
Il
termine deriva da “profiling” una parola che in origine indicava [e tuttora
indica] il metodo con cui i criminologi tracciano il profilo di un “sospettato “.
Lo
vediamo spesso nel cinema poliziesco quando il poliziotto prova a fare un
“profilo del criminale” che sta cercando ovvero una: “descrizione del profilo
psicologico e comportamentale dell’autore di un crimine.”
(“profilazione
s. f. [in marketing]: Stesura di un profilo, mediante l’identificazione e la
raccolta dei dati personali e delle abitudini caratteristiche di qualcuno.” treccani.it/vocabolario/profilazione_%28Neologismi%29/)
Siamo
produttori oltre che consumatori quando interagiamo sulle piattaforme digitali.
Non è
esaustiva l’affermazione che gira da tanti anni “se è gratis il prodotto sei tu”, c’è molto più di questo, siamo
anche veri e propri produttori (come utenti che “vivono” quotidianamente nelle
piattaforme digitali).
Creiamo
[con le nostre micro-interazioni] il “valore economico” che viene ottenuto dai
“nostri dati”.
Costruiamo
i dati che servono a profilarci e quindi a “vendere” inserzioni pubblicitarie,
grazie ai quali le piattaforme digitali possono vendere “inserzioni
pubblicitarie” alle aziende. Siamo noi che produciamo i “big data”
collettivamente, tanto che si parla della necessità di trattarli come “bene
comune “.
Non è
facile astrarsi dall’ambiente mediale che fruiamo ogni giorno, ma è indubbio
che il valore economico delle piattaforme digitali venga misurato anche dal
numero di utenti (persone) attivi/e che le utilizza (stesso ragionamento per
gli “influencer” che pubblicizzano prodotti e servizi ai loro “follower”),
siamo quindi produttori dei dati che consentono alle piattaforme di profilarci
e vendere inserzioni pubblicitarie mirate e diventiamo consumatori (una
dimensione che mi sembra sempre più invasiva sulla rete) quando visualizziamo
le inserzioni pubblicitarie sulle nostre bacheche, nelle nostre ricerche o
quando navighiamo in rete. Insomma quando stiamo ore ed ore sui social a cazzeggiare
stiamo lavorando per una “migliore profilazione”.
Mi
ricorda anche certi appelli all’autenticità (bel vantaggio per un sistema di
profilazione avere persone che condividono - postano - interagiscono senza
distinguere ad esempio sfera privata e pubblica, contesto ecc.), a pensare di
essere “marchi-brand” (una debordante sfera “professionale”) concetti anzi
visioni che trovo sbagliati.
Nel
“mezzo” (tra utente, piattaforma, azienda che vuol farsi pubblicità), alle
volte, ci siamo “noi addetti ai lavori” che cerchiamo di fare il possibile
affinché determinati contenuti finiscano nelle ricerche e nelle bacheche degli
“utenti giusti” (non sempre riuscendoci ma è altro discorso) .
“Il
prodotto lo stiamo creando noi [persone], i nostri dati sono la “merce” che
viene venduta”.
Si
comincia a “leggere” (da diversi anni per la verità) di richieste di far
partecipare gli utenti ai “guadagni” delle piattaforme… ok, ma teniamo sempre
presente la domanda fondamentale: davvero tutto deve essere basato
sull’economia?
Penso
che si debba cominciare a discutere di questo dogma (primato assoluto della
dimensione “economica”) anche sul digitale. In sintesi al primo posto dovrebbe
sempre esserci la promozione del benessere sociale ed individuale (e non gli
interessi economici delle grandi piattaforme).
Visualizziamo
soltanto i contenuti “che ci meritiamo”?
Il
nostro comportamento online influenza cosa vedremo in rete in futuro.
Lo
proviamo tutti i giorni:
cerchiamo
un libro di storia in rete e per 30 giorni ci vengono riproposti annunci che
provano a venderci libri di storia ovunque (o quasi) navighiamo
interagiamo
con una pagina Facebook e vedremo di più i contenuti di quella pagina o di
“pagine considerate simili dall’algoritmo di FB”.
Guardiamo
un video di un certo genere musicale su YouTube ed eccoci che quella tipologia
di musica ci verrà mostrata più spesso… e così via….
Ritenere
che siamo solo noi gli unici arbitri di “cosa ci viene proposto sul web”
[potrebbe essere uno slogan tipo: ognuno di noi ha l’algoritmo che si merita!]
è parziale (esattamente come “se è gratis il prodotto sei tu “), e forse anche
un po’ “ideologico” (non “esistono solo gli individui” e le loro azioni come
singoli, viviamo in società e culture complesse).
Tornando
al Digitale Diffuso, il “singolo/a utente” compie azioni in relazione con una
interfaccia (su cui non decide) “governata” da un algoritmo opaco (un esempio
di “opacità”: le “liste di utenti speciali” emerse grazie all’inchiesta del
Wall Street Journal) di proprietà di una multinazionale privata che crea
profitti vendendo pubblicità sulla base delle nostre interazioni online, che
crea profitti più che restiamo sulla piattaforma, clicchiamo ed interagiamo con
essa [solo per fare un esempio, si è molto parlato degli interessi in campo
nella proliferazione delle fake news sul Covid – questo il report di cui ha
anche parlato il Presidente degli USA Biden relativamente alla proliferazione
di disinformazione anche grazie al “modello di business” di Facebook].
Senza
scomodare le influenze della cultura di riferimento.. oppure il grado di
“alfabetizzazione informatica” di ognuno di noi (inteso in senso ampio), la
“possibilità di fermarsi ed approfondire”, la “visione del mondo” sottostante
ad alcune scelte delle piattaforme digitali e potrei continuare all’infinito.
Basta
questo, credo, a considerare che non siamo gli unici ed esclusivi arbitri dei
nostri destini “on-life” (mentre siamo costantemente “bombardati” da questa
visione).
Anche per questo è importante aumentare la nostra
consapevolezza digitale capire come gli ambienti mediali ci influenzano ed in
che misura, nel nostro piccolo, è lo spirito che cerchiamo di portare avanti
nell’ambito di Radio Diffusa e che ha dato vita al nostro ebook Digitale Diffuso.
Dovrebbe
ora essere più chiaro un altro elemento molto importante che sta
caratterizzando una parte significativa della nostra fruizione della rete (che,
ricordiamolo, passa sempre di più attraverso pochi grandi siti web o
piattaforme digitali di proprietà di multinazionali che vendono pubblicità
basata sulle nostre abitudini, interazioni in rete).
(“Echo-chamber
(definizione dal sito della Treccani – treccani.it/vocabolario/echo-chamber_(Neologismi)/).
Nella
società contemporanea dei mezzi di comunicazione di massa, caratterizzata da
forte interattività, situazione in cui informazioni, idee o credenze più o meno
veritiere vengono amplificate da una ripetitiva trasmissione e ritrasmissione
all’interno di un ambito omogeneo e chiuso, in cui visioni e interpretazioni
divergenti finiscono per non trovare più considerazione. (…) la tendenza ad
aggregarsi con persone con le stesse attitudini e interessi [è] un processo
determinante sia nel rinforzare l’echo-chamber sia nel determinare la dimensione
di un processo virale “.
Sempre
generalizzando un “funzionamento” comune tra le piattaforme digitali, queste ci
mostrano quello che pensano [gli algoritmi] ci “piacerà” (la dimensione
dell’intrattenimento mi pare sia diventata prevalente) o su cui abbiamo più
probabilità di interagire, più che “lavoriamo per le piattaforme” e più che
cresceranno i dati attraverso i quali gli algoritmi potranno mostrarci anche
inserzioni pubblicitarie mirate. Nel caso della “ricerca di Google” le “risposte” che
sembrano più in linea con cosa abbiamo digitato sul motore ma anche con le
nostre precedenti abitudini di navigazione, e chissà se sono davvero le
“migliori risposte” oppure le “uniche risposte possibili”.
Questo
ci porta sui Social a vedere contenuti spesso molto simili tra loro, o a fruire
sempre più di contenuti legati all’intrattenimento, o ad essere stimolati a
“fare qualcosa”, “scrivere qualcosa”, “cliccare da qualche parte” oppure a
“scorrere” fino a trovare qualcosa di (finalmente) interessante su cui vale la
pena soffermarsi e magari interagire (e continuare la nostra
auto-profilazione). Quantità di azioni rapide e veloci... a discapito della
“qualità”.
Per
questo si parla di “bolle” in cui siamo “immersi” e di possibilità, per tanti
utenti, di restare “prigionieri” nelle proprie bolle con poche possibilità di
imbattersi in opinioni e pensieri diversi rispetto alle proprie credenze (e a
quelle della propria cerchia di amicizie) e forse anche per questo, alcuni
utenti, quando si imbattono in “opinioni diverse dalla loro” preferiscono
risolverla con l’insulto (facilitato anche dalla fretta, da reazioni emotive,
sfoghi di rabbia ecc.) oppure possiamo rimanere attratti da “fantasiose teorie”
che però trovano consenso nella nostra bolla o ci paiono verosimili.
Questo
processo porta un enorme beneficio economico alle piattaforme digitali, ma
porta davvero un benessere a noi utenti? E alle nostre comunità?
(Sugli aspetti legati a fake news e
disinformazione rimando a: marcopini.info/contrastare-la-diffusione-di-fake-news-grazie-ai-principi-della-media-education/)
Gli
algoritmi sono stati creati da persone che hanno la loro visione del mondo, i
loro obiettivi economici ecc.
Nel
film “The
Social network” (sulla storia della nascita di Facebook) a un certo punto del film c’è una battuta che spiega molto bene
una determinata “visione del mondo”:
“Un
milione di dollari non è fico… Sai cos’è fico? Un miliardo di dollari.”
Mi
viene spontanea una battuta, strano, avrei invece giurato che era figo “aiutare
le persone a restare in contatto tra di loro” come vuole la narrazione…
Fin
dalla loro creazione gli algoritmi vengono creati e progettati sulla base di determinati
“fattori”, escludendone altri possibili.
Un po’
come quando facciamo una fotografia scegliamo l’inquadratura escludendo altre
possibilità.
Sono
creati [gli algoritmi di Google e Facebook ad esempio] da persone, dunque
manifestano anche la “visione del mondo” dei loro creatori, per esempio il loro
concetto di “miglior risultato possibile “(nel caso di Google).
Faccio
un esempio, tra i tanti possibili, che riguarda la SEO (search engine
optimization – fare in modo che un contenuto sia “gradito” agli algoritmi dei
motori di ricerca).
Per
migliorare la visibilità di un sito internet su Google sono molto importanti i
link che altri siti fanno verso una risorsa web-pagina web (tutti i manuali di SEO lo confermeranno e
credo tutti i miei colleghi SEO) ed è così fin dalla nascita di Google.
Questo
perché l’algoritmo di Google dà rilevanza ai link (considerati come “voti”
verso una determinata risorsa web) fin dalle sue origini e tuttora è nella
“mission” di Google:
(about.google/intl/it/philosophy/)
alla
“verità 4” si legge:
“La
Ricerca Google funziona perché si basa sui milioni di individui che pubblicano
link su siti web per determinare quali altri siti offrono contenuti utili”.
Una
sorta di “voto”.
Non
entro sul concetto di “democrazia” (che per me è ben più profondo di una “conta
“) perché sarebbe lunga ed in parte ne abbiamo parlato con il mio collega Walid
Gabteni nell’ambito di Radio Diffusa .
Altro
riferimento alla “nascita” di Google ed ai link (se ci pensiamo la
caratteristica attraente della Rete Internet è la sua “apertura”, il suo
“decentramento”):
“L’idea è nata ispirandosi al modo in
cui gli scienziati “misurano l’importanza” dei paper scientifici. Questo si fa guardando il numero di
citazioni fatti da altri paper scientifici a quello preso in esame. Sergey e
Larry [gli “inventori” di Google] studiano questo concetto e lo applicano al
web misurando le citazioni (i link) tra le pagine.” (ahrefs.com/blog/it/google-pagerank/)
Gli
algoritmi possono essere “manipolati”?
La SEO
(per continuare nell’esempio, ma se ne potrebbero fare tanti altri su altre
piattaforme, per esempio quelle i cui algoritmi vengono influenzati da “likes”
e “condivisioni”. Si pensi ai tanti utilizzi politici da parte degli stati dei
“bot automatici” – se ti interessa guarda “Cosa sono i bot e come influenzano
l’opinione pubblica” ) può esser vista anche come un tentativo di manipolazione
dell’algoritmo di Google per esempio acquisendo link (nella pratica quotidiana
NON tutti i link (noi SEO lo sappiamo bene quanto sia difficile ottenere “link
spontanei”) sono “citazioni naturali-spontanee” ma vengono anche acquisiti in
altro modo, per esempio dietro un corrispettivo economico, per tornare alla
dimensione “economica” della rete e alla proliferazione di contenuti, che
magari hanno solo lo scopo di “piazzare un link” verso un sito web).
Non
sto dicendo che è tutto “manipolato” anzi non lo penso sarebbe troppo facile ed è bene
cominciare a diffidare delle semplificazioni, e che tutti i link sono costruiti
in modo artificiale senza creare un contenuto di valore (parola purtroppo
abusata), che “arricchisca” la rete, o che Google non sia il motore di ricerca
migliore (tra quelli che uso io almeno lo ritengo il migliore, e poi ci lavoro
quotidianamente) ma che è fondamentale, in prima battuta, che si conosca il
funzionamento dei luoghi dove ogni giorno “entriamo” per chattare, leggere,
ricercare, informarsi, interagire… e penso anche che chiunque di noi si sia
imbattuto in contenuti creati solo per finalità di “manipolazione”
dell’algoritmo (nota da addetto ai lavori: Google da sempre cerca di correre ai
ripari con appositi filtri contro la pratica della “link building” che rimane
un’attività complessa da fare e che ha il suo “fascino” ). Ma questo non vuol dire che, per
fortuna, la rete non sia piena anche di contenuti di approfondimento, che ci
fanno scoprire nuove cose, che ci fanno incontrare altre persone.
Interfacce
progettate per favorire le Dipendenze Digitali?
Si
parla tantissimo di dipendenze digitali in termini psicologici (giustamente)
voglio invece fare una piccola riflessione intorno alle “interfacce” su cui
operiamo quotidianamente “insieme” agli algoritmi e che, come abbiamo visto, possono
contribuire a farci “rimanere nelle piattaforme digitali” (si tende sempre di
più a creare ambienti “chiusi” sul web, anche per questo abbiamo invece scelto
una strada diversa: un LIBRO DIFFUSO sul DIGITALE DIFFUSO con contributi “in
giro” sulla rete).
Anche
le interfacce con cui interagiamo non sono “neutre”.
Le
interfacce sono gli elementi (l’arredamento) che troviamo quando accediamo ad
un sito web, ad un motore di ricerca, quando entriamo in una applicazione o
accediamo ad un programma.
Non
sono solo un “elemento decorativo” o “tecnico”, sono funzionali a “determinati
obiettivi”. Ricordiamoci che più usiamo le piattaforme, più veniamo profilati, più
che affiniamo la nostra auto-profilazione e più che cresce la possibilità di
vendita delle inserzioni pubblicitarie (Su “qualsiasi cosa” per esempio di
prodotti di cui non sapevamo neanche l’esistenza, figuriamoci se ne sentivamo
il “bisogno”, oppure di pregiudizi su minoranze, che possono diventare
funzionali per conquistare qualche voto in più).
Le
interfacce sono un insieme visuale di elementi: testi, icone, grafiche dove i
“designer”, i programmatori, i marketer, i “webbari” decidono quali elementi
mettere in rilievo, su quali “pulsanti” deve cadere la nostra attenzione.
Le
interfacce possono influenzare il nostro comportamento ad esempio su un sito
web con:
Elementi
a cui viene data priorità. Per fare un esempio pensa a quando vai sul sito di
un giornale qual’ è la prima cosa che noti? Probabilmente il titolo del primo
articolo mentre noterai meno la “partita iva” posizionata nel fondo della
pagina.
Dimensioni
e formattazione.
Un
testo più grande e colorato attira di più l’attenzione dell’utente [per esempio
diversi anni fa l’avviso di nuove notifiche su Facebook è stato cambiato da
verde a rosso proprio con l’obiettivo di ottenere maggiore attenzione dall’utente].
Testi.
Non solo i contenuti o articoli ma anche
il così detto microcopy. Anche cambiare l’etichetta di un pulsante può fare una
differenza enorme (specie su siti web complessi con tanti contenuti). Le così
dette “CTA” (call to action, chiamate all’azione per l’utente, dove l’utente
dovrebbe cliccare) più evidenti ed “appetibili “.
Immagini
ed icone. Che possono guidare l’attenzione dell’utente.
Percorsi
di navigazione. Per esempio perché su FB è molto facile postare qualcosa e
molto più complicato trovare come cancellarsi dal social network?
Potrei
continuare con tanti altri esempi (anche presi in prestito dalla mia attività
professionale quotidiana come “ux e progettista web”) ma spero di aver reso l’idea di
quello che voglio dire.
Le
interfacce (anche senza scomodare il cd “neuromarketing” o il concetto di “copy
persuasivo“) sono strutturate per provare a far compiere agli utenti
determinati percorsi (spesso questi due “approcci” sono collegati più o meno
velatamente con “ti regalo qualcosa, intanto però lasciami la mail” che poi
così ti posso provare a vendere qualcosa (sto generalizzando lo so), ah, anche
per questo NON ti chiediamo la mail per scaricare il nostro Digitale Diffuso o
il precedente Generazioni a confronto).
Questo
significa che tutti faremo le stesse azioni sulle interfacce? Assolutamente no,
sarebbe troppo “semplicistico” ma è indubbio che ci saranno utenti (persone)
magari meno “formati o consapevoli” o semplicemente più distratti o frettolosi
o più motivati o pronti ad effettuare un’azione specifica, che saranno
“indotti” a seguire o credere maggiormente a quello che l’interfaccia propone
esattamente, mi si perdoni il paragone un po’ forzato, come quando si diceva “è
vero, l’ha detto la tv”.
Provo
a fare un esempio più esteso…. prendendo a riferimento Facebook.
L’interfaccia
di Facebook invita costantemente ad “agire velocemente”.
L’importante
è che fai qualcosa (click, mi piace, commento, condivisione), agisci
rapidamente, del resto non ci viene ripetuto spesso che la velocità è un valore
in sé? (ovvio che non
sono d’accordo, la velocità non è un valore sempre positivo, dipende).
Un
post su un social, lo scopriamo subito, dura poco tempo prima di essere
dimenticato, perché il meccanismo è quello di “scorrere” fino a quando qualcosa
di “sensazionale” attira la nostra attenzione e ci fa “fermare “e ci “premia”.
Uno
scroll infinito (inventato dal “pentito” Aza Raskin), simile al meccanismo e
allo scroll delle “slot machine” e delle cosiddette ricompense casuali, quando
scriviamo un post o mettiamo una foto non sappiamo “quanto piacerà” quanti
“like” riceveremo questo ci spinge a tornare sulla piattaforma o a lasciare
accese le notifiche.
Anche
quando scrolliamo l’interfaccia di un social non possiamo sapere quale sarà il
contenuto (selezionato per noi dagli algoritmi) che attirerà la nostra
attenzione questo ci invoglia a “rimanere sulla piattaforma” e crea una sorta
di “dipendenza“, quanti di noi passano tempo a scrollare Facebook o TikTok o a
navigare sui video di YouTube perdendo il controllo del “tempo” oppure quanti
di noi sono “dipendenti” dalle risposte su WhtasApp o si allarmano se ad una
mail non viene risposto in tempo reale oppure scrivono la stessa informazione
su più canali disperdendo il tempo anziché guadagnarlo, della serie “ti scrivo
su WhatsApp che ti ho mandato una mail, ricevuta?” (un’ansia digitale
generalizzata, spesso inutile).
Cosa
accadrebbe se l’interfaccia di Facebook ci avvisasse prima di postare un
commento con un messaggio “Sei proprio sicuro di voler commentare questo post?
Hai riletto quello che hai scritto?”.
Pensi
che questa modifica all’interfaccia di Facebook potrebbe influenzare il “numero
di messaggi che ogni giorno vengono lasciati su Facebook”?
Non
correre ma fermarsi a riflettere.
Non si
tratta di auspicare un ritorno all’analogico (pur amando molto il suono di
certi vinili), ma in prima battuta di aumentare la consapevolezza mentre usiamo
il digitale, di comprendere gli interessi economici in campo, la visione del
mondo digitale in gioco, di darsi delle alternative off-line anche di
socialità, di contrastare la preponderanza della dimensione economica e di
marketing presente in rete e in generale nella nostra società dei consumi (come
se tutto fosse riconducibile ad essere una merce, addirittura un brand
individuale da esporre e “vendere” oppure dei consumatori e stop, una visione
davvero limitata e triste dell’essere umano, anzi penso che sia esattamente la
negazione dell’umano), di rivendicare usi alternativi e conviviali degli spazi
digitali magari “dirottandone” il significato iniziale verso altri scopi da
trovare insieme, di non aver paura di conflitto e pensiero critico, di
riflettere sul fatto che anche il digitale inquina ed è energivoro, che i
materiali con cui i nostri dispositivi digitali (spesso caratterizzati da una
obsolescenza tecnologica accelerata) sono estratti sfruttando spesso il lavoro (anche minorile).
Insomma
provare a fare un percorso che vada al di là della “cornice” proposta dalle
piattaforme digitali. Noi addetti ai lavori abbiamo una grande responsabilità e
spesso invece ci fermiamo a ragionare ore, giorni, mesi sempre e solo sulle
stesse questioni che so “ma quanto deve essere lungo un titolo?” – “non
invitare gli amici a mettere likes sulla pagina” – “il link lo metto nei
commenti quando faccio un post sui social?” [Domande utili nel lavoro
quotidiano, non lo nego]. Mi chiedo se, oltre agli aspetti tecnici, oltre le
stesse citazioni dagli stessi libri (o da libri diversi che però dicono le
stesse cose) non possiamo anche andare oltre ad una visione del digitale che
trovo sempre più appiattita, ristretta alla visione del mondo delle GAFAM
(acronimo che indica le grandi multinazionali tecnologiche dell’Occidente –
Google, Apple, Facebook, Amazon, Microsoft).
Nel
nostro piccolo, cercheremo di “uscire dalle Bolle per riveder le stelle” sia
come “lavoratori/lavoratrici del digitale” sia con la nostra iniziativa “Radio
diffusa”, sia con il nostro librino “digitale diffuso” a partire dal quale
vogliamo costruire un dibattito orizzontale e conviviale.
E
quindi? Che si fa?
Non ho
risposte ma prevalentemente dubbi, interrogativi, domande e voglia di
confrontare le idee per provare ad immaginarci una tecnologia al servizio di
tutta l’umanità!
Penso
che la realtà la si capisca considerandola [insieme] nella sua complessità: le
strutture economiche e sociali, la cultura di una determinata civiltà, le
sotto-culture, le credenze maggiormente diffuse e le azioni dei singoli che
agiscono quotidianamente nel “digitale diffuso“, i “rapporti di forza” tra
differenti visioni del mondo.
Penso
che abbiamo “rinchiuso” il digitale in una dimensione limitante, economicista,
tecnicista.
Penso,
ad esempio, che sia anche importante valutare la qualità del tempo che passiamo
dentro al digitale.
Il
tempo che passiamo su internet e sui social aumenta infatti a dismisura e tutte
le ricerche ci dicono che stiamo sempre più tempo su internet.
Ma non
basta “dare i numeri” urge farsi domande (esempio di ricerca su quanto stiamo
online (wearesocial.com/it/blog/2021/01/digital-2021-i-dati-globali) perché spendiamo sempre di più
tempo sul digitale? Al posto di quali altre attività? A cosa rinunciamo? Cosa
guadagniamo dal tempo investito nel Digitale Diffuso? Quanto le piattaforme ci
spingono a “stare connessi” o a “spendere tempo” su di esse?
Cosa
facciamo “di preciso” quando siamo connessi? Come queste attività digitali ci
cambiano? Quali sono le opportunità? Quali i vantaggi del digitale diffuso e
perché li riteniamo tali? Quali sono i costi e i risvolti sociali? Ci sono
effetti sulla nostra memoria e sul nostro “essere”? Quali impatti sulle
giovanissime generazioni e sui bambini ha questo restare connessi? Quanto
stress accumuliamo nell’ansia di rispondere sempre, anche la domenica, alle
mail di lavoro? Quanto influisce su di noi avere sui nostri profili
contemporaneamente: amici, colleghi, conoscenti, familiari (il cd collasso del
contesto)? E tante, tante altre domande che ci aiuteranno a comprendere la
realtà (anche) del digitale e degli algoritmi, capire è sempre il primo passo
per cambiare in meglio la realtà. Anche di questo stiamo parlando nella “nostra” Radio
diffusa ed abbiamo “lanciato” un sondaggio (volutamente breve) sulle
“distrazioni e dipendenze digitali”.
Guerri:
Giorgia provi a sorprendere
gli
italiani,
sia innovatrice sulle orme di D’Annunzio.
Secoloditalia.it-
Vittoria Belmonte – (12 Set. 2022) – ci dice:
Lo
storico Giordano Bruno Guerri, che ha nel suo curriculum centinaia di pagine
scritte sul fascismo e su D’Annunzio, non vede rischi di dittatura
all’orizzonte.
Si sottrae dunque alla narrazione dominante a
sinistra sui fantasmi del Ventennio ma invia qualche suggerimento a Giorgia
Meloni. Deve,
a suo avviso, sorprendere gli italiani nel solco di D’Annunzio. Immaginazione
al potere dunque e meno conservatorismo.
Guerri:
il vero fascismo è quello delle multinazionali.
Ecco
le sue parole in una intervista a La Verità: “Non vedo nessun pericolo di
fascismo, se per fascismo intendiamo una dittatura di destra che certamente non
è nell’interesse di nessuno resuscitare. E se anche fosse l’Europa non ce lo
permetterebbe. Peraltro l’Europa è una falsa nemica. C’è sì un fascismo che
dobbiamo temere: è quello delle multinazionali, delle grandi aziende di
internet. È di questo tipo di potere assoluto degli algoritmi di oggi che si
deve avere paura perché quello è il vero pericolo”.
Un
eventuale governo di centrodestra dovrà stare in guardia contro le ingerenze
della magistratura, secondo Guerri. “Certamente la magistratura
interviene volentieri e la sinistra farà il suo lavoro. Cercherà, come peraltro
è riuscita più volte, a impapocchiare, a produrre un’accozzaglia pur di
smentire i risultati delle elezioni. Se accadrà non ci sarà nulla di nuovo
sotto il sole”.
Guerri:
Meloni si ispiri a D’Annunzio.
“Per
questo – continua – è importante la tenuta di un governo di destra che sono
convinto sarà sorprendente a parte la possibile leadership di una donna.
Giorgia Meloni il primo presidente donna con governo di destra. Sarà un governo
sorprendente se come D’Annunzio saprà innovare.
Lui
non era di questo tipo di destra, la paura che mi fa questa destra è quando s’
ispira e pratica un conservatorismo spinto. Non bisogna conservare c’è da
innovare. L’Italia ha bisogno di andare avanti velocemente perché sta perdendo
la sfida della modernità sociale, tecnologica, negli studi. Serve una destra
capace di guardare avanti”.
“Concentrare
tutte le energie sulla scuola”.
A
parte l’evocazione di una destra più futurista e meno conservatrice, Guerri
suggerisce di focalizzare l’attenzione delle politiche del prossimo governo
sulla scuola.
«Sulla
scuola sono 50 anni che dico che è il vero grande problema del Paese, lì va
fatto ogni sforzo: di soldi, d’intelletto e di energie. Ciò detto l’identità dei popoli è
oggi il problema dell’Europa. Il grande errore è stato puntare tutto
sull’economia e non sulla cultura. Nel lungo periodo i popoli si devono conoscere
e riconoscere.
L’inaffidabilità
degli algoritmi.
Ilmanifesto.it-
Frank Pasquale – (27 novembre
2020) - ci dice:
CYBER
MONDI. Parla Frank Pasquale, docente di diritto alla Brooklyn Law School ed
esperto di Intelligenza Artificiale.
«Se
non possiamo distinguere tra androidi e umani la vita perde valore e viene
privata di significato. È inverosimile che l’introduzione di una app possa
rimpiazzare ciò che fanno ad esempio psicologi, dermatologi o anche insegnanti.
Gli esperti devono gestire la tecnologia. Invece di venire sostituiti da questi
strumenti, i professionisti dovranno governarli»
Interprete
attento della rivoluzione digitale, Frank Pasquale è stato di recente tra gli
ospiti della Biennale Tecnologia. L’autore è diventato famoso per il libro
Black Box Society (2015) in cui denunciava che a guidare motori di ricerca e
servizi finanziari siano algoritmi opachi, nascosti dentro scatole nere che
impediscono di riconoscere le regole che ne determinano le preferenze e ne
organizzano i risultati. Da giurista, Pasquale mantiene una sensibilità molto
spiccata per questioni filosofiche e tecnologiche ed è stato tra i primi a
segnalare il rischio della deriva tecno-burocratica della società
digitalizzata.
Alla
manifestazione torinese ha presentato il suo nuovo volume: “New laws of robotics: defending human
expertise in the age of AI” (Belknap Press).
Il suo
obiettivo è evitare di rincorrere la tecnologia robotica per regolamentarla,
come è avvenuto con le piattaforme.
È convinto che sia meglio favorire l’Augmented Intelligence (AI) invece
dell’Artificial Intelligence (IA), cioè usare strumenti che possano potenziare la capacità di
intelligenza umana, invece che cercare di sostituirla con l’imitazione.
Le
leggi che dovrebbero sostituire quelle di Asimov sono quattro: complementarità
dei dispositivi rispetto alle capacità umane AI invece che IA; non
contraffazione dell’umanità; cooperazione invece di competizione (contro la
corsa agli armamenti robotici); responsabilità (deve essere sempre possibile
attribuire la responsabilità delle azioni e delle decisioni prese a un soggetto
umano).
Abbiamo
raggiunto Frank Pasquale per qualche domanda.
Nel
suo libro parla dell’effetto mistificatorio di usare robot e software AI che
facciano finta di agire come esseri umani, e ritiene che dobbiamo essere
protetti da questo inganno.
Ma
Turing nell’articolo sul gioco dell’imitazione (1950) ha affermato esplicitamente
che le macchine sarebbero state in grado di ingannare una giuria di non esperti
e questo avrebbe permesso loro di essere considerate intelligenti.
Turing
è una specie di fantasma che infesta tutto il libro e alla fine prende la forma
del personaggio del romanzo di Ian McEwan Macchine come noi. Possiamo accettare
il test perché è al centro di tanta parte dello sviluppo dell’intelligenza
artificiale, ma possiamo anche rifiutare l’idea che i dispositivi debbano
essere un’emulazione abbastanza buona dell’essere umano.
Le
relazioni tra le persone sono basate su una millenaria storia socio-biologica e
prendono senso in un ambiente culturale di lungo periodo, pensare di farle
valere fuori dal contesto mantenendo solo le parole e i gesti agiti dalla macchina
sarebbe scorretto.
Sostituire
un essere umano con un dispositivo meccanico, come fa notare Walter Benjamin a
proposito della riproduzione meccanica, priva dell’aura l’espressione
artistica, ma anche le persone. Se non possiamo distinguere tra androidi e umani la
vita perde valore, perché gli androidi non ne hanno. Contraffare la comunicazione,
l’affetto, l’espressione emotiva e l’azione le priva di significato in
assoluto.
Se la
tecnologia è un sistema per organizzare il mondo al fine di farlo corrispondere
alle sue aspettative, prima o poi entrerà in contrasto con la legge rispetto a
chi tra gli esperti dei due campi abbia l’autorità per stabilire le regole.
Qual è la migliore strategia per vincere nel conflitto come regolatori?
Per
vincere dobbiamo allocare meglio le risorse.
La
lotta è impari se quelli che devono imporre la regolamentazione hanno risorse
cento o mille volte inferiori a quelli che dovrebbero essere oggetto delle loro
regole. Abbiamo molto da imparare dai paesi di successo in Asia. Stati Uniti ed
Europa devono impegnarsi anche attraverso il sistema di tassazione, per ridurre
il peso politico delle aziende da regolare. Non si può chiedere ai regolatori
di entrare in azione solo dopo che il disastro è avvenuto. La regolazione deve trainare
attivamente la tecnologia e intervenire prima che i danni siano compiuti.
É
convinto che maggiore sia l’impiego di intelligenza artificiale e algoritmi di
«machine learning», più abbiamo bisogno di esperti e professionisti. Come mai?
Voglio
mettere in discussione la narrazione standard sul carattere dirompente
dell’intelligenza artificiale, come se l’introduzione di un app per monitorare
la pelle potesse sostituire i dermatologi o si potesse sostituire uno psicologo
con una app per fare la terapia, o un insegnante coi corsi online automatizzati
e personalizzati. La maggior parte di questi strumenti sono estremamente
inefficienti e abbiamo bisogno di esperti professionisti, non solo per prendere
decisioni come in passato, ma anche per gestire in modo proficuo la tecnologia
nel loro ambito. Invece di venire sostituiti da questi strumenti, i professionisti
dovranno governarli.
Lei
sostiene che sia preferibile una tecnologia capace di potenziare le capacità
umane fornendo solo un supporto per la presa di decisione. Non pensa che questo
possa produrre una situazione in cui le macchine prendono le decisioni di cui
poi le persone si assumono la responsabilità senza comprenderne le motivazioni,
a causa del pregiudizio dell’affidabilità di ogni automazione?
Questo
costituisce un rischio, ma ci sono modi per alleviarlo o combatterlo. Bisogna spiegare alle persone che
la maggior parte dei loro problemi sono complessi perché ci sono molte
dimensioni tutte incommensurabili tra loro e prendere una decisione implica
comprendere questa pluralità. Se si deve misurare l’esito di un intervento di
protesi al ginocchio possiamo scegliere tanti aspetti: quanto dolore si è
sopportato, quanto tempo ci è voluto per riprendere l’attività, quanto per
correre, com’è stata l’esperienza di convalescenza, ma anche altre variabili a
lungo termine. Se la protesi manda nel sangue tracce del suo metallo bisogna
capire come intervenire. Il monitoraggio di tutte gli elementi richiederà un
expertise umano.
Le
tecnologie non possono essere preparate in tutto, né gli esperti di informatica
possono sostituire quelli di medicina o di ogni altro campo. Ci sarà sempre
bisogno di scelte creative e prospettive originali. L’intelligenza artificiale
non è una scienza, ma solo il preludio alla scienza, è il modo in cui si
possono generare ipotesi partendo dall’analisi delle correlazioni, ma non trova
le cause dei fenomeni. L’addestramento degli esperti deve servire anche per non
farli soccombere al pregiudizio dell’automazione.
Alla
fine del libro afferma la necessità della responsabilità personale per una
governance legittima. Crede che abbia a che fare con la capacità di empatia
propria degli umani o con l’inevitabile pluralismo dei diversi punti di vista
che permette l’innovazione, la sorpresa, la serendipità e imprevedibilità dei
comportamenti?
Credo
riguardi tutti e due gli aspetti. L’empatia è un elemento cruciale capace di tenere
insieme una comunità politica, in quanto costituisce la linfa di appartenenza a
un corpo comune. Altrettanto conta l’impredicibilità delle persone: dobbiamo decidere
quello che vogliamo conservare e quello che dobbiamo scartare del passato.
Parte della tensione costruttiva del libro si
riferisce al riconoscimento di tutti i modi in cui la tecnologia possa aprire
nuove opportunità e insieme costituire una sorta di tradimento, nella forma di
un’erosione dell’insieme di valori e impegni che sono parte della nostra
identità.
Nel
libro si parla di robot, ma non possiamo dimenticare le piattaforme che già
dominano l’ambiente digitale. Come possiamo tenere sotto controllo il loro
potere?
Penso
che le piattaforme siano simili alle telecomunicazioni che sono state
pesantemente regolamentate, per favorire la concorrenza. Dobbiamo creare un’infrastruttura
solida che le governi su due profili: assicurarci che non facciano circolare e
non amplifichino il discorso d’odio e le teorie cospirazioniste e evitare che
prendano il controllo dell’economia nel suo insieme, strangolando le aziende
più piccole.
Si
potrebbe separare Facebook da Whatsapp e da Instagram, così come Google da
YouTube. Bisognerebbe
contenere la posizione dominante di Apple nel suo app store, così come impedire
a Amazon di possedere sia la piattaforma di e-commerce sia di usarla per
vendere le merci. Tali
azioni regolative aggressive sono necessarie e sta crescendo l’approvazione tra
gli esperti del digitale. Aspettiamo solo la volontà politica di correggere le
incongruenze.
L’ingiustizia
degli “Algoritmi”
Conoscenzealconfine.it-(
8 Settembre 2019) - Intervista di Alessandro Longo a Virginia Eubanks:
È
possibile essere discriminati da un Software?
Gli
algoritmi stanno facendo il loro ingresso nei servizi di welfare negli Stati
Uniti e in numerosi altri paesi.
Decidono
a chi erogare i sussidi per la disoccupazione o addirittura quali bambini
togliere ai genitori (in caso di maltrattamenti o di trascuratezza). In questo modo, ci siamo esposti
al rischio di “automatizzare la diseguaglianza” e di usare la tecnologia per
disempatizzare i nostri sentimenti nei confronti dei più poveri e deboli.
Parole
di Virginia Eubanks, professore associato all’università di Albany (New York),
che con il suo “Automating Inequality” ha toccato il nervo scoperto di una
nazione.
E non
di una soltanto, come dimostra il suo tour di presentazione del libro in molti
paesi: dalla Scandinavia all’India, fino in Australia.
La particolarità del saggio (acclamato anche
dal New York Times e dal Guardian) è l’aver raccolto “centinaia di testimonianze, da parte
di persone che sono state soggette al trattamento algoritmico da parte del
sistema pubblico: tutte riferiscono di essersi sentite disumanizzate da questo
processo”,
racconta a Le Macchine Volanti.
Alcune
di queste situazioni rappresentano casi di vera e propria ingiustizia: nello
stato dell’Indiana, per esempio, un algoritmo analizza i big data per capire a
chi dare (o togliere) il sussidio di disoccupazione e invalidità.
In
decine di migliaia di casi, però, le persone hanno perso il diritto a ottenerlo
perché non sono riuscite a rispondere prontamente alla telefonata di verifica
(com’è avvenuto a Sheila Purdue, non udente); o perché hanno riattaccato il
telefono dopo 50 minuti di attesa al call center dedicato, sovraccaricato dalle
inefficienze del sistema stesso.
D:
Quali sono gli ultimi segni di questo fenomeno di “automatizzazione della
diseguaglianza”?
Mi
sono accorta nel mio tour di come questi strumenti automatici siano
implementati in molteplici posti, sempre più spesso. In Australia vengono utilizzati per
identificare le persone a cui il governo – in base ad alcuni parametri –
ritiene di aver pagato troppi sussidi.
Ci
sono decine di migliaia di persone che ricevono una lettera dal governo in cui
si chiede di restituire somme anche di 2 o 3 mila dollari.
E se
si ritiene di star subendo un’ingiustizia, bisogna dimostrare di avere avuto
pieno diritto al sussidio. Spesso, però, si tratta di casi che risalgono anche a 20-30
anni prima, come si può quindi dimostrare di essere nel giusto?
In
India si usano anche sistemi di identificazione biometrica per chi riceve
sussidi pubblici, nonostante ci sia un dubbio di costituzionalità. In generale, vedo sempre più esempi
simili a quelli descritti nel libro: la maggior parte degli stati ora usa
algoritmi per stabilire chi ha diritto a un sussidio, incorrendo negli stessi
problemi sperimentati in Indiana.
Il Coordinated Entry System è invece un servizio di assistenza
per i senzatetto di cui ho descritto il funzionamento a Los Angeles, ma che
oggi sta diventando uno standard sempre più utilizzato.
Si
stanno diffondendo anche algoritmi che stabiliscono chi maltratta i propri
figli: nel libro racconto un caso di Pittsburgh, ma ora sta prendendo piede
anche in Inghilterra.
D: La
tua tesi è che l’automazione di questi servizi sia un problema perché,
togliendo il filtro umano, diamo maggiore potere all’algoritmo e riduciamo le
possibilità di ribaltare il modello.
Esatto.
Ma anche
quando l’algoritmo funziona bene, ho riscontrato che le persone se ne sono
sentite comunque vittime. Parlandomi, mi hanno riferito di essersi sentite
disumanizzate. Ridotte a un blocco di dati da analizzare. E persino terrorizzate all’idea che
il governo, grazie a questi dati, potesse prevedere il loro futuro
comportamento.
D:
Sorprende che questi sistemi si diffondano, nonostante i problemi riscontrati.
Il
problema è di base: non ci preoccupiamo abbastanza delle persone in condizione
di povertà, su cui – soprattutto negli USA – grava uno stigma culturale. Li
accusiamo della loro condizione e attraverso gli algoritmi vogliamo dimostrare
il nostro pregiudizio, secondo cui si meritano di essere poveri e di conseguenza
di essere in alcuni casi puniti. Per questo motivo, dico che serve un cambio
culturale prima di automatizzare questi sistemi, altrimenti il rischio è di
automatizzare solo i nostri pregiudizi.
D:
Quali soluzioni prevedi?
Nel
libro invoco la necessità di un cambio culturale e politico; aumentare la
consapevolezza sulle reali cause delle situazioni di povertà. La povertà è un
fatto sociale, non può essere risolta con soluzioni tecnologiche come
vorrebbero alcuni. Ma visto che l’eventuale soluzione ci metterà molto tempo ad
arrivare, nel frattempo bisogna stare attenti a sviluppare tecnologie non
dannose. Che non peggiorino il problema, insomma. Nel libro, per prima cosa, mi
appello al senso di responsabilità di chi sviluppa i sistemi. Li invito a un
nuovo giuramento di Ippocrate per i data scientists, in modo che non
programmino algoritmi potenzialmente discriminatori.
D: Ma
il senso di responsabilità può non bastare. Le istituzioni europee stanno
adottando un doppio approccio, con linee guida e leggi sulla privacy per
ottenere la collaborazione di chi sviluppa questi sistemi, indicando alcuni
principi etici e stabilendo leggi molto stringenti. È il caso del Gdpr, che prevede che
le persone abbiano il diritto di non ricevere trattamenti automatizzati di dati
che possono avere un impatto nelle loro vite.
Sì, ma
mi sono accorta che queste regole hanno poi problemi di applicazione. Nel libro
racconto la vicenda di un gruppo di persone che aveva scelto, essendocene la
possibilità, di non far trattare i propri dati dagli algoritmi, ma che poi
proprio per questa ragione hanno perso il sussidio. Del Gdpr, invece, apprezzo il
principio secondo cui le persone hanno diritto a un controllo sui propri dati
personali e a che ci sia sempre un “decisore umano” per aspetti che hanno un
impatto sulle loro vite. Il decisore umano ci protegge di più, perché permette
di mettere in discussione – anche in una controversia legale – una decisione
che ci penalizza da parte di un ente pubblico.
(Intervista di Alessandro Longo a
Virginia Eubanks- lemacchinevolanti.it/approfondimenti/lingiustizia-degli-algoritmi)
«Il
digitale è progresso, ma la giustizia
non sia schiava degli algoritmi».
Ildubbio.news
- Orlando Trinchi – (15 SETTEMBRE 2021) -ci dice:
Parla
il magistrato francese Antoine Garapon, giurista e scrittore: «Il giudizio non
è solo l'applicazione del diritto, ma anche l'esercizio della pratica».
«Potrebbero
porre rimedio alla lentezza della giustizia e permettere l’abbassamento dei
costi, ma attenzione a non credere in un effetto magico del digitale, uno
strumento tecnico che diventa efficace solo se sostenuto da una determinazione
della comunità professionale dei giuristi e uno sviluppo culturale accompagnato
politicamente».
Il
magistrato francese Antoine Garapon commenta gli stanziamenti per la
digitalizzazione dei procedimenti giudiziari, contenuti, insieme ad altre
misure, nel PNRR (Piano Nazionale di Ripresa e Resilienza), presentato dal
Governo italiano alla Commissione europea il 30 aprile 2021.
Un
tale carattere d’innovazione non deve essere disgiunto dall’orizzonte sociale
cui afferisce: «Occorre sostenere le capacità del pubblico di assorbire l’innovazione,
diffidare dell’analfabetismo informatico e della frattura digitale. Le classi
meno abbienti potrebbero non avere accesso a questi strumenti. Bisogna agire
congiuntamente su tre livelli: strumenti, formazione e supporto sociale».
Giurista
e scrittore – fra i suoi ultimi titoli, «Crimini che non si possono perdonare
né punire. L’emergere di una giustizia internazionale» (il Mulino, 2005), «Lo
stato minimo. Il neoliberalismo e la giustizia» (Raffaele Cortina Editore,
2012) e «La despazializzazione della giustizia» (Mimesis Edizioni, 2021) –,
Garapon analizza nel suo nuovo saggio, «La giustizia digitale. Determinismo
tecnologico e libertà» – scritto a quattro mani con il filosofo ed epistemologo
Jean Lassègue e pubblicato in Italia dal Mulino – opportunità e limiti dei processi di
digitalizzazione nell’ambito della giustizia.
La
cosiddetta “delega alle macchine” che, alla stregua di una vera e propria
credenza collettiva, sta informando i più svariati settori produttivi, si
accompagna, per quanto concerne la giustizia, alla pretesa d’infallibilità del
giudizio.
«È un
sogno assoluto – rileva l’autore – che abbiamo chiamato “il mito della delega
alle macchine”.
Il
giudizio non è solo l’applicazione del diritto, ma anche l’esercizio della
saggezza pratica; non vediamo proprio come una macchina possa sostituirsi ad
essa.
D’altro
canto, l’analisi dei dati giudiziari può portare allo scoperto talune tendenze
invisibili alla coscienza del giudice, e, rivelandogliele, renderlo più
prudente».
Garapon
pone l’accento sul rischio di de-simbolizzazione che potrebbe ingenerare
l’imporsi della nuova scrittura digitale in ambiti come quello giuridico e
sociale. Il potere espressivo della parola conferisce un valore simbolico ai
singoli segni, che rende gli individui partecipi di un ordine a loro
sovrastante e attiva una dimensione di efficacia simbolica del tutto assente
con l’elaborazione informatica dei segni medesimi.
Trattandosi
di un’attività grafica affidata al computer, la scrittura digitale, a
differenza di quella alfabetica, ritarda la comparsa del significato, aspirando
a una nuova efficacia che dipende esclusivamente da sé stessa: “scrittura
normativa” che trae impulso da una performatività autonoma ben distinta da una
performatività sociale o giuridica, in quanto sostanzialmente grafica.
La
legaltech, che su tale tipo di scrittura si fonda, comporta un significativo
stravolgimento delle professioni giuridiche, proponendo un’offerta di mediazione
fra la moltitudine e gli strumenti di regolazione che, se da un lato penalizza
avvocati, notai e altri giuristi, dall’altro si pone come infinitamente più
performante e affidabile.
«Le conseguenze dell’avvento della
legaltech – osserva il magistrato – sono potenzialmente molto rilevanti, in
quanto essa colloca la tecnica in posizione di preminenza rispetto alla
politica, al diritto, ai giudici e all’esperienza personale.
Il
digitale pretende di rivelare “la verità” del testo di diritto.
Sono
ingegneri, che non hanno alcuna capacità giuridica, che stabiliranno,
attraverso degli algoritmi, il vero contenuto della legge, determinando ciò che
è realmente deciso dai giudici».
Una
prospettiva nuova di ascendenza libertariana, in cui avvocati e giuristi
diventano subalterni a ingegneri e geeks, matematici e uomini d’affari, padroni
della tecnica informatica e processori di big data che, in seguito alla
penetrazione della logica capitalista nella professione di avvocato, vendono
disintermediazione e un facile accesso al diritto, osteggiando le istituzioni
ma assecondando le leggi di mercato.
Ineludibile
portato del digitale è la digital disruption, la distorsione delle categorie di
spazio e tempo finora comunemente intese: essa stravolge e distrugge le
dimensioni della durata – contrae il tempo di uno scambio a un niente, mentre
estende all’infinito la possibilità di conservare dati – e della distanza, da
una parte originando rapporti ubiquitari e dall’altra annullando la prossimità
spaziale.
«Il
processo – aggiunge Garapon – è profondamente uno spazio di incontro: bisogna
fare lo sforzo di arrivarci (con la paura che ne deriva), e di rivedere gente
che non si vorrebbe affatto rivedere.
Tutte
queste emozioni fanno parte dell’esperienza della giustizia: una miriade di
informazioni passano attraverso queste esperienze che ci permettono di regolare
il nostro comportamento. Immaginiamo la stessa scena su uno schermo, è
completamente diverso. La de-spazializzazione consiste nell’eterotopia per cui
si è sia qui che altrove. Non vi è più l’iscrizione dell’esperienza della
giustizia nei corpi».
La
tecnica muta modalità e percezione dell’evento di giustizia: la visione su uno schermo viene
vissuta in maniera privata, senza la necessaria ritualità e la relativa
pressione (la persona interrogata può trovarsi davanti a un caffé, un detenuto
da una prigione in Sicilia può testimoniare in un processo a Chicago, ecc.).
Il processo classico è invece frutto
ineludibile dell’intreccio tra spazio e tempo, percezioni soggettive e realtà
oggettive e deve creare, a livello ottimale, sinergia fra tre tipi di efficienza: procedurale, simbolica
e sociale. Esso permette di riunire nella stessa sala tutte le parti – giudice,
avvocati, esperti, testimoni e pubblico – allo scopo di dirimere una questione
e giungere a un epilogo che, nei migliori dei casi, produce una catharsis,
ovvero un effetto sociale di pacificazione.
In
tale versante si innesta la distinzione tra iterazione informatica, che esprime
la ripetizione sempre uguale di procedure definite in anticipo, e la
ripetizione rituale, che invece, proprio attraverso la mediazione simbolica,
intende riportare l’estraneo al familiare, l’orrore a un ordine sublimato.
Bisogna
infatti ricordare che pertiene al rituale giudiziario una dimensione di gioco
minacciata dalla radicalizzazione della regola, ovvero quando una regola viene
eseguita senza dover essere interpretata: «ogni regola troppo rigida produce
ingiustizia (si pensi alle griglie delle pene negli Stati Uniti), perché il
diritto è fondamentalmente un gioco».
Nel
sistema della blockchain – «catena di blocchi», contrassegnata da un rigido
determinismo prodotto dai mezzi della crittologia – l’atto autentico, ovvero
l’esecuzione del programma che investe i termini codificati del contratto,
schiaccia quella rappresentazione che consente il gioco, e quindi
l’interpretazione, l’argomentazione, la discussione e la correzione dopo
un’esperienza politica non conforme al disegno del legislatore.
La
giustizia «ha bisogno di ritagliarsi uno spazio di gioco per soppesare i pro e
i contro e trovare di volta in volta la soluzione più giusta. L’imperfezione,
per quanto paradossale possa apparire, è una condizione del diritto».
Un
gioco, quello della giustizia, insidiato anche dal ricorso alla funzione
predittiva, che mira a dedurre il futuro dal passato, contestualizzando il caso
in esame secondo specifiche caratteristiche e anticipando le probabilità delle
decisioni che potrebbero essere prese.
Con
esiti potenzialmente ancora da scoprire:
«C’è
da scommettere che fra qualche anno, in ogni causa importante, saranno fornite
da ciascuna parte delle valutazioni predittive, forse contraddittorie fra loro
(cosa che le indebolirà); esse compariranno nel fascicolo come un’ecografia in
una cartella clinica; un’informazione di un genere nuovo, che coadiuva il
lavoro di ciascuno, senza sostituirlo».
Il
lavoro predittivo, che riguarda tutti i settori della giustizia e non solo le
sentenze, potrebbe comportare, in estrema analisi, un’abolizione del tempo, in
quanto il futuro diventerebbe presumibilmente conosciuto quanto il passato,
generando una prospettiva di chiusura.
«In
realtà – precisa Garapon, – l’utilizzo più massiccio dei software predittivi
interviene a monte attraverso le parti fortunate che possono permetterseli, al
fine di decidere se andare a giudizio sulla base delle probabilità di successo.
Il che non è esente da effetti perversi, poiché a volte l’audacia di una nuova
argomentazione può cambiare la posizione dei tribunali».
L’illusione prolettica è, appunto, solo un’illusione. Ma fino a che punto essa potrebbe risultare determinante? «Non credo che avrà una grande influenza. Non dimentichiamo che il ruolo della giustizia è di trattare delle passioni umane – odio, avidità e gelosia, per esempio. Noi non siamo “attori razionali”, a dispetto di una sorta di economicismo dilagante. Questo non deve essere un pretesto per respingere gli strumenti digitali, ma per farne un uso adeguato». Senza idolatria né inutili pregiudizi.
(Antoine Garapon-magistrato
francese).
Commenti
Posta un commento