Co2 per produrre alimenti.
Co2
per produrre alimenti.
La
Truffa del Colesterolo
e
delle Statine.
Conoscenzealconfine.it
– (14 Maggio 2025) - t.me/sadefenza –Redazione – ci dice:
Perché
le statine distruggono il cervello…
Forse
sai che il colesterolo è necessario al tuo corpo per produrre vitamina D,
steroidi e ormoni sessuali, e per membrane cellulari sane.
Forse sai anche che le statine possono
abbassare il tuo colesterolo a tal punto che il tuo corpo non riesce a produrre
questi nutrienti vitali.
Ma
sapevi che le statine possono anche compromettere la tua funzione cognitiva con
l’avanzare dell’età?
È
vero! Il fegato non è l’unico organo del corpo che produce colesterolo.
Anche
il cervello lo produce.
Il
colesterolo costituisce una grande porzione delle membrane dei neuroni.
Poiché i neuroni sono per lo più membrane, una
mancanza di colesterolo potrebbe comprometterne la funzione.
Anni
fa avevo previsto che la ricerca avrebbe alla fine collegato il colesterolo
basso alla scarsa memoria e alla funzione cerebrale generale.
E ora
ne abbiamo la prova.
I
ricercatori hanno recentemente condotto uno studio su 1.181 soggetti di età
superiore ai 64 anni.
Hanno scoperto che bassi livelli di
colesterolo riducono significativamente le capacità cognitive generali.
Hanno
anche scoperto che bassi livelli di colesterolo riducono la velocità di
elaborazione del cervello.
Gli
autori hanno concordato che un colesterolo totale più basso è un forte
indicatore per prevedere una funzione cognitiva inferiore negli over 64.
Dovrebbe
essere in prima pagina su ogni giornale del paese.
Ma con
l’industria farmaceutica che detiene il monopolio delle notizie sulla salute,
uno studio come questo viene nascosto.
Non
lasciatevi ingannare per abbassare il vostro colesterolo totale sotto i 170 con
i farmaci.
Infatti,
a meno che tu non abbia un disturbo ereditario di colesterolo molto alto (oltre
270), sarei cauto sull’uso di statine in generale.
I
dottori vogliono bloccare l’enzima nel fegato che produce colesterolo.
Con lo
stesso enzima che produce colesterolo essenziale nel cervello, potresti
scambiare un colesterolo ultra basso “felice per il dottore” con un caso di
declino cognitivo “personalmente triste”.
I
farmaci che abbassano il colesterolo sono il segmento commerciale più grande
del settore farmaceutico globale.
Le
vendite globali della categoria di farmaci leader, le statine, hanno superato i
200 miliardi di dollari all’anno.
Tutto
questo business è costruito sulla paura, la paura che il colesterolo causi in
realtà attacchi cardiaci.
Mentre
questa “paura del colesterolo” è diventata una miniera d’oro per le aziende
farmaceutiche, il peso economico di questo business è in ultima analisi
sostenuto da noi, le persone.
I
professionisti della salute, i decisori politici e centinaia di milioni di
pazienti in tutto il mondo hanno il diritto di sapere.
Quali
sono i fatti comprovati e qual è la truffa che muove il business degli
investimenti multimiliardari per i farmaci brevettati per abbassare il
colesterolo?
(dr-rath-foundation.org/?s=statins).
(facebook.com/share/v/15ck6d5fsb/).
(t.me/sadefenza).
Quante
sono le emissioni
di gas
serra
derivanti
dalla produzione di cibo, i dati più recenti.
Lifegate.it
- Carlotta Garancini – (20 settembre 2021) – ci dice:
Quante
sono le emissioni di gas serra derivanti dalla produzione di cibo, i dati più
recenti.
Il 57
per cento delle emissioni della produzione di cibi di origine animale sono per
il 32 per cento CO2, per il 20 per cento metano e per il 6 per cento ossido di
azoto.
Uno
studio ha calcolato le emissioni di CO2, metano e protossido di azoto per la
produzione di cibi di origine animale e vegetale.
Nuovi
dati sulle emissioni di gas serra legate alla produzione di cibo emergono da
uno studio pubblicato su “Nature Food”.
Secondo
la stima effettuata da un gruppo internazionale di esperti guidato
dall’università dell’Illinois con la partecipazione della divisione di”
Statistica della Fao di Roma”, la produzione di cibo di origine vegetale e
animale a livello globale è responsabile del 35 per cento di tutte le emissioni
di gas serra prodotte dall’uomo.
Emissioni.
Dalle
coltivazioni di riso derivano gran parte delle emissioni di gas serra
dell’agricoltura globale.
Gli
alimenti di origine animale producono due volte le emissioni di quelli di
origine vegetale.
Analizzando
le filiere alimentari relative a 171 coltivazioni e 16 tipi di allevamento, lo
studio ha osservato che il 57 per cento delle emissioni deriva dalla produzione
di alimenti di origine animale e in particolare dagli allevamenti di bovini,
mentre il 29 per cento è conseguenza della produzione di cibi vegetali, in
particolar modo della coltivazione di riso.
Le
aree geografiche che producono più emissioni sono il Sud America e il Sudest
asiatico.
Brasile,
Stati Uniti, Cina e India sono responsabili del maggior numero di emissioni
legate alle produzioni animali, mentre la Cina, l’India e l’Indonesia di quelle
vegetali.
Quale
sarebbe il costo reale del cibo se tenessimo conto del suo impatto ambientale.
Non
solo CO2: il ruolo del metano e del protossido di azoto nei cambiamenti
climatici.
Lo
studio è il primo a considerare le emissioni nette di anidride carbonica, ma
anche di metano e protossido di azoto, gas altrettanto influenti sui
cambiamenti climatici.
“Il
metano generato dalle coltivazioni di riso e dagli animali e il protossido di
azoto derivante dai fertilizzanti sono rispettivamente 34 e 298 volte più
potenti nel trattenere calore in atmosfera”,
ha
spiegato “Xiaoming Xu”, tra gli autori dello studio.
Le
emissioni derivanti dalla produzione di alimenti di origine vegetale sono per
il 19 per cento CO2, per il 6 per cento metano e per il 4 per cento protossido
di azoto; quelle provenienti dalla produzione di cibi di origine animale sono
per il 32 per cento CO2, per il 20 per cento metano e per il 6 per cento ossido
di azoto.
Emissioni.
Le
emissioni di metano degli allevamenti intensivi sarebbero sottostimate.
Se
allevare bovini è come produrre petrolio.
Sempre
a proposito di allevamenti animali, l’edizione 2021 del dossier sulla
produzione di carne” Meat Atlas”, redatto da “Friends of the Earth Europe e da
Heinrich Böll Stiftung”, mette sotto accusa i finanziamenti alla produzione
intensiva di prodotti animali.
“Mentre
le aziende zootecniche alimentano la crisi climatica, la deforestazione, l’uso
di pesticidi e la perdita di biodiversità, e mentre allontanano le persone
dalle loro terre – si legge nell’introduzione del documento – sono ancora
sostenute e finanziate dalle banche e dagli investitori più potenti del mondo”.
Il
dossier riporta anche alcuni dati secondo cui i cinque più grandi produttori di
carne e latte emettono più gas serra all’anno di quanto facciano giganti del
petrolio come Exxon, Shell o Bp, mentre venti tra le aziende zootecniche più
grandi del mondo sono responsabili, insieme, di più emissioni di Germania, Gran
Bretagna o Francia.
Chicco
Testa sul Foglio:
"Balle verdi”.
Reteresistenzacrinali.it
– Alberto Cuppini – (08 Settembre 2024) – ci dice:
"Non
pochi commentatori stabiliscono una relazione fra il successo delle destre
estreme e la protesta “contro il green deal".
Il
titolo sarebbe stato eccessivo anche per un “post RRC.”
Ma evidentemente non lo è per “il Foglio”, che
giovedì ha pubblicato l'articolo di Chicco Testa "Balle verdi".
Qui
qualcuno si è messo in testa (da quello che scriveva e dai toni ogni volta più
esasperati contro le "balle" della "transizione inclusiva"
si capiva che ci stava già pensando ancor prima dei risultati delle elezioni
nei “Land della Germania Orientale”) di (ri) entrare in politica per fare la
“Sahra Wagenknecht” italiana.
Un
paio di correzioni all'articolo di Testa:
1)
"Non pochi commentatori stabiliscono una relazione fra il successo delle
destre estreme e la protesta contro il green deal" è falso.
C'è un
"non" di troppo.
La
realtà è invece questa:
"Pochi commentatori (molto pochi e
nessuno nei giornaloni) stabiliscono una relazione fra il successo delle destre
estreme e la protesta contro il green deal".
Anche
se tale relazione è perfettamente vera.
Ed
evidente a tutti i tedeschi.
Le
cose stanno precipitando nel Paese che per primo ha scelto le “Energie vende”
(Danke Angelona...), poi diventata modello di tutt'Europa.
Sulla
prima pagina del Sole 24 Ore di ieri leggevamo il titolo dedicato all'indice”
IFO” (che misura la fiducia delle imprese tedesche):
"Per la Germania avanza lo spettro della
stagnazione" (ma il titolo accanto, riguardante il mercato italiano,
"Auto, commesse interne a picco.
Nei primi sei mesi produzione -20%",
lascia presagire che lo spettro della stagnazione non si fermerà in Germania).
Oggi
stesso, invece, dalla Germania sono arrivati i dati reali, che rendono
superflui i sondaggi sulla fiducia:
"produzione
industriale tedesca crollata a luglio del 2,4% su base mensile e del 5,3% su
base annua".
Meno 2,4% in un solo mese!
Un
bell'inizio di terzo trimestre, non c'è che dire, dopo che la diminuzione di
appena lo 0,1% del PIL tedesco nel secondo trimestre aveva riportato in alto
nei sondaggi elettorali “AfD”.
Se
continua questa diminuzione mensile per tre anni (o poco più), la Germania
diventerà il Paese Silvo-pastorale a cui voleva ridurla Stalin nel 1945.
2)
"Si resta stupiti di come la sinistra italiana non veda questi numeri,
soprattutto quelli del nostro paese, e continui a navigare nell'empireo di una
transizione che rappresenta solo un collante ideologico senza piedi ben
piantati per terra.
E
piuttosto incurante degli interessi di quelli che dovrebbero essere i suoi
elettori. Che infatti votano altri."
Io non
so (anche se lo immagino) che cosa intenda Testa con quel condizionale
("quelli che dovrebbero essere i suoi elettori").
So
però che ciò che conta per il PD sono quelli che sono (non "dovrebbero
essere") attualmente i suoi elettori.
Ovvero,
in larghissima parte, i vecchi elettori del PCI superstiti e ampi strati della
pubblica amministrazione (certamente tutte le insegnanti della scuola pubblica,
che ormai sono tutte donne).
Poi, in numeri inferiori, tutte le élite (in
Italia da molti decenni cooptate per appartenenza politica oltre che per legami
famigliari), i professionisti della bontà e i furbacchioni delle varie
minoranze, che, con il sistema delle quote e altri privilegi reclamati
spudoratamente, vogliono superare a destra (nel senso del codice della strada)
i capaci e meritevoli.
Infine le ragazzine che ancora vanno a scuola
o all'università (i ragazzini no: quelli non votano e aspettano che compaia
sulla scena politica qualcuno che abbai più forte degli altri e che li porti in
piazza a “picchiar”, nella speranza di arrivare subito in alto senza fatica,
come accaduto almeno tre volte il secolo scorso).
Insomma:
tutta gente a cui se l'economia italiana, col costo dell'energia alle stelle, e
l'industria in particolare vanno a rotoli non gliene può fregare di meno.
Tanto
(credono loro) il 27 del mese Pantalone (o qualcun altro) pagherà sempre e
comunque.
Uno
che - apparentemente - non ha ben chiaro chi siano gli attuali elettori del
Partitone è “Francesco Giavazzi”, che sempre giovedì scorso, e proprio
sull'organo di stampa de facto del PD, ha scritto l'articolo "Una scelta
necessaria: investire", dove nel sottotitolo si leggeva (dopo appena
sessant'anni dai fatti...):
"Anzichè
investire per la protezione del territorio e le scuole, abbiamo finanziato le
pensioni di anzianità".
Cosa
gravissima ma perfettamente vera, ma che non so se farà bene alle vendite del
Corriere della Sera.
Se in Italia qualcuno parla di pensioni col
sacrosanto intento di ridurne (giustamente) l'insostenibile spesa complessiva,
commette un suicidio politico.
Se il PD proponesse di finanziare gli
investimenti pubblici (a cominciare da quelli, fin qui negletti, per la
protezione del territorio) tagliando le pensioni di anzianità perderebbe
istantaneamente il 100% dei propri attuali consensi.
Idem
se, parlando di "transizione green", un bel giorno la definisse
(altrettanto giustamente) "Balle verdi".
O
forse” Giavazzi” e il Corriere della Sera, di fronte ad una ormai innegabile
perturbazione ciclonica in arrivo da Nord, hanno improvvisamente deciso di
abbandonare la nave, ormai condannata, con le scialuppe di salvataggio, in
attesa di essere raccolti da una nuova nave, magari battente bandiera
rosso-bruna?
(Alberto
Cuppini).
I due
articoli (scientifici) che smontano
le “balle”
sull’uomo e il clima.
Nicolaporro.it
- Carlo Macky – (29 Settembre 2024) – ci dice:
La
“pistola fumante” sul riscaldamento climatico di origine antropica?
Si scopre che era una pistola ad acqua.
«Nessuna
quantità di esperimenti potrà dimostrare che ho ragione; un unico esperimento
potrà dimostrare che ho sbagliato.»
(Albert
Einstein, lettera a Max Born del 4 dicembre 1926).
È
evidente che questa massima non vale per chi studia il cambiamento climatico.
Questa
riflessione mi è sorta spontanea, leggendo in questi giorni alcune notizie
eterodosse sull’origine antropogenica del cambiamento climatico.
Nonostante
la difficoltà di accedere alle informazioni che non si allineano alla
propaganda “green”, qualche notizia controcorrente comincia a filtrare con
sempre maggiore insistenza.
Vorrei,
in particolare, riportare qui di seguito la sintesi di due articoli
scientifici, e di un’intervista a corollario, che dovrebbero spingere il mondo
scientifico (e politico) ad una seria riflessione sull’intera teoria del
riscaldamento climatico di origine antropica.
La
pistola fumante.
Cominciamo
con un piccolo ripasso: l’anidride carbonica è composta da un atomo di carbonio
e due atomi di ossigeno.
L’atomo di carbonio può avere massa isotopica
12 (12C), di gran lunga la più abbondante, o 13 (13C) (tralascio volutamente
gli isotopi instabili, meno abbondanti).
La
diminuzione del rapporto 13C/12C indica un apporto di CO2 da combustibili
fossili.
In base a ricerche ormai datate, che
evidenziavano una tendenza alla diminuzione negli anni del rapporto 13C/12C, la
comunità scientifica dava per certa l’origine antropica dell’aumento della CO2
nell’atmosfera.
Tale correlazione era ritenuta così
significativa che veniva definita “la pistola fumante”, in quanto, senza ombra
di dubbio, consentiva di svelare al mondo intero l’unico, vero colpevole del
riscaldamento climatico: l’uomo!
E su questa certezza scientifica (che è un
controsenso in termini), si sono basare le politiche di “decarbonizzazione”.
Orbene,
per fortuna esiste il progresso scientifico e, utilizzando degli strumenti di
indagine più sofisticati di quelli di qualche anno fa, si è scoperto che la
tanto sbandierata correlazione certa, tanto certa non è, e che la pistola
fumante è in realtà una pistola ad acqua.
Infatti, secondo la recente pubblicazione
scientifica di” Demetris Koutsoyiannis” (Sci 2024, 6, 17) , in base ai recenti
dati isotopici strumentali del carbonio degli ultimi 40 anni, non si possono
individuare dei contributi significativi antropici all’aumento della
concentrazione di “CO2” nell’atmosfera.
La
nuova ricerca ha esaminato i dati isotopici di quattro siti di osservazione
(Polo Sud, Mauna Loa, Barrow, La Jolla, considerati “globali” nella loro
copertura), e i risultati indicano che non esiste alcun modello isotopico
coerente con un’impronta digitale umana.
In estrema sintesi, l’autore conferma le
conclusioni di precedenti studi [2, 3, 4], e cioè che il contributo antropico
all’aumento della concentrazione di CO2 atmosferica è trascurabile, e che il
rapporto isotopico 13C/12C è stabile da circa 1.500 anni.
L’incremento della concentrazione di anidride
carbonica è, pertanto, quasi esclusivamente di origine naturale.
Da ciò
ne consegue che:
l’effetto
serra sulla Terra è rimasto stabile nell’ultimo secolo, poiché è dominato dal
vapore acqueo nell’atmosfera (secondo alcuni autori è responsabile del 97%
dell’effetto serra n.d.a.);
le
emissioni umane di CO2 sono difficilmente individuabili nei dati osservativi e
hanno avuto un ruolo minore nella recente evoluzione climatica.
Nel
complesso, i risultati di questo documento confermano il ruolo principale della
biosfera nel ciclo del carbonio (e attraverso questo nel clima) e un contributo
antropico trascurabile.
L’autore,
poi, si toglie anche qualche sassolino dalla scarpa, sottolineando
l’importanza, per il progresso scientifico, di ricerche che non si allineino
bovinamente alla narrazione climatica dominante.
Direi
che questa ricerca, che conferma le precedenti [2, 3, 4], dovrebbe instillare
più di un dubbio nella mente dei burosauri occidentali che ci stanno portando
alla rovina ambientale ed economica.
E
veniamo al secondo articolo che, con il corollario dell’intervista a Ned
Nikolov, Ph.D, non solo distrugge la narrazione della decarbonizzazione, ma
pone seri dubbi sulla correttezza e imparzialità dell”’IPCC”.
Secondo
questo nuovo studio, gli ultimi 200 anni di riscaldamento globale sono
associati al declino della copertura nuvolosa, che determina una diminuzione
dell’albedo (albedo: frazione di energia del Sole riflessa dalla Terra, in gran
parte dipendente dalla copertura nuvolosa n.d.a.).
La
diminuzione della copertura nuvolosa può essere collegata ai ruoli dominanti di
forze esterne (vulcaniche, solari e oceaniche, ovviamente non dipendenti
dall’uomo).
La
ricerca è stata condotta sull’area mediterranea, ma i risultati
trascenderebbero i confini geografici, in quanto basati su meccanismi globali.
La
ricostruzione indica che la tendenza al declino della copertura nuvolosa è in
corso da oltre 200 anni.
Gli
anni del “punto di svolta” sono stati il 1815-1818, in seguito all’eruzione
del Monte Tambora.
Da
quel momento in poi si è verificato un rapido declino della copertura (non
dimentichiamoci anche della spaventosa eruzione del vulcano Hunga Tonga del
2022, i cui effetti non sono ancora not ).
Gli
autori suggeriscono che i fattori “dominanti”, collegati al periodo successivo
al 1800, includono la forzatura solare, la forzatura vulcanica e l’oscillazione
multi decennale atlantica (AMO).
Ovviamente,
i sostenitori del” riscaldamento globale antropogenico” vogliono attribuire
all’uomo il calo della copertura nuvolosa osservato negli ultimi decenni.
Ne
consegue che gli input dei modelli climatici sono stati programmati per
dimostrare che il riscaldamento dovuto all’aumento dei gas serra porta al calo
delle nuvole e il calo delle nuvole porta a un ulteriore riscaldamento:
un feedback positivo perpetuo e
incontrollabile.
Ma ciò
è in totale contrasto con le osservazioni del mondo reale, che mostrano
l’esatto contrario, e cioè che il riscaldamento porta ad un aumento delle
nuvole, non ad una loro diminuzione (l‘aumento della temperatura causa,
ovviamente, un aumento dell’evaporazione)!
Pertanto,
né il riscaldamento, né l’aumento dei gas serra possono spiegare il calo delle
nuvole.
E
poiché la riduzione della copertura nuvolosa consente un maggiore assorbimento
della radiazione solare in superficie, questo può spiegare il riscaldamento
attuale.
A
conferma delle conclusioni di questa ricerca, i dati di un rapporto dell’Intergovernmental Panel on
Climate Change (IPCC) suggeriscono che la tendenza al riscaldamento della Terra
negli ultimi due decenni potrebbe non essere attribuibile all’attività umana.
Ebbene
sì, non avete letto male!
Gli esperti che hanno analizzato il rapporto
indicano, come causa dell’aumento delle temperature globali, i cambiamenti
dell’albedo del pianeta.
E
così, mentre gli ormai numerosi dati e ricerche suggeriscono che l’attività
umana non è il motore principale dei cambiamenti climatici, i leader globali
continuano a perseguire politiche ambientaliste sempre più aggressive, dannose
e inconcludenti, ignorando o facendo finta di ignorare le vere cause del
fenomeno.
A
corollario di tutto ciò, in una recente intervista con la SCNR (network), Ned
Nikolov, Ph.D. , uno scienziato specializzato in clima, cosmologia e
astrofisica, ha espresso preoccupazioni sull’integrità dei rapporti dell’IPCC,
accusando il panel di manipolare i dati climatici.
La
ricerca di Nikolov, basata sui dati satellitari del progetto “Clouds and the
Earth’s Radiant Energy System” (CERES) della “NASA”, rivela che l’”IPCC “ha
travisato le tendenze della radiazione solare e delle onde lunghe, invertendo i
dati.
Sostiene
che, invece di rappresentare correttamente che la Terra sta assorbendo più
energia solare a causa della ridotta copertura nuvolosa, osservazione
supportata dalla NASA, l’IPCC ha alterato i dati per mostrare il contrario.
Nikolov
afferma che questa alterazione dei dati non è casuale e suggerisce che l’IPCC
potrebbe averli falsificati deliberatamente per adattarli alla narrazione
ampiamente accettata del cambiamento climatico causato dall’uomo.
Lo
scienziato sostiene che tutto il riscaldamento osservato negli ultimi 24 anni
può essere pienamente spiegato con l’aumento dell’assorbimento di energia
solare, e non con l’aumento dei livelli di CO2 o dei gas serra.
“E
questa non è una mia teoria”, ha ribadito, “È dedotta direttamente dai dati
satellitari forniti dalla NASA. Sono sul loro sito web”.
Ha anche sottolineato implicazioni più ampie
per la scienza del clima, affermando che i gas serra, come la CO2, hanno un
effetto trascurabile sul riscaldamento globale rispetto al ruolo della
pressione atmosferica.
E questo conferma ulteriormente quanto
riportato nell’articolo che ho citato precedentemente.
Anche
Karl Zeller, climatologo e ricercatore associato di Nikolov, ha criticato
l’interpretazione dei dati dell’IPCC, notando che i loro modelli presentano
tendenze fuorvianti, invertendo le misurazioni reali.
La
ricerca di Nikolov e Zeller suggerisce che il riscaldamento più recente può
essere attribuito ai cambiamenti della radiazione solare, non ai gas serra.
I due scienziati hanno pubblicato recentemente
le loro scoperte sulla rivista peer-reviewed Geomatics, concludendo che i dati misurati da
CERES spiegano il 100 percento della tendenza al riscaldamento globale
osservata e l’83 percento della variabilità interannuale degli ultimi 24 anni,
inclusa l’estrema anomalia di calore del 2023″, che la NASA ha dichiarato
essere l’anno più caldo mai registrato.
“Queste
scoperte richiedono una riconsiderazione fondamentale dell’attuale paradigma di
comprensione del cambiamento climatico e delle iniziative socioeconomiche
correlate, volte a drastiche riduzioni delle emissioni industriali di carbonio
a tutti i costi”, hanno scritto.
Nonostante
l’importanza delle loro conclusioni, Nikolov ha notato la mancanza di risposta
da parte della più ampia comunità scientifica, attribuendola a interessi
politici e finanziari che potrebbero ostacolare una discussione aperta sulla
questione.
In conclusione, ha chiesto una maggiore
trasparenza e un controllo più approfondito dei dati climatici in futuro.
La ricerca della coppia evidenzia il
potenziale collasso della narrazione del riscaldamento globale antropogenico,
se queste discrepanze fossero ampiamente riconosciute, ma Nikolov evidenzia la
difficoltà nello sfidare un consenso globale così profondamente radicato,
poiché la maggior parte dei media e delle istituzioni scientifiche sono
riluttanti ad affrontare queste scoperte.
Per
chiudere, ci rendiamo conto che stiamo distruggendo il pianeta e che rischiamo
di affamare ampie fasce di popolazione solo per perseguire politiche dirigiste
scellerate, che si basano su “certezze” pseudoscientifiche?
(Carlo
MacKay, 28 settembre 2024).
Lavoro,
quante “balle”
sulla
green economy.
Repubblica.it - Federico Ferrazza – (05 Marzo
2025) – ci dice:
In una
delle scene più iconiche di “The Apprentice”, il film sulle origini di Donald
Trump, l’allora giovane tycoon dice:
“La verità è solo quella che tu dici”.
Non
contano i fatti e la realtà, insomma.
L’importante è la propaganda.
E di quella contro la green economy ce n’è a
tonnellate.
Lo schema è sempre lo stesso:
c’è un
problema (nel caso specifico: la crisi economica, soprattutto della classe
media occidentale), si individua un nemico immaginario e gli si dà addosso per
trovare consenso.
Anche se gli elementi a supporto dell’attacco
non hanno alcun riscontro.
Per esempio:
l’energia da fonti rinnovabili non è
conveniente;
e
infatti lo abbiamo visto con i costi alle stelle del gas importato dalla Russia
e altre democrature.
Oppure:
le
vetture elettriche stanno mettendo in ginocchio l’industria automotive;
con la crisi dei consumi, siamo sicuri che, se
sul mercato ci fossero solo auto a benzina o diesel, i concessionari sarebbero
tutti pieni?
Le
verità e soprattutto i fatti sono altri.
Proviamo
quindi a smontare uno dei principali miti degli avversari dell’ambiente:
l’occupazione (e quindi anche la crescita) è penalizzata dalla green economy.
Ma in
Italia, per esempio, i numeri dicono che i lavoratori green sono quasi 3,2
milioni, il 13,4% del totale, e il 35% dei nuovi contratti nel 2023 sono stati
per professionisti verdi:
ingegneri, bioinformatici, certificatori,
installatori, designer, chef e altre figure le cui storie trovate nelle
prossime pagine.
Per
questo anche le università si stanno attrezzando per formare le nuove
professionalità richieste dal mercato.
Ma non basta:
se le
cose non cambieranno, il divario tra domanda – più alta – e offerta di talenti
green sarà sempre più ampio, raggiungendo il 101,5% nel 2050 (dato globale).
E le
cose possono cambiare solo con una visione politica e strategica dei prossimi
decenni.
Per
guardare in casa nostra, l’Europa ha un’occasione storica.
Presa nella morsa di due potenze ostili – Cina
e Usa (le prime mosse dell’amministrazione americana non sono certo quelle di
un alleato) –, può decidere di investire su ricerca scientifica e green economy
per rilanciarsi e competere alla pari.
Come?
Nelle prime settimane della sua presidenza,
per esempio, Trump ha firmato una serie di decreti che minano la ricerca
pubblica statunitense, con tagli ai fondi e limitazioni alla sua libertà di
azione.
È
un’opportunità unica per l’Europa:
portare
da questa parte dell’Atlantico i tanti ricercatori penalizzati dalle decisioni
della Casa Bianca.
Servono soldi per attrarli e un progetto
(sociale e industriale) per il futuro.
E il denaro non è il primo dei problemi.
Albania,
rimpatri, liste d’attesa:
le
balle di Meloni al premier time in Senato.
Fanpage.it
– (7 MAGGIO 2025) - Luca Pons – ci dice:
La
presidente del Consiglio Giorgia Meloni, in Senato, ha risposto su liste
d’attesa, migranti in Albania, spese per il riarmo e non solo.
Ma diversi punti di quello che ha detto non
tornano, oppure ignorano parte della realtà per far fare bella figura al
governo.
Abbiamo
controllato i passaggi più importanti.
La
presidente del Consiglio Giorgia Meloni, per la prima volta da un anno e mezzo,
si è presentata al Senato per rispondere alle domande delle opposizioni nel
premier time.
A parte lo scontro aperto con Matteo Renzi,
sono stati molti i temi trattati da parte delle opposizioni, che hanno chiesto
alla leader del governo di esprimersi sulle spese militari, le bollette, la
sanità, la gestione degli arrivi di persone migranti.
Ma,
come avvenuto in passato, ci sono stati diversi passaggi nelle parole di Meloni
che sono sembrati, se non falsi, perlomeno parziali.
Questioni su cui la presidente del Consiglio
ha scelto di ignorare in parte la realtà, per far sembrare l'operato del suo
governo migliore di quanto non sia davvero, o per scaricare le responsabilità
su altri.
Come
quando ha detto che i ritardi sulle liste d'attesa dipendono dalle Regioni –
che però sono governate in maggioranza dal centrodestra – o quando ha
rivendicato i risultati sui centri migranti in Albania.
Liste
d'attesa, Meloni scarica la responsabilità sulle Regioni.
Sul
tema delle liste d'attesa, la presidente del Consiglio ha aperto dicendo di
dover fare "un appello alle Regioni".
Poi ha
spiegato che il fatto che il decreto varato quasi un anno fa dal governo non
abbia avuto nessun effetto significativo sulla sanità pubblica non è colpa
dell'esecutivo:
"Noi
ogni anno stanziamo delle risorse, e non le gestiamo:
le gestiscono le Regioni. Ma la
responsabilità, secondo voi, è tutta del governo", ha detto, rivolgendosi
alle opposizioni.
(La
gaffe di Meloni sullo spread al premier time, sbaglia i conti e se ne accorge
anche Giorgetti).
"Il
governo ha fatto un decreto sulle liste d'attesa, in cui ha chiesto di poter
fare alcune cose, visto che la responsabilità, anche secondo voi, è sempre
nostra: poter eventualmente intervenire con dei poteri sostitutivi quando non
si riesce a governare le liste d'attesa come riteniamo".
Il
riferimento è a una norma che permetterebbe al governo di intervenire
direttamente, ‘aggirando' i poteri regionali sulla sanità, se una Regione non
riesce a rispettare certi criteri sulle liste d'attesa.
Ma
finora tutte le amministrazioni regionali si sono opposte:
"Le
Regioni trasversalmente su questo non sono d'accordo.
Però almeno gli italiani sappiano che abbiamo
queste difficoltà, altrimenti noi siamo semplicemente quelli che devono
stanziare i soldi e essere responsabili di quello che non funziona".
Insomma,
nel suo discorso la presidente del Consiglio si è limitata a scaricare la
responsabilità altrove, preoccupandosi soprattutto di chiarire "agli
italiani" che non è colpa sua.
A
sentirla descrivere la situazione sembrerebbe che il governo abbia le mani
legate.
Ma,
innanzitutto, le Regioni hanno il diritto di opporsi a una normativa se la
legge glielo concede, e di chiedere che venga cambiata – non è una ‘colpa'.
In più, e soprattutto, bisogna ricordare che
su venti Regioni, ben tredici sono governate dal centrodestra.
Ovvero dalla stessa maggioranza che sostiene
il governo Meloni.
E se
un esecutivo non riesce a trovare una soluzione che metta d'accordo non tanto
le opposizioni, ma nemmeno le amministrazioni regionali che sono del suo stesso
colore politico, allora qualche responsabilità c'è.
Anche
se così non è secondo la presidente del Consiglio.
Migranti
in Albania, l'ennesimo attacco ai giudici.
Rispondendo
a un'altra domanda sulla questione Albania, Meloni ha colto subito l'occasione
per attaccare la magistratura.
"Abbiamo
deciso di usare i centri realizzati in Albania come ordinari Cpr", ha
ammesso, e "abbiamo così iniziato a trasferire migranti irregolari in
attesa di rimpatrio.
A
seguito di questa nuova disposizione alcuni Tribunali pare stiano disponendo il
ri-trasferimento in Italia, ove il migrante avanzi una domanda di protezione
internazionale, anche quando questa sia manifestamente infondata".
È vero
che in più di un caso la richiesta di asilo è stata il motivo che ha spinto a
riportare in Italia delle persone che erano state trasferite in Albania.
Ma il
motivo non è che "alcuni Tribunali" hanno agito di loro iniziativa,
come sembra suggerire Meloni.
Il
punto è che, per le norme italiane e internazionali chi richiede asilo non è
una persona "irregolare", ma un richiedente asilo, appunto.
E quindi non può essere rimpatriato fino a
quando non si è stabilito se abbia diritto o meno a essere accolto.
E non
si può decidere che questa richiesta è "manifestamente infondata",
come vorrebbe la presidente del Consiglio.
È la conseguenza, insomma, di un errore
giuridico del governo.
Meloni
ha insistito:
"Mi
corre l'obbligo di condividere con voi quale sia il curriculum di queste
persone a cui dovremmo considerare di dare protezione internazionale:
quasi
tutti i migranti trasferiti in Albania si sono macchiati di reati molto gravi,
tra cui si annoverano furti, rapine, porto abusivo d'armi, tentati omicidi,
violenze sessuali, pedopornografia, adescamento di minore, atti osceni in
prossimità di minore.
Qualcuno
vuole a ogni costo fa restare queste persone in Italia, noi invece vogliamo
rimpatriarle".
Al di
là di quel "quasi" che lascia margini incerti, è una retorica non
nuova per l'estrema destra, utilizzata anche da Donald Trump negli Stati Uniti.
Ma la
realtà è che la legge si applica nello stesso modo a tutti, e anche il governo
deve rispettarla.
Il
presunto successo dei Cpr albanesi.
Sull'Albania,
poi, la presidente del Consiglio ha rivendicato:
"Alla
fine di questa settimana oltre il 25% dei migranti trattenuti in Albania sarà
già stato rimpatriato, in tempi che sono molto veloci, a dimostrazione di come
le procedure e la strategia che abbiamo messo in campo, nonostante i tentativi
di bloccarle per ragioni chiaramente ideologiche, stiano funzionando".
Furbescamente,
ha evitato di parlare di numeri assoluti.
Anche se non ci sono aggiornamenti ufficiali,
si può dire che da quando il governo ha fatto marcia indietro rispetto ai piani
iniziali e trasformato i centri in Albania in Cpr sono state trasferite alcune
decine di persone.
Migranti
scelti, peraltro, senza un criterio chiaro.
Non
solo la percentuale citata da Meloni non tiene conto, con tutta probabilità,
delle persone che erano state inviate nei centri nei mesi prima di questa
trasformazione in Cpr, e che erano sempre state rispedite in Italia.
Ma per
di più non c'è nessun elemento per spiegare perché questi rimpatri dovrebbero
essere un successo legato alla "strategia" del governo in Albania.
Quando
il governo ha ammesso il fallimento dell'esperimento precedente, i centri
albanesi sono diventati in tutto e per tutto dei Cpr come gli altri che si
trovano sul territorio italiano.
E allora
perché quei rimpatri che sono avvenuti dall'Albania non avrebbero potuto
avvenire dall'Italia, risparmiando un bel po' di soldi pubblici per gli
spostamenti? Meloni non l'ha spiegato in nessun modo.
La
"supercazzola" sulle spese per il riarmo.
Infine
c'è il tema del riarmo, su cui sia Azione che il Movimento 5 stelle – ma in
parte anche Alleanza Verdi-Sinistra – hanno insistito.
In
particolare, il M5s e Giuseppe Conte hanno accusato Meloni di aver risposto con
una "supercazzola".
È
vero?
In gran
parte la premier ha ribadito cose già dette.
Ha di fatto confermato che il governo per
raggiungere il 2% del Pil in spese militari (come chiesto dalla Nato) vuole
usare un trucco contabile e, in sostanza, inserire nella casella ‘spese per la
difesa' del bilancio anche cose che finora non ci rientravano, ma che invece
potrebbero ricaderci.
Una
mossa i cui dettagli devono ancora essere chiariti, ma che permetterebbe di
fare bella figura con gli alleati senza spendere davvero di più.
Poi
però Meloni ha anche detto che c'è l'intenzione di "rilanciare la
traiettoria di potenziamento delle nostre capacità di difesa".
Una
formula poco chiara, e su cui non è più tornata.
Tanto
che, mentre il M5s ha parlato di "supercazzola", anche Carlo Calenda
(che sicuramente non può essere considerato un simpatizzante del Movimento) ha
risposto in modo simile al termine della risposta a lui rivolta, anche se in
modo più diplomatico:
"Vorrei
sapere se noi compriamo qualche missile in più rispetto ai 63 che secondo il
suo ministro noi abbiamo in caso di un attacco.
Se c'è
uno stanziamento di bilancio che aumenta, e in che misura, al netto del
riconteggio che faremo".
Insomma, è vero che la presidente del
Consiglio, interrogata sulle spese militari (un argomento divisivo anche nella
sua maggioranza) ha evitato di rispondere.
(fanpage.it/).
(fanpage.it/politica/albania-rimpatri-liste-dattesa-le-balle-di-meloni-al-premier-time-in-senato/).
"Greenhouse
Gases and Fossil Fuels Climate Science" di Richard Lindzen e William
Happer, pubblicato il 28 aprile 2025, affronta il tema dei gas serra e dell'uso
dei combustibili fossili in relazione al cambiamento climatico.
Microsoft-edge
html -document- (28 aprile 2025) – Richard Lindzen e William Happer – ci
dicono:
(Non
sono ancora disponibili risultati per Il documento tradotto in italiano.)
Ecco i punti principali:
Ruolo
della CO₂:
Il
documento afferma che l'anidride carbonica ha due funzioni fondamentali:
come
elemento essenziale per la fotosintesi e come gas serra.
Secondo
gli autori, livelli più elevati di CO₂ favorirebbero la produzione di cibo
senza effetti significativi sulle temperature globali.
Critica
alla teoria del Net Zero:
Gli autori sostengono che le politiche basate
sulla riduzione delle emissioni di gas serra (Net Zero) non siano supportate da
evidenze scientifiche valide e che potrebbero avere conseguenze negative
sull'economia globale, sulla sicurezza alimentare e sul benessere umano.
Sfida
alla metodologia scientifica dominante:
Il documento critica il metodo con cui si
determina la conoscenza scientifica sul clima, affermando che spesso si basa su
consenso politico, modelli non accurati e dati selezionati, invece di
osservazioni empiriche.
CO₂ e il clima storico:
Gli
autori mostrano che nei 600 milioni di anni di storia della Terra, non c’è una correlazione
diretta tra livelli di CO₂ e temperature globali, mettendo in discussione
l'idea che l'anidride carbonica sia il principale motore del cambiamento
climatico.
Effetti socioeconomici della riduzione delle
emissioni:
Il documento sostiene che la riduzione delle
emissioni di gas serra potrebbe avere conseguenze disastrose per le popolazioni
più povere e per l'economia globale, aumentando il rischio di carestie e
limitando l’accesso a fonti energetiche affidabili.
Critica
ai modelli climatici:
Gli
autori affermano che i modelli predittivi utilizzati dai principali organismi
internazionali non corrispondano alle osservazioni reali e che, pertanto, non
dovrebbero essere usati per determinare politiche pubbliche.
In sintesi, il documento mette in discussione la
validità della teoria del cambiamento climatico causato dalla CO₂ e degli
sforzi per ridurre le emissioni, sostenendo che tali politiche potrebbero
essere basate su presupposti errati e avere conseguenze negative per la società.
Chi
vuole approfondire un aspetto specifico, si interessi in merito.
Quali
cibi inquinano di più
con la
loro produzione?
Ecocentrica.it - Tessa Gelisio, cibo
inquinante – (18 Marzo 2024) – ci dice:
Vi
siete mai chiesti quali siano i cibi che inquinano di più con la loro
produzione? Da sempre adotto uno stile egocentrico anche in cucina, prestando
attenzione alla provenienza dei prodotti – il più possibile a chilometro zero,
da agricoltura biologica e stagionali.
Eppure,
non è sempre facile comprendere l’impatto ambientale delle prelibatezze che
portiamo in tavola.
Per
aiutarci a capire quanto inquinino i cibi che quotidianamente prepariamo, la
scienza a giungerci in soccorso.
Di recente, ad esempio, molti dati utili sono
emersi dalle indagini condotte dalla “Società Italiana di Medicina Ambientale”,
dall’Università di Oxford e da OBC Transeuropa.
Delle
valutazioni preziose che ci permettono di ridurre il nostro impatto ambientale
ogni volta che facciamo la spesa.
Il
quadro generale dell’inquinamento legato al cibo
Cibo
inquinante, allevamento intensivo.
È un
elemento su cui spesso non ci si concentra, eppure la produzione di cibo
rappresenta una delle cause maggiori di inquinamento atmosferico e ambientale a
livello mondiale.
Dominata
dalla grande distribuzione, la gran parte della filiera alimentare globale non
è infatti sostenibile, sia perché si cerca di produrre sempre di più al più
basso costo possibile, sia perché vi sono enormi sprechi di risorse naturali.
Oltre
alle sempre maggiori emissioni di gas climalteranti, come ad esempio l’anidride
carbonica, l’universo alimentare è anche responsabile di danni ambientali
inestimabili:
massiccia
deforestazione, poiché la distruzione delle foreste è spesso funzionale alla
creazione di enormi campi coltivati o allevamenti;
diffusione
di contaminanti nel suolo e nell’acqua, dato il grande ricorso a insetticidi, fungicidi
ed erbicidi di origine chimica;
emissioni
per il trasporto degli alimenti, spesso da una parte all’altra del globo per
soddisfare le richieste fuori stagione dei consumatori;
aumento
dell’inquinamento da plastica, per via del packaging.
Purtroppo,
non è sempre semplice valutare l’impatto di questi fattori singolarmente, sia
per difficoltà di stima che per l’impossibilità di accedere a dati certi in
molti Paesi dove la produzione è sempre più deregolamentata.
Per
questa ragione, la maggior parte degli studi si concentra unicamente sulle
emissioni di CO2 dovute all’industria alimentare, senza poter entrare troppo
nel dettaglio di altre forme di inquinamento e impatto.
I cibi
dalla produzione più inquinante
Come
ho accennato in apertura, negli ultimi anni diverse analisi hanno evidenziato
l’impatto dell’alimentazione in termini di inquinamento ambientale e
atmosferico, concentrandosi principalmente sulle emissioni di gas climalteranti
quali la CO2. Grazie a queste ricerche, è stato possibile stilare una
classifica degli alimenti dal maggiore impatto alimentare in produzione.
Come
sono stati valutati gli alimenti.
Innanzitutto,
come sono stati valutati gli alimenti in termini di emissioni di CO2?
In linea generale, gli esperti hanno calcolato
l’anidride carbonica emessa su tutto il ciclo di produzione del cibo,
includendo:
le
emissioni dovute alla modifica del suolo, ad esempio per adattarlo alla
coltivazione e all’allevamento;
le
emissioni dovute alla produzione di mangimi e foraggio per gli animali
d’allevamento;
le
emissioni dovute alla lavorazione delle materie prime;
le
emissioni dovute al trasporto degli alimenti, dagli impianti produttivi alla
catena di distribuzione;
le
emissioni legate al packaging dei cibi e alle attività di vendita al dettaglio,
verso quindi i consumatori finali.
La
classifica dei cibi più inquinanti.
Carne
di manzo
Dati i
fattori elencati nel precedente paragrafo, i ricercatori hanno calcolato la
quantità di anidride carbonica emessa per ogni chilogrammo di alimento
prodotto. Ne emerge una fotografia a dir poco preoccupante:
Manzo:
60 kg di CO2;
Agnello:
25 kg di CO2;
Formaggi
e latticini: 21 kg di CO2;
Cioccolato:
19 kg di CO2;
Caffè:
16 kg di CO2;
Maiale:
7 kg di CO2;
Pollo:
6 kg di CO2;
Pesce
d’allevamento: 5 kg di CO2;
Uova:
5 kg di CO2;
Riso:
4 kg di CO2;
Latte:
1 kg di CO2;
Pomodori,
mais, piselli, banane: 1 kg di CO2.
Per
quanto riguarda le carni, il maggior impatto è dovuto alle modifiche necessarie
al suolo sia per la produzione di mangimi e foraggi, che per allevare gli
animali.
I grandi allevamenti intensivi di manzo, in
particolare in Sudamerica, vengono infatti realizzati a discapito delle
foreste, spesso rase al suolo per far spazio a campi coltivati.
Una
situazione simile a quella che si verifica nel Sudest Asiatico, in particolare
in Indonesia, dove le foreste tropicali stanno sempre più scomparendo per far
spazio a monocolture.
E
proprio poiché la vegetazione scompare, o viene sostituita da colture
alimentari, non vi è più il principale scudo all’aumento delle concentrazioni
di CO2 in atmosfera, con effetti che già oggi vediamo sia a livello globale che
locale.
Oltre
ad emettere CO2 durante la deforestazione stessa.
L’impatto
della produzione di latticini segue perlopiù lo stesso andamento, sempre con
danni da deforestazione in particolare in Sudamerica, mentre per cioccolato e
caffè le maggiori emissioni non derivano tanto dalle coltivazioni, quanto dai
costi di trasporto.
Le
materie prime – come il cacao e i chicchi di caffè – vengono perlopiù prodotte
in Africa e in America del Sud, per poi essere trasportate in tutto il mondo.
L’inquinamento
da cottura.
Cibi
inquinanti, cottura.
Vi è
però un altro elemento da prendere in considerazione, spesso completamente
dimenticato in queste tipologie di analisi.
Oltre
alla produzione e alla distribuzione, il cibo inquina anche con la cottura,
rilasciando quantità elevate di gas climalteranti.
È
quanto spiega il presidente “Sima “Alessandro Miani, qualche tempo fa ospite
anche di “Ecocentrica On Air”, in una recente intervista per Il Sole 24 Ore:
“Ancora
oggi circa 2.5 miliardi di persone in tutto il mondo utilizza legna da ardere,
residui colturali, carbone o sterco essiccato per cucinare, mentre il resto
della popolazione mondiale fa uso di gas naturale, kerosene, gpl ed
elettricità” – commenta l’esperto.
E non
solo la maggior parte di questi metodi di cottura rilascia gas climalteranti,
ma è anche fra le prime cause di inquinamento indoor:
“La
combustione generata dalla cottura dei cibi – continua Miani – dà origine negli
ambienti domestici a fumi con livelli di contaminanti nettamente superiori a
quanto raccomandato dall’”Organizzazione Mondiale della Sanità”.
Una
forma di inquinamento indoor che causa non solo malattie respiratorie, cancro
ai polmoni, broncopneumopatia cronica ostruttiva, polmonite, problemi
cardiovascolari e cataratta, ma anche 4 milioni di morti premature all’anno su
scala globale”.
Ma
come fare per ridurre il nostro impatto ambientale?
Innanzitutto, prediligere il consumo di
alimenti a chilometro zero, per limitare le emissioni dovute ai trasporti.
Dopodiché,
limitare la carne nella dieta e solo da pascoli o bio (che non usano ogm,
principale causa deforestazione amazzonia e in cui maggior benessere animale),
e favorire un’alimentazione maggiormente vegetale, soprattutto se da
coltivazione biologica e nel rispetto della stagionalità, che ha minor impatto.
Ancora,
quando ci si reca a fare la spesa, è sempre utile preferire prodotti sfusi,
così da limitare l’impatto ambientale del packaging. Tutte piccole abitudini
che, per quanto semplici, possono davvero ridurre il peso delle nostre tavole
in termini di emissioni climalteranti!
“Pfizergate”,
Tribunale UE Boccia Von der Leyen.
Conoscenzealconfine.it
– (15 Maggio 2025) – Imolaoggi.it - Redazione – ci dice:
Accolto
il ricorso del Nyt sul negato accesso agli sms con il ceo di Pfizer,” Albert
Bourla”.
La
decisione della Commissione europea che ha negato a una giornalista del New
York Times l’accesso ai messaggi di testo scambiati tra la presidente Ursula
von der Leyen e l’amministratore delegato di Pfizer, “Albert Bourla”, nel
quadro delle trattative che portarono al maxi-accordo sui vaccini anti-Covid “è
annullata”.
Lo ha
stabilito il Tribunale Ue accogliendo il ricorso del New York Times.
La
sentenza – da alcuni già definita storica – era molto attesa non solo per le
sue implicazioni giuridiche, ma anche per il potenziale impatto politico sulla
leadership della tedesca al suo secondo mandato alla guida dell’esecutivo
comunitario.
Il
caso ruota attorno all’ipotesi che la Commissione europea abbia violato le
regole sulla trasparenza:
la
richiesta di accesso agli sms – avanzata dal quotidiano statunitense e dalla
sua giornalista “Matina Stevi” ai sensi delle norme Ue sull’accesso agli atti
delle istituzioni comunitarie – si riferiva ai messaggi di testo scambiati tra
von der Leyen e Bourla tra gennaio 2021 e maggio 2022.
Nella
sua sentenza di primo grado, il Tribunale ricorda che, in linea di principio,
“tutti i documenti delle istituzioni europee dovrebbero essere accessibili al
pubblico”, sottolineando che le risposte offerte da Bruxelles – che ha
sostenuto di non essere in possesso di quei messaggi – “si basano o su ipotesi,
oppure su informazioni mutevoli o imprecise”.
Al
contrario, evidenziano i giudici di Lussemburgo, “Stevi” e il “New York Times”
hanno presentato “elementi pertinenti e concordanti che descrivono l’esistenza
di scambi” tra la presidente della Commissione e il Ceo di Pfizer, superando
così “la presunzione di inesistenza e di non possesso dei documenti richiesti”.
“In
una situazione del genere – spiega ancora la giustizia Ue – la Commissione non
può limitarsi ad affermare di non essere in possesso dei documenti richiesti,
ma deve fornire spiegazioni credibili che consentano al pubblico e al Tribunale
di comprendere perché tali documenti siano irreperibili”.
Bruxelles,
invece, non ha chiarito né il tipo di ricerche effettuate, né dove siano state
condotte, né se gli sms siano stati cancellati, e in che modo. Inoltre, non ha
spiegato perché quei messaggi – scambiati nel quadro del più grande contratto
di vaccini anti-Covid siglato dall’Ue con le case farmaceutiche – “non
contenessero informazioni sostanziali o che richiedessero un monitoraggio e di
cui dovesse essere garantita la conservazione”.
(ansa.it/europa/notizie/rubriche/altrenews/2025/05/14/-il-tribunale-ue-boccia-von-der-leyen-sul-pfizergate-_7d660ccc-66b3-48a2-9f8f-73d3ac69522e.html).
(imolaoggi.it/2025/05/14/pfizergate-tribunale-ue-boccia-von-der-leyen/).
L’infortunio
de “La Lettura.”
Climateranti.it
– (27-2-2017) - Stefano Caserini ,
Sylvie Coyaud, e Alessio Bellucci – ci dicono:
Provate
a immaginare cosa succederebbe se l’inserto culturale del “Corriere della
Sera”, “La Lettura”, ospitasse nelle sue prime pagine un articolo intitolato
“Credetemi, i vaccini provocano l’autismo”, con un confronto fra un
odontotecnico in pensione (che sostiene quella tesi) e un epidemiologo
specializzato in vaccini (che sostiene il contrario).
Probabilmente
scoppierebbe uno scandalo mediatico, o almeno sarebbero sommersi dalle
pernacchie il redattore (responsabile del titolo schierato a supporto di una
delle due tesi – quella infondata), la giornalista (responsabile di mettere
sullo stesso piano le opinioni stravaganti di un incompetente e i fatti di un
esperto del settore) e il direttore dell’inserto (responsabile di aver
dato il massimo rilievo a un articolo
insensato su un tema di grande rilevanza sociale); il direttore del quotidiano
farebbe probabilmente passare loro un brutto quarto d’ora.
Questo
esercizio di immaginazione è necessario per capire perché l’articolo pubblicato
da “La Lettura” del 26 febbraio 2017, intitolato “Credetemi, il clima non è
surriscaldato”, rappresenta un’ulteriore prova del ritardo del mondo della
cultura italiana nel comprendere la gravità del problema del riscaldamento
globale. E del non rendersi neppure conto di quanto questo ritardo possa essere
pericoloso.
L’idea
della giornalista,” Serena Danna”, non è affatto nuova:
un
“dibattito” alla pari fra un negazionista con poche o nulle competenze in
climatologia e un esperto di clima.
Ne
abbiamo visti tanti in passato, anche in televisione.
Essendo
la quasi totalità dei climatologi certa che la terra si sia surriscaldata, dare
spazio a una tesi largamente minoritaria, peraltro sostenuta da un dilettante
in materia, è una cosa poco sensata.
Come lo sarebbe dare spazio all’odontotecnico
che straparla di vaccini.
William
Happer, definito “guida degli scettici del cambiamento climatico”, è una pedina
minore del negazionismo climatico.
Il termine “scettico” per Happer è scorretto sia dal
punto di vista culturale che giornalistico:
si tratta di un fisico nucleare senza alcuna
pubblicazione sul clima, consulente di petrolieri e produttori di carbone e
membro di numerose lobby statunitensi dell’energia da fonti fossili, che si è
dichiarato disponibile a scrivere articoli a pagamento (250 $/ora) sui benefici
della CO2 (sarebbe utile sapere se Happer ha ricevuto un compenso per questo
“confronto”).
La sua presentazione nella colonna informativa si
conclude con “negli ultimi anni il suo lavoro si è concentrato sui dubbi
relativi al riscaldamento globale e ai danni della CO2”, senza precisare che si
è trattato di un “lavoro” da opinionista, senza alcuna pubblicazione
scientifica a supporto.
Nell’intervista,
avvenuta “via skype e mail”, Happer esprime molte opinioni non fondate, che su
Climalteranti abbiamo ormai smentito troppe volte:
la presunta inattendibilità delle misure delle
temperature di superficie, la presunta superiorità di quelle misurate dai
satelliti, la CO2 che non è un inquinante.
Persino,
ancora nel 2017, il maggior riscaldamento della Groenlandia-Terra-Verde ai
tempi dei Vichinghi.
Ma ci
sono alcune piccole e divertenti novità, come l’affermazione secondo cui “le
temperature sono scese rapidamente negli ultimi mesi: a gennaio 2017 sono
tornate ai livelli del 1998 (e del 2004, 2009, 2013 e 2014)”:
invece i dati mostrano come le temperature del
gennaio del 2017 sono scese così tanto da risultare… fra le prime cinque più
calde mai registrate in gennaio (secondo il dataset NASA, sono le terze più
alte mai registrate).
La
giornalista ha affiancato alle stupidaggini di Happer i commenti di Mark Cane,
professore di Earth and Climate Science alla Columbia University, che diverse
volte però parla d’altro, come se gli fosse stata posta una domanda diversa.
Nel complesso a Harper viene concesso molto
più spazio, nonché l’ultima parola, il titolo e l’occhiello.
Le correzioni di Cane non sono riferite a
Happer, il “dibattito vivace” annunciato on-line non è avvenuto.
Una
delle domande sembra fatta per incitare Happer al complottismo rabbioso e quasi
comico che caratterizza le sue recenti esternazioni:
“Professor
Happer, crede che gli scienziati scettici nei confronti del cambiamento
climatico abbiano vissuto in un regime di paura negli anni della Presidenza
Obama?”
chiede
la giornalista con un’imbeccata politica.
“Assolutamente
sì”, risponde Happer, e cita il caso di un “giovane bravissimo scienziato” che
ha ricevuto minacce e rinunciato a esprimersi in pubblico.
Come
nel caso di altre affermazioni di Happer, ai lettori non è dato sapere se sia
stata verificata, se quel giovane esiste davvero o se rientra anche lui nella
categoria dei “fatti alternativi”.
Oltre
alle parole di Happer, nelle tre pagine de” la Lettura” ci sono altri errori e
facezie.
Il
noto climatologo e oceanografo Mark Cane è definito “L’ambientalista” nel
riquadro che ospita la sua foto, proponendo quindi la contrapposizione fra lo
scettico e il militante verde che non esiste nei fatti.
Al vapore acqueo è assegnata la capacità di
riscaldare l’atmosfera per 30°C (sarebbe interessante capire dove la
giornalista o la redazione abbia trovato questo dato).
Come
quarto gas serra in ordine di importanza per l’effetto serra sono erroneamente
indicati gli “ossidi di azoto (NOx)”, invece del protossido di azoto (N2O).
L’oscillazione della corrente del Pacifico El
Niño è scorrettamente descritta, prima dalla giornalista e poi da Happer, come
un fenomeno dalla periodicità metronomica (“si verifica ogni 5 anni tra
dicembre e gennaio“), e per di più molto recente (“…da quando il fenomeno è
iniziato nel 1998“).
Nel
complesso, l’articolo è un passo indietro persino per i canoni del negazionismo
climatico, che tutto sommato negli ultimi anni ha avuto un’evoluzione.
Oggi di fatto non si discute (quasi) più se il
pianeta si sia riscaldato, e si discute molto meno anche se la colpa prevalente
del riscaldamento attuale sia delle attività umane (di altri colpevoli
credibili non se ne sono trovati).
Si è passati più che altro a dibattere dei
costi e benefici del riscaldamento globale e degli impatti conseguenti, o dei
costi delle politiche sul clima, se siano eccessivi rispetto agli obiettivi e
come ripartirli.
Dopo l’impressionante record delle temperature
globali del 2016, un titolo che metta in discussione l’esistenza del
riscaldamento globale si trova a fatica anche nei blog più disinformati.
Quello
spacciato da “La Lettura” per “dibattito sul clima” è roba vecchia di almeno 10
anni, ormai senza alcun più senso culturale e giornalistico.
In
conclusione, che nel febbraio del 2017 un prestigioso inserto culturale, che
pubblica spesso articoli pregevoli sulle tematiche scientifiche, cada in un infortunio così
clamoroso dovrebbe far riflettere, per cercare di capire quali sono le cause
profonde di tanta approssimazione su un tema così cruciale per la società nei
prossimi anni e decenni.
(Testo
di Stefano Caserini e Sylvie Coyaud, con il contributo di Alessio Bellucci.)
Scienziati
che sbagliano.
Iltascabile.com
– (20-9-2022) – Agnese Codignola – Redazione – ci dice:
Frodi,
omissioni, bugie o errori dei ricercatori: in che modo la scienza può e deve
reagire ai casi più gravi.
Agnese
Codignola è laureata in chimica e tecnologie farmaceutiche.
Dopo
anni nel campo della ricerca, si è dedicata interamente all’attività
giornalistica.
Oggi
collabora con i principali gruppi editoriali italiani (RCS,
Espresso-Repubblica, Il Sole 24 Ore, Focus-Mondadori e altri) occupandosi di
salute, alimentazione, sostenibilità ambientale e scienza in generale.
Il suo
ultimo libro è “Alzheimer S.p.A. Storie di errori e omissioni dietro la cura
che non c’è” (Bollati Boringhieri, 2024).
C’è
una parte consistente della comunità dei neurologi che è convinta, da anni, che
la teoria su cui, fino a oggi, si sono basati quasi tutti gli studi sulla
demenza di Alzheimer sia quantomeno insufficiente: non sarebbe vero, dicono,
che la malattia sia da ricondurre all’accumulo nel cervello di una proteina
chiamata beta amiloide. E così non si sono stupiti, quegli esperti, quando,
qualche mese fa, è stato rivelato che una delle ricerche più citate sul tema, e
pubblicata nel 2006, con ogni probabilità è solo un incredibile collage di
falsi.
Un
patchwork fasullo, costato però decine di miliardi di dollari e due decenni
inutilmente investiti nella ricerca su farmaci e anticorpi contro l’amiloide.
Pochi
giorni prima, a essere portato sul banco degli imputati con accuse analoghe era
stato uno scienziato molto stimato in Italia, all’estero da decenni:
Carlo
Maria Croce, genetista del cancro, più volte chiamato in correità per gravi
falsificazioni di dati, ma più volte candidato al Nobel per la medicina.
E qualche settimana prima, invece, si era
conclusa nel peggiore dei modi (con una condanna in un’aula di tribunale) la
vicenda giudiziaria di un bugiardo seriale, anche lui italiano, che, a causa
delle sue improbabili e tragiche spacconerie, aveva lasciato sul campo diversi
morti:
il chirurgo Paolo Macchiarini, che per anni
aveva sostenuto di poter trapiantare una trachea semi artificiale, trovando
orecchie sensibili prima in Toscana, poi in Spagna, in Russia e in Svezia, fino
al più che prestigioso (finora) Karolinska Institute di Stoccolma.
Sono
casi molto diversi tra loro ma che, sommati a decine di altri, possono portare
a un generale discredito della scienza e, soprattutto, della medicina.
E non importa se parliamo solo di un’esigua
minoranza di tutto ciò che viene riversato on line ogni giorno da migliaia di
ricercatori che onestamente raccontano i propri risultati, e permettono così
alle rispettive discipline di progredire lentamente, in modo incrementale, tra
errori e battute d’arresto, com’è fisiologico.
Chiunque
abbia masticato ricerca sa che la scienza ha gli anticorpi per smascherare le
truffe:
se
nessuno riesce a riprodurre un certo risultato, oppure se lo contraddice in
modo convincente, quel risultato non è mai stato reale.
E per
tutti i risultati “non reali” quel momento, prima o poi, arriva.
Com’è
ovvio, casi come questi, che coinvolgono scienziati all’apice della carriera,
che compromettono il lavoro di una vita inventando risultati, falsificando foto
e diagrammi, vantando o amplificando successi anche laddove vi sono stati
fallimenti, destano stupore.
Anche
perché chiunque abbia masticato ricerca sa che la scienza ha gli anticorpi per
smascherare le truffe:
se
nessuno riesce a riprodurre un certo risultato, oppure se lo contraddice in
modo convincente, quel risultato non è mai stato reale.
E per tutti i risultati “non reali” quel
momento, prima o poi, arriva.
E
allora, ci si potrebbe chiedere, perché provare la truffa sapendo che è solo
questione di tempo prima di giocarsi la reputazione (che nella scienza è quasi
tutto) e, con essa, il posto di lavoro, i fondi e, nel caso della medicina,
danneggiare i pazienti, coinvolgendo poi collaboratori la cui vita scientifica
sarà macchiata per sempre?
Difficile
fornire una risposta: a parte le distorsioni motivate dai conflitti di
interesse (per esempio se si ricevono finanziamenti privati troppo importanti
per la sopravvivenza del laboratorio, eccessivi o opachi), in molti casi si
tratta di lotte per potere o denaro, e di narcisismo patologico, “diagnosi” che
spiegherebbe il distacco di questi ricercatori dalla realtà, e il fatto che non
pensino alle possibili conseguenze, considerandosi più astuti degli altri: di
tutti gli altri, per definizione inferiori.
C’entrano
poi spesso la concorrenza feroce per la distribuzione dei fondi, insieme ad
altri fattori meno scontati quali, banalmente, la pigrizia e la superficialità
nel condurre i test, che possono spingere a inventare di sana pianta risultati
mai ottenuti. Ma la responsabilità non è solo delle bio-star o di coloro che
vorrebbero diventare tali con qualche scorciatoia: è anche dei loro partner,
tra i quali in primo luogo le riviste, e quindi i referee (esperti del settore
chiamati a giudicare anonimamente il lavoro dei colleghi), che non si accorgono
di errori e contraddizioni spesso marchiani, così come dei centri di ricerca,
che incredibilmente non vedono forzature, plagi e invenzioni. Per arginare un
fenomeno che sembra in crescita da anni, il primo passo è individuare le
caratteristiche tipiche della falsificazione scientifica, perché è lì,
primariamente, che si deve intervenire. E gli esempi citati possono aiutare.
Per
arginare un fenomeno che sembra in crescita da anni, il primo passo è
individuare le caratteristiche tipiche della falsificazione scientifica, perché
è lì, primariamente, che si deve intervenire.
Torniamo
al caso dell’Alzheimer allora:
si può
partire dai fatti più recenti, che dimostrano quali catastrofiche conseguenze
possano avere dei dati inventati.
Nel 2022 la “Food and Drug Administration” ha
approvato un anticorpo monoclonale diretto contro la proteina beta amiloide,
l’aducanumab, di Biogen, studiato su 3.000 pazienti di venti paesi.
Il via
libera però è arrivato a diciotto anni di distanza dall’ultimo dato a una
terapia anti Alzheimer, e ha comprensibilmente provocato le dimissioni di tre
membri del comitato nominato dalla stessa FDA per giudicare il trattamento.
Comitato che si era espresso contro con dieci voti su undici: un fatto
inaudito.
Il
panel, infatti, non credeva affatto all’aducanumab:
d’altra
parte la prima conclusione della stessa Biogen era stata che il monoclonale
fosse inefficace.
Solo
in un secondo tempo, analizzando nuovamente i dati, l’azienda ha sostenuto che
esso possa migliorare le funzioni cognitive dei soggetti con malattia in fase
precoce del 22%, e ridurre di un terzo la formazione di placche: al costo di
56.000 dollari all’anno.
E l’agenzia, contro il parere degli esperti da
lei stessa nominati, ha dato il suo benestare.
Tra
coloro che avevano alzato la voce contro il via libera all’Aduhelm (questo il
nome commerciale del monoclonale), c’era anche Matthew Shrag, un neurologo
dell’Università Vanderbildt che, anche per questo, è stato in seguito coinvolto
in una petizione alla FDA per fermare la sperimentazione di un altro farmaco,
il Simufilam, della Cassava Sciences, anch’esso diretto contro la” beta
amiloide”, e tuttora in studio.
La motivazione della richiesta, sottoscritta
da molti neurologi, era stata: i dati dell’azienda sono falsi, inventati e
distorti, come in parte ha poi dimostrato lo stesso Shrag.
Questi
studi, come moltissimi altri, traggono origine da quell’unico paper, pubblicato
nel 2006 su “Nature”, a firma Sylvain Lesné, neurologo dell’Università del
Minnesota Twin Cities, che di fatto, per quasi due decenni, ha monopolizzato la
ricerca sull’Alzheimer, mentre uno sparuto gruppo di dissidenti cercava di
discutere su altre idee per le demenze, scontrandosi con quella che definiva la mafia dell’amiloide.
Poi la
svolta degli ultimi mesi:
Schrag,
che ha avuto accesso alle figure originali usate da Lesné nel paper, ha
agevolmente dimostrato che molte di esse sono collage di altre foto,
copia-e-incolla piuttosto grossolani, e lo stesso hanno fatto numerosi esperti
coinvolti in questa spy story raccontata da” Science”, rivista che non si è
fermata a quello studio ma ha allargato l’inchiesta agli altri lavori (almeno
70) di Lesné, dimostrando che il vizietto era insorto ben prima del 2006, e che
gli stessi artefatti erano rintracciabili in molti altri lavori. In altre
parole, centinaia di studi di base e clinici costati – solo per quanto riguarda
i “National Institutes of Health “statunitensi – 1,6 miliardi di dollari, sono
stati condotti partendo da una paccottiglia scientifica che qualunque laureato
in biotecnologie avrebbe potuto facilmente svelare.
Il
paper del 2006 non è stato ritirato né corretto né dagli autori, né da Nature.
E la FDA non ha ancora accolto la richiesta di fermare
la sperimentazione del Simufilam.
Uno
dei casi di maggior scalpore è quello contro Carlo Maria Croce, genetista del cancro,
accusato da” Nature” di aver falsificato i dati e sovrastimato enormemente la
loro portata, e di averlo fatto per anni.
Anche
le accuse a Carlo Maria Croce, genetista del cancro, sono di aver falsificato i
dati sovrastimando enormemente la loro portata, e di averlo fatto per anni.
In
questo caso l’inchiesta è stata condotta da “Nature”, che ha ripercorso tutta
la storia del discusso ricercatore dell’Università dell’Ohio di Columbus,
membro della US National Academy of Sciences, trovando undici studi ritirati, e
ventuno rispediti agli autori per correzioni sostanziali, e un’infinità di
dubbi su dati di vario tipo segnalati da ricercatori di diversi paesi.
In questo caso, però, è stato l’ateneo di
Croce ad aprire le indagini già cinque anni fa, conducendone almeno tre su
numerosi casi di sospetti plagi e falsificazioni.
Gli esiti di questa inchiesta non sono stati
pubblicati, ma secondo “Nature” sono state dimostrate le responsabilità di due
ricercatrici italiane del gruppo, Michela Garofalo e Flavia Picchiorri.
Croce
sarebbe stato ritenuto colpevole solo della pessima gestione del suo
laboratorio, e per questo “dimissionato” dall’incarico più prestigioso, la “John
W. Wolfe Chair in Human Cancer Genetics”.
Rimane però ancora dipendente dall’ateneo, che
lo paga più di 800.000 dollari all’anno.
E si è
appellato contro la sentenza, perché vorrebbe indietro la sua cattedra, insieme
a un milione di dollari di danni per il disturbo.
Il ricorso non è andato a buon fine e il genetista,
interpellato da “Nature”, ha ribadito la sua linea, e cioè che gli errori, in
un grande team, sono fisiologici e che lui, insomma, non è che può controllare
tutto, e gli attacchi sono motivati solo dall’invidia di colleghi meno
brillanti.
Fin
qui potrebbe trattarsi effettivamente solo – si fa per dire – di inciampi nel
cammino di uno dei laboratori più prestigiosi degli Stati Uniti, sottoposto a
una tremenda pressione affinché produca continuamente risultati.
Ma il punto è che le acque, attorno a Croce,
che nella sua carriera ha ricevuto oltre cento milioni di dollari in “Grant” e
una sessantina di premi, sono agitate da quasi tre decenni, come aveva
ricostruito il New York Times in una minuziosa inchiesta del 2017.
In quel reportage c’era già tutto:
una
sorta di fotocopia delle accuse di falsi e plagi su almeno trenta lavori,
retrodatate fino al 1994 e appesantite da sospetti di poco commendevoli legami
economici con la lobby del tabacco.
Croce
aveva fatto causa al Times, e aveva perso anche in quell’occasione.
Ciononostante, non era successo nulla.
E lui,
famoso anche per la sua collezione privata di grandi dipinti italiani
rinascimentali e barocchi, è tornato al lavoro, sempre seguendo il suo metodo,
ovvero pubblicare un’impressionante quantità di studi, senza soluzione di
continuità.
Studi che, spesso, non hanno avuto le ricadute
epocali che Croce ha sempre vantato, perché i geni individuati e descritti non
erano poi così cruciali, nel cancro.
Il
caso più clamoroso però, e certamente il più drammatico, è quello di “Paolo
Macchiarini”, autoproclamatosi, e poi considerato da molti, fenomeno del
bisturi: è responsabile della morte atroce di almeno sette persone, condannato
(troppo tardi) sia in Italia che in Svezia per “negligenze” e scorrettezze
burocratiche, e al momento latitante (forse in Spagna).
Macchiarini
inizia a proporre il suo strabiliante trapianto di trachea biotech ricoperta di
cellule staminali a Barcellona, nel 2008.
L’allora
assessore alla sanità della Toscana “Enrico Rossi” lo viene a sapere, e fa di
tutto per averlo al “Careggi di Firenze”, dove resta tra il 2010 e il 2012,
anno dei primi guai legali.
Il
recente caso più clamoroso è quello del chirurgo Paolo Macchiarini e del suo
presunto strabiliante trapianto di trachea biotech ricoperta di cellule
staminali: come è stato possibile pubblicare dati di qualità così scadente su
un tema così delicato?
Intanto
Macchiarini inizia una collaborazione anche con l’istituto Karolinska a
Stoccolma, che gli permette di operare.
Gli Interventi sono primi mondiali:
nessuno ha mai effettuato trapianti del
genere, tantomeno di un organo delicato e cruciale come la trachea.
Ma lui procede in Svezia, Russia e Stati
Uniti, senza dati preliminari su modelli animali, senza approvazioni dei
comitati etici, e pubblicando resoconti anche su riviste come “Lancet” (che in
seguito ritira due lavori: studi che non avrebbero mai dovuto essere
accettati), subito considerati da molti colleghi a dir poco lacunosi.
Purtroppo
per la sua folgorante carriera, sette degli otto operati muoiono, quasi sempre
dopo atroci sofferenze e innumerevoli interventi successivi, e anche la
sopravvissuta deve rimuovere la trachea impiantata
. Gli
anatomopatologi che conducono le autopsie parlano di corpi devastati, infetti e
con gravissime dislocazioni di organi.
Eppure,
nonostante questi fatti inequivocabili, e nonostante un curriculum in larga
parte inventato (e non impossibile da verificare), nessuno lo ferma fino a
quando, nel 2012, è “Vanity Fair” a farlo, pubblicando un articolo della
giornalista “Benita Alexander”.
La
donna lo aveva conosciuto durante un reportage su una delle pazienti, una
ragazzina di 13 anni (deceduta poche settimane dopo l’intervento), ma aveva
intrapreso con lui una relazione sentimentale fino al fidanzamento, nonostante
la sua presenza – peraltro già sposato – fosse più che discontinua, e
nonostante promesse assurde come quella di essere uniti in matrimonio a Castel
Sant’Angelo, a Roma, nientemeno che dal Papa, alla presenza tra gli ospiti dei
coniugi Obama, Clinton e Sarkozy.
Qualcosa
evidentemente non torna e “Benita Alexander”, due mesi prima del sì, ingaggia
un investigatore e smaschera il bugiardo patologico.
È
troppo, per un chirurgo di cui tutti parlano, e il reportage ha una tale
rilevanza mediatica che anche i responsabili del Karolinska iniziano a unire i
punti, fino a citarlo in giudizio, per “misconduct”:
processo finito poche settimane fa con una condanna
che non sarà mai eseguita, perché il condannato è irreperibile.
La
storia di Macchiarini è quasi incredibile, e sfocia, con ogni probabilità,
nella patologia psichiatrica.
Tuttavia,
la domanda è:
come è
stato possibile che sia stato semplicemente creduto sulla parola sia prima di
effettuare i trapianti senza prove preliminari, che dopo, una volta che l’esito
era palese?
E
perché gli editor hanno pubblicato dati di qualità così scadente su un tema
così delicato?
“Bo
Risberg”, ex presidente del comitato etico della ricerca svedese, ha definito
la vicenda “la Chernobyl dell’etica”.
Ancora una volta, ciò che emerge è che tutto
si sarebbe potuto fermare, se solo qualcuno avesse letto i numeri e le
spiegazioni date correttamente. Ma nessuno lo ha fatto.
La
manipolazione è sempre più presente (aiutata dalla sempre maggiore facilità
d’uso dei software di elaborazione delle immagini). Ma è vero anche che viene
anche scoperta più velocemente di un tempo.
E la
storia continua a ripetersi.
Ogni
mese, purtroppo, vengono segnalati nuovi studi sospetti:
è
capitato recentemente per esempio con un’esperta di coralli e con uno di ragni
sospettati, anche loro, di aver falsificato i dati.
Per
capire le dimensioni del fenomeno, si può leggere uno degli studi più imponenti
mai condotti sul tema, nel 2016, che su oltre 20.000 paper biomedici aveva
scoperto irregolarità probabilmente fraudolente in 800.
Anche
la ricerca sul COVID ha lasciato spazio a decine di studi prima pubblicati e
poi sbugiardati anche per il successo crescente di piattaforme che consentono
la pubblicazione precoce senza la revisione come BioXRiv e MedRxiv,
patrocinate, tra gli altri, dal British Medical Journal e dall’Università di
Yale.
Il
meritevole sito “Retraction Watch”” tiene il conto di tutti i lavori
scientifici pubblicati e poi ritirati, e anche di quelli definiti zombie e che,
cioè, pur essendo stati ritirati, continuano a essere citati e presi a
riferimento.
Sul coronavirus ne censisce già oltre 250,
parte dei quali usciti sulle riviste “peer review” più autorevoli come quali Science, Nature, Lancet, Blood e New
England Journal of Medicine, che hanno ospitato teorie astruse quali il nesso tra COVID e
5G, tra COVID e cancro e tra COVID e una moltitudine di altre malattie, cause o
trattamenti bizzarri come i suoni terapeutici di una certa lunghezza d’onda.
La
manipolazione è dunque sempre più presente (aiutata dalla sempre maggiore
facilità d’uso dei software di elaborazione delle immagini), ma viene anche
scoperta più velocemente di un tempo, anche grazie alla rete e a siti come “PubPeer,”
che pubblicano denunce motivate anonime e no.
In
più, è sempre più comune l’utilizzo di programmi di intelligenza artificiale
capaci di riconoscere le immagini contraffatte, evidentemente più precisi ed
efficaci di quanto non siano stati sin qui molti editor delle riviste o capi
dipartimento.
Basta insomma spesso uno sforzo neanche troppo
eccessivo per valutare più attentamente gli studi – quando c’è la volontà di
farlo.
A
volte, ovviamente, escono “paper con risultati sbagliati “anche se non si
tratta di frode, ma solo di superficialità, o di errori umani.
Per evitare la diffusione di questi falsi c’è un
rimedio più diretto, per quanto faticoso o umiliante possa sembrare.
Lo ha
dimostrato nelle scorse settimane “Joan Strassmann”, esperta di amebe, quando
ha avuto la determinazione di ritirare un suo lavoro dopo aver scoperto, grazie
a uno studente, alcune incongruenze nei numeri.
“Strassmann”
ha poi voluto raccontare la sua storia in un post:
Ho
dovuto dirlo a profani e scienziati: professori, post doc, familiari, redattori
della rivista in cui abbiamo pubblicato i risultati sbagliati.
La loro risposta è stata uniformemente
positiva.
Nessuno
(tranne me stessa) mi ha rimproverato per incapacità tecniche o per aver perso
tempo o denaro.
Al
contrario, tutti hanno provato a cercare delle giustificazioni (…).
Eppure, la sensazione di aver fallito è stata
difficile da contrastare (…).
Ma
ecco il lato positivo: ho imparato qualcosa, che poi è lo spirito stesso della
scienza.
Ho
imparato che lo stigma che percepivo proveniva principalmente dal mio stesso
ego. (…)
Alla fine ciò che davvero conta è la scienza,
e esercitarla nel migliore dei modi: evitando gli errori con una ricerca
attenta, pensando attentamente a tutti i modi in cui puoi verificare il tuo
lavoro.
Se trovi errori, correggili con onestà e umiltà.
Quando scopri un problema dopo la pubblicazione, ritira il documento. Abbi
fiducia nel fatto che i tuoi colleghi scienziati capiranno. E poi torna al
laboratorio, e ripeti l’esperimento.
Perché
la scienza si basa essenzialmente su qualcosa che è impossibile da imbrigliare
in regole e controlli: la fiducia reciproca, che ogni ricercatore onesto chiede
ed è disposto ad accordare agli altri membri della comunità, e che ogni
ricercatore fraudolento mina alle radici.
Feyerabend,
cento anni contro il metodo.
Doppiozero.com
- Mario Porro - (13 Gennaio 2024) – ci dice:
Quando
apparve nel 1979 (Feltrinelli, l’edizione originale è del ‘75), Contro il
metodo – “abbozzo di una teoria anarchica della conoscenza”, recitava il
sottotitolo – ebbe su molti un effetto liberatorio.
Con lo slancio di un dadaista iconoclasta,
l’autore, Paul K. Feyerabend – nato a Vienna un secolo fa, il 13 gennaio 1924 –
si apprestava a demolire l’ultima forma che l’autorità aveva conservato nel
dissolversi del Moderno, quella della scienza.
Era
stato ufficiale dell’esercito tedesco durante la guerra mondiale, in cui venne
gravemente ferito alla spina dorsale;
tornato
a Vienna, dopo aver studiato Fisica e Filosofia, avrebbe desiderato seguire i
corsi del concittadino Ludwig Wittgenstein a Cambridge, ma il progetto non andò
in porto per la morte dell’autore del “Tractatus” nel 1952.
Feyerabend
dovette “accontentarsi” di un altro supervisor, un viennese di nome “Karl
Popper”, come racconta nell’autobiografia dal titolo “Ammazzando il tempo”
(Laterza, 1994), in cui brillano le doti che lo hanno reso famoso e scomodo al
mondo accademico, l’audacia e la stravaganza di un intellettuale dispettoso.
Al
cuore di “Contro il metodo” sta la rivisitazione della difesa del
copernicanesimo nel “Dialogo sopra i due massimi sistemi”.
Non godendo ancora di solide conferme
empiriche, Galileo deve far ricorso al contributo della retorica, a trucchi
dialettici e tecniche di propaganda nel duello contro “Simplicio e le credenze
ecclesiastiche”.
Dall’altare dei martiri della razionalità, il
fondatore della scienza moderna finiva così relegato nel limbo dei ciarlatani,
e degli imbonitori, dei sofisti che fanno apparire forte il discorso debole e
confidano nella credulità del pubblico.
Non
potendo attenersi ai “fatti”, Galileo deve costruire arte-fatti e spacciarli
per dati oggettivi;
ma la
realtà, ricorda Feyerabend, non è data, è costruita grazie a una messa in
scena, con dispositivi e apparati analoghi a quelli di cui si era servito
Brunelleschi nell’invenzione della prospettiva pittorica (l’esempio si ritrova
in Scienza come arte, Laterza, 1984).
Non
c’è differenza in tal senso fra arte e scienza:
in
entrambi i casi, il gioco non consiste nell’imitare una realtà immutabile
preesistente, ma nel fabbricare una rappresentazione, un allestimento teatrale.
Anche Galileo ha costruito una messa in scena, quella
dell’esperimento, si è servito di meccanismi di proiezione, come il telescopio,
presentati come specchi veritieri della realtà.
L’analogia
fra arte e scienza per Feyerabend non si ferma qui:
quel
che diciamo progresso nella scienza non è che un cambiamento di stile, una
teoria non viene giudicata migliore per la sua maggiore corrispondenza con la
realtà, ma in virtù di un mutamento di gusto.
Il
Novecento è stato il secolo dell’epistemologia, emblematicamente racchiuso fra
l’anno di nascita di Popper, il 1902, e quello della sua morte, il 1994, lo
stesso della morte di Feyerabend.
L’epistemologia
muoveva dalla convinzione che esistesse un metodo, un insieme di procedure e di
regole vincolanti che garantiscono la validità di una teoria, o almeno una
“logica della scoperta scientifica”, per citare il titolo del libro di Popper
del 1934.
Al
principio di verificazione del neo-empirismo del Circolo di Vienna – una teoria
è scientifica se può essere confermata dall’esperienza – Popper contrapponeva
il criterio di falsificabilità:
una
teoria è scientifica se può indicare i suoi falsificatori potenziali, cioè
quali fatti, se accadessero, la renderebbero falsa.
Era un modo per cogliere la lezione della
rivoluzione di Einstein, le cui ipotesi apparivano contro-intuitive, e di
contrapporsi alle velleità di ideologie che si spacciavano per scientifiche
come la psicoanalisi o il marxismo.
Il razionalismo critico di Popper indicava
come metodo l’elaborazione di ipotesi da sottoporre a controllo empirico;
non
per verificarle, perché chi cerca conferme le trova sempre, ma per metterle
alla prova spietata della critica e della sperimentazione.
Si
procede per congetture e confutazioni, non si muove dai fatti osservati per
giungere a elaborare teorie, come vorrebbe il metodo induttivo;
al piano della realtà empirica si giunge
deducendo dalla teoria le implicazioni che la rendono controllabile.
È
questa la strada su cui si muove Feyerabend, come attestano i saggi raccolti in
Il realismo scientifico e l’autorità della scienza (Il Saggiatore, 1983) –
risalenti agli anni fra il ’57 e il ’77 – e “Problemi dell’empirismo “(Lampugnani
Nigri, 1971).
Ma la sua “crociata anti-empiristica” finiva
per colpire anche il maestro Karl Popper che del neo-positivismo si era
definito l’uccisore;
in lui resterebbero “radicali pregiudizi sul sostegno
empirico”, poiché il falsificazionismo continua ad assegnare ad asserti
osservativi il compito di confutare le teorie.
In
realtà, rileva Feyerabend, tutti i nostri asserti sono teorici;
i dati dei sensi non sono neutrali, un
astronomo tolemaico vede un cielo diverso da un copernicano.
Certo i “fatti” sono indipendenti dal
soggetto, ma sono le teorie a stabilire come relazionarsi a essi;
una
concezione realista della scienza favorisce la proliferazione di congetture
concorrenti.
Il
desiderio di Galileo d’interpretare la teoria copernicana come descrizione
oggettiva del cosmo, e non come strumento più rigoroso per il calcolo dei moti
planetari, lo induce a elaborare teorie alternative alla dinamica aristotelica
e a difenderle strenuamente.
Il
Galileo di “Contro il metodo” ha condotto la sua ricerca disobbedendo alle
prescrizioni della Ragione, alle norme legiferate dal tribunale
dell’epistemologo.
Non si
è attenuto né al metodo induttivo dei neo-empiristi, né a quello
ipotetico-deduttivo del falsificazionismo popperiano:
non si possono imporre le rigide norme del
balletto classico a chi si accinge a scalare un’impervia montagna.
Il
rispetto delle regole è il nemico peggiore della ricerca scientifica: per
continuare a essere inventiva la scienza deve rinnegare la fedeltà a ogni
metodologia che voglia in modo aprioristico valutare la pratica dei ricercatori.
Meglio,
suggerisce Feyerabend, affidarsi al principio “ogni cosa può andar bene”: i
metodi sono plurali e circostanziali, da adattare ogni volta alle specifiche
particolarità del libero gioco della ricerca.
Violare
le regole assume allora il valore di unico precetto “razionale” raccomandato
alla scienza, un’attività troppo complessa per venire rinchiusa nei canoni
logico-formali imposti dai metodologi;
i loro principi tengono conto solo della
“scienza dei manuali”, quella che di sé offre l’immagine caricaturale di un
sistema di enunciati coerenti e ordinati con rigore.
Le
proposte degli epistemologi valgono per un mondo ideale, sono simili a castelli
in aria che “hanno molto in comune con le malattie mentali”.
L’imposizione
di regole universali “dall’ultima fila di galleria del teatro della conoscenza”
non può che entrare in conflitto con il processo storico tormentato del farsi
della scienza;
è quel
che metterà in rilievo “Imre Lakatos “a proposito della matematica, al quale
però Feyerabend rimproverava di essere un “anarchico che si vergogna”.
La salda amicizia che li legava – si veda la
corrispondenza raccolta in “Sull’orlo della scienza” (Cortina, 1995) – non
impedisce a Feyerabend di accusare “Lakatos” di essere rimasto fedele all’idea
che il progresso delle scienze sia un cammino di approssimazione alla verità.
Ma non
sarà la verità a renderci liberi (come vuole il Vangelo di Giovanni), “sono lo
scherzo, il divertimento, l’illusione a renderci liberi”.
Feyerabend
ha allargato le crepe del “buon senso” epistemologico di Popper, portando alle
estreme conseguenze la tesi per i cui i fatti sono carichi di teoria;
non esistono allora dati “oggettivi” che
possano valere universalmente da tribunale per accogliere o rifiutare una
teoria, visto che i fatti sono sempre racchiusi in “cornici” che danno loro
senso.
Una prospettiva in cui l’anarchismo di
Feyerabend finiva per incrociare quanto aveva sostenuto “Thomas Kuhn” con “La
struttura delle rivoluzioni scientifiche” (1962, Einaudi, 1969).
Ad
accomunarli era anche la lezione del Wittgenstein delle “Ricerche filosofiche”:
Kuhn richiamava l’oscillazione percettiva di fronte all’immagine ambigua di
un’anatra-coniglio per esemplificare il modo con cui “paradigmi” differenti
orientano lo sguardo sul mondo.
L’evoluzione
della scienza è un percorso discontinuo, non cumulativo, in cui fasi di
“scienza normale”, regolata da un “paradigma” (l’aristotelismo nel pensiero
medioevale o la dinamica newtoniana dal Settecento al primo Novecento), vengono rotte da una rivoluzione.
Le
teorie sono fra loro incommensurabili:
non
esiste un terreno solido di osservazioni neutre a cui ancorare il controllo
sperimentale di teorie in conflitto, dato che il mondo osservato dallo
scienziato tolemaico, ad esempio, non è conciliabile con quello di un
copernicano.
Una conseguenza inaccettabile per chi
difendeva la razionalità della scienza: Popper si scaglierà contro il “mito
della cornice” (Il Mulino, 1995), contro l’idea che le culture, racchiuse entro
rigidi contorni teorici, non abbiano la possibilità di confrontarsi e
dialogare.
Quel
che il Feyerabend ancora popperiano degli anni Sessanta obietta a Kuhn è di
essere rimasto un teorico della “scienza normale” più che delle rivoluzioni, in
sostanza un conservatore.
Lo
attesta il progettato dialogo nel ’65 in cui l’intervento di Kuhn, “Dogma
contro critica” (Cortina, 2000) doveva essere seguito da quello di Feyerabend
(assente per motivi di salute) dal titolo rovesciato, “Critica contro dogma”
(da quell’incontro mancato avrebbe avuto origine il convegno collettaneo i cui
atti sono in Critica e crescita della conoscenza, Feltrinelli, 1976).
In
effetti, per Kuhn il “necessario preliminare” alla rivoluzione è il dogmatico
rispetto delle norme accolte dalla comunità, l’osservanza rigorosa del
paradigma. “Lo scienziato produttivo, per essere un innovatore […], deve essere
un tradizionalista cui piace giocare complicati giochi seconde regole
prestabilite”.
La garanzia del successo delle comunità
scientifiche starebbe in tal senso nella resistenza alle novità, nell’adesione
al pensiero convergente; solo grazie a quest’ultimo il ricercatore può scorgere
le anomalie che intaccano il paradigma in cui si è formato.
Le
discontinuità che spezzano l’apparente linearità del cammino delle scienze
sorgono solo sullo sfondo di una tradizione di ricerca consolidata:
per dirla nel lessico della “teoria delle
catastrofi” di René Thom, è la stabilità strutturale a preparare il terreno
della morfogenesi.
L’obiezione di Feyerabend è che solo
disponendo di un nuovo paradigma si rendono avvertibili le anomalie che
intaccano quello antico.
Dunque, la cosa migliore è la proliferazione di teorie
che possano mettersi reciprocamente in crisi: “Rivoluzione permanente” diventa
lo slogan trozkista che Feyerabend oppone alla normalità della chiusa
cittadella scientifica.
Popper
si era limitato a contestare l’idea della scienza come episteme, sapere fondato
sulla salda roccia dei fatti oggettivi;
è
costruita su palafitte, su congetture che sono frutto dell’inventiva dello
scienziato, ardite costruzioni sempre fallibili.
La
scienza rientra nell’ambito della “doxa”, di un sapere incerto che si muove
comunque nello “spazio delle ragioni” consolidato dal dibattito critico, dalla
disponibilità al “dialogo”, dalla sincerità nel riconoscere il giudizio dei
fatti – ed è questo il tratto alla base della civiltà occidentale.
Il
percorso senza fine della ricerca resta per Popper un progresso in cui ci si
approssima alla verità per tentativi ed errori, un’evoluzione darwiniana in cui
vengono via via eliminate le teorie inadatte.
Il Feyerabend che prende sempre più distanza
da Popper – accusato di non aver avuto nemmeno un’amante fra le sue studentesse
– non si limita a considerare una favola l’esistenza di un metodo scientifico.
Dalla
concezione di una razionalità flessibile, capace di riconoscere i propri limiti
(l’opportunismo dello scienziato di cui Einstein era pronto a vantarsi),
Feyerabend giunge al disconoscimento del valore della scienza, una delle tante
forme di pensiero che l’uomo ha sviluppato, non necessariamente la migliore.
Esemplare
in tal senso il caso della medicina affrontato nel “Dialogo sul metodo”
(Laterza, 1989): perché non dovrebbe essere lasciata al cittadino la libertà di scegliere
fra l’invasiva e interventista medicina ufficiale e pratiche dolci come
l’agopuntura?
Una
società libera è quella in cui tutte le tradizioni godono di uguali diritti,
possono venire insegnate ed entrare in aperta concorrenza, per poi lasciare che
siano gli individui a scegliere la strada che prediligono.
L’anima
californiana di Feyerabend, docente a Berkeley a partire dal ’68, finiva così
per minare l’autorità della scienza, non più giustificata dal richiamo
galileiano alle sensate esperienze e alle necessarie dimostrazioni.
La posizione eminente che essa svolge nelle società
sviluppate non avrebbe giustificazioni razionali, sarebbe solo il segno della
conquista del potere da parte della “setta” degli scienziati, che hanno
sostituito gli antichi sacerdoti.
Il finale di “Contro il metodo” proclamava
l’obiettivo di “liberare la società dalla presa soffocante di una scienza
ideologicamente fossilizzata, come i nostri antenati ci hanno liberati dalla
presa soffocante dell’”Unica Vera Religione”.
In La
scienza in una società libera (Feltrinelli, 1978), Feyerabend sosteneva che i
pre-giudizi degli scienziati costituiscono un rischio per la democrazia, in
quanto limitano le possibilità di altre tradizioni culturali (miti, religioni e
credenze condannate perché irrazionali) di esprimersi.
Nel
volersi custode esclusiva della verità e unico arbitro delle controversie, la
scienza stessa si fa portatrice di oscurantismo:
dall’atteggiamento critico come connotato
proprio alla scienza, Feyerabend passa alla critica della scienza, accusata
proprio di quell’autoritarismo contro cui aveva lottato all’epoca di Galileo.
Seguace di un pensiero liberale che non
disdegnava di richiamarsi a” John Stuart Mill”, Feyerabend ha annunciato “la
morte del Dio della scienza”;
se,
ricordava Popper, per chi ha assaggiato l’albero della scienza non esiste
paradiso, la prospettiva di Feyerabend ci fa precipitare nell’inferno in cui
tutto è possibile e tutto va bene.
Non solo verrebbe meno la possibilità di
comunicare fra prospettive diverse, ma, in assenza di criteri “razionali” per
distinguere il vero dal falso, la scelta fra teorie sarebbe affidata solo alla
forza dei gruppi di pressione economica o delle maggioranze politiche del
momento.
Nel
saggio” Addio alla ragione” (Armando, 1990), Feyerabend si schierava in difesa
di “Bellarmino”, il cardinale che aveva invitato Galileo a parlare del
copernicanesimo solo “ex suppositione “e non come teoria corrispondente alla
realtà (ma era anche il cardinale che aveva condotto il processo a Giordano
Bruno).
Non
sorprende che il pensiero di Feyerabend, pronto a condurre le argomentazioni
fino al paradosso, a schierare la razionalità contro se stessa, abbia subito
l’ostracismo della comunità degli scienziati e degli epistemologi.
Negli ultimi mesi della sua vita Feyerabend
rifletteva sul potere totalitario della ragione che, formando concetti
generali, riporta all’identico quel che appare diverso e disperde sotto
l’universale lo specifico e l’irregolare (Conquista dell’abbondanza, Cortina,
2002; manoscritto ricostruito per volontà della moglie italiana, Grazia
Borrini).
“La scienza occidentale ha infettato il mondo come una
malattia contagiosa”, l’astrazione teorica provoca la distruzione
dell’abbondanza, un progressivo (anche nel senso di frutto del progresso)
saccheggio del mondo fisico e mentale, ridotto a una “Terra desolata”.
Lo
spirito polemico di Feyerabend si rivolge all’ideale che sta all’origine del
pensiero dell’Occidente, quell’ideale parmenideo e platonico che, in nome della
Verità, va in cerca di idee perfette e immutabili, della realtà profonda
nascosta sotto il velo dell’apparenza.
L’indagine
genealogica torna all’origine del miracolo greco, alla comparsa del logos,
quando il presocratico Senofane sostituisce con un Dio unico l’omerica e
variopinta ricchezza delle divinità olimpiche.
È il peccato originale della “reductio ad unum”
che troverà la sua incarnazione massima nella scienza moderna:
il
mondo perde la variegata pluralità di suoni e colori per ridursi nelle gabbie
di leggi quantitative del moto che impongono regolarità e stabilità.
Quel
trionfo della Ragione che sarà celebrato dalla Modernità era in realtà l’esito
di un percorso storico singolare, la comparsa di una specifica “forma di vita”
(termine wittgensteiniano) in cui domina l’universale come equivalente
generale, analogo al denaro che sostituisce gli oggetti diversi da barattare.
La strategia logico-argomentativa cancella i
saperi incerti delle tecniche artigianali:
il “cuore di tenebra” della missione
civilizzatrice dell’Occidente annulla concezioni traboccanti d’interpretazioni
possibili del mondo, in cui l’esperienza sensoriale manteneva viva una
relazione corposa con la molteplicità degli esseri.
Una
concezione monolitica, governata dalle astrazioni fisico-matematiche ed
economiche, apre la via al mondo uniformato dalla globalizzazione che si va
“riempiendo di conoscenza, puzza, armi e monotonia”.
Non
esiste una sola modalità valida di conoscenza, ce ne sono (ce n’erano) molte,
valide “nel senso che mantenevano la gente viva e rendevano la sua esistenza
comprensibile”.
La
pretesa dei cultori della Scienza di porsi come esclusivi e indiscussi
portavoce della Realtà non è che l’espressione tirannica di una tradizione
locale che vuole farsi globale.
Credevamo
che la modernità coincidesse con il razionalismo critico delle scienze, con la
loro capacità di auto-correggersi – la virtù condivisa con la democrazia,
suggeriva Popper –, che l’universalità dei diritti umani facesse il paio con
l’universalità delle leggi fisiche, quando invece, suggerisce l’autore di “Contro
il metodo”, l’ideologia della Razionalità scientifica distrugge l’abbondanza
dell’abito di Arlecchino del mondo.
Convinto che “ogni cultura sia in potenza
tutte le culture” e che esista sempre la possibilità di comprensione fra di
esse, Feyerabend predica la tolleranza nei confronti di pratiche e tradizioni
“non scientifiche”, ma rischia così di annullare le ragioni per cui oggi
Galileo può con-vincere i tanti “Simplicio” del nostro tempo.
La
provocazione di Feyrabend ci ha costretto a tornare su quell’evidenza che Bruno
Latour chiamava la “grande Partizione” fra Noi e gli Altri da cui sarebbe sorta
la Modernità.
Noi,
la Civiltà custode della Verità oggettiva e dei saperi efficaci per comprendere
e dominare il mondo;
gli Altri, primitivi e arcaici, immersi nelle
illusioni, ricche ma fuorvianti, incapaci di distinguere la realtà dalle
proiezioni del desiderio, di separare la Natura dalla Cultura.
“Non
esiste nessuna ragione ‘oggettiva’ per preferire la scienza e il razionalismo
occidentale ad altre tradizioni”.
Dall’epistemologia
– di cui ha dichiarato la fine, “The End of Epistemology” recita il titolo di
un suo saggio in” La conquista dell’abbondanza “– siamo passati alle “politiche
della ragione”: un risultato scientifico non sarebbe molto diverso dall’esito
di una complicata contrattazione politica.
Non
sorprende che Feyerabend si sia richiamato alle indagini di “Bruno Latour”,
agli approcci di sociologia o di antropologia della scienza che rivolgono alle
pratiche di laboratorio lo sguardo che un tempo gli antropologi dedicavano a
civiltà lontane e straniere.
Errori
e valori nella scienza.
Ilpunto.it
- Raffaella Campaner – Filosofa – (7 Aprile 2025) – ci dice:
Alcune
riflessioni a partire dal concetto di oggettività.
Riflettere
su errore e incertezza nella scienza significa interrogarsi sui suoi obiettivi
e sui limiti delle aspettative che possiamo avere nei suoi confronti.
La
scienza non è priva di valori, ma la sua oggettività emerge dall’efficacia dei
suoi metodi, dalla convergenza dei risultati e dal confronto tra comunità
scientifiche.
La
conoscenza scientifica è influenzata dai valori sociali e culturali, e il suo
progresso dipende da un confronto aperto tra punti di vista diversi.
La
scienza deve bilanciare la necessità di essere inclusiva e democratica con il
riconoscimento dell’expertise.
L’errore
non è necessariamente un fallimento, ma parte integrante del metodo
scientifico, che si basa sull’autocorrezione e sulla revisione continua delle
conoscenze.
Discutere
di errore e incertezza in ambito scientifico significa anzitutto riflettere su
quali sono gli scopi della scienza e cosa è appropriato e ragionevole
aspettarsi da essa.
Intuitivamente,
ci preoccupa una scienza che si muove nell’ambito dell’incertezza, e provoca il
nostro disappunto una scienza che sbaglia.
Affidiamo
alla conoscenza scientifica il compito di fornirci descrizioni corrette delle
proprietà dei fenomeni, spiegazioni valide dei loro comportamenti, previsioni
affidabili relative al loro evolvere.
Le nostre aspettative, e i modi in cui le
formuliamo, sono ragionevoli?
Che
cosa è legittimo attendersi dall’impresa scientifica e che cosa, invece,
travalica i suoi scopi e le sue possibilità?
Affrontare
questi temi consente di fornire una cornice preliminare a qualunque riflessione
su incertezza ed errore nella scienza.
La
scienza è oggettiva?
Alla
conoscenza scientifica è riconosciuta un’autorevolezza superiore a quella che
viene riconosciuta ad altre forme di conoscenza.
Se vogliamo sapere com’è fatto il mondo, quali
strumenti è più appropriato adottare per raccoglierne le sfide e quali per
intervenire sul corso degli eventi – se e quando ciò è possibile – è alle
scienze che ci rivolgiamo.
Ha senso, tuttavia, affermare che è corretto
fidarsi della scienza perché la conoscenza scientifica è “oggettiva”?
Che
cosa si intende per “oggettività scientifica”?
L’equiparazione
dell’oggettività a una totale assenza di valori è stata da tempo criticata in
ambito filosofico:
qualunque
elaborazione di conoscenza, in quanto attività promossa da esseri umani, non
può non essere legata a un qualche punto di vista, a uno dato insieme di
conoscenze preliminari, a interessi rispetto a una certa indagine e ai suoi
obiettivi.
Riconoscere che la scienza ospita elementi
valoriali nulla toglie, però, alla sua capacità di rappresentare la realtà.
Si
tratta piuttosto di declinare meglio la nozione di oggettività scientifica,
delineandone diverse possibili angolature.
In
primo luogo, la scienza può dirsi oggettiva nella misura in cui ci consente
delle interazioni efficaci con il mondo esterno:
l’efficacia
della sperimentazione e delle azioni volte a controllare i fenomeni o a
modificarne il corso – si pensi in medicina a tutto ciò che concerne la cura –
costituisce una prova tangibile del rapporto diretto tra la conoscenza
scientifica e il mondo.
In una seconda accezione, l’oggettività può
essere interpretata come convergenza:
in molti casi, vari filoni di indagine,
indipendenti l’uno dall’altro, conducono agli stessi risultati, o a risultati
molto simili, indicando così un avvicinamento progressivo e non casuale alla
realtà.
Ulteriori modi di concepire l’oggettività
hanno a che vedere con i processi di costruzione della conoscenza scientifica,
fortemente sociali:
la
scienza è sempre frutto del lavoro congiunto di un gruppo di scienziati, che
collaborano e si confrontano, adottando certi strumenti, tempistiche, e quadri
di riferimento teorici.
Si può quindi parlare di oggettività
procedurale, garantita dall’affidabilità di metodi condivisi, di oggettività
come concordanza, enfatizzando il convergere delle posizioni tra gruppi di
ricerca diversi, o di oggettività interattiva, raggiunta tramite dialoghi e
dibattiti tra gli scienziati.
La
scienza si può pertanto concepire come oggettiva non perché perfettamente
neutrale o asettica, ma perché i valori che – innegabilmente – si ritrovano nel
discorso scientifico orientano la raccolta e l’utilizzo dell’evidenza, ma non
si sostituiscono mai ad essa.
La
loro presenza non costituisce un elemento di debolezza della conoscenza
scientifica:
“i valori non sono né uniformi né
uniformemente ‘cattivi’.
La varietà di forme e di funzioni dei valori
viene riconosciuta, e il ruolo di alcuni di essi viene considerato necessario
allo sviluppo razionale della conoscenza scientifica”.
Scienza,
valori, democrazia.
Occuparsi
di valori non significa occuparsi di qualcosa di estraneo alla razionalità,
alla sistematicità, all’argomentazione rigorosa.
Il dibattito teorico distingue tra valori
conoscitivi (o cosiddetti epistemici) e non.
I primi includono coerenza, precisione,
semplicità, efficacia predittiva, …, mentre i secondi fanno riferimento a
opinioni individuali, prospettive culturali, religiose, ecc.
In termini generali, i valori esprimono ciò
che si ritiene importante in un certo contesto e, quindi, ciò che influenza
interpretazioni e azioni.
Anziché
insistere sulla ricostruzione di processi orientati al raggiungimento astratto
di “Verità” e “Progresso”, è opportuno comprendere come i valori sociali e
culturali mutino nel tempo, influenzando convinzioni, preferenze, strategie.
Ma di
chi sono i valori che giocano un ruolo nella scienza?
Sono i valori di singoli individui, di gruppi di
individui, o della società nel suo insieme ad avere un peso nella costruzione
di conoscenza, anche scientifica?
Di fronte a una qualche porzione di conoscenza
scientifica, chiediamoci: quali erano le assunzioni e gli obiettivi degli
scienziati che l’hanno prodotta? Quali metodi hanno usato? C’erano altre
comunità epistemiche che vedevano le cose in modo diverso?
Idealmente,
la scienza dovrebbe emergere da un processo democratico, che sappia valorizzare
tutti i punti di vista validi, confrontando scuole di pensiero e metodologie,
attraverso conferenze, convegni, pubblicazioni e dibattiti promossi sulle
riviste e sui volumi accreditati entro il settore di riferimento, con procedure
di referaggio cieco.
È
attraverso il dialogo trasparente e il rispetto delle diverse prospettive che
la scienza cresce, esplicitando anche il pensiero delle minoranze e
minimizzando i “bias” e le possibili distorsioni da parte di elementi
socio-politici ed economici.
Una scienza democratica dovrà evitare di
assumere a priori la preminenza di una posizione sull’altra, e favorire invece
il dialogo tra le parti, consapevole del ruolo dei contesti.
“Il
grado di integrazione, così come i livelli di accuratezza e di semplicità
[della conoscenza scientifica ottenuta] varieranno in funzione tanto di ciò che
è possibile quanto degli scopi per i quali ci prefiggiamo di utilizzare quella
certa porzione di conoscenza”.
Le comunità scientifiche non cercano la verità
simpliciter, bensì particolari “tipi di verità”, riferiti a certi ambiti
disciplinari e certi oggetti di studio, e perseguiti per determinati obiettivi,
diversi da caso a caso:
“la verità non è opposta ai valori sociali,
anzi, essa è un valore sociale […]
Un resoconto sociale della conoscenza indica
che gli obiettivi a cui punta l’ideale della scienza come attività immune da
valori vengono raggiunti più facilmente proprio se il ruolo costruttivo dei
valori viene riconosciuto, e la comunità viene strutturata in modo da
consentire una loro considerazione critica”.
Riconoscere
questi elementi non significa che non si possano distinguere all’interno
dell’attività scientifica procedure e obiettivi adeguati e inadeguati;
riconoscere l’esistenza di una pluralità di punti di vista non significa
accettarli tutti. La scienza è chiamata a garantire la tolleranza e, per quanto
possibile, l’interazione tra punti di vista differenti, promuovendo
“l’integrazione di diversi sistemi per scopi specifici, la cooptazione di
elementi benefici trasversali rispetto ai sistemi, e la competizione produttiva
tra sistemi diversi”.
Questa
prospettiva è ben lontana dal relativismo: non si tratta di una visione del
tipo “qualunque posizione va bene (“anything goes”), bensì di un approccio del
tipo “molte posizioni vanno bene” (“many things can go”), dove la riflessione
sulla scienza viene esortata a considerare con attenzione non solo i risultati
ottenuti, ma anche i processi che hanno portato ad essi.
È
attraverso il dialogo trasparente e il rispetto delle diverse prospettive che
la scienza cresce, esplicitando anche il pensiero delle minoranze e
minimizzando i “bias” e le possibili distorsioni da parte di elementi
socio-politici ed economici.
I
valori di chi? La società e gli esperti.
Difendere
il carattere democratico della scienza ci interroga altresì sui suoi potenziali
rischi:
quanta
diversità di visioni è ammissibile e auspicabile?
Come
possiamo evitare che, nel cercare di non escludere apporti rilevanti, si
finisca per valorizzare contributi che non sono rigorosi, avvallando così
approcci pseudo-scientifici e rischiando di alimentare, d’altro canto, un
atteggiamento di sfiducia dei confronti delle scienze?
Come garantire che la razionalità scientifica
emerga dal confronto tra una pluralità di prospettive diverse che
contribuiscono in modo equilibrato all’ottenimento di una conoscenza
scientifica pienamente affidabile?
L’antidoto fondamentale all’inclusione di
posizioni scorrette è rintracciabile in un’attenta configurazione dei concetti
di expertise e di esperto, e nel loro riconoscimento collettivo.
Questo
processo comporta il coinvolgimento di laboratori, centri di ricerca,
università, sedi editoriali, società scientifiche, riviste accreditate, …, in
cui la comunità scientifica si identifica come tale e attraverso cui opera,
definendo un nucleo di standard comuni e di luoghi (reali e virtuali) di
condivisione e controllo dei risultati della ricerca.
Senza
assumere posizioni autoritarie, l’esperto nei diversi contesti deve poter
esercitare la sua azione di scienziato competente ed autorevole, la cui voce ha
un peso diverso rispetto a quella del non-esperto.
In
altri termini, il problema centrale consiste nel mantenere un equilibrio tra
l’affermazione di una scienza democratica e il riconoscimento di cosa conta
come expertise, come autentica competenza.
La
ricerca costante di tale equilibrio coinvolge tutti gli scienziati, il loro
ruolo di fronte alla società e le relazioni tra loro:
“L’impegno
collettivo rispetto a dei valori conoscitivi incorpora un elemento di mutua
fiducia. Gli scienziati si fidano dei risultati ottenuti da altri scienziati
perché assumono che i loro colleghi scienziati condividano gli stessi valori
nella ricerca di nuova conoscenza”.
Il
problema centrale consiste nel mantenere un equilibrio tra l’affermazione di
una scienza democratica e il riconoscimento di cosa conta come expertise, come
autentica competenza. La ricerca costante di tale equilibrio coinvolge tutti
gli scienziati, il loro ruolo di fronte alla società e le relazioni tra loro.
Queste
riflessioni portano a interrogarsi sulle responsabilità della scienza di fronte
alla società: chi certifica chi è “l’esperto”?
Chi dà
garanzia di una “conoscenza certificata”?
“La
fiducia è creata da robustezza sociale, legittimità dell’esperto, e
partecipazione sociale”.
Agli
scienziati la società affida il compito di attivare e seguire procedure di
verifica del proprio lavoro, attraverso controlli incrociati della qualità
della produzione scientifica.
Questi
ultimi sono oggetto oggi di ulteriori dibattiti interni alla scienza, che
periodicamente rivisita i metodi di valutazione della ricerca e i risultati
della stessa.
“Il
vero problema non è se gli individui all’interno di un certo comitato
scientifico siano mossi da qualche tipo di “bias”, ma come i bias siano
distribuiti all’interno di un certo gruppo.
In questo senso, il problema dei “bias”
diviene un problema istituzionale, piuttosto che individuale.
E, di
conseguenza, i meccanismi che portano a risolvere il problema dei
condizionamenti e delle distorsioni non dovranno concentrarsi sulla loro
eliminazione a livello individuale, bensì puntare a designare istituzioni che
portino gli effetti di “bias individuali” a neutralizzarsi l’un l’altro”.
In questo senso, “la fiducia personale viene
sostituita dall’appello a una conoscenza certificata e alle istituzioni
deputate a darne garanzia”.
Tutto
ciò che contribuisce a costruire conoscenza scientifica può contribuire in modo
significativo a comprenderne correttamente non solo i progressi, ma anche gli
errori – veri o presunti.
Rispetto
a possibili crisi di fiducia nella scienza, una migliore spiegazione della sua
natura, delle sue dinamiche, della rivedibilità all’accrescersi dei dati può
avere un effetto fortemente positivo.
Quello
che la riflessione teorica può far comprendere è, tra l’altro, che l’errore non
è sempre un problema, e non è sempre segno di cattiva scienza, o di
non-scienza.
“La
scienza è, dopo tutto, un lavoro in corso, che cambia a mano a mano che nuove
scoperte portano a revisioni e risistemazioni di interpretazioni già accettate.
La
storia della scienza costituisce una narrativa potente di questa cultura
dell’auto-correzione, ed è l’essenza della scienza cercare di compiere scoperte
che cambino il modo di pensare degli scienziati”.
È per questo che portare alla luce tutto ciò
che contribuisce a costruire conoscenza scientifica può contribuire in modo
significativo a comprenderne correttamente non solo i progressi, ma anche gli
errori – veri o presunti.
(Raffaella
Campaner -filosofa.).
La
Scienza rinnegata e
le
Democrazie a rischio.
Odisseo.it
- Antonio Musarò – (19 Febbraio 2025) – ci dice:
C’è
probabilmente una strategia politica in quello che sta facendo Trump.
Le
democrazie mature si riconoscono quando promuovono una società della conoscenza
e una cittadinanza scientifica.
L’annientamento
alla società della conoscenza è iniziato da tempo;
la pandemia da Covid-19 ha fatto emergere, da
una parte, quanto fondamentale sia la scienza per far fronte a sfide sempre più
impegnative e dall’altra quanto potente sia anche la lobby dell’anti-scienza.
Buona parte dei governi del mondo, o se non
altro interi partiti politici, hanno dato voce e ora riabilitato i “no vax” e
complottisti vari.
Abbiamo
assistito, nel tempo, a governi che hanno autorizzato cure non efficaci o non
comprovate, come la “terapia Di Bella”, il “metodo Stamina”, l’”omeopatia”.
Ancora
oggi, nonostante sia stato ampiamente dimostrato che non esiste alcuna evidenza
scientifica di efficacia terapeutica dell’omeopatia, l’Italia autorizza il
rimborso, con una cifra che si aggira intorno a 50 milioni di euro l’anno, di
terapie omeopatiche basate su teorie di fine 1700 e confutate dalla medicina
moderna.
La
storia, peraltro, ci insegna come il pensiero scientifico sia stato ed è spesso
osteggiato; dal fanatismo religioso del medioevo, al negazionismo e postverità
del nostro secolo.
Un
caso emblematico è quello di “Ipazia di Alessandria”, matematica e astronoma
del IV secolo d.C., accusata di blasfemia e anticristianesimo dal vescovo
Cirillo e brutalmente assassinata, da una folla di fanatici religiosi, per la
sua libertà di pensiero.
Il
Rinascimento e l’Età Moderna, nonostante portarono ad una rinascita del
pensiero scientifico, hanno anche visto forme di repressione.
Il
caso più noto è quello di Galileo Galilei, condannato dall’Inquisizione nel
1633 per aver sostenuto il modello eliocentrico di Copernico, in contrasto con
la visione geocentrica di Tolomeo e sostenuta dalla Chiesa cattolica.
Galileo
fu costretto all’abiura:
“Con
cuor sincero e fede non finta, abiuro, maledico e detesto li suddetti errori et
heresie”.
Tuttavia,
se l’abiura era stata pronunciata per soddisfare l’egocentrismo del pensiero
religioso e avere salva la vita, il metodo scientifico elaborato da Galileo
aveva ormai squarciato il modo dogmatico di osservare le cose.
Nonostante
quel portentoso e rivoluzionario movimento di idee che sembrava aver mutato per
sempre non solo l’immagine dell’universo, ma anche la concezione del sapere,
non più dogmatico ma basato sul pensiero razionale, si è assistito nel recente
passato ad un annientamento del pensiero scientifico.
In Germania, il regime nazista ha censurando
scienziati come Albert Einstein, promuovendo teorie pseudoscientifiche basate
su pregiudizi razziali, sostenute in Italia dal regime fascista.
Oggi,
nonostante gli enormi progressi scientifici e tecnologici che hanno permesso di
sconfiggere malattie, esplorare nuovi mondi, indagare i segreti della natura,
accorciare le distanze non solo geografiche, ma anche sociali si assiste,
sebbene con modalità diverse dal passato, ad un continuo attacco alla scienza.
È
quello che succede anche nel campo della ricerca scientifica che fa uso di
modelli animali, continuamente sotto attacco da associazioni di animalisti e da
chi fa da megafono mediatico ad una pervicace disinformazione.
Il progresso della ricerca biomedica per
trovare rimedi alle malattie, nuovi farmaci, nonché per fornire le basi del
sapere medico e veterinario richiede, in molti ambiti, di ricorrere alla
sperimentazione animale, la quale è peraltro rigorosamente regolamentata.
Tuttavia,
la disinformazione alimenta spesso l’odio verso chi è ritenuto non funzionale
al “senso comune”.
E
spesso arrivano agli scienziati anche le pallottole e le minacce di morte.
E
così, anche le democrazie cosiddette evolute hanno mostrato e continuano a
mostrare forti limiti nel garantire la costruzione di una vera cittadinanza
scientifica, che significa garantire la libertà di ricerca e il libero accesso
al sapere, sostenere la scienza e le sue necessità, garantire un lavoro
dignitoso e una giustizia sociale, stimolare il pensiero critico, legiferare e
amministrare la cosa pubblica non solo con disciplina e onore, ma anche con
competenza e atteggiamento non pregiudizievole.
Una
democrazia matura deve saper promuovere la cultura e la scienza a tutela di
tutti, soprattutto degli adolescenti e dei giovani che hanno assoluto bisogno
di testimoni credibili e affidabili, soprattutto nel nostro tempo che rischia
di essere “liquefatto”, poco definito e “relazionalmente fragile”;
significa anche trasmissione sapiente alle
giovani generazioni dei valori, delle responsabilità, dei confini e
dell’autorevolezza propri di chi intenzionalmente vuole lasciare e non
trattenere saperi egocentrici/autoreferenziali, ma che sente che i propri
saperi sono e devono essere al servizio degli altri, in particolare di chi sta
costruendo il suo futuro identitario.
Il
potere della cittadinanza scientifica nella promozione di una democrazia matura
è molto ben esplicitato nell’opera monumentale e pionieristica
dell’Enciclopedia o Dizionario ragionato delle scienze, delle arti e dei
mestieri, curata da” Denis Diderot” e “Jean D’Alembert” nel 1751, in cui si
dichiara che un popolo non può definirsi veramente libero e non può aspirare al
progresso se gli è negato il libero accesso alle fonti del sapere scientifico e
tecnico.
Non a
caso, nel 1752 un Decreto regio ne censurava i primi due volumi, nel 1759 il
Consiglio di Stato revocava la licenza alla stampa e papa Clemente VIII ne
proibiva l’acquisto e scomunicava i fedeli che ne avessero conservato copie.
Quest’opera
ha forse ispirato anche i padri costituenti della Repubblica Italiana che hanno
voluto affermare la “potenza democratica” della cultura e della ricerca
scientifica codificandola negli articoli 9 e 33 della Costituzione della
Repubblica Italiana:
“La
Repubblica promuove lo sviluppo della cultura e la ricerca scientifica e
tecnica” (art. 9); L’arte e la scienza sono libere e libero ne è
l’insegnamento” (art. 33).
Capita
invece di assistere a continui “infarti democratici”;
questo
accade quando il potere dell’educazione, della cultura, del progresso
scientifico spaventa i governanti e decisori politici e pertanto viene
“violentemente” osteggiato.
È
quello che sta succedendo in quella che si pensava fosse la fortezza della
democrazia: gli Stati Uniti d’America.
Il
presidente degli Stati Uniti, Donald Trump, subito dopo il suo insediamento
alla Casa Bianca il 20 gennaio 2025, ha firmato una serie di ordini esecutivi
rivolti alle principali agenzie scientifiche del Paese per sospendere le loro
normali attività ed occuparsi di compiti che sono un vero annientamento alla
cittadinanza scientifica: blocco di nuovi finanziamenti, revisione di quelli
già approvati, ritiro di articoli scientifici in fase di pubblicazione,
rimozione dalle pubblicazioni scientifiche di termini ritenuti sgraditi alla
linea politica del governo, tra cui la diversità di genere e l’inclusione.
Allo stesso tempo, Trump ha firmato un ordine
esecutivo per l’uscita degli Stati Uniti dall’OMS.
In
Italia, il partito politico della Lega, ha annunciato un disegno di legge per
abrogare l’adesione dell’Italia all’OMS;
se
questo dovesse accadere, il rischio sarebbe di avere conseguenze impattanti
sulla salute dei cittadini in quanto si determinerebbe la perdita di accesso a
dati sanitari globali, alla sorveglianza delle malattie e alle risorse
condivise per sviluppare, come accaduto con la Covid-19, vaccini e terapie.
Donald
Trump ha preso di mira anche gli sforzi per rendere la scienza più inclusiva,
in particolare sulle questioni di genere e disabilità.
Gli scienziati finanziati dal Governo Federale
sono stati obbligati, per direttiva politica, a eliminare qualsiasi termine
associato a quella che una parte del Partito Repubblicano definisce “ideologia
di genere”.
C’è
probabilmente una strategia politica in quello che sta facendo Trump e molti
politici che lo seguono, anche in casa nostra:
silenziare
chi produce cultura e chi promuove una cittadinanza scientifica per avere
meglio il controllo su tutto.
Malala
Yousafzai, la coraggiosa ragazza Pachistana, premio Nobel per la pace, a cui
non solo è stato negato il diritto allo studio, ma è stata anche gravemente
ferita nel 2012 dai talebani per la sua attività a favore dell’istruzione delle
bambine, nel suo discorso alle nazioni unite (ONU) afferma:
“abbiamo
capito l’importanza delle penne e dei libri quando abbiamo visto le armi. Il
saggio proverbio la penna è più potente della spada dice la verità. Gli
estremisti hanno paura dei libri e delle penne.
Il
potere dell’educazione li spaventa.”
Siamo
ora arrivati a constatare che a sparare non sono solo gli estremisti, ma una
popolazione di giovani con situazioni familiari complicate, incapaci di
relazioni sociali, emarginati da una scuola incapace di educare e quindi si
alimentano frustrazioni, fallimenti e fragilità psicologiche.
Prima
si andava scuola con i libri e le penne, ora con le armi;
ed è
significativo come la risposta all’ennesima strage di studenti in una scuola
americana sia stata non quella di trovare soluzioni che potessero migliorare
l’educazione scolastica, la salute psicofisica, culturale, emotiva, sociale
degli studenti, ma approvare una legge per permettere agli insegnanti delle
scuole pubbliche primarie e secondarie e al personale scolastico di portare
un’arma a scuola.
Della
serie: occhio
per occhio, dente per dente!
Prima
le scuole erano luoghi di formazione e di educazione civica, ora sono diventate
delle aziende; prima si aveva a cuore la formazione rigorosa dei discenti, ora
questi ultimi sono diventati dei clienti.
Questo
ha minato profondamente il senso, il significato e il valore di società della
conoscenza e cittadinanza scientifica, annientando il pensiero critico e la
consapevolezza dei propri diritti.
Si
finisce così per essere soggiogati dal potente di turno: un vero furto di
democrazia.
Enrico
Berlinguer, in un accorato discorso tenuto a Milano nell’aprile 1982 “I giovani
alle prese con le sfide del Duemila”, disse: “Le conoscenze scientifiche e
tecniche, possono permettere il passaggio dalla condizione di necessità a
quella della libertà”.
La
scienza, e il suo metodo, aiutano a garantire forme mature di democrazia in
quanto la scienza è libera da ogni giogo di autorità, “sintesi di esperienza e
ragione, acquisizione di conoscenze verificabili e da discutere pubblicamente”.
La
scarsa considerazione che la nostra classe politica e in particolare quella più
recente riserva all’istruzione, all’università e alla ricerca, come affermava
la scienziata “Margherita Hack, è la conseguenza del basso livello culturale
della gran maggioranza degli eletti in Parlamento.
Bisogna
ritornare a favorire il pensiero razionale e il metodo scientifico.
Bisogna
recuperare, soprattutto nelle nuove generazioni, l’interesse verso la
conoscenza scientifica, nel quadro più generale dell’universalità della
cultura; facilitare esperienze che abbiano sia un valore formativo e educativo,
sia un valore comunicativo;
garantire spazi di confronto e di
condivisione;
condivisione
di idee, condivisione di quella sete di conoscenza che rende possibile non solo
il progresso del sapere, ma anche il progresso sociale, politico, economico e
culturale di un paese.
In
altre parole: Democrazia.
L’impossibile
smentita delle zichicche.
Climaterante.it-
(12-7-2017) – Stefano Caserini – Sylvie
Coyaud – ci dicono:
Su il
quotidiano “Il Giornale” è stato pubblicato l’ennesimo delirio sul clima del
prof. Zichichi, seguito da un appello contro presunte bufale sul clima e una
richiesta di smentita:
ma a
ben guardare, la tesi di Zichichi è talmente priva di senso da non poter essere
neppure smentita.
Di
solito leggiamo gli articoli sul clima che il Prof. Antonino Zichichi scrive su
Il Giornale con spensieratezza se non divertimento, più o meno come assistiamo
in televisione alle sue imitazioni da parte del comico Maurizio Crozza.
Ci
sembra evidente che la credibilità dell’anziano fisico delle particelle sui
temi della climatologia sia nulla, che sia palese l’inconsistenza delle sue
critiche alla scienza del clima, nonché la presenza di numerose castronerie.
Per
questi motivi, negli ultimi anni abbiamo steso un velo pietoso e raramente
replicato (qui un vecchio post del 2009: “Zichicche (n+1): i batteri
dormiglioni”), archiviando gli articoli nella categoria del cabaret.
Quello
del 5 luglio “L’inquinamento.
L’inquinamento
va punito come reato, ma è da ciarlatani dire che modifica il clima” merita
un’eccezione, in quanto alla fine dello scritto, Zichichi ha pubblicato una
sorta di appello contro “il terrorismo ambientalista” e “le bufale che vengono
fatte circolare sul clima”, firmato da “20 professori provenienti da università
e centri di ricerca di tutto il mondo”, fra cui gli italiani Alessandro Bettini
(Università di Padova), Federico Antinori (Università di Padova), Giorgio
Benedek (Università di Milano-Bicocca) e Cristiano Galbiati (Università di
Princeton).
Siccome
combattere le bufale sul cambiamento climatico è uno degli scopi di questo
blog, e visto la richiesta finale in fondo all’appello “aspettiamo smentite”,
abbiamo provato a valutare la confutazione delle tesi di Zichichi.
I due
terzi iniziali dell’articolo sono dedicati al tema dell’inquinamento dell’aria.
Con uno stile sciatto (e anche errori grammaticali: “I veleni immessi nell’aria
dalle auto, dagli impianti di riscaldamento e dalle industrie, quando c’è bel
tempo e niente vento, fa scattare l’allarme”), la descrizione dei “dettagli su
come si avvelena l’atmosfera” assomiglia a quella dei sussidiari delle scuole
medie degli anni ’80, con diversi errori (ad esempio “le sostanze inquinanti
non possono sparire: vengono portate in altre zone dell’atmosfera”: in realtà
alcune sono trasformate in altre sostanze, il monossido di carbonio “sparisce”
perché viene ossidato a CO2, l’NO2 può sparire perché reagisce con altri inquinanti).
L’attenzione
messa sull’SO2 (“alte ciminiere delle fabbriche emettono Biossido di Zolfo”…
“sostanza emessa anche dalle caldaie a uso domestico”) e il CO “Un motore mal
regolato produce molte sostanze inquinanti.
Al
primo posto c’è l’Ossido di Carbonio”, mostra l’ignoranza di Zichichi sui
problemi attuali della qualità dell’aria, dovuta al fatto che ha probabilmente
riciclato uno scritto di qualche decennio fa.
Infatti,
SO2 e CO sono ormai problemi del tutto secondari in Italia, che ha ridotto
rispettivamente del 93% e del 67% le emissioni di questi due inquinanti dal
1980 al 2015 (qui la serie storica delle emissioni nazionali pubblicata da
ISPRA): raramente oggi superano i valori limite di qualità dell’aria fissati
dalle normative.
Dopo
aver menzionato gli ossidi di azoto, l’inesperto di chimica ambientale non
menziona neppure gli inquinanti principali su cui si concentrano le normative e
le politiche sull’aria, le polveri fini (PM10, PM2.5), che superano ancora in
molte aree i livelli ammessi dalle normative (qui dati recenti).
In
sintesi, questa parte è nel complesso scadente e banale (a partire dal titolo
“L’inquinamento va punito come reato”… sono anni che inquinare è reato).
La
parte sul clima è invece una sequela di stupidaggini sul tema dei modelli
climatici, accompagnata da un bizzarro paragone con la gravità newtoniana:
“Con l’evoluzione climatologica i governi di
195 nazioni sono su questa strada, dando per scontata l’equivalenza tra un
modello matematico con decine di parametri liberi e un’equazione (come ad
esempio la formula di Newton) che permette di descrivere l’evoluzione del
clima”.
Si
tratta dell’ennesima riproposizione dello slogan “non esiste l’equazione del
clima” usato per la prima volta da Zichichi nell’articolo “Effetto serra, i
dilemmi della Casa Bianca”, su “Il Messaggero dell’8 giugno 2001”.
Esistono
centinaia di modelli climatici che simulano l’evoluzione di fenomeni diversi.
Ognuno
si basa su numerose equazioni nonché su parametri tarati e validati sulla base
di osservazioni e dati sperimentali.
Chi
volesse discuterne seriamente dovrebbe magari leggersi qualcosa sulla loro
composizione il capitolo “9- Evaluation of Climate Models” del Quinto Rapporto
IPCC (WGI), o la più breve introduzione ai modelli nel Capitolo 1, o almeno le
risposte ad alcune “semplici domande” sui modelli ivi pubblicati citati, detti
“General circulation models”.
Per
simulare le dinamiche di un sistema complesso come il clima, ci devono essere
non una, ma più equazioni, magari centinaia che insieme concorrono a definire
le sue varie componenti; e la verifica sperimentale è ovviamente impossibile
poiché l’oggetto dell’esperimento sarebbe l’intero pianeta.
La
pretesa di Zichichi di voler ricondurre tutto ad un’unica equazione non
raggiunge quindi il livello minimo di sensatezza per essere smentita da un
punto di vista scientifico:
è
semplicemente una stupidaggine, una stronzata (nel senso di Harry Frankfurt), o
più precisamente un’altra delle “Zichicche”.
Tutto
ciò non deve sorprendere.
Zichichi
scrive da anni sciocchezze sesquipedali sulle cause dei cambiamenti climatici,
come raccontato in molti post , o come si può ascoltare nelle registrazioni di
un convegno già presentato.
Quelle
precedenti al 2008 sono invece riassunte nell’apposito capitolo di “A Qualcuno
Piace Caldo”.
L’appello
in fondo all’articolo non evidenzia chiaramente la tesi che i 20 firmatari
intendono confutare, oltre alla pretesa che qualcuno tiri fuori quella
benedetta equazione, ovvero “le cose necessarie (come le due masse e la loro
distanza) per potere calcolare se a Londra pioverà o splenderà il sole”;
equazione che nessuno sta cercando, neppure il
Prof. Zichichi che mostra solo di non conoscere la differenza fra i modelli
usati per le previsioni meteorologiche e per le proiezioni climatiche.
Il
curriculum dei 20 firmatari rivela che pure loro non hanno alcuna competenza
sul tema dei cambiamenti climatici, ma sono accomunati dall’essere conoscenti o
collaboratori del Prof. Zichichi su temi legati alla fisica delle particelle.
Viene
il sospetto che non sappiano neppure loro in cosa consiste l’appello che hanno
firmato.
(Stefano
Caserini e Sylvie Coyaud).
Il totalitarismo democratico.
Ilpiacenza.it
– Carlo Gianello – (12 settembre 2022) – ci dice:
Sembrerà
strano mettere insieme due parole contrapposte, come fossero un ossimoro ed in
effetti lo sono, ma così stanno le cose.
Siamo
infatti in questa situazione.
Da una
parte, sembra che la democrazia nei paesi civilizzati sia un fatto ormai
compiuto.
Ma da
un’altra parte la si mette in dubbio, evocando il fascismo che in realtà non
esiste, se non nell’immagine di coloro che temono la destra, come espressione
di una società ancora tradizionale.
Dove i
valori di Dio, patria e famiglia, rappresentano lo schema del rapporto non
ancora rotto con il passato.
ù Una
condizione questa che viene considerata reazionaria e anti moderna. Espressione
di una non cultura che non è in grado di capire l’evoluzione dei tempi. E che
si ostina a guardarsi indietro con l’atteggiamento di pensare che del tempo non
esiste solo il presente, ma anche il passato.
Una
narrazione della storia questa contestata dalla sinistra e dai numerosi gruppi
liberal americani, che per questa ragione si ritengono depositari di una loro
superiorità culturale.
Appunto
perché sono in grado di seguire non il tempo, pur con le sue contraddizioni, ma
le mode del tempo e quindi si sono messi in linea con i desideri della gente
che vuole credere ad una unica verità.
Quella che ambisce alla felicità senza inutili
remore, regole ed impedimenti di natura morale.
Cose
vecchie queste e per dirla tutta, seguendo la moda ideologica progressista
odierna, anche un po’ fasciste.
Per
realizzare il tempo dei desideri, la prima cosa è demolire la società per
crearne un’altra artificiale e che sia l’opposto di quella tramandataci dalla
vecchia cultura. Infatti questa deve essere riformata, anzi meglio ancora
cancellata.
Tutto infatti del vecchio mondo deve essere
sottoposto ad un reset completo, che trova nella” cancel culture” e nello
“spirito woke” la condizione primaria ed indispensabile per agire al fine di
creare una nuova umanità.
In
grado di eliminare i presunti errori del passato caratterizzati da quei fatti,
da sempre considerati naturali in fatto di sessualità.
Ed in
base a questi, tendere alla edificazione di una società che non preveda i nuovi
bisogni di eliminare i vecchi freni e divieti di natura morale.
Un tempo considerati valori ed oggi diventati
errori ed orrori da evitare.
Il vecchio mondo si è dunque trasformato nel
nuovo mondo, che abbisogna di tutto il sostegno della ideologia della sinistra,
per rimodellare il tessuto sociale basato sulla disgregazione della società.
Questi, in sintesi, i nuovi propalati
(pseudo) valori.
Essere
a favore del “movimento gender”, espressione di apertura culturale, onde
generare con l’ausilio di uteri in affitto nuove famiglie, in cui l’accordo
inteso come amore indissolubile, a differenza di quanto succede nelle famiglie
tradizionali, viene considerato altamente certo ed auspicabile dalla nuova
narrazione ideologica progressista.
E nello stesso tempo, non bisogna dimenticare
di guardare con sospetto la posizione contraria di chi vanta dei dubbi.
Sono
questi i cosiddetti reprobi, tacciati come gli untori manzoniani, di reati di
omofobia e di vocazione discriminante.
Altro
problema l’aborto che, secondo la nuova vulgata, deve essere libero e a
discrezione della donna, indipendentemente dai tempi della gravidanza.
Al
punto che in certi stati progressisti, i liberal avanzano proposte addirittura
per l’aborto post natale.
Segue,
per meglio comprendere la nuova moda, la liberalizzazione del trattamento
ormonale per il blocco della pubertà nei giovani, spesso perfino minorenni,
indipendentemente dal consenso dei genitori.
Ma non è tutto.
Anche
il fine vita entra nei programmi dei progressisti in riferimento ad una nuova
proposta di legge che autorizza l’eutanasia passiva per tutti i disabili
mentali e gli affetti da demenza.
Parlavo prima dei cosiddetti valori basati su
una società disgregata, dove anche lo studio e perfino lo sport seguono i nuovi
modelli.
Iniziando dallo studio, emerge come tutta la
storia antica debba essere abolita. Troppo disuguaglianze e prevaricazioni in
essa e dove perfino gli eroi, magari omofobi o di pelle bianca, danno ormai
fastidio per non essere più compatibili con la nuova società basata sul
multiculturalismo e sul multirazziale.
Inoltre
anche la didattica segue le stesse nuove regole.
Gli insegnanti che non si rivolgono agli
studenti con i pronomi neutri per rispetto alle minoranze Lgbt, rischiano di
essere sospesi dal loro incarico.
O anche di essere puniti come è successo
recentemente in una scuola cattolica irlandese, dove un insegnate di materie
umanistiche, un certo” Enoch Burke”, è stato arrestato per essersi rifiutato,
causa le sue convinzioni religiose, di rivolgersi ad un suo studente, in fase
di transizione, non usando il pronome neutro, piuttosto che quello maschile o
femminile.
Ed a
questo proposito anche lo sport subisce analoghi contraccolpi disgreganti.
Infatti il genere femminile è già stato distrutto per permettere di gareggiare
con le donne anche uomini, che dicono di sentirsi di sesso opposto.
Un
altro accenno va fatto per il “covid,” dove la verità di stato, oggi sottoposta
a numerose critiche, ha imposto la vaccinazione obbligatoria.
E
nello stesso tempo la sospensione di ogni incarico professionale e perfino la
denuncia verso chi non ha ottemperato all’obbligo.
E per
ultimo che dire sulla “dittatura green”, in cui la natura viene “eletta dea”,
mentre l’uomo diventa un usurpatore ed un distruttore di beni naturali.
Con l’arroganza di non sapersi piegare al
culto della “dea natura”, esattamente come al tempo dell’età dei lumi, non
riuscì a fare con la “dea ragione”.
A questo punto dopo le due dee, vi dovrei
parlare di Dio.
Ma
poiché oggi non esiste, se non nei nostalgici del tempo passato, meglio
lasciare perdere.
Infatti diventa inutile parlare di amore e
giustizia, due entità divine che vanno a braccetto per creare una società
giusta e timorosa.
Per i nuovi adepti della nuova religione
esiste solo la scienza.
A
questa e solo a questa, è demandata la salvezza del corpo.
Mentre dell’anima è vietato parlarne, per
mancanza di tutta quella cultura cristiana che lega(va) il passato, al presente
e questo ad un futuro di redenzione. Poiché tutto questo patrimonio culturale
sembra non esistere se non nei conservatori tacciati di omofobia e di
bigottismo ipocrita, ecco allora in sintesi il nuovo mondo dei progressisti.
Società
non più solo liquida, ma smembrata.
Democratica
sì, ma solo di nome e solo per chi l’accetta.
Per
tutti gli altri, trattasi di un totalitarismo di fatto.
Basato
sulla sorveglianza digitale da parte dei gruppi economici multimediali e su una
sola verità.
Quella di uno stato che non tollera il
passato, espressione di modelli sbagliati, che non sono più compatibili col
nuovo tempo, fatto di una narrazione artificiosa ed artificiale dettata dalla
cultura dell’ovvio e dalla dipendenza ideologica.
Dove
il tempo è solo il presente.
In
quanto se il passato non esiste anche il futuro non può essere.
Tutto
si deve giocare nell’hic et nunc, tanto che se mi è lecito citare, “Lorenzo de’
Medici”, pur consapevole di commettere un errore di ignominiosa e stantia
cultura antica, ebbene non mi sottraggo alla provocazione.
Cito allora un suo famoso verso:
del
doman non v’è certezza.
In questo modo mi sono dichiarato di non
riuscire a far parte del nuovo mondo.
(ilpiacenza.it/blog/anticaglie/il-totalitarismo-democratico.html).
Karl
R. Popper - Logica della scoperta scientifica.
La
filosofia della scienza di Karl Popper.
Digilanter.libero.it
- Guido Marenco – (10-2-2006) – ci dice:
Dove
si sostiene che affermazioni elementari circa la realtà non possono essere
giustificate dalle esperienze più di quanto si possa giustificarle picchiando
un pugno sul tavolo.
"Il
vecchio ideale scientifico dell'episteme - della conoscenza assolutamente
certa, dimostrabile - si è rivelata un idolo.
L'esigenza
dell'oggettività scientifica rende ineluttabile che ogni asserzione della
scienza rimanga necessariamente e per sempre allo stato di tentativo.
È bensì vero che un'asserzione scientifica può
essere corroborata, ma ogni corroborazione è relativa alle asserzioni che a
loro volta hanno natura di tentativi. Possiamo essere «assolutamente certi»
solo nelle nostre esperienze soggettive di convinzione, nella nostra fede
soggettiva. "
(K. R.
Popper - La logica della scoperta scientifica).
Secondo
quanto ci ha raccontato lo stesso Popper, il suo modello di filosofia della
scienza nacque riflettendo su quella che a suo avviso era la logica della
scoperta scientifica evidenziata da Einstein.
In più
di un'occasione questi aveva affermato che le ipotesi scientifiche nascono come
"libera invenzione creativa".
Si cerca di imporle alla natura e il più delle
volte questa risponde "no, così non va".
Ma, a
volte, la cosa funziona.
Il problema è che Einstein non spiegò come si
arriva a libere invenzioni creative. Forse, la spiegazione è più semplice di
quanto si possa supporre se pensiamo a come Peirce descrisse il processo
abduttivo.
Esso
accade tutte le volte che ci facciamo una domanda del tipo: "e se fosse
vero che?"
Il
segreto dell'abduzione sta tutto qui.
Essa si applica ogni qualvolta ci sembrano
insufficienti le spiegazioni canoniche, in tutte le circostanze, in tutti gli
ambiti, in tutte le ricerche.
Naturalmente,
mi ha sorpreso negativamente che Popper non abbia fatto ricorso a Peirce,
risolvendo così uno degli interrogativi che solleva la sua impostazione. Come
nascono le ipotesi?
Come
riusciamo immediatamente a selezionare quelle che potrebbero "andare"
e quelle "sballate" in partenza?
Sono le domande più banali che potrebbero
sorgere in chiunque, ma Popper ha escluso che simili domande possano ottenere
risposta, e che, soprattutto, valga la pena di porsele.
"La
questione: come accada a un uomo venga in mente un'idea nuova - un tema
musicale, o un conflitto drammatico o una teoria scientifica - può rivestire un
grande interesse per la psicologia empirica ma è irrilevante per l'analisi
logica della conoscenza scientifica.
Quest'ultima
prende in considerazione non già questioni di fatto (il quid facti? di Kant),
ma soltanto questioni di giustificazione o validità (il quid juris? di
Kant)." Queste frasi sono tratte dalla “Logica della scoperta
scientifica”, e mostrano chiaramente sotto quali restrizioni venga posta e
determinata la logica della scoperta.
A
Popper interessa solo come può essere giustificata un'asserzione, in che modo,
se può essere sottoposta a controlli, se dipenda da certe altre asserzioni o se
entri in contraddizione con esse, o alcune di esse.
Tutto
il resto è psicologia empirica e resta momentaneamente escluso il chiedersi se
le asserzioni della psicologia possano annoverarsi “de jure” tra quelle
ammissibili.
Alla
luce di tali convinzioni, strada facendo...
Popper
si rese conto degli errori e dei limiti presenti nelle due correnti di pensiero
più influenti nei primi decenni del Novecento: il convenzionalismo e il
neopositivismo.
Confrontando
l'esempio di Einstein con il pensiero dei vari Duhem, Poincarè, Carnap e
Wittgenstein, Popper si convinse che sia il convenzionalismo che l'empirismo
logico erano confutati dal cammino della scienza.
Lo
stesso cammino della scienza suggeriva come rimediare.
Guardando
soprattutto all'aspetto metodologico dell'impresa di Einstein, Popper vi
ravvisava un concetto fondamentale: quello della falsificazione.
Per
provare la solidità di una teoria, non bastava verificarla; occorreva "un
controllo genuino" e "quest'ultimo può essere presentato come un
tentativo serio, benché fallito, di falsificare la teoria".
Il controllo portava alla corroborazione della
teoria stessa.
In
questo primo intervento mi limiterò a descrivere la critica di Popper alle due
correnti epistemologiche influenti nei primi decenni del Novecento, accennando
per linee generali alle alternative che propone.
Nel successivo cercherò di evidenziare in
quale misura le idee di Einstein giocarono un ruolo determinante nella genesi
del falsificazionismo e del fallibilismo popperiano.
Quest'ultimo è un altro pilastro della teoria
di Popper, anche se non si può dire che sia una sua invenzione originale, visto
che l'idea di probabilismo, e quindi di errore possibile nella predizione di un
evento, risale quantomeno a Carneade, cade con la filosofia medioevale, ma
risorge, se ben si guarda, già con Descartes e persino con l'ultra determinista
Laplace, consapevole dell'impossibilità che l'uomo possa pervenire alla
conoscenza della situazione fisica totale e dettagliata dell'universo pur perseguendo
instancabilmente questa utopia.
Contro
il convenzionalismo.
Popper
non manca di riconoscimenti al convenzionalismo; nella Logica della scoperta
scientifica, scrive:
«La filosofia del convenzionalismo dev'essere
considerata altamente meritevole per il modo in cui ha contribuito a
chiarificare le relazioni tra teoria ed esperimento.
Essa ha riconosciuto l'importanza, a cui gli
induttivisti avevano prestato così poca attenzione, della parte che le nostre
azioni e le nostre operazioni, pianificate secondo convenzioni e ragionamento
deduttivo, hanno nell'esecuzione e nell'interpretazione dei nostri esperimenti
scientifici.
Io
ritengo che il convenzionalismo sia un sistema autosufficiente e difendibile.
È
improbabile che i tentativi di cogliere in esso qualche contraddizione abbiano
successo.
Però,
nonostante tutto, lo trovo assolutamente inaccettabile.
Sotto
la sua superficie sta un'idea della scienza, dei suoi scopi e dei suoi
propositi che trovo estremamente diversa dalla mia.
Mentre
io non esigo che la scienza possa fornire una certezza definitiva (e di
conseguenza non la ottengo), il convenzionalista, per dirla con “Dingler”,
cerca nella scienza "un sistema di conoscenze basato sopra fondamenti
definitivi". Questa meta è raggiungibile, perché è possibile interpretare
qualsiasi sistema scientifico dato come un sistema di definizioni implicite.»
Ciò
porta, secondo Popper, ad una forma di passività acritica.
Si
accettano le idee ricevute dal passato senza ben rendersi conto di che si
tratta. Ora, nei periodi in cui la scienza si sviluppa in modo cumulativo,
edificando su ciò che è già stato edificato, il convenzionalismo può
funzionare.
Tuttavia,
«ben altro accadrà in tempi di crisi. In tutti quei casi in cui il sistema
"classico" in vigore è minacciato dai risultati di nuovi esperimenti
che, secondo il mio punto di vista, possono essere interpretati come
falsificazioni, il sistema apparirà ben saldo al convenzionalista.
Egli
liquiderà le contraddizioni che possono essere sorte, ricorrendo ad una
spiegazione e forse biasimando la nostra inadeguata padronanza del sistema.
Oppure eliminerà le contraddizioni suggerendo l'adozione ad hoc di certe
ipotesi ausiliarie o, forse, di certe correzioni ai nostri strumenti di
misura.»
Va
bene, si dirà, ma non s'è visto che il convenzionalismo è inattaccabile dal
punto di vista logico?
Che
importa? C'è ugualmente un modo per evitarlo: basta decidere di non applicarne
i metodi.
Sì, ma
- ribadisce un convenzionalista - perché abbandonare un metodo che logicamente
appare inappuntabile?
Perché,
risponde Popper, in tempi di crisi il conflitto tra il sistema convenzionale e
le nuove teorie falsificate e falsificanti diventerà ancora più acuto.
«Noi,
e quelli che condividono il nostro atteggiamento, nutriremo la speranza di fare
nuove scoperte, e spereremo anche di essere aiutati, in questo, da un sistema
scientifico eretto ex novo.
Avremo perciò un grandissimo interesse per
l'esperimento falsificante, e lo saluteremo come un successo, perché ha aperto
nuove prospettive in un mondo di nuove esperienze.
E lo
saluteremo con gioia, anche se queste nuove esperienze ci fornissero nuovi
argomenti contro le nostre teorie più recenti.
Ma la
nuova struttura che sta sorgendo, di cui ammiriamo l'arditezza, è considerata
dal convenzionalista come un monumento al "collasso totale" della
scienza.»
A
questo punto, incontriamo una importante novità. Popper gioca la carta
dell'empirismo contro l'avversario convenzionalista.
La decisione di abbandonare i metodi
convenzionalisti si giustifica attraverso il riconoscimento e l'ammissione che
possa essere ammesso come scientifico soltanto un sistema che possa essere
controllato dall'esperienza.
E
precisa: «Secondo la mia proposta, ciò che caratterizza il metodo empirico è la
maniera in cui esso espone alla falsificazione, in ogni modo concepibile, il
sistema che si deve controllare. Il suo scopo non è quello di salvare la vita a
sistemi insostenibili, ma, al contrario, quello di scegliere il sistema che al
paragone si rivela più adatto, dopo averli esposti tutti alla più feroce lotta
per la sopravvivenza.»
Eppure,
il convenzionalista ha ancora qualche carta da giocare, come riconosce Popper.
Dalle
sue idee è possibile ricavare "certi interessanti argomenti contro il mio
criterio di demarcazione".
«Ammetto
... che i sistemi di teorie delle scienze naturali non siano verificabili; ma
asserisco che non sono neppure falsificabili. Infatti esiste sempre la
possibilità di "... raggiungere, per qualsiasi sistema di assiomi, quella
che viene chiamata la 'corrispondenza con la realtà'... e ciò si può fare in un
certo numero di modi... Così possiamo introdurre ipotesi ad hoc; oppure
possiamo modificare le cosiddette "definizioni ostensive" (o le
"definizioni esplicite"...) ecc...» .
Popper
ammette la possibilità di un atteggiamento scettico contro le nuove teorie.
Ammette
che lo sperimentatore possa non godere la nostra fiducia, che sia un bugiardo,
e così via.
Ciò
che conta è che rimanendo all'interno di una logica convenzionalista non si può
dividere le pretese teorie scientifiche in sistemi falsificabili e non
falsificabili, "o meglio, una simile distinzione sarà ambigua".
Popper
definisce "incontestabili" le obiezioni e ammette persino "che
il mio criterio di falsificazione non conduce a una classificazione priva di
ambiguità".
Come
supera lo scoglio?
Innanzi tutto asserendo che opporre un sistema
convenzionale ad uno empirico significa cadere in una questione mal formulata.
«Soltanto
facendo riferimento al metodo applicato a un sistema di teorie è possibile
chiedersi se si stia trattando con una teoria convenzionalistica o con una
empirica
.
L'unico modo per evitare il convenzionalismo consiste nel prendere una
decisione: la decisione di non applicarne i metodi.
Nel caso in cui il nostro sistema sia
minacciato decidiamo di non ricorrere, per salvarlo, a nessun genere di
stratagemma convenzionalistico.
In tal modo ci assicureremo contro l'uso della
possibilità ora menzionata, e sempre aperta, di "... raggiungere, per ogni
sistema ... scelto, quella che viene chiamata la sua 'corrispondenza con la
realtà' ".»
Tra
virgolette, Popper ci ha messo una citazione dal chimico” J. Black”, un testo
del 1803. Da esso riprende un'ulteriore citazione:
"
Un adeguato adattamento delle condizioni farà sì che quasi tutte le ipotesi
concordino con i fenomeni.
Ciò
forse compiace l'immaginazione, ma non fa progredire la nostra
conoscenza." E ciò che serve a Popper per chiarire che la concordanza
artificiosa tra sistema e realtà inseguita dal convenzionalismo rischia di
bloccare lo sviluppo della ricerca scientifica, bocciando in anticipo teorie
rivoluzionarie.
Contro
l'empirismo logico.
Sull'altro
fronte, Popper non bada a spese.
Investe
moltissimo su “Jacob Fries”, il quale proponeva una rilettura-revisione del
kantismo che, pur accentando "i più importanti risultati raggiunti da
Kant", non accettava, anzi rifiutava il metodo kantiano.
Questo
rapporto Popper-Fries sarà più evidente in un'opera di molto successiva, “I due
problemi della conoscenza” (Il Saggiatore 1979), ma nel V capitolo della Logica
della ricerca scientifica, abbiamo già ampio materiale per inquadrare il
problema.
La
posizione di Fries è importante, perché consente ai neopositivisti di pensare
in termini di ragionamento logico come tabula rasa. Se non c'è a priori, tutto
l'edificio della scienza è una costruzione, l'Aufbau di Carnap.
La
questione della base empirica della conoscenza viene delineato da Popper al
termine del IV capitolo della Logica nel quale afferma di aver "ridotto la
questione della falsicabilità delle teorie a quella della falsicabilità di
quelle asserzioni singolari che ho chiamato asserzioni-base."
Le
asserzioni-base sono anche per Popper la trascrizione protocollare delle
percezioni sensibili.
Ma il
suo rapporto con le asserzioni-base è problematico.
Egli contesta che le asserzioni-base siano
fondamentali nella costruzione matematica della teoria e mette in dubbio,
soprattutto, che dalle asserzioni-base si possa ricavare induttivamente una
ipotesi scientifica.
«La
dottrina secondo cui le scienze empiriche sono riducibili a percezioni
sensibili, e quindi a nostre esperienze, è accettata da molti come una dottrina
ovvia e fuori di ogni discussione. Tuttavia questa dottrina sta in piedi, o
cade, insieme con la logica induttiva, e qui vien rigettata con essa.
Non
voglio negare che ci sia una particella di verità nell'opinione secondo cui la
matematica e la logica sono basate sul pensiero, e le scienze fattuali sulle
percezioni sensibili.
Ma ciò
che c'è di vero in questo punto di vista ha poca importanza per il problema
epistemologico.
E in
realtà non c'è un problema epistemologico che più del problema della base delle
asserzioni d'esperienza abbia sofferto della confusione tra tra psicologia e
logica.»
Popper
assume una posizione a dir poco rigida nei confronti dell'effettualità del
processo mentale che porta dal riconoscere l'esistenza di quattro cavalli al
concetto di specie equina.
Esiste un "bicchiere", esiste
"acqua" nel "bicchiere", ma la percezione immediata non
porta affatto a supporre un universale del tipo "bicchiere d'acqua".
Questa
posizione conduce a una conclusione drastica, che farà discutere:
"Gli universali non possono essere
ridotti a classi di esperienza; essi non possono essere 'costituiti'."
Costituire è il termine impiegato da Carnap per definire l'atto di nascita di
una classe di oggetti simili nel nostro processo di conoscenza; è un
procedimento induttivo.
Se
l'esistenza di due gocce d'acqua può solo destare meraviglia, una pioggia
scrosciante potrebbe forse convincerci che esiste la classe delle gocce d'acqua
che cadono dal cielo.
Popper
nega la validità di ragionamenti siffatti in generale e nella logica della
scoperta scientifica in particolare.
Evidentemente
lo scopo di Popper è quello di demolire la validità dei procedimenti induttivi
che stanno alla base della filosofia dei neopositivisti logici.
Empirismo
= psicologismo: questa l'equazione da cui muove Popper.
Carnap,
Neurath, Hahn e compagnia bella hanno sostenuto, di fatto, una teoria della
conoscenza che è psicologica.
«Il
punto di vista che chiamo "psicologismo" - scrive Popper -, [ ... ]
sta ancora alla base, così mi sembra, di una moderna teoria della base
empirica, anche se i suoi sostenitori non parlano di esperienze o di percezioni
, ma piuttosto di "enunciati": enunciati che rappresentano
esperienze.
Neurath e Carnap li chiamano enunciati
protocollari.
Una
teoria analoga è stata sostenuta, in tempi ancor precedenti, da Reininger.
Il suo punto di partenza era la questione:
dove è situata la corrispondenza, o la concordanza, tra un'asserzione e lo
stato di cose che essa descrive? Egli arrivò alla conclusione che le asserzioni
possono essere confrontate soltanto con asserzioni.
Secondo
il suo punto di vista, la corrispondenza di un'asserzione con un fatto non è
nient'altro che una corrispondenza logica tra asserzioni che appartengono a
differenti livelli di universalità: è " ... la corrispondenza di
asserzioni di livello superiore con asserzioni che hanno un contenuto simile e
in definitiva con asserzioni che registrano esperienze." ... [ ... ]
Carnap
parte da un punto di una domanda un po' diversa. La sua tesi è che tutte le
indagini filosofiche parlino "delle forme del discorso".
La logica della scienza deve investigare
"le forme del linguaggio scientifico".
Essa
non parla di "oggetti" fisici ma di parole; non di fatti, ma di
enunciati.
A
questo modo corretto del discorso, il "modo formale del discorso".
Carnap
contrappone il modo del discorso ordinario, o, come lo chiama lui, il
"modo materiale del discorso".
Per
evitare le confusioni si dovrebbe usare il modo materiale del discorso soltanto
dove sia possibile tradurlo nel corretto "modo formale del
discorso".»
Ma
questi benedetti enunciati, osserva Popper, si riferiscono proprio ai dati dei
sensi che descrivono le esperienze immediate.
E
questo è "psicologismo", sebbene tradotto "nel modo formale del
discorso".
Diversa
la posizione di “Neurath”, perché per lui i procolli enunciatari non sono
"irrevocabili" e quindi non hanno bisogno di conferme continue e
ripetute.
Per Popper, quello di “Neurath “è un
"notevole progresso" rispetto al dogmatismo di Carnap.
"
È un passo nella direzione giusta; ma non porta in nessun luogo se non è
seguito immediatamente da un altro passo".
Popper
sottolinea che non si possono cancellare protocolli ad arbitrio.
C'è
bisogno di regole e metodo.
E
Neurath non ci dice come e cosa fare.
Senza accorgersene, "butta l'empirismo
dalla finestra".
«In questo modo non soltanto è possibile
riscattare qualsiasi sistema, come fa il convenzionalismo, ma, data una buona
quantità di enunciati protocollari, possiamo addirittura confermarli grazie
alla testimonianza di testimoni che hanno testimoniato e registrano ciò che
hanno visto e udito.
Neurath evita una forma di dogmatismo,
tuttavia apre la strada per la quale un qualsiasi sistema arbitrario può
autoproclamarsi "scienza empirica".»
L'oggettività
della base empirica
La
soluzione di Popper alle difficoltà in cui si muovono i neopositivisti consiste
nel distinguere nettamente tra la scienza oggettiva da un lato e la
"nostra conoscenza" dall'altro.
Sono
parole sue.
Comincia
col dire che solo l'osservazione ci dà la conoscenza dei fatti, e che ammette,
con Hahn, che questa ci dà consapevolezza. Ma cos'è questa consapevolezza,
poniamo di un temporale, se essa non giustifica, non consolida, la verità di
alcuna altra asserzione, ad esempio che c'è un temporale perché ci sono
nuvoloni neri in cielo?
Il che
fa prendere a Popper questa piega: «Non credo perciò che la domanda che
l'epistemologia deve porsi sia "... su che cosa riposa la nostra
conoscenza? ..., o, più esattamente, come posso, dopo aver acquisito
l'esperienza S, giustificare la mia descrizione di tale esperienza, e
difenderla contro il dubbio?"
La
cosa non funzionerebbe neppure se cambiassimo il termine "esperienza"
in "enunciato protocollare".
Secondo me ciò che l'epistemologia deve
chiedersi è, piuttosto: in quale modo controlliamo le asserzioni scientifiche
per mezzo delle loro conseguenze deduttive? E quale genere di conseguenze
possiamo scegliere per questo scopo se, a loro volta, tali conseguenze devono
poter essere controllate intersoggettivamente?»
La
parte che segue è di estremo interesse.
Popper
afferma come superata e insostenibile una concezione della logica che ammette
lo sviluppo delle inferenze in base a necessità del pensiero.
Descrive
tale condizione come un "sentimento dell'essere costretti a pensare lungo
certe linee".
E
osserva: «Nel campo della logica questo tipo di psicologismo appartiene, forse,
al passato.
Nessuno mai sognerebbe di giustificare la
validità di un'inferenza logica o di difenderla contro i dubbi, scrivendo a
fianco di essa, sul margine del foglio, il seguente enunciato protocollare:
"Protocollo: oggi, nell'esaminare questa catena di inferenze, ho provato
un acuto senso di convinzione."».
Per
certi aspetti, tuttavia, lo psicologismo si ripete e perpetua anche quando si
arriva alle asserzioni empiriche della scienza.
Chiamare
fisicalismo, come fanno gli empiristi logici, la fondazione certificante la
nostra scienza, cioè la constatazione dell'esistenza di dati sensoriali
inoppugnabili, trascritti nei protocolli, non è che psicologismo reiterato.
«Tuttavia - scrive Popper - sia che si mettano
in questione asserzioni della logica, sia che si mettano in questione
asserzioni della scienza empirica, io penso che la risposta sia la stessa:
la nostra conoscenza, che può essere sopra
descritta, vagamente, come un sistema di disposizioni, e che può interessare la
psicologia, può essere collegata in entrambi i casi con sentimenti di credenza
o di convinzione: nell'un caso, forse, con la sensazione di essere costretti a
pensare in un certo modo; nell'altro con quella di "assicurazione
percettiva".
Ma
tutto ciò interessa soltanto lo psicologo, e non sfiora neppure problemi come
quelli delle connessioni logiche tra le asserzioni scientifiche, che sono le
sole ad interessare l'epistemologo.»
Superare
lo psicologismo? Le asserzioni-base.
Popper
non può rinunciare all'elemento empirico; può solo differenziarlo da quello di
Carnap e Wittgenstein, quindi precisarlo.
Senza
riscontri empirici non si fanno "genuini controlli", infatti.
Il
tentativo di Popper si realizza con l'introduzione della nozione di
asserzioni-base. Esse "hanno la forma di asserzioni singolari
esistenziali".
Ovvero:
"sul piatto c'è una mela", e anche ""sull'amperometro la
lancetta indica la lettura di 0,75 ampere".
Questo
tipo di asserzioni può quindi essere controllato da osservatori, e gli
osservatori potranno concordare.
«Le asserzioni-base .... asseriscono che in
una certa regione dello spazio e del tempo si sta verificandosi un evento
osservabile.»
Però
siamo circondati da eventi, tutto è in movimento.
È
importante decidere cosa osservare e controllare.
Dobbiamo
decidere.
Tale passaggio è descritto da “Oldroyd” molto
meglio di quanto potrei fare io: «Diventa perciò un fatto di decisione se un
particolare evento venga scelto allo scopo di eseguire una corroborazione o una
falsificazione.
Ciò
rende le "asserzioni-base" di Popper sostanzialmente diverse dagli
"enunciati protocollari" di Neurath e di Carnap.
Per i popperiani non si tratta di aprire i
propri sensi, che potrebbero poi servire da primi pioli per salire sulla scala
dell'induzione.
Piuttosto,
le asserzioni-base di Popper vengono accettate o rifiutate alla luce
dell'applicazione di una particolare teoria o gruppo di teorie.
A
questo fine devono perciò essere fornite certe regole metodologiche. Il
processo di accettazione o rifiuto di un'asserzione-base può essere comparato,
dice Popper, al processo per mezzo del quale i membri di una giuria formulano
il loro verdetto su un caso.»
Il
ruolo delle asserzioni-base è eminentemente negativo, allora.
La funzione è quella di falsificare.
L'esperienza
può così demolire una teoria, ma non aiuta a costruirla.
Popper
sa bene che anche questa sua impostazione può essere attaccata come una forma
di psicologismo più sofisticato.
Tanto
che scrive: «Indubbiamente ora sembrerà che, dopo tutto, nel richiedere
l'osservabilità io abbia permesso allo psicologismo di re-insinuarsi nella mia
teoria. Ma le cose non stanno così.
Ammetto che sia impossibile interpretare in
senso psicologistico il concetto di evento osservabile; ma uso questo concetto
in un senso tale che esso potrebbe ugualmente essere sostituito da:
"evento che implica la posizione e il movimento dei corpi fisici
macroscopici".
Oppure potremmo stabilire, più precisamente,
che ogni asserzione-base dev'essere a sua volta un'asserzione intorno a
posizioni relative di corpi fisici, o dev'essere equivalente a qualche
asserzione-base di questo tipo "meccanicistico" o
"materialistico".»
La
relatività delle asserzioni-base e la possibile nuova "Babele delle
lingue".
Occorre
decidere.
Se non
decidiamo quali asserzioni-base accettare, dice Popper, non corroboriamo e non
falsifichiamo teorie.
Però le circostanze non sono mai tali da
costringerci, né a scegliere, né a rinunciare al controllo.
Qualsiasi
asserzione-base può essere a sua volta controllata da una qualsiasi altra
asserzione-base dedotta da essa, con l'eventuale ausilio di qualche teoria.
Sicché la procedura non ha un termine, che
Popper definisce naturale.
In
tali condizioni si verifica un massimo di libertà:
i ricercatori possono arrestarsi, secondo
Popper, se non trovano un accordo su quali asserzioni-base accettare e quali
rifiutare.
«E se non si mettono d'accordo andranno avanti
con i controlli o li ricominceranno da capo.
Se
neanche questo porta ad un risultato possiamo dire che le asserzioni in
questione non potevano essere controllate intersoggettivamente o che, dopo
tutto, non stavamo trattando con eventi osservabili.
Se un
giorno gli osservatori scientifici non potessero più mettersi d'accordo sulle
asserzioni-base ciò significherebbe un fallimento del linguaggio come mezzo di
comunicazione universale.
Questo
equivarrebbe a una nuova "Babele delle lingue":
la ricerca scientifica sarebbe ridotta
all'assurdo.
In
questa nuova Babele il maestoso edificio della scienza sarebbe ben presto
ridotto in rovina.».
Proseguendo
su questo terreno, Popper non può non imbattersi in quello che è da sempre il
problema delle basi della conoscenza e quindi nella più classica delle sfide,
quella che dai megarici arriva agli scettici, e si ripropone pari-pari quando
appunto si tratta di concordare a quali protocolli d'esperienza prestare
attenzione.
Il
superamento del trilemma di Fries
Fries
aveva riproposto un tipico ragionamento scettico sull'impossibilità della
conoscenza.
O si
accettano dogmaticamente alcune premesse, o si retrocede all'infinito per
trovare altre premesse dimostrabili che non si troveranno mai perché è sempre
necessario trovare un punto d'appoggio (e questo non è dimostrabile), oppure si
casca nello psicologismo, cioè nel riconoscere validità alle percezioni
sensoriali immediate.
Non c'è via di scampo alla necessità di questo
pensiero, secondo molti.
Popper
non si pone il problema del superamento logico del trilemma, e questo lo porta
a riconoscere che le asserzioni-base hanno un carattere dogmatico, "ma
solo in quanto possiamo desistere dal giustificarle mediante ulteriori
argomentazioni (o ulteriori controlli)".
Un eventuale regresso all'infinito sarebbe
innocuo, "perché nella nostra teoria non si fa questione di tentar di
provare, per suo mezzo, una qualsiasi asserzione". Infine, non ha
difficoltà ad ammettere "che la decisione di accettare un'asserzione-base
e di dichiararsene soddisfatti è causalmente connessa con le nostre esperienze
- specialmente le nostre esperienze percettive - ma è altresì vero che non
tentiamo di giustificare le asserzioni-base per mezzo di queste
esperienze".
Cosa
vuol dire Popper?
L'espressione
forte che usa è la seguente: ..."un'asserzione-base non può essere
giustificata da esse [le esperienze], più di quanto non possa essere
giustificata battendo il pugno sul tavolo".
Reitera così la pervicace ostinazione di
sottrarsi allo "stigma dell'empirismo". Ce la farà a sostenere questa
tesi fino in fondo senza cadere in contraddizioni lapalissiane?
Sarà
possibile continuare a camminare sul filo come un uomo in bilico senza
ricorrere, infine, proprio ad un argomento 'psicologistico' del tipo "io
vedo", "io tocco", "io sento"?
Commenti
Posta un commento