Co2 per produrre alimenti.

 

Co2 per produrre alimenti.

 

 

 

La Truffa del Colesterolo

e delle Statine.

Conoscenzealconfine.it – (14 Maggio 2025) - t.me/sadefenza –Redazione – ci dice:

 

Perché le statine distruggono il cervello…

Forse sai che il colesterolo è necessario al tuo corpo per produrre vitamina D, steroidi e ormoni sessuali, e per membrane cellulari sane.

 Forse sai anche che le statine possono abbassare il tuo colesterolo a tal punto che il tuo corpo non riesce a produrre questi nutrienti vitali.

Ma sapevi che le statine possono anche compromettere la tua funzione cognitiva con l’avanzare dell’età?

 

È vero! Il fegato non è l’unico organo del corpo che produce colesterolo.

Anche il cervello lo produce.

Il colesterolo costituisce una grande porzione delle membrane dei neuroni.

 Poiché i neuroni sono per lo più membrane, una mancanza di colesterolo potrebbe comprometterne la funzione.

Anni fa avevo previsto che la ricerca avrebbe alla fine collegato il colesterolo basso alla scarsa memoria e alla funzione cerebrale generale.

E ora ne abbiamo la prova.

 

I ricercatori hanno recentemente condotto uno studio su 1.181 soggetti di età superiore ai 64 anni.

 Hanno scoperto che bassi livelli di colesterolo riducono significativamente le capacità cognitive generali.

Hanno anche scoperto che bassi livelli di colesterolo riducono la velocità di elaborazione del cervello.

Gli autori hanno concordato che un colesterolo totale più basso è un forte indicatore per prevedere una funzione cognitiva inferiore negli over 64.

Dovrebbe essere in prima pagina su ogni giornale del paese.

Ma con l’industria farmaceutica che detiene il monopolio delle notizie sulla salute, uno studio come questo viene nascosto.

Non lasciatevi ingannare per abbassare il vostro colesterolo totale sotto i 170 con i farmaci.

Infatti, a meno che tu non abbia un disturbo ereditario di colesterolo molto alto (oltre 270), sarei cauto sull’uso di statine in generale.

I dottori vogliono bloccare l’enzima nel fegato che produce colesterolo.

Con lo stesso enzima che produce colesterolo essenziale nel cervello, potresti scambiare un colesterolo ultra basso “felice per il dottore” con un caso di declino cognitivo “personalmente triste”.

 

I farmaci che abbassano il colesterolo sono il segmento commerciale più grande del settore farmaceutico globale.

Le vendite globali della categoria di farmaci leader, le statine, hanno superato i 200 miliardi di dollari all’anno.

Tutto questo business è costruito sulla paura, la paura che il colesterolo causi in realtà attacchi cardiaci.

Mentre questa “paura del colesterolo” è diventata una miniera d’oro per le aziende farmaceutiche, il peso economico di questo business è in ultima analisi sostenuto da noi, le persone.

I professionisti della salute, i decisori politici e centinaia di milioni di pazienti in tutto il mondo hanno il diritto di sapere.

Quali sono i fatti comprovati e qual è la truffa che muove il business degli investimenti multimiliardari per i farmaci brevettati per abbassare il colesterolo?

(dr-rath-foundation.org/?s=statins).

(facebook.com/share/v/15ck6d5fsb/).

(t.me/sadefenza).

Quante sono le emissioni

di gas serra

derivanti dalla produzione di cibo, i dati più recenti.

Lifegate.it - Carlotta Garancini – (20 settembre 2021) – ci dice:

 

Quante sono le emissioni di gas serra derivanti dalla produzione di cibo, i dati più recenti.

Il 57 per cento delle emissioni della produzione di cibi di origine animale sono per il 32 per cento CO2, per il 20 per cento metano e per il 6 per cento ossido di azoto.

Uno studio ha calcolato le emissioni di CO2, metano e protossido di azoto per la produzione di cibi di origine animale e vegetale.

 

Nuovi dati sulle emissioni di gas serra legate alla produzione di cibo emergono da uno studio pubblicato su “Nature Food”.

Secondo la stima effettuata da un gruppo internazionale di esperti guidato dall’università dell’Illinois con la partecipazione della divisione di” Statistica della Fao di Roma”, la produzione di cibo di origine vegetale e animale a livello globale è responsabile del 35 per cento di tutte le emissioni di gas serra prodotte dall’uomo.

 

Emissioni.

Dalle coltivazioni di riso derivano gran parte delle emissioni di gas serra dell’agricoltura globale.

Gli alimenti di origine animale producono due volte le emissioni di quelli di origine vegetale.

Analizzando le filiere alimentari relative a 171 coltivazioni e 16 tipi di allevamento, lo studio ha osservato che il 57 per cento delle emissioni deriva dalla produzione di alimenti di origine animale e in particolare dagli allevamenti di bovini, mentre il 29 per cento è conseguenza della produzione di cibi vegetali, in particolar modo della coltivazione di riso.

Le aree geografiche che producono più emissioni sono il Sud America e il Sudest asiatico.

Brasile, Stati Uniti, Cina e India sono responsabili del maggior numero di emissioni legate alle produzioni animali, mentre la Cina, l’India e l’Indonesia di quelle vegetali.

Quale sarebbe il costo reale del cibo se tenessimo conto del suo impatto ambientale.

Non solo CO2: il ruolo del metano e del protossido di azoto nei cambiamenti climatici.

Lo studio è il primo a considerare le emissioni nette di anidride carbonica, ma anche di metano e protossido di azoto, gas altrettanto influenti sui cambiamenti climatici.

“Il metano generato dalle coltivazioni di riso e dagli animali e il protossido di azoto derivante dai fertilizzanti sono rispettivamente 34 e 298 volte più potenti nel trattenere calore in atmosfera”,

ha spiegato “Xiaoming Xu”, tra gli autori dello studio.

Le emissioni derivanti dalla produzione di alimenti di origine vegetale sono per il 19 per cento CO2, per il 6 per cento metano e per il 4 per cento protossido di azoto; quelle provenienti dalla produzione di cibi di origine animale sono per il 32 per cento CO2, per il 20 per cento metano e per il 6 per cento ossido di azoto.

 

Emissioni.

Le emissioni di metano degli allevamenti intensivi sarebbero sottostimate.

Se allevare bovini è come produrre petrolio.

Sempre a proposito di allevamenti animali, l’edizione 2021 del dossier sulla produzione di carne” Meat Atlas”, redatto da “Friends of the Earth Europe e da Heinrich Böll Stiftung”, mette sotto accusa i finanziamenti alla produzione intensiva di prodotti animali.

“Mentre le aziende zootecniche alimentano la crisi climatica, la deforestazione, l’uso di pesticidi e la perdita di biodiversità, e mentre allontanano le persone dalle loro terre – si legge nell’introduzione del documento – sono ancora sostenute e finanziate dalle banche e dagli investitori più potenti del mondo”.

Il dossier riporta anche alcuni dati secondo cui i cinque più grandi produttori di carne e latte emettono più gas serra all’anno di quanto facciano giganti del petrolio come Exxon, Shell o Bp, mentre venti tra le aziende zootecniche più grandi del mondo sono responsabili, insieme, di più emissioni di Germania, Gran Bretagna o Francia.

 

 

Chicco Testa sul Foglio:

 "Balle verdi”.

Reteresistenzacrinali.it – Alberto Cuppini – (08 Settembre 2024) – ci dice:

"Non pochi commentatori stabiliscono una relazione fra il successo delle destre estreme e la protesta “contro il green deal".

Il titolo sarebbe stato eccessivo anche per un “post RRC.”

 Ma evidentemente non lo è per “il Foglio”, che giovedì ha pubblicato l'articolo di Chicco Testa "Balle verdi".

 

Qui qualcuno si è messo in testa (da quello che scriveva e dai toni ogni volta più esasperati contro le "balle" della "transizione inclusiva" si capiva che ci stava già pensando ancor prima dei risultati delle elezioni nei “Land della Germania Orientale”) di (ri) entrare in politica per fare la “Sahra Wagenknecht” italiana.

 

Un paio di correzioni all'articolo di Testa:

1) "Non pochi commentatori stabiliscono una relazione fra il successo delle destre estreme e la protesta contro il green deal" è falso.

C'è un "non" di troppo.

La realtà è invece questa:

 "Pochi commentatori (molto pochi e nessuno nei giornaloni) stabiliscono una relazione fra il successo delle destre estreme e la protesta contro il green deal".

Anche se tale relazione è perfettamente vera.

Ed evidente a tutti i tedeschi.

Le cose stanno precipitando nel Paese che per primo ha scelto le “Energie vende” (Danke Angelona...), poi diventata modello di tutt'Europa.

Sulla prima pagina del Sole 24 Ore di ieri leggevamo il titolo dedicato all'indice” IFO” (che misura la fiducia delle imprese tedesche):

 "Per la Germania avanza lo spettro della stagnazione" (ma il titolo accanto, riguardante il mercato italiano, "Auto, commesse interne a picco.

 Nei primi sei mesi produzione -20%", lascia presagire che lo spettro della stagnazione non si fermerà in Germania).

Oggi stesso, invece, dalla Germania sono arrivati i dati reali, che rendono superflui i sondaggi sulla fiducia:

"produzione industriale tedesca crollata a luglio del 2,4% su base mensile e del 5,3% su base annua".

 Meno 2,4% in un solo mese!

Un bell'inizio di terzo trimestre, non c'è che dire, dopo che la diminuzione di appena lo 0,1% del PIL tedesco nel secondo trimestre aveva riportato in alto nei sondaggi elettorali “AfD”.

Se continua questa diminuzione mensile per tre anni (o poco più), la Germania diventerà il Paese Silvo-pastorale a cui voleva ridurla Stalin nel 1945.

 

2) "Si resta stupiti di come la sinistra italiana non veda questi numeri, soprattutto quelli del nostro paese, e continui a navigare nell'empireo di una transizione che rappresenta solo un collante ideologico senza piedi ben piantati per terra.

E piuttosto incurante degli interessi di quelli che dovrebbero essere i suoi elettori. Che infatti votano altri."

Io non so (anche se lo immagino) che cosa intenda Testa con quel condizionale ("quelli che dovrebbero essere i suoi elettori").

So però che ciò che conta per il PD sono quelli che sono (non "dovrebbero essere") attualmente i suoi elettori.

Ovvero, in larghissima parte, i vecchi elettori del PCI superstiti e ampi strati della pubblica amministrazione (certamente tutte le insegnanti della scuola pubblica, che ormai sono tutte donne).

 Poi, in numeri inferiori, tutte le élite (in Italia da molti decenni cooptate per appartenenza politica oltre che per legami famigliari), i professionisti della bontà e i furbacchioni delle varie minoranze, che, con il sistema delle quote e altri privilegi reclamati spudoratamente, vogliono superare a destra (nel senso del codice della strada) i capaci e meritevoli.

 Infine le ragazzine che ancora vanno a scuola o all'università (i ragazzini no: quelli non votano e aspettano che compaia sulla scena politica qualcuno che abbai più forte degli altri e che li porti in piazza a “picchiar”, nella speranza di arrivare subito in alto senza fatica, come accaduto almeno tre volte il secolo scorso).

Insomma: tutta gente a cui se l'economia italiana, col costo dell'energia alle stelle, e l'industria in particolare vanno a rotoli non gliene può fregare di meno.

Tanto (credono loro) il 27 del mese Pantalone (o qualcun altro) pagherà sempre e comunque.

 

Uno che - apparentemente - non ha ben chiaro chi siano gli attuali elettori del Partitone è “Francesco Giavazzi”, che sempre giovedì scorso, e proprio sull'organo di stampa de facto del PD, ha scritto l'articolo "Una scelta necessaria: investire", dove nel sottotitolo si leggeva (dopo appena sessant'anni dai fatti...):

"Anzichè investire per la protezione del territorio e le scuole, abbiamo finanziato le pensioni di anzianità".

 

Cosa gravissima ma perfettamente vera, ma che non so se farà bene alle vendite del Corriere della Sera.

 Se in Italia qualcuno parla di pensioni col sacrosanto intento di ridurne (giustamente) l'insostenibile spesa complessiva, commette un suicidio politico.

 Se il PD proponesse di finanziare gli investimenti pubblici (a cominciare da quelli, fin qui negletti, per la protezione del territorio) tagliando le pensioni di anzianità perderebbe istantaneamente il 100% dei propri attuali consensi.

Idem se, parlando di "transizione green", un bel giorno la definisse (altrettanto giustamente) "Balle verdi".

 

O forse” Giavazzi” e il Corriere della Sera, di fronte ad una ormai innegabile perturbazione ciclonica in arrivo da Nord, hanno improvvisamente deciso di abbandonare la nave, ormai condannata, con le scialuppe di salvataggio, in attesa di essere raccolti da una nuova nave, magari battente bandiera rosso-bruna?

(Alberto Cuppini).

 

 

 

I due articoli (scientifici) che smontano

le “balle” sull’uomo e il clima.

 

Nicolaporro.it - Carlo Macky – (29 Settembre 2024) – ci dice:

 

La “pistola fumante” sul riscaldamento climatico di origine antropica?

 Si scopre che era una pistola ad acqua.

«Nessuna quantità di esperimenti potrà dimostrare che ho ragione; un unico esperimento potrà dimostrare che ho sbagliato.»

(Albert Einstein, lettera a Max Born del 4 dicembre 1926).

 

È evidente che questa massima non vale per chi studia il cambiamento climatico.

Questa riflessione mi è sorta spontanea, leggendo in questi giorni alcune notizie eterodosse sull’origine antropogenica del cambiamento climatico.

Nonostante la difficoltà di accedere alle informazioni che non si allineano alla propaganda “green”, qualche notizia controcorrente comincia a filtrare con sempre maggiore insistenza.

Vorrei, in particolare, riportare qui di seguito la sintesi di due articoli scientifici, e di un’intervista a corollario, che dovrebbero spingere il mondo scientifico (e politico) ad una seria riflessione sull’intera teoria del riscaldamento climatico di origine antropica.

 

La pistola fumante.

 

Cominciamo con un piccolo ripasso: l’anidride carbonica è composta da un atomo di carbonio e due atomi di ossigeno.

 L’atomo di carbonio può avere massa isotopica 12 (12C), di gran lunga la più abbondante, o 13 (13C) (tralascio volutamente gli isotopi instabili, meno abbondanti).

La diminuzione del rapporto 13C/12C indica un apporto di CO2 da combustibili fossili.

 In base a ricerche ormai datate, che evidenziavano una tendenza alla diminuzione negli anni del rapporto 13C/12C, la comunità scientifica dava per certa l’origine antropica dell’aumento della CO2 nell’atmosfera.

 Tale correlazione era ritenuta così significativa che veniva definita “la pistola fumante”, in quanto, senza ombra di dubbio, consentiva di svelare al mondo intero l’unico, vero colpevole del riscaldamento climatico: l’uomo!

 E su questa certezza scientifica (che è un controsenso in termini), si sono basare le politiche di “decarbonizzazione”.

 

Orbene, per fortuna esiste il progresso scientifico e, utilizzando degli strumenti di indagine più sofisticati di quelli di qualche anno fa, si è scoperto che la tanto sbandierata correlazione certa, tanto certa non è, e che la pistola fumante è in realtà una pistola ad acqua.

 Infatti, secondo la recente pubblicazione scientifica di” Demetris Koutsoyiannis” (Sci 2024, 6, 17) , in base ai recenti dati isotopici strumentali del carbonio degli ultimi 40 anni, non si possono individuare dei contributi significativi antropici all’aumento della concentrazione di “CO2” nell’atmosfera.

La nuova ricerca ha esaminato i dati isotopici di quattro siti di osservazione (Polo Sud, Mauna Loa, Barrow, La Jolla, considerati “globali” nella loro copertura), e i risultati indicano che non esiste alcun modello isotopico coerente con un’impronta digitale umana.

 In estrema sintesi, l’autore conferma le conclusioni di precedenti studi [2, 3, 4], e cioè che il contributo antropico all’aumento della concentrazione di CO2 atmosferica è trascurabile, e che il rapporto isotopico 13C/12C è stabile da circa 1.500 anni.

 L’incremento della concentrazione di anidride carbonica è, pertanto, quasi esclusivamente di origine naturale.

Da ciò ne consegue che:

l’effetto serra sulla Terra è rimasto stabile nell’ultimo secolo, poiché è dominato dal vapore acqueo nell’atmosfera (secondo alcuni autori è responsabile del 97% dell’effetto serra n.d.a.);

le emissioni umane di CO2 sono difficilmente individuabili nei dati osservativi e hanno avuto un ruolo minore nella recente evoluzione climatica.

Nel complesso, i risultati di questo documento confermano il ruolo principale della biosfera nel ciclo del carbonio (e attraverso questo nel clima) e un contributo antropico trascurabile.

L’autore, poi, si toglie anche qualche sassolino dalla scarpa, sottolineando l’importanza, per il progresso scientifico, di ricerche che non si allineino bovinamente alla narrazione climatica dominante.

Direi che questa ricerca, che conferma le precedenti [2, 3, 4], dovrebbe instillare più di un dubbio nella mente dei burosauri occidentali che ci stanno portando alla rovina ambientale ed economica.

E veniamo al secondo articolo che, con il corollario dell’intervista a Ned Nikolov, Ph.D, non solo distrugge la narrazione della decarbonizzazione, ma pone seri dubbi sulla correttezza e imparzialità dell”’IPCC”.

 

Secondo questo nuovo studio, gli ultimi 200 anni di riscaldamento globale sono associati al declino della copertura nuvolosa, che determina una diminuzione dell’albedo (albedo: frazione di energia del Sole riflessa dalla Terra, in gran parte dipendente dalla copertura nuvolosa n.d.a.).

La diminuzione della copertura nuvolosa può essere collegata ai ruoli dominanti di forze esterne (vulcaniche, solari e oceaniche, ovviamente non dipendenti dall’uomo).

La ricerca è stata condotta sull’area mediterranea, ma i risultati trascenderebbero i confini geografici, in quanto basati su meccanismi globali.

La ricostruzione indica che la tendenza al declino della copertura nuvolosa è in corso da oltre 200 anni.

Gli anni del “punto di svolta” sono stati il ​​1815-1818, in seguito all’eruzione del Monte Tambora.

Da quel momento in poi si è verificato un rapido declino della copertura (non dimentichiamoci anche della spaventosa eruzione del vulcano Hunga Tonga del 2022, i cui effetti non sono ancora not ).

Gli autori suggeriscono che i fattori “dominanti”, collegati al periodo successivo al 1800, includono la forzatura solare, la forzatura vulcanica e l’oscillazione multi decennale atlantica (AMO).

 

Ovviamente, i sostenitori del” riscaldamento globale antropogenico” vogliono attribuire all’uomo il calo della copertura nuvolosa osservato negli ultimi decenni.

Ne consegue che gli input dei modelli climatici sono stati programmati per dimostrare che il riscaldamento dovuto all’aumento dei gas serra porta al calo delle nuvole e il calo delle nuvole porta a un ulteriore riscaldamento:

 un feedback positivo perpetuo e incontrollabile.

Ma ciò è in totale contrasto con le osservazioni del mondo reale, che mostrano l’esatto contrario, e cioè che il riscaldamento porta ad un aumento delle nuvole, non ad una loro diminuzione (l‘aumento della temperatura causa, ovviamente, un aumento dell’evaporazione)!

Pertanto, né il riscaldamento, né l’aumento dei gas serra possono spiegare il calo delle nuvole.

E poiché la riduzione della copertura nuvolosa consente un maggiore assorbimento della radiazione solare in superficie, questo può spiegare il riscaldamento attuale.

 

A conferma delle conclusioni di questa ricerca, i dati di un rapporto dell’Intergovernmental Panel on Climate Change (IPCC) suggeriscono che la tendenza al riscaldamento della Terra negli ultimi due decenni potrebbe non essere attribuibile all’attività umana.

Ebbene sì, non avete letto male!

 Gli esperti che hanno analizzato il rapporto indicano, come causa dell’aumento delle temperature globali, i cambiamenti dell’albedo del pianeta.

E così, mentre gli ormai numerosi dati e ricerche suggeriscono che l’attività umana non è il motore principale dei cambiamenti climatici, i leader globali continuano a perseguire politiche ambientaliste sempre più aggressive, dannose e inconcludenti, ignorando o facendo finta di ignorare le vere cause del fenomeno.

A corollario di tutto ciò, in una recente intervista con la SCNR (network), Ned Nikolov, Ph.D. , uno scienziato specializzato in clima, cosmologia e astrofisica, ha espresso preoccupazioni sull’integrità dei rapporti dell’IPCC, accusando il panel di manipolare i dati climatici.

 

La ricerca di Nikolov, basata sui dati satellitari del progetto “Clouds and the Earth’s Radiant Energy System” (CERES) della “NASA”, rivela che l’”IPCC “ha travisato le tendenze della radiazione solare e delle onde lunghe, invertendo i dati.

Sostiene che, invece di rappresentare correttamente che la Terra sta assorbendo più energia solare a causa della ridotta copertura nuvolosa, osservazione supportata dalla NASA, l’IPCC ha alterato i dati per mostrare il contrario.

Nikolov afferma che questa alterazione dei dati non è casuale e suggerisce che l’IPCC potrebbe averli falsificati deliberatamente per adattarli alla narrazione ampiamente accettata del cambiamento climatico causato dall’uomo.

Lo scienziato sostiene che tutto il riscaldamento osservato negli ultimi 24 anni può essere pienamente spiegato con l’aumento dell’assorbimento di energia solare, e non con l’aumento dei livelli di CO2 o dei gas serra.

 

“E questa non è una mia teoria”, ha ribadito, “È dedotta direttamente dai dati satellitari forniti dalla NASA. Sono sul loro sito web”.

 Ha anche sottolineato implicazioni più ampie per la scienza del clima, affermando che i gas serra, come la CO2, hanno un effetto trascurabile sul riscaldamento globale rispetto al ruolo della pressione atmosferica.

 E questo conferma ulteriormente quanto riportato nell’articolo che ho citato precedentemente.

Anche Karl Zeller, climatologo e ricercatore associato di Nikolov, ha criticato l’interpretazione dei dati dell’IPCC, notando che i loro modelli presentano tendenze fuorvianti, invertendo le misurazioni reali.

 

La ricerca di Nikolov e Zeller suggerisce che il riscaldamento più recente può essere attribuito ai cambiamenti della radiazione solare, non ai gas serra.

 I due scienziati hanno pubblicato recentemente le loro scoperte sulla rivista peer-reviewed Geomatics, concludendo che i dati misurati da CERES spiegano il 100 percento della tendenza al riscaldamento globale osservata e l’83 percento della variabilità interannuale degli ultimi 24 anni, inclusa l’estrema anomalia di calore del 2023″, che la NASA ha dichiarato essere l’anno più caldo mai registrato.

“Queste scoperte richiedono una riconsiderazione fondamentale dell’attuale paradigma di comprensione del cambiamento climatico e delle iniziative socioeconomiche correlate, volte a drastiche riduzioni delle emissioni industriali di carbonio a tutti i costi”, hanno scritto.

 

Nonostante l’importanza delle loro conclusioni, Nikolov ha notato la mancanza di risposta da parte della più ampia comunità scientifica, attribuendola a interessi politici e finanziari che potrebbero ostacolare una discussione aperta sulla questione.

 In conclusione, ha chiesto una maggiore trasparenza e un controllo più approfondito dei dati climatici in futuro.

 La ricerca della coppia evidenzia il potenziale collasso della narrazione del riscaldamento globale antropogenico, se queste discrepanze fossero ampiamente riconosciute, ma Nikolov evidenzia la difficoltà nello sfidare un consenso globale così profondamente radicato, poiché la maggior parte dei media e delle istituzioni scientifiche sono riluttanti ad affrontare queste scoperte.

Per chiudere, ci rendiamo conto che stiamo distruggendo il pianeta e che rischiamo di affamare ampie fasce di popolazione solo per perseguire politiche dirigiste scellerate, che si basano su “certezze” pseudoscientifiche?

(Carlo MacKay, 28 settembre 2024).

 

 

 

 

 

Lavoro, quante “balle”

sulla green economy.

  Repubblica.it - Federico Ferrazza – (05 Marzo 2025) – ci dice:

 

In una delle scene più iconiche di “The Apprentice”, il film sulle origini di Donald Trump, l’allora giovane tycoon dice:

 “La verità è solo quella che tu dici”.

Non contano i fatti e la realtà, insomma.

 L’importante è la propaganda.

 E di quella contro la green economy ce n’è a tonnellate.

 Lo schema è sempre lo stesso:

c’è un problema (nel caso specifico: la crisi economica, soprattutto della classe media occidentale), si individua un nemico immaginario e gli si dà addosso per trovare consenso.

 Anche se gli elementi a supporto dell’attacco non hanno alcun riscontro.

 Per esempio:

 l’energia da fonti rinnovabili non è conveniente;

e infatti lo abbiamo visto con i costi alle stelle del gas importato dalla Russia e altre democrature.

Oppure:

le vetture elettriche stanno mettendo in ginocchio l’industria automotive;

 con la crisi dei consumi, siamo sicuri che, se sul mercato ci fossero solo auto a benzina o diesel, i concessionari sarebbero tutti pieni?

 

Le verità e soprattutto i fatti sono altri.

Proviamo quindi a smontare uno dei principali miti degli avversari dell’ambiente: l’occupazione (e quindi anche la crescita) è penalizzata dalla green economy.

Ma in Italia, per esempio, i numeri dicono che i lavoratori green sono quasi 3,2 milioni, il 13,4% del totale, e il 35% dei nuovi contratti nel 2023 sono stati per professionisti verdi:

 ingegneri, bioinformatici, certificatori, installatori, designer, chef e altre figure le cui storie trovate nelle prossime pagine.

Per questo anche le università si stanno attrezzando per formare le nuove professionalità richieste dal mercato.

 Ma non basta:

se le cose non cambieranno, il divario tra domanda – più alta – e offerta di talenti green sarà sempre più ampio, raggiungendo il 101,5% nel 2050 (dato globale).

E le cose possono cambiare solo con una visione politica e strategica dei prossimi decenni.

Per guardare in casa nostra, l’Europa ha un’occasione storica.

 Presa nella morsa di due potenze ostili – Cina e Usa (le prime mosse dell’amministrazione americana non sono certo quelle di un alleato) –, può decidere di investire su ricerca scientifica e green economy per rilanciarsi e competere alla pari.

Come?

 Nelle prime settimane della sua presidenza, per esempio, Trump ha firmato una serie di decreti che minano la ricerca pubblica statunitense, con tagli ai fondi e limitazioni alla sua libertà di azione.

È un’opportunità unica per l’Europa:

portare da questa parte dell’Atlantico i tanti ricercatori penalizzati dalle decisioni della Casa Bianca.

 Servono soldi per attrarli e un progetto (sociale e industriale) per il futuro.

 E il denaro non è il primo dei problemi.

 

 

Albania, rimpatri, liste d’attesa:

le balle di Meloni al premier time in Senato.

Fanpage.it – (7 MAGGIO 2025) - Luca Pons – ci dice:

 

La presidente del Consiglio Giorgia Meloni, in Senato, ha risposto su liste d’attesa, migranti in Albania, spese per il riarmo e non solo.

 Ma diversi punti di quello che ha detto non tornano, oppure ignorano parte della realtà per far fare bella figura al governo.

Abbiamo controllato i passaggi più importanti.

 

La presidente del Consiglio Giorgia Meloni, per la prima volta da un anno e mezzo, si è presentata al Senato per rispondere alle domande delle opposizioni nel premier time.

 A parte lo scontro aperto con Matteo Renzi, sono stati molti i temi trattati da parte delle opposizioni, che hanno chiesto alla leader del governo di esprimersi sulle spese militari, le bollette, la sanità, la gestione degli arrivi di persone migranti.

Ma, come avvenuto in passato, ci sono stati diversi passaggi nelle parole di Meloni che sono sembrati, se non falsi, perlomeno parziali.

 Questioni su cui la presidente del Consiglio ha scelto di ignorare in parte la realtà, per far sembrare l'operato del suo governo migliore di quanto non sia davvero, o per scaricare le responsabilità su altri.

Come quando ha detto che i ritardi sulle liste d'attesa dipendono dalle Regioni – che però sono governate in maggioranza dal centrodestra – o quando ha rivendicato i risultati sui centri migranti in Albania.

 

Liste d'attesa, Meloni scarica la responsabilità sulle Regioni.

Sul tema delle liste d'attesa, la presidente del Consiglio ha aperto dicendo di dover fare "un appello alle Regioni".

Poi ha spiegato che il fatto che il decreto varato quasi un anno fa dal governo non abbia avuto nessun effetto significativo sulla sanità pubblica non è colpa dell'esecutivo:

"Noi ogni anno stanziamo delle risorse, e non le gestiamo:

 le gestiscono le Regioni. Ma la responsabilità, secondo voi, è tutta del governo", ha detto, rivolgendosi alle opposizioni.

(La gaffe di Meloni sullo spread al premier time, sbaglia i conti e se ne accorge anche Giorgetti).

"Il governo ha fatto un decreto sulle liste d'attesa, in cui ha chiesto di poter fare alcune cose, visto che la responsabilità, anche secondo voi, è sempre nostra: poter eventualmente intervenire con dei poteri sostitutivi quando non si riesce a governare le liste d'attesa come riteniamo".

Il riferimento è a una norma che permetterebbe al governo di intervenire direttamente, ‘aggirando' i poteri regionali sulla sanità, se una Regione non riesce a rispettare certi criteri sulle liste d'attesa.

Ma finora tutte le amministrazioni regionali si sono opposte:

"Le Regioni trasversalmente su questo non sono d'accordo.

 Però almeno gli italiani sappiano che abbiamo queste difficoltà, altrimenti noi siamo semplicemente quelli che devono stanziare i soldi e essere responsabili di quello che non funziona".

Insomma, nel suo discorso la presidente del Consiglio si è limitata a scaricare la responsabilità altrove, preoccupandosi soprattutto di chiarire "agli italiani" che non è colpa sua.

 

A sentirla descrivere la situazione sembrerebbe che il governo abbia le mani legate.

Ma, innanzitutto, le Regioni hanno il diritto di opporsi a una normativa se la legge glielo concede, e di chiedere che venga cambiata – non è una ‘colpa'.

 In più, e soprattutto, bisogna ricordare che su venti Regioni, ben tredici sono governate dal centrodestra.

 Ovvero dalla stessa maggioranza che sostiene il governo Meloni.

E se un esecutivo non riesce a trovare una soluzione che metta d'accordo non tanto le opposizioni, ma nemmeno le amministrazioni regionali che sono del suo stesso colore politico, allora qualche responsabilità c'è.

Anche se così non è secondo la presidente del Consiglio.

 

Migranti in Albania, l'ennesimo attacco ai giudici.

Rispondendo a un'altra domanda sulla questione Albania, Meloni ha colto subito l'occasione per attaccare la magistratura.

"Abbiamo deciso di usare i centri realizzati in Albania come ordinari Cpr", ha ammesso, e "abbiamo così iniziato a trasferire migranti irregolari in attesa di rimpatrio.

A seguito di questa nuova disposizione alcuni Tribunali pare stiano disponendo il ri-trasferimento in Italia, ove il migrante avanzi una domanda di protezione internazionale, anche quando questa sia manifestamente infondata".

 

È vero che in più di un caso la richiesta di asilo è stata il motivo che ha spinto a riportare in Italia delle persone che erano state trasferite in Albania.

Ma il motivo non è che "alcuni Tribunali" hanno agito di loro iniziativa, come sembra suggerire Meloni.

Il punto è che, per le norme italiane e internazionali chi richiede asilo non è una persona "irregolare", ma un richiedente asilo, appunto.

 E quindi non può essere rimpatriato fino a quando non si è stabilito se abbia diritto o meno a essere accolto.

E non si può decidere che questa richiesta è "manifestamente infondata", come vorrebbe la presidente del Consiglio.

 È la conseguenza, insomma, di un errore giuridico del governo.

Meloni ha insistito:

"Mi corre l'obbligo di condividere con voi quale sia il curriculum di queste persone a cui dovremmo considerare di dare protezione internazionale:

quasi tutti i migranti trasferiti in Albania si sono macchiati di reati molto gravi, tra cui si annoverano furti, rapine, porto abusivo d'armi, tentati omicidi, violenze sessuali, pedopornografia, adescamento di minore, atti osceni in prossimità di minore.

Qualcuno vuole a ogni costo fa restare queste persone in Italia, noi invece vogliamo rimpatriarle".

Al di là di quel "quasi" che lascia margini incerti, è una retorica non nuova per l'estrema destra, utilizzata anche da Donald Trump negli Stati Uniti.

Ma la realtà è che la legge si applica nello stesso modo a tutti, e anche il governo deve rispettarla.

Il presunto successo dei Cpr albanesi.

Sull'Albania, poi, la presidente del Consiglio ha rivendicato:

"Alla fine di questa settimana oltre il 25% dei migranti trattenuti in Albania sarà già stato rimpatriato, in tempi che sono molto veloci, a dimostrazione di come le procedure e la strategia che abbiamo messo in campo, nonostante i tentativi di bloccarle per ragioni chiaramente ideologiche, stiano funzionando".

Furbescamente, ha evitato di parlare di numeri assoluti.

 Anche se non ci sono aggiornamenti ufficiali, si può dire che da quando il governo ha fatto marcia indietro rispetto ai piani iniziali e trasformato i centri in Albania in Cpr sono state trasferite alcune decine di persone.

Migranti scelti, peraltro, senza un criterio chiaro.

Non solo la percentuale citata da Meloni non tiene conto, con tutta probabilità, delle persone che erano state inviate nei centri nei mesi prima di questa trasformazione in Cpr, e che erano sempre state rispedite in Italia.

Ma per di più non c'è nessun elemento per spiegare perché questi rimpatri dovrebbero essere un successo legato alla "strategia" del governo in Albania.

 

Quando il governo ha ammesso il fallimento dell'esperimento precedente, i centri albanesi sono diventati in tutto e per tutto dei Cpr come gli altri che si trovano sul territorio italiano.

E allora perché quei rimpatri che sono avvenuti dall'Albania non avrebbero potuto avvenire dall'Italia, risparmiando un bel po' di soldi pubblici per gli spostamenti? Meloni non l'ha spiegato in nessun modo.

 

La "supercazzola" sulle spese per il riarmo.

Infine c'è il tema del riarmo, su cui sia Azione che il Movimento 5 stelle – ma in parte anche Alleanza Verdi-Sinistra – hanno insistito.

In particolare, il M5s e Giuseppe Conte hanno accusato Meloni di aver risposto con una "supercazzola".

È vero?

In gran parte la premier ha ribadito cose già dette.

 Ha di fatto confermato che il governo per raggiungere il 2% del Pil in spese militari (come chiesto dalla Nato) vuole usare un trucco contabile e, in sostanza, inserire nella casella ‘spese per la difesa' del bilancio anche cose che finora non ci rientravano, ma che invece potrebbero ricaderci.

Una mossa i cui dettagli devono ancora essere chiariti, ma che permetterebbe di fare bella figura con gli alleati senza spendere davvero di più.

Poi però Meloni ha anche detto che c'è l'intenzione di "rilanciare la traiettoria di potenziamento delle nostre capacità di difesa".

Una formula poco chiara, e su cui non è più tornata.

Tanto che, mentre il M5s ha parlato di "supercazzola", anche Carlo Calenda (che sicuramente non può essere considerato un simpatizzante del Movimento) ha risposto in modo simile al termine della risposta a lui rivolta, anche se in modo più diplomatico:

"Vorrei sapere se noi compriamo qualche missile in più rispetto ai 63 che secondo il suo ministro noi abbiamo in caso di un attacco.

Se c'è uno stanziamento di bilancio che aumenta, e in che misura, al netto del riconteggio che faremo".

 Insomma, è vero che la presidente del Consiglio, interrogata sulle spese militari (un argomento divisivo anche nella sua maggioranza) ha evitato di rispondere.

(fanpage.it/).

(fanpage.it/politica/albania-rimpatri-liste-dattesa-le-balle-di-meloni-al-premier-time-in-senato/).

 

 

 

"Greenhouse Gases and Fossil Fuels Climate Science" di Richard Lindzen e William Happer, pubblicato il 28 aprile 2025, affronta il tema dei gas serra e dell'uso dei combustibili fossili in relazione al cambiamento climatico.

Microsoft-edge html -document- (28 aprile 2025) – Richard Lindzen e William Happer – ci dicono:

 

(Non sono ancora disponibili risultati per Il documento tradotto  in italiano.)

 Ecco i punti principali:

Ruolo della CO₂:

Il documento afferma che l'anidride carbonica ha due funzioni fondamentali:

come elemento essenziale per la fotosintesi e come gas serra.

Secondo gli autori, livelli più elevati di CO₂ favorirebbero la produzione di cibo senza effetti significativi sulle temperature globali.

Critica alla teoria del Net Zero:

 Gli autori sostengono che le politiche basate sulla riduzione delle emissioni di gas serra (Net Zero) non siano supportate da evidenze scientifiche valide e che potrebbero avere conseguenze negative sull'economia globale, sulla sicurezza alimentare e sul benessere umano.

Sfida alla metodologia scientifica dominante:

 Il documento critica il metodo con cui si determina la conoscenza scientifica sul clima, affermando che spesso si basa su consenso politico, modelli non accurati e dati selezionati, invece di osservazioni empiriche.

 CO₂ e il clima storico:

Gli autori mostrano che nei 600 milioni di anni di storia della Terra, non c’è una correlazione diretta tra livelli di CO₂ e temperature globali, mettendo in discussione l'idea che l'anidride carbonica sia il principale motore del cambiamento climatico.

 Effetti socioeconomici della riduzione delle emissioni:

 Il documento sostiene che la riduzione delle emissioni di gas serra potrebbe avere conseguenze disastrose per le popolazioni più povere e per l'economia globale, aumentando il rischio di carestie e limitando l’accesso a fonti energetiche affidabili.

Critica ai modelli climatici:

Gli autori affermano che i modelli predittivi utilizzati dai principali organismi internazionali non corrispondano alle osservazioni reali e che, pertanto, non dovrebbero essere usati per determinare politiche pubbliche.

 In sintesi, il documento mette in discussione la validità della teoria del cambiamento climatico causato dalla CO₂ e degli sforzi per ridurre le emissioni, sostenendo che tali politiche potrebbero essere basate su presupposti errati e avere conseguenze negative per la società.

Chi vuole approfondire un aspetto specifico, si interessi in merito.

 

 

 

Quali cibi inquinano di più

con la loro produzione?

 Ecocentrica.it - Tessa Gelisio, cibo inquinante – (18 Marzo 2024) – ci dice:

                                         

Vi siete mai chiesti quali siano i cibi che inquinano di più con la loro produzione? Da sempre adotto uno stile egocentrico anche in cucina, prestando attenzione alla provenienza dei prodotti – il più possibile a chilometro zero, da agricoltura biologica e stagionali.

Eppure, non è sempre facile comprendere l’impatto ambientale delle prelibatezze che portiamo in tavola.

Per aiutarci a capire quanto inquinino i cibi che quotidianamente prepariamo, la scienza a giungerci in soccorso.

 Di recente, ad esempio, molti dati utili sono emersi dalle indagini condotte dalla “Società Italiana di Medicina Ambientale”, dall’Università di Oxford e da OBC Transeuropa.

Delle valutazioni preziose che ci permettono di ridurre il nostro impatto ambientale ogni volta che facciamo la spesa.

Il quadro generale dell’inquinamento legato al cibo

Cibo inquinante, allevamento intensivo.

È un elemento su cui spesso non ci si concentra, eppure la produzione di cibo rappresenta una delle cause maggiori di inquinamento atmosferico e ambientale a livello mondiale.

Dominata dalla grande distribuzione, la gran parte della filiera alimentare globale non è infatti sostenibile, sia perché si cerca di produrre sempre di più al più basso costo possibile, sia perché vi sono enormi sprechi di risorse naturali.

 

Oltre alle sempre maggiori emissioni di gas climalteranti, come ad esempio l’anidride carbonica, l’universo alimentare è anche responsabile di danni ambientali inestimabili:

massiccia deforestazione, poiché la distruzione delle foreste è spesso funzionale alla creazione di enormi campi coltivati o allevamenti;

diffusione di contaminanti nel suolo e nell’acqua, dato il grande ricorso a insetticidi, fungicidi ed erbicidi di origine chimica;

emissioni per il trasporto degli alimenti, spesso da una parte all’altra del globo per soddisfare le richieste fuori stagione dei consumatori;

aumento dell’inquinamento da plastica, per via del packaging.

Purtroppo, non è sempre semplice valutare l’impatto di questi fattori singolarmente, sia per difficoltà di stima che per l’impossibilità di accedere a dati certi in molti Paesi dove la produzione è sempre più deregolamentata.

Per questa ragione, la maggior parte degli studi si concentra unicamente sulle emissioni di CO2 dovute all’industria alimentare, senza poter entrare troppo nel dettaglio di altre forme di inquinamento e impatto.

 

I cibi dalla produzione più inquinante

Come ho accennato in apertura, negli ultimi anni diverse analisi hanno evidenziato l’impatto dell’alimentazione in termini di inquinamento ambientale e atmosferico, concentrandosi principalmente sulle emissioni di gas climalteranti quali la CO2. Grazie a queste ricerche, è stato possibile stilare una classifica degli alimenti dal maggiore impatto alimentare in produzione.

 

Come sono stati valutati gli alimenti.

Innanzitutto, come sono stati valutati gli alimenti in termini di emissioni di CO2?

 In linea generale, gli esperti hanno calcolato l’anidride carbonica emessa su tutto il ciclo di produzione del cibo, includendo:

le emissioni dovute alla modifica del suolo, ad esempio per adattarlo alla coltivazione e all’allevamento;

le emissioni dovute alla produzione di mangimi e foraggio per gli animali d’allevamento;

le emissioni dovute alla lavorazione delle materie prime;

le emissioni dovute al trasporto degli alimenti, dagli impianti produttivi alla catena di distribuzione;

le emissioni legate al packaging dei cibi e alle attività di vendita al dettaglio, verso quindi i consumatori finali.

La classifica dei cibi più inquinanti.

Carne di manzo

Dati i fattori elencati nel precedente paragrafo, i ricercatori hanno calcolato la quantità di anidride carbonica emessa per ogni chilogrammo di alimento prodotto. Ne emerge una fotografia a dir poco preoccupante:

Manzo: 60 kg di CO2;

Agnello: 25 kg di CO2;

Formaggi e latticini: 21 kg di CO2;

Cioccolato: 19 kg di CO2;

Caffè: 16 kg di CO2;

Maiale: 7 kg di CO2;

Pollo: 6 kg di CO2;

Pesce d’allevamento: 5 kg di CO2;

Uova: 5 kg di CO2;

Riso: 4 kg di CO2;

Latte: 1 kg di CO2;

Pomodori, mais, piselli, banane: 1 kg di CO2.

Per quanto riguarda le carni, il maggior impatto è dovuto alle modifiche necessarie al suolo sia per la produzione di mangimi e foraggi, che per allevare gli animali.

 I grandi allevamenti intensivi di manzo, in particolare in Sudamerica, vengono infatti realizzati a discapito delle foreste, spesso rase al suolo per far spazio a campi coltivati.

Una situazione simile a quella che si verifica nel Sudest Asiatico, in particolare in Indonesia, dove le foreste tropicali stanno sempre più scomparendo per far spazio a monocolture.

 

E proprio poiché la vegetazione scompare, o viene sostituita da colture alimentari, non vi è più il principale scudo all’aumento delle concentrazioni di CO2 in atmosfera, con effetti che già oggi vediamo sia a livello globale che locale.

Oltre ad emettere CO2 durante la deforestazione stessa.

L’impatto della produzione di latticini segue perlopiù lo stesso andamento, sempre con danni da deforestazione in particolare in Sudamerica, mentre per cioccolato e caffè le maggiori emissioni non derivano tanto dalle coltivazioni, quanto dai costi di trasporto.

Le materie prime – come il cacao e i chicchi di caffè – vengono perlopiù prodotte in Africa e in America del Sud, per poi essere trasportate in tutto il mondo.

 

L’inquinamento da cottura.

Cibi inquinanti, cottura.

Vi è però un altro elemento da prendere in considerazione, spesso completamente dimenticato in queste tipologie di analisi.

Oltre alla produzione e alla distribuzione, il cibo inquina anche con la cottura, rilasciando quantità elevate di gas climalteranti.

 

È quanto spiega il presidente “Sima “Alessandro Miani, qualche tempo fa ospite anche di “Ecocentrica On Air”, in una recente intervista per Il Sole 24 Ore:

“Ancora oggi circa 2.5 miliardi di persone in tutto il mondo utilizza legna da ardere, residui colturali, carbone o sterco essiccato per cucinare, mentre il resto della popolazione mondiale fa uso di gas naturale, kerosene, gpl ed elettricità” – commenta l’esperto.

E non solo la maggior parte di questi metodi di cottura rilascia gas climalteranti, ma è anche fra le prime cause di inquinamento indoor:

“La combustione generata dalla cottura dei cibi – continua Miani – dà origine negli ambienti domestici a fumi con livelli di contaminanti nettamente superiori a quanto raccomandato dall’”Organizzazione Mondiale della Sanità”.

Una forma di inquinamento indoor che causa non solo malattie respiratorie, cancro ai polmoni, broncopneumopatia cronica ostruttiva, polmonite, problemi cardiovascolari e cataratta, ma anche 4 milioni di morti premature all’anno su scala globale”.

Ma come fare per ridurre il nostro impatto ambientale?

 Innanzitutto, prediligere il consumo di alimenti a chilometro zero, per limitare le emissioni dovute ai trasporti.

Dopodiché, limitare la carne nella dieta e solo da pascoli o bio (che non usano ogm, principale causa deforestazione amazzonia e in cui maggior benessere animale), e favorire un’alimentazione maggiormente vegetale, soprattutto se da coltivazione biologica e nel rispetto della stagionalità, che ha minor impatto.

Ancora, quando ci si reca a fare la spesa, è sempre utile preferire prodotti sfusi, così da limitare l’impatto ambientale del packaging. Tutte piccole abitudini che, per quanto semplici, possono davvero ridurre il peso delle nostre tavole in termini di emissioni climalteranti!

 

 

“Pfizergate”, Tribunale UE Boccia Von der Leyen.

Conoscenzealconfine.it – (15 Maggio 2025) – Imolaoggi.it - Redazione – ci dice:

 

Accolto il ricorso del Nyt sul negato accesso agli sms con il ceo di Pfizer,” Albert Bourla”.

La decisione della Commissione europea che ha negato a una giornalista del New York Times l’accesso ai messaggi di testo scambiati tra la presidente Ursula von der Leyen e l’amministratore delegato di Pfizer, “Albert Bourla”, nel quadro delle trattative che portarono al maxi-accordo sui vaccini anti-Covid “è annullata”.

 

Lo ha stabilito il Tribunale Ue accogliendo il ricorso del New York Times.

La sentenza – da alcuni già definita storica – era molto attesa non solo per le sue implicazioni giuridiche, ma anche per il potenziale impatto politico sulla leadership della tedesca al suo secondo mandato alla guida dell’esecutivo comunitario.

 

Il caso ruota attorno all’ipotesi che la Commissione europea abbia violato le regole sulla trasparenza:

la richiesta di accesso agli sms – avanzata dal quotidiano statunitense e dalla sua giornalista “Matina Stevi” ai sensi delle norme Ue sull’accesso agli atti delle istituzioni comunitarie – si riferiva ai messaggi di testo scambiati tra von der Leyen e Bourla tra gennaio 2021 e maggio 2022.

 

Nella sua sentenza di primo grado, il Tribunale ricorda che, in linea di principio, “tutti i documenti delle istituzioni europee dovrebbero essere accessibili al pubblico”, sottolineando che le risposte offerte da Bruxelles – che ha sostenuto di non essere in possesso di quei messaggi – “si basano o su ipotesi, oppure su informazioni mutevoli o imprecise”.

 

Al contrario, evidenziano i giudici di Lussemburgo, “Stevi” e il “New York Times” hanno presentato “elementi pertinenti e concordanti che descrivono l’esistenza di scambi” tra la presidente della Commissione e il Ceo di Pfizer, superando così “la presunzione di inesistenza e di non possesso dei documenti richiesti”.

“In una situazione del genere – spiega ancora la giustizia Ue – la Commissione non può limitarsi ad affermare di non essere in possesso dei documenti richiesti, ma deve fornire spiegazioni credibili che consentano al pubblico e al Tribunale di comprendere perché tali documenti siano irreperibili”.

 

Bruxelles, invece, non ha chiarito né il tipo di ricerche effettuate, né dove siano state condotte, né se gli sms siano stati cancellati, e in che modo. Inoltre, non ha spiegato perché quei messaggi – scambiati nel quadro del più grande contratto di vaccini anti-Covid siglato dall’Ue con le case farmaceutiche – “non contenessero informazioni sostanziali o che richiedessero un monitoraggio e di cui dovesse essere garantita la conservazione”.

(ansa.it/europa/notizie/rubriche/altrenews/2025/05/14/-il-tribunale-ue-boccia-von-der-leyen-sul-pfizergate-_7d660ccc-66b3-48a2-9f8f-73d3ac69522e.html).

(imolaoggi.it/2025/05/14/pfizergate-tribunale-ue-boccia-von-der-leyen/).

 

 

 

L’infortunio de “La Lettura.”

Climateranti.it – (27-2-2017) -  Stefano Caserini , Sylvie Coyaud, e Alessio Bellucci – ci dicono:

Provate a immaginare cosa succederebbe se l’inserto culturale del “Corriere della Sera”, “La Lettura”, ospitasse nelle sue prime pagine un articolo intitolato “Credetemi, i vaccini provocano l’autismo”, con un confronto fra un odontotecnico in pensione (che sostiene quella tesi) e un epidemiologo specializzato in vaccini (che sostiene il contrario).

 

Probabilmente scoppierebbe uno scandalo mediatico, o almeno sarebbero sommersi dalle pernacchie il redattore (responsabile del titolo schierato a supporto di una delle due tesi – quella infondata), la giornalista (responsabile di mettere sullo stesso piano le opinioni stravaganti di un incompetente e i fatti di un esperto del settore) e il direttore dell’inserto (responsabile di aver dato  il massimo rilievo a un articolo insensato su un tema di grande rilevanza sociale); il direttore del quotidiano farebbe probabilmente passare loro un brutto quarto d’ora.

 

Questo esercizio di immaginazione è necessario per capire perché l’articolo pubblicato da “La Lettura” del 26 febbraio 2017, intitolato “Credetemi, il clima non è surriscaldato”, rappresenta un’ulteriore prova del ritardo del mondo della cultura italiana nel comprendere la gravità del problema del riscaldamento globale. E del non rendersi neppure conto di quanto questo ritardo possa essere pericoloso.

L’idea della giornalista,” Serena Danna”, non è affatto nuova:

un “dibattito” alla pari fra un negazionista con poche o nulle competenze in climatologia e un esperto di clima.

Ne abbiamo visti tanti in passato, anche in televisione.

Essendo la quasi totalità dei climatologi certa che la terra si sia surriscaldata, dare spazio a una tesi largamente minoritaria, peraltro sostenuta da un dilettante in materia, è una cosa poco sensata.

 Come lo sarebbe dare spazio all’odontotecnico che straparla di vaccini.

William Happer, definito “guida degli scettici del cambiamento climatico”, è una pedina minore del negazionismo climatico.

 Il termine “scettico” per Happer è scorretto sia dal punto di vista culturale che giornalistico:

 si tratta di un fisico nucleare senza alcuna pubblicazione sul clima, consulente di petrolieri e produttori di carbone e membro di numerose lobby statunitensi dell’energia da fonti fossili, che si è dichiarato disponibile a scrivere articoli a pagamento (250 $/ora) sui benefici della CO2 (sarebbe utile sapere se Happer ha ricevuto un compenso per questo “confronto”).

 La sua presentazione nella colonna informativa si conclude con “negli ultimi anni il suo lavoro si è concentrato sui dubbi relativi al riscaldamento globale e ai danni della CO2”, senza precisare che si è trattato di un “lavoro” da opinionista, senza alcuna pubblicazione scientifica a supporto.

Nell’intervista, avvenuta “via skype e mail”, Happer esprime molte opinioni non fondate, che su Climalteranti abbiamo ormai smentito troppe volte:

 la presunta inattendibilità delle misure delle temperature di superficie, la presunta superiorità di quelle misurate dai satelliti, la CO2 che non è un inquinante.

Persino, ancora nel 2017, il maggior riscaldamento della Groenlandia-Terra-Verde ai tempi dei Vichinghi.

 

Ma ci sono alcune piccole e divertenti novità, come l’affermazione secondo cui “le temperature sono scese rapidamente negli ultimi mesi: a gennaio 2017 sono tornate ai livelli del 1998 (e del 2004, 2009, 2013 e 2014)”:

 invece i dati mostrano come le temperature del gennaio del 2017 sono scese così tanto da risultare… fra le prime cinque più calde mai registrate in gennaio (secondo il dataset NASA, sono le terze più alte mai registrate).

La giornalista ha affiancato alle stupidaggini di Happer i commenti di Mark Cane, professore di Earth and Climate Science alla Columbia University, che diverse volte però parla d’altro, come se gli fosse stata posta una domanda diversa.

 Nel complesso a Harper viene concesso molto più spazio, nonché l’ultima parola, il titolo e l’occhiello.

 Le correzioni di Cane non sono riferite a Happer, il “dibattito vivace” annunciato on-line non è avvenuto.

Una delle domande sembra fatta per incitare Happer al complottismo rabbioso e quasi comico che caratterizza le sue recenti esternazioni:

“Professor Happer, crede che gli scienziati scettici nei confronti del cambiamento climatico abbiano vissuto in un regime di paura negli anni della Presidenza Obama?”

chiede la giornalista con un’imbeccata politica.

“Assolutamente sì”, risponde Happer, e cita il caso di un “giovane bravissimo scienziato” che ha ricevuto minacce e rinunciato a esprimersi in pubblico. 

Come nel caso di altre affermazioni di Happer, ai lettori non è dato sapere se sia stata verificata, se quel giovane esiste davvero o se rientra anche lui nella categoria dei “fatti alternativi”.

 

Oltre alle parole di Happer, nelle tre pagine de” la Lettura” ci sono altri errori e facezie.

Il noto climatologo e oceanografo Mark Cane è definito “L’ambientalista” nel riquadro che ospita la sua foto, proponendo quindi la contrapposizione fra lo scettico e il militante verde che non esiste nei fatti.

 Al vapore acqueo è assegnata la capacità di riscaldare l’atmosfera per 30°C (sarebbe interessante capire dove la giornalista o la redazione abbia trovato questo dato).

Come quarto gas serra in ordine di importanza per l’effetto serra sono erroneamente indicati gli “ossidi di azoto (NOx)”, invece del protossido di azoto (N2O).

 L’oscillazione della corrente del Pacifico El Niño è scorrettamente descritta, prima dalla giornalista e poi da Happer, come un fenomeno dalla periodicità metronomica (“si verifica ogni 5 anni tra dicembre e gennaio“), e per di più molto recente (“…da quando il fenomeno è iniziato nel 1998“).

 

Nel complesso, l’articolo è un passo indietro persino per i canoni del negazionismo climatico, che tutto sommato negli ultimi anni ha avuto un’evoluzione.

 Oggi di fatto non si discute (quasi) più se il pianeta si sia riscaldato, e si discute molto meno anche se la colpa prevalente del riscaldamento attuale sia delle attività umane (di altri colpevoli credibili non se ne sono trovati).

 Si è passati più che altro a dibattere dei costi e benefici del riscaldamento globale e degli impatti conseguenti, o dei costi delle politiche sul clima, se siano eccessivi rispetto agli obiettivi e come ripartirli.

 Dopo l’impressionante record delle temperature globali del 2016, un titolo che metta in discussione l’esistenza del riscaldamento globale si trova a fatica anche nei blog più disinformati.

Quello spacciato da “La Lettura” per “dibattito sul clima” è roba vecchia di almeno 10 anni, ormai senza alcun più senso culturale e giornalistico.

 

In conclusione, che nel febbraio del 2017 un prestigioso inserto culturale, che pubblica spesso articoli pregevoli sulle tematiche scientifiche, cada in un infortunio così clamoroso dovrebbe far riflettere, per cercare di capire quali sono le cause profonde di tanta approssimazione su un tema così cruciale per la società nei prossimi anni e decenni.

(Testo di Stefano Caserini e Sylvie Coyaud, con il contributo di Alessio Bellucci.)

 

 

 

Scienziati che sbagliano.

Iltascabile.com – (20-9-2022) – Agnese Codignola – Redazione – ci dice:

 

Frodi, omissioni, bugie o errori dei ricercatori: in che modo la scienza può e deve reagire ai casi più gravi.

Agnese Codignola è laureata in chimica e tecnologie farmaceutiche.

Dopo anni nel campo della ricerca, si è dedicata interamente all’attività giornalistica.

Oggi collabora con i principali gruppi editoriali italiani (RCS, Espresso-Repubblica, Il Sole 24 Ore, Focus-Mondadori e altri) occupandosi di salute, alimentazione, sostenibilità ambientale e scienza in generale.

Il suo ultimo libro è “Alzheimer S.p.A. Storie di errori e omissioni dietro la cura che non c’è” (Bollati Boringhieri, 2024).

C’è una parte consistente della comunità dei neurologi che è convinta, da anni, che la teoria su cui, fino a oggi, si sono basati quasi tutti gli studi sulla demenza di Alzheimer sia quantomeno insufficiente: non sarebbe vero, dicono, che la malattia sia da ricondurre all’accumulo nel cervello di una proteina chiamata beta amiloide. E così non si sono stupiti, quegli esperti, quando, qualche mese fa, è stato rivelato che una delle ricerche più citate sul tema, e pubblicata nel 2006, con ogni probabilità è solo un incredibile collage di falsi.

Un patchwork fasullo, costato però decine di miliardi di dollari e due decenni inutilmente investiti nella ricerca su farmaci e anticorpi contro l’amiloide.

 

Pochi giorni prima, a essere portato sul banco degli imputati con accuse analoghe era stato uno scienziato molto stimato in Italia, all’estero da decenni:

Carlo Maria Croce, genetista del cancro, più volte chiamato in correità per gravi falsificazioni di dati, ma più volte candidato al Nobel per la medicina.

 E qualche settimana prima, invece, si era conclusa nel peggiore dei modi (con una condanna in un’aula di tribunale) la vicenda giudiziaria di un bugiardo seriale, anche lui italiano, che, a causa delle sue improbabili e tragiche spacconerie, aveva lasciato sul campo diversi morti:

 il chirurgo Paolo Macchiarini, che per anni aveva sostenuto di poter trapiantare una trachea semi artificiale, trovando orecchie sensibili prima in Toscana, poi in Spagna, in Russia e in Svezia, fino al più che prestigioso (finora) Karolinska Institute di Stoccolma.

 

Sono casi molto diversi tra loro ma che, sommati a decine di altri, possono portare a un generale discredito della scienza e, soprattutto, della medicina.

 E non importa se parliamo solo di un’esigua minoranza di tutto ciò che viene riversato on line ogni giorno da migliaia di ricercatori che onestamente raccontano i propri risultati, e permettono così alle rispettive discipline di progredire lentamente, in modo incrementale, tra errori e battute d’arresto, com’è fisiologico.

Chiunque abbia masticato ricerca sa che la scienza ha gli anticorpi per smascherare le truffe:

se nessuno riesce a riprodurre un certo risultato, oppure se lo contraddice in modo convincente, quel risultato non è mai stato reale.

E per tutti i risultati “non reali” quel momento, prima o poi, arriva.

Com’è ovvio, casi come questi, che coinvolgono scienziati all’apice della carriera, che compromettono il lavoro di una vita inventando risultati, falsificando foto e diagrammi, vantando o amplificando successi anche laddove vi sono stati fallimenti, destano stupore.

Anche perché chiunque abbia masticato ricerca sa che la scienza ha gli anticorpi per smascherare le truffe:

se nessuno riesce a riprodurre un certo risultato, oppure se lo contraddice in modo convincente, quel risultato non è mai stato reale.

 E per tutti i risultati “non reali” quel momento, prima o poi, arriva.

E allora, ci si potrebbe chiedere, perché provare la truffa sapendo che è solo questione di tempo prima di giocarsi la reputazione (che nella scienza è quasi tutto) e, con essa, il posto di lavoro, i fondi e, nel caso della medicina, danneggiare i pazienti, coinvolgendo poi collaboratori la cui vita scientifica sarà macchiata per sempre?

Difficile fornire una risposta: a parte le distorsioni motivate dai conflitti di interesse (per esempio se si ricevono finanziamenti privati troppo importanti per la sopravvivenza del laboratorio, eccessivi o opachi), in molti casi si tratta di lotte per potere o denaro, e di narcisismo patologico, “diagnosi” che spiegherebbe il distacco di questi ricercatori dalla realtà, e il fatto che non pensino alle possibili conseguenze, considerandosi più astuti degli altri: di tutti gli altri, per definizione inferiori.

 

C’entrano poi spesso la concorrenza feroce per la distribuzione dei fondi, insieme ad altri fattori meno scontati quali, banalmente, la pigrizia e la superficialità nel condurre i test, che possono spingere a inventare di sana pianta risultati mai ottenuti. Ma la responsabilità non è solo delle bio-star o di coloro che vorrebbero diventare tali con qualche scorciatoia: è anche dei loro partner, tra i quali in primo luogo le riviste, e quindi i referee (esperti del settore chiamati a giudicare anonimamente il lavoro dei colleghi), che non si accorgono di errori e contraddizioni spesso marchiani, così come dei centri di ricerca, che incredibilmente non vedono forzature, plagi e invenzioni. Per arginare un fenomeno che sembra in crescita da anni, il primo passo è individuare le caratteristiche tipiche della falsificazione scientifica, perché è lì, primariamente, che si deve intervenire. E gli esempi citati possono aiutare.

 

Per arginare un fenomeno che sembra in crescita da anni, il primo passo è individuare le caratteristiche tipiche della falsificazione scientifica, perché è lì, primariamente, che si deve intervenire.

Torniamo al caso dell’Alzheimer allora:

si può partire dai fatti più recenti, che dimostrano quali catastrofiche conseguenze possano avere dei dati inventati.

 Nel 2022 la “Food and Drug Administration” ha approvato un anticorpo monoclonale diretto contro la proteina beta amiloide, l’aducanumab, di Biogen, studiato su 3.000 pazienti di venti paesi.

Il via libera però è arrivato a diciotto anni di distanza dall’ultimo dato a una terapia anti Alzheimer, e ha comprensibilmente provocato le dimissioni di tre membri del comitato nominato dalla stessa FDA per giudicare il trattamento. Comitato che si era espresso contro con dieci voti su undici: un fatto inaudito.

Il panel, infatti, non credeva affatto all’aducanumab:

d’altra parte la prima conclusione della stessa Biogen era stata che il monoclonale fosse inefficace.

Solo in un secondo tempo, analizzando nuovamente i dati, l’azienda ha sostenuto che esso possa migliorare le funzioni cognitive dei soggetti con malattia in fase precoce del 22%, e ridurre di un terzo la formazione di placche: al costo di 56.000 dollari all’anno.

 E l’agenzia, contro il parere degli esperti da lei stessa nominati, ha dato il suo benestare.

 

Tra coloro che avevano alzato la voce contro il via libera all’Aduhelm (questo il nome commerciale del monoclonale), c’era anche Matthew Shrag, un neurologo dell’Università Vanderbildt che, anche per questo, è stato in seguito coinvolto in una petizione alla FDA per fermare la sperimentazione di un altro farmaco, il Simufilam, della Cassava Sciences, anch’esso diretto contro la” beta amiloide”, e tuttora in studio.

 La motivazione della richiesta, sottoscritta da molti neurologi, era stata: i dati dell’azienda sono falsi, inventati e distorti, come in parte ha poi dimostrato lo stesso Shrag.

 

Questi studi, come moltissimi altri, traggono origine da quell’unico paper, pubblicato nel 2006 su “Nature”, a firma Sylvain Lesné, neurologo dell’Università del Minnesota Twin Cities, che di fatto, per quasi due decenni, ha monopolizzato la ricerca sull’Alzheimer, mentre uno sparuto gruppo di dissidenti cercava di discutere su altre idee per le demenze, scontrandosi con quella che definiva la mafia dell’amiloide. 

Poi la svolta degli ultimi mesi:

Schrag, che ha avuto accesso alle figure originali usate da Lesné nel paper, ha agevolmente dimostrato che molte di esse sono collage di altre foto, copia-e-incolla piuttosto grossolani, e lo stesso hanno fatto numerosi esperti coinvolti in questa spy story raccontata da” Science”, rivista che non si è fermata a quello studio ma ha allargato l’inchiesta agli altri lavori (almeno 70) di Lesné, dimostrando che il vizietto era insorto ben prima del 2006, e che gli stessi artefatti erano rintracciabili in molti altri lavori. In altre parole, centinaia di studi di base e clinici costati – solo per quanto riguarda i “National Institutes of Health “statunitensi – 1,6 miliardi di dollari, sono stati condotti partendo da una paccottiglia scientifica che qualunque laureato in biotecnologie avrebbe potuto facilmente svelare.

Il paper del 2006 non è stato ritirato né corretto né dagli autori, né da Nature.

 E la FDA non ha ancora accolto la richiesta di fermare la sperimentazione del Simufilam.

 

Uno dei casi di maggior scalpore è quello contro Carlo Maria Croce, genetista del cancro, accusato da” Nature” di aver falsificato i dati e sovrastimato enormemente la loro portata, e di averlo fatto per anni.

Anche le accuse a Carlo Maria Croce, genetista del cancro, sono di aver falsificato i dati sovrastimando enormemente la loro portata, e di averlo fatto per anni.

In questo caso l’inchiesta è stata condotta da “Nature”, che ha ripercorso tutta la storia del discusso ricercatore dell’Università dell’Ohio di Columbus, membro della US National Academy of Sciences, trovando undici studi ritirati, e ventuno rispediti agli autori per correzioni sostanziali, e un’infinità di dubbi su dati di vario tipo segnalati da ricercatori di diversi paesi.

 In questo caso, però, è stato l’ateneo di Croce ad aprire le indagini già cinque anni fa, conducendone almeno tre su numerosi casi di sospetti plagi e falsificazioni.

 Gli esiti di questa inchiesta non sono stati pubblicati, ma secondo “Nature” sono state dimostrate le responsabilità di due ricercatrici italiane del gruppo, Michela Garofalo e Flavia Picchiorri.

Croce sarebbe stato ritenuto colpevole solo della pessima gestione del suo laboratorio, e per questo “dimissionato” dall’incarico più prestigioso, la “John W. Wolfe Chair in Human Cancer Genetics”.

 Rimane però ancora dipendente dall’ateneo, che lo paga più di 800.000 dollari all’anno.

E si è appellato contro la sentenza, perché vorrebbe indietro la sua cattedra, insieme a un milione di dollari di danni per il disturbo.

 Il ricorso non è andato a buon fine e il genetista, interpellato da “Nature”, ha ribadito la sua linea, e cioè che gli errori, in un grande team, sono fisiologici e che lui, insomma, non è che può controllare tutto, e gli attacchi sono motivati solo dall’invidia di colleghi meno brillanti.

Fin qui potrebbe trattarsi effettivamente solo – si fa per dire – di inciampi nel cammino di uno dei laboratori più prestigiosi degli Stati Uniti, sottoposto a una tremenda pressione affinché produca continuamente risultati.

 Ma il punto è che le acque, attorno a Croce, che nella sua carriera ha ricevuto oltre cento milioni di dollari in “Grant” e una sessantina di premi, sono agitate da quasi tre decenni, come aveva ricostruito il New York Times in una minuziosa inchiesta del 2017.

 In quel reportage c’era già tutto:

una sorta di fotocopia delle accuse di falsi e plagi su almeno trenta lavori, retrodatate fino al 1994 e appesantite da sospetti di poco commendevoli legami economici con la lobby del tabacco.

Croce aveva fatto causa al Times, e aveva perso anche in quell’occasione. Ciononostante, non era successo nulla.

E lui, famoso anche per la sua collezione privata di grandi dipinti italiani rinascimentali e barocchi, è tornato al lavoro, sempre seguendo il suo metodo, ovvero pubblicare un’impressionante quantità di studi, senza soluzione di continuità.

 Studi che, spesso, non hanno avuto le ricadute epocali che Croce ha sempre vantato, perché i geni individuati e descritti non erano poi così cruciali, nel cancro.

 

Il caso più clamoroso però, e certamente il più drammatico, è quello di “Paolo Macchiarini”, autoproclamatosi, e poi considerato da molti, fenomeno del bisturi: è responsabile della morte atroce di almeno sette persone, condannato (troppo tardi) sia in Italia che in Svezia per “negligenze” e scorrettezze burocratiche, e al momento latitante (forse in Spagna).

Macchiarini inizia a proporre il suo strabiliante trapianto di trachea biotech ricoperta di cellule staminali a Barcellona, nel 2008.

L’allora assessore alla sanità della Toscana “Enrico Rossi” lo viene a sapere, e fa di tutto per averlo al “Careggi di Firenze”, dove resta tra il 2010 e il 2012, anno dei primi guai legali.

 

Il recente caso più clamoroso è quello del chirurgo Paolo Macchiarini e del suo presunto strabiliante trapianto di trachea biotech ricoperta di cellule staminali: come è stato possibile pubblicare dati di qualità così scadente su un tema così delicato?

Intanto Macchiarini inizia una collaborazione anche con l’istituto Karolinska a Stoccolma, che gli permette di operare.

 Gli Interventi sono primi mondiali:

 nessuno ha mai effettuato trapianti del genere, tantomeno di un organo delicato e cruciale come la trachea.

 Ma lui procede in Svezia, Russia e Stati Uniti, senza dati preliminari su modelli animali, senza approvazioni dei comitati etici, e pubblicando resoconti anche su riviste come “Lancet” (che in seguito ritira due lavori: studi che non avrebbero mai dovuto essere accettati), subito considerati da molti colleghi a dir poco lacunosi.

Purtroppo per la sua folgorante carriera, sette degli otto operati muoiono, quasi sempre dopo atroci sofferenze e innumerevoli interventi successivi, e anche la sopravvissuta deve rimuovere la trachea impiantata

. Gli anatomopatologi che conducono le autopsie parlano di corpi devastati, infetti e con gravissime dislocazioni di organi.

 

Eppure, nonostante questi fatti inequivocabili, e nonostante un curriculum in larga parte inventato (e non impossibile da verificare), nessuno lo ferma fino a quando, nel 2012, è “Vanity Fair” a farlo, pubblicando un articolo della giornalista “Benita Alexander”.

La donna lo aveva conosciuto durante un reportage su una delle pazienti, una ragazzina di 13 anni (deceduta poche settimane dopo l’intervento), ma aveva intrapreso con lui una relazione sentimentale fino al fidanzamento, nonostante la sua presenza – peraltro già sposato – fosse più che discontinua, e nonostante promesse assurde come quella di essere uniti in matrimonio a Castel Sant’Angelo, a Roma, nientemeno che dal Papa, alla presenza tra gli ospiti dei coniugi Obama, Clinton e Sarkozy.

Qualcosa evidentemente non torna e “Benita Alexander”, due mesi prima del sì, ingaggia un investigatore e smaschera il bugiardo patologico.

È troppo, per un chirurgo di cui tutti parlano, e il reportage ha una tale rilevanza mediatica che anche i responsabili del Karolinska iniziano a unire i punti, fino a citarlo in giudizio, per “misconduct”:

 processo finito poche settimane fa con una condanna che non sarà mai eseguita, perché il condannato è irreperibile.

 

La storia di Macchiarini è quasi incredibile, e sfocia, con ogni probabilità, nella patologia psichiatrica.

Tuttavia, la domanda è:

come è stato possibile che sia stato semplicemente creduto sulla parola sia prima di effettuare i trapianti senza prove preliminari, che dopo, una volta che l’esito era palese?

E perché gli editor hanno pubblicato dati di qualità così scadente su un tema così delicato?

“Bo Risberg”, ex presidente del comitato etico della ricerca svedese, ha definito la vicenda “la Chernobyl dell’etica”.

 Ancora una volta, ciò che emerge è che tutto si sarebbe potuto fermare, se solo qualcuno avesse letto i numeri e le spiegazioni date correttamente. Ma nessuno lo ha fatto.

 

La manipolazione è sempre più presente (aiutata dalla sempre maggiore facilità d’uso dei software di elaborazione delle immagini). Ma è vero anche che viene anche scoperta più velocemente di un tempo.

E la storia continua a ripetersi.

Ogni mese, purtroppo, vengono segnalati nuovi studi sospetti:

è capitato recentemente per esempio con un’esperta di coralli e con uno di ragni sospettati, anche loro, di aver falsificato i dati.

Per capire le dimensioni del fenomeno, si può leggere uno degli studi più imponenti mai condotti sul tema, nel 2016, che su oltre 20.000 paper biomedici aveva scoperto irregolarità probabilmente fraudolente in 800.

 

Anche la ricerca sul COVID ha lasciato spazio a decine di studi prima pubblicati e poi sbugiardati anche per il successo crescente di piattaforme che consentono la pubblicazione precoce senza la revisione come BioXRiv e MedRxiv, patrocinate, tra gli altri, dal British Medical Journal e dall’Università di Yale.

Il meritevole sito “Retraction Watch”” tiene il conto di tutti i lavori scientifici pubblicati e poi ritirati, e anche di quelli definiti zombie e che, cioè, pur essendo stati ritirati, continuano a essere citati e presi a riferimento.

 Sul coronavirus ne censisce già oltre 250, parte dei quali usciti sulle riviste “peer review” più autorevoli come quali Science, Nature, Lancet, Blood e New England Journal of Medicine, che hanno ospitato teorie astruse quali il nesso tra COVID e 5G, tra COVID e cancro e tra COVID e una moltitudine di altre malattie, cause o trattamenti bizzarri come i suoni terapeutici di una certa lunghezza d’onda.

 

La manipolazione è dunque sempre più presente (aiutata dalla sempre maggiore facilità d’uso dei software di elaborazione delle immagini), ma viene anche scoperta più velocemente di un tempo, anche grazie alla rete e a siti come “PubPeer,” che pubblicano denunce motivate anonime e no.

In più, è sempre più comune l’utilizzo di programmi di intelligenza artificiale capaci di riconoscere le immagini contraffatte, evidentemente più precisi ed efficaci di quanto non siano stati sin qui molti editor delle riviste o capi dipartimento.

 Basta insomma spesso uno sforzo neanche troppo eccessivo per valutare più attentamente gli studi – quando c’è la volontà di farlo.

 

A volte, ovviamente, escono “paper con risultati sbagliati “anche se non si tratta di frode, ma solo di superficialità, o di errori umani.

 Per evitare la diffusione di questi falsi c’è un rimedio più diretto, per quanto faticoso o umiliante possa sembrare.

Lo ha dimostrato nelle scorse settimane “Joan Strassmann”, esperta di amebe, quando ha avuto la determinazione di ritirare un suo lavoro dopo aver scoperto, grazie a uno studente, alcune incongruenze nei numeri.

“Strassmann” ha poi voluto raccontare la sua storia in un post:

Ho dovuto dirlo a profani e scienziati: professori, post doc, familiari, redattori della rivista in cui abbiamo pubblicato i risultati sbagliati.

 La loro risposta è stata uniformemente positiva.

Nessuno (tranne me stessa) mi ha rimproverato per incapacità tecniche o per aver perso tempo o denaro.

Al contrario, tutti hanno provato a cercare delle giustificazioni (…).

 Eppure, la sensazione di aver fallito è stata difficile da contrastare (…).

Ma ecco il lato positivo: ho imparato qualcosa, che poi è lo spirito stesso della scienza.

Ho imparato che lo stigma che percepivo proveniva principalmente dal mio stesso ego. (…)

 Alla fine ciò che davvero conta è la scienza, e esercitarla nel migliore dei modi: evitando gli errori con una ricerca attenta, pensando attentamente a tutti i modi in cui puoi verificare il tuo lavoro.

 Se trovi errori, correggili con onestà e umiltà. Quando scopri un problema dopo la pubblicazione, ritira il documento. Abbi fiducia nel fatto che i tuoi colleghi scienziati capiranno. E poi torna al laboratorio, e ripeti l’esperimento.

Perché la scienza si basa essenzialmente su qualcosa che è impossibile da imbrigliare in regole e controlli: la fiducia reciproca, che ogni ricercatore onesto chiede ed è disposto ad accordare agli altri membri della comunità, e che ogni ricercatore fraudolento mina alle radici.

 

Feyerabend, cento anni contro il metodo.

Doppiozero.com - Mario Porro - (13 Gennaio 2024) – ci dice:

 

Quando apparve nel 1979 (Feltrinelli, l’edizione originale è del ‘75), Contro il metodo – “abbozzo di una teoria anarchica della conoscenza”, recitava il sottotitolo – ebbe su molti un effetto liberatorio.

 Con lo slancio di un dadaista iconoclasta, l’autore, Paul K. Feyerabend – nato a Vienna un secolo fa, il 13 gennaio 1924 – si apprestava a demolire l’ultima forma che l’autorità aveva conservato nel dissolversi del Moderno, quella della scienza.

Era stato ufficiale dell’esercito tedesco durante la guerra mondiale, in cui venne gravemente ferito alla spina dorsale;

tornato a Vienna, dopo aver studiato Fisica e Filosofia, avrebbe desiderato seguire i corsi del concittadino Ludwig Wittgenstein a Cambridge, ma il progetto non andò in porto per la morte dell’autore del “Tractatus” nel 1952.

Feyerabend dovette “accontentarsi” di un altro supervisor, un viennese di nome “Karl Popper”, come racconta nell’autobiografia dal titolo “Ammazzando il tempo” (Laterza, 1994), in cui brillano le doti che lo hanno reso famoso e scomodo al mondo accademico, l’audacia e la stravaganza di un intellettuale dispettoso.

Al cuore di “Contro il metodo” sta la rivisitazione della difesa del copernicanesimo nel “Dialogo sopra i due massimi sistemi”.

 Non godendo ancora di solide conferme empiriche, Galileo deve far ricorso al contributo della retorica, a trucchi dialettici e tecniche di propaganda nel duello contro “Simplicio e le credenze ecclesiastiche”.

 Dall’altare dei martiri della razionalità, il fondatore della scienza moderna finiva così relegato nel limbo dei ciarlatani, e degli imbonitori, dei sofisti che fanno apparire forte il discorso debole e confidano nella credulità del pubblico.

Non potendo attenersi ai “fatti”, Galileo deve costruire arte-fatti e spacciarli per dati oggettivi;

ma la realtà, ricorda Feyerabend, non è data, è costruita grazie a una messa in scena, con dispositivi e apparati analoghi a quelli di cui si era servito Brunelleschi nell’invenzione della prospettiva pittorica (l’esempio si ritrova in Scienza come arte, Laterza, 1984).

Non c’è differenza in tal senso fra arte e scienza:

in entrambi i casi, il gioco non consiste nell’imitare una realtà immutabile preesistente, ma nel fabbricare una rappresentazione, un allestimento teatrale.

 Anche Galileo ha costruito una messa in scena, quella dell’esperimento, si è servito di meccanismi di proiezione, come il telescopio, presentati come specchi veritieri della realtà.

L’analogia fra arte e scienza per Feyerabend non si ferma qui:

quel che diciamo progresso nella scienza non è che un cambiamento di stile, una teoria non viene giudicata migliore per la sua maggiore corrispondenza con la realtà, ma in virtù di un mutamento di gusto.

 

Il Novecento è stato il secolo dell’epistemologia, emblematicamente racchiuso fra l’anno di nascita di Popper, il 1902, e quello della sua morte, il 1994, lo stesso della morte di Feyerabend.

L’epistemologia muoveva dalla convinzione che esistesse un metodo, un insieme di procedure e di regole vincolanti che garantiscono la validità di una teoria, o almeno una “logica della scoperta scientifica”, per citare il titolo del libro di Popper del 1934.

Al principio di verificazione del neo-empirismo del Circolo di Vienna – una teoria è scientifica se può essere confermata dall’esperienza – Popper contrapponeva il criterio di falsificabilità:

una teoria è scientifica se può indicare i suoi falsificatori potenziali, cioè quali fatti, se accadessero, la renderebbero falsa.

 Era un modo per cogliere la lezione della rivoluzione di Einstein, le cui ipotesi apparivano contro-intuitive, e di contrapporsi alle velleità di ideologie che si spacciavano per scientifiche come la psicoanalisi o il marxismo.

 Il razionalismo critico di Popper indicava come metodo l’elaborazione di ipotesi da sottoporre a controllo empirico;

non per verificarle, perché chi cerca conferme le trova sempre, ma per metterle alla prova spietata della critica e della sperimentazione.

Si procede per congetture e confutazioni, non si muove dai fatti osservati per giungere a elaborare teorie, come vorrebbe il metodo induttivo;

 al piano della realtà empirica si giunge deducendo dalla teoria le implicazioni che la rendono controllabile.

 

È questa la strada su cui si muove Feyerabend, come attestano i saggi raccolti in Il realismo scientifico e l’autorità della scienza (Il Saggiatore, 1983) – risalenti agli anni fra il ’57 e il ’77 – e “Problemi dell’empirismo “(Lampugnani Nigri, 1971).

 Ma la sua “crociata anti-empiristica” finiva per colpire anche il maestro Karl Popper che del neo-positivismo si era definito l’uccisore;

 in lui resterebbero “radicali pregiudizi sul sostegno empirico”, poiché il falsificazionismo continua ad assegnare ad asserti osservativi il compito di confutare le teorie.

In realtà, rileva Feyerabend, tutti i nostri asserti sono teorici;

 i dati dei sensi non sono neutrali, un astronomo tolemaico vede un cielo diverso da un copernicano.

 Certo i “fatti” sono indipendenti dal soggetto, ma sono le teorie a stabilire come relazionarsi a essi;

una concezione realista della scienza favorisce la proliferazione di congetture concorrenti.

Il desiderio di Galileo d’interpretare la teoria copernicana come descrizione oggettiva del cosmo, e non come strumento più rigoroso per il calcolo dei moti planetari, lo induce a elaborare teorie alternative alla dinamica aristotelica e a difenderle strenuamente.

 

Il Galileo di “Contro il metodo” ha condotto la sua ricerca disobbedendo alle prescrizioni della Ragione, alle norme legiferate dal tribunale dell’epistemologo.

Non si è attenuto né al metodo induttivo dei neo-empiristi, né a quello ipotetico-deduttivo del falsificazionismo popperiano:

 non si possono imporre le rigide norme del balletto classico a chi si accinge a scalare un’impervia montagna.

Il rispetto delle regole è il nemico peggiore della ricerca scientifica: per continuare a essere inventiva la scienza deve rinnegare la fedeltà a ogni metodologia che voglia in modo aprioristico valutare la pratica dei ricercatori.

Meglio, suggerisce Feyerabend, affidarsi al principio “ogni cosa può andar bene”: i metodi sono plurali e circostanziali, da adattare ogni volta alle specifiche particolarità del libero gioco della ricerca.

Violare le regole assume allora il valore di unico precetto “razionale” raccomandato alla scienza, un’attività troppo complessa per venire rinchiusa nei canoni logico-formali imposti dai metodologi;

 i loro principi tengono conto solo della “scienza dei manuali”, quella che di sé offre l’immagine caricaturale di un sistema di enunciati coerenti e ordinati con rigore.

Le proposte degli epistemologi valgono per un mondo ideale, sono simili a castelli in aria che “hanno molto in comune con le malattie mentali”.

L’imposizione di regole universali “dall’ultima fila di galleria del teatro della conoscenza” non può che entrare in conflitto con il processo storico tormentato del farsi della scienza;

è quel che metterà in rilievo “Imre Lakatos “a proposito della matematica, al quale però Feyerabend rimproverava di essere un “anarchico che si vergogna”.

 La salda amicizia che li legava – si veda la corrispondenza raccolta in “Sull’orlo della scienza” (Cortina, 1995) – non impedisce a Feyerabend di accusare “Lakatos” di essere rimasto fedele all’idea che il progresso delle scienze sia un cammino di approssimazione alla verità.

Ma non sarà la verità a renderci liberi (come vuole il Vangelo di Giovanni), “sono lo scherzo, il divertimento, l’illusione a renderci liberi”.

Feyerabend ha allargato le crepe del “buon senso” epistemologico di Popper, portando alle estreme conseguenze la tesi per i cui i fatti sono carichi di teoria;

 non esistono allora dati “oggettivi” che possano valere universalmente da tribunale per accogliere o rifiutare una teoria, visto che i fatti sono sempre racchiusi in “cornici” che danno loro senso.

 Una prospettiva in cui l’anarchismo di Feyerabend finiva per incrociare quanto aveva sostenuto “Thomas Kuhn” con “La struttura delle rivoluzioni scientifiche” (1962, Einaudi, 1969).

Ad accomunarli era anche la lezione del Wittgenstein delle “Ricerche filosofiche”: Kuhn richiamava l’oscillazione percettiva di fronte all’immagine ambigua di un’anatra-coniglio per esemplificare il modo con cui “paradigmi” differenti orientano lo sguardo sul mondo.

L’evoluzione della scienza è un percorso discontinuo, non cumulativo, in cui fasi di “scienza normale”, regolata da un “paradigma” (l’aristotelismo nel pensiero medioevale o la dinamica newtoniana dal Settecento al primo Novecento), vengono rotte da una rivoluzione.

Le teorie sono fra loro incommensurabili:

non esiste un terreno solido di osservazioni neutre a cui ancorare il controllo sperimentale di teorie in conflitto, dato che il mondo osservato dallo scienziato tolemaico, ad esempio, non è conciliabile con quello di un copernicano.

 Una conseguenza inaccettabile per chi difendeva la razionalità della scienza: Popper si scaglierà contro il “mito della cornice” (Il Mulino, 1995), contro l’idea che le culture, racchiuse entro rigidi contorni teorici, non abbiano la possibilità di confrontarsi e dialogare.

 

Quel che il Feyerabend ancora popperiano degli anni Sessanta obietta a Kuhn è di essere rimasto un teorico della “scienza normale” più che delle rivoluzioni, in sostanza un conservatore.

Lo attesta il progettato dialogo nel ’65 in cui l’intervento di Kuhn, “Dogma contro critica” (Cortina, 2000) doveva essere seguito da quello di Feyerabend (assente per motivi di salute) dal titolo rovesciato, “Critica contro dogma” (da quell’incontro mancato avrebbe avuto origine il convegno collettaneo i cui atti sono in Critica e crescita della conoscenza, Feltrinelli, 1976).

In effetti, per Kuhn il “necessario preliminare” alla rivoluzione è il dogmatico rispetto delle norme accolte dalla comunità, l’osservanza rigorosa del paradigma. “Lo scienziato produttivo, per essere un innovatore […], deve essere un tradizionalista cui piace giocare complicati giochi seconde regole prestabilite”.

 La garanzia del successo delle comunità scientifiche starebbe in tal senso nella resistenza alle novità, nell’adesione al pensiero convergente; solo grazie a quest’ultimo il ricercatore può scorgere le anomalie che intaccano il paradigma in cui si è formato.

 

Le discontinuità che spezzano l’apparente linearità del cammino delle scienze sorgono solo sullo sfondo di una tradizione di ricerca consolidata:

 per dirla nel lessico della “teoria delle catastrofi” di René Thom, è la stabilità strutturale a preparare il terreno della morfogenesi.

 L’obiezione di Feyerabend è che solo disponendo di un nuovo paradigma si rendono avvertibili le anomalie che intaccano quello antico.

 Dunque, la cosa migliore è la proliferazione di teorie che possano mettersi reciprocamente in crisi: “Rivoluzione permanente” diventa lo slogan trozkista che Feyerabend oppone alla normalità della chiusa cittadella scientifica.        

Popper si era limitato a contestare l’idea della scienza come episteme, sapere fondato sulla salda roccia dei fatti oggettivi;

è costruita su palafitte, su congetture che sono frutto dell’inventiva dello scienziato, ardite costruzioni sempre fallibili.

La scienza rientra nell’ambito della “doxa”, di un sapere incerto che si muove comunque nello “spazio delle ragioni” consolidato dal dibattito critico, dalla disponibilità al “dialogo”, dalla sincerità nel riconoscere il giudizio dei fatti – ed è questo il tratto alla base della civiltà occidentale.

Il percorso senza fine della ricerca resta per Popper un progresso in cui ci si approssima alla verità per tentativi ed errori, un’evoluzione darwiniana in cui vengono via via eliminate le teorie inadatte.

 Il Feyerabend che prende sempre più distanza da Popper – accusato di non aver avuto nemmeno un’amante fra le sue studentesse – non si limita a considerare una favola l’esistenza di un metodo scientifico.

Dalla concezione di una razionalità flessibile, capace di riconoscere i propri limiti (l’opportunismo dello scienziato di cui Einstein era pronto a vantarsi), Feyerabend giunge al disconoscimento del valore della scienza, una delle tante forme di pensiero che l’uomo ha sviluppato, non necessariamente la migliore.

Esemplare in tal senso il caso della medicina affrontato nel “Dialogo sul metodo” (Laterza, 1989): perché non dovrebbe essere lasciata al cittadino la libertà di scegliere fra l’invasiva e interventista medicina ufficiale e pratiche dolci come l’agopuntura?

Una società libera è quella in cui tutte le tradizioni godono di uguali diritti, possono venire insegnate ed entrare in aperta concorrenza, per poi lasciare che siano gli individui a scegliere la strada che prediligono.

 

L’anima californiana di Feyerabend, docente a Berkeley a partire dal ’68, finiva così per minare l’autorità della scienza, non più giustificata dal richiamo galileiano alle sensate esperienze e alle necessarie dimostrazioni.

 La posizione eminente che essa svolge nelle società sviluppate non avrebbe giustificazioni razionali, sarebbe solo il segno della conquista del potere da parte della “setta” degli scienziati, che hanno sostituito gli antichi sacerdoti.

 Il finale di “Contro il metodo” proclamava l’obiettivo di “liberare la società dalla presa soffocante di una scienza ideologicamente fossilizzata, come i nostri antenati ci hanno liberati dalla presa soffocante dell’”Unica Vera Religione”.

In La scienza in una società libera (Feltrinelli, 1978), Feyerabend sosteneva che i pre-giudizi degli scienziati costituiscono un rischio per la democrazia, in quanto limitano le possibilità di altre tradizioni culturali (miti, religioni e credenze condannate perché irrazionali) di esprimersi.

Nel volersi custode esclusiva della verità e unico arbitro delle controversie, la scienza stessa si fa portatrice di oscurantismo:

 dall’atteggiamento critico come connotato proprio alla scienza, Feyerabend passa alla critica della scienza, accusata proprio di quell’autoritarismo contro cui aveva lottato all’epoca di Galileo.

 Seguace di un pensiero liberale che non disdegnava di richiamarsi a” John Stuart Mill”, Feyerabend ha annunciato “la morte del Dio della scienza”;

se, ricordava Popper, per chi ha assaggiato l’albero della scienza non esiste paradiso, la prospettiva di Feyerabend ci fa precipitare nell’inferno in cui tutto è possibile e tutto va bene.

 Non solo verrebbe meno la possibilità di comunicare fra prospettive diverse, ma, in assenza di criteri “razionali” per distinguere il vero dal falso, la scelta fra teorie sarebbe affidata solo alla forza dei gruppi di pressione economica o delle maggioranze politiche del momento.

Nel saggio” Addio alla ragione” (Armando, 1990), Feyerabend si schierava in difesa di “Bellarmino”, il cardinale che aveva invitato Galileo a parlare del copernicanesimo solo “ex suppositione “e non come teoria corrispondente alla realtà (ma era anche il cardinale che aveva condotto il processo a Giordano Bruno). 

Non sorprende che il pensiero di Feyerabend, pronto a condurre le argomentazioni fino al paradosso, a schierare la razionalità contro se stessa, abbia subito l’ostracismo della comunità degli scienziati e degli epistemologi.

 Negli ultimi mesi della sua vita Feyerabend rifletteva sul potere totalitario della ragione che, formando concetti generali, riporta all’identico quel che appare diverso e disperde sotto l’universale lo specifico e l’irregolare (Conquista dell’abbondanza, Cortina, 2002; manoscritto ricostruito per volontà della moglie italiana, Grazia Borrini).

 “La scienza occidentale ha infettato il mondo come una malattia contagiosa”, l’astrazione teorica provoca la distruzione dell’abbondanza, un progressivo (anche nel senso di frutto del progresso) saccheggio del mondo fisico e mentale, ridotto a una “Terra desolata”.

Lo spirito polemico di Feyerabend si rivolge all’ideale che sta all’origine del pensiero dell’Occidente, quell’ideale parmenideo e platonico che, in nome della Verità, va in cerca di idee perfette e immutabili, della realtà profonda nascosta sotto il velo dell’apparenza.

L’indagine genealogica torna all’origine del miracolo greco, alla comparsa del logos, quando il presocratico Senofane sostituisce con un Dio unico l’omerica e variopinta ricchezza delle divinità olimpiche.

 È il peccato originale della “reductio ad unum” che troverà la sua incarnazione massima nella scienza moderna:

il mondo perde la variegata pluralità di suoni e colori per ridursi nelle gabbie di leggi quantitative del moto che impongono regolarità e stabilità.

Quel trionfo della Ragione che sarà celebrato dalla Modernità era in realtà l’esito di un percorso storico singolare, la comparsa di una specifica “forma di vita” (termine wittgensteiniano) in cui domina l’universale come equivalente generale, analogo al denaro che sostituisce gli oggetti diversi da barattare.

 La strategia logico-argomentativa cancella i saperi incerti delle tecniche artigianali:

 il “cuore di tenebra” della missione civilizzatrice dell’Occidente annulla concezioni traboccanti d’interpretazioni possibili del mondo, in cui l’esperienza sensoriale manteneva viva una relazione corposa con la molteplicità degli esseri.

Una concezione monolitica, governata dalle astrazioni fisico-matematiche ed economiche, apre la via al mondo uniformato dalla globalizzazione che si va “riempiendo di conoscenza, puzza, armi e monotonia”.

Non esiste una sola modalità valida di conoscenza, ce ne sono (ce n’erano) molte, valide “nel senso che mantenevano la gente viva e rendevano la sua esistenza comprensibile”.

La pretesa dei cultori della Scienza di porsi come esclusivi e indiscussi portavoce della Realtà non è che l’espressione tirannica di una tradizione locale che vuole farsi globale.

 

Credevamo che la modernità coincidesse con il razionalismo critico delle scienze, con la loro capacità di auto-correggersi – la virtù condivisa con la democrazia, suggeriva Popper –, che l’universalità dei diritti umani facesse il paio con l’universalità delle leggi fisiche, quando invece, suggerisce l’autore di “Contro il metodo”, l’ideologia della Razionalità scientifica distrugge l’abbondanza dell’abito di Arlecchino del mondo.

 Convinto che “ogni cultura sia in potenza tutte le culture” e che esista sempre la possibilità di comprensione fra di esse, Feyerabend predica la tolleranza nei confronti di pratiche e tradizioni “non scientifiche”, ma rischia così di annullare le ragioni per cui oggi Galileo può con-vincere i tanti “Simplicio” del nostro tempo.

La provocazione di Feyrabend ci ha costretto a tornare su quell’evidenza che Bruno Latour chiamava la “grande Partizione” fra Noi e gli Altri da cui sarebbe sorta la Modernità.

Noi, la Civiltà custode della Verità oggettiva e dei saperi efficaci per comprendere e dominare il mondo;

 gli Altri, primitivi e arcaici, immersi nelle illusioni, ricche ma fuorvianti, incapaci di distinguere la realtà dalle proiezioni del desiderio, di separare la Natura dalla Cultura.

“Non esiste nessuna ragione ‘oggettiva’ per preferire la scienza e il razionalismo occidentale ad altre tradizioni”.

Dall’epistemologia – di cui ha dichiarato la fine, “The End of Epistemology” recita il titolo di un suo saggio in” La conquista dell’abbondanza “– siamo passati alle “politiche della ragione”: un risultato scientifico non sarebbe molto diverso dall’esito di una complicata contrattazione politica.

Non sorprende che Feyerabend si sia richiamato alle indagini di “Bruno Latour”, agli approcci di sociologia o di antropologia della scienza che rivolgono alle pratiche di laboratorio lo sguardo che un tempo gli antropologi dedicavano a civiltà lontane e straniere.   

 

 

 

 

Errori e valori nella scienza.

Ilpunto.it - Raffaella Campaner – Filosofa – (7 Aprile 2025) – ci dice:

 

Alcune riflessioni a partire dal concetto di oggettività.

 

Riflettere su errore e incertezza nella scienza significa interrogarsi sui suoi obiettivi e sui limiti delle aspettative che possiamo avere nei suoi confronti.

La scienza non è priva di valori, ma la sua oggettività emerge dall’efficacia dei suoi metodi, dalla convergenza dei risultati e dal confronto tra comunità scientifiche.

La conoscenza scientifica è influenzata dai valori sociali e culturali, e il suo progresso dipende da un confronto aperto tra punti di vista diversi.

La scienza deve bilanciare la necessità di essere inclusiva e democratica con il riconoscimento dell’expertise.

L’errore non è necessariamente un fallimento, ma parte integrante del metodo scientifico, che si basa sull’autocorrezione e sulla revisione continua delle conoscenze.

Discutere di errore e incertezza in ambito scientifico significa anzitutto riflettere su quali sono gli scopi della scienza e cosa è appropriato e ragionevole aspettarsi da essa.

Intuitivamente, ci preoccupa una scienza che si muove nell’ambito dell’incertezza, e provoca il nostro disappunto una scienza che sbaglia.

Affidiamo alla conoscenza scientifica il compito di fornirci descrizioni corrette delle proprietà dei fenomeni, spiegazioni valide dei loro comportamenti, previsioni affidabili relative al loro evolvere.

 Le nostre aspettative, e i modi in cui le formuliamo, sono ragionevoli?

Che cosa è legittimo attendersi dall’impresa scientifica e che cosa, invece, travalica i suoi scopi e le sue possibilità?

Affrontare questi temi consente di fornire una cornice preliminare a qualunque riflessione su incertezza ed errore nella scienza.

 

La scienza è oggettiva?

Alla conoscenza scientifica è riconosciuta un’autorevolezza superiore a quella che viene riconosciuta ad altre forme di conoscenza.

 Se vogliamo sapere com’è fatto il mondo, quali strumenti è più appropriato adottare per raccoglierne le sfide e quali per intervenire sul corso degli eventi – se e quando ciò è possibile – è alle scienze che ci rivolgiamo.

 Ha senso, tuttavia, affermare che è corretto fidarsi della scienza perché la conoscenza scientifica è “oggettiva”?

Che cosa si intende per “oggettività scientifica”?

L’equiparazione dell’oggettività a una totale assenza di valori è stata da tempo criticata in ambito filosofico:

qualunque elaborazione di conoscenza, in quanto attività promossa da esseri umani, non può non essere legata a un qualche punto di vista, a uno dato insieme di conoscenze preliminari, a interessi rispetto a una certa indagine e ai suoi obiettivi.

 Riconoscere che la scienza ospita elementi valoriali nulla toglie, però, alla sua capacità di rappresentare la realtà.

Si tratta piuttosto di declinare meglio la nozione di oggettività scientifica, delineandone diverse possibili angolature.

In primo luogo, la scienza può dirsi oggettiva nella misura in cui ci consente delle interazioni efficaci con il mondo esterno:

l’efficacia della sperimentazione e delle azioni volte a controllare i fenomeni o a modificarne il corso – si pensi in medicina a tutto ciò che concerne la cura – costituisce una prova tangibile del rapporto diretto tra la conoscenza scientifica e il mondo.

 In una seconda accezione, l’oggettività può essere interpretata come convergenza:

 in molti casi, vari filoni di indagine, indipendenti l’uno dall’altro, conducono agli stessi risultati, o a risultati molto simili, indicando così un avvicinamento progressivo e non casuale alla realtà.

 Ulteriori modi di concepire l’oggettività hanno a che vedere con i processi di costruzione della conoscenza scientifica, fortemente sociali:

la scienza è sempre frutto del lavoro congiunto di un gruppo di scienziati, che collaborano e si confrontano, adottando certi strumenti, tempistiche, e quadri di riferimento teorici.

 Si può quindi parlare di oggettività procedurale, garantita dall’affidabilità di metodi condivisi, di oggettività come concordanza, enfatizzando il convergere delle posizioni tra gruppi di ricerca diversi, o di oggettività interattiva, raggiunta tramite dialoghi e dibattiti tra gli scienziati.

La scienza si può pertanto concepire come oggettiva non perché perfettamente neutrale o asettica, ma perché i valori che – innegabilmente – si ritrovano nel discorso scientifico orientano la raccolta e l’utilizzo dell’evidenza, ma non si sostituiscono mai ad essa.

La loro presenza non costituisce un elemento di debolezza della conoscenza scientifica:

 “i valori non sono né uniformi né uniformemente ‘cattivi’.

 La varietà di forme e di funzioni dei valori viene riconosciuta, e il ruolo di alcuni di essi viene considerato necessario allo sviluppo razionale della conoscenza scientifica”.

Scienza, valori, democrazia.

Occuparsi di valori non significa occuparsi di qualcosa di estraneo alla razionalità, alla sistematicità, all’argomentazione rigorosa.

 Il dibattito teorico distingue tra valori conoscitivi (o cosiddetti epistemici) e non.

 I primi includono coerenza, precisione, semplicità, efficacia predittiva, …, mentre i secondi fanno riferimento a opinioni individuali, prospettive culturali, religiose, ecc.

 In termini generali, i valori esprimono ciò che si ritiene importante in un certo contesto e, quindi, ciò che influenza interpretazioni e azioni.

Anziché insistere sulla ricostruzione di processi orientati al raggiungimento astratto di “Verità” e “Progresso”, è opportuno comprendere come i valori sociali e culturali mutino nel tempo, influenzando convinzioni, preferenze, strategie.

Ma di chi sono i valori che giocano un ruolo nella scienza?

 Sono i valori di singoli individui, di gruppi di individui, o della società nel suo insieme ad avere un peso nella costruzione di conoscenza, anche scientifica?

 Di fronte a una qualche porzione di conoscenza scientifica, chiediamoci: quali erano le assunzioni e gli obiettivi degli scienziati che l’hanno prodotta? Quali metodi hanno usato? C’erano altre comunità epistemiche che vedevano le cose in modo diverso?

Idealmente, la scienza dovrebbe emergere da un processo democratico, che sappia valorizzare tutti i punti di vista validi, confrontando scuole di pensiero e metodologie, attraverso conferenze, convegni, pubblicazioni e dibattiti promossi sulle riviste e sui volumi accreditati entro il settore di riferimento, con procedure di referaggio cieco.

È attraverso il dialogo trasparente e il rispetto delle diverse prospettive che la scienza cresce, esplicitando anche il pensiero delle minoranze e minimizzando i “bias” e le possibili distorsioni da parte di elementi socio-politici ed economici.

 Una scienza democratica dovrà evitare di assumere a priori la preminenza di una posizione sull’altra, e favorire invece il dialogo tra le parti, consapevole del ruolo dei contesti.

“Il grado di integrazione, così come i livelli di accuratezza e di semplicità [della conoscenza scientifica ottenuta] varieranno in funzione tanto di ciò che è possibile quanto degli scopi per i quali ci prefiggiamo di utilizzare quella certa porzione di conoscenza”.

 Le comunità scientifiche non cercano la verità simpliciter, bensì particolari “tipi di verità”, riferiti a certi ambiti disciplinari e certi oggetti di studio, e perseguiti per determinati obiettivi, diversi da caso a caso:

 “la verità non è opposta ai valori sociali, anzi, essa è un valore sociale […]

 Un resoconto sociale della conoscenza indica che gli obiettivi a cui punta l’ideale della scienza come attività immune da valori vengono raggiunti più facilmente proprio se il ruolo costruttivo dei valori viene riconosciuto, e la comunità viene strutturata in modo da consentire una loro considerazione critica”.

Riconoscere questi elementi non significa che non si possano distinguere all’interno dell’attività scientifica procedure e obiettivi adeguati e inadeguati; riconoscere l’esistenza di una pluralità di punti di vista non significa accettarli tutti. La scienza è chiamata a garantire la tolleranza e, per quanto possibile, l’interazione tra punti di vista differenti, promuovendo “l’integrazione di diversi sistemi per scopi specifici, la cooptazione di elementi benefici trasversali rispetto ai sistemi, e la competizione produttiva tra sistemi diversi”.

Questa prospettiva è ben lontana dal relativismo: non si tratta di una visione del tipo “qualunque posizione va bene (“anything goes”), bensì di un approccio del tipo “molte posizioni vanno bene” (“many things can go”), dove la riflessione sulla scienza viene esortata a considerare con attenzione non solo i risultati ottenuti, ma anche i processi che hanno portato ad essi.

È attraverso il dialogo trasparente e il rispetto delle diverse prospettive che la scienza cresce, esplicitando anche il pensiero delle minoranze e minimizzando i “bias” e le possibili distorsioni da parte di elementi socio-politici ed economici.

I valori di chi? La società e gli esperti.

Difendere il carattere democratico della scienza ci interroga altresì sui suoi potenziali rischi:

quanta diversità di visioni è ammissibile e auspicabile?

Come possiamo evitare che, nel cercare di non escludere apporti rilevanti, si finisca per valorizzare contributi che non sono rigorosi, avvallando così approcci pseudo-scientifici e rischiando di alimentare, d’altro canto, un atteggiamento di sfiducia dei confronti delle scienze?

 Come garantire che la razionalità scientifica emerga dal confronto tra una pluralità di prospettive diverse che contribuiscono in modo equilibrato all’ottenimento di una conoscenza scientifica pienamente affidabile?

 L’antidoto fondamentale all’inclusione di posizioni scorrette è rintracciabile in un’attenta configurazione dei concetti di expertise e di esperto, e nel loro riconoscimento collettivo.

Questo processo comporta il coinvolgimento di laboratori, centri di ricerca, università, sedi editoriali, società scientifiche, riviste accreditate, …, in cui la comunità scientifica si identifica come tale e attraverso cui opera, definendo un nucleo di standard comuni e di luoghi (reali e virtuali) di condivisione e controllo dei risultati della ricerca.

Senza assumere posizioni autoritarie, l’esperto nei diversi contesti deve poter esercitare la sua azione di scienziato competente ed autorevole, la cui voce ha un peso diverso rispetto a quella del non-esperto.

In altri termini, il problema centrale consiste nel mantenere un equilibrio tra l’affermazione di una scienza democratica e il riconoscimento di cosa conta come expertise, come autentica competenza.

La ricerca costante di tale equilibrio coinvolge tutti gli scienziati, il loro ruolo di fronte alla società e le relazioni tra loro:

“L’impegno collettivo rispetto a dei valori conoscitivi incorpora un elemento di mutua fiducia. Gli scienziati si fidano dei risultati ottenuti da altri scienziati perché assumono che i loro colleghi scienziati condividano gli stessi valori nella ricerca di nuova conoscenza”.

 

Il problema centrale consiste nel mantenere un equilibrio tra l’affermazione di una scienza democratica e il riconoscimento di cosa conta come expertise, come autentica competenza. La ricerca costante di tale equilibrio coinvolge tutti gli scienziati, il loro ruolo di fronte alla società e le relazioni tra loro.

 

Queste riflessioni portano a interrogarsi sulle responsabilità della scienza di fronte alla società: chi certifica chi è “l’esperto”?

Chi dà garanzia di una “conoscenza certificata”?

“La fiducia è creata da robustezza sociale, legittimità dell’esperto, e partecipazione sociale”.

Agli scienziati la società affida il compito di attivare e seguire procedure di verifica del proprio lavoro, attraverso controlli incrociati della qualità della produzione scientifica.

Questi ultimi sono oggetto oggi di ulteriori dibattiti interni alla scienza, che periodicamente rivisita i metodi di valutazione della ricerca e i risultati della stessa.

“Il vero problema non è se gli individui all’interno di un certo comitato scientifico siano mossi da qualche tipo di “bias”, ma come i bias siano distribuiti all’interno di un certo gruppo.

 In questo senso, il problema dei “bias” diviene un problema istituzionale, piuttosto che individuale.

E, di conseguenza, i meccanismi che portano a risolvere il problema dei condizionamenti e delle distorsioni non dovranno concentrarsi sulla loro eliminazione a livello individuale, bensì puntare a designare istituzioni che portino gli effetti di “bias individuali” a neutralizzarsi l’un l’altro”.

 In questo senso, “la fiducia personale viene sostituita dall’appello a una conoscenza certificata e alle istituzioni deputate a darne garanzia”.

Tutto ciò che contribuisce a costruire conoscenza scientifica può contribuire in modo significativo a comprenderne correttamente non solo i progressi, ma anche gli errori – veri o presunti.

 

Rispetto a possibili crisi di fiducia nella scienza, una migliore spiegazione della sua natura, delle sue dinamiche, della rivedibilità all’accrescersi dei dati può avere un effetto fortemente positivo.

Quello che la riflessione teorica può far comprendere è, tra l’altro, che l’errore non è sempre un problema, e non è sempre segno di cattiva scienza, o di non-scienza.

“La scienza è, dopo tutto, un lavoro in corso, che cambia a mano a mano che nuove scoperte portano a revisioni e risistemazioni di interpretazioni già accettate.

La storia della scienza costituisce una narrativa potente di questa cultura dell’auto-correzione, ed è l’essenza della scienza cercare di compiere scoperte che cambino il modo di pensare degli scienziati”.

 È per questo che portare alla luce tutto ciò che contribuisce a costruire conoscenza scientifica può contribuire in modo significativo a comprenderne correttamente non solo i progressi, ma anche gli errori – veri o presunti.

(Raffaella Campaner -filosofa.).

 

 

 

 

 

La Scienza rinnegata e

le Democrazie a rischio.

 

Odisseo.it - Antonio Musarò – (19 Febbraio 2025) – ci dice:

C’è probabilmente una strategia politica in quello che sta facendo Trump.

Le democrazie mature si riconoscono quando promuovono una società della conoscenza e una cittadinanza scientifica.

L’annientamento alla società della conoscenza è iniziato da tempo;

 la pandemia da Covid-19 ha fatto emergere, da una parte, quanto fondamentale sia la scienza per far fronte a sfide sempre più impegnative e dall’altra quanto potente sia anche la lobby dell’anti-scienza.

 Buona parte dei governi del mondo, o se non altro interi partiti politici, hanno dato voce e ora riabilitato i “no vax” e complottisti vari.

 

Abbiamo assistito, nel tempo, a governi che hanno autorizzato cure non efficaci o non comprovate, come la “terapia Di Bella”, il “metodo Stamina”, l’”omeopatia”.

Ancora oggi, nonostante sia stato ampiamente dimostrato che non esiste alcuna evidenza scientifica di efficacia terapeutica dell’omeopatia, l’Italia autorizza il rimborso, con una cifra che si aggira intorno a 50 milioni di euro l’anno, di terapie omeopatiche basate su teorie di fine 1700 e confutate dalla medicina moderna.

 

La storia, peraltro, ci insegna come il pensiero scientifico sia stato ed è spesso osteggiato; dal fanatismo religioso del medioevo, al negazionismo e postverità del nostro secolo.

Un caso emblematico è quello di “Ipazia di Alessandria”, matematica e astronoma del IV secolo d.C., accusata di blasfemia e anticristianesimo dal vescovo Cirillo e brutalmente assassinata, da una folla di fanatici religiosi, per la sua libertà di pensiero.

Il Rinascimento e l’Età Moderna, nonostante portarono ad una rinascita del pensiero scientifico, hanno anche visto forme di repressione.

Il caso più noto è quello di Galileo Galilei, condannato dall’Inquisizione nel 1633 per aver sostenuto il modello eliocentrico di Copernico, in contrasto con la visione geocentrica di Tolomeo e sostenuta dalla Chiesa cattolica.

Galileo fu costretto all’abiura:

“Con cuor sincero e fede non finta, abiuro, maledico e detesto li suddetti errori et heresie”.

Tuttavia, se l’abiura era stata pronunciata per soddisfare l’egocentrismo del pensiero religioso e avere salva la vita, il metodo scientifico elaborato da Galileo aveva ormai squarciato il modo dogmatico di osservare le cose.

 

Nonostante quel portentoso e rivoluzionario movimento di idee che sembrava aver mutato per sempre non solo l’immagine dell’universo, ma anche la concezione del sapere, non più dogmatico ma basato sul pensiero razionale, si è assistito nel recente passato ad un annientamento del pensiero scientifico.

 In Germania, il regime nazista ha censurando scienziati come Albert Einstein, promuovendo teorie pseudoscientifiche basate su pregiudizi razziali, sostenute in Italia dal regime fascista.

Oggi, nonostante gli enormi progressi scientifici e tecnologici che hanno permesso di sconfiggere malattie, esplorare nuovi mondi, indagare i segreti della natura, accorciare le distanze non solo geografiche, ma anche sociali si assiste, sebbene con modalità diverse dal passato, ad un continuo attacco alla scienza.

È quello che succede anche nel campo della ricerca scientifica che fa uso di modelli animali, continuamente sotto attacco da associazioni di animalisti e da chi fa da megafono mediatico ad una pervicace disinformazione.

 Il progresso della ricerca biomedica per trovare rimedi alle malattie, nuovi farmaci, nonché per fornire le basi del sapere medico e veterinario richiede, in molti ambiti, di ricorrere alla sperimentazione animale, la quale è peraltro rigorosamente regolamentata.

Tuttavia, la disinformazione alimenta spesso l’odio verso chi è ritenuto non funzionale al “senso comune”.

E spesso arrivano agli scienziati anche le pallottole e le minacce di morte.

E così, anche le democrazie cosiddette evolute hanno mostrato e continuano a mostrare forti limiti nel garantire la costruzione di una vera cittadinanza scientifica, che significa garantire la libertà di ricerca e il libero accesso al sapere, sostenere la scienza e le sue necessità, garantire un lavoro dignitoso e una giustizia sociale, stimolare il pensiero critico, legiferare e amministrare la cosa pubblica non solo con disciplina e onore, ma anche con competenza e atteggiamento non pregiudizievole.

 

Una democrazia matura deve saper promuovere la cultura e la scienza a tutela di tutti, soprattutto degli adolescenti e dei giovani che hanno assoluto bisogno di testimoni credibili e affidabili, soprattutto nel nostro tempo che rischia di essere “liquefatto”, poco definito e “relazionalmente fragile”;

 significa anche trasmissione sapiente alle giovani generazioni dei valori, delle responsabilità, dei confini e dell’autorevolezza propri di chi intenzionalmente vuole lasciare e non trattenere saperi egocentrici/autoreferenziali, ma che sente che i propri saperi sono e devono essere al servizio degli altri, in particolare di chi sta costruendo il suo futuro identitario.

 

Il potere della cittadinanza scientifica nella promozione di una democrazia matura è molto ben esplicitato nell’opera monumentale e pionieristica dell’Enciclopedia o Dizionario ragionato delle scienze, delle arti e dei mestieri, curata da” Denis Diderot” e “Jean D’Alembert” nel 1751, in cui si dichiara che un popolo non può definirsi veramente libero e non può aspirare al progresso se gli è negato il libero accesso alle fonti del sapere scientifico e tecnico.

Non a caso, nel 1752 un Decreto regio ne censurava i primi due volumi, nel 1759 il Consiglio di Stato revocava la licenza alla stampa e papa Clemente VIII ne proibiva l’acquisto e scomunicava i fedeli che ne avessero conservato copie.

 

Quest’opera ha forse ispirato anche i padri costituenti della Repubblica Italiana che hanno voluto affermare la “potenza democratica” della cultura e della ricerca scientifica codificandola negli articoli 9 e 33 della Costituzione della Repubblica Italiana:

“La Repubblica promuove lo sviluppo della cultura e la ricerca scientifica e tecnica” (art. 9); L’arte e la scienza sono libere e libero ne è l’insegnamento” (art. 33).

 

Capita invece di assistere a continui “infarti democratici”;

questo accade quando il potere dell’educazione, della cultura, del progresso scientifico spaventa i governanti e decisori politici e pertanto viene “violentemente” osteggiato.

È quello che sta succedendo in quella che si pensava fosse la fortezza della democrazia: gli Stati Uniti d’America.

 

Il presidente degli Stati Uniti, Donald Trump, subito dopo il suo insediamento alla Casa Bianca il 20 gennaio 2025, ha firmato una serie di ordini esecutivi rivolti alle principali agenzie scientifiche del Paese per sospendere le loro normali attività ed occuparsi di compiti che sono un vero annientamento alla cittadinanza scientifica: blocco di nuovi finanziamenti, revisione di quelli già approvati, ritiro di articoli scientifici in fase di pubblicazione, rimozione dalle pubblicazioni scientifiche di termini ritenuti sgraditi alla linea politica del governo, tra cui la diversità di genere e l’inclusione.

 Allo stesso tempo, Trump ha firmato un ordine esecutivo per l’uscita degli Stati Uniti dall’OMS.

In Italia, il partito politico della Lega, ha annunciato un disegno di legge per abrogare l’adesione dell’Italia all’OMS;

se questo dovesse accadere, il rischio sarebbe di avere conseguenze impattanti sulla salute dei cittadini in quanto si determinerebbe la perdita di accesso a dati sanitari globali, alla sorveglianza delle malattie e alle risorse condivise per sviluppare, come accaduto con la Covid-19, vaccini e terapie.

Donald Trump ha preso di mira anche gli sforzi per rendere la scienza più inclusiva, in particolare sulle questioni di genere e disabilità.

 Gli scienziati finanziati dal Governo Federale sono stati obbligati, per direttiva politica, a eliminare qualsiasi termine associato a quella che una parte del Partito Repubblicano definisce “ideologia di genere”.

 

C’è probabilmente una strategia politica in quello che sta facendo Trump e molti politici che lo seguono, anche in casa nostra:

silenziare chi produce cultura e chi promuove una cittadinanza scientifica per avere meglio il controllo su tutto.

 

Malala Yousafzai, la coraggiosa ragazza Pachistana, premio Nobel per la pace, a cui non solo è stato negato il diritto allo studio, ma è stata anche gravemente ferita nel 2012 dai talebani per la sua attività a favore dell’istruzione delle bambine, nel suo discorso alle nazioni unite (ONU) afferma:

“abbiamo capito l’importanza delle penne e dei libri quando abbiamo visto le armi. Il saggio proverbio la penna è più potente della spada dice la verità. Gli estremisti hanno paura dei libri e delle penne.

Il potere dell’educazione li spaventa.”

Siamo ora arrivati a constatare che a sparare non sono solo gli estremisti, ma una popolazione di giovani con situazioni familiari complicate, incapaci di relazioni sociali, emarginati da una scuola incapace di educare e quindi si alimentano frustrazioni, fallimenti e fragilità psicologiche.

 

Prima si andava scuola con i libri e le penne, ora con le armi;

ed è significativo come la risposta all’ennesima strage di studenti in una scuola americana sia stata non quella di trovare soluzioni che potessero migliorare l’educazione scolastica, la salute psicofisica, culturale, emotiva, sociale degli studenti, ma approvare una legge per permettere agli insegnanti delle scuole pubbliche primarie e secondarie e al personale scolastico di portare un’arma a scuola.

Della serie: occhio per occhio, dente per dente!

 

Prima le scuole erano luoghi di formazione e di educazione civica, ora sono diventate delle aziende; prima si aveva a cuore la formazione rigorosa dei discenti, ora questi ultimi sono diventati dei clienti.

Questo ha minato profondamente il senso, il significato e il valore di società della conoscenza e cittadinanza scientifica, annientando il pensiero critico e la consapevolezza dei propri diritti.

Si finisce così per essere soggiogati dal potente di turno: un vero furto di democrazia.

Enrico Berlinguer, in un accorato discorso tenuto a Milano nell’aprile 1982 “I giovani alle prese con le sfide del Duemila”, disse: “Le conoscenze scientifiche e tecniche, possono permettere il passaggio dalla condizione di necessità a quella della libertà”.

La scienza, e il suo metodo, aiutano a garantire forme mature di democrazia in quanto la scienza è libera da ogni giogo di autorità, “sintesi di esperienza e ragione, acquisizione di conoscenze verificabili e da discutere pubblicamente”.

La scarsa considerazione che la nostra classe politica e in particolare quella più recente riserva all’istruzione, all’università e alla ricerca, come affermava la scienziata “Margherita Hack, è la conseguenza del basso livello culturale della gran maggioranza degli eletti in Parlamento.

 

Bisogna ritornare a favorire il pensiero razionale e il metodo scientifico.

Bisogna recuperare, soprattutto nelle nuove generazioni, l’interesse verso la conoscenza scientifica, nel quadro più generale dell’universalità della cultura; facilitare esperienze che abbiano sia un valore formativo e educativo, sia un valore comunicativo;

 garantire spazi di confronto e di condivisione;

condivisione di idee, condivisione di quella sete di conoscenza che rende possibile non solo il progresso del sapere, ma anche il progresso sociale, politico, economico e culturale di un paese.

In altre parole: Democrazia.

 

 

L’impossibile smentita delle zichicche.

Climaterante.it- (12-7-2017) – Stefano  Caserini – Sylvie Coyaud – ci dicono:

 

Su il quotidiano “Il Giornale” è stato pubblicato l’ennesimo delirio sul clima del prof. Zichichi, seguito da un appello contro presunte bufale sul clima e una richiesta di smentita:

ma a ben guardare, la tesi di Zichichi è talmente priva di senso da non poter essere neppure smentita.

Di solito leggiamo gli articoli sul clima che il Prof. Antonino Zichichi scrive su Il Giornale con spensieratezza se non divertimento, più o meno come assistiamo in televisione alle sue imitazioni da parte del comico Maurizio Crozza.

Ci sembra evidente che la credibilità dell’anziano fisico delle particelle sui temi della climatologia sia nulla, che sia palese l’inconsistenza delle sue critiche alla scienza del clima, nonché la presenza di numerose castronerie.

Per questi motivi, negli ultimi anni abbiamo steso un velo pietoso e raramente replicato (qui un vecchio post del 2009: “Zichicche (n+1): i batteri dormiglioni”), archiviando gli articoli nella categoria del cabaret.

 

Quello del 5 luglio “L’inquinamento.

L’inquinamento va punito come reato, ma è da ciarlatani dire che modifica il clima” merita un’eccezione, in quanto alla fine dello scritto, Zichichi ha pubblicato una sorta di appello contro “il terrorismo ambientalista” e “le bufale che vengono fatte circolare sul clima”, firmato da “20 professori provenienti da università e centri di ricerca di tutto il mondo”, fra cui gli italiani Alessandro Bettini (Università di Padova), Federico Antinori (Università di Padova), Giorgio Benedek (Università di Milano-Bicocca) e Cristiano Galbiati (Università di Princeton).

 

Siccome combattere le bufale sul cambiamento climatico è uno degli scopi di questo blog, e visto la richiesta finale in fondo all’appello “aspettiamo smentite”, abbiamo provato a valutare la confutazione delle tesi di Zichichi.

 

I due terzi iniziali dell’articolo sono dedicati al tema dell’inquinamento dell’aria. Con uno stile sciatto (e anche errori grammaticali: “I veleni immessi nell’aria dalle auto, dagli impianti di riscaldamento e dalle industrie, quando c’è bel tempo e niente vento, fa scattare l’allarme”), la descrizione dei “dettagli su come si avvelena l’atmosfera” assomiglia a quella dei sussidiari delle scuole medie degli anni ’80, con diversi errori (ad esempio “le sostanze inquinanti non possono sparire: vengono portate in altre zone dell’atmosfera”: in realtà alcune sono trasformate in altre sostanze, il monossido di carbonio “sparisce” perché viene ossidato a CO2, l’NO2 può sparire perché reagisce con altri inquinanti).

 

L’attenzione messa sull’SO2 (“alte ciminiere delle fabbriche emettono Biossido di Zolfo”… “sostanza emessa anche dalle caldaie a uso domestico”) e il CO “Un motore mal regolato produce molte sostanze inquinanti.

Al primo posto c’è l’Ossido di Carbonio”, mostra l’ignoranza di Zichichi sui problemi attuali della qualità dell’aria, dovuta al fatto che ha probabilmente riciclato uno scritto di qualche decennio fa.

Infatti, SO2 e CO sono ormai problemi del tutto secondari in Italia, che ha ridotto rispettivamente del 93% e del 67% le emissioni di questi due inquinanti dal 1980 al 2015 (qui la serie storica delle emissioni nazionali pubblicata da ISPRA): raramente oggi superano i valori limite di qualità dell’aria fissati dalle normative.

Dopo aver menzionato gli ossidi di azoto, l’inesperto di chimica ambientale non menziona neppure gli inquinanti principali su cui si concentrano le normative e le politiche sull’aria, le polveri fini (PM10, PM2.5), che superano ancora in molte aree i livelli ammessi dalle normative (qui dati recenti).

 

In sintesi, questa parte è nel complesso scadente e banale (a partire dal titolo “L’inquinamento va punito come reato”… sono anni che inquinare è reato).

La parte sul clima è invece una sequela di stupidaggini sul tema dei modelli climatici, accompagnata da un bizzarro paragone con la gravità newtoniana:

 “Con l’evoluzione climatologica i governi di 195 nazioni sono su questa strada, dando per scontata l’equivalenza tra un modello matematico con decine di parametri liberi e un’equazione (come ad esempio la formula di Newton) che permette di descrivere l’evoluzione del clima”.

Si tratta dell’ennesima riproposizione dello slogan “non esiste l’equazione del clima” usato per la prima volta da Zichichi nell’articolo “Effetto serra, i dilemmi della Casa Bianca”, su “Il Messaggero dell’8 giugno 2001”.

Esistono centinaia di modelli climatici che simulano l’evoluzione di fenomeni diversi.

Ognuno si basa su numerose equazioni nonché su parametri tarati e validati sulla base di osservazioni e dati sperimentali.

Chi volesse discuterne seriamente dovrebbe magari leggersi qualcosa sulla loro composizione il capitolo “9- Evaluation of Climate Models” del Quinto Rapporto IPCC (WGI), o la più breve introduzione ai modelli nel Capitolo 1, o almeno le risposte ad alcune “semplici domande” sui modelli ivi pubblicati citati, detti “General circulation models”.

Per simulare le dinamiche di un sistema complesso come il clima, ci devono essere non una, ma più equazioni, magari centinaia che insieme concorrono a definire le sue varie componenti; e la verifica sperimentale è ovviamente impossibile poiché l’oggetto dell’esperimento sarebbe l’intero pianeta.

La pretesa di Zichichi di voler ricondurre tutto ad un’unica equazione non raggiunge quindi il livello minimo di sensatezza per essere smentita da un punto di vista scientifico:

è semplicemente una stupidaggine, una stronzata (nel senso di Harry Frankfurt), o più precisamente un’altra delle “Zichicche”.

Tutto ciò non deve sorprendere.

Zichichi scrive da anni sciocchezze sesquipedali sulle cause dei cambiamenti climatici, come raccontato in molti post , o come si può ascoltare nelle registrazioni di un convegno già presentato.

Quelle precedenti al 2008 sono invece riassunte nell’apposito capitolo di “A Qualcuno Piace Caldo”.

L’appello in fondo all’articolo non evidenzia chiaramente la tesi che i 20 firmatari intendono confutare, oltre alla pretesa che qualcuno tiri fuori quella benedetta equazione, ovvero “le cose necessarie (come le due masse e la loro distanza) per potere calcolare se a Londra pioverà o splenderà il sole”;

 equazione che nessuno sta cercando, neppure il Prof. Zichichi che mostra solo di non conoscere la differenza fra i modelli usati per le previsioni meteorologiche e per le proiezioni climatiche.

Il curriculum dei 20 firmatari rivela che pure loro non hanno alcuna competenza sul tema dei cambiamenti climatici, ma sono accomunati dall’essere conoscenti o collaboratori del Prof. Zichichi su temi legati alla fisica delle particelle.

Viene il sospetto che non sappiano neppure loro in cosa consiste l’appello che hanno firmato.

(Stefano Caserini e Sylvie Coyaud).

 

 

 Il totalitarismo democratico.

Ilpiacenza.it – Carlo Gianello – (12 settembre 2022) – ci dice:

 

Sembrerà strano mettere insieme due parole contrapposte, come fossero un ossimoro ed in effetti lo sono, ma così stanno le cose.

Siamo infatti in questa situazione.

Da una parte, sembra che la democrazia nei paesi civilizzati sia un fatto ormai compiuto.

Ma da un’altra parte la si mette in dubbio, evocando il fascismo che in realtà non esiste, se non nell’immagine di coloro che temono la destra, come espressione di una società ancora tradizionale.

Dove i valori di Dio, patria e famiglia, rappresentano lo schema del rapporto non ancora rotto con il passato.

ù Una condizione questa che viene considerata reazionaria e anti moderna. Espressione di una non cultura che non è in grado di capire l’evoluzione dei tempi. E che si ostina a guardarsi indietro con l’atteggiamento di pensare che del tempo non esiste solo il presente, ma anche il passato.

Una narrazione della storia questa contestata dalla sinistra e dai numerosi gruppi liberal americani, che per questa ragione si ritengono depositari di una loro superiorità culturale.

Appunto perché sono in grado di seguire non il tempo, pur con le sue contraddizioni, ma le mode del tempo e quindi si sono messi in linea con i desideri della gente che vuole credere ad una unica verità.

 Quella che ambisce alla felicità senza inutili remore, regole ed impedimenti di natura morale.

Cose vecchie queste e per dirla tutta, seguendo la moda ideologica progressista odierna, anche un po’ fasciste.

Per realizzare il tempo dei desideri, la prima cosa è demolire la società per crearne un’altra artificiale e che sia l’opposto di quella tramandataci dalla vecchia cultura. Infatti questa deve essere riformata, anzi meglio ancora cancellata.

 Tutto infatti del vecchio mondo deve essere sottoposto ad un reset completo, che trova nella” cancel culture” e nello “spirito woke” la condizione primaria ed indispensabile per agire al fine di creare una nuova umanità.

In grado di eliminare i presunti errori del passato caratterizzati da quei fatti, da sempre considerati naturali in fatto di sessualità.

Ed in base a questi, tendere alla edificazione di una società che non preveda i nuovi bisogni di eliminare i vecchi freni e divieti di natura morale.

 Un tempo considerati valori ed oggi diventati errori ed orrori da evitare.

 Il vecchio mondo si è dunque trasformato nel nuovo mondo, che abbisogna di tutto il sostegno della ideologia della sinistra, per rimodellare il tessuto sociale basato sulla disgregazione della società.

  Questi, in sintesi, i nuovi propalati (pseudo) valori.

Essere a favore del “movimento gender”, espressione di apertura culturale, onde generare con l’ausilio di uteri in affitto nuove famiglie, in cui l’accordo inteso come amore indissolubile, a differenza di quanto succede nelle famiglie tradizionali, viene considerato altamente certo ed auspicabile dalla nuova narrazione ideologica progressista.

 E nello stesso tempo, non bisogna dimenticare di guardare con sospetto la posizione contraria di chi vanta dei dubbi.

Sono questi i cosiddetti reprobi, tacciati come gli untori manzoniani, di reati di omofobia e di vocazione discriminante.

Altro problema l’aborto che, secondo la nuova vulgata, deve essere libero e a discrezione della donna, indipendentemente dai tempi della gravidanza.

Al punto che in certi stati progressisti, i liberal avanzano proposte addirittura per l’aborto post natale.

Segue, per meglio comprendere la nuova moda, la liberalizzazione del trattamento ormonale per il blocco della pubertà nei giovani, spesso perfino minorenni, indipendentemente dal consenso dei genitori.

 Ma non è tutto.

Anche il fine vita entra nei programmi dei progressisti in riferimento ad una nuova proposta di legge che autorizza l’eutanasia passiva per tutti i disabili mentali e gli affetti da demenza.

 Parlavo prima dei cosiddetti valori basati su una società disgregata, dove anche lo studio e perfino lo sport seguono i nuovi modelli.

 Iniziando dallo studio, emerge come tutta la storia antica debba essere abolita. Troppo disuguaglianze e prevaricazioni in essa e dove perfino gli eroi, magari omofobi o di pelle bianca, danno ormai fastidio per non essere più compatibili con la nuova società basata sul multiculturalismo e sul multirazziale.

Inoltre anche la didattica segue le stesse nuove regole.

 Gli insegnanti che non si rivolgono agli studenti con i pronomi neutri per rispetto alle minoranze Lgbt, rischiano di essere sospesi dal loro incarico.

 O anche di essere puniti come è successo recentemente in una scuola cattolica irlandese, dove un insegnate di materie umanistiche, un certo” Enoch Burke”, è stato arrestato per essersi rifiutato, causa le sue convinzioni religiose, di rivolgersi ad un suo studente, in fase di transizione, non usando il pronome neutro, piuttosto che quello maschile o femminile.

Ed a questo proposito anche lo sport subisce analoghi contraccolpi disgreganti. Infatti il genere femminile è già stato distrutto per permettere di gareggiare con le donne anche uomini, che dicono di sentirsi di sesso opposto.

Un altro accenno va fatto per il “covid,” dove la verità di stato, oggi sottoposta a numerose critiche, ha imposto la vaccinazione obbligatoria.

E nello stesso tempo la sospensione di ogni incarico professionale e perfino la denuncia verso chi non ha ottemperato all’obbligo. 

E per ultimo che dire sulla “dittatura green”, in cui la natura viene “eletta dea”, mentre l’uomo diventa un usurpatore ed un distruttore di beni naturali.

 Con l’arroganza di non sapersi piegare al culto della “dea natura”, esattamente come al tempo dell’età dei lumi, non riuscì a fare con la “dea ragione”.

 A questo punto dopo le due dee, vi dovrei parlare di Dio.

Ma poiché oggi non esiste, se non nei nostalgici del tempo passato, meglio lasciare perdere.

 Infatti diventa inutile parlare di amore e giustizia, due entità divine che vanno a braccetto per creare una società giusta e timorosa.

 Per i nuovi adepti della nuova religione esiste solo la scienza.

A questa e solo a questa, è demandata la salvezza del corpo.

 Mentre dell’anima è vietato parlarne, per mancanza di tutta quella cultura cristiana che lega(va) il passato, al presente e questo ad un futuro di redenzione. Poiché tutto questo patrimonio culturale sembra non esistere se non nei conservatori tacciati di omofobia e di bigottismo ipocrita, ecco allora in sintesi il nuovo mondo dei progressisti.

Società non più solo liquida, ma smembrata.

Democratica sì, ma solo di nome e solo per chi l’accetta.

Per tutti gli altri, trattasi di un totalitarismo di fatto.

Basato sulla sorveglianza digitale da parte dei gruppi economici multimediali e su una sola verità.

 Quella di uno stato che non tollera il passato, espressione di modelli sbagliati, che non sono più compatibili col nuovo tempo, fatto di una narrazione artificiosa ed artificiale dettata dalla cultura dell’ovvio e dalla dipendenza ideologica.

Dove il tempo è solo il presente.

In quanto se il passato non esiste anche il futuro non può essere.

Tutto si deve giocare nell’hic et nunc, tanto che se mi è lecito citare, “Lorenzo de’ Medici”, pur consapevole di commettere un errore di ignominiosa e stantia cultura antica, ebbene non mi sottraggo alla provocazione.

 Cito allora un suo famoso verso:

del doman non v’è certezza.

 In questo modo mi sono dichiarato di non riuscire a far parte del nuovo mondo.            

(ilpiacenza.it/blog/anticaglie/il-totalitarismo-democratico.html).

 

 

Karl R. Popper - Logica della scoperta scientifica.

La filosofia della scienza di Karl Popper.

Digilanter.libero.it - Guido Marenco – (10-2-2006) – ci dice:

 

Dove si sostiene che affermazioni elementari circa la realtà non possono essere giustificate dalle esperienze più di quanto si possa giustificarle picchiando un pugno sul tavolo.

"Il vecchio ideale scientifico dell'episteme - della conoscenza assolutamente certa, dimostrabile - si è rivelata un idolo.

L'esigenza dell'oggettività scientifica rende ineluttabile che ogni asserzione della scienza rimanga necessariamente e per sempre allo stato di tentativo.

 È bensì vero che un'asserzione scientifica può essere corroborata, ma ogni corroborazione è relativa alle asserzioni che a loro volta hanno natura di tentativi. Possiamo essere «assolutamente certi» solo nelle nostre esperienze soggettive di convinzione, nella nostra fede soggettiva. "

(K. R. Popper - La logica della scoperta scientifica).

 

Secondo quanto ci ha raccontato lo stesso Popper, il suo modello di filosofia della scienza nacque riflettendo su quella che a suo avviso era la logica della scoperta scientifica evidenziata da Einstein.

In più di un'occasione questi aveva affermato che le ipotesi scientifiche nascono come "libera invenzione creativa".

 Si cerca di imporle alla natura e il più delle volte questa risponde "no, così non va".

Ma, a volte, la cosa funziona.

 Il problema è che Einstein non spiegò come si arriva a libere invenzioni creative. Forse, la spiegazione è più semplice di quanto si possa supporre se pensiamo a come Peirce descrisse il processo abduttivo.

Esso accade tutte le volte che ci facciamo una domanda del tipo: "e se fosse vero che?"

Il segreto dell'abduzione sta tutto qui.

 Essa si applica ogni qualvolta ci sembrano insufficienti le spiegazioni canoniche, in tutte le circostanze, in tutti gli ambiti, in tutte le ricerche.

Naturalmente, mi ha sorpreso negativamente che Popper non abbia fatto ricorso a Peirce, risolvendo così uno degli interrogativi che solleva la sua impostazione. Come nascono le ipotesi?

Come riusciamo immediatamente a selezionare quelle che potrebbero "andare" e quelle "sballate" in partenza?

 Sono le domande più banali che potrebbero sorgere in chiunque, ma Popper ha escluso che simili domande possano ottenere risposta, e che, soprattutto, valga la pena di porsele.

"La questione: come accada a un uomo venga in mente un'idea nuova - un tema musicale, o un conflitto drammatico o una teoria scientifica - può rivestire un grande interesse per la psicologia empirica ma è irrilevante per l'analisi logica della conoscenza scientifica.

Quest'ultima prende in considerazione non già questioni di fatto (il quid facti? di Kant), ma soltanto questioni di giustificazione o validità (il quid juris? di Kant)." Queste frasi sono tratte dalla “Logica della scoperta scientifica”, e mostrano chiaramente sotto quali restrizioni venga posta e determinata la logica della scoperta.

A Popper interessa solo come può essere giustificata un'asserzione, in che modo, se può essere sottoposta a controlli, se dipenda da certe altre asserzioni o se entri in contraddizione con esse, o alcune di esse.

Tutto il resto è psicologia empirica e resta momentaneamente escluso il chiedersi se le asserzioni della psicologia possano annoverarsi “de jure” tra quelle ammissibili.

 

Alla luce di tali convinzioni, strada facendo...

Popper si rese conto degli errori e dei limiti presenti nelle due correnti di pensiero più influenti nei primi decenni del Novecento: il convenzionalismo e il neopositivismo.

Confrontando l'esempio di Einstein con il pensiero dei vari Duhem, Poincarè, Carnap e Wittgenstein, Popper si convinse che sia il convenzionalismo che l'empirismo logico erano confutati dal cammino della scienza.

Lo stesso cammino della scienza suggeriva come rimediare.

Guardando soprattutto all'aspetto metodologico dell'impresa di Einstein, Popper vi ravvisava un concetto fondamentale: quello della falsificazione.

Per provare la solidità di una teoria, non bastava verificarla; occorreva "un controllo genuino" e "quest'ultimo può essere presentato come un tentativo serio, benché fallito, di falsificare la teoria".

 Il controllo portava alla corroborazione della teoria stessa.

In questo primo intervento mi limiterò a descrivere la critica di Popper alle due correnti epistemologiche influenti nei primi decenni del Novecento, accennando per linee generali alle alternative che propone.

 Nel successivo cercherò di evidenziare in quale misura le idee di Einstein giocarono un ruolo determinante nella genesi del falsificazionismo e del fallibilismo popperiano.

 Quest'ultimo è un altro pilastro della teoria di Popper, anche se non si può dire che sia una sua invenzione originale, visto che l'idea di probabilismo, e quindi di errore possibile nella predizione di un evento, risale quantomeno a Carneade, cade con la filosofia medioevale, ma risorge, se ben si guarda, già con Descartes e persino con l'ultra determinista Laplace, consapevole dell'impossibilità che l'uomo possa pervenire alla conoscenza della situazione fisica totale e dettagliata dell'universo pur perseguendo instancabilmente questa utopia.

Contro il convenzionalismo.

Popper non manca di riconoscimenti al convenzionalismo; nella Logica della scoperta scientifica, scrive:

 «La filosofia del convenzionalismo dev'essere considerata altamente meritevole per il modo in cui ha contribuito a chiarificare le relazioni tra teoria ed esperimento.

 Essa ha riconosciuto l'importanza, a cui gli induttivisti avevano prestato così poca attenzione, della parte che le nostre azioni e le nostre operazioni, pianificate secondo convenzioni e ragionamento deduttivo, hanno nell'esecuzione e nell'interpretazione dei nostri esperimenti scientifici.

Io ritengo che il convenzionalismo sia un sistema autosufficiente e difendibile.

È improbabile che i tentativi di cogliere in esso qualche contraddizione abbiano successo.

Però, nonostante tutto, lo trovo assolutamente inaccettabile.

Sotto la sua superficie sta un'idea della scienza, dei suoi scopi e dei suoi propositi che trovo estremamente diversa dalla mia.

Mentre io non esigo che la scienza possa fornire una certezza definitiva (e di conseguenza non la ottengo), il convenzionalista, per dirla con “Dingler”, cerca nella scienza "un sistema di conoscenze basato sopra fondamenti definitivi". Questa meta è raggiungibile, perché è possibile interpretare qualsiasi sistema scientifico dato come un sistema di definizioni implicite.»

 

Ciò porta, secondo Popper, ad una forma di passività acritica.

Si accettano le idee ricevute dal passato senza ben rendersi conto di che si tratta. Ora, nei periodi in cui la scienza si sviluppa in modo cumulativo, edificando su ciò che è già stato edificato, il convenzionalismo può funzionare.

Tuttavia, «ben altro accadrà in tempi di crisi. In tutti quei casi in cui il sistema "classico" in vigore è minacciato dai risultati di nuovi esperimenti che, secondo il mio punto di vista, possono essere interpretati come falsificazioni, il sistema apparirà ben saldo al convenzionalista.

Egli liquiderà le contraddizioni che possono essere sorte, ricorrendo ad una spiegazione e forse biasimando la nostra inadeguata padronanza del sistema. Oppure eliminerà le contraddizioni suggerendo l'adozione ad hoc di certe ipotesi ausiliarie o, forse, di certe correzioni ai nostri strumenti di misura.»

 

Va bene, si dirà, ma non s'è visto che il convenzionalismo è inattaccabile dal punto di vista logico?

Che importa? C'è ugualmente un modo per evitarlo: basta decidere di non applicarne i metodi.

Sì, ma - ribadisce un convenzionalista - perché abbandonare un metodo che logicamente appare inappuntabile?

Perché, risponde Popper, in tempi di crisi il conflitto tra il sistema convenzionale e le nuove teorie falsificate e falsificanti diventerà ancora più acuto.

«Noi, e quelli che condividono il nostro atteggiamento, nutriremo la speranza di fare nuove scoperte, e spereremo anche di essere aiutati, in questo, da un sistema scientifico eretto ex novo.

 Avremo perciò un grandissimo interesse per l'esperimento falsificante, e lo saluteremo come un successo, perché ha aperto nuove prospettive in un mondo di nuove esperienze.

E lo saluteremo con gioia, anche se queste nuove esperienze ci fornissero nuovi argomenti contro le nostre teorie più recenti.

Ma la nuova struttura che sta sorgendo, di cui ammiriamo l'arditezza, è considerata dal convenzionalista come un monumento al "collasso totale" della scienza.»

A questo punto, incontriamo una importante novità. Popper gioca la carta dell'empirismo contro l'avversario convenzionalista.

 La decisione di abbandonare i metodi convenzionalisti si giustifica attraverso il riconoscimento e l'ammissione che possa essere ammesso come scientifico soltanto un sistema che possa essere controllato dall'esperienza.

E precisa: «Secondo la mia proposta, ciò che caratterizza il metodo empirico è la maniera in cui esso espone alla falsificazione, in ogni modo concepibile, il sistema che si deve controllare. Il suo scopo non è quello di salvare la vita a sistemi insostenibili, ma, al contrario, quello di scegliere il sistema che al paragone si rivela più adatto, dopo averli esposti tutti alla più feroce lotta per la sopravvivenza.»

 

Eppure, il convenzionalista ha ancora qualche carta da giocare, come riconosce Popper.

Dalle sue idee è possibile ricavare "certi interessanti argomenti contro il mio criterio di demarcazione".

«Ammetto ... che i sistemi di teorie delle scienze naturali non siano verificabili; ma asserisco che non sono neppure falsificabili. Infatti esiste sempre la possibilità di "... raggiungere, per qualsiasi sistema di assiomi, quella che viene chiamata la 'corrispondenza con la realtà'... e ciò si può fare in un certo numero di modi... Così possiamo introdurre ipotesi ad hoc; oppure possiamo modificare le cosiddette "definizioni ostensive" (o le "definizioni esplicite"...) ecc...» .

Popper ammette la possibilità di un atteggiamento scettico contro le nuove teorie.

Ammette che lo sperimentatore possa non godere la nostra fiducia, che sia un bugiardo, e così via.

Ciò che conta è che rimanendo all'interno di una logica convenzionalista non si può dividere le pretese teorie scientifiche in sistemi falsificabili e non falsificabili, "o meglio, una simile distinzione sarà ambigua".

Popper definisce "incontestabili" le obiezioni e ammette persino "che il mio criterio di falsificazione non conduce a una classificazione priva di ambiguità".

Come supera lo scoglio?

 Innanzi tutto asserendo che opporre un sistema convenzionale ad uno empirico significa cadere in una questione mal formulata.

«Soltanto facendo riferimento al metodo applicato a un sistema di teorie è possibile chiedersi se si stia trattando con una teoria convenzionalistica o con una empirica

. L'unico modo per evitare il convenzionalismo consiste nel prendere una decisione: la decisione di non applicarne i metodi.

 Nel caso in cui il nostro sistema sia minacciato decidiamo di non ricorrere, per salvarlo, a nessun genere di stratagemma convenzionalistico.

 In tal modo ci assicureremo contro l'uso della possibilità ora menzionata, e sempre aperta, di "... raggiungere, per ogni sistema ... scelto, quella che viene chiamata la sua 'corrispondenza con la realtà' ".»

Tra virgolette, Popper ci ha messo una citazione dal chimico” J. Black”, un testo del 1803. Da esso riprende un'ulteriore citazione:

" Un adeguato adattamento delle condizioni farà sì che quasi tutte le ipotesi concordino con i fenomeni.

Ciò forse compiace l'immaginazione, ma non fa progredire la nostra conoscenza." E ciò che serve a Popper per chiarire che la concordanza artificiosa tra sistema e realtà inseguita dal convenzionalismo rischia di bloccare lo sviluppo della ricerca scientifica, bocciando in anticipo teorie rivoluzionarie.

 

Contro l'empirismo logico.

Sull'altro fronte, Popper non bada a spese.

Investe moltissimo su “Jacob Fries”, il quale proponeva una rilettura-revisione del kantismo che, pur accentando "i più importanti risultati raggiunti da Kant", non accettava, anzi rifiutava il metodo kantiano.

Questo rapporto Popper-Fries sarà più evidente in un'opera di molto successiva, “I due problemi della conoscenza” (Il Saggiatore 1979), ma nel V capitolo della Logica della ricerca scientifica, abbiamo già ampio materiale per inquadrare il problema.

La posizione di Fries è importante, perché consente ai neopositivisti di pensare in termini di ragionamento logico come tabula rasa. Se non c'è a priori, tutto l'edificio della scienza è una costruzione, l'Aufbau di Carnap.

La questione della base empirica della conoscenza viene delineato da Popper al termine del IV capitolo della Logica nel quale afferma di aver "ridotto la questione della falsicabilità delle teorie a quella della falsicabilità di quelle asserzioni singolari che ho chiamato asserzioni-base."

Le asserzioni-base sono anche per Popper la trascrizione protocollare delle percezioni sensibili.

Ma il suo rapporto con le asserzioni-base è problematico.

 Egli contesta che le asserzioni-base siano fondamentali nella costruzione matematica della teoria e mette in dubbio, soprattutto, che dalle asserzioni-base si possa ricavare induttivamente una ipotesi scientifica.

«La dottrina secondo cui le scienze empiriche sono riducibili a percezioni sensibili, e quindi a nostre esperienze, è accettata da molti come una dottrina ovvia e fuori di ogni discussione. Tuttavia questa dottrina sta in piedi, o cade, insieme con la logica induttiva, e qui vien rigettata con essa.

Non voglio negare che ci sia una particella di verità nell'opinione secondo cui la matematica e la logica sono basate sul pensiero, e le scienze fattuali sulle percezioni sensibili.

Ma ciò che c'è di vero in questo punto di vista ha poca importanza per il problema epistemologico.

E in realtà non c'è un problema epistemologico che più del problema della base delle asserzioni d'esperienza abbia sofferto della confusione tra tra psicologia e logica.»

Popper assume una posizione a dir poco rigida nei confronti dell'effettualità del processo mentale che porta dal riconoscere l'esistenza di quattro cavalli al concetto di specie equina.

 Esiste un "bicchiere", esiste "acqua" nel "bicchiere", ma la percezione immediata non porta affatto a supporre un universale del tipo "bicchiere d'acqua".

Questa posizione conduce a una conclusione drastica, che farà discutere:

 "Gli universali non possono essere ridotti a classi di esperienza; essi non possono essere 'costituiti'." Costituire è il termine impiegato da Carnap per definire l'atto di nascita di una classe di oggetti simili nel nostro processo di conoscenza; è un procedimento induttivo.

Se l'esistenza di due gocce d'acqua può solo destare meraviglia, una pioggia scrosciante potrebbe forse convincerci che esiste la classe delle gocce d'acqua che cadono dal cielo.

Popper nega la validità di ragionamenti siffatti in generale e nella logica della scoperta scientifica in particolare.

 

Evidentemente lo scopo di Popper è quello di demolire la validità dei procedimenti induttivi che stanno alla base della filosofia dei neopositivisti logici.

Empirismo = psicologismo: questa l'equazione da cui muove Popper.

Carnap, Neurath, Hahn e compagnia bella hanno sostenuto, di fatto, una teoria della conoscenza che è psicologica.

«Il punto di vista che chiamo "psicologismo" - scrive Popper -, [ ... ] sta ancora alla base, così mi sembra, di una moderna teoria della base empirica, anche se i suoi sostenitori non parlano di esperienze o di percezioni , ma piuttosto di "enunciati": enunciati che rappresentano esperienze.

 Neurath e Carnap li chiamano enunciati protocollari.

Una teoria analoga è stata sostenuta, in tempi ancor precedenti, da Reininger.

 Il suo punto di partenza era la questione: dove è situata la corrispondenza, o la concordanza, tra un'asserzione e lo stato di cose che essa descrive? Egli arrivò alla conclusione che le asserzioni possono essere confrontate soltanto con asserzioni.

Secondo il suo punto di vista, la corrispondenza di un'asserzione con un fatto non è nient'altro che una corrispondenza logica tra asserzioni che appartengono a differenti livelli di universalità: è " ... la corrispondenza di asserzioni di livello superiore con asserzioni che hanno un contenuto simile e in definitiva con asserzioni che registrano esperienze." ... [ ... ]

Carnap parte da un punto di una domanda un po' diversa. La sua tesi è che tutte le indagini filosofiche parlino "delle forme del discorso".

 La logica della scienza deve investigare "le forme del linguaggio scientifico".

Essa non parla di "oggetti" fisici ma di parole; non di fatti, ma di enunciati.

A questo modo corretto del discorso, il "modo formale del discorso".

Carnap contrappone il modo del discorso ordinario, o, come lo chiama lui, il "modo materiale del discorso".

Per evitare le confusioni si dovrebbe usare il modo materiale del discorso soltanto dove sia possibile tradurlo nel corretto "modo formale del discorso".»

Ma questi benedetti enunciati, osserva Popper, si riferiscono proprio ai dati dei sensi che descrivono le esperienze immediate.

E questo è "psicologismo", sebbene tradotto "nel modo formale del discorso".

Diversa la posizione di “Neurath”, perché per lui i procolli enunciatari non sono "irrevocabili" e quindi non hanno bisogno di conferme continue e ripetute.

 Per Popper, quello di “Neurath “è un "notevole progresso" rispetto al dogmatismo di Carnap.

" È un passo nella direzione giusta; ma non porta in nessun luogo se non è seguito immediatamente da un altro passo".

Popper sottolinea che non si possono cancellare protocolli ad arbitrio.

C'è bisogno di regole e metodo.

E Neurath non ci dice come e cosa fare.

 Senza accorgersene, "butta l'empirismo dalla finestra".

 «In questo modo non soltanto è possibile riscattare qualsiasi sistema, come fa il convenzionalismo, ma, data una buona quantità di enunciati protocollari, possiamo addirittura confermarli grazie alla testimonianza di testimoni che hanno testimoniato e registrano ciò che hanno visto e udito.

 Neurath evita una forma di dogmatismo, tuttavia apre la strada per la quale un qualsiasi sistema arbitrario può autoproclamarsi "scienza empirica".»

 

L'oggettività della base empirica

La soluzione di Popper alle difficoltà in cui si muovono i neopositivisti consiste nel distinguere nettamente tra la scienza oggettiva da un lato e la "nostra conoscenza" dall'altro.

Sono parole sue.

Comincia col dire che solo l'osservazione ci dà la conoscenza dei fatti, e che ammette, con Hahn, che questa ci dà consapevolezza. Ma cos'è questa consapevolezza, poniamo di un temporale, se essa non giustifica, non consolida, la verità di alcuna altra asserzione, ad esempio che c'è un temporale perché ci sono nuvoloni neri  in cielo?

Il che fa prendere a Popper questa piega: «Non credo perciò che la domanda che l'epistemologia deve porsi sia "... su che cosa riposa la nostra conoscenza? ..., o, più esattamente, come posso, dopo aver acquisito l'esperienza S, giustificare la mia descrizione di tale esperienza, e difenderla contro il dubbio?"

La cosa non funzionerebbe neppure se cambiassimo il termine "esperienza" in "enunciato protocollare".

 Secondo me ciò che l'epistemologia deve chiedersi è, piuttosto: in quale modo controlliamo le asserzioni scientifiche per mezzo delle loro conseguenze deduttive? E quale genere di conseguenze possiamo scegliere per questo scopo se, a loro volta, tali conseguenze devono poter essere controllate intersoggettivamente?»

La parte che segue è di estremo interesse.

Popper afferma come superata e insostenibile una concezione della logica che ammette lo sviluppo delle inferenze in base a necessità del pensiero.

Descrive tale condizione come un "sentimento dell'essere costretti a pensare lungo certe linee".

E osserva: «Nel campo della logica questo tipo di psicologismo appartiene, forse, al passato.

 Nessuno mai sognerebbe di giustificare la validità di un'inferenza logica o di difenderla contro i dubbi, scrivendo a fianco di essa, sul margine del foglio, il seguente enunciato protocollare: "Protocollo: oggi, nell'esaminare questa catena di inferenze, ho provato un acuto senso di convinzione."».

Per certi aspetti, tuttavia, lo psicologismo si ripete e perpetua anche quando si arriva alle asserzioni empiriche della scienza.

Chiamare fisicalismo, come fanno gli empiristi logici, la fondazione certificante la nostra scienza, cioè la constatazione dell'esistenza di dati sensoriali inoppugnabili, trascritti nei protocolli, non è che psicologismo reiterato.

 «Tuttavia - scrive Popper - sia che si mettano in questione asserzioni della logica, sia che si mettano in questione asserzioni della scienza empirica, io penso che la risposta sia la stessa:

 la nostra conoscenza, che può essere sopra descritta, vagamente, come un sistema di disposizioni, e che può interessare la psicologia, può essere collegata in entrambi i casi con sentimenti di credenza o di convinzione: nell'un caso, forse, con la sensazione di essere costretti a pensare in un certo modo; nell'altro con quella di "assicurazione percettiva".

Ma tutto ciò interessa soltanto lo psicologo, e non sfiora neppure problemi come quelli delle connessioni logiche tra le asserzioni scientifiche, che sono le sole ad interessare l'epistemologo.»

 

Superare lo psicologismo? Le asserzioni-base.

Popper non può rinunciare all'elemento empirico; può solo differenziarlo da quello di Carnap e Wittgenstein, quindi precisarlo.

Senza riscontri empirici non si fanno "genuini controlli", infatti.

Il tentativo di Popper si realizza con l'introduzione della nozione di asserzioni-base. Esse "hanno la forma di asserzioni singolari esistenziali".

Ovvero: "sul piatto c'è una mela", e anche ""sull'amperometro la lancetta indica la lettura di 0,75 ampere".

Questo tipo di asserzioni può quindi essere controllato da osservatori, e gli osservatori potranno concordare.

 «Le asserzioni-base .... asseriscono che in una certa regione dello spazio e del tempo si sta verificandosi un evento osservabile.»

Però siamo circondati da eventi, tutto è in movimento.

È importante decidere cosa osservare e controllare.

Dobbiamo decidere.

 Tale passaggio è descritto da “Oldroyd” molto meglio di quanto potrei fare io: «Diventa perciò un fatto di decisione se un particolare evento venga scelto allo scopo di eseguire una corroborazione o una falsificazione.

Ciò rende le "asserzioni-base" di Popper sostanzialmente diverse dagli "enunciati protocollari" di Neurath e di Carnap.

 Per i popperiani non si tratta di aprire i propri sensi, che potrebbero poi servire da primi pioli per salire sulla scala dell'induzione.

Piuttosto, le asserzioni-base di Popper vengono accettate o rifiutate alla luce dell'applicazione di una particolare teoria o gruppo di teorie.

A questo fine devono perciò essere fornite certe regole metodologiche. Il processo di accettazione o rifiuto di un'asserzione-base può essere comparato, dice Popper, al processo per mezzo del quale i membri di una giuria formulano il loro verdetto su un caso.»

Il ruolo delle asserzioni-base è eminentemente negativo, allora.

 La funzione è quella di falsificare.

L'esperienza può così demolire una teoria, ma non aiuta a costruirla.

Popper sa bene che anche questa sua impostazione può essere attaccata come una forma di psicologismo più sofisticato.

Tanto che scrive: «Indubbiamente ora sembrerà che, dopo tutto, nel richiedere l'osservabilità io abbia permesso allo psicologismo di re-insinuarsi nella mia teoria. Ma le cose non stanno così.

 Ammetto che sia impossibile interpretare in senso psicologistico il concetto di evento osservabile; ma uso questo concetto in un senso tale che esso potrebbe ugualmente essere sostituito da: "evento che implica la posizione e il movimento dei corpi fisici macroscopici".

 Oppure potremmo stabilire, più precisamente, che ogni asserzione-base dev'essere a sua volta un'asserzione intorno a posizioni relative di corpi fisici, o dev'essere equivalente a qualche asserzione-base di questo tipo "meccanicistico" o "materialistico".»

 

La relatività delle asserzioni-base e la possibile nuova "Babele delle lingue".

Occorre decidere.

Se non decidiamo quali asserzioni-base accettare, dice Popper, non corroboriamo e non falsifichiamo teorie.

 Però le circostanze non sono mai tali da costringerci, né a scegliere, né a rinunciare al controllo.

Qualsiasi asserzione-base può essere a sua volta controllata da una qualsiasi altra asserzione-base dedotta da essa, con l'eventuale ausilio di qualche teoria.

 Sicché la procedura non ha un termine, che Popper definisce naturale.

In tali condizioni si verifica un massimo di libertà:

 i ricercatori possono arrestarsi, secondo Popper, se non trovano un accordo su quali asserzioni-base accettare e quali rifiutare.

 «E se non si mettono d'accordo andranno avanti con i controlli o li ricominceranno da capo.

Se neanche questo porta ad un risultato possiamo dire che le asserzioni in questione non potevano essere controllate intersoggettivamente o che, dopo tutto, non stavamo trattando con eventi osservabili.

Se un giorno gli osservatori scientifici non potessero più mettersi d'accordo sulle asserzioni-base ciò significherebbe un fallimento del linguaggio come mezzo di comunicazione universale.

Questo equivarrebbe a una nuova "Babele delle lingue":

 la ricerca scientifica sarebbe ridotta all'assurdo.

In questa nuova Babele il maestoso edificio della scienza sarebbe ben presto ridotto in rovina.».

Proseguendo su questo terreno, Popper non può non imbattersi in quello che è da sempre il problema delle basi della conoscenza e quindi nella più classica delle sfide, quella che dai megarici arriva agli scettici, e si ripropone pari-pari quando appunto si tratta di concordare a quali protocolli d'esperienza prestare attenzione.

 

Il superamento del trilemma di Fries

Fries aveva riproposto un tipico ragionamento scettico sull'impossibilità della conoscenza.

O si accettano dogmaticamente alcune premesse, o si retrocede all'infinito per trovare altre premesse dimostrabili che non si troveranno mai perché è sempre necessario trovare un punto d'appoggio (e questo non è dimostrabile), oppure si casca nello psicologismo, cioè nel riconoscere validità alle percezioni sensoriali immediate.

 Non c'è via di scampo alla necessità di questo pensiero, secondo molti.

Popper non si pone il problema del superamento logico del trilemma, e questo lo porta a riconoscere che le asserzioni-base hanno un carattere dogmatico, "ma solo in quanto possiamo desistere dal giustificarle mediante ulteriori argomentazioni (o ulteriori controlli)".

 Un eventuale regresso all'infinito sarebbe innocuo, "perché nella nostra teoria non si fa questione di tentar di provare, per suo mezzo, una qualsiasi asserzione". Infine, non ha difficoltà ad ammettere "che la decisione di accettare un'asserzione-base e di dichiararsene soddisfatti è causalmente connessa con le nostre esperienze - specialmente le nostre esperienze percettive - ma è altresì vero che non tentiamo di giustificare le asserzioni-base per mezzo di queste esperienze".

Cosa vuol dire Popper?

L'espressione forte che usa è la seguente: ..."un'asserzione-base non può essere giustificata da esse [le esperienze], più di quanto non possa essere giustificata battendo il pugno sul tavolo".

 Reitera così la pervicace ostinazione di sottrarsi allo "stigma dell'empirismo". Ce la farà a sostenere questa tesi fino in fondo senza cadere in contraddizioni lapalissiane?

Sarà possibile continuare a camminare sul filo come un uomo in bilico senza ricorrere, infine, proprio ad un argomento 'psicologistico' del tipo "io vedo", "io tocco", "io sento"?

 

 

Commenti

Post popolari in questo blog

Quale futuro per il mondo?

La truffa in politica.