Betapensiero è il pensiero di Beta, cioè il mio: Beta è la contrazione del mio nome e cognome. Ma è anche la "release" in cui il mio pensiero viene diffuso: versione beta, quindi funzionante ma ancora da finire di testare...
17 apr 2018
Evidence based - tra medicina ufficiale e altre tradizioni
Negli ultimi anni si è affermato nella pratica medica il ricorso a metodi considerati evidence-based, ovvero basati sulle evidenze. L'obiettivo dichiarato consiste nel superare i limiti dell'esperienza professionale dei singoli medici indirizzando la scelta terapeutica verso interventi basati sui risultati delle ricerche pubblicate sulla letteratura scientifica, favorendo, nell'ordine, quelli emersi da revisioni sistematiche, metanalisi, studi randomizzati, studi correlazionali, fino ai meno attendibili casi descrittivi o le opinioni di esperti.
Per chi non ha famigliarità con l'argomento è necessario ripercorrere brevemente il metodo. La ricerca in biologia e in medicina si scontra con la varietà della risposta individuale (che può essere scarsa in casi come l'assunzione di un potente veleno, ma diventa ampia nei casi di assunzione di un farmaco a scopo terapeutico) e con la difficoltà di isolamento di tutti i fattori potenzialmente intervenienti. Per questa ragione l'osservazione di un singolo caso clinico è scarsamente predittiva dell'estensibilità dei risultati ad altri individui. In altre parole "a tizio è accaduto" - sempre che si tratti di una testimonianza sincera e correttamente riportata - attesta che tale esito è possibile, ma non ci dice niente sulle reali cause che lo hanno permesso né, pertanto, su come e se altri che né seguono la pratica ottengano risultati analoghi (poiché questi ultimi potrebbero dipendere da caratteristiche intrinseche al soggetto, o da fattori non identificati e diversi e da quello che si tenta di riprodurre).
Per questo motivo la ricerca ricorre alla statistica. La statistica si distingue essenzialmente in statistica descrittiva e statistica inferenziale. La prima si limita a descrivere la distribuzione di una specifica caratteristica in una specifica popolazione. La seconda applica la teoria della probabilità e specifiche procedure ai dati descrittivi per stimare quanto e se l'effetto osservato sia casuale, o ricorrente, tra individui che abbiano le stesse caratteristiche.
Nella pratica quindi si prende un numero sufficiente di soggetti, li si attribuisce in modo randomizzato a due gruppi sperimentali che si desidera confrontare (un farmaco e un placebo, oppure due diversi farmaci) e si sottopone i risultati ottenuti a dei test statistici che ci offrono una probabilità che i risultati siano effettivamente dovuti all'intervento in questione e non al caso. In biologia, e quindi in medicina, è consuetudine accettare una probabilità inferiore allo 0,05, ovvero ad una probabilità su 20, che il risultato non sia casuale. Nello specifico, poiché è assunta la tesi del filosofo della scienza Karl Popper che un'ipotesi non può mai essere verificata ma la si può solo provvisoriamente accettare se non è stata falsificata, si tenta di falsificare l'ipotesi nulla che i risultati siano dovuti al caso e, se ciò ha una probabilità inferiore al 5%, si accetta l'ipotesi alternativa che non siano dovuti al caso ma all'intervento in questione.
Sussiste tuttavia una probabilità non trascurabile che i risultati siano invece casuali, per questo motivo è essenziale che lo studio sia ripetuto più volte, nella fiducia che se si ottengono più volte risultati analoghi si riduca sensibilmente la probabilità che siano casuali. Per questo motivo si ricorre a metanalisi, ovvero studi statistici che confrontano i risultati ottenuti da più ricerche sullo stesso ambito di studio, e a revisioni sistematiche, ovvero alla revisione esaustiva della letteratura scientifica su un dato argomento, una sorta di riassunto scientifico. La principale fonte di tali revisioni è la Cochrane Collaboration, associazione internazionale no-profit, nata nel 1993 con lo scopo di diffondere tali review attraverso la Cochrane Library.
Da quanto descritto appaiano chiari i vantaggi di un simile metodo nel superare gli evidenti limiti conoscitivi di "a tizio è accaduto". Meno chiari sono purtroppo i limiti intrinseci anche a questa metodologia, ed ancor più quelli dovuti all'odierna applicazione del metodo.
La prima considerazione a mio avviso necessaria è lessicale e legata al termine "evidence". Poiché si tratta di inferenze basate sulla statistica i risultati ottenuti sono nel migliore dei casi i più probabili, non "evidenti". Tanto più che, come Popper ci insegna, la teoria con cui si interpretano i dati osservati non è verificabile ma unicamente accettata a meno di essere falsificata. Correttamente si dice infatti che una pratica è stata "validata", non verificata, e tanto meno che la sua correttezza è evidente. "Il termine ha una sicura efficacia persuasiva ma è a rigore privo di valore scientifico. La precisazione non ha mero valore linguistico, giacché presentare come evidente un risultato sia pure altamente probabile non è conforme al diritto al consenso informato e condiziona la libera scelta terapeutica del paziente.
Tra i limiti prettamente epistemologici del metodo ci sarebbero poi le considerazioni di grandi autori come Willard Van Orman Quine e, soprattutto, Thomas Kuhn, ma approfondirne le tesi e le implicazioni con l'argomento in questione sarebbe qui troppo lungo e specialistico. Mi limiterò pertanto ad una sola considerazione sulle condizioni intrinseche all'attendibilità di una qualsiasi ricerca scientifica. Come è noto una ricerca consiste di più fasi, a partire dalla chiara definizione dell'oggetto di studio e delle variabili in gioco, passando per i presupposti su cui si basa la teoria, l'ideazione del disegno di ricerca, la selezione e randomizzazione del campione, fino all'interpretazione dei dati, ed ognuna di queste fasi è suscettibile di errori. Se volessimo stimare matematicamente la probabilità che l'intero percorso ci consenta effettivamente di conoscere la realtà dovremmo stimare la probabilità che ogni fase sia stata correttamente eseguita e successivamente sommarle. Applichiamo pertanto la formula della probabilità composta moltiplicando (la somma di due o più probabilità, a dispetto del nome, è una moltiplicazione) le singole stime e, trattandosi di frazioni (i valori di una probabilità vanno da 0 a 1) osserviamo sia che l'effettiva probabilità di avere ottenuto dati corretti diminuisce ad ogni fase non effettuata in modo impeccabile (ovvero con probabilità uguale a 1), sia che talora una fase fosse completamente sbagliata, ovvero la cui probabilità di correttezza fosse uguale a 0, la probabilità di correttezza dell'intera ricerca sarebbe nulla (qualsiasi numero moltiplicato per 0 dà come risultato 0). Ora, se la fase non corretta fosse specifica unicamente della singola ricerca solo essa non sarebbe valida e i suoi risultati sarebbero successivamente corretti da successive ricerche; se tuttavia l'errore fosse sistematico, ad esempio intrinseco alla prospettiva di ricerca, o agli assunti di base della stessa disciplina, ecco che tutte le ricerche sullo specifico ambito otterrebbero sì risultati analoghi, ma ciononostante analogamente errati, e quel che è peggio afflitti da un errore metodologico non visto.
Tale riflessione epistemologica ad ogni modo non ha l'intento di rigettare l'intera pratica, ma unicamente di ricordarne i limiti, ed in tal modo riportarla ad una dimensione realmente scientifica e non fideistica o, quel che è peggio, di puro marketing. Poiché checché ne dica un noto personaggio televisivo (ché non saprei con che altro termine realisticamente riferirmici...) la scienza, quella vera, non solo si basa su dubbi e non su certezze, ma è ampiamente democratica, avendo rigettato ai suoi esordi ogni ipse dixit, sostituiti con la possibilità per chiunque ne parli il linguaggio di verificare direttamente ogni asserzione.
Ad ogni modo, una volta sommariamente ricordati i limiti intrinseci al metodo e auspicata la comunicazione realistica dei risultati ottenibili, i presupposti su cui si basa la pratica evidence based restano i migliori scientificamente disponibili. A condizione che siano correttamente applicati, e qui purtroppo i dati disponibili non sono incoraggianti.
Il professore della Standord University, John Ioannidis, tra gli scienziati più citati al mondo, in una recente lettera a David Sackett, considerato tra i padri della Evidence based Medicine, intitolata "Evidence-based medicine has been hijacked" afferma: "As EBM became more influential, it was also hijacked to serve agendas different from what it originally aimed for. Influential randomized trials are largely done by and for the benefit of the industry. Meta-analyses and guidelines have become a factory, mostly also serving vested interests. National and federal research funds are funneled almost exclusively to research with little relevance to health outcomes" e "Under market pressure, clinical medicine has been transformed to finance-based medicine. In many places, medicine and health care are wasting societal resources and becoming a threat to human well-being.". Una descrizione tristemente simile a quella precedente il diffondersi della medicina evidence based, descritta nel 2005 da Richard Horton, allora direttore dalla prestigiosa rivista The Lancet, in una inchiesta promossa dal Parlamento Britannico: "at almost every level of NHS [National Health Service – il sistema sanitario britannico] care provision the pharmaceutical industry shapes the agenda and the practice of medicine” (p. 243), affermando poi che la relazione esistente tra industria farmaceutica e sistema sanitario è troppo spesso di tipo parassitario. Horton rileva inoltre che “adverse drug reactions were found to be the fourth commonest cause of death in the United States” (p. 243).
Ma come è possibile che la migliore metodologia scientifica ad oggi disponibile abbia prodotto i risultati descritti? Ci sono molteplici motivazioni che spaziano dalla scarsa competenza statistica di alcuni ricercatori e gli errori derivanti; agli interessi di carriera dei ricercatori e alle cattive abitudini delle stesse riviste scientifiche che tendono a non pubblicare i tentativi di replicazione di precedenti studi; a vere e proprie frodi scientifiche e conflitti di interessi. Per i primi aspetti, in quanto molto tecnici, rimando ad un citatissimo articolo dello stesso Ioannids dal titolo quanto mai esplicativo, Why Most Published Research Findings Are False".
Più facilmente comprensibile per tutti è il problema denominato "crisi della riproducibilità". Per i motivi sovraesposti dovrebbe essere oramai molto chiaro che la riproducibilità dei risultati è parte integrante e indispensabile della ricerca scientifica, senza cui il valore della stessa perde molta, se non tutta, la sua credibilità. Troppo spesso tuttavia interi campi di studio si basano su ricerche che non sono mai state replicate. A titolo di esempio, e nuovamente in uno studio di Ioannidis, ricerche pioniere che dichiaravano l'efficacia di un intervento nei rispettivi campi di studio, pubblicate tra il 1990 e il 2003 su 3 delle principali riviste mediche e successivamente citate almeno 1000 volte, quindi di grande influenza nell'indirizzare la successiva ricerca, sono risultate confermate nei risultati solo nel 44% dei casi; contraddette nel 16%, ridimensionate nel 16% e non riprodotte da studi dotati di disegno sperimentale corretto in un preoccupante 24%. L'agenzia di stampa britannica Reuters ci informa invece in un articolo intitolato "In cancer science, many 'discoveries' don't hold up" di un presidente di un'azienda biomedica che tenta di ripetere 53 studi cardine e scopre di poterne replicare solo l'11%, commentando: “It was shocking, these are the studies the pharmaceutical industry relies on to identify new targets for drug development"; e di altri episodi analoghi. In un recente sondaggio pubblicato su Nature, tra 1500 scienziati in vari campi di ricerca il 70% (90% in chimica, 80% in biologia) riporta di avere fallito nel tentativo di replicare almeno un esperimento scientifico; mentre il 50% ammette di avere fallito nel tentativo di replicare un suo esperimento scientifico; il 90% ritiene pertanto che sia in corso una crisi di riproducibilità (per il 52% una grave crisi).
La crisi di riproduttività è pertanto un problema chiaramente sentito dalla comunità scientifica, consapevole della sua imprescindibile necessità, ma stranamente dimenticato, se non volutamente occultato, da chi preferisce presentare la scienza medica come foriera di granitiche certezze. Tra le motivazioni che producono questa triste crisi figura talvolta anche la frode, come evidenziato da una metanalisi che si è occupata degli studi sul tema e riporta di un 14% di ricercatori che dichiara di essere a conoscenza di una frode scientifica perpetuata da un collega e di ben un 2% che ammette di esserne stato autore. Percentuali che presumibilmente, in quanto libere dichiarazioni, sottostimano l'effettiva portata del problema.
Ma perché un ricercatore dovrebbe falsificare dei dati? Tralasciando il pur esistente problema di casi di corruzione una motivazione frequente è legata alla necessità di pubblicare per ottenere avanzamenti di carriera, riassunta nel noto detto "publish or perish". Cioè contribuisce a spiegare sia il proliferare di studi di scarso rilievo scientifico sia il ricorso a dati alterati, poiché le pubblicazioni che offrono maggiore visibilità sono quelle che presentano risultati positivi e innovativi. Inoltre le riviste - e di conseguenza i ricercatori - hanno scarso interesse a pubblicare studi di riproducibilità o ricerche che non validano le ipotesi di studio. Aspetto che spiega in parte l'attuale crisi di riproducibilità, ma che genera anche una problematica finanche più insidiosa.
Per esemplificarlo ricorro ad un esempio riportato dalla rivista Wired. Supponiamo che un meticoloso ricercatore si prefigga di studiare l'effetto di 40 vari tipi di frutta sul raffreddore, effettuando quindi 40 studi che confrontano chi ha mangiato di volta in volta un tipo di frutta con chi non ne ha mangiata nessuna. Secondo la standard delle ricerche biomediche tale ricercatore asserirà che un frutto protegge del raffreddore solo se la significatività statistica dell'effetto riscontrato passa la soglia del 5%. Supponiamo che dei frutti studiati solo uno protegga effettivamente dal raffreddore e che lo studio dello scienziato effettivamente lo rilevi. Con la soglia di significatività del 5% dovremmo tuttavia aspettarci di trovare per puro accidente statistico dei risultati (falso) positivi per un altro paio di frutti. Se fossero pubblicati i risultati di tutti i 40 studi avremmo quindi risultati positivi per 2/3 frutti e negativi per 38/37 (e successive ripetizioni, se effettuate, isolerebbero poi il caso realmente positivo dai falsi positivi), ma il dramma è che spesso i risultati negativi non vengono pubblicati, "non ho trovato niente" non suona interessante da raccontare. Nel complesso le sue effettive ricerche avrebbero l'affidabilità del 95%, escludendo però dalla pubblicazione i dati negativi e pubblicando solo i 3 risultati positivi, di cui 2 lo sono per accidente statistico, si ottiene che il 66% dei risultati effettivamente disponibili al pubblico sono sbagliati.
Nel complesso si tratta di problematiche note a chi si occupa di Scienza, quella vera (sebbene ampiamente misconosciute, se non volutamente occultate, dallo scientismo dilagante), per quanto per lo più ridimensionate dall'assunto che la scienza sia capace di autocorreggersi. La supposta autocorrezione della scienza si basa tuttavia per l'appunto sulla riproduttività, ma se quest'ultima viene a mancare, come evidenziato sopra, ecco che manca anche la prima. Altri aspetti ci sono ricordati sempre da Ioannidis in "Why Science Is Not Necessarily Self-Correcting", tra i promotori anche del recentissimo "A manifesto for reproducible science", dove auspica che vengano attuate le pratiche necessarie affinché l'autocorrezione scientifica sia effettiva e non meramente un mito. Allo stato attuale, è bene ricordarlo traducendo il già citato passo di Ioannidis, "l'Evidence based medicine è stata dirottata a servire obiettivi diversi da quelli cui originariamente puntava". Questo perché se la ricerca primaria è troppo spesso carente, incompleta o fraudolenta anche la migliore pratica statistica, come quella alla base della EBM, non può supplirvi ed in luogo dei condivisibilissimi intenti che si propone rischia di diventare invece un'etichetta scientificamente limitante o, peggio ancora, manipolabile da interessi forti.
Tra gli effetti meno auspicabili del rischio appena menzionato c'è quello che la pratica evidence based diventi una sorta di "cookbook medicine" non solo spersonalizzata (il che è già di per sé preoccupante) ma perfino basata su protocolli e linee guida etichettati come "evidence" ma di fatto asserviti a interessi finanziari (non lo dico io, ne qualche altro "complottista" affatto digiuno di medicina, lo affermano i già citati passi di Ioannidis e Horton). Tanto più che il ricorso ad etichette tanto poco scientifiche come "evidence" (per i motivi già detti) ricordano le pratiche di persuasione impiegate dal marketing e sottintendono che se la pratica proposta è evidentemente giusta, per la dicotomia cui il pensiero umano è naturalmente portato, le alternative sono evidentemente sbagliate.
Merita pertanto una riflessione su cosa accade in un panorama dominato dalla necessità di essere evidence based a pratiche che non lo sono, e sul perché non lo sono. Iniziamo dalle parole utilizzate, le etichette, che per un procedimento conosciuto in psicologia come euristica, fa sì che dal termine impiegato deriviamo in modo per lo più automatico, e pertanto inconscio, caratteristiche che diventano a quel punto associate a quanto designato. Le pratiche mediche non pertinenti alla medicina ufficiale, un tempo denominate "alternative", sono attualmente chiamate "complementari", implicando nel termine che siano utilizzabili in aggiunta ma che la pratica ufficiale debba comunque essere mantenuta. Un'inferiorità gerarchica che per alcuni è semmai troppo generosa in quanto volentieri bandirebbero ogni pratica non ufficiale, poiché la sua efficacia sulla specifica patologia in questione non è mai stata dimostrata. Ciò, nei termini scientifici sopra descritti è in realtà spesso vero, ma è a mio avviso indispensabile approfondire anche il perché pratiche che talvolta afferiscono a tradizioni millenarie non siano mai state scientificamente dimostrate. In alcuni casi scopriamo che tali pratiche non possono essere dimostrate.
Naturalmente una pratica medica, tradizionale o ufficiale che sia, può essere effettivamente inefficace, ma è necessario sottolineare che non averne provato l'efficacia è lungi dall'essere sinonimo di averne provato l'inefficacia. Per sostenere sia la seconda affermazione (in caso di risultati negativi) sia la prima (in caso di risultati positivi), sarebbe necessario un congruo numero (per ovviare al rischio di incappare in un accidente statistico o, peggio, ad una frode) di ricerche in doppio cieco che randomizzi un numero sufficiente di pazienti tra la terapia sperimentale non "convenzionale" e un trattamento placebo e analizzi statisticamente i dati raccolti. Queste condizioni tuttavia difficilmente ricorrono perfino nei rari casi in cui una terapia non convenzionale accede alla sperimentazione. Ciò per almeno tre motivi: economici, sperimentali e etici.
La prima motivazione è facilmente comprensibile: un siffatto studio, ed a maggior ragione la ripetizione di siffatti studi, che sarebbe metodologicamente necessaria, richiede ingenti somme di danaro, solitamente non disponibili per chi volesse intraprendere tali sperimentazioni. Esistono, sì, in letteratura studi che testano vari trattamenti non convenzionali, asserendone talvolta l'efficacia, talaltra l'inefficacia, ma il loro disegno di studio è perlopiù inadeguato a sostenere sia l'una che l'altra conclusione, ed è spesso facilmente comprensibile che i dipartimenti universitari, le piccole aziende del settore o i ricercatori indipendenti che si occupano di tali ricerche non abbiano accesso ai finanziamenti che sarebbero necessari per allestire una sperimentazione realmente discriminante.
La seconda motivazione è più tecnica e concerne l'effettiva possibilità di randomizzare una condizione sperimentale. Ad esempio, se volessimo testare l'ipotesi che la recitazione quotidiana di preghiere è, o meno, efficace nel miglioramento da una qualche condizione patologica, non potremmo suddividere casualmente un gruppo di soggetti affetti da tale patologia in chi recita la preghiera e chi no, poiché la recitazione è strettamente dipendente dalla presenza o meno di fede e chiaramente, a chi non ne ha non avrebbe senso richiedere di recitare una preghiera giacché la tesi oggetto di studio non ritiene che siano le parole pronunciate ma il loro valore religioso ad avere effetto, e a chi invece ne ha non sarebbe possibile togliere l'attitudine religiosa. In tali casi è pertanto unicamente possibile ricorrere a quelli che vengono chiamati studi correlazionali o a degli studi epidemiologici, ed in effetti tali studi esistono, tuttavia per quanto utilissimi hanno un valore conoscitivo che non permette una forte attribuzione causale, ed infatti si trovano in letteratura, studi, metanalisi e revisioni a sostegno sia della tesi che la preghiera abbia effetti positivi, sia che non ne abbia alcuno (chi non dovesse credermi e non avesse le competenze necessarie ad effettuare una ricerca mi scriva e gli manderò una bibliografia a riguardo).
Ma il vero e più profondo ostacolo ad una reale sperimentazione di terapie non convenzionali è di natura etica. O meglio, concernente le commissioni etiche. Come presumibilmente molti sapranno una qualsiasi ricerca deve essere autorizzata da una commissione etica, con l'intento di proteggere in prima istanza gli interessi dei soggetti partecipanti. Pochi probabilmente sanno che riferimento abituale di tali commissioni è la Dichiarazione di Helsinki, redatta dalla World Medical Association, che prevede all'articolo 33 che “a new intervention must be tested against those of the best proven intervention”; condizione ovviabile esclusivamente con estrema cautela e unicamente nei casi in cui non sia disponibile un trattamento efficace, il paziente non riceva alcun danno serio o irreversibile dal mancato trattamento, o sia ritenuto indispensabile il confronto col placebo per testare la sicurezza del trattamento stesso. Pertanto, fatto salvo piccoli malanni come il raffreddore, un qualsivoglia intervento può essere confrontato con un placebo unicamente se per la patologia in questione si ritenga non essere disponibile nessun intervento ufficiale; diversamente il confronto non solo dovrà essere effettuato con un intervento ufficiale disponibile ma non potrà prescinderne in nessuna delle condizioni sperimentali. Ovvero, mentre i nuovi farmaci vengono testati nei confronti di farmaci già esistenti (e non col placebo), ed in virtù della fiducia riposta nel nuovo farmaco si accettano i rischi per i pazienti che testandolo non ricevono un farmaco già considerato efficace per il trattamento; la sfiducia riposta verso metodi non convenzionali non consente l'autorizzazione di un trattamento alternativo che venga testato né nei confronti del placebo, né nei confronti di un intervento convenzionale, ma permette unicamente la condizione sperimentale che affianca l'intervento in uno dei due gruppi, divenendo per l'appunto complementare a quello convenzionale. La motivazione etica alla base di tale limitazione è certamente comprensibile ma, da una prospettiva puramente epistemologica, tale limitazione non tiene conto dell'interazione tra gli interventi, ad esempio di quanto la somministrazione di una terapia fitoterapica sia condizionata da una concomitante chemioterapia. Si chiama interazione tra farmaci, è ampiamente riconosciuta quando si chiede al paziente di non assumere specifici alimenti o sostanze insieme alla terapia somministrata poiché né ridurrebbe o invaliderebbe l'efficacia e pertanto non si capisce come tale interazione possa essere dimenticata nella valutazione di interventi che necessariamente la presentano, sia pure per validissime motivazioni, ma non di meno con effetti alteranti la ricerca.
In effetti, a mio avviso, la vera problematica nel confronto tra medicina ufficiale e medicine tradizionali o di altra origine consiste nell'adozione di pesi e misure diversi. È noto che i farmaci convenzionali comportano numerosi e talvolta gravi effetti collaterali (ricordate, come sopra riportato da Horton, che la quarta causa di morte è iatrogena?), eppure è spesso sufficiente la testimonianza clinica (non sperimentale e pertanto incapace di accertarne l'effettiva causa) di decessi successivi all'assunzione di una sostanza naturale tradizionalmente impiegata a fini terapeutici affinché enti come la Food and Drug Administration americana (riferimento per gli analoghi enti europei o di altre regioni) ne metta al bando la commercializzazione. Pressoché misconosciuta è invece l'effettiva dimostrazione di efficacia (secondo i crismi sopra spiegati, e richiesti a pratiche non convenzionali quando si asserisce che "non è stata dimostrata l'efficacia") di intere branche della medicina ufficiale come ad esempio la chirurgia. Molto raramente una pratica chirurgica è stata confrontata col placebo per l'ovvia motivazione che una chirurgia placebo (sham surgery) comporta per il paziente l'inevitabile rischio legato all'anestesia, che può talora essere letale, e pertanto difficilmente uno studio viene autorizzato da una commissione etica. Ciò è tuttavia accaduto in rari casi in cui i dubbi sul razionale soggiacente erano divenuti così forti da condurre all'accettazione del rischio. Il primo studio di cui ho notizia riguarda la pratica della legatura bilaterale dell'arteria in casi di angina pectoris ed ha mostrato che la pratica fino ad allora (1959) consueta non era efficace. Ciò nonostante - e per quanto comprensibilmente - molto raramente la pratica chirurgica è stata sottoposta ad una sperimentazione metodologicamente efficace, nelle parole del membro del dipartimento di bioetica statunitense Franklin Miller, "innovative surgical procedures typically are introduced into clinical practice without rigorous evaluation of their efficacy” (p. 157).
Concludendo, ricapitolando e, spero, chiarendo una posizione che non vorrei venisse fraintesa, non intendo affermare che la medicina ufficiale sia da rigettare, né tanto meno che le medicine tradizionali siano efficaci. Spero semmai di avere dimostrato che, scientificamente parlando, la medicina ufficiale non è necessariamente valida e che le medicine non convenzionali non sono necessariamente inefficaci poiché non è finora stato sperimentalmente dimostrato che funzionino, quantomeno perché tale dimostrazione manca anche ad un intero settore della medicina ufficiale e sarebbe necessario usare lo stesso metro di valutazione. Altrimenti la scienza non è più tale, diventa scientismo e si arrocca dietro ad un principio di autorità e a degli ipse dixit, di certa efficacia persuasiva, ma nient'affatto dissimili da quelli religiosi che ha fortunatamente contribuito a demolire. Una qualsivoglia affermazione non è vera perché una qualche autorità, scientifica o politica che sia, lo afferma, lo è bensì solo ed unicamente se la suggerisce la ripetizione di esperimenti che chiunque sia in grado di comprenderne il linguaggio può personalmente verificare. Di monito dovrebbe essere proprio l'avere visto quanto spesso, e per voce di alcuni tra i massimi rappresentanti della comunità scientifica, la ricerca non è svolta correttamente. Tra la più ingenua credulità e la più cieca diffidenza si colloca lo sviluppo di un autonomo spirito critico, che fa di un uomo un vero uomo, e che auspico si sviluppi nel trattare questa e molte altre tematiche.
BIBLIOGRAFIA ESSENZIALE
(gli altri articoli citati, insieme al reindirizzamento a pagine divulgative sui temi trattati, sono presenti nel testo sotto forma di link):
1) Ioannids John, PA (2016). Evidence-based medicine has been hijacked: a report to David Sackett. Journal of Clinical Epiedemiology
2) Ioanidis, John, PA (2005). Why Most Published Research Findings Are False. Plos Medicine
3) Ioannids John, PA (2005). Contradicted and Initially Stronger Effects in Highly Cited Clinical Research. JAMA
4) Baker Monya (2016). 1,500 scientists lift the lid on reproducibility. Nature
5) Fanelli Daniele (2009).How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-Analysis of Survey Data. Plos One
6) Ioannids John, PA (2012). Why Science Is Not Necessarily Self-Correcting. Perspectives on Psychological Science
Iscriviti a:
Commenti sul post (Atom)
Nessun commento:
Posta un commento