Il più grande errore (che potresti fare) nella gestione del dolore

Indice dell’articolo: Letture consigliateBibliografia Di Lars Avemarie del 9 febbraio 2019. Critical thinking and clinical reasoning, Scientific theory La presenza…

Indice dell’articolo:

Di Lars Avemarie del 9 febbraio 2019. Critical thinking and clinical reasoning, Scientific theory


La presenza di un ragionamento scorretto sulla gestione del dolore rappresenta un grosso e diffuso problema nel campo riabilitavo moderno. Esiste infatti una pandemia di “broscienza”, di pensiero non scientifico e di irrazionalità. In presenza di controversia, ovvero quando le persone si trovano ad affrontare un dibattito e, o prove contrarie ai loro preconcetti, la risposta comune è “ma so che funziona” o “l’ho visto funzionare”.

“Il principio basilare è che non devi ingannare te stesso, ma tu stesso sei la persona più facile da ingannare.” Richard P. Feynman

Questa linea di pensiero presenta numerosi problemi, generando uno degli ostacoli più insormontabili al progresso e allo sviluppo nella riabilitazione del dolore. Gran parte del nostro futuro percorso risiede nella nostra capacità di aggiornare le nostre teorie, la nostra letteratura scientifica, le nostre filosofie e le visioni del mondo di cui siamo assoggettati. In un certo modo, siamo resi ciechi da una visione globale obsoleta che attualmente utilizziamo nella gestione del dolore e in generale, anche in fisioterapia.

Paradossalmente spesso costituiamo un sostanziale blocco od ostacolo che impedisce la progressione verso una visione e un modello di cura del dolore più moderno, basato sull’evidenza scientifica. Spesso opponiamo resistenza all’aggiornamento dei nostri modelli di cura su persone che vivono esperienze dolorose, questo significa che i nostri trattamenti dovrebbero basarsi su modelli più attuali e validi. Quando si utilizza la frase “ho visto che funziona”, si commettono sia errori scientifici che logici. Più avanti cercherò di spiegare brevemente alcuni tra i maggiori errori commessi.

Quando diciamo che qualcosa “funziona”, stiamo dimenticando che gli outcome e gli effetti dei nostri trattamenti sono due cose separate. Come affermato da Herbert e colleghi nel 2005 in “Outcome measures measure outcomes, not effects of intervention”, i risultati clinici sono influenzati da numerosi fattori oltre che dal trattamento effettuato, come la regressione verso la media, l’effetto placebo, il corso naturale delle condizioni cliniche e altre ancora (Herbert et al. 2005).

Diversi fattori come il riposo o il semplice scorrere del tempo possono giocare un ruolo decisivo nello sviluppo degli outcome del paziente e ignorare il potenziale effetto di questi fattori è un grosso errore.  Non considerare questi fattori, può inoltre portarci a perdere il potenziale effetto benefico che la conoscenza degli stessi può avere sugli outcome.

Non dobbiamo inoltre dimenticare che Herbert e colleghi sempre nel 2005 hanno dichiarato che: “un buon outcome non indica necessariamente che il trattamento sia stato efficace: un buon outcome potrebbe essersi verificato anche in assenza di trattamento. Un pessimo outcome non indica necessariamente che il trattamento sia stato inefficace: un pessimo outcome potrebbe essersi verificato anche in assenza di trattamento”.

Quando si dice “ho visto che funziona”, si sbaglia anche da un punto di vista logico, credendo alla falsa credenza del post hoc. Il nome completo di questo errore di pensiero comune è post hoc, ergo propter hoc (dal latino: dopo di questo, quindi a causa di questo). Un esempio che viene spesso utilizzato per comprendere questo errore è: dal momento che il gallo canta immediatamente prima dell’alba, è il gallo che fa sorgere il sole. Questo è ovviamente sbagliato. Tuttavia, noi stessi commettiamo l’errore post hoc se concludiamo che il nostro intervento “ha funzionato” perché il paziente si sente meglio dopo un certo periodo di tempo.

Vorrei che tutti noi potessimo imparare a separare gli outcome clinici dalle razionalizzazioni post hoc dei meccanismi fisiologici di azione” (Dr. Jonathan Fass, DPT).

Dobbiamo ricordare che la priorità temporale (o ordine cronologico) è solo uno degli indicatori di una possibile relazione causale. Altri indicatori potrebbero essere una connessione spaziale o storica. Ma la sola priorità temporale è insufficiente per stabilire una relazione causale, perché se fosse sufficiente, allora qualsiasi evento che ha preceduto un altro evento potrebbe essere ritenuto in relazione causale con essa. Chiaramente, questo non è possibile (Damer 2009).

Quindi il problema affrontato si riduce a due argomenti separati:

  1. Come sappiamo se si è verificato un risultato? Quale unità di misura è stata utilizzata? E se utilizzata, è stata validata?
  2. Come possiamo verificare clinicamente se il risultato è stato dato dal trattamento? E che non siano stati altri fattori come il sonno, il tempo, il naturale corso delle patologie muscolo-scheletriche o altri fattori confondenti ad aver influenzato il risultato?

Quando facciamo affermazioni oggettive di “verità” causali, come “ho visto che funziona”, stiamo oltrepassando il confine scientifico ed epistemologico. Facendo così, dovremmo come minimo comprendere di stare bruscamente valicando il confine della scienza e della epistemologia. Quando si fanno affermazioni causali, le seguenti domande potrebbero servire come modello per riflettere sulla validità delle stesse affermazioni. Dovrebbero anche fornire una stima sulla veridicità e sulla plausibilità delle asserzioni, evitando di ingannarsi da soli, come direbbe il professor Feynman.

Posso chiederti come sai che un qualcosa “funziona”? Come hai calcolato l’effetto dell’inferenza causale? Come hai affrontato il problema della regressione lineare e dei bias? O la difficoltà di separare la correlazione dalla causalità? O altri problemi di endogeneità? O il problema di non avere un gruppo di controllo? O il potenziale problema di bias di selezione del campione? E altri potenziali errori? Che controlli hai eseguito per le variabili di confondimento? Quali strumenti di misura hai utilizzato? E se gli hai utilizzati, erano strumenti validati? Hai utilizzato unicamente PROMSs (Patient Reported Outcome Measures)?

Voglio che sia chiaro che non ho problemi con persone che condividono la loro personale esperienza. Quello che mi da più fastidio è quando le persone generano affermazioni “oggettive”, basate solamente sulle proprie esperienze soggettive. Se giungi a conclusioni oggettive, dovresti essere in grado di fornire prove oggettive a supporto delle tue affermazioni.

Quindi la domanda di fondo rimane: possiamo valutare soggettivamente ciò che viviamo e ricordiamo con un certo grado di obiettività?

Facciamo un semplice esempio. Possiamo ad esempio scrivere quanto mangiamo in modo obiettivo? Hill e colleghi hanno osservato la validità di un test di autovalutazione sull’introito calorico, utilizzando la tecnica della doppia etichettatura dell’acqua. Hill e colleghi hanno dichiarato che le persone che si catalogavano come “grandi mangiatori”, sovrastimavano il loro introito calorico di 19 punti percentuali, mentre le persone che si categorizzavano come “scarsi mangiatori”, sottostimavano il loro apporto calorico del 46%. Schoeller e colleghi sconsigliano l’uso di stime auto valutative sull’introito calorico (in ricerca), per via delle loro potenziali inesattezze ed errori.

Possiamo quindi, nella pratica clinica, utilizzare la nostra esperienza per rilevare gli effettivi risultati dei nostri trattamenti?

Nel libro “The Philosophy of Evidence-based Medicine”, il prof. Howick PhD risponde a questa domanda dicendo: “Per riassumere, l’esperienza da sola è di solito uno strumento insufficiente per rilevare dei risultati”. Questa dichiarazione è molto simile a quella fatta dal Dr. Neil O’Connell PhD: “Non puoi dire che un trattamento funziona solo dall’osservazione clinica e dall’esperienza“.

Alcune delle ragioni del perché non possiamo credere alla nostra esperienza sono sintetizzate nel libro di Higgs e Jones, “Clinical Reasoning in the Health Professions”.

Non importa quanto pensiamo sia preciso il nostro senso nella pratica clinica, siamo ostacolati dal fatto che usiamo i nostri filtri interpretativi per diventare consapevoli dei nostri stessi filtri interpretativi! Questo è equivalente ad un cane che tenta di afferrare la sua stessa coda, o di cercare di vedere la parte posteriore della propria testa mentre si guarda nello specchio del bagno. In una certa misura siamo tutti prigionieri all’interno dei nostri quadri percettivi che determinano il modo in cui vediamo la nostra esperienza. Spesso si sviluppa un circolo di auto-conferma in cui le nostre supposizioni accettate in modo critico, determinano azioni cliniche che servono solo a confermare la verità di tali ipotesi”.

Secondo Lacy e colleghi uno dei problemi principali è: “i risultati provenienti da ricerche psicologiche e studi di neuroscienza indicano che la memoria è un processo ricostruttivo che è suscettibile alla distorsione”.

Questo significa che non sempre possiamo credere a tutto quello che ricordiamo. All’interno della nostra memoria sono presenti numerose falle e intuitivamente lo sappiamo tutti. È per questo motivo che usiamo calendari, liste di cose da fare o della spesa per non dimenticarci cosa comprare. Come ha accennato il professor Lotus in un suo articolo, la nostra memoria è sempre in costruzione e funziona un po’ come una pagina di Wikipedia. Può quindi essere modificata dopo un qualsiasi evento.

 

 


Possiamo quindi utilizzare la nostra esperienza per valutare e stimare i benefici o i danni di un nostro trattamento o di un test sui nostri pazienti?

Come dichiarato in una revisione sistematica da Hoffman e colleghi, “i clinici riescono raramente ad essere accurati sui benefici o sui rischi di un trattamento, con imprecisioni in entrambe le direzioni. Tuttavia, i clinici spesso sottostimano i rischi piuttosto che sopravvalutarli e sopravvalutano i benefici piuttosto che sottovalutarli. Errate percezioni sui benefici e sui rischi dei trattamenti possono portare a scelte di gestione clinica non ottimali”.

La risposta alla precedente domanda è quindi no, non possiamo.

Per evitare tutti questi errori e per fare scelte maggiormente consapevoli, abbiamo bisogno di essere guidati da RCT per determinare con maggior grado di accuratezza gli effetti di un determinato intervento (Herbert et al. 2005). La moderna riabilitazione del dolore dovrebbe essere aggiornata dalla ricerca sia qualitativa che quantitativa, che costituisce una vera miniera d’oro.

Anche se non dovesse essere presente un RCT su un particolare tipo di patologia o su una determinata categoria di popolazione (come persone obese, bambini, eccetera), è tuttavia presente un insieme di informazioni che può aiutare il nostro ragionamento clinico, rendendo migliori i nostri trattamenti.

Lo scopo primario di utilizzare la scienza nell’assistenza sanitaria è quello di aumentare la qualità delle cure e di renderci capaci di fare scelte consapevoli basate su validi esempi. È altresì molto importatane essere sicuri di non ripetere gli errori commessi in passato.

Mentre passiamo ad una pratica clinica migliore, dobbiamo assicurarci di continuare a mettere i pazienti al primo posto. Non c’è nulla di più umano dell’utilizzo dell’evidenza per trovare i migliori approcci alla cura del paziente.  Possiamo avere scienza e responsabilità, pur mantenendo tutti i principi e i comportamenti umani che costituiscono la nostra eredità” (Jules Rothstein, PT, PhD).


Letture consigliate

Herbert et al. Outcome measures measure outcomes, not effects of intervention, Clinical reasoning in the health professions by Higgs and Jones, The Philosophy of Evidence-Based Medicine by Howick, In Evidence We Trust by Hale.


Bibliografia

Damer, T. Edward. Attacking faulty reasoning : a practical guide to fallacy-free arguments (6th ed. ed.). Wadsworth,Cengage Learning. 2009

Herbert R, Jamtvedt G, Mead J, Hagen KB. Outcome measures measure outcomes, not effects of intervention. Aust J Physiother. 2005;51(1):3-4.

Higgs, J., & Jones, M. A. (2008). Clinical reasoning in the health professions, 3rd Edition. Oxford: Butterworth-Heinemann.

Hill RJ. Davies PS. The validity of self-reported energy intake as determined using the doubly labelled water technique. Br J Nutr. 2001 Apr;85(4):415-30.

Hoffmann T, Del Mar C. Clinicians’ Expectations of the Benefits and Harms of Treatments, Screening, and Tests A Systematic Review. JAMA Intern Med. doi:10.1001/jamainternmed.2016.8254. Published online January 9, 2017.

Howick J. The Philosophy of Evidence-Based Medicine. Wiley-Blackwell, BMJ Books (2011).

Roger Kerry, The Philosophy of Evidence-Based Medicine. Manual Therapy, Volume 16, Issue 6, 2011, Page e7. Doi 10.1016/j.math.2011.07.007.

Lacy JW, Stark CE. The neuroscience of memory: implications for the courtroom. Nat Rev Neurosci. 2013 Sep;14(9):649-58. doi: 10.1038/nrn3563. Epub 2013 Aug 14.

Rothstein JM. Thirty-Second Mary McMillan Lecture: journeys beyond the horizon. Phys Ther. 2001 Nov;81(11):1817-29.

Schoeller DA, Thomas D, Archer E, Heymsfield SB, Blair SN, Goran MI, Hill JO, Atkinson RL, Corkey BE, Foreyt J, Dhurandhar NV, Kral JG, Hall KD, Hansen BC, Heitmann BL, Ravussin E, Allison DB. Self-report-based estimates of energy intake offer an inadequate basis for scientific conclusions. Am J Clin Nutr. 2013 Jun;97(6):1413-5.

Posted in: Critical thinking and clinical reasoning, Scientific theory