Migliorare la sicurezza delle cure

L’errore e i modelli di gestione (Parte 2a)

Cinzia SestiniCinzia Sestini, Infermiera. Laureata in Scienze Infermieristiche Ostetriche. Responsabile Posizione Organizzativa Rischio Clinico presso l’Azienda USL Toscana Sud-Est, Zona Operativa Arezzo. Dal 2005 si occupa di Qualità e Sicurezza del Paziente. Ha effettuato il 1° Corso di Alta Formazione in Clinical Risk Management della Scuola Superiore Sant’Anna negli anni 2005-2006

Giovanni Falsini, Serena Romanelli, Dipartimento Cardiovascolare e Neurologico, Azienda USL Toscana Sud-Est,  Zona Operativa Arezzo


Continuano le nostre osservazioni sul rischio clinico (vedi Toscana Medica n. 5/2018, pag. 13), con la parte che affronta l’errore umano e i modelli di gestione di questo secondo una visione cronologica che va dall’iniziale approccio ingegneristico al fattore umano fino all’approccio di sistema e delle organizzazioni ad alto rischio. Ciascun sistema ha fornito degli elementi  utili agli operatori sanitari.

 

Parole chiave: errore umano, sicurezza delle cure, Clinical Risk Management, errori attivi, errori latenti


L’errore umano
Errare humanum est, perseverare autem diabolicum. La frase di Seneca (4 a.C. - 64 d.C.) ha mantenuto il suo significato invariato fino ai giorni nostri. Tutti siamo consapevoli e generalmente d’accordo che commettere un errore è umano, sbagliare è comprensibile, in particolare se l’errore è commesso in maniera inconsapevole. Siamo solitamente disposti a perdonare chi commette un errore. Ma perpetrare lo stesso errore è sbagliato, contrario alla natura umana, diabolico, appunto.
L’errore umano può essere definito in molti modi. Per i nostri propositi lo definiamo come segue: “un errore è il fallimento di una o più azioni pianificate per il raggiungimento di uno scopo desiderato.”

L’approccio all’errore umano
L’approccio all’errore umano si è evoluto nel tempo di pari passo con il progresso delle conoscenze sul funzionamento della mente e sui rapporti tra uomo e ambiente (Figura 1). Verranno illustrati di seguito i principali modelli di gestione dell’errore umano.

Fig 1 sestini

L’approccio tecnico all’errore umano (anni ’70)
Negli anni ’70 del secolo scorso, per spiegare l’errore umano veniva applicato il modello ingegneristico della performance umana, derivato dall’industria, principalmente automobilistica, degli anni ’20 e ’30. Secondo questo approccio la genesi dell’errore umano risiede nei processi cognitivi patologici degli operatori, principalmente legati a disattenzione e negligenza. La finalità di capire l’errore coincideva con la ricerca della responsabilità e le correzioni erano rivolte in queste due direzioni: il biasimo e la formazione degli operatori. Tuttavia le ricerche in campo psicologico e sociale di quegli anni iniziavano a concentrare l’attenzione sui fattori umani ed era emerso chiaramente che gli errori nascono solo raramente dalla negligenza, mentre sono molto più spesso la conseguenza di circostanze concausali. Inoltre questo modello non considerava gli eventi sfiorati che invece sono una fonte importante di informazione sulla sicurezza del paziente.

Il fattore umano (anni ’80)
Negli anni ’80 si impone il modello dell’approccio all’errore basato sulla persona come tentativo di ottimizzare la relazione tra i sistemi e gli esseri umani.
I campi di ricerca in questo ambito erano principalmente tre:
• lo sviluppo di sistemi sicuri. Riguarda la concezione delle apparecchiature e la realizzazione di programmi informatici di supporto alle prestazioni umane:
• l’ergonomia cognitiva applicata al posto di lavoro in generale, la progettazione degli ambienti di lavoro ergonomici, gli ospedali stessi e la progettazione delle apparecchiature sanitarie ed elettromedicali;
• lo studio delle dinamiche di gruppo (il team working). La capacità decisionale e di elaborazione delle informazioni in situazioni critiche può avere per un singolo operatore importanti limitazioni specie in tempi ristretti. Le dinamiche di gruppo insufficienti e le interruzioni della comunicazione tra i membri di un team possono favorire gli errori.

L’approccio di sistema (anni ’90)
L’approccio di sistema rappresenta l’evoluzione dei sistemi precedenti che ne include gli aspetti principali. Secondo Reason l’errore è inevitabile perché connaturato alla natura umana: non potendo cambiare la natura umana, bisogna agire sul sistema migliorando le condizioni di lavoro in modo che l’errore umano non produca danni. Tale approccio sposta l’attenzione dal singolo al sistema; viene introdotto il concetto che i sistemi altamente tecnologici possiedono molti strati di difese-barriere progettate per intercettare gli errori umani: alcune barriere sono sistemi ingegneristici (allarmi, chiusure automatiche ecc.), altre si basano sulle persone (specializzazioni) e altre ancora dipendono da procedure e controlli di routine.
Questo approccio introduce i concetti di errori attivi e latenti e di fattori contribuenti.
Gli errori attivi sono associati alle prestazioni degli operatori di prima linea, i loro effetti sono di solito immediatamente percepiti e facilmente individuabili.
Gli errori latenti sono associati ad attività distanti in termini di spazio e tempo dal luogo dell’incidente, come le attività manageriali e organizzative. Le conseguenze degli errori latenti possono restare silenti nel sistema anche per lungo tempo e diventare evidenti solo quando si combinano con altri fattori in grado di rompere le difese del sistema.
I fattori contribuenti sono le condizioni che creano il terreno favorevole all’errore attivo.
L’importanza fondamentale del modello di Reason per la gestione del rischio clinico è quella di aver superato i concetti di “colpa” ed “errore” per l’utilizzo gestionale delle informazioni derivate dallo studio dell’incidente. La finalità diventa non trovare il colpevole per punirlo ma solo capire perché è avvenuto l’errore, identificare le criticità residenti nel sistema e attuare le correzioni opportune. Presupposto per l’affermazione di questo modello è la “consapevolezza collettiva della possibilità di sbagliare”, ossia un terreno culturale favorevole che consideri gli errori come opportunità per migliorare la qualità del sistema stesso.
Questo modello introduce i near miss, gli eventi sfiorati che rappresentano vere e proprie lezioni gratuite per capire le aree a maggior rischio su cui intervenire.

Organizzazioni ad alto rischio (2000)
Il modello più recente in ordine cronologico sostiene che le organizzazioni che sviluppano processi critici vanno incontro a rischi “strutturali” che non possono essere evitati dall’attenzione umana né dall’organizzazione responsabile e attenta alla gestione delle attività.
Il modello si basa sulla teoria dell’incidente normale di Perrow (1984) ripresa da Hollnaghel (2008) per cui nelle organizzazioni, quando aumenta la complessità, aumenta l’incontrollabilità del sistema, che si viene a trovare in una zona ad alto rischio in cui l’errore diventa pressoché inevitabile al realizzarsi di determinate circostanze.
Di fatto tale modello, anche se accettato teoricamente, ha un’accezione di tipo filosofico, manca di prove di evidenza e non apporta sostanziali innovazioni rispetto al modello precedente che rimane il riferimento teorico nella gestione del rischio clinico.

Una nuova visione degli errori  nei sistemi complessi
Nei sistemi complessi come anche la Sanità si devono distinguere le interazioni che avvengono in prima linea (sharp end) da ciò che succede nelle retrovie del sistema, a livello amministrativo, gestionale e normativo (blunt end). In prima linea gli operatori sono sottoposti a una serie di problemi e domande contrastanti per cui le decisioni sono vincolate sia da limiti cognitivi che dalle risorse disponibili (Figura 2).

Fig 2 sestini
Secondo Cook e Woods ci sono 3 classi di fattori cognitivi che governano le decisioni degli operatori di prima linea:
1. conoscenze degli operatori per la soluzione di un problema in un determinato contesto;
2. attenzione. Le dinamiche dell’attenzione e la gestione del carico di lavoro mentale nell’evolversi temporale della situazione influiscono sull’esito;
3. strategia: le contraddizioni tra più obiettivi che confliggono tra loro in condizioni di incertezza e la pressione di risorse limitate (per esempio tempi stretti, contenimento dei costi).
Questi tre fattori possono sovrapporsi nelle attività dei singoli operatori o del gruppo e portare a soluzioni sbagliate in caso di problemi di particolare complessità.
I fattori latenti sono in grado di influire sulle risorse cognitive e materiali degli operatori di prima linea nella soluzione di un particolare problema; per esempio le conoscenze disponibili agli operatori di prima linea possono essere il risultato degli investimenti in formazione del personale o nell’allocazione delle risorse umane. L’efficacia del sistema dipende dalla fluidità nell’integrazione tra questi fattori.
Nella visione sistemica, il fattore umano considerato il punto debole del sistema ingegneristico o l’unico responsabile dei fallimenti nell’approccio centrato sulla persona diventa il principale garante della sicurezza dei processi organizzativi. Grazie alle straordinarie capacità di adattamento tipiche degli esseri umani, gli operatori di prima linea sono capaci di gestire il peso degli errori latenti, i conflitti e le contraddizioni provocati dalle scelte effettuate a livello di blunt end.
Gli operatori di prima linea rappresentano spesso l’ultima risorsa del sistema: sono in grado di risolvere conflitti, anticipare gli errori, aggiustare situazioni, identificare e recuperare mancanze di informazioni o comunicazioni sbagliate. Queste caratteristiche della performance degli operatori sono alla base dell’affidabilità delle organizzazioni critiche per la sicurezza. Le organizzazioni diventano affidabili nella misura in cui sono in grado di riconoscere, valorizzare e supportare queste modalità operative: adottare la prospettiva sistemica è un necessario cambiamento culturale e di prospettiva.

Modello di Reason  del formaggio svizzero
Reason ha introdotto il modello del formaggio svizzero secondo cui l’errore evidente è causato da un susseguirsi di azioni che, in particolari situazioni, superano i vari meccanismi di controllo, le barriere difensive, rappresentate dalle fette di groviera, dove i buchi del formaggio che simboleggiano le falle del sistema non occupano una posizione fissa ma fluttuano in relazione alle variazioni del contesto. Perché si produca un errore è necessario un allineamento accidentale di tutte le falle tale da permettere alla situazione a rischio di “bucare” il sistema di difesa e produrre l’incidente.

Modello di Vincent (London Protocol)
Modello dell’analisi sistemica dell’evento avverso, tratto dal modello di Reason di cui ne rappresenta una evoluzione. Rappresenta la sintesi finale dei modelli di gestione del rischio clinico.
Quando si verifica un incidente, le barriere del sistema hanno fallito, c’è stato un problema assistenziale dovuto al fattore umano, ci sono sempre dei fattori contribuenti al fallimento attivo e talora ci sono dei fattori latenti.
Il punto fondamentale di questo modello è quello di focalizzare l’attenzione sui fattori contribuenti che possono essere gestiti e non sull’errore; persino il termine “errore” scompare e viene sostituito da quello più generico di “problema assistenziale” (Figura 3).

Fig 3 sestini

Commenti
I modelli di gestione dell’errore umano si sono evoluti nel tempo di pari passo con i progressi in vari campi delle scienze umane. Lo standard di riferimento attuale, il modello dell’analisi sistemica degli eventi avversi di Vincent, rappresenta la sintesi dei contributi dei modelli precedenti.

L’articolo prosegue nel prossimo numero.

Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.

Il nostro sito utilizza i cookies per offrirti un servizio migliore.

Se vuoi saperne di più o avere istruzioni dettagliate su come disabilitare l'uso dei cookies puoi leggere l'informativa estesa

Cliccando in un punto qualsiasi dello schermo, effettuando un’azione di scroll o cliccando su Accetto, presti il consenso all’uso di tutti i cookies.