Sicurezza del paziente: la Grande Visione

Steven Woolf, epidemiologo americano specialista in medicina preventiva e salute pubblica e membro dell’US Preventive Service Task Force e dell’Institute of Medicine, scrive nell’articolo “Patient Safety is not enough: targeting quality improvements to optimize the health of the population” [1] che la sicurezza del paziente (patient safety) è certamente importante per migliorare la qualità delle cure, ma è solo un aspetto che va integrato in una visione globale (the Big Picture), un’immagine di quattro cerchi concentrici dove il più interno rappresenta gli errori nella sicurezza del paziente (rischi aggiuntivi dipendenti da violazioni, errori e mancanze dei curanti); il secondo, che ricomprende il primo, è quello degli errori medici (non solo i rischi attivi ma anche quelli derivanti da omissioni del miglior percorso preventivo); il terzo ancora più esterno degli errori nella qualità (cure che non raggiungono gli standard e gli esiti definiti, non solo per fattori individuali ma per errori di disegno e di organizzazione); infine il quarto più esterno degli errori del “prendersi cura” (cure insufficienti rispetto ai benchmark ma anche rispetto ai bisogni e alle aspettative dei pazienti).

Parafrasando il concetto di “Big Picture” di Steven Wolff, anche la sicurezza del paziente in Medicina di Laboratorio è stata rappresentata [2], in una visione globale, come una serie di cerchi concentrici—sicurezza del risultato (qualità analitica), sicurezza del processo (qualità del total testing process), sicurezza dell’esito (effectiveness e appropriatezza), sicurezza del cittadino (ruolo sociale della Medicina di Laboratorio)—al Congresso Nazionale SIMeL del 2006 dedicato alla “Sicurezza del Paziente”—considerato come il completamento dell’analisi a tutto tondo della Medicina di Laboratorio iniziata con i temi organizzativi, più cogenti, a Modena nel 2004 e proseguita con il fulcro disciplinare individuato nella risposta al quesito clinico a Trieste nel 2005—e al Forum Risk Management in Sanità ad Arezzo nel 2007.

A dieci anni di distanza, il concetto della Grande Visione riguardo al tema sicurezza/qualità in Medicina di Laboratorio è ancora valido?

Sicurezza del risultato analitico

Dieci anni fa il tema dell’attenzione al problema analitico, del posizionamento del dato analitico nel quadro complessivo dell’incertezza della misura, della comunicazione adeguata di essa erano ancora frontiere armate e punti focali della battaglia per la sicurezza del paziente [3]. Ed erano [4] e sono [5] ben note le conseguenze sulla mis-classificazione diagnostica dei pazienti dell’inaccuratezza delle misure, in particolare in alcune aree (TDM, monitoraggio degli anticoagulanti, HbA1c, test genetici). Tuttavia, il progresso tecnologico ha diffuso una convinzione di “certezza” della misura, che coinvolge clinici e laboratoristi, basata sulla perfezione tecnica dei device/strumenti e Linda Thienpont [6] si chiedeva chi avrebbe baciato la Bella Addormentata (l’accuratezza), sostituita molto spesso nell’automazione dalla ripetibilità e dalla semplificazione e nelle analisi decentrate dalla semplicità e dall’immediatezza. Sottolineava, inoltre, come questo non potesse essere un compito esclusivo della professione, ma dovesse coinvolgere in un rapporto dialettico anche l’industria che sviluppa e appronta i test. In questi dieci anni l’attenzione per la qualità analitica e la sicurezza dei risultati è stata tenuta alta, sia sotto il profilo degli strumenti offerti per il suo controllo sia sotto il profilo teorico.

Sotto il profilo pratico, CLSI EP23 [7] traduce i principi della gestione del rischio industriale (risk management) nella pratica del laboratorio clinico a supporto dei sistemi di gestione della qualità, che si sono dimostrati efficaci (ISO 9001 e 15189) nel promuovere la sicurezza del paziente [8]. EP23 tiene conto della varietà e del livello dei sistemi di controllo incorporati nelle nuove strumentazioni (sia per monitorarne automaticamente il funzionamento, sia per integrare i classici controlli di qualità interni), ma anche della verifica scientifica dell’effettivo rischio di errore nelle diverse fasi del processo analitico (risk assessment), per definire un “piano di controllo” che integri i diversi modi di verifica della qualità in forma specifica, monitorata e costantemente rivalutata, e “su misura” (Individualized Quality Control Plan, IQCP) [9].

ISO 15189:2012 [10] suggerisce di sostituire come criterio per la performance analitica all’Errore Totale Analitico (Total Analytical Error, TAE) e all’Errore Totale Ammissibile (Allowable Total Error, ATE) l’Incertezza della Misura (Measurement Uncertainty, MU), proposta antica ma mai effettivamente perseguita per le difficoltà di eliminare il bias nella valutazione dell’accuratezza. La proposta non è stata accettata da CLIA (Clinical Laboratory Improvement Amendments) ed è stata criticata, dando origine a un serrato dibattito sulla rivista Clinical Chemistry and Laboratory Medicine [1113].

L’European Federation of Clinical Chemistry and Laboratory Medicine (EFLM), in particolare, nella conferenza del 2014 “Defining analytical performance goals 15 years after the Stockholm Conference on Quality Specifications in Laboratory Medicine” [14] rivede la gerarchia per definire la qualità della prestazione analitica, semplificando il quadro del 1999 con l’eliminazione dei criteri suggeriti dai corpi professionali o istituzionali (organismi di controllo e organizzatori di VEQ) e stabilendo un ordine basato sugli esiti clinici, diretti e indiretti, sulla variabilità biologica e sullo stato dell’arte [15], e ripropone l’uso di MU, anche per adeguarsi alle indicazioni di ISO 15189:2012. Nel 2015, EFLM tiene un corso intitolato “How to assess the quality of your method?” [16] nel quale affronta le specifiche di qualità, la variabilità biologica, la misura dell’incertezza, la verifica del bias e dell’imprecisione, il rapporto tra LoB/LoD/LoQ e livelli decisionali, la comparabilità di metodi e strumenti, gli intervalli di riferimento, la verifica delle procedure qualitative, i controlli di qualità interni ed esterni e l’uso della metrica Six Sigma. In Italia, la Commissione Qualità di SIPMeL rilascia un importante documento sulla comparabilità di metodi e strumenti [17], uno dei punti più delicati della qualità analitica.

Lo stretto legame tra qualità analitica e qualità clinica è ora enfatizzato, per esempio in relazione ai percorsi diagnostico-terapeutici-assistenziali (PDTA) [18]. La scelta dei metodi (iPTH, CRP al posto di VES) e degli strumenti (POCT per HbA1c, ACR, PTT/INR, HIV e TBC) e la loro verifica di qualità, così come la scelta dei biomarcatori (PNC; hs-cTn vs cTn) e dei loro limiti decisionali e delle sequenze organizzative (esami reflex o riflessivi), sono elementi decisivi per il funzionamento dei PDTA. La necessità di un’affidabilità analitica perfetta è, d’altro canto, affrontata dall’emergere di esami di laboratorio di elevatissimo impatto clinico e sociale ma dal processo analitico assai indaginoso, come i test molecolari o di Next Generation Sequencing (NGS), per i quali sono stati messi a punto strumenti di validazione e controllo adeguati [19, 20].

Tuttavia, quest’anno James Westgard e altri pubblicano il libro “Risk, Error and Uncertainty: Laboratory Quality Management in the Age of Metrology” [21], nel quale affrontano, tra l’altro, i temi metrologici e della tracciabilità analitica, il dibattito tra Errore Totale Analitico (TAE) e Incertezza della Misura (MU), la variabilità biologica, lo stato dell’arte nella definizione degli obiettivi, la comparabilità dei risultati, i controlli statistici compreso IQCP e l’uso della metrica Six Sigma (\(\sigma \)). L’aspetto preoccupante è la differenza tra le teorie raffinate, proposte a livello internazionale, e la realtà rilevata da indagini condotte da Westgard tra il 2014 e il 2017. La qualità analitica non è sempre buona, come dimostra l’indagine 2016 del College of American Pathologists (CAP) su 3237 laboratori [22]. Nell’esame del campione di controllo per l’HbA1c, per esempio, solo un sottogruppo metodologico su 24 ha superato i 3\(\sigma \), mentre 8 si sono piazzati tra 3 e 2 sigma e 12 sotto i 2\(\sigma \). Si ricordi che l’obiettivo dovrebbe essere 6\(\sigma \), una qualità media potrebbe essere 4\(\sigma \) e la qualità minima in campo industriale è 3\(\sigma \). Benché l’analita sia particolarmente difficile per complessità fisico-chimiche, caratteristiche della matrice, tracciabilità ed eterogeneità di metodi, il risultato è sconfortante pensando all’impatto sulla diagnosi e sul monitoraggio della malattia diabetica. I controlli di qualità interni (CQI) non sono gestiti al meglio [23]: il 55% dei laboratori usa regole superate e il 62,5% limiti troppo larghi; il 64% utilizza il controllo del produttore, il 51,5% lo analizza solo 1 volta al giorno e il 49,5% solo all’inizio del lavoro; 1 su 3 va fuori controllo ogni giorno. Dall’indagine emerge anche una percezione della propria qualità non realistica: 1 su 3 ha una valutazione ottimistica del numero di campioni rifiutati ogni giorno (<1%) e 1 su 10 pensa di emettere i risultati a prescindere dal CQI. Per quanto riguarda IQCP, in una specifica survey americana [24], solo 1 su 5 dei rispondenti lo applica e solo per una piccola percentuale di esami (<5%); nell’analisi del rischio propedeutica, nel 68,7% dei casi non rileva rischi inaccettabili e nel 79,3% pensa di essere comunque in condizioni di sicurezza, a prescindere dall’uso di IQCP. Desta perplessità la diversità di risultati nell’applicazione dei metodi di valutazione del rischio: in un percorso POCT dove gli esperti rilevano 91 punti di rischio i laboratori americani ne mettono in evidenza 30 e quelli non americani partecipanti all’indagine solo 10. Questi dati sollevano dubbi sulla riproducibilità dei metodi utilizzati [25]. Infine, il 68,7% di chi utilizza IQCP effettua controlli di qualità 1 volta al mese. Conclude amaramente Westgard che IQCP sembra “un esercizio cartaceo, allo scopo di giustificare una frequenza di controlli interni già ridotta, dando a questo taglio una parvenza scientifica”. Infine, in un’altra indagine [26], solo una piccola parte dei rispondenti americani utilizza MU (15%) e/o la include nelle risposte (7,5%), le motivazioni sono legate all’applicazione di ISO 15189 e l’effetto è trascurabile, soprattutto in relazione a modifiche delle decisioni cliniche (<5%). Il tema dell’accuratezza analitica e dei suoi metodi di valutazione e controllo è ancora del tutto aperto.

Sicurezza dei processi in Medicina di Laboratorio

L’importanza fondamentale del controllo dell’intero processo dell’esame di laboratorio (il total testing process come descritto magistralmente da Lundberg [27]) e non solo della fase analitica per un risultato affidabile per il clinico e il paziente era già chiaro dieci anni fa. Da questo punto di vista vi sono stati almeno tre percorsi di grande rilevanza.

Sulla scorta dei propri lavori sull’errore in medicina di laboratorio [28], che avevano mostrato la prevalenza della fase pre- e post-analitica nel determinare l’errore cosiddetto di laboratorio, e dei primi tentativi di Ricos et al [29], Mario Plebani, anche all’interno della EFLM Task Force on Performance Specifications for the extra-analytical phases, si è votato allo studio e alla proposizione di una serie di indicatori di qualità (QI) [30] in grado di monitorare adeguatamente tutti i passaggi delle fasi pre- e post-analitiche, oltre che di quella analitica, in relazione alle indicazioni di ISO 15189 e con l’individuazione degli obiettivi di difettosità ammissibile (mis-identificazione del paziente; inappropriata richiesta; qualità formale della richiesta; qualità del campione; tempo della raccolta/prelievo; qualità analitica come CQI e VEQ; TAT; qualità formale della risposta; qualità dei risultati; notifica degli stessi; commenti interpretativi; esiti). Infine il complesso degli indicatori di qualità è inserito in un quadro di riferimento, basato sul risk management, che consente benchmark, analisi delle cause e azioni correttive [31].

Nel dicembre del 2015 The National Academy of Science (che ha incorporato Institute of Medicine, IOM) pubblica un rivoluzionario documento dal titolo Improving diagnosis in Health Care [32], che è certamente l’evoluzione dei fondamentali lavori dello IOM sugli errori in Medicina (To err is human, 2000 e Crossing the quality chasm, 2001), ma definisce un cambiamento di paradigma, perché si passa dall’attenzione alla riduzione degli errori all’impegno per il miglioramento della diagnosi. Tre sono i temi principali affrontati dal documento: il focus è sull’errore diagnostico, che finora aveva avuto minore attenzione per diverse ragioni (dati dispersi, poche misure affidabili, analisi prevalentemente retrospettive); l’errore diagnostico è definito dal punto di vista del paziente; il processo diagnostico è complesso, iterativo e collaborativo (team intra e interprofessionali). L’errore diagnostico è definito come “il fallimento in: (a) stabilire una spiegazione accurata e tempestiva dei problemi di salute del paziente o (b) comunicare tale spiegazione al paziente stesso”. La centralità del paziente è ben enfatizzata, con i corollari della partnership e del coinvolgimento delle famiglie (intese come persone che si prendono cura). Il lavoro diagnostico è un processo dinamico di gruppo che condivide obiettivi, ha chiari i ruoli, mutua fiducia, efficace comunicazione e misura processi ed esiti. I determinanti del lavoro collaborativo sono la centralità del paziente, l’impegno della leadership, le caratteristiche della comunicazione, la consapevolezza delle identità e interdipendenze, la responsabilità e una finalizzata struttura dell’organizzazione. Risuona qui la concordanza con i concetti societari dell’equipe di laboratorio. Altri punti, infine, vengono sottolineati ed entrano nelle Raccomandazioni: l’importanza dell’apprendimento continuo sulla base della ”learning science”, la centralità della health information technology, l’importanza del disegno e dell’organizzazione del lavoro e la fondazione di una cultura conseguente.

Il concetto di total testing process e di brain to brain loop è stato rivisto più volte negli anni [33, 34]. Nel 2017, riprendendo l’elaborazione precedente del 2007 e 2010, ho proposto una nuova visione [35] del ciclo di Lundberg per renderlo pienamente utilizzabile anche oggi e nel prossimo futuro, anche per gli esami fuori dal laboratorio (POCT) e dall’ospedale (territorio, home), come schema teorico-pratico della generazione dell’informazione medica di laboratorio. Le condizioni necessarie sono: (1) lo schema sia fuso con il concetto di interfaccia clinica-laboratorio di Büttner, amplificata dall’organizzazione a rete del laboratorio fuori dalle mura; (2) le fasi pre-pre e post-post siano pensate non solo come la parte extra-lab delle fasi pre e post analitiche ma come momento più alto del lavoro all’interfaccia (team multidisciplinari per “evidenze”, linee guida, protocolli di appropriatezza, feedback e audit); (3) venga descritto come colloquio tra reti di cervelli (Laboratorio—team clinico e assistenziale—paziente); (4) il paziente sia effettivamente al centro del ciclo di generazione dell’informazione medica a lui dedicata (problema di salute—negoziazione su valori e preferenze— effectiveness). Come si vede, alcuni concetti maturano di pari passo con altre riflessioni precedentemente riportate (il lavoro a team, la centralità del paziente), ma altre sono del tutto originali (l’interfaccia amplificata e il lavoro delle fasi pre-pre e post-post mai così definite prima d’ora). Questa teorizzazione, sufficientemente descrittiva seppur sintetica, può essere assunta come riferimento per mostrare i luoghi, metaforici e non, in cui si manifestano i ruoli cui sono chiamati oggi i professionisti della Medicina di Laboratorio (sacerdoti della tecnologia, pianificatori e manager, consulenti clinici e attori del governo clinico) e come modello per l’identificazione dei punti critici delle attività correlate all’obiettivo qualità/assenza di errori/sicurezza del paziente.

Sicurezza degli esiti

Il tema degli esiti in medicina è divenuto centrale in quest’ultima decade, come evoluzione dell’outcome movement iniziato alla fine degli anni ’80 in America. Dal punto di vista del Laboratorio le considerazioni probabilmente più interessanti stanno all’interno di una più matura considerazione del valore della Medicina di Laboratorio, che muove dalla valutazione “essenzialista” puntata sul turnover dei risultati (accuratezza e validità) a una “consequenzalista” puntata sul valore delle conseguenze (utilità ed esiti di salute), dalla parola d’ordine “verità” a quella di “utilità” [36]. Nonostante il ruolo fondamentale del concetto di accuratezza diagnostica, vi è una spinta crescente ad avere informazioni sui test che trascendano la prestazione tecnica e analitica per attingere a una più ampia prospettiva che riferisce agli esiti del paziente. In questo senso viene introdotto e specificato il concetto di utilità clinica (informazioni utili agli esiti), talora correlato all’apprezzamento dei clinici (diagnostic thinking efficacy) o all’effetto sul trattamento (therapeutic efficacy), ma meglio descritto come dipendente dagli esiti clinici, primari e secondari, del paziente (patient outcome efficacy). Bossuyt et al [36] utilizza il termine “utilità” piuttosto che “efficacia”, perché vuole rilevare come le conseguenze delle decisioni cliniche basate sul test debbano essere esplicite e quantificate. L’aggettivo “clinica” ha a che fare con gli esiti di salute individuale e collettiva, comprende non solo le conseguenze dirette del test ma anche quelle derivate dalle strategie di intervento ad esso conseguenti, indica il valore probabilistico (non necessariamente tutti gli esiti sono presenti in ciascun paziente) e comparativo (il riferimento è la miglior pratica standard) della utilità.

Questi concetti pongono alcuni problemi [37]: la definizione degli esiti “clinici” in senso lato; la sovrapposizione dei concetti di “effectiveness” e “appropriateness”; la difficoltà di produrre “evidenze” del legame test/outcome. Bossuyt definisce come esiti da misurare, accanto a quelli primari legati alla decision making e all’effetto di trattamento/attesa, quelli secondari (emotivi, sociali, cognitivi, comportamentali). La visione si collega alla progressiva centralità del paziente, in senso olistico, nella Medicina occidentale, ma pone grandi problemi metodologici. Nonostante la rimarcata caratteristica “probabilistica” del consequenzialismo, se il termine di valutazione sono gli outcome dei pazienti è difficile non vedere come i concetti di efficacia clinica e di appropriatezza si sovrappongano, anche se guardano l’una più alla parte della selezione diagnostica, l’altra alla parte interventistica. La complessità del termine appropriatezza è stata recentemente illustrata [38]. Tuttavia, l’insieme delle visioni descritte in precedenza, e in particolare quella sostenuta in Improving Diagnosis in Health Care [32], convergono verso l’idea che i processi produttivi in medicina siano complessi, iterativi e collaborativi. In Medicina di Laboratorio, è evidente che l’azione lungo tutto il TTP dell’equipe di laboratorio con la sottolineatura del nuovo concetto di fasi pre-pre e post-post, è la condizione sia dell’appropriatezza sia degli esiti [38].

Il punto della produzione delle evidenze è particolarmente delicato ed è stato più volte esaminato [37, 39]. Nella difficoltà di valutare direttamente gli esiti, il metro di giudizio si è spostato sull’aderenza alle linee guida, sintesi delle evidenze disponibili [40]. Pur nella consapevolezza che si tratta di una scorciatoia, questo sistema è accettato universalmente, ma le difficoltà nella produzione di linee guida sono state più volte sottolineate [41]. La produzione di linee guida di Medicina di Laboratorio (LGML) ha poi specifiche problematiche [42]. Principalmente, da un lato, la difficoltà di correlare l’utilizzo di esami di laboratorio agli esiti clinici del paziente e quindi di avere studi primari di alta qualità, come sono per definizione i trial clinici randomizzati (RCT), sposta l’attenzione verso esiti surrogati e/o l’accuratezza diagnostica, peraltro non sempre facilmente perseguibili. Di qui l’ampio utilizzo di esperienze e pareri di esperti. Dall’altro, nella pratica del laboratorio sono spesso gli aspetti tecnologici e organizzativi che hanno la necessità di essere indirizzati (guidance), soprattutto quando questi aspetti, che possono apparire “interni” rispetto al lavoro all’interfaccia clinica-laboratorio, condizionano invece pesantemente il percorso diagnostico e quindi terapeutico del paziente. Infine è noto [43] come le linee guida cliniche abbiano generalmente una bassa considerazione per gli aspetti considerati laboratoristici, rispettando in media solo in un terzo dei casi le necessarie informazioni riguardo lo stato dei pazienti, le interferenze biologiche e analitiche e il trattamento dei campioni, e che l’inserimento di uno specialista di laboratorio nei comitati/gruppi di preparazione di line guida cliniche migliora la situazione rendendone circa la metà esaustive sotto il profilo dei mezzi diagnostici. La necessità della presenza dei laboratoristi nei gruppi di produzione, adozione, adattamento e validazione delle linee guida deve essere ben presente sia a livello professionale sia a livello istituzionale. SIPMeL ha definito un chiaro documento a sostegno di obiettivi e metodi per le linee guida e le LGML [42].

Sicurezza del cittadino

Si è visto, anche in questo articolo e a più riprese, come il tema della centralità del paziente [44] sia presente nelle verifiche degli errori ai diversi livelli e nel concetto più ampio di miglioramento della qualità, in questo caso diagnostica. Nel 2006 un’approfondita indagine su “Diritti dei cittadini e laboratorio analisi” [45] esamina il rispetto dei quattordici diritti fondamentali della “Carta europea dei diritti del malato” approvata nel 2002 (misure preventive, accesso, informazione, consenso, libera scelta, tempo del paziente, privacy e confidenzialità, standard di qualità, sicurezza, innovazione, evitare sofferenze, trattamento personalizzato, reclamo, risarcimento). Nel 2016 i diritti dei pazienti vengono declinati secondo i passaggi del TTP [46]. Ma la sicurezza del cittadino, nella nostra visione, non si riduce all’affermazione, seppure importante, di diritti individuali e il compito della Società non è solo di garanzia di accesso. Il tema, infatti, non è solo rivolto al paziente ma al complesso della società, ai cittadini sia in termini di specifica prevenzione delle malattie sia in termini di educazione complessiva sui temi della malattia, della salute e della scienza. Questo, che abbiamo definito “ruolo sociale della Medicina di Laboratorio”, è stato ben presente in tutte le attività societarie, da quelle organizzative interne [47] a quelle legate all’innovazione [48] e a quelle strettamente legate ai temi della sicurezza/qualità [2]. Il compito di informazione/formazione si è oggi esteso, a fronte del dilagare delle fake news e del rifiuto della scienza [49]: comunicare la scienza; spiegare il significato dei test e del processo diagnostico; far comprendere il concetto di rischio e probabilità; assumere un ruolo critico nei confronti delle forzature scientifiche e mediatiche; promuovere la consapevolezza di “attenti alle bufale”. Si tratta di un tema e di una sensibilità che ci ha contraddistinto, in Italia e nel mondo, ma non siamo soli. David Eagleman [50], neuroscienziato cognitivo del Baylor College of Medicine di Houston, ha definito l’impegno etico del “ruolo pubblico”, invitando gli scienziati e i medici a rendicontare i benefici delle ricerche, senza trucchi o trionfalismi; a contribuire alla diffusione di una cultura scientifica, mettendo a disposizione le proprie specifiche abilità; a contrastare la disinformazione; a sporcarsi le mani con la politica, in termini legislativi; a spiegare cos’è la scienza (riproducibilità e metodo) e soprattutto cosa non è (la Verità); a educare alla consapevolezza dell’incertezza, del rischio e delle trappole mentali con cui abbiamo a che fare quando ne parliamo.

La Grande Visione dieci anni dopo

In questi ultimi dieci anni molte cose sono cambiate: nuovi e rinnovati metodi e teorie per l’accuratezza dei risultati, una completa accettazione del concetto di total testing process e del ruolo del Laboratorio nel processo diagnostico, il tentativo di valutare esplicitamente gli esiti della diagnostica, la consapevolezza del necessario impegno culturale oltre che tecnico-scientifico. Molte altre restano ancora da fare. È necessario migliorare la qualità analitica in un mondo che la dà per scontata; affrontare i temi divisivi sui criteri di valutazione e controllo dei test; diffondere il concetto di fasi pre-pre e post-post come momenti alti di scambio all’interfaccia; realizzare efficaci modelli di valutazione degli esiti legati alla diagnostica; definire linee guida che comprendano gli aspetti delicati preanalitici analitici e postanalitici che solo il Laboratorio conosce; rendersi visibili professionalmente e culturalmente a tutta la società. Penso, quindi, che lo schema della Grande Visione possa rappresentare ancora un modello cognitivo adeguato alla sistematizzazione della sicurezza del paziente nella Medicina di Laboratorio e che anzi risponda meglio di altri framework alle innovazioni avvenute e alle nuove sensibilità, in particolare con il documento Improving Diagnosis in Health Care, e che faciliti il passaggio del Laboratorio da servizio essenziale a determinante integrato degli esiti del paziente e nella promozione della salute.