Un recente caso di cronaca porta alla ribalta il problema della responsabilità penale del medico e del rapporto con le macchine intelligenti
Un recente e sfortunato caso di cronaca che ha coinvolto una dermatologa romana ha riportato in primo piano il tema della responsabilità penale nell’eventualità di un errore diagnostico. Ricordiamo i fatti come sono stati riportati dai giornali. A novembre del 2013, insospettita da un neo comparso su un polpaccio, una signora richiede una visita dermatologica privata, seguita da un controllo il 18 giugno del 2014. In entrambe le visite, le viene diagnosticata una verruca seborroica «omettendo di ricorrere a un esame strumentale più approfondito della lesione – si legge ne capo di imputazione – e, comunque, di avviare con urgenza la paziente alla competenza di un esperto». La lesione non viene sottoposta a biopsia al fine di esaminarlo istologicamente. Un mese dopo l’ultima visita, altri medici asportano d’urgenza la lesione sospetta e concludono che non si tratta di una verruca, come stabilito dalla collega, bensì di un melanoma modulare maligno ulcerato al quarto stadio. L’asportazione del tessuto, un intervento successivo e le cure con i farmaci non hanno impedito la sua evoluzione metastasica. La paziente muore il 17 aprile del 2020. Un epilogo – scrivono i giudici – che si poteva evitare con un’asportazione tempestiva della lesione. Il gup di Perugia, al termine di un processo celebrato con rito abbreviato, ha condannato la dottoressa a 8 mesi per omicidio colposo. Partiamo con una premessa. La diagnosi in dermatologia è particolarmente difficile, la pelle, sottoposta a varie aggressioni patogene offre uno spettro limitato di manifestazioni cliniche possono essere comuni a diverse malattie cutanee, il che rende complessa la diagnosi. Questo non giustifica l’errore diagnostico, ma evidenzia almeno due aspetti che spingono a una riflessione più ampia. “L’errore è sempre in agguato e a contrastarne l’eventualità ci vogliono diligenza, coscienza e perizia. ” diceva un mio vecchio maestro. Ora con la condanna si è voluta negare la competenza senza tener conto della storia personale della dermatologa in questione. Una professionista molto stimata dagli altri colleghi cui ci siamo rivolti per un giudizio. In secondo luogo, le si rimprovera di non essere ricorsa a ulteriori esami strumentali in fase di diagnosi. Non sappiamo come sono andate le cose ma è importante stabilire se in questa accusa si stabilisce l’irrinunciabilità del ricorso al “mezzo diagnostico strumentale” o anche la totale affidabilità della diagnosi assistita, indipendentemente dalla qualità del professionista che l’utilizza. Non è una questione da poco conto, perché apre la discussione sul rapporto che si sta determinando fra il medico e la macchina, specie se digitale e basata sull’autoapprendimento dell’intelligenza artificiale. Facciamo allora una esercitazione. Se la dermatologa oggi condannata avesse eseguito una prova strumentale ma avesse mantenuto la sua diagnosi sarebbe stata più diligente e quindi meno colpevole, oppure la sua presupposta imperizia avrebbe lo stesso motivato la condanna? Caso inverso. La dermatologa sottopone la lesione a verifica strumentale, si convince che la lesione sia un melanoma e lo fa togliere chirurgicamente, ma all’esame istologico si rivela una verruca o altra lesione benigna, potrà essere accusata d’imperizia e condannata per il danno estetico permanente provocato, oppure a essere portato sul banco degli imputati dovrà essere il produttore dell’apparecchiatura o lo sviluppatore dell’algoritmo che ha indotto l’errore? Non sono esercitazioni mentali fuori luogo, vista la diffusione che presto avranno strumenti diagnostici sempre più sofisticati che promettono diagnosi più accurate e tempestive attraverso la condivisione di milioni di casi e di immagini, e algoritmi di intelligenza artificiale. Il futuro ci prospetterà tanti altri casi di errore diagnostico e ai giudici verrà chiesto di decidere se è meno diligente chi si fida del suo occhio clinico, pur sempre fallace, o chi avrà sbagliato pur affidandosi a una macchina che potrà anche manifestare nel corso della sua vita errori nel sistema di apprendimento, corruzione degli algoritmi, attacchi hacker, e chissà ancora quanti altri problemi nasceranno nel futuro. In sintesi, presto ci si dovrà chiedere se vale più l’occhio clinico esperto del medico o il parere di un software intelligente. Se il giudice chiamato a valutare la competenza della diagnosi o dell’intervento robotizzato, riconoscerà allo stesso modo la responsabilità penale di chi usa la macchina come supporto oppure si affida ad essa in maniera automatica. Il tutto cambierà e darà forza a una medicina sempre più difensiva, con più esami strumentali, chiamate in correo degli sviluppatori di software e algoritmi, aumento dei costi assicurativi.