Sanità Digitale

VALUE PARTNER ZONE

08 Febbraio 2022 dalle 10:00 alle 12:15

Sanità Digitale

Intelligenza Artificiale e diagnostica

FORMULA WEBINAR

Per informazioni: Alessia Pesce
alessia.pesce@soiel.it - 02 30453323

Sanità Digitale (leggi l'articolo completo)

L’8 febbraio ha avuto luogo la Web Conference Soiel sulla Sanità Digitale, con particolare riguardo al ruolo dell'Intelligenza Artificiale e della diagnostica. Vi hanno partecipato alcuni tra i principali operatori del settore. Uno dei messaggi emersi è che la sanità non può più fare a meno dell’Intelligenza Artificiale, tanti sono i benefici ottenibili anche se la strada per una implementazione congiunta e positiva resta ancora in gran parte da trovare. [...]

Hanno partecipato:

  • Sonia Selletti, Avvocato - Studio Legale Astolfi e Associati
  • Cesare Guidorzi, Country Manager - InterSystems Italia e Malta
  • Valeria Giannotta, Amministratore Delegato e Direttore Amministrativo e Operativo - Tiberia Hospital, Direttore Amministrativo e Operativo - ICC Covid3 Hospital, Spoke INMI Spallanzani
  • Vito Intini, Direttore Generale - ELO Digital Office
  • Maurizio Melli, Responsabile delle attività di recupero motorio e funzionale - C.T.R. di Reggio Emilia
  • Fabio Tolomelli, Marketing Director - Mead Informatica
  • Nicola Bedin, Systems Engineer - Fortinet

 

Overview

L'uso dei sistemi di Intelligenza Artificiale e Machine Learning non è esente da criticità, soprattutto dal punto di vista etico e di affidabilità. Ed è proprio laddove sono maggiormente disponibili prove di efficacia che è ipotizzabile un'implementazione più immediata di questo tipo di strumenti. In Cina, ad esempio, con l’evolversi della pandemia sono stati usati sistemi in grado di prevedere quando sarebbe stato raggiunto il picco di occupazione di posti letto in un ospedale: un ottimo modo per sapere per tempo come riorganizzare i servizi. Più complessa l’introduzione di questo tipo di sistemi in ambito clinico: sotto questo profilo i problemi sono tanti, ad esempio: se il sistema sbaglia la diagnosi o indicazioni sul trattamento da assumere, la colpa di chi è? Di chi ha sviluppato il sistema, del medico che ha seguito le indicazioni del software o, ancora, di chi lo ha commercializzato?

La ricerca clinica è il punto su cui, secondo molti studiosi della materia, si dovranno concentrare le aziende che sviluppano questo tipo di sistemi. Va bene sviluppare strumenti perfetti dal punto di vista tecnologico, ma non basta. Bisogna misurare innanzitutto l’affidabilità, cioè capire se quando li uso sono sicuri e affidabili oppure commettono errori. Deve essere garantito che i risultati siano almeno pari a quelli del medico: se così non fosse, non ci sarebbe un vantaggio. In alcuni casi è opportuno anche chiedersi se il sistema affiancato al medico sia meglio rispetto al medico da solo. Questi ragionamenti nascondono un concetto ben chiaro: oggi la ricerca tecnologica è avanzatissima e consente di disporre di strumenti all'avanguardia e intelligenti, ma ci si ferma lì.

Sempre di più quindi, anche in questo settore, dovrà essere presente il concetto di prove di efficacia a supporto dello strumento, senza le quali sarà impossibile che i sistemi siano inseriti in un contesto assistenziale.

In questa direzione va il nuovo Regolamento sui dispositivi medici entrato in vigore a fine maggio 2021 che prevede che tutti i sistemi di software, compresi quelli di Intelligenza Artificiale, siano regolamentati in base alla classe di rischio cui vanno incontro i pazienti e indica quali prove e dati devono essere forniti affinché possano essere considerati dispositivi medici. Così, proprio come la Food and Drug Administration statunitense ha già approvato da un paio d'anni alcuni sistemi di Intelligenza Artificiale come dispositivi medici, adesso toccherà fare anche all’Agenzia Europea per i Medicinali (EMA) e al Ministero della Salute.

Da parte sua l'OMS ha pubblicato di recente il documento intitolato "Ethics and governance of artificial intelligence for health". Il principio cardine è che le nuove tecnologie che usano l’Intelligenza Artificiale sono molto promettenti per migliorare la diagnosi, il trattamento, la ricerca sanitaria e lo sviluppo di farmaci e per supportare i governi che svolgono funzioni di sanità pubblica, compresa la sorveglianza e la risposta alle epidemie, ma è fondamentale che tali strumenti mettano l’etica e i diritti al centro della progettazione, della distribuzione e dell’uso.

A tale scopo, nel documento sono elencati sei principi da osservare per garantire che l’Intelligenza Artificiale operi nell’interesse pubblico in tutti i Paesi. Ad esempio, promuovere un’Intelligenza Artificiale reattiva e sostenibile. I progettisti, gli sviluppatori e gli utenti dovranno monitorare in modo costante e trasparente le applicazioni di Intelligenza Artificiale nell’uso effettivo, per valutare se risponde in modo adeguato e appropriato alle aspettative e ai requisiti. I sistemi di Intelligenza Artificiale dovranno anche essere progettati per ridurre al minimo l’impatto ambientale e aumentare l’efficienza energetica.

A cura di Gian Carlo Lanzetti