C on l’introduzione dell’intelligenza artificiale (IA), il risk management nelle strutture sanitarie sta subendo significativi cambiamenti. Le normative italiane, incluse quelle relative al monitoraggio e alla gestione del rischio clinico, devono ora adattarsi per includere anche i rischi associati ai sistemi di IA. Le legislazioni, come la legge 24/2017 e la legge n. 208/2015, sottolineano l’importanza di utilizzare risorse tecnologiche in modo appropriato e di attivare funzioni di monitoraggio e prevenzione.
L’implementazione dell’IA porta con sé nuovi rischi, tra cui errori di decisione in ambito sanitario dovuti a una governance inadeguata. Secondo l’ECRI, uno dei principali organismi di riferimento, la chiave sta nell’appropriatezza dell’assistenza sanitaria: l’utilizzo errato di sistemi complessi può aumentare il rischio di eventi avversi al paziente.
Le strutture sanitarie dovranno affrontare nuovi obblighi di gestione del rischio. In particolare, il regolamento AI ACT richiede che gli utilizzatori (o “deployer”) di sistemi IA garantiscano competenze adeguate, attuino controlli rigorosi e monitorino costantemente le tecnologie in uso. Misure specifiche, come l’alfabetizzazione degli utilizzatori e la sorveglianza umana competente, sono ora essenziali.
Se non rispettati, questi obblighi potrebbero non solo esporre le strutture a responsabilità legali e amministrative, ma anche compromettere i requisiti necessari per l’accreditamento e l’autorizzazione sanitaria. Considerando che la maggior parte dei sistemi IA in sanità rientrerà nella categoria ad alto rischio, è fondamentale per le strutture sanitarie integrare queste nuove direttive nel loro operato quotidiano.
Se hai bisogno di una consulenza, contattaci