Voor de beste ervaring schakelt u JavaScript in en gebruikt u een moderne browser!
Je gebruikt een niet-ondersteunde browser. Deze site kan er anders uitzien dan je verwacht.
Een recent artikel van Nehme et al. onderzoekt de regelgevende uitdagingen rond AI-aangedreven medische chatbots, met de confIAnce-chatbot als casestudy. De studie belicht de certificeringsprocessen die vereist zijn onder de EU Medical Device Regulation (MDR) en de Zwitserse Medical Devices Ordinance (MedDO), met nadruk op belangrijke waarborgen zoals gegevensbescherming en kwaliteitsbeheer. In een technische commentaar bouwt Hannah van Kolfschooten van Recht voor Gezondheid en Leven voort op deze inzichten door de groeiende afhankelijkheid van algemene AI-systemen, zoals ChatGPT, in medische contexten te bespreken.

In tegenstelling tot gecertificeerde medische chatbots zijn deze AI-systemen niet specifiek ontworpen voor de zorg, maar worden ze steeds vaker gebruikt voor taken zoals het samenvatten van medische dossiers en het opstellen van patiëntcommunicatie. Van Kolfschooten waarschuwt dat dergelijke tools risico’s met zich meebrengen, zoals misinformatie, schendingen van de privacy en bias, omdat ze niet dezelfde regelgevende waarborgen hebben als gecertificeerde medische AI. Terwijl de MDR, MedDO en de EU AI Act strikte toezichtseisen stellen aan speciaal ontwikkelde zorgchatbots, vallen algemene AI-systemen in een regelgevend grijs gebied. Van Kolfschooten pleit voor strengere beleidsmaatregelen en klinische richtlijnen om het verantwoord gebruik van AI in de geneeskunde te waarborgen en de patiëntveiligheid te beschermen in een snel digitaliserende zorgsector.

Mr. H.B. (Hannah) van Kolfschooten LLM

Faculteit der Rechtsgeleerdheid

Gezondheidsrecht