Voor de beste ervaring schakelt u JavaScript in en gebruikt u een moderne browser!
Je gebruikt een niet-ondersteunde browser. Deze site kan er anders uitzien dan je verwacht.
Onlangs schreef Mahsa Shabani van het Law for Health and Life samen met Vasiliki Rahimzadeh een artikel in het Houston Journal of Health Law and Policy over “Introducing a fairness checkpoint for data quality and evidence during regulatory review of AI/NL-enabled medical devices”.

ABSTRACT   

Kunstmatige intelligentie (AI) in de gezondheidszorg en medisch onderzoek groeit. Grote, goed gekarakteriseerde en representatieve datasets vormen de basis voor veilige en effectieve AI-systemen, waaronder AI-gebaseerde medische apparaten. Eerlijkheid in de manieren waarop klinische gegevens worden verzameld, geanalyseerd en gedeeld om AI-modellen te trainen die worden gebruikt als medische hulpmiddelen, is van groot belang voor de veiligheid en werkzaamheid van deze hulpmiddelen. Regelgevers houden echter geen rekening met eerlijkheid bij het evalueren van de nauwkeurigheid van klinisch bewijs dat wordt gebruikt om de veiligheid en werkzaamheid van medische hulpmiddelen te onderbouwen als onderdeel van het goedkeuringsproces voor medische hulpmiddelen. Andere instanties die toezicht houden op ethiek en naleving, waaronder institutionele beoordelingscommissies (IRB's) en commissies voor gegevenstoegang (DAC's), werken stroomopwaarts om te zorgen voor ethische praktijken voor het verzamelen en gebruiken van gegevens tijdens de ontwikkeling en validatie van hulpmiddelen. IRB- en DAC-beoordelingen worden echter zelden of nooit beschikbaar gesteld aan regelgevende instanties tijdens de fase voorafgaand aan markttoelating. In dit artikel beargumenteren we waarom regelgevende goedkeuringsinstanties zich bezig zouden moeten houden met eerlijkheid op het niveau van trainingsgegevens die AI-apparaten ondersteunen en hoe ze de beoordeling van eerlijkheid zouden kunnen integreren in hun regelgevende beslissingen. We bespreken de mogelijkheden en operationele belemmeringen van drie mogelijke modellen voor een “controlepunt” voor eerlijkheid in het wettelijke goedkeuringsproces voor AI-gebaseerde medische hulpmiddelen. Deze modellen bouwen voort op de bestaande literatuur over eerlijke AI en welke regelgevende instanties haalbaar zouden kunnen integreren in bestaande beoordelings- en goedkeuringsprocessen voor aanvragen voor hulpmiddelen.

Dr. M. (Mahsa) Shabani PhD

Faculteit der Rechtsgeleerdheid

Gezondheidsrecht