23 januari 2025
Kunstmatige intelligentie (AI) in de gezondheidszorg en medisch onderzoek groeit. Grote, goed gekarakteriseerde en representatieve datasets vormen de basis voor veilige en effectieve AI-systemen, waaronder AI-gebaseerde medische apparaten. Eerlijkheid in de manieren waarop klinische gegevens worden verzameld, geanalyseerd en gedeeld om AI-modellen te trainen die worden gebruikt als medische hulpmiddelen, is van groot belang voor de veiligheid en werkzaamheid van deze hulpmiddelen. Regelgevers houden echter geen rekening met eerlijkheid bij het evalueren van de nauwkeurigheid van klinisch bewijs dat wordt gebruikt om de veiligheid en werkzaamheid van medische hulpmiddelen te onderbouwen als onderdeel van het goedkeuringsproces voor medische hulpmiddelen. Andere instanties die toezicht houden op ethiek en naleving, waaronder institutionele beoordelingscommissies (IRB's) en commissies voor gegevenstoegang (DAC's), werken stroomopwaarts om te zorgen voor ethische praktijken voor het verzamelen en gebruiken van gegevens tijdens de ontwikkeling en validatie van hulpmiddelen. IRB- en DAC-beoordelingen worden echter zelden of nooit beschikbaar gesteld aan regelgevende instanties tijdens de fase voorafgaand aan markttoelating. In dit artikel beargumenteren we waarom regelgevende goedkeuringsinstanties zich bezig zouden moeten houden met eerlijkheid op het niveau van trainingsgegevens die AI-apparaten ondersteunen en hoe ze de beoordeling van eerlijkheid zouden kunnen integreren in hun regelgevende beslissingen. We bespreken de mogelijkheden en operationele belemmeringen van drie mogelijke modellen voor een “controlepunt” voor eerlijkheid in het wettelijke goedkeuringsproces voor AI-gebaseerde medische hulpmiddelen. Deze modellen bouwen voort op de bestaande literatuur over eerlijke AI en welke regelgevende instanties haalbaar zouden kunnen integreren in bestaande beoordelings- en goedkeuringsprocessen voor aanvragen voor hulpmiddelen.