Terug

Eerlijke AI-gebaseerde beslissingsondersteuning in de gezondheidszorg

Geschatte leestijd: 4 min

Verantwoorde AI

Kunstmatige intelligentie (AI) transformeert de gezondheidszorg snel en beweegt zich van onderzoekslaboratoria naar praktische klinische toepassingen. Machine Learning, een onderdeel van AI, speelt een cruciale rol door voorspellingsmodellen te creëren die zorgprofessionals kunnen ondersteunen bij hun beslissingsproces, vaak aangeduid als klinische beslissingsondersteuning. Bij Healthplus.ai zijn we toegewijd aan het verantwoordelijk gebruik van AI. Ons AI-gebaseerd voorspellingsmodel, PERISCOPE, is een voorbeeld van deze toewijding. PERISCOPE is ontworpen om het risico op postoperatieve infectie binnen 7- en 30 dagen na een chirurgische ingreep te voorspellen. Door een infectieprobabiliteit te bieden, ondersteunt PERISCOPE klinische acties die verband houden met diagnose en behandeling, waardoor de ernst en impact van deze infecties uiteindelijk wordt verminderd.


Gebrek aan een uniforme definitie van eerlijkheid voor AI-gebaseerde beslissingsondersteuning

De integratie van AI in de gezondheidszorg gaat echter niet zonder uitdagingen, vooral met betrekking tot eerlijkheid. Terwijl AI-modellen de potentie hebben om gezondheidsverschillen te verminderen, kunnen ze deze ook onbedoeld verergeren door biases die aanwezig zijn in databronnen, verzamelprocedures, algoritmedesign en beslissingsprocessen. Het risico op discriminatie onderstreept de dringende noodzaak voor eerlijke AI in de gezondheidszorg.

Eerlijkheid definiëren en bereiken in AI is een complexe onderneming. In tegenstelling tot bias houdt eerlijkheid expliciet rekening met de ethische implicaties van het gebruik van AI in diverse populaties. De uitdaging ligt in het feit dat er geen enkele, algemeen aanvaarde definitie van eerlijkheid is. Er bestaan talloze noties, metrieken en raamwerken, die vaak conflicteren en zorgvuldige afwegingen vereisen. Zoals te zien in ons recente preprint, "Navigating Fairness in AI-based Prediction Models: Theoretical Constructs and Practical Applications", identificeerden we 27 verschillende definities van eerlijkheid in recente literatuur, wat het gebrek aan consensus in dit veld onderstreept.

Bovendien kan het verbeteren van eerlijkheid soms leiden tot een afname van de algehele modelnauwkeurigheid, een fenomeen dat bekend staat als de eerlijkheid-nauwkeurigheid afweging. Omgekeerd kan het uitsluitend optimaliseren voor nauwkeurigheid zonder rekening te houden met eerlijkheid resulteren in ongerechtvaardigde ongelijkheden in uitkomsten over bepaalde patiëntgroepen. Deze inherente spanning vereist een zorgvuldige en genuanceerde benadering van het evalueren en inzetten van AI in zorgomgevingen.


Onze aanpak van AI eerlijkheid bij Healthplus.ai

Bij Healthplus.ai erkennen we de complexiteit van AI eerlijkheid en zijn toegewijd om hiermee rekening te houden in de ontwikkeling en inzet van PERISCOPE. Onze aanpak wordt begeleid door de principes die zijn uiteengezet in ons onderzoek. Voor PERISCOPE, dat dient als een informatief voorspellingsinstrument dat een risicoscore (0-100%) biedt in plaats van een directe classificatie, is het beoogde gebruik om klinische beslissingen te informeren die verband houden met postoperatieve infectiemanagement. Gezien het beoogde gebruik van PERISCOPE, geven we prioriteit aan eerlijkheidsevaluatiemethoden die aansluiten bij deze kenmerken en relevante ethische principes. Ons kader benadrukt het belang van het overwegen van het beoogde gebruik van het model, het type beslissing dat wordt beïnvloed en principes van rechtvaardige verdeling bij het kiezen van passende eerlijkheidsmetrieken.

Monitoring van subgroep prestaties voor PERISCOPE

Een hoeksteen van onze eerlijkheidsaanpak voor PERISCOPE is grondige subgroepmonitoring. Hoewel we mogelijk niet altijd toegang hebben tot alle wettelijk of ethisch beschermde eigenschappen, zoals sociaal-economische status of ras, die mogelijk bias kunnen introduceren, evalueren we nauwgezet de prestaties en kalibratie van het model over beschikbare en relevante subgroepen. In ons onderzoek hebben we bijvoorbeeld eerlijkheidsmetrieken beoordeeld voor PERISCOPE in geslachtssubgroepen, aangezien bekend is dat mannen hogere infectieratio's hebben. Onze analyse onthulde positieve klinische nut algemeen en binnen geslachtssubgroepen, leidend tot de conclusie dat geen verdere biasmitigatie onmiddellijk noodzakelijk was voor deze specifieke groepen.

Dit voorbeeld illustreert onze toewijding aan het continu monitoren van PERISCOPE's prestaties over verschillende patiëntgroepen om potentiële ongelijkheden te identificeren en aan te pakken. Door ons te concentreren op metrieken zoals kalibratie (het ervoor zorgen dat voorspelde probabiliteiten overeenkomen met de uitkomstrate over groepen) en klinisch nut (het beoordelen van de voordelen van het voorspellingsmodel in patiëntuitkomsten), streven we naar gelijke prestaties en gelijke voordelen voor de subgroepen waarvoor we gegevens hebben.

Uitdagingen

Het is cruciaal te begrijpen dat perfecte eerlijkheid bereiken over alle mogelijke dimensies vaak niet haalbaar is vanwege beperkingen in data en de inherente afwegingen tussen verschillende eerlijkheidsnoties en nauwkeurigheid. Onze voortdurende inspanningen in subgroepmonitoring en ons kader voor het kiezen van relevante eerlijkheidsmetrieken bieden echter een solide basis voor het ontwikkelen en onderhouden van een meer rechtvaardige AI-gebaseerde oplossing zoals PERISCOPE.

Wij nodigen u uit om meer te leren over de complexiteiten van eerlijkheid in AI-gebaseerde voorspellingsmodellen door ons preprint te lezen: https://www.medrxiv.org/content/10.1101/2025.03.24.25324500v1.full.pdf+html.

Bij Healthplus.ai geloven we dat door de uitdagingen te erkennen en proactief grondige evaluatie- en monitorstrategieën te implementeren, we kunnen blijven bijdragen aan de vooruitgang van AI in de gezondheidszorg op een manier die eerlijke prestaties bevordert en uiteindelijk de patiëntuitkomsten voor iedereen verbetert.


Geschreven door:

hoofd klinische zaken

Healthplus.ai heeft als missie om proactieve chirurgische zorg mogelijk te maken door middel van gepersonaliseerde complicatievoorspellingen en -management voor meer dan 50 miljoen patiënten per jaar tegen 2029.

AI samenvatting

Taal

Nederlands

© 2017 - 2026 by Healthplus.ai. All rights reserved, Healthplus.ai-Operations B.V.

Healthplus.ai heeft als missie om proactieve chirurgische zorg mogelijk te maken door middel van gepersonaliseerde complicatievoorspellingen en -management voor meer dan 50 miljoen patiënten per jaar tegen 2029.

AI samenvatting

Taal

Nederlands

© 2017 - 2026 by Healthplus.ai. All rights reserved, Healthplus.ai-Operations B.V.

Healthplus.ai heeft als missie om proactieve chirurgische zorg mogelijk te maken door middel van gepersonaliseerde complicatievoorspellingen en -management voor meer dan 50 miljoen patiënten per jaar tegen 2029.

AI samenvatting

Taal

Nederlands

© 2017 - 2026 by Healthplus.ai. All rights reserved, Healthplus.ai-Operations B.V.