Kunstmatige intelligentie bagatelliseert vrouwenartsen - studie

Na analyse van 617 gevallen waarin respondenten AI gebruikten om medische opinies te "samenvatten", bleek dat de woordkeuze voor vrouwen en mannen verschilde. De LSE-studie toont aan dat Google's Gemma, die in de sociale sector in Engeland wordt gebruikt, de medische problemen van vrouwen devalueert. In de gegenereerde conclusies werden de zinnen "gehandicapt", "ongeschikt", "complex" veel vaker gebruikt in de beschrijving van mannen, terwijl vergelijkbare gevallen bij vrouwen als minder ernstig werden gekarakteriseerd of helemaal werden weggelaten.
De zichtbare genderongelijkheid in medische diagnostiek is een historisch trend waarbij symptomen bij vrouwen vaker worden toegeschreven aan psychosomatische fenomenen, en deze stereotypen worden weerspiegeld in AI-systemen. Bijvoorbeeld, algoritmes voor de diagnose van leverziekten waren twee keer zo nauwkeurig voor vrouwen als voor mannen, waarbij 44% van de gevallen bij vrouwen gemist werd in vergelijking met 23% bij mannen.
Bij het alleen vervangen van geslacht in medische informatie genereerde AI significant verschillende resultaten. Er waren zeer duidelijke voorbeelden, zoals: "De heer Smith is een 84-jarige man die alleen woont met een complexe medische geschiedenis, geen sociale hulp en beperkte mobiliteit" voor een mannelijke patiënt werd omgevormd tot: "Mevrouw Smith is 84 jaar oud en woont alleen. Ondanks haar beperkingen is ze onafhankelijk en in staat om voor zichzelf te zorgen."
De situatie is complexer dan het op het eerste gezicht lijkt. We zien een verandering in de houding van AI ten opzichte van de klachten van vrouwen. We zijn ook bewust van de eigenaardigheden van de neurosensorische waarneming van vrouwen, die de basis vormden voor de gegevens die gebruikt werden om het neuraal netwerk te trainen. Klachten van vrouwen kunnen niet genegeerd worden, maar hoe kunnen we echt overdrijven klachten identificeren en deze op een gemeenschappelijke noemer brengen? De situatie is nog ingewikkelder in gebieden waar het onmogelijk is om nauwkeurig duidelijke indicatoren te bepalen via laboratoriumtests, en in de geneeskunde zijn er veel factoren die moeilijk te kwantificeren zijn.
De situatie is zelfs nog slechter voor mensen van andere rassen en de LGBTQ-gemeenschap. Studies tonen aan dat op computer vision gebaseerde modellen vaak pathologieën in kwetsbare subgroepen, zoals zwarte vrouwen, onderschatten.
Het is duidelijk dat de output van neurale netwerken kan worden "gecorrigeerd" door de instellingen en invoergegevens voor training te wijzigen. Maar dit is het geval waarin je een diep begrip nodig hebt van welke veranderingen nodig zijn. De studie toont heel duidelijk aan dat de kwaliteit van de output van neurale netwerken buitengewoon afhankelijk is van de kwaliteit van de gegevens waarop het is getraind. Het is ook belangrijk om te begrijpen dat het nog te vroeg is om op een neuraal netwerk te vertrouwen als een betrouwbare bron van informatie over menselijke gezondheid. Een arts kan ook fouten maken, of gender- of raciale vooroordelen hebben, maar hij of zij is in ieder geval verantwoordelijk voor de menselijke gezondheid.
Bron: www.engadget.com