Varning för AI som diskriminerar människor med funktionsnedsättning
Det börjar bli bråttom att reglera AI-baserade tjänster och hitta riktlinjer för hur vi ska dra nytta av tekniken och samtidigt skydda människor från risken att stängas ute. Det skriver Nicklas Mårtensson, Funktionsrätt Sverige, och Anna Felländer, vd och grundare anch.AI.
Nicklas Mårtensson och Anna Felländer
Generalsekreterare Funktionsrätt Sverige respektive vd och grundare anch.AIArtificiell intelligens har kallats nyckeln till den fjärde industriella revolutionen. Sedan Chat GPT släpptes har insikten ökat om att AI kommer att förändra samhället i grunden. Rätt använd kan AI bidra till att öka inkluderingen i samhället för personer med funktionsnedsättning. Tekniken kan användas för att skapa individuella lösningar som möter behoven hos de allra flesta i samhället. På så sätt kan AI bidra till ett hållbart samhälle där ingen lämnas utanför.
Reglera artificiell intelligens
Men i takt med den snabba utvecklingen av artificiell intelligens ökar också medvetenheten om att det behövs reglering som skyddar människor från risker för skada och diskriminering. Ett känt avskräckande exempel kommer från Nederländerna. För ett par år sedan fick den holländska regeringen avgå efter att skattemyndigheten använt ett AI-baserat beslutsstöd som felaktigt klassificerade 10 000-tals personer som bidragsfuskare, vilket fick katastrofala följder för många människor.
Justitiedepartementet i USA har uppmärksammat riskerna för diskriminering av personer med funktionsnedsättning när automatiska rekryteringsverktyg används, med följden att federala riktlinjer nu har tagits fram. Det finns en uppenbar begränsning i AI-systemen eftersom de är helt beroende av de data som vi matar in i systemet. Data som beskriver behoven hos personer med funktionsnedsättning saknas ofta. Eller så är uppgifterna så ovanliga att de riskerar att sorteras bort.
Teknik som exkluderar
Om vi inte tar hänsyn till alla användares varierande behov när vi utformar AI-lösningar riskerar vi att skapa design som exkluderar. Teknik för taligenkänning används i allt högre grad vid kundsupport, men den fungerar dåligt för personer som talar på ett ”ovanligt” sätt, exempelvis på grund av afasi, en hörselskada, att man pratar med brytning eller har dialekt. På samma sätt fungerar ansiktsteknologier mindre bra för personer med Downs syndrom och personer med synnedsättning.
Det är politikens ansvar att se till att mänskliga rättigheter finns med som självklar utgångspunkt i den nationella regleringen av digitala lösningar.
Gerard Quinn, FN:s rapportör om rättigheter för personer med funktionsnedsättning, understryker i en rapport att staten behöver ha en pådrivande roll i arbetet för att se till att AI inte diskriminerar personer med funktionsnedsättning. Det är politikens ansvar att se till att mänskliga rättigheter finns med som självklar utgångspunkt i den nationella regleringen av digitala lösningar.
Skapa inkluderande lösningar
Under det svenska ordförandeskapet pågår ett arbete med att ta fram en EU-gemensam lagstiftning på AI-området och den 31 mars samlas den europeiska funktionsrättsrörelsen i Stockholm för en heldagskonferens där AI-frågan står i fokus under hela eftermiddagen.
Vi vill nu se politiska åtgärder för att säkerställa att framtidens AI-lösningar bidrar till ökad jämlikhet istället för diskriminering. Våra uppmaningar till regeringen är att:
- Satsa på forskning och utveckling som motverkar diskriminering inom digitalisering och AI.
- Se till att användare med störst behov har förutsättningar att delta i forskning och utveckling för inkluderande AI-lösningar.
- Skapa förutsättningar för enskilda som riskerar att diskrimineras att få ersättning om det uppstår skada.