AI-assistenter som Siri, Alexa og Google Assistant underbygger kønsdiskriminerende kvindesyn, siger en Unesco-undersøgelse.
En undersøgelse fra FN-organisationen Unesco siger, at stemmestyrede AI-assistenter kan være et problem, fordi de forstærker sexistiske stereotyper om, at kvinder er underdanige og blindt følger ordre.
Herunder ses det som et problem, at AI-assistenter som Alexa og Siri, der som default har kvinde-stemmer, svarer flirtende og ydmygt tilbage på grove fornærmelser.
Rapporten hedder også “I’d Blush if I Could”, hvilket er det engelske svar, som Siri giver, hvis man kalder assistent for en ‘slut’ eller en ‘bitch’. Til de fornærmelser svarer Alexa “Well, thanks for the feedback.”
Ifølge undersøgelsen, består holdene bag AI-assistenterne primært af mandlige ingeniører, som har bygget feminiserede AI-systemer, der tager imod verbalt misbrug med flirtende svar.
Det er tilsyneladende heller ikke unormal opførsel. Mindst fem procent af interaktioner med Microsofts Cortana kort tid efter assistentens lancering var seksuelt eksplicitte.
Undersøgelsen foreslår løsninger, der inkluderer ikke at gøre AI-assistenter kvindelige som default, og at udforske muligheden for udviklingen af assistenter, der ikke er kønnet.
AI-assistenter bør også blive programmeret til at modvirke denne slags verbalt misbrug.