Hvordan smarte høyttaler-AIer som Alexa og Siri forsterker kjønnsskjevhet
Unesco oppfordrer teknologifirmaer til å tilby kjønnsnøytrale versjoner av sine stemmeassistenter

Apples HomePod drives av Siri stemmeassistent
Justin Sullivan/Getty Images
Smarte høyttalere drevet av stemmeassistenter med kunstig intelligens (AI) som høres kvinnelige ut, forsterker kjønnsbias, ifølge en ny FN-rapport.
Forskning fra Unesco (FNs utdannings-, vitenskapelige og kulturelle organisasjon) fant at AI-assistenter som Amazons Alexa og Apples Siri opprettholder ideen om at kvinner bør være underdanige og tolerante overfor dårlig behandling, fordi systemene er forpliktende og ivrige etter å tilfredsstille, The Daily Telegraph rapporter.
Rapporten - kalt I'd blush if I could, med henvisning til en setning som Siri uttalte etter en seksuell kommentar - sier at teknologiselskaper som gjør stemmeassistentene deres kvinnelige som standard, antyder at kvinner er føyelige hjelpere som kan være tilgjengelige ved berøring på en knapp, legger avisen til.
Byrået anklager også teknologiselskaper for å unnlate å bygge inn riktige sikkerhetstiltak mot fiendtlig, krenkende og kjønnet språk, rapporterer The Verge .
I stedet svarer de fleste AI-er på aggressive kommentarer med en lur spøk, bemerker det tekniske nyhetsnettstedet. Hvis du blir bedt om å lage en sandwich, for eksempel, sier Siri: Jeg kan ikke. Jeg har ingen krydder.
Selskaper som Apple og Amazon, bemannet av overveldende mannlige ingeniørteam, har bygget AI-systemer som får deres feminiserte digitale assistenter til å hilse på verbale overgrep med catch-me-if-you-can-flørt, heter det i Unesco-rapporten.
Hva har annen forskning funnet?
Unesco-rapporten siterer en rekke studier, inkludert forskning fra det amerikanske teknologiselskapet Robin Labs som antyder at minst 5 % av interaksjoner med stemmeassistenter er utvetydig seksuelt eksplisitte.
Og selskapet, som utvikler digitale assistenter, tror at tallet sannsynligvis vil være mye høyere på grunn av vanskeligheter med å oppdage seksuelt antydende tale, Vergen rapporter.
FN-byrået peker også på en studie fra forskningsfirmaet Gartner, som spår at folk vil ha flere samtaler med stemmeassistenten i smarthøyttaleren enn ektefellen innen 2020.
Taleassistenter administrerer allerede anslagsvis én milliard oppgaver per måned, alt fra å spille sanger til å kontakte nødetatene.
Selv om noen systemer lar brukere endre kjønn på stemmeassistenten, aktiverer flertallet åpenbart kvinnestemmer som standard, BBC rapporter.
Unesco-rapporten konkluderer med at denne tilsynelatende kjønnsskjevheten krever umiddelbar oppmerksomhet.
Hvordan kan teknologiselskaper takle problemet?
Unesco argumenterer for at firmaer bør pålegges å få stemmeassistentene til å kunngjøre at de ikke er mennesker når de samhandler med mennesker, rapporterer Unesco. Sunday Times .
Byrået foreslår også at brukere bør få mulighet til å velge kjønn på stemmeassistenten når de får et nytt apparat og at et kjønnsnøytralt alternativ bør være tilgjengelig, legger avisen til.
I tillegg bør teknologifirmaer programmere stemmeassistenter til å fordømme verbale overgrep eller seksuell trakassering med svar som nei eller som ikke er passende, sier Unesco.
Teknologiselskaper har ennå ikke svart på studien.