Hvorfor Google har droppet AI-etikkstyret en uke etter lanseringen
Personalets protest mot kontroversielt styremedlem fører til u-sving i selskapet

Google-sjef Sundar Pichai
Justin Sullivan/Getty Images
Google har avviklet sitt etiske styre for kunstig intelligens (AI) bare en uke etter lanseringen etter tilbakeslag fra ansatte.
Advanced Technology External Advisory Council (ATEAC), et styre designet for å sikre ansvarlig utvikling av AI hos søkegiganten, ville ha bestått av åtte medlemmer som skulle møtes fire ganger i året for å vurdere bekymringer rundt Googles AI-produkter, sier Vox .
Men nesten 2500 ansatte ved firmaet signerte et opprop som ber om å fjerne rådsmedlem Kay Coles James, president for Heritage Foundation, en konservativ tenketank, på grunn av kommentarer hun kom med om transpersoner og organisasjonens skepsis til klimaendringer, nyhetssiden. sier.
Google gjør det klart at deres versjon av etikk verdsetter nærhet til makt over velferden til transpersoner, andre LHBTQ-personer og innvandrere, heter det i oppropet. En slik posisjon er direkte i strid med Googles uttalte verdier.
Begjæringen fortsetter med å si at de potensielle skadene til AI ikke er jevnt fordelt, og følger historiske mønstre for diskriminering og ekskludering. Den hevder at det er tilfeller der AI ikke har gjenkjent transpersoner, anerkjent mer feminine stemmer eller sett fargede kvinner.
Google sa først at ATEAC ville bringe ulike perspektiver, Vergen rapporter. Sammen med James inkluderte styret matematikkeksperter, en personvernforsker, administrerende direktør for et droneselskap og en tidligere amerikansk diplomat.
Selskapssjef Sundar Pichai kunngjorde planer om å opprette etisk råd i fjor, etter at det viste seg at teknologifirmaet deltok i et Pentagon-droneprosjekt som brukte data fra Googles AI-forskning, The Verge rapporter.
Google bestemte seg for å avslutte arbeidet med det kontroversielle droneprosjektet i fjor sommer og lovet å aldri jobbe med prosjekter der AI kunne brukes som et våpen eller som bryter med internasjonalt aksepterte normer, legger teknologisiden til.
En talsperson for selskapet fortalte nettstedet at det har blitt klart at i det nåværende miljøet kan ATEAC ikke fungere som vi ønsket.
Vi avslutter rådet og går tilbake til tegnebrettet, la talspersonen til. Vi vil fortsette å være ansvarlige i vårt arbeid med de viktige problemene som AI reiser, og vil finne forskjellige måter å få eksterne meninger om disse temaene.