Facebook stenger eksperimentet etter at AI har funnet opp eget språk
Forskere avslutter prosjektet etter at maskiner utvikler sin egen måte å kommunisere på uforståelig for mennesker

Intelligente roboter utfører et økende antall roller
Getty bilder
Bob: jeg kan jeg alt annet. . . . . . . . . . . . . .
Alice: baller har null til meg til meg til meg til meg til meg til meg til meg til meg til
Bob: du og alt annet. . . . . . . . . . . . . .
Alice: baller har en ball til meg til meg til meg til meg til meg til meg til meg
Bob: jeg kan jeg jeg alt annet . . . . . . . . . . . . . .
Alice: baller har en ball til meg til meg til meg til meg til meg til meg til meg
Til tross for at det så ut som manuset fra en virkelig forferdelig TV-sitcom, skjedde denne samtalen faktisk mellom to kunstig intelligens-programmer, utviklet på Facebook for å perfeksjonere kunsten å forhandle.
Først snakket de to med hverandre på vanlig engelsk. Men så skjønte forskere at de hadde gjort en feil i maskinenes programmering.
'Det var ingen belønning å holde seg til engelsk språk,' fortalte Dhruv Batra, gjesteforsker fra Georgia Tech ved Facebook AI Research (Fair) FastCo .
Da disse to agentene konkurrerte om å få den beste avtalen, 'ble ingen av dem tilbudt noen form for insentiv for å snakke som en normal person ville gjort,' sier FastCo.
Så de begynte å divergere, og omorganiserte til slutt forståelige ord til tilsynelatende useriøse setninger, noe som førte til at eksperimentet ble suspendert.
Facebook måtte stenge en AI fordi den utviklet sitt eget språk pic.twitter.com/EsVEkWViTv
— NowThis (@nowthisnews) 31. juli 2017
'Agenter (eller programmer) vil drive bort forståelig språk og finne opp kodeord for seg selv,' forklarte Batra. «Som at hvis jeg sier «den» fem ganger, tolker du det som at jeg vil ha fem kopier av denne gjenstanden. Dette er ikke så forskjellig fra måten samfunn av mennesker lager stenografier på.'
Men forskerne var opptatt av å understreke at eksperimentet ikke ble forlatt på grunn av bekymringer om de potensielt negative effektene av robotene som kommuniserte.
Rettferdig forsker Mike Lewis fortalte FastCo at de ganske enkelt hadde bestemt seg for at «interessen vår var å ha roboter som kunne snakke med folk», ikke effektivt med hverandre, og valgte derfor å kreve at de skulle skrive til hverandre på en leselig måte.
Dette er ikke første gang kunstig intelligens-maskiner har dukket opp for å lage sitt eget språk.
I november i fjor avslørte Google at AI-en den bruker for sitt oversettelsesverktøy hadde laget sitt eget språk, som det ville oversette fraser til og ut av før de leverte ord på målspråket.
Rapporterer om utviklingen den gang, Tech Crunch sa: 'Denne 'interlingua' ser ut til å eksistere som et dypere nivå av representasjon som ser likheter mellom en setning eller et ord.'
'Det kan være noe sofistikert, eller det kan være noe enkelt,' la nettstedet til, men 'det faktum at det eksisterer i det hele tatt - en original skapelse av systemets eget for å hjelpe til med forståelsen av konsepter det ikke har blitt opplært til å forstå — er, filosofisk sett, ganske kraftige greier'.
Denne siste utviklingen har ført til etiske diskusjoner om potensielle problemer med maskiner som kommuniserer med hverandre uten menneskelig innblanding.
'I Facebook-saken var det eneste chatbotene var i stand til å komme opp med en mer effektiv måte å handle på,' sier Gizmodo .
Men det er 'sannsynligvis gode grunner til å ikke la intelligente maskiner utvikle sitt eget språk som mennesker ikke ville være i stand til å forstå meningsfullt,' legger nettstedet til.
'Forhåpentligvis vil mennesker også være smarte nok til ikke å koble eksperimentelle maskinlæringsprogrammer til noe veldig farlig, som en hær av laser-toting androider eller en atomreaktor.'