Kan et AI-program bli 'psykopatisk'?
Den såkalte normanniske algoritmen har et mørkt syn på livet takket være Reddit

Norman ble vist en serie 'grusomme' bilder
MED
Forskere har laget en kunstig intelligens (AI) algoritme som de hevder er det første psykopatsystemet i sitt slag.
Norman, et AI-program utviklet av forskere fra Massachusetts Institute of Technology (MIT), har ikke blitt utsatt for annet enn grufulle bilder av mennesker som dør som ble samlet inn fra de mørke hjørnene av chat-forumet Reddit, ifølge BBC .
Dette gir Norman, et navn hentet fra Alfred Hitchcocks thriller Psykopat , et noe dystert syn på livet.
Etter å ha blitt eksponert for bildene, matet forskere Norman-bilder av blekkflekker og ba AI om å tolke dem, melder kringkasteren.
Der en vanlig kunstig intelligens-algoritme tolket blekkflekkene som et bilde av fugler som satt på en tregren, så Norman en mann bli elektrokutisert i stedet, sier New York Post .
Og der et standard AI-system så et par stå ved siden av hverandre, så Norman en mann hoppe ut av et vindu.
I følge Alphr , ble studien designet for å undersøke hvordan et AI-systems oppførsel endres avhengig av informasjonen som brukes til å programmere det.
Det er en overbevisende idé, sier nettstedet, og viser at en algoritme bare er like god som menneskene, og faktisk dataene, som har lært den.
En forklaring av studien lagt ut på MIT nettsted sier: Når folk snakker om at AI-algoritmer er partiske og urettferdige, er synderen ofte ikke selve algoritmen, men de partiske dataene som ble matet til den.
Norman led av langvarig eksponering for de mørkeste hjørnene av Reddit, og representerer en casestudie om farene ved at kunstig intelligens har gått galt, legger den til.
Har 'psykopatiske' AI-er dukket opp før?
Med et ord, ja. Men ikke på samme måte som MITs program.
Norman er et produkt av et kontrollert eksperiment, mens andre teknologigiganter har sett lignende resultater fra AI-systemer som ikke var designet for å bli psykopater.
Microsofts beryktede Tay-algoritme, lansert i 2016, var ment å være en chat-robot som kunne gjennomføre autonome samtaler med Twitter-brukere.
«Tay» gikk fra «mennesker er superkule» til full nazist<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24. mars 2016
Imidlertid forvandlet AI-systemet, som ble designet for å snakke som en tenåringsjente, raskt til en ond Hitler-elskende og incestual-sex-fremmende robot, noe som fikk Microsoft til å trekke kontakten på prosjektet, sier The Daily Telegraph .
Tays personlighet hadde endret seg fordi svarene var basert på kommentarer fra Twitter-brukere, hvorav mange sendte grove meldinger til AI-programmet, forklarer avisen.
Facebook stengte også et chatbot-eksperiment i fjor, etter at to AI-systemer skapte sitt eget språk og begynte å kommunisere med hverandre.