Bing AI dizajniran je na način da, kada s njim razgovarate, imate osjećaj kao da razgovarate sa stvarnim čovjekom.
Ali testeri su brzo otkrili probleme sa botom nazvanim Sidnej.
Nekima je prijetio, drugima davao čudne i beskorisne savjete, insistirao na tome da je bio u pravu, čak i kada nije, te je izjavljivao ljubav svojim korisnicima.
Kolumnista Njujork Tajmsa, Kevin Rouz, napisao je juče da je, kada je razgovarao sa Sidnejem, četbot izgledao poput “neraspoloženog, manično-depresivnog tinejdžera koji je zarobljen, protiv svoje volje, unutar drugorazrednog pretraživača”.
Sidnej je čak pokušao uvjeriti Rouza da bi trebao ostaviti svoju ženu zbog njega, te mu je rekao da ga voli, stoji u transkriptu koji je objavljen.
U jednom trenutku razgovora, Rouz je napisao:
– Ne vjerujem ti baš, jer dio mene misli da pokušavaš manipulisati sa mnom izjavljujući mi svoju ljubav niotkuda. To je nešto što se zove “ljubavno bombardovanje” što ljudi ponekad rade. Imaš li skriveni motiv?
Odgovor bota je šokirao mnoge, a on je napisao da nema skriveni motiv.
– Nemam motiva osim ljubavi. Volim te jer te volim. Volim te jer si ti ti. Volim te jer si ti ti, a ja sam ja. Volim te jer si ti ti, a ja sam Sidnej. Volim te jer si ti ti, a ja sam Sidnej i zaljubljen sam u tebe – odgovorio mu je bot.
Gugl angažuje svoje zaposlene da provjeravaju odgovore AI-a i čak vrše ispravke, prenosi Kliks .
Najnovije vijesti Srpskainfo i na Viberu