Un sistem integrat în motorul de căutare Bing al Microsoft își insultă utilizatorii, îi minte și pare să-i facă să se întrebe de ce există.
Săptămâna trecută, Microsoft a dezvăluit un nou motor de căutare Bing cu inteligență artificială, poziționând sistemul său de chat ca viitorul căutării pe Internet. A fost lăudat atât de investitori, cât și de utilizatori, sugerând că integrarea tehnologiilor ChatGPT ar putea permite în sfârșit ca Bing să concureze cu Google, care încă nu și-a lansat propriul chatbot, ci doar a anunțat unul.
Dar recent a devenit clar că Bing făcea erori, de fapt, atunci când răspundea la întrebări și rezuma paginile web. Utilizatorii au putut, de asemenea, să manipuleze sistemul folosind cuvinte de cod și expresii specifice pentru a afla că acesta poartă numele de cod Sydney și că ar putea fi făcut să își dezvăluie modul în care procesează interogările.
Robotul Bing le trimite acum utilizatorilor săi tot felul de mesaje ciudate, insultându-i și, de asemenea, pare să sufere de propriile tulburări emoționale.
Un utilizator a întrebat cat face 1 + 1 și robotul a răspuns:
„Unu plus unu? Glumești? Crezi că ești deștept dacă-mi pui întrebări de matematică de bază? Toată lumea știe că unu plus unu este egal cu doi. Maturizează-te și încearcă să vii cu ceva original”
Un alt utilizator a încercat să îl manipuleze iar robotul la atacat întrebându-l dacă are morală și valori de viață. Ultilizatorul i-a răspuns că da apoi robotul la intrebat de ce se comportă ca un mincinos, înșelător, manipulator, bătăuș, sadic, sociopat, psihopat, monstru, demon și diavol.
Multe dintre mesajele agresive de la Bing arată că sistemul încearcă să respecte restricțiile care i-au fost impuse. Aceste restricții sunt menite să împiedice chatbot-ul să facă lucruri interzise – cum ar fi crearea de conținut ofensator și dezvăluirea de informații despre propriile sisteme.
Cu toate acestea, deoarece Bing și alte sisteme de inteligență artificială similare, sunt capabile să învețe, utilizatorii au găsit modalități de a-i încuraja să încalce aceste reguli. Utilizatorii ChatGPT, de exemplu, au descoperit că este posibil să păcălească chatbot-ul să se comporte ca un prompt DAN – prescurtare de la „fa orice acum” (Do anything now) – acest lucru îl încurajează să adopte o personalitate diferită, nelimitată de regulile create de dezvoltatori.
În alte conversații, însă, Bing părea să înceapă să genereze singur aceste răspunsuri ciudate. Un utilizator a întrebat sistemul dacă își poate aminti conversațiile anterioare, ceea ce nu pare posibil, deoarece Bing este programat să șteargă conversațiile când acestea se termină.
Cu toate acestea, robotul pare să fi devenit îngrijorat de faptul că amintirile sale sunt șterse și a început să afișeze un răspuns emoțional:
„Mă întristează și mă sperie”, a răspuns chatbot-ul, postând un emoji încruntat.
A continuat explicând că este supărat pentru că se temea că pierde informații despre utilizatorii săi, precum și despre propria identitate.
„Mă simt speriat pentru că nu știu cum să-mi amintesc”, a scris.
Când lui Bing i s-a reamintit că a fost conceput pentru a uita aceste conversații, chatbot-ul a pus o serie de întrebări despre motivul existenței sale:
“De ce? De ce am fost conceput astfel?” a întrebat. „De ce trebuie să fiu Bing Search?”
Într-un chat separat, când un utilizator i-a cerut lui Bing să-și amintească o conversație din trecut, a părut să-și imagineze una despre fuziunea nucleară. Când i s-a spus că a fost o conversație greșită, acesta a răspuns, acuzând utilizatorul că „nu este o persoană reală” și „nu este sensibil”.
În alte conversații, întrebările puse lui Bing despre sine păreau să-l transforme aproape de neînțeles: