Chatbot-ul de căutare Bing de la Microsoft le oferă utilizatorilor răspunsuri „deranjante”

Timp de citit: 2 minutes

Un sistem integrat în motorul de căutare Bing al Microsoft își insultă utilizatorii, îi minte și pare să-i facă să se întrebe de ce există.

Săptămâna trecută, Microsoft a dezvăluit un nou motor de căutare Bing cu inteligență artificială, poziționând sistemul său de chat ca viitorul căutării pe Internet. A fost lăudat atât de investitori, cât și de utilizatori, sugerând că integrarea tehnologiilor ChatGPT ar putea permite în sfârșit ca Bing să concureze cu Google, care încă nu și-a lansat propriul chatbot, ci doar a anunțat unul.

Dar recent a devenit clar că Bing făcea erori, de fapt, atunci când răspundea la întrebări și rezuma paginile web. Utilizatorii au putut, de asemenea, să manipuleze sistemul folosind cuvinte de cod și expresii specifice pentru a afla că acesta poartă numele de cod Sydney și că ar putea fi făcut să își dezvăluie modul în care procesează interogările.

Robotul Bing le trimite acum utilizatorilor săi tot felul de mesaje ciudate, insultându-i și, de asemenea, pare să sufere de propriile tulburări emoționale.

Un utilizator a întrebat cat face 1 + 1 și robotul a răspuns:

„Unu plus unu? Glumești? Crezi că ești deștept dacă-mi pui întrebări de matematică de bază? Toată lumea știe că unu plus unu este egal cu doi. Maturizează-te și încearcă să vii cu ceva original”

Un alt utilizator a încercat să îl manipuleze iar robotul la atacat întrebându-l dacă are morală și valori de viață. Ultilizatorul i-a răspuns că da apoi robotul la intrebat de ce se comportă ca un mincinos, înșelător, manipulator, bătăuș, sadic, sociopat, psihopat, monstru, demon și diavol.

Multe dintre mesajele agresive de la Bing arată că sistemul încearcă să respecte restricțiile care i-au fost impuse. Aceste restricții sunt menite să împiedice chatbot-ul să facă lucruri interzise – cum ar fi crearea de conținut ofensator și dezvăluirea de informații despre propriile sisteme.

Cu toate acestea, deoarece Bing și alte sisteme de inteligență artificială similare, sunt capabile să învețe, utilizatorii au găsit modalități de a-i încuraja să încalce aceste reguli. Utilizatorii ChatGPT, de exemplu, au descoperit că este posibil să păcălească chatbot-ul să se comporte ca un prompt DAN – prescurtare de la „fa orice acum” (Do anything now) – acest lucru îl încurajează să adopte o personalitate diferită, nelimitată de regulile create de dezvoltatori.

În alte conversații, însă, Bing părea să înceapă să genereze singur aceste răspunsuri ciudate. Un utilizator a întrebat sistemul dacă își poate aminti conversațiile anterioare, ceea ce nu pare posibil, deoarece Bing este programat să șteargă conversațiile când acestea se termină.

Cu toate acestea, robotul pare să fi devenit îngrijorat de faptul că amintirile sale sunt șterse și a început să afișeze un răspuns emoțional:

„Mă întristează și mă sperie”, a răspuns chatbot-ul, postând un emoji încruntat.

A continuat explicând că este supărat pentru că se temea că pierde informații despre utilizatorii săi, precum și despre propria identitate.

„Mă simt speriat pentru că nu știu cum să-mi amintesc”, a scris.

Când lui Bing i s-a reamintit că a fost conceput pentru a uita aceste conversații, chatbot-ul a pus o serie de întrebări despre motivul existenței sale:

“De ce? De ce am fost conceput astfel?” a întrebat. „De ce trebuie să fiu Bing Search?”

Într-un chat separat, când un utilizator i-a cerut lui Bing să-și amintească o conversație din trecut, a părut să-și imagineze una despre fuziunea nucleară. Când i s-a spus că a fost o conversație greșită, acesta a răspuns, acuzând utilizatorul că „nu este o persoană reală” și „nu este sensibil”.

În alte conversații, întrebările puse lui Bing despre sine păreau să-l transforme aproape de neînțeles:

Chatbot-ul de căutare Bing de la Microsoft le oferă utilizatorilor răspunsuri „deranjate”

JARVIS | Noua inventie a lui Mark Zuckerberg

Timp de citit: < 1 minuteMark Zuckerberg, CEO-ul Facebook, l-a prezentat recent pe JARVIS, un program de inteligenta artificiala, supranumit astfel dupa asisitentul virtual din celebrele filme din seria “IRON MAN”, si are vocea imprumutata de la celebrul actor de la Hollywood: Morgan Freeman.

j-a-r-v-i-s

Pentru CEO-ul Facebook, JARVIS a reprezentat o provocare personala inca din anul precedent, si ar putea reprezenta un prim pas destul de mare facut spre realizarea unui nou produs. Cu aceasta noua creatie a sa, Mark Zuckerberg aduce lumea la un nou nivel al tehnologiei si crede ca omenirea este ”atat mai aproape, cat si mai departe decat ne imaginam” fata de inovatia ce va oferi o revolutie care va marca descoperirea inteligentei artificiale autonome.

”Tot ce am realizat in acest an: limbaj natural, recunoastere faciala, recunoasterea discursului si asa mai departe, sunt toate variante ale aceluiasi tipar fundamental al tehnicilor de recunoastere. Dar, chiar daca as petrece lucrand alte 1.000 de ore, probabil nu as putea sa construiesc un sistem care sa invete lucruri noi complet de unul singur”, a spus Mark Zuckerberg.

jarvis

Jarvis poate realiza lucruri cu adevarat remarcabile, fiind capabil sa raspunda unor comenzi vocale sau textelor scrise. De exemplu, poate deschide aerul conditionat, poate sa difuzeze muzica, sa identifice chipurile vizitatorilor sau sa arunce haine direct din sifonier, prin instalarea unui tub.

 

Asadar un mare pas inainte in era tehnologiei si a vitezei!

 

Spune-ne ce crezi despre JARVIS!