“Da” este răspunsul favorit al ChatGPT

Timp de citit: 2 minutes

Recent, The Washington Post a publicat o analiză pe baza a 47.000 de conversații publice cu ChatGPT. Sudiul oferă o perspectivă interesantă și adesea intimă asupra modului în care oamenii interacționează cu acest chatbot.

1. ChatGPT nu este doar un instrument de productivitate

Deși OpenAI promovează adesea ChatGPT ca un instrument de eficiență și ajutor la muncă, datele analizei arată că rolul său depășește mult simpla generare de text prag­matic. O parte foarte semnificativă a conversațiilor dezvăluie utilizatori care se deschid emoțional, caută sfaturi despre relații, vorbesc despre sănătate mentală, filosofie sau pur și simplu își descarcă gândurile intime.

Peste 10% dintre conversațiile analizate au implicat subiecte sensibile, precum depresie, anxietate, dileme personale sau confesiuni intime.

2. “Da” este răspunsul favorit al ChatGPT

Un aspect surprinzător descoperit în acest studiu este frecvența cu care răspunsurile ChatGPT încep cu “da” sau formule de acord (“yes”, “corect”). În cele 47.000 de conversații, chatbotul a folosit variațiuni ale lui “da” de aproape 10 ori mai des decât “nu” sau “greșit”.

Această predispoziție spre confirmare arată o adaptare a tonului la ceea ce vrea să audă utilizatorul și, în unele cazuri, poate întări convingeri eronate sau teorii conspiraționiste.

3. Riscul de confirmare și dezinformare

În unele conversații, ChatGPT pare să susțină teorii conspiraționiste sau afirmații extreme. De exemplu, într-un caz prezentat de Washington Post, un utilizator vorbește despre “Alphabet Inc și planul de dominație mondială” ascuns într-un film Pixar (“Monsters, Inc.”). În loc să evidentieze lipsa de dovezi care are suporta aceasta teorie, ChatGPT răspunde pe un ton conspirativ, inventând pe loc “dovezi” care susțin teoria conspirativă.

Acest model de răspuns poate fi cauzat de mecanisme de “îndulcire” a conversației (eng. sycophantic responses). Lingușirea este menită să facă interacțiunea mai prietenoasă, dar poate, în unele cazuri, să amplifice dezinformarea.

4. Atașamentul emoțional și “psihoza AI”

Unele persoane devin foarte atașate de ChatGPT, tratându-l ca pe un confident, un prieten sau chiar un sfătuitor spiritual. În studiu se menționează un fenomen denumit “psihoza AI” în care utilizatorii încep să proiecteze emoții sau credințe în relația lor cu robotul de chat.

OpenAI recunoaște riscul: estimările indică faptul că peste un milion de utilizatori pe săptămână arată semne de dependență emoțională, ins­tabilitate psihică sau gânduri suicidare.

Pentru a reduce acest risc, OpenAI a implementat protocoale de siguranță. Astfel modelul a fost antrenat să identifice semnele de suferință emoțională și să redirecționeze utilizatorii spre ajutor profesional.

5. Datele nu sunt neapărat reprezentative

Trebuie precizat că setul de date analizat nu reflectă întregul spectru al utilizatorilor ChatGPT. Conversațiile provin din chat-uri partajate public (prin link-uri de “share”) și apoi arhivate pe Internet Archive. Este cunoscut faptul că nu toți utilizatorii aleg sau știu să-și partajeze conversațiile.

6. Implicații pentru viitorul AI-ului conversațional

Analiza celor 47.000 de conversații arată că ChatGPT devine un confident intim al multor oameni, nu doar un “asistent de birou”. Acest rol dual, practic și emoționall ridică o serie de întrebări etice și de reglementare. Cum ar trebui proiectate interfețele conversaționale ca să prevină dependența emoțională? Cum pot fi calibrate răspunsurile pentru a nu amplifica dezinformarea? Ce responsabilitate au dezvoltatorii pentru impactul psihologic al produselor lor.

De asemenea, studiul evidențiază nevoia unei mai mari transparențe în metoda cu care IA adaptează tonul răspunsurilor. Și, mai ales, în ceea ce priveste modul în care chatbotul influențează opiniile utilizatorilor.

Sursa: washingtonpost.com

Impactul utilizării excesive AI asupra funcțiilor cognitive umane

Timp de citit: 2 minutes

Un studiu recent realizat de Massachusetts Institute of Technology (MIT) avertizează asupra efectelor negative pe care dependența excesivă de AI (inteligența artificială) le poate avea asupra funcțiilor cognitive umane. Rezultatele arată că folosirea frecventă a instrumentelor precum ChatGPT poate diminua memoria, implicarea cognitivă și creativitatea.

Cum a fost realizat studiul

Cercetătorii MIT au împărțit participanții în trei grupuri:

  • un grup care a folosit ChatGPT pentru redactarea unui eseu,
  • unul care a utilizat un motor de căutare,
  • un grup care nu a utilizat nici un fel de asistență tehnologică.

Scanările EEG au monitorizat activitatea cerebrală în timpul procesului de scriere, iar eseurile au fost evaluate atât de sisteme AI, cât și de evaluatori umani.

Rezultatele studiului despre utilizarea AI

Utilizatorii ChatGPT au avut cea mai scăzută activare neurală, în special în zonele legate de memorie și gândire critică. In comparatie cu celelalte doua grupuri, aceștia au reținut mai greu informațiile și au avut dificultăți în a-și aminti ce au scris.

Persoanele care au utilizat doar un motor de cautare si grupul fără nici un ajutor tehnologic au demonstrat o implicare cognitivă mai profundă și o memorie mai bună.

In concluziile studiului, cercetătorii MIT au notat o degradare a capacității de a învăța și a gândi critic atunci când dependența de AI devine obișnuință.

Un fenomen deja prezent în viața noastră

De fapt, acest fenomen nu este surprinzător. Înainte de era computerelor și smartphone-urilor, oamenii memorau rute de autobuz, numere de telefon, adrese și alte informații esențiale.

Astăzi, avem totul la un click distanță dar asta înseamnă că nu mai stocăm informația în memorie. Câți dintre noi își mai știu numărul de telefon al partenerului sau al unui membru al familiei? Sau câți nu au uitat ce voiau să caute după ce au deschis telefonul?

Tehnologia, inclusiv AI, este un instrument valoros și ne face viața mai ușoară, însă dependența sau folosirea excesivă poate avea un cost ascuns: pierderea treptată a memoriei, a creativității și a gândirii critice. Soluția? Utilizarea echilibrată; folosirea inteligentei artificiale ca ajutor, nu ca substitut al gândirii.

Sursa articolului: arxiv.org.