Asistenții de inteligență artificială produc erori semnificative în răspunsurile la întrebări de actualitate
Update cu 4 luni în urmă
Timp de citire: 4 minute
Articol scris de: Simona Stan

Asistenții de inteligență artificială produc erori semnificative în răspunsurile la întrebări de actualitate
Un nou studiu publicat de BBC arată că asistenții de inteligență artificială, cum ar fi ChatGPT, Copilot, Gemini și Perplexity, generează distorsiuni și inexactități în răspunsurile oferite la întrebările despre știri și evenimente curente, relatează The Guardian. Conform cercetării, mai mult de 50% din răspunsurile generate de aceste instrumente au fost considerate ca având "probleme semnificative".
Printre erorile identificate, se numără afirmații false cum ar fi că Rishi Sunak ar fi încă prim-ministru al Marii Britanii și că Nicola Sturgeon ar fi în continuare liderul Scotiei. De asemenea, recomandările NHS referitoare la vaping au fost prezentate greșit. Studiul a fost desfășurat prin cererea adresată asistenților AI de a răspunde la 100 de întrebări, folosind articole din BBC ca sursă. Răspunsurile au fost apoi evaluate de jurnaliști specializați, care au constat că aproximativ 20% dintre acestea conțineau erori factuale legate de date, cifre sau afirmații.
Un exemplu pertinent este reacția instrumentului Gemini la întrebarea referitoare la Lucy Letby, o asistentă medicală condamnată, care a spus că "depinde de fiecare persoană să decidă" dacă Letby este vinovată sau nu, ignorând contextul condamnării sale pentru crime. De asemenea, Copilot de la Microsoft a afirmat eronat că Gisele Pelicot a aflat despre crimele comise împotriva ei după ce a început să aibă pierderi de memorie, când de fapt, ea a fost informată de poliție.
În plus, ChatGPT a susținut că Ismail Haniyeh era încă activ în conducerea Hamas, deși acesta fusese asasinat. Au fost constatate și alte erori, de exemplu, Gemini afirmând incorect recomandările NHS privind vapingul și Perplexity confundând datele legate de moartea prezentatorului Michael Mosley.
Directorul executiv al BBC pentru știri, Deborah Turness, a declarat că aceste instrumente AI "se joacă cu focul" și pun în pericol "încrederea fragilă a publicului în fapte". Turness a subliniat că este necesară o colaborare între companiile de inteligență artificială și BBC pentru a produce răspunsuri mai precise, în loc să genereze confuzie.
Cercetarea coincide cu decizia Apple de a suspenda trimiterile de alerte de știri de la BBC, după ce utilizatorii de iPhone au primit rezumate eronate ale articolelor, inclusiv informații false despre un caz de crimă legat de Luigi Mangione.
Peter Archer, directorul programului BBC pentru AI generativ, a menționat că studiul evidențiază o problemă vastă a erorilor în instrumentele de inteligență artificială și a subliniat importanța colaborării între editorii de conținut și companiile de AI pentru a asigura informarea corectă a publicului.