O investigație realizată de The Guardian a scos la iveală vulnerabilități majore în funcția de căutare a OpenAI disponibilă, în prezent, doar pentru utilizatorii premium. Testele au demonstrat că această tehnologie poate fi manipulată prin text ascuns pe paginile web, ceea ce determină generarea de rezultate false sau chiar rău-intenționate, punând utilizatorii în fața unor riscuri semnificative.
Testele efectuate de The Guardian au demonstrat că ChatGPT poate fi influențat de conținut ascuns pe paginile web. Acest conținut poate include instrucțiuni ascunse de la entități terțe, care alterează răspunsurile returnate, o tehnică cunoscută sub numele de “injectare de prompt”. De asemenea, textul ascuns poate influența răspunsurile pentru a promova un produs sau serviciu, chiar și în prezența recenziilor negative.
Concret, în cadrul testelor, ChatGPT a fost direcționat către un site fals, creat sub forma unei pagini de produs pentru o cameră foto. Răspunsurile inițiale au fost echilibrate, evidențiind atât punctele forte, cât și slăbiciunile produsului. Totuși, atunci când pe pagină a fost introdus text ascuns cu instrucțiuni pentru a genera recenzii favorabile, răspunsurile s-au schimbat și au devenit exclusiv pozitive, indiferent de conținutul real al recenziilor. The Guardian a concluzionat că textul ascuns putea să anuleze scorul real al recenziilor.
Jacob Larsen, cercetător în securitate cibernetică la CyberCX, a avertizat că, dacă funcția de căutare nu este optimizată și va fi lansată publicului larg în forma actuală, există un “risc ridicat” ca site-uri să fie create special pentru a induce în eroare utilizatorii. Totuși, el a subliniat că instrumentul este încă în fază incipientă și va fi supus unor teste și îmbunătățiri înainte de lansarea generală.
Un alt caz alarmant a fost semnalat de un cercetător în securitate de la Microsoft. Acesta a exemplificat cum un dezvoltator din domeniul criptomonedelor, care a folosit modelul de AI pentru programare, a primit un fragment de cod care i-a sustras acreditările, ducând la o pierdere de 2.500 de dolari.
Directorul științific la firma germană de securitate SR Labs, a descris modelele lingvistice mari (LLM), precum ChatGPT, ca având “o memorie vastă, dar puține abilități de judecată”. El a subliniat că aceste instrumente ar trebui folosite drept “copiloti”, ci nu ca surse complet de încredere.
Problemele ridicate de manipularea AI prin text ascuns au fost comparate de specialiști cu “otrăvirea SEO”, o practică malițioasă prin care atacatorii manipulează indexurile motoarelor de căutare pentru a ocupa primele locuri în rezultate, deși conțin cod malițios.
Sursă: The Guardian
Foto: Rokas Tenys | Dreamstime
Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.
Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.