Potrivit dezvăluirilor făcute de opt persoane familiarizate cu testarea la OpenAI, pentru publicația Financial Times, procesele au devenit mai scurte și folosesc mai puține resurse dedicate identificării și îndepărtării riscurilor, în condițiile în care startup-ul de inteligență artificială, acum evaluat la 300 de miliarde de dolari, se află sub presiune pentru a lansat mai rapid noi modele. Meta, Google și startup-ul xAI al miliardarului Elon Musk sunt printre principalii săi concurenți.

Acest lucru creează îngrijorări cu privire la siguranța modelelor nou-lansate. Un angajat care testează în prezent următorul model, o3, care ar trebui să fie lansat săptămâna viitoare, a declarat: “Am avut teste de siguranță mai amănunțite atunci când tehnologia era mai puțin importantă. Dar pentru că există o cerere mai mare pentru aceasta, vor să o pună la dispoziție mai repede. Sper că nu este un pas greșit, catastrofal, dar este imprudent. Aceasta este o rețetă pentru dezastru”.

FT pune în vedere că nu există un standard internațional pentru testele de siguranță, însă UE a adoptat o legislație care obligă companiile să facă acest lucru, în privința celor mai puternice modele ale lor. Anii trecuți, importante grupuri din domeniu, inclusiv OpenAI, au semnat angajamente cu guvernele din SUA și UK pentru a permite teste de siguranță, realizate de către institute.

Personalul OpenAI a avut la dispoziție “doar câteva zile pentru a face evaluări” asupra lui o3, comparativ cu vechiul termen de câteva luni. Spre exemplu, pentru GPT-4, care a fost lansat în 2023, personalul a avut la dispoziție șase luni, iar primele probleme au fost identificate după două luni. O3 este conceput pentru a realiza sarcini complexe, cum ar fi rezolvarea de probleme complexe și raționamente.

Testele sunt costisitoare, deoarece este nevoie de angajarea de experți externi, crearea de seturi de date specifice, precum și utilizarea inginerilor interni și a puterii de calcul. În acest context, OpenAI a declarat că și-a eficientizat procesele de evaluare, inclusiv testele automate, ceea ce a dus la o reducere a termenelor. De asemenea, a adăugat că modelele, în special cele care ar putea prezenta riscurile catastrofale, “au fost testate temeinic și reglate”.

Totuși, un fost cercetător în domeniul siguranței, la OpenAI, a avertizat că “neefectuarea unor astfel de teste ar putea însemna că OpenAI și celelalte companii de inteligență artificială subestimează cele mai grave riscuri ale modelelor lor”.

Sursa: Financial Times

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday