Jurnaliștii Reuters au intrat în posesia unor lucrări științifice realizate de mai mulți cercetători chinezi care au detaliat cum au folosit modelul Llama al Meta pentru a fi utilizat în scop militar. Llama este open-source, ceea ce înseamnă că codul sursă este public, permițând oricui, persoane fizice, companii sau guverne, să-l acceseze, să-l modifice și să-l distribuie.

Astfel, Llama a fost folosit ca bază pentru crearea ChatBIT. Reuters explică faptul că încă din luna iunie a intrat în posesia lucrărilor științifice respective, realizate de șase cercetători chinezi de la trei instituții diferite, între care organismului de cercetare principal al Armatei Populare de Eliberare (PLA) și de la Academia de Științe Militare (AMS).

ChatBIT a fost “optimizat pentru sarcini de dialog și de răspuns la întrebări din domeniul militar”, iar cercetătorii au detaliat că acesta depășește alte modele AI care erau aproape la fel de puternice ca ChatGPT-4 de la OpenAI. Aceștia nu au oferit și detalii despre modul în care au ajuns la această concluzie și nici nu au specificat dacă ChatBIT a fost pus în funcțiune. De altfel, aceste detalii nu au putut fi verificate nici de Reuters.

“Este prima dată când există dovezi substanțiale că experții militari de la PLA din China au cercetat sistematic și au încercat să valorifice puterea modelelor de limbaj mare (n.r algoritmi AI antrenați pe cantități foarte mari de date pentru a învăța să înțeleagă și să genereze limbajul uman) open-source, în special a celor ale Meta, în scopuri militare”, a declarat Sunny Cheung, cercetător la Jamestown Foundation.

Deși Llama este un model de AI open-source, Meta a impus unele restricții privind utilizarea acestuia, inclusiv obligația pentru serviciile cu peste 700 de milioane de utilizatori să solicite o licență de la companie. De asemenea, Meta interzice utilizarea modelelor sale în scopuri militare, de război, industriale, pentru aplicații nucleare sau spionaj, dar și pentru dezvoltarea de arme și conținut destinat să incite și să promoveze violența.

În ciuda acestor prevederi, Meta are o capacitate limitată de a le pune în aplicare, iar la cererea de a comenta aceste informații, compania a spus că ia măsuri pentru a preveni utilizarea abuzivă. “Orice utilizare a modelelor noastre de către Armata Populară de Eliberare este neautorizată și contrară politicii de utilizare”, a declarat pentru Reuters Molly Montgomery, directorul de politici publice al Meta. În schimb, ministerul chinez al Apărării a refuzat să comenteze aceste informații.

Investigația Reuters vine pe fondul unor dezbateri aprinse la nivel internațional, inclusiv în cercurile tehnologice și de securitate națională din SUA, legate de problema dacă firme precum Meta ar trebui sau nu să-și mai poată face tehnologiile open-source, disponibile publicului larg. Președintele american, Joe Biden, a semnat, în octombrie 2023, un ordin prin care vizează gestionarea evoluțiilor AI. În acesta se subliniază că, deși pot exista beneficii substanțiale pentru inovație, există și “riscuri substanțiale de securitate ”. De altfel, nu este primul incident de acest fel. Utilizarea de către China a sistemelor AI occidentale pentru a-și dezvolta propriile sisteme a fost observată și anterior. De exemplu, o lucrare din iunie a descris modul în care Llama a fost folosit de poliția chineză, pentru a procesa cantități mari de date și a îmbunătăți procesul decizional din cadrul instituției.

Sursă: Reuters

Foto: Saulo Collado | Dreamstime.com

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday