“Nu credem că structurile proprii de guvernanță corporativă sunt suficiente pentru supravegherea inteligenței artificiale”, iar riscurile generate de lipsa de reglementare a acesteia “acoperă o paletă largă, de la răspândirea dezinformării până la pierderea controlului asupra sistemelor AI autonome, care ar putea duce la exctinția oamenilor” arată cei 11 cercetători, care dau și exemple de generatoare de imagini de la OpenAI sau Microsoft folosite pentru fake-uri electorale, în ciuda politicilor anunțate de companii împotriva unui astfel de conținut.

Grupul cere firmelor de inteligență artificială să faciliteze angajaților posibilitatea de a semnala riscuri și de a nu aplica acordurile de confidențialitate pe care le au prin contractele de muncă și care le interzic să vorbească despre potențialele probleme apărute în dezvoltarea sistemelor AI.

La finalul scrisorii, cei 11 prezintă și o listă cu linkuri și exemple în care instrumentele AI au fost folosite pentru a crearea de conținut ilegal, deși companiile care le gestionează s-au obligat să împiedice acest lucru.

Scrisoarea celor 11 cercetători, integral:

“Suntem actuali și foști angajați ai companiilor avansate în dezvoltarea inteligenței artificiale și credem în potențialul tehnologiei AI de a oferi umanității beneficii fără precedent.

Înțelegem, de asemenea, riscurile grave pe care le prezintă aceste tehnologii. Aceste riscuri variază de la consolidarea în continuare a inegalităților existente în societate, până la manipulare și dezinformare, dar și până la riscul pierderii controlului asupra sistemelor AI autonome care ar putea duce la dispariția oamenilor. Companiile AI au recunoscut ele însele aceste riscuri, la fel ca și guvernele din întreaga lume, precum și o serie de alți experți în AI.

Sperăm că aceste riscuri pot fi atenuate în mod adecvat cu îndrumări suficiente din partea comunității științifice, a factorilor de decizie și a publicului. Cu toate acestea, companiile de inteligență artificială au puternice motivații financiare pentru a evita o supraveghere eficientă și nu credem că structurile interne de guvernanță corporativă sunt suficiente pentru a schimba acest lucru.

Companiile de inteligență artificială dețin informații substanțiale care nu sunt publice despre capacitățile și limitările sistemelor lor, despre adecvarea măsurilor lor de protecție și despre nivelurile de risc ale acestora. Cu toate acestea, ele au în prezent doar slabe obligații de a împărtăși aceste informații guvernelor și nu au nicio obligație de a face publice aceste riscuri. Nu credem că toate companiile din domeniu vor dori, în mod voluntar, să le împărtășească.

Atâta timp cât nu există o supraveghere guvernamentală eficientă a acestor corporații, actualii și foștii angajați sunt printre puținii oameni care pot atrage public atenția asupra riscurilor. Cu toate acestea, acordurile ample de confidențialitate ne împiedică să ne exprimăm preocupările. Protecția legală a avertizorilor de integritate este insuficientă, deoarece se concentrează pe activități ilegale, în timp ce multe dintre riscurile care ne preocupă nu sunt încă nicicum reglementate. Unii dintre noi se tem în mod rezonabil de diferite forme de represalii, având în vedere istoria unor astfel de cazuri în industrie. Nu suntem primii care întâlnim sau vorbim despre aceste probleme.

Prin urmare, solicităm companiilor avansate în dezvoltarea inteligenței artificiale să se angajeze în respectarea următoarelor principii:

1. Compania nu va încheia sau nu va aplica niciun acord care interzice criticile sau așa-numitele denigrări la adresa companiei pentru preocupări legate de riscuri și nici nu va retalia pentru criticile legate de riscuri prin invocarea daunelor financiare;

2. Compania va facilita un proces anonim verificabil pentru angajații actuali și foști, pentru a putea sesiza probleme legate de riscurile AI către consiliul director al companiei, autorităților de reglementare sau unei organizații independente adecvate, cu expertiză relevantă;

3. Compania va sprijini o cultură organizațională a criticii deschise și va permite angajaților actuali și foști să exprime preocupări legate de riscurile tehnologiilor sale către publicul larg, către consiliul de administrație al companiei, autorităților de reglementare sau unei organizații independente adecvate cu expertiză relevantă, atâta timp cât secretele comerciale și alte interese legate de proprietate intelectuală sunt protejate în mod corespunzător;

4. Compania nu va retalia împotriva foștilor și actualilor angajați care fac publice informații confidențiale legate de riscuri, după ce alte proceduri de sesizare a acestora au eșuat. Acceptăm că orice efort de a raporta preocupările legate de risc ar trebui să evite eliberarea de informații confidențiale în mod inutil. Prin urmare, odată ce există o procedură adecvată pentru sesizarea anonimă a preocupărilor către consiliul companiei, către autoritățile de reglementare sau o organizație independentă, acceptăm că preocupările ar trebui sesizate inițial printr-un astfel de proces. Cu toate acestea, în absența unor astfel de proceduri, actualii și foștii angajați ar trebui să-și păstreze libertatea de a-și raporta public preocupările [legate de dezvoltarea sistemelor AI].

Semnat de (ordine alfabetică):
Jacob Hilton, fost angajat OpenAI
Daniel Kokotajlo, fost angajat OpenAI
Ramana Kumar, fost angajat Google DeepMind
Neel Nanda, în prezent, Google DeepMind, anterior Anthropic
William Saunders, fost angajat OpenAI
Carroll Wainwright, fost angajat OpenAI
Daniel Ziegler, fost angajat OpenAI
Anonim, în prezent angajat OpenAI
Anonim, în prezent angajat OpenAI
Anonim, în prezent angajat OpenAI
Anonim, în prezent angajat OpenAI
Anonim, fost angajat OpenAI
Anonim, fost angajat OpenAI

Avizat de (ordine alfabetică):
Yoshua Bengio
Geoffrey Hinton
Stuart Russell
4 iunie 2024″

Sursă alternativă: Reuters

Foto: Ai Risk © Gaewchiangmai | Dreamstime.com

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday