Data publicării:

Angajații de la OpenAI și Google DeepMind avertizează asupra riscurilor inteligenței artificiale într-o scrisoare deschisă

Autor: Tiberiu Vasile | Categorie: Tehnologie
WhatsApp
Sursa Foto: FreePik
Sursa Foto: FreePik

Foști și actuali angajați semnează o scrisoare în care avertizează asupra lipsei de supraveghere a siguranței și solicită mai multe protecții pentru cei care denunță neregulile.

Un grup de actuali și foști angajați ai unor companii de inteligență artificială au publicat marți o scrisoare deschisă în care avertizează asupra lipsei de supraveghere a siguranței în cadrul industriei și solicită o protecție sporită pentru denunțători.

Scrisoarea, care solicită un "drept de a avertiza cu privire la inteligența artificială", este una dintre cele mai deschise declarații despre pericolele inteligenței artificiale din partea angajaților din cadrul unei industrii care este, în general, secretă. Unsprezece actuali și foști angajați ai OpenAI au semnat scrisoarea, alături de doi actuali sau foști angajați ai Google DeepMind - dintre care unul a lucrat anterior la Anthropic.

"Companiile de IA dețin informații substanțiale nepublice despre capacitățile și limitările sistemelor lor, despre caracterul adecvat al măsurilor de protecție și despre nivelurile de risc ale diferitelor tipuri de daune", se arată în scrisoare. "Cu toate acestea, ele au în prezent doar obligații mărunte de a împărtăși o parte din aceste informații cu guvernele și niciuna cu societatea civilă. Nu credem că se poate conta pe toate acestea pentru a le împărtăși în mod voluntar".

OpenAI și-a apărat practicile într-o declarație

OpenAI și-a apărat practicile într-o declarație, afirmând că dispune de căi, cum ar fi o linie telefonică pentru a raporta problemele din cadrul companiei și că nu lansează noi tehnologii până când nu există garanții adecvate. Google nu a răspuns imediat la o solicitare de comentarii.

"Suntem mândri de palmaresul nostru de a oferi cele mai capabile și mai sigure sisteme de inteligență artificială și credem în munca noastră științifică pentru a aborda riscurile. Suntem de acord că o dezbatere riguroasă este crucială având în vedere importanța acestei tehnologii și vom continua să ne implicăm cu guvernele, societatea civilă și alte comunități din întreaga lume", a declarat un purtător de cuvânt al OpenAI.

Îngrijorarea cu privire la potențialele prejudicii ale inteligenței artificiale există de zeci de ani, dar boom-ul IA din ultimii ani a intensificat aceste temeri și a făcut ca autoritățile de reglementare să se străduiască să țină pasul cu progresele tehnologice. În timp ce companiile de inteligență artificială și-au declarat public angajamentul de a dezvolta tehnologia în condiții de siguranță, cercetătorii și angajații au avertizat cu privire la lipsa de supraveghere pe măsură ce instrumentele de inteligență artificială exacerbează daunele sociale existente sau creează altele complet noi.

"Atâta timp cât nu există o supraveghere guvernamentală eficientă a acestor corporații, angajații (...) sunt printre puținele persoane care le pot trage la răspundere"

Scrisoarea din partea unor actuali și foști angajați ai companiilor de AI, care a fost raportată pentru prima dată de New York Times, solicită o protecție sporită pentru lucrătorii din cadrul companiilor avansate de AI care decid să exprime preocupări legate de siguranță. Aceasta solicită un angajament față de patru principii privind transparența și responsabilitatea, inclusiv o dispoziție conform căreia companiile nu vor forța angajații să semneze niciun acord de confidențialitate care să interzică exprimarea problemelor legate de IA legate de riscuri și un mecanism prin care angajații să împărtășească în mod anonim preocupările cu consiliul de administrație.

"Atâta timp cât nu există o supraveghere guvernamentală eficientă a acestor corporații, angajații actuali și foștii angajați sunt printre puținele persoane care le pot trage la răspundere în fața publicului", se arată în scrisoare. "Cu toate acestea, acordurile largi de confidențialitate ne blochează să ne exprimăm îngrijorările, cu excepția companiilor care nu reușesc să abordeze aceste probleme".

Companii precum OpenAI au aplicat, de asemenea, tactici agresive pentru a-i împiedica pe angajați să vorbească liber despre munca lor, Vox relatând săptămâna trecută că OpenAI i-a făcut pe angajații care părăsesc compania să semneze documente extrem de restrictive de nepotrivire și de confidențialitate, în caz contrar pierzându-și toate acțiunile dobândite. Sam Altman, directorul general al OpenAI, și-a cerut scuze în urma raportului, spunând că va schimba procedurile de plecare.

Scrisoarea vine după ce doi angajați de top ai OpenAI, co-fondatorul Ilya Sutskever și cercetătorul cheie în domeniul siguranței Jan Leike, au demisionat din companie luna trecută. După plecarea sa, Leike a afirmat că OpenAI a abandonat o cultură a siguranței în favoarea unor "produse strălucitoare".

Scrisoarea deschisă de marți a reluat o parte din declarația lui Leike, afirmând că giganții IA nu afișează nicio obligație în a fi transparenți în ceea ce privește operațiunile lor, conform The Guardian.

Google News icon  Fiți la curent cu ultimele noutăți. Urmăriți DCNews și pe Google News

WhatsApp
pixel