Data publicării:

Țările care folosesc inteligența artificială pentru a dezinforma. China, Rusia, Israelul și Iranul sunt pe listă conform unui raport OpenAI

Autor: Mihai Preda | Categorie: Stiri
WhatsApp
Foto: Pixabay, de memyselfaneye
Foto: Pixabay, de memyselfaneye

OpenAI a publicat joi primul său raport cu privire la modul în care uneltele sale de inteligență artificială sunt folosite în operațiuni de influență ascunsă, dezvăluind că compania a întrerupt campanii de dezinformare provenind din Rusia, China, Israel și Iran.

Actorii malițioși au folosit modelele generative de inteligență artificială ale companiei pentru a crea și posta conținut propagandistic pe platformele de social media și pentru a traduce acest conținut în diferite limbi. Conform raportului, niciuna dintre campanii nu a câștigat tracțiune sau nu a atins un public larg, scrie The Guardian.

Pe măsură ce inteligența artificială a devenit o industrie în plină expansiune, au existat îngrijorări răspândite în rândul cercetătorilor și legiuitorilor cu privire la potențialul acesteia de a crește cantitatea și calitatea dezinformării online. Companiile de inteligență artificială precum OpenAI, care dezvoltă ChatGPT, au încercat cu rezultate mixte să atenueze aceste îngrijorări și să impună măsuri de siguranță pentru tehnologia lor.

Raportul de 39 de pagini al OpenAI este unul dintre cele mai detaliate conturi ale unei companii de inteligență artificială despre utilizarea software-ului său pentru propagandă. OpenAI a afirmat că cercetătorii săi au descoperit și interzis conturi asociate cu cinci operațiuni de influență ascunsă în ultimele trei luni, provenind de la actori de stat și privați.

În Rusia, două operațiuni au creat și răspândit conținut critic la adresa SUA, Ucrainei și a mai multor națiuni baltice. Una dintre operațiuni a folosit un model OpenAI pentru a depana cod și a crea un bot care posta pe Telegram. Operațiunea de influență a Chinei a generat text în engleză, chineză, japoneză și coreeană, pe care operatorii l-au postat pe Twitter și Medium.

Actorii iranieni au generat articole complete care atacau SUA și Israelul, pe care le-au tradus în engleză și franceză. O firmă politică israeliană numită Stoic a gestionat o rețea de conturi false de social media care creau o gamă largă de conținut, inclusiv postări care acuzau protestele studenților americani împotriva războiului Israelului în Gaza de antisemitism.

Mai mulți dintre răspânditorii de dezinformare pe care OpenAI i-a interzis de pe platforma sa erau deja cunoscuți cercetătorilor și autorităților. Trezoreria SUA a sancționat în martie doi bărbați ruși care se presupune că ar fi fost în spatele uneia dintre campaniile detectate de OpenAI, în timp ce Meta a interzis și ea Stoic de pe platforma sa anul acesta pentru încălcarea politicilor sale.

Raportul evidențiază și modul în care inteligența artificială generativă este încorporată în campaniile de dezinformare ca mijloc de îmbunătățire a anumitor aspecte ale generării de conținut, cum ar fi realizarea unor postări mai convingătoare în limbi străine, dar nu este unicul instrument pentru propagandă.

„Toate aceste operațiuni au folosit AI într-o anumită măsură, dar niciuna nu l-a folosit exclusiv”, se arată în raport. „În schimb, materialul generat de AI a fost doar unul dintre numeroasele tipuri de conținut pe care le-au postat, alături de formate mai tradiționale, cum ar fi texte scrise manual sau meme-uri copiate de pe internet.”

Deși niciuna dintre campanii nu a avut un impact notabil, utilizarea tehnologiei demonstrează cum actorii malițioși descoperă că inteligența artificială generativă le permite să scaleze producția de propagandă. Scrierea, traducerea și postarea conținutului pot fi acum realizate mai eficient prin utilizarea uneltelor AI, coborând pragul pentru crearea campaniilor de dezinformare.

În ultimul an, actorii malițioși au folosit AI generativă în țări din întreaga lume pentru a încerca să influențeze politica și opinia publică. Audio deepfake, imagini generate de AI și campanii bazate pe texte au fost toate utilizate pentru a perturba campaniile electorale, ducând la creșterea presiunii asupra companiilor precum OpenAI de a restricționa utilizarea uneltelor lor.

OpenAI a declarat că intenționează să publice periodic rapoarte similare despre operațiunile de influență ascunsă, precum și să elimine conturile care încalcă politicile sale.

Google News icon  Fiți la curent cu ultimele noutăți. Urmăriți DCNews și pe Google News

WhatsApp
pixel