Un instrument de inteligență artificială creează videoclipuri doar dintr-un rând de text
Data actualizării:
Data publicării:
Autor: Tiberiu Vasile
WhatsApp
Sursa Foto: FreePik
Sursa Foto: FreePik
Cel mai nou model de inteligență artificială de la OpenAI, Sora, redă videoclipuri pornind de la indicații despre care se spune că "interpretează cu acuratețe recuzita și generează personaje convingătoare care exprimă emoții vibrante".

Botezat Sora, după cuvântul japonez pentru "cer", instrumentul OpenAI marchează cel mai recent salt înainte al firmei de inteligență artificială, în timp ce Google, Meta și startup-ul Runway ML lucrează la modele similare.

Compania din spatele ChatGPT a declarat că modelul Sora înțelege modul în care obiectele "există în lumea fizică" și poate "interpreta cu acuratețe recuzita și genera personaje convingătoare care exprimă emoții vibrante".

În exemplele postate pe site-ul lor, OpenAI a prezentat o serie de videoclipuri generate de Sora "fără modificări". Un clip a evidențiat o femeie fotorealistă care se plimba pe o stradă ploioasă din Tokyo.

Sugestiile au inclus faptul că ea "merge cu încredere și dezinvoltură", că "strada este umedă și reflectorizantă, creând un efect de oglindă a luminilor colorate" și că "mulți pietoni se plimbă".

O alta, cu promptul "mai mulți mamuți lânos uriași se apropie pășind pe o pajiște înzăpezită", arăta animalele dispărute din apropierea unui lanț muntos în timp ce mergeau.

De asemenea, un videoclip generat de inteligența artificială a arătat un dalmațian care se plimba pe pervazurile ferestrelor din Burano, Italia, în timp ce un altul l-a dus pe spectator într-un "tur al unei galerii de artă cu multe opere frumoase în diferite stiluri".

Preocupări legate de drepturile de autor și de confidențialitate

Dar cel mai nou instrument al OpenAI a fost întâmpinat cu scepticism și cu îngrijorarea că ar putea fi folosit în mod abuziv.

Rachel Tobac, care este membră a consiliului consultativ tehnic al Agenției de securitate cibernetică și a infrastructurii (CISA) din SUA, a postat pe X că "trebuie să discutăm despre riscurile" modelului de inteligență artificială.

"Cea mai mare îngrijorare a mea este modul în care acest conținut ar putea fi folosit pentru a păcăli, manipula și înșela publicul larg", a spus ea.

Lipsa de transparență

Alții au semnalat, de asemenea, preocupări legate de drepturile de autor și de confidențialitate, iar directorul executiv al firmei non-profit de inteligență artificială Fairly Trained, Ed Newton-Rex, a adăugat: "Pur și simplu nu se poate susține că aceste modele nu concurează sau nu vor concura cu conținutul pe care sunt antrenate și cu creatorii umani din spatele acelui conținut.

"Pe ce este antrenat modelul? Furnizorii de date de instruire și-au dat acordul pentru ca munca lor să fie folosită? Lipsa totală de informații din partea OpenAI cu privire la acest aspect nu inspiră încredere", mai spune Newton-Rex.

OpenAI a precizat într-o postare că se implică împreună cu artiștii și alte persoane pentru a asigura înainte de a lansa noul instrument către public buna sa funcționare.

"Lucrăm cu red teamers - experți în domeniu în domenii precum dezinformarea, conținutul plin de ură și prejudecățile - care vor testa modelul", a precizat compania.

"De asemenea, construim instrumente care să ne ajute să detectăm conținutul înșelător, cum ar fi un clasificator de detecție care poate spune când un videoclip a fost generat de Sora", mai spun cei Open AI, conform Sky News.

Google News icon  Fiți la curent cu ultimele noutăți. Urmăriți DCNews și pe Google News

WhatsApp
Iti place noua modalitate de votare pe dcnews.ro?
pixel