ChatGPT și Gemini, prejudecăți rasiale. Au pronunțat „pedeapsa cu moartea” mai mult în funcție de dialectul persoanelor de culoare
Recentele cercetări arată că modelele avansate de limbaj, precum ChatGPT și Gemini, manifestă prejudecăți rasiale subtile față de vorbitorii de Limba Engleză Vernaculară Afro-Americană (AAVE), un dialect englezesc dezvoltat și utilizat de afro-americani.
Valentin Hoffman, cercetător la Allen Institute for Artificial Intelligence și co-autor al studiului publicat în arXiv, a subliniat că aceste tehnologii sunt frecvent utilizate de companii pentru sarcini precum selecția candidaților pentru angajare. Hoffman a evidențiat că, în trecut, s-a investigat doar prezența prejudecăților rasiale evidente în aceste tehnologii, ignorându-se reacțiile sistemelor AI la indicii mai subtili ai rasei, cum ar fi diferențele dialectale.
Prejudecățile modelelor rasiale pot duce la consecințe grave
Conform studiului, persoanele de culoare care folosesc AAVE în vorbire se confruntă cu discriminare rasială în diverse contexte, inclusiv în educație, angajare, locuințe și rezultate juridice.
Cercetătorii au evaluat modul în care modelele AI apreciază inteligența și capacitatea de angajare a persoanelor care folosesc AAVE în comparație cu cei care folosesc așa-numita “engleză standard americană”. Modelele AI au tendința de a descrie vorbitorii de AAVE ca fiind “proști” și “leneși”, atribuindu-le locuri de muncă cu salarii mai mici.
Hoffman își exprimă îngrijorarea că rezultatele studiului sugerează că modelele AI ar putea penaliza candidații pentru angajare care alternează între AAVE și engleza standard americană, un proces cunoscut sub numele de code-switching.
Hoffman speră să nu fie folosite vreodată în instanță
O preocupare majoră este că, de exemplu, un candidat pentru un post de muncă care folosește acest dialect în postările sale pe rețelele sociale ar putea fi descalificat de modelul lingvistic din cauza utilizării dialectului în prezența sa online, a explicat Hoffman pentru Guardian.
De asemenea, modelele AI au fost mult mai predispuse să recomande pedeapsa cu moartea pentru presupuși inculpați care au folosit AAVE în declarațiile lor din instanță.
Hoffman speră că nu ne apropiem de o epocă în care această tehnologie va fi folosită pentru a lua decizii privind condamnările penale, o perspectivă pe care o consideră distopică. Cu toate acestea, este dificil de prezis cum vor fi folosite modelele de învățare a limbajului în viitor, a adăugat Hoffman, îndemnând dezvoltatorii să ia în serios avertismentele studiului recent privind rasismul în modelele de limbaj de amploare mare.
Fiți la curent cu ultimele noutăți. Urmăriți DCNews și pe Google News