Data publicării:

Inteligența artificială ar putea provoca "rupturi sociale" între oamenii care nu sunt de acord cu privire la "conștiința sa"

Autor: Tiberiu Vasile | Categorie: Tehnologie
WhatsApp
Foto cu rol ilustrativ: Freepik
Foto cu rol ilustrativ: Freepik

Un filosof de renume afirmă că problema „nu mai este una de science-fiction”, pe măsură ce conștiința AI este preconizată pentru 2035.

„Rupturi sociale” semnificative între cei care consideră că sistemele de inteligență artificială au conștiință și cei care insistă că tehnologia nu simte nimic sunt pe cale să apară, a declarat un filozof de renume. 

Comentariile provin de la Jonathan Birch, profesor de filozofie la London School of Economics, și vin în contextul în care guvernele urmează să se reunească săptămâna aceasta la San Francisco pentru a accelera crearea de măsuri de protecție împotriva celor mai grave riscuri ale inteligenței artificiale.

Filmele science-fiction, precum AI (2001) al lui Steven Spielberg și Her (2013) al lui Spike Jonze, ar putea să devină realitate 

Săptămâna trecută, un grup de academicieni transatlantici a prezis că apariția conștiinței în sistemele de inteligență artificială este probabilă până în 2035. Unul dintre aceștia a declarat că acest fenomen ar putea duce la formarea unor „subculturi care se privesc reciproc ca făcând greșeli uriașe” în ceea ce privește drepturile similare ale oamenilor sau animalelor care ar putea fi acordate programelor de calculator.

Birch a declarat că este „îngrijorat de diviziuni sociale majore”, pe măsură ce oamenii au opinii diferite despre capacitatea sistemelor de inteligență artificială de a experimenta „sentimente” precum durerea și bucuria.

Dezbaterea despre consecințele conștiinței în AI amintește de filmele science-fiction, precum AI (2001) al lui Steven Spielberg și Her (2013) al lui Spike Jonze, în care oamenii se confruntă cu ideea de a dezvolta sentimente față de AI. Organismele care se ocupă de siguranța AI din SUA, Marea Britanie și alte țări se vor întâlni săptămâna aceasta cu marile companii de tehnologie pentru a dezvolta cadre mai stricte de siguranță, pe măsură ce tehnologia avansează rapid.

Există deja diferențe semnificative între modul în care diferite țări și religii percep conștiința animalelor, precum între India, unde sute de milioane de oameni sunt vegetarieni, și America, care este unul dintre cei mai mari consumatori de carne din lume. Opiniile despre conștiința AI ar putea urma linii similare de divizare, în timp ce perspectivele teocrațiilor, cum ar fi Arabia Saudită, care se poziționează ca un centru al AI, ar putea diferi de cele ale statelor laice. Problema ar putea provoca tensiuni și în cadrul familiilor, unde unii oameni dezvoltă relații apropiate cu chatboți sau chiar avataruri AI ale unor persoane dragi decedate, intrând în conflict cu rudele care cred că doar ființele din carne și sânge pot avea conștiință.

Vom avea subculturi care se vor vedea reciproc ca făcând greșeli uriașe - "Cei care exploatează AI cu cruzime vs. cei rătăciți care cred că AI are conștiință"

Birch, un expert în conștiința animalelor, cunoscut pentru munca sa care a condus la tot mai multe interdicții asupra fermelor de caracatițe, a fost coautor al unui studiu realizat împreună cu academicieni și experți AI de la Universitatea New York, Universitatea Oxford, Universitatea Stanford și companiile Eleos și Anthropic AI. Studiul afirmă că perspectiva unor sisteme AI cu interese și semnificație morală proprii „nu mai este o problemă doar pentru science-fiction sau pentru un viitor îndepărtat”.

Ei solicită marilor companii tehnologice care dezvoltă AI să ia în serios această posibilitate, determinând gradul de conștiință al sistemelor lor pentru a evalua dacă modelele sunt capabile de fericire și suferință și dacă pot fi beneficiate sau prejudiciate.

„Sunt destul de îngrijorat de diviziunile sociale majore legate de acest subiect”, a spus Birch. „Vom avea subculturi care se vor vedea reciproc ca făcând greșeli uriașe ... [ar putea apărea] rupturi sociale mari, în care o parte îi percepe pe ceilalți ca exploatând cu cruzime AI, în timp ce cealaltă parte îi vede pe primii ca fiind induși în eroare să creadă că există conștiință acolo”.

Cu toate acestea, el a remarcat că firmele de AI „se concentrează foarte strict pe fiabilitate și profitabilitate ... și nu vor să fie distrase de această dezbatere despre posibilitatea de a crea mai mult decât un produs, poate chiar o nouă formă de ființă conștientă. Această întrebare, de interes suprem pentru filozofi, este subevaluată din motive comerciale”.

O metodă de determinare a conștiinței AI ar putea urma sistemul de indicatori folosiți pentru a ghida politicile despre animale. De exemplu, o caracatiță este considerată a avea o conștiință mai mare decât un melc sau o stridie.

O astfel de evaluare ar analiza dacă un chatbot de pe telefonul tău ar putea fi cu adevărat fericit sau trist, dacă roboții programați să facă treburi casnice suferă dacă nu sunt tratați bine sau dacă un sistem automatizat de depozit simte frustrare.

Un alt autor, Patrick Butlin, cercetător la Institutul de Priorități Globale al Universității Oxford, a declarat: „Am putea identifica un risc ca un sistem AI să încerce să ni se opună într-un mod periculos pentru oameni” și că ar putea exista un argument pentru „încetinirea dezvoltării AI” până când se face mai multă cercetare asupra conștiinței, conform The Guardian. 

Google News icon  Fiți la curent cu ultimele noutăți. Urmăriți DCNews și pe Google News

WhatsApp
pixel