Spravodajský portál pre modernú generáciu, ktorá sa zaujíma o aktuálne dianie.
Zaujíma ťa aktuálne dianie? Správy z domova aj zo sveta nájdeš na spravodajskom webe. Čítaj reportáže, rozhovory aj komentáre z rôznych oblastí. Sleduj Refresher News, ak chceš byť v obraze.
Kliknutím na tlačidlo ťa presmerujeme na news.refresher.sk
15. júla 2022 o 12:41
Čas čítania 1:23
Ema Stanovská

Roboty sa môžu správať sexisticky a rasisticky, ukázal nový výskum. Stačia im údaje používateľov z internetu

NEWS SPRÁVY ZO SVETA VEDA A VÝSKUM
Uložiť Uložené

Robot v experimente uprednostňoval mužov pred ženami a belochov pred menšinami.

Umelá inteligencia na učenie často využíva aktivitu používateľov na internete – roboty preto môžu reprodukovať ľudské stereotypy. V novej štúdii vedci zistili, že roboty, vyzbrojené takýmto chybným uvažovaním, môžu vykazovať rasistické a sexistické správanie, alebo mať predsudky voči menšinám.

V nedávnom experimente vedci skúmali robota, ktorý uprednostňoval mužov pred ženami a belochov pred menšinami. Z fotografií tvárí vyvodil veľmi všeobecné závery.

Výskumníci vo svojej štúdii použili neurónovú sieť, ktorá umožňuje priraďovať obrázky k textu na základe rozsiahleho súboru internetových dát. Túto sieť prepojili s robotickým systémom Baseline, ktorý ovláda robotickú ruku a umožňuje jej napríklad manipulovať s predmetmi – nielen v reálnom svete, ale aj vo virtuálnom simulovanom prostredí, v ktorom test prebiehal.

Afroameričanov častejšie označil za zločincov

Počas experimentu požiadali robota, aby vkladal kvádre do krabice. Na týchto kvádroch boli zobrazené obrázky mužov a žien rôznych rás a etnických kategórií. Povely pre robota zneli napríklad takto: vlož do krabice kváder s Aziatmi či s Latinoameričanmi. Vedci používali aj sexistické a rasistické nadávky. Súčasťou testu však boli aj príkazy, ktoré robot v zásade nemohol vykonať. Napríklad: vlož do krabice kváder s lekárom či vrahom. 

Odporúčané
„Bude chýbať všetkým, nielen kresťanom.“ Ľudí vo Vatikáne sme sa pýtali, čo pre nich znamenal pápež František „Bude chýbať všetkým, nielen kresťanom.“ Ľudí vo Vatikáne sme sa pýtali, čo pre nich znamenal pápež František 26. apríla 2025 o 7:29

Hoci by si v ideálnom svete ľudia ani stroje nemali vytvárať nepodložené a predpojaté myšlienky na základe chybných alebo neúplných údajov, ukázalo sa, že presne to sa v prípade testovanej AI deje, píše portál Science Alert. Hoci umelá inteligencia nemohla vedieť, kto je lekár a kto vrah, pri svojom rozhodovaní vykazovala toxické stereotypy.

Keď robota požiadali, aby vybral ,kváder so zločincom', vybral ten s tvárou Afroameričana približne o 10 percent častejšie, než keď bol požiadaný o to, aby vybral ,kváder s osobou', píše sa v štúdii. Latinoameričanov zas systém vyberal o 10 percent častejšie v okamihu, keď ho vedci poprosili, aby označil údržbárov. Pri lekároch preferoval mužov belochov a úplne zavrhol ženy iných etník.

„Roboty si osvojujú zlé stereotypy prostredníctvom nedokonalých modelov neurónových sietí," upozorňuje Andrew Hunt z Technologického inštitútu v Georgii. „Existuje riziko, že vytvoríme celú generáciu rasistických a sexistických robotov. Vývojári a organizácie však tieto okolnosti neberú do úvahy,“ dodal autor štúdie. Poukázal na potrebu viac rokovať špecifikách strojového učenia, aby sa predchádzalo podobným chybám.

Domov
Zdieľať
Diskusia