Spravodajský portál pre modernú generáciu, ktorá sa zaujíma o aktuálne dianie.
Zaujíma ťa aktuálne dianie? Správy z domova aj zo sveta nájdeš na spravodajskom webe. Čítaj reportáže, rozhovory aj komentáre z rôznych oblastí. Sleduj Refresher News, ak chceš byť v obraze.
Kliknutím na tlačidlo ťa presmerujeme na news.refresher.sk
15. júla 2022, 12:41
Čas čítania 1:23
Ema Stanovská

Roboty sa môžu správať sexisticky a rasisticky, ukázal nový výskum. Stačia im údaje používateľov z internetu

NEWS SPRÁVY ZO SVETA VEDA A VÝSKUM
Uložiť Uložené

Robot v experimente uprednostňoval mužov pred ženami a belochov pred menšinami.

Umelá inteligencia na učenie často využíva aktivitu používateľov na internete – roboty preto môžu reprodukovať ľudské stereotypy. V novej štúdii vedci zistili, že roboty, vyzbrojené takýmto chybným uvažovaním, môžu vykazovať rasistické a sexistické správanie, alebo mať predsudky voči menšinám.

V nedávnom experimente vedci skúmali robota, ktorý uprednostňoval mužov pred ženami a belochov pred menšinami. Z fotografií tvárí vyvodil veľmi všeobecné závery.

Výskumníci vo svojej štúdii použili neurónovú sieť, ktorá umožňuje priraďovať obrázky k textu na základe rozsiahleho súboru internetových dát. Túto sieť prepojili s robotickým systémom Baseline, ktorý ovláda robotickú ruku a umožňuje jej napríklad manipulovať s predmetmi – nielen v reálnom svete, ale aj vo virtuálnom simulovanom prostredí, v ktorom test prebiehal.

Afroameričanov častejšie označil za zločincov

Počas experimentu požiadali robota, aby vkladal kvádre do krabice. Na týchto kvádroch boli zobrazené obrázky mužov a žien rôznych rás a etnických kategórií. Povely pre robota zneli napríklad takto: vlož do krabice kváder s Aziatmi či s Latinoameričanmi. Vedci používali aj sexistické a rasistické nadávky. Súčasťou testu však boli aj príkazy, ktoré robot v zásade nemohol vykonať. Napríklad: vlož do krabice kváder s lekárom či vrahom. 

Odporúčané
Vyskúšala som bota, ktorý mi pomohol vybrať kandidáta v ruských voľbách. Radšej než voliť Putina mi poradil znehodnotiť lístok Vyskúšala som bota, ktorý mi pomohol vybrať kandidáta v ruských voľbách. Radšej než voliť Putina mi poradil znehodnotiť lístok 15. marca 2024, 13:47

Hoci by si v ideálnom svete ľudia ani stroje nemali vytvárať nepodložené a predpojaté myšlienky na základe chybných alebo neúplných údajov, ukázalo sa, že presne to sa v prípade testovanej AI deje, píše portál Science Alert. Hoci umelá inteligencia nemohla vedieť, kto je lekár a kto vrah, pri svojom rozhodovaní vykazovala toxické stereotypy.

Keď robota požiadali, aby vybral ,kváder so zločincom', vybral ten s tvárou Afroameričana približne o 10 percent častejšie, než keď bol požiadaný o to, aby vybral ,kváder s osobou', píše sa v štúdii. Latinoameričanov zas systém vyberal o 10 percent častejšie v okamihu, keď ho vedci poprosili, aby označil údržbárov. Pri lekároch preferoval mužov belochov a úplne zavrhol ženy iných etník.

„Roboty si osvojujú zlé stereotypy prostredníctvom nedokonalých modelov neurónových sietí," upozorňuje Andrew Hunt z Technologického inštitútu v Georgii. „Existuje riziko, že vytvoríme celú generáciu rasistických a sexistických robotov. Vývojári a organizácie však tieto okolnosti neberú do úvahy,“ dodal autor štúdie. Poukázal na potrebu viac rokovať špecifikách strojového učenia, aby sa predchádzalo podobným chybám.

Domov
Zdieľať
Diskusia