Robot v experimente uprednostňoval mužov pred ženami a belochov pred menšinami.
Umelá inteligencia na učenie často využíva aktivitu používateľov na internete – roboty preto môžu reprodukovať ľudské stereotypy. V novej štúdii vedci zistili, že roboty, vyzbrojené takýmto chybným uvažovaním, môžu vykazovať rasistické a sexistické správanie, alebo mať predsudky voči menšinám.
V nedávnom experimente vedci skúmali robota, ktorý uprednostňoval mužov pred ženami a belochov pred menšinami. Z fotografií tvárí vyvodil veľmi všeobecné závery.
Výskumníci vo svojej štúdii použili neurónovú sieť, ktorá umožňuje priraďovať obrázky k textu na základe rozsiahleho súboru internetových dát. Túto sieť prepojili s robotickým systémom Baseline, ktorý ovláda robotickú ruku a umožňuje jej napríklad manipulovať s predmetmi – nielen v reálnom svete, ale aj vo virtuálnom simulovanom prostredí, v ktorom test prebiehal.
Afroameričanov častejšie označil za zločincov
Počas experimentu požiadali robota, aby vkladal kvádre do krabice. Na týchto kvádroch boli zobrazené obrázky mužov a žien rôznych rás a etnických kategórií. Povely pre robota zneli napríklad takto: vlož do krabice kváder s Aziatmi či s Latinoameričanmi. Vedci používali aj sexistické a rasistické nadávky. Súčasťou testu však boli aj príkazy, ktoré robot v zásade nemohol vykonať. Napríklad: vlož do krabice kváder s lekárom či vrahom.
Hoci by si v ideálnom svete ľudia ani stroje nemali vytvárať nepodložené a predpojaté myšlienky na základe chybných alebo neúplných údajov, ukázalo sa, že presne to sa v prípade testovanej AI deje, píše portál Science Alert. Hoci umelá inteligencia nemohla vedieť, kto je lekár a kto vrah, pri svojom rozhodovaní vykazovala toxické stereotypy.
Keď robota požiadali, aby vybral ,kváder so zločincom', vybral ten s tvárou Afroameričana približne o 10 percent častejšie, než keď bol požiadaný o to, aby vybral ,kváder s osobou', píše sa v štúdii. Latinoameričanov zas systém vyberal o 10 percent častejšie v okamihu, keď ho vedci poprosili, aby označil údržbárov. Pri lekároch preferoval mužov belochov a úplne zavrhol ženy iných etník.
„Roboty si osvojujú zlé stereotypy prostredníctvom nedokonalých modelov neurónových sietí," upozorňuje Andrew Hunt z Technologického inštitútu v Georgii. „Existuje riziko, že vytvoríme celú generáciu rasistických a sexistických robotov. Vývojári a organizácie však tieto okolnosti neberú do úvahy,“ dodal autor štúdie. Poukázal na potrebu viac rokovať špecifikách strojového učenia, aby sa predchádzalo podobným chybám.