Niekoľko ľudí, ktorí pozerali video s černochmi ako účinkujúcimi, dostalo návrh „pozrieť si ďalšie videá o primátoch“.
Facebook využíva umelú inteligenciu na množstvo vecí v rámci sociálnej siete. Jednou z nich je aj navrhovanie videí na základe toho, čo sleduješ: buď to máš lajknuté, alebo často s podobným obsahom interaguješ (reakcie, komentáre, zdieľania), a preto si Facebook myslí, že sa chceš o téme dozvedieť viac. Tentoraz však AI urobila enormnú chybu, za ktorú si firma vyslúžila vlnu nenávistných komentárov, informuje BBC.
Chceš si pozrieť ďalšie videá o primátoch?
Chybne totiž označila černochov ako opice. Niekoľko ľudí, ktorí pozerali video s černochmi ako účinkujúcimi, dostalo návrh „pozrieť si ďalšie videá o primátoch“. Zástupcovia Facebooku pre BBC priznali, že ide o „zjavne neprípustnú chybu“. Systém navrhovania nateraz vypli a spustili vyšetrovanie s cieľom chybu opraviť.
Um. This “keep seeing” prompt is unacceptable, @Facebook. And despite the video being more than a year old, a friend got this prompt yesterday. Friends at FB, please escalate. This is egregious. pic.twitter.com/vEHdnvF8ui
— Darci Groves (@tweetsbydarci) September 2, 2021
„Celú možnosť odporúčania tém sme vypli, hneď ako sme si uvedomili, čo sa deje, aby sme mohli nájsť dôvod a predísť tomu, aby sa to v budúcnosti zopakovalo.“ Povedali aj, že AI nie je dokonalá a snažia sa ju neustále zlepšovať.