Bývalá produktová manažerka Facebooku Frances Haugen vypovídala v úterý před americkým senátem ohledně praktik managementu společnosti upřednostňovat zisky před bezpečným prostředím.
Byla to právě ona, kdo loni v září dodal materiály pro následnou sérii investigativních článků deníku Wall Street Journal a také regulátorům. Předtím, než letos v květnu ze společnosti odešla, na interní sociální síti Facebook Workplace nasbírala řadu interních zpráv a výzkumů, pomocí nichž se nyní snaží poukázat na praktiky firmy, zejména toho, jak (ne)napravuje problémy na sociální síti. Facebook podle ní cíleně zesiluje dosah příspěvků, které jsou nenávistné, obsahují dezinformace nebo podněcují politické nepokoje. Dále práci s daty a rozsáhlých výzkumů chování uživatelů. A ve své výpovědi nabádala americký senát k tomu, aby jednal.
Vzhledem k obrovskému množství dat, které o svých uživatelích největší sociální síť světa má, je schopna díky algoritmům strojového učení vytvářet detailní datasety a cílit obsah či reklamu. A podle toho pak příspěvky, videa či reklamu podsune tomu, u koho je největší šance na odezvu a zapojení. A lidi tak nutí být stále u nějakého relevantního obsahu a trávit na síti čas. A sbírat tak další data a stejně jako se člověk postupně vyvíjí, díky zapojené umělé inteligenci se datasety také učí prakticky v reálném čase a postarají se, aby přísun relevantního a doporučovaného obsahu nikdy nezačal nudit.
Firmu obviňuje zejména z toho, jak má nastavené algoritmy pro doporučování obsahu, které podporují nenávist a konflikty, což přináší častější zapojení uživatelů. Algoritmus v tomto „doporučování” není nestranný. Odměňuje a dále propaguje zejména příspěvky, které generují negativní reakce. S částí nenávistných příspěvků chce Facebook podle dokumentů od Haugen cíleně pracovat a ne je potlačovat. Firma se prezentuje jako bojovník proti dezinformacím, v rámci interní komunikace s nimi ovšem pracuje jako s cenným zbožím.
Podle dokumentů, které zmínila Haugen, odstraňuje Facebook jen asi 3 až 5 procent nenávistného obsahu a pouze jedno procento obsahu, který vyloženě vyzývá k páchání násilí. Podle interních dokumentů, na které se Haugenová odvolává, si je Facebook velmi dobře vědom, že algoritmy tímto způsobem pomáhají k šíření dezinformací. Jak dále uvedla, s programy na jejich potírání Facebook skončil hned po volbách amerického prezidenta.
Podle ní je možné Facebook změnit, ale společnost tak nikdy neučiní sama a proto je třeba zasáhnout. „Kongres může změnit pravidla, podle kterých Facebook hraje a tím zastavit celou řadu škod, které působí. Přišla jsem sem veřejně a podstoupila riziko, protože věřím, že je stále čas zasáhnout, ale musíme tak učinit nyní,“ uvedla před Senátem v boji proti algoritmům a obsahu založeném na engagementu. Navrhla třeba chronologické řazení příspěvků v newsfeedu.