INNPoland_avatar

Facebook miał buga. Przez pół roku wrzucał ci na ścianę fake newsy i dezinformację

Natalia Gorzelnik

01 kwietnia 2022, 12:42 · 3 minuty czytania
Z powodu błędu w systemie przez pół roku Facebook – zamiast blokować fake newsy – miał zwiększać liczbę ich wyświetleń. I to pokaźnie.


Facebook miał buga. Przez pół roku wrzucał ci na ścianę fake newsy i dezinformację

Natalia Gorzelnik
01 kwietnia 2022, 12:42 • 1 minuta czytania
Z powodu błędu w systemie przez pół roku Facebook – zamiast blokować fake newsy – miał zwiększać liczbę ich wyświetleń. I to pokaźnie.
W algorytmy Facebooka miał zakraść się poważny błąd. Fot: 123rf
Więcej ciekawych artykułów znajdziesz na stronie głównej

Obserwuj INNPoland w Wiadomościach Google

O tym, że Facebook będzie prowadził walkę z dezinformacją, Mark Zuckerberg mówił już w 2019 roku. Po ubiegłorocznej aferze z zeznaniami sygnalistki Frances Haugen, które ujawniły m.in. to, że Meta nie robi zbyt wiele ze szkodliwymi treściami w swoim serwisie, wzięto się za jeszcze poważniejsze sprzątanie. Najwyraźniej nie poszło jednak zbyt dobrze. Jak wynika z doniesień zagranicznych mediów – z powodu buga w systemie, Facebook zamiast blokować fake newsy – zwiększał ich liczbę wyświetleń. O około 30 procent.


Wewnętrzny raport Facebooka

Do wewnętrznego raportu przygotowanego przez grupę inżynierów Facebooka dotarł serwis The Verge. Jak informuje, zidentyfikowano "poważną awarię” algorytmu (systemu rankingowego) służącego do selekcjonowania treści wyświetlanych użytkownikom w News Feedzie (na ścianie). Awaria miała narazić aż połowę wszystkich wyświetleń na potencjalne "ryzyko integralności”. Innymi słowy – system miał zadziałać odwrotnie niż powinien.

Jak działa algorytm? Jak tłumaczy Meta, spółka wykorzystuje zaawansowane uczenie maszynowe, aby przewidzieć, które treści będą miały największe znaczenie dla poszczególnych użytkowników – by zapewnić bardziej angażujące i pozytywne wrażenia.

Bez uczenia maszynowego News Feedy użytkowników Facebooka mogłyby być zalewane treściami, które nie są dla nich istotne lub interesujące. Chodzi o m.in. treści nadmiernie promocyjne lub posty tych znajomych, którzy – po prostu – publikują najczęściej. Mogłyby "zakopać" treści od osób, z którymi faktycznie są najbliżej i które interesują ich najbardziej. engineering.fb.com

Kolejnym zadaniem algorytmów miało być tłumienie tych treści, które – potencjalnie – mogłyby być szkodliwe lub wprowadzać w błąd. Problem w tym, że przez błąd w systemie, ten sam algorytm miał sprawiać, że użytkownicy Facebooka byli zalewani... dezinformacją.

Jak donosi The Verge, inżynierowie po raz pierwszy zauważyli ten problem w październiku ubiegłego roku. Zamiast tłumić konta osób wielokrotnie oskarżanych (i potwierdzonych przez zewnętrznych weryfikatorów treści) o sianie dezinformacji, News Feed zapewniał szeroką promocję ich postów, zwiększając ich globalną liczbę wyświetleń aż o 30 procent. Problem miał zostać naprawiony dopiero 11 marca.

W tym przypadku Meta zapewniła, że błąd nie wpłynął na zdolność firmy do usuwania treści, które wyraźnie naruszały jej zasady.

The Verge donosi jednak, że miały pojawiać się również problemy z odpowiednim degradowaniem treści związanych z nagością czy przemocą. Zgodnie z rewelacjami serwisu, nie powiodło się nawet tłumienie rosyjskich mediów państwowych, które Meta – w odpowiedzi na inwazję na Ukrainę – obiecywała przestać polecać.

Rzecznik Meta, Joe Osborne, w oświadczeniu dla portalu potwierdził wystąpienie incydentu. Jak przekazał, "firma wykryła niespójności w downrankingu (obniżaniu zasięgów – przyp.red.) w pięciu odrębnych przypadkach, co korelowało z niewielkim, tymczasowym wzrostem wskaźników wewnętrznych”. Jak przekazał, firma prześledziła główną przyczynę błędu i zastosowała niezbędne poprawki. Joe Osborne zapewnił również, że bug nie miał znaczącego, długoterminowego wpływu na portal.

Obcinanie zasięgów

Downranking miał być procedurą służącą do tłumienia treści oznaczanych jako "graniczne" – takie, które zbliżają się do naruszania zasad serwisu, a także wymagające dalszej weryfikacji przez człowieka. Serwis chwali się tym, że jego systemy sztucznej inteligencji z roku na rok są coraz lepsze w proaktywnym wykrywaniu szkodliwych treści. Tym samym podkreśla, że kładzie coraz większy nacisk na technologię jako sposób na moderację treści na dużą skalę.

Według Sahara Massachiego, byłego członka zespołu ds. Integralności Obywatelskiej Facebooka, incydent pokazuje, że sama platforma, jak i algorytmy, z których korzysta – potrzebują większej przejrzystości.

– W tak dużym, złożonym systemie, jak ten, błędy są nieuniknione i zrozumiałe – powiedział The Verge – Ale zwróćmy uwagę na to, co się dzieje, gdy taki błąd ma platforma tak potężna jak Facebook. Potrzebujemy prawdziwej przejrzystości, aby zbudować zrównoważony system wspólnej odpowiedzialności. Abyśmy wszyscy mogli pomóc im szybko wykrywać te problemy.

Czytaj także: https://innpoland.pl/175565,akcje-meta-facebooka-20-proc-w-dol