YouTube's Crackdown on QAnon nie działa

Skrajnie prawicowa grupa QAnon przyciągnęła w ostatnich tygodniach uwagę opinii publicznej ze względu na jej zdolność do manewrowania platformami mediów społecznościowych w celu rozpowszechniania dezinformacji i przyciągania uwagi wirusów do swoich teorii spiskowych.

Platformy mediów społecznościowych, takie jak Twitter i TikTok, podjęły działania przeciwko grupie po tym, jak długo obalane teorie spiskowe, takie jak #PizzaGate, zyskały nową uwagę, blokując konta i wyłączając popularne hashtagi z wyświetlania w wynikach wyszukiwania. Chociaż obie platformy okazały się podatnym gruntem dla grupy, QAnon od lat rozwija się na YouTube - pomimo inwestycji firmy w jej moderowanie.

Teraz platforma wideo próbuje powstrzymać pojawianie się filmów QAnon w rekomendacjach użytkowników, ale test Digital Trends wykazał, że filmy z teorii spiskowych nadal pojawiają się w widocznych miejscach na stronie głównej YouTube.

Wspierający QAnon z flagą Q. Scott Olson / Getty Images

Zwolennicy QAnon wierzą w wiele obalonych teorii spiskowych, które powstały na tablicach graficznych 4chan i 8chan pod koniec 2016 roku. Grupa uważa, że ​​postać o imieniu „Q”, która twierdzi, że jest częścią administracji Trumpa, publikuje depesze dotyczące wojny prezydenta Donalda Trumpa przeciwko spisku „głębokiego stanu”. Grupa odnotowała znaczny wzrost na YouTube od 2016 roku, ponieważ algorytm oparty na zaangażowaniu promuje filmy QAnon.

„QAnon początkowo zyskał popularność na YouTube” - powiedział Will Partin, analityk z Data & Society Research Institute, który bada grupę od 2017 roku. „Został przejęty przez YouTuberów, którzy naprawdę dali konspirację. , naprawdę go rozpowszechniłem i połączyłem go z innymi rzeczami, które były już w powietrzu ”wśród konserwatystów.

„Nie możesz powstrzymać kogoś przed aktywnym poszukiwaniem”

Dzięki naturze samego YouTube, platforma okazała się głównym miejscem, w którym kwitły długie formy pseudodokumentów i talk show, które rozszyfrowują wskazówki lub „okruchy chleba” upuszczane przez „Q”. Osoby zainteresowane teoriami QAnon mogą z łatwością znaleźć innych użytkowników polecających dodatkowe filmy w sekcji komentarzy lub za pośrednictwem algorytmów rekomendacji YouTube - funkcja, która została ostrzelana przez krytyków jako łatwy sposób na „radykalizację” widzów.

Ale teraz, jeśli wpiszesz „QAnon” w pasku wyszukiwania YouTube, Twój ekran „w widocznym miejscu pokaże wiarygodne źródła”, takie jak organizacje informacyjne i eksperci - część planu YouTube mającego na celu podniesienie faktycznych treści w celu zwalczania dezinformacji. YouTube zaczął również udostępniać pola tekstowe i panele informacyjne z linkami do źródeł zewnętrznych. Firma Digital Trends stwierdziła, że ​​YouTube udostępnia link do artykułu w Wikipedii o QAnon pod powiązanymi filmami.

youtube

YouTube powiedział, że odkąd wprowadził nowe zasady moderowania treści w styczniu, odnotował 70% spadek liczby wyświetleń treści QAnon uzyskiwanych z rekomendacji wideo. Ponieważ YouTube jest platformą wideo, a nie serwisem społecznościowym, moderacja odbywa się na zasadzie wideo-wideo, a nie konta. Według rzecznika YouTube, systemy platformy zostały dostosowane tak, aby obniżyć ranking treści QAnon na pasku bocznym rekomendacji, nawet jeśli oglądasz podobne filmy.

Jednak firma Digital Trends odkryła, że ​​po obejrzeniu na platformie pół tuzina filmów związanych z QAnon, YouTube zawierał co najmniej trzy filmy z konspiracjami związanymi z QAnon w zakładce „All Recommendations” na stronie głównej. Jeden z zalecanych filmów wspomniał o spisku otaczającym związek chemiczny Adrenochrome - szeroko rozpowszechniony w grupach QAnon jako pozyskany przez elitarne osobistości z Hollywood poprzez zabijanie dzieci - i miał ponad milion wyświetleń.

Przedstawiciel YouTube odmówił komentarza dla tej historii.

Według Partina sposób, w jaki treści QAnon są wyświetlane w YouTube, nie jest oparty na filmach polecanych użytkownikom, ale na treści samych filmów związanych z QAnon. Osoby mające wpływ na QAnon często krzyczą o innym w filmie lub kierują widzów na inne strony, niezależnie od tego, jak YouTube moderuje tagi lub filmy QAnon. Jednak Partin powiedział, że istnieją pewne tagi QAnon, które są tak niejasne, że YouTube nie jest w stanie wypełnić wyników wyszukiwania rzeczywistą treścią z renomowanych źródeł.

„W tym momencie nie możesz tego ukryć algorytmicznie, nie możesz powstrzymać kogoś przed aktywnym poszukiwaniem” - powiedział.

Partin powiedział, że kiedyś YouTube był „kluczowym miejscem”, w którym użytkownik mógł zapoznać się z treściami związanymi z QAnon, ale teraz większość rekrutacji odbywa się na Facebooku - gdzie prywatne grupy QAnon mogą rozrosnąć się do setek tysięcy i są szczególnie trudne do moderowania.

Facebook podobno planuje zrobić podobny krok w celu moderowania grupy, według The New York Times, podążając śladami Twittera i TikTok.

„Kiedy platformy przenoszą się, by zakazać QAnon, często robią to wszystko w tym samym czasie, aby mieć siłę liczebną” - powiedział Partin. „Ale naprawdę trudno jest stworzyć politykę dotyczącą QAnon, ponieważ wiele z nich to zwykłe, konserwatywne elektoraty”.

Partin powiedział, że jedyną rzeczą, którą ma nadzieję, że ludzie rozumieją niebezpieczeństwa związane z treściami niezwiązanymi z QA w mediach społecznościowych, nie jest to, jak szeroko i głęboko wierzy się w ich spiski, ale ryzyko związane z samym naciśnięciem przycisku „udostępnij”.

„Nie można poznać czyichś intencji, ale intencja nie ma większego znaczenia” - powiedział. „Nie obchodzi mnie, czy w to wierzą, czy nie, zachowują się tak, jak robią, i rozpowszechniają te treści i wiarę, niezależnie od intencji za tym stojących”.