Dark mode switch icon Light mode switch icon

Meta w Mjanmie, część IV: Łączność za wszelką cenę

ok. 9300 słów

Uwaga: To jest tłumaczenie artykułu napisane za zgodą osoby, która opublikowała oryginał. Link do oryginalnej treści znajdziesz poniżej.

Disclaimer: This is a Polish translation of the article linked below, written with consent of its original author.

Meta in Myanmar, Part IV: Only Connect,
Erin Kissane

Raport Rady Atlantyckiej na temat nadchodzących wyzwań związanych ze skalowaniem zaufania i bezpieczeństwa w internecie rozpoczyna się od następującego stwierdzenia:

To, co dzieje się offline, wydarzy się również online.

Uważam, że powyższe stwierdzenie jest prawdziwe także na odwrót: to, co dzieje się online, wydarzy się również offline.

Nasze sieci nie tworzą zagrożeń, lecz wyciągają je na światło dzienne, nagłaśniają, wzmacniają i pogarszają, co ułatwia destabilizowanie społeczności i niszczenie ludzkich żyć. Im ściślej internet wplata się w nasze życia i społeczności, tym jego efekty są mocniej odczuwalne.

W ten sposób nasze sieci – a w szczególności ludzie najbardziej narażeni i najrzadziej wysłuchiwani – stanowią ogromny poligon doświadczalny do badań ‘Gain of Function’ prowadzonych przez złośliwe podmioty.

Jak wskazują trzy poprzednie artykuły z tej serii, nie trzeba być online, aby doświadczyć krzywd wywołanych przez internet. Nie mamy możliwości wypisania się, kiedy przemoc napędzana przez internet przetacza się przez wsie, niszcząc je i traumatyzując lub pozbawiając życia ich mieszkańców. A im dalej jest się od centrów władzy branży technologicznej – geograficznie, demograficznie, kulturalnie – tym mniej prawdopodobne jest, że główne siły społecznościowego internetu zrobią cokolwiek w celu przewidzenia, zapobiegania lub prób naprawienia szkód wyrządzanych przez ich produkty.

Myślę, że warto mieć to w centrum uwagi przy podejmowaniu prób naprawiania wszystkiego innego.

W poprzednich 30 tysiącach słów tej serii podjęłam próbę szczegółowego wypunktowania znanych faktów na temat doświadczeń Mjanmy z firmą Meta. Pod koniec części II postawiłam następujące argumenty:

  1. Meta kupiła i wmanewrowała się w centrum życia online Mjanmy, a następnie zajęła to stanowisko z lekkomyślnością głuchą na ostrzeżenia ze strony zachodnich głosów technologicznych, dziennikarzy i ludzi ze wszystkich sfer birmańskiego społeczeństwa (to jest większość części 1).
  2. W następstwie przemocy w 2012 r. reakcja Mety w zakresie moderacji treści była tak żałosna, że mogłaby być przedmiotem żartów, gdyby nie skutki śmiertelne (omówione w cześci I oraz części II).
  3. Za pośrednictwem algorytmów rekomendacji i programów zachęt finansowych Meta zrujnowała nową i kruchą sferę informacyjną Mjanmy i zamieniła tysiące metodycznie zaprószonych iskier w miotacze ognia (omówione w części II i części III)
  4. Pomimo wiedzy o istnieniu podobnych tajnych kampanii wpływowych opartych o „nieautentyczne zachowania” – tj. fałszywe polubienia, komentarze i strony – Meta pozwoliła ogromnej i niezwykle wpływowej tajnej operacji wpływu rozwijać się na birmańskojęzycznym Facebooku w okresie poprzedzającym szczytowy okres czystek etnicznych w 2016 i 2017 roku i później (część III).

Wciąż tak uważam. Ale w wielu punktach tej historii diabeł tkwi w szczegółach i publiczne wypunktowanie przynajmniej części z tych szczegółów było intencją tej długiej pracy.

Zbliżając się do końca pojawia się pokusa, aby spróbować złożyć listę konkretnych wykonalnych czynności przeciwko Mecie i mieć temat z głowy, ale nic nie jest proste ani w tej historii, ani w tym, czego się dowiedziałam w trakcie moich prac nad nią. Zamiast tego spróbuję naświetlić niektóre oblicza każdego z problemów, zasugerować pewne kierunki jego rozwiązania, a następnie przejść do kolejnego.

Pokusa rozpoczęcia od nowa

Po pierwszym miesiącu badań nad rolą Mety w Mjanmie byłam pochłonięta pracą i wstrząśnięta okropnością rzeczy, o których się dowiadywałam, oraz tak prawdę mówiąc – żarliwie wkurzona na kadrę zarządzającą Mety. Ale jakiś czas później, po przeczytaniu wpisów Faine Greenwood oraz pierwszej od 2016 r. ponownej lekturze eseju Craiga Moda zaczęłam się bać z powodów, których nie jestem w stanie wskazać. Ten lęk potrafił wyrywać mnie ze snu o trzeciej nad ranem.

Na początku myślałam, że byłam po prostu zmartwiona tym, że rozwijające się nowe platformy i sieci będą również podatne na zorganizowane nadużycia, których doświadczyła Mjanma. Jestem tym faktycznie zmartwiona i wyjaśnię to szczegółowo w dalszej części tego artykułu. Ale to nie o to chodziło.

Esej Craiga o jego pracy w terenie z rolnikami w Mjanmie uchwycił coś namacalnego odnośnie ekscytujących możliwości związanych z rozpoczynaniem od nowa:

Praca w miejscach takich jak to przynosi niepohamowane i wyraźne poczucie wolności. Zatruwa ono umysły tym konsultantom. Widziałeś i żyłeś w przyszłości i wierzysz – musisz wierzyć – że jesteś w stanie pomóc przynieść tutaj jej lepszą wersję. Miejsca takie jak Mjanma są niczym możliwość powtórzenia spudłowanego rzutu karnego. To szansa na uczynienie rzeczy takimi, jakimi nie mogliśmy lub już nie możemy uczynić w naszych obciążonych biurokracją strukturach w kraju.

To brzmi znajomo nie tylko dlatego, że pamiętam moje przejawy optymizmu związane z wczesnym internetem, z perspektywy roku 2016 bardzo dalekosiężne. Również dlatego, że rozpoznaję tam bardziej znajome uczucie, które pojawiło się w powietrzu ostatniej jesieni, gdy węzły sieciowe Mastodona wyraźnie zatętniły życiem.

Od 2018 r. pozostawałam z daleka od mediów społecznościowych ze specjalnym wyjątkiem dla pracy przy danych na temat COVID-19 w 2020 i 2021 r. Jednak jesienią i zimą 2022 r. potencjał fediwersum dał o sobie znać w stopniu, jakiego nie miałam okazji widzieć przy moich poprzednich podejściach w 2017 i 2018 r. Jeżeli kiedykolwiek dane Ci było być w pomieszczeniu, w którym dzieje się coś ważnego, już zawsze rozpoznasz to uczucie. Tamtej jesieni naprawdę czuć było w powietrzu, że ogromne połacie statusu quo zostały naruszone i nagle zrobiły się plastyczne.

Uważam także, że okno na znaczące zmiany w naszych sieciach nie otwiera się wcale tak często oraz nie pozostaje otwarte na długo.

Więc jak przystało na szanującą się ćmę, kiedy zobaczyłam co dzieje się na Mastodonie, rzuciłam wszystko i poleciałam prosto w stronę jaskrawego światła. Od tamtej pory nie przestawałam myśleć i pisać na ten temat.

Następnie zasiadłam do projektu związanego z Mjanmą. Nim dotarłam do końca badań, rozpoznawałam samą siebie w opowieściach entuzjastów technologii na początku historii internetu w Mjanmie, spragnionych nadziei na szansę ucieczki od trudności i rozczarowań przyniesionych przez niedawną przeszłość.

Nie zrozum mnie źle: nie ma nic złego w poczuciu nadziei i optymizmu w związku z nowymi rzeczami tak długo, jak długo nie bronisz tego uczucia poprzez odrzucenie możliwości, że te same rzeczy, które napełniają Cię nadzieją, mogą także stać się bronią (a mówiąc bardziej realistycznie: staną się bronią, jeżeli uda Ci się przyciągnąć ogromną rzeszę ludzi, a w tym samym czasie zaniedbasz naukę i zdobywanie doświadczeń przy utrzymywaniu pokoju).

Wielu ludzi pisało i mówiło o niesłychanej naiwności Birmańczyków używających Facebooka, jak to sami się narażali na krzywdy, ale ja uważam, że sama firma Meta też wykazała się niebezpieczną naiwnością – i dołożyła ogromnych starań, aby pozostało tak jak najdłużej. I wciąż zachowują się jak zafascynowany technologią naiwny dzieciak, który chce tylko czynić dobro.

Ale żeby było jasne – to tylko teatrzyk. Oni wiedzą. W Mecie jest grupa dobrych ludzi, którzy pracują ostatkiem sił, ale firma wciąż odprawia PR-owe tańce podczas gdy ludzie cierpią w Etiopii, Indiach oraz (w dalszym ciągu) w Mjanmie.

Kiedy po raz pierwszy zdałam sobie sprawę, jak złe były działania Mety w Mjanmie, uznałam za priorytet spróbować połączyć wszystkie wątki w sposób, który mógłby być przydatny dla moich kolegów i współpracowników, którzy na różne sposoby próbują uczynić świat lepszym poprzez tworzenie lepszego internetu. Pomyślałam, że zakończę słowami: „Zobaczcie, oto co Meta zrobiła w Mjanmie, więc przenieśmy kurwa wszystkich z serwisów Mety w lepsze i bezpieczniejsze miejsca”.

Znalazłam się w jeszcze bardziej skomplikowanym miejscu. Choć nadal uważam, że Meta to koszmar, to jednak nie jestem pewna, czy istnieją trwałe lepsze miejsca, do których zdecydowana większość ludzi mogłaby się udać. Jeszcze nie. Nie bez włożenia o wiele większego wysiłku.

Wszyscy już przeżywamy serię toczących się apokalips, lokalnych lub nie. Wielu z nas na Zachodzie nie doświadczyło jeszcze ich w pełnej krasie – doświadczamy dymu z pożarów, upału, rosnącej fali autorytaryzmu i wycofywania należnych nam praw. Niektórzy z nas musieli uciekać. Większość z nas nie straciła jeszcze domu ani życia. Niemniej jednak ta rzeczywistość wpływa na naszą potencjalną przyszłość. Urodziłam się przy około 330 PPM. Moja córka urodziła się przy prawie 400 PPM.

Internet w Mjanmie narodził się kilka sekund przed północą. Nasze nowe platformy i narzędzia do globalnego łączenia się narodziły się w momencie, kiedy najgorsi i najpotężniejsi źli aktorzy, zarówno polityczni, jak i komercyjni, są już w stanie wykorzystać każdą lukę.

Nie mamy drugiej planety, na której moglibyśmy zacząć od nowa. Nie dostaniemy szansy na zbudowanie drugiej lepszej sieci.

Zamiast tego musimy pracować z internetem, który stworzyliśmy i znaleźć sposób na jego odbudowę i wzmocnienie, aby móc oprzeć na nim znacznie większe projekty naprawcze – polityczne, kulturalne, środowiskowe – które są niezbędne dla naszego przetrwania.

Myślę, że to całkiem poważna stawka. W przeciwnym razie poświęcałabym czas na coś innego.

Czego potrzebujemy, aby było „lepiej”

Długo zastanawiałam się, jak omówić to we właściwy sposób i w jakim stopniu mogę opierać się na własnych opiniach, a w jakim stopniu na głosach organizacji społeczeństwa obywatelskiego Mjanmy oraz opiniach sygnalistów i ekspertów ds. zaufania i bezpieczeństwa.

Skończyło się na tym samym podejściu do tego artykułu, co w przypadku trzech poprzednich – polegającym na syntetyzowaniu i łączeniu informacji od osób dysponujących bardzo specjalistyczną wiedzą i tylko okazjonalnym czerpaniu z własnego doświadczenia i pracy.

Jeśli nie interesują Cię zdecentralizowane i federacyjne sieci społecznościowe, prawdopodobnie zechcesz pominąć kilka kolejnych sekcji.

Jeśli wolisz przejść od razu do głównych źródeł, oto one:

Uwagi i zalecenia osób, które przebywały w Mjanmie i nadal walczą z problemami, przed którymi stoi ten kraj:

Dwa dokumenty dotyczące zagrożeń na dużą skalę. Skoncentrowany na federacji „Załącznik Piąty” dużego raportu Rady Atlantyckiej, „Scaling Trust on the Web”. Warto uważnie przeczytać cały raport, a ten załącznik wydaje mi się kluczowy, choć nie z każdym słowem się zgadzam.

Dołączam także dogłębną pracę Camille François z 2019 r. na temat zagrożeń dezinformacyjnych, ponieważ omawia ona ważne kwestie.

Trzy dogłębne analizy z udziałem sygnalistek z Facebooka.

…a jeśli nie – oto co mnie niepokoi.

1. Wrogowie podążają za stadem

Patrząc realnie, mnóstwo ludzi pozostanie na scentralizowanych platformach, a te nadal będą walczyć z bardzo wielkoskalowymi przeciwnikami (i realistycznie rzecz ujmując, sieci te będą ignorować tak dużo, jak tylko mogą, tak długo, jak to możliwe – co w szczególności oznacza, że poza Stanami Zjednoczonymi i Europą Zachodnią będą ignorować wiele szkód, dopóki nie zostaną uregulowane lub zagrożone regulacjami. Zwłaszcza firmy takie jak Google/YouTube, których współudział w sytuacjach takich jak ta w Mjanmie został częściowo przeoczony, ponieważ przykład Mety jest tak rażący).

Jednak wiele osób próbuje także nowych sieci, a za nimi będzie podążać coraz większa liczba spamerów, oszustów i trolli. Podobnie uczynią znacznie bardziej wyrafinowane jednostki – a także organizacje na poziomie profesjonalnym – zajmujące się manipulowaniem opiniami; kierowaniem, atakowaniem i dyskredytowaniem osób i organizacji; dystrybucją ultra szkodliwych materiałów; a także sianiem podziały wśród swoich własnych wrogów. I nie są to ludzie, których odstraszą niedogodności.

W swoim niezwykle pouczającym wywiadzie w podcaście Brown Bag prowadzonym przez Fundację ICT4Peace badaczka z Mjanmy Victoire Rio wspomina o dwóch rzeczach, które moim zdaniem są istotne dla tego aspektu problemu. Po pierwsze, gdy po zamachu stanu ruch oporu Mjanmy przeniósł się ze względów bezpieczeństwa z Facebooka na Telegrama, junta poszła w jego ślady i zaczęła używać Telegrama jako narzędzia do ataków na społeczności, co doprowadziło do setek aresztowań – Rio używa terminu „gestapo na sterydach”.

Tutaj dochodzimy do kolejnej kwestii, która jest powszechnie rozumiana w kręgach zaufania i bezpieczeństwa na poziomie przemysłowym, ale moim zdaniem w mniejszym stopniu w nowszych sieciach, które zazwyczaj miały do czynienia z przeciwnikami starej daty — zwykłymi oszustami i spamerami, dystrybutorami nielegalnych i okropnych treści oraz najróżniejszymi nazistami-amatorami i trollami — a jest nią to, że chociaż te błahe i mniej wyrafinowane szkody są wciąż całkiem poważne, to jednak bardziej złożone zagrożenia, które są powszechne na dużych, scentralizowanych platformach, są znacznie trudniejsze do zidentyfikowania i wykorzenienia. A jeśli ludzie zarządzający nowymi sieciami nie zdadzą sobie sprawy, że to, co widzimy teraz, to zaledwie początki, może się okazać, że zostaną daleko w tyle, gdy na horyzoncie pojawią się lepiej zorganizowani przeciwnicy.

2. Współcześni wrogowie mają mnóstwo zasobów i czasu

Mjanma liczy około 51 milionów ludzi. Wiele lat przed zamachem stanu miała już wewnętrznego wroga w postaci wojska, które prowadziło profesjonalną, wyćwiczoną w Rosji operację propagandy i oszustwa w internecie rękami nawet 700 osób pracujących na zmiany w celu manipulowania krajobrazem online i wyciszania przeciwnych punktów widzenia. Trudno oczekiwać, że ta siła mogła osłabnąć teraz, gdy ludobójcy doszli do władzy.

Wrogie działania Rosji sięgają znacznie głębiej i nie ograniczają się do dobrze znanej, rzekomo już nieistniejącej Agencji Badań Internetowych.

I chociaż Rosja jest najbardziej znanym przeciwnikiem w większości rozmów, w których brałam udział w USA i Europie Zachodniej, nie jest bynajmniej jedynym. Oto badaczka dezinformacji i praw cyfrowych Camille François ostrzegająca przed kojarzeniem dezinformacji w internecie z „rosyjskim podręcznikiem”:

Rosja nie jest najważniejszym, ani jedynym aktorem stosującym zachowania manipulacyjne w mediach społecznościowych. W takim ujęciu ignoruje się fakt, że inne podmioty obficie stosowały te techniki, nierzadko wcześniej niż Rosja. Na przykład irański nadawca (IRIB) utrzymuje rozległą sieć fałszywych kont podszywających się pod dziennikarzy i aktywistów, aby wzmacniać swoje poglądy na amerykańskich platformach mediów społecznościowych i robi to co najmniej od 2012 roku.

Co więcej, praca tego rodzaju nie jest wyłączną domeną rządów. Na całym świecie rozrasta się rozległy rynek manipulacji na zamówienie, począwszy od indyjskich firm public relations prowadzących fałszywe strony gazet w celu zabezpieczania interesów Kataru przed Mistrzostwami Świata w Piłce Nożnej aż po izraelskie grupy lobbingowe prowadzące kampanie wywierania wpływu za pomocą fałszywych stron skierowanych do odbiorców w Afryce.

To wszystko pokrywa się z tym, co Sophie Zhang mówiła o sieciach fałszywych stron na Facebooku w 2019 r. — są one zjawiskiem prawdziwie globalnym, większym, potężniejszym i bardziej zróżnicowanym niż większość ludzi podejrzewa, zarówno pod względem zamiarów, jak i taktyki.

Myślę, że łatwo sobie wyobrazić, że te poważne zagrożenia skupiają się tylko na dużych, scentralizowanych usługach, ale dogłębna analiza tylko jednej operacji, Secondary Infektion, pokazuje, że działała ona na co najmniej 300 stronach internetowych i platformach, począwszy od Facebooka, Reddita i YouTube (a także WordPress, Medium i Quora) do dosłownie setek innych stron i forów.

Przeciwnicy ci będą wykorzystywać zdecentralizowane sieci społecznościowe. Wiara w inny obrót przypadków wymaga naiwności, którą – mam nadzieję – uznamy za niebezpieczną.

3. Zero algorytmów ≠ zero problemów

Sieci oparte o federację takie jak Mastodon, które jak ognia unikają wspomagania algorytmami, oferują mniej zachęt dla niektórych rodzajów wrogich podmiotów – i to jest bardzo dobra wiadomość. Ale mniej nie znaczy zero.

Oto, co Lai i Roth mają do powiedzenia na temat sieci pozbawionych wbudowanych powierzchni rekomendacji opartych o algorytmy:

Brak rekomendacji algorytmicznych oznacza, że powierzchnia ataku w przypadku nieautentycznego zaangażowania i manipulacji behawioralnej jest mniejsza. Chociaż Mastodon wprowadził swoją wersję listy „popularnych tematów” – prawdziwego pola bitwy kampanii manipulacyjnych na Twitterze, w którym poszczególne wpisy i zachowania są agregowane w ramach widocznego ogólnoplatformowego elementu przyciągającego uwagę – takie funkcje zwykle opierają się na agregacji lokalnych (a nie globalnych lub stowarzyszonych) aktywności, co w dużej mierze eliminuje zachętę do angażowania się w spam na dużą skalę. Tak naprawdę nie ma sensu próbować wyciskać wskaźników z wpisu na Mastodonie lub spamować hasztagiem, ponieważ nie ma za to algorytmicznej nagrody w postaci uwagi (…)

Te czynniki zniechęcające do manipulacji mają jednak swoje ograniczenia. Niektóre z najskuteczniejszych kampanii dezinformacyjnych w mediach społecznościowych, takie jak wykorzystywanie fałszywych kont przez IRA, w mniejszym stopniu opierały się na spamie, a w większym na starannym utrzymywaniu konkretnych profili o „wysokiej wartości” – przy czym absorpcja ich treści wynikała raczej z organicznych udostępnień aniżeli wzmocnienia algorytmicznego. Dezinformacja jest w równym stopniu problemem społeczności, jak i problemem technologicznym (tj. ludzie dzielą się treściami, które ich interesują lub wzbudzają w nich emocje, a treści te bywają czasem produkowane przez farmy trolli), którego nie można złagodzić jedynie poprzez wyeliminowanie wiralowych zachęt algorytmicznych.

Dowiedziawszy się cholernie szczegółowo o tym, jak dokładnie maszyna akceleracyjna Mety poradziła sobie ze wszystkimi próbami osłabienia niepożądanych rezultatów, obudziło się we mnie pragnienie traktowania algorytmicznej wiralowości niczym źródła energii jądrowej: może w pewnych okolicznościach przynosi korzyści, ale jeśli nie jesteśmy gotowi na pracę nad zapobieganiem szkód na skalę przemysłową zamiast okazjonalnego sprzątania na pół gwizdka, to może kurwa nie powinniśmy z tym zadzierać.

Ale oczywiście my już to robimy. Lemmy używa algorytmicznych rekomendacji. Bluesky udostępnia możliwe do subskrybowania kanały tworzone przez użytkowników, które nie są tak nieprzejrzyste i monolityczne jak np. na Facebooku, ale wciąż wykorzystują dynamikę sieci, a platforma jeszcze nawet nie uruchomiła federacji [Bluesky uruchomił federację w ramach wczesnego dostępu w lutym 2024 r., tj. cztery miesiące po publikacji oryginalnej wersji tego artykułu – przyp. tłum.].

Myślę, że otwartym pytaniem jest, w jakim stopniu w pełni przejrzyste, kontrolowane przez użytkowników kanały algorytmiczne z możliwością subskrybowania zmniejszają ryzyko szkód wyrządzanych przez systemy rekomendacji. Myślę, że patrzę na protokół AT bardziej przychylnym okiem niż jakieś 90% zwolenników fediwersum – co oznacza, że ​​jestem neutralna i wydaje mi się, że jest prawdopodobnie za wcześnie na wyciąganie wniosków. Jednak skłamałabym, gdybym powiedziała, że nie denerwuję się na myśl o tym, co się stanie, gdy ludzie stojący za wielkoskalowymi sieciami tajnego wpływu zabiorą się za budowanie i promowanie własnych kanałów algorytmicznych korzystając z dowolnej wybranej przez siebie tożsamości.

4. Korzyści i ograniczenia defederacji

Inną cechą fediwersum (które rozumiem jako „serwery oparte na ActivityPub, zazwyczaj mające możliwość komunikacji między sobą”) jest zdolność zarówno indywidualnych użytkowników, jak i całych instancji do wzajemnej defederacji. Możliwość „odgradzania” instancji zawierających ewidentnie złe jednostki i wyraźnie szkodliwe treści oferuje działającym w dobrej wierze administratorom instancji możliwość znacznego ograniczenia niektórych rodzajów szkód.

Oznacza to oczywiście również, że instancje mogą zostać fałszywie oznaczone przez przeciwników, którzy zakładają konta na instancjach grup docelowych i dopuszczają się nadużyć w celu masowej defederacji tych instancji, jak podobno miało to miejsce na początku 2023 r. w przypadku serwerów z Ukrainy. Jestem skłonna sądzić, że może to być stosunkowo niszowe zagrożenie, ale nie jestem odpowiednią osobą, aby to ocenić.

Inne zagrożenie, które opisał mi ktoś, kto od lat pracuje w terenie w Mjanmie, polega na tym, że autorytarne rządy mogą zamykać swoich obywateli w kontrolowanych przez siebie instancjach/serwerach, umożliwiając zarówno inwigilację, jak i przychylne wobec rządu moderowanie propagandy.

Biorąc pod uwagę ogromny sukces wielu grup powiązanych z rządami w tworzeniu (a w przypadku zakłóceń – odbudowie) ogromnych sieci fałszywych stron na Facebooku, spodziewam się również pojawienia się nieszkodliwie wyglądających przypadków, które w rzeczywistości są kontrolowane przez tajne kampanie wywierania wpływu i (lub) organizacje, które zamierzają je wykorzystać do inwigilacji i atakowania aktywistów, dziennikarzy i innych osób, które się im sprzeciwiają.

I znowu, to nie są dzikie spekulacje: ludobójcza armia Mjanmy prowadziła mnóstwo popularnych, niewinnie wyglądających stron na Facebooku („Pośmiejmy się razem” itp.) i zademonstrowała zdolność do zmiany taktyki, aby dotrzymać kroku dwóm platformom i birmańskiemu ruchowi oporu po zamachu stanu. Dziwnym wydaje mi się zakładanie, że analogiczni źli aktorzy nie opracują podobnych sposobów wykorzystywania sieci opartych o federację.

5. Usuwanie treści na masową skalę nie działa

W uproszczeniu chodzi o to, że nie da się idealnie moderować treści na masową skalę, kropka. Wydaje mi się, że nie próbowaliśmy wielu rzeczy, które mogłyby pomóc – przynajmniej nie na dużą skalę. Zgadzam się jednak, że wielkoskalowe moderowanie treści we współczesnym internecie za pomocą metod rodem ze starego internetu zdecydowanie nie wystarczy.

W szczególności uważam, że coraz wyraźniej widać, że traktowanie moderacji treści jako czegoś dodatkowego albo na marginesie, zamiast skupienia na bezpieczeństwie i integralności w sercu projektu produktu, jest receptą na porażkę. W Mjanmie algorytmy Facebooka wzmacniające zaangażowanie z łatwością wyprzedziły – a często wręcz rozgromiły – wysiłki Mety mające na celu zdławienie rozpowszechnianej przez nie nienawiści i wiadomości nawołujących do przemocy.

Organizacje i aktywiści z Mjanmy wzywają sieci i platformy społecznościowe do uwzględniania oceny praw człowieka nie tylko w swojej pracy związanej z zaufaniem i bezpieczeństwem, ale także przy zmianach w projekcie ich produktów. Wlicza się w to w szczególności zalecenie, aby zespoły ds. produktu miały bezpośredni kontakt z osobami w najbardziej narażonych miejscach:

Firmy z branży mediów społecznościowych powinny zwiększać ekspozycję swoich zespołów ds. produktów na zróżnicowane realia użytkowników i w miarę możliwości nawiązywać bezpośrednią współpracę ze społeczeństwem obywatelskim w krajach o wysokim ryzyku łamania praw człowieka.

Uwzględnianie oceny zagrożeń społecznych w procesach decyzyjnych dotyczących projektowania produktów to coś, co moim zdaniem mogłoby zrobić większą różnicę niż próby zapychania luk większą liczbą ludzi.

Moderacja treści, która koncentruje się wyłącznie na wiadomościach lub kontach, a nie na podmiotach stojących za nimi, również się nie sprawdza. Raport Myanmar Internet Project podkreśla, że Meta aż do 2022 r. nie zdołała utrzymać z dala od Facebooka znanych wrogich podmiotów zaangażowanych w ludobójstwo Rohingjów, nawet pomimo masowych usunięć i istnienia zasad potencjalnie uniemożliwiających wojsku i ekstremistom z Ma Ba Tha wykorzystywanie Facebooka do rozpowszechniania swoich treści propagandowych:

…większość – jeśli nie wszystkie – kluczowych stron zainteresowanych kampaniami przeciwko Rohingjom nadal jest obecna na Facebooku i wykorzystuje Facebooka i inne platformy do wywierania wpływów. Jak wielokrotnie ostrzegaliśmy platformy, większość szkodliwych treści, z którymi mamy do czynienia, pochodzi od garstki podmiotów, które konsekwentnie naruszają Warunki Świadczenia Usług i Standardy Społeczności.

Myanmar Internet Project zaleca, aby firmy z branży mediów społecznościowych „przemyślały swoje podejście do moderacji, aby skuteczniej odstraszać i – w uzasadnionych przypadkach – ograniczać podmioty, którzy mają historię naruszania ich zasad i warunków świadczenia usług, w tym poprzez egzekwowanie sankcji i ograniczeń wobec podmiotów, a nie kont, a także poprzez opracowanie lepszych strategii wykrywania i usuwania kont należących do podmiotów objętych blokadami”.

To będzie skomplikowane w sieciach opartych o federację, nawet jeśli odłożę na bok zasadnicze pytanie, w jaki sposób te sieci będą moderować wiadomości spoza ich instancji wymagające brakującej im wiedzy językowej i kulturowej.

Skupię się tutaj na Mastodonie, ponieważ jest duży i sfederowany od wielu lat. Pozbycie się oczywistych, znanych złych podmiotów na poziomie instancji to coś, w czym Mastodon jest najlepszy — przykładem może być pełnoskalowa kwarantanna serwisu Gab. Jeśli korzystasz z dobrze moderowanej popularnej instancji, mnóstwo naprawdę przerażających rzeczy zostaje usuniętych z twojego doświadczenia z Mastodonem, ponieważ złe instancje są wypieprzane w diabły. A ponieważ na Mastodonie nie ma centralnego „placu publicznego” do urządzania walk, ani problemów typu „korporacje masowo cenzurują opinie polityczne”, wielu administratorów może swobodnie i twardą ręką usuwać z pola widzenia otwarcie odstręczające jednostki i instancje.

Ale wyobraźmy sobie zaprawionego w boju przeciwnika, który jest żywotnie zainteresowany prowadzeniem sieci zarówno tajnych, jak i jawnych kont na Mastodonie i tutaj sprawy szybko się komplikują.

Lai i Roth wypowiadają się na ten temat, zauważając, że fediwersum nie ma obecnie zdolności ani zasobów do śledzenia złych podmiotów w czasie w ustrukturyzowany sposób, a także nie dysponuje obecnie wystarczającą infrastrukturą do wspólnej analizy zagrożeń na poziomie podmiotów:

Po pierwsze, analiza na poziomie podmiotu wymaga czasochłonnego i pracochłonnego śledzenia i dokumentowania. Rozróżnienie pomiędzy spamerem motywowanym komercyjnie a farmą trolli wspieraną przez państwo często wymaga szeroko zakrojonych badań wykraczających daleko poza działalność na jednej platformie lub stronie internetowej. Wydaje się mało prawdopodobne, aby i tak już rozchwiana ekonomia moderacji w fediwersum była w stanie sprostać tego rodzaju specjalistycznym badaniom.

Po drugie, nawet jeśli założymy, że moderatorzy są w stanie i rzeczywiście znajdują konta zaangażowane w tego typu manipulacje – oraz rozumieją ich działania i motywacje z wystarczającą szczegółowością, aby móc ukierunkować swoje działania – ciężar ich ciągłego monitorowania jest przytłaczający. Być może bardziej niż cokolwiek innego kampanie dezinformacyjne demonstrują znaczenie przymiotnika „trwałe” w „zaawansowanym trwałym zagrożeniu”: pojedyncza kampania dezinformacyjna, taka jak Spamouflage Dragon prowadzona w Chinach, może być odpowiedzialna za dziesiątki, a nawet setki tysięcy fałszywych kont miesięcznie, zalewając strefę treściami niskiej jakości. Narzędzia do moderacji wbudowane w platformy takie jak Mastodon nie oferują moderatorom odpowiednich mechanizmów targetowania ani rozwiązań zaradczych, które mogłyby pomóc im dotrzymać kroku tak dużej aktywności (…) Bez tych zdolności do automatyzowania działań moderacyjnych w oparciu o długoterminowe zrozumienie przeciwnika, jednostkowa ekonomia manipulacji zdecydowanie faworyzuje złe podmioty, a nie obrońców.

Być może jeszcze większym wyzwaniem jest współpraca pomiędzy instancjami – a jeszcze lepiej pomiędzy platformami – w celu identyfikowania i eliminowania trwałych zagrożeń. Ponownie Lai i Roth:

Z analitycznego punktu widzenia uznanie poszczególnych kont lub wpisów za powiązane z kampanią dezinformacyjną może być trudne, o ile nie niemożliwe w przypadku braku świadomości odnośnie podobnych zachowań na różnych platformach. Największe platformy – głównie Meta, Google i Twitter (przed przejęciem) – w celu wspierania bezpieczeństwa zbiorowego regularnie dzieliły się informacjami z innymi firmami w ekosystemie, włączając w to specyficzne wskaźniki kompromitacji związane z konkretnymi kampaniami. Dzielenie się informacjami pomiędzy zespołami różnych platform stanowi kluczowy sposób budowania tej świadomości oraz wykorzystywania luk w bezpieczeństwie operacyjnym przeciwników w celu namierzenia dodatkowych zwodniczych kont i kampanii (…) Sfederowana moderacja utrudnia ten rodzaj międzyplatformowej współpracy.

Spodziewam się, że wielu zwolenników sfederowanych i zdecentralizowanych sieci stwierdzi, że Lai i Roth wyolbrzymiają te luki w zabezpieczeniach. Mam jednak nadzieję, że większa liczba programistów, administratorów instancji, a zwłaszcza darczyńców, wykorzysta to jako okazję do nadania priorytetu lepszym narzędziom i tworzeniu instytucji.

Dodano, 16 października 2023 r.: Independent Federated Trust and Safety (IFTAS), organizacja pracująca nad wspieraniem i poprawą zaufania i bezpieczeństwa w sieciach sfederowanych, właśnie opublikowała wyniki swojej oceny potrzeb moderacji, podkreślając potrzeby w zakresie finansów, prawa, wsparcia technicznego i kulturowego.

Fatalny błąd Mety

Myślę, że jeżeli zapytasz ludzi, dlaczego Meta nie zdołała zapobiec byciu wykorzystywaną jako śmiercionośne narzędzie w Mjanmie, powiedzą ci o optymalizacji pod kątem zaangażowania i żarłocznym, bezmyślnym gonieniu za ekspansją i zyskami oraz ciągłym rozpieprzaniu każdego elementu moderacji treści.

Myślę, że to wszystko prawda, ale jest też coś jeszcze, choć słowo „bezmyślnie” dobrze to oddaje: jako firma zdecydowana łączyć świat za wszelką cenę Meta w spektakularny sposób, nie raz i nie dwa, nie była w stanie uświadomić sobie istotnych powiązań pomiędzy ich własną maszynerią a ludźmi, których ta maszyneria skrzywdziła.

Myślę więc, że są dwie powiązane ze sobą rzeczy, które Meta mogła zrobić, aby zapobiec tak wielkim szkodom, a mianowicie nasłuchiwać w poszukiwaniu ludzi mających kłopoty oraz znacząco skorygować kurs.

Owo „nasłuchiwanie” pochodzi od Ursuli Le Guin. Powiedziała to w wywiadzie dla Choire Sicha w 2015 roku, który na zawsze utkwił mi w głowie. Mówiła o wyzwaniu, jakim jest łączenie pracy z wychowywaniem dzieci w trakcie, gdy jej partner zajmował się nauczaniem:

…działało to doskonale, ale wymagało to pełnej współpracy między nim a mną. Widzisz, nie mogę pisać, kiedy jestem odpowiedzialna za dziecko. To są dla mnie zajęcia na pełen etat. Albo nasłuchujesz dzieci, albo piszesz. Pisałam więc, kiedy dzieci szły spać. W tamtych latach pisałam od dziewiątej do północy.

Ten fragment zawsze mi towarzyszy, ponieważ jedyny czas, kiedy nie nasłuchuję, przynajmniej odrobinę, ma miejsce tylko wtedy, gdy moja córka jest w szkole, całkowicie z dala od domu. Nawet kiedy śpi, częściowo skupiam uwagę na tym, co robię, oraz… nasłuchuję. Nie mogę zakładać w nocy zatyczek do uszu, bo inaczej mam senne halucynacje, że mnie woła. To nie jest racjonalne! Ale tak jestem zaprogramowana. Może to przejdzie, gdy córka wyjedzie na studia, wyjedzie nad morze czy gdzieś, ale nie jestem tego taka pewna.

Dlatego nasłuchiwanie ma dla mnie znaczenie z wstydliwie ludzkich powodów. A to sprawia, że nie jest to coś, o czym poważna osoba wspomina w eseju na temat najgorszych rzeczy, jakie może wyrządzić internet. Tak czy inaczej umieszczam to tutaj, ponieważ w ten sposób dochodzimy do tego, co moim zdaniem każdy, kto pracuje z wielkoskalowymi sieciami społecznościowymi i narzędziami, powinien zaprogramować w naszych pniach mózgów.

W Mjanmie oraz informacjach ujawnionych przez Sophie Zhang dotyczących odmowy uznania za priorytet usuwania tajnych sieci wpływów Meta wykazała nie tylko niechęć do słuchania ostrzeżeń, ale także silne zaangażowanie, aby nie pozwolić sobie na zrozumienie i podjęcie działań wobec informacji o niebezpieczeństwach, które wzmacniała na całym świecie.

Czytając informacje Haugen i Zhang nie mogę nie pomyśleć o tych samych schematach odrzucania i ukrywania niebezpiecznej wiedzy, które zaobserwowaliśmy u firm tytoniowych (potępianych za ściąganie haraczy i wykorzystywane od dziesięcioleci wzorce oszukiwania na temat zagrożeń związanych z tytoniem), spółek naftowych (pozwanych przez stan Kalifornia w związku ze znanymi od kilkudziesięciu lat wzorcami oszustw w związku z ich wpływem na zmiany klimatyczne) lub rodziną Sacklerów (którzy przyznali się do zarzutów w związku z trwającym od dekady wzorcem oszustwa wokół ich wkładu w epidemię opioidów).

Ale nie musisz być złoczyńcą, aby ulec pokusie odsuwania od siebie niewygodnej wiedzy. Często wystarczy być idealistą lub ciężko pracować za niewielką (lub żadną) płacę, aby uwierzyć, że dobro, jakie przynosi twoja praca, zdecydowanie przewyższa potencjalne szkody – a jeśli oferujesz ją za darmo, to wszelkie kłopoty, w jakie wpadają ludzie, są jedynie ich winą. W końcu powinni byli przeprowadzić własne badania.

A jeśli niektórzy ludzie ostrzegają o problemach związanych z bezpieczeństwem w otwartoźródłowej sieci, w której programiści i administratorzy dają z siebie wszystko, to może powinni po prostu udać się gdzie indziej, prawda? A może po prostu przesadzają – z takim stwierdzeniem najczęściej spotykałam się na Mastodonie, gdy Stanford Internet Observatory opublikowało swój raport na temat dziecięcej pornografii w fediwersum.

Wóz albo przewóz. Albo ludzie tworzący i swobodnie dystrybuujący narzędzia i systemy ponoszą pewną odpowiedzialność za potencjalne szkody, albo nie. Jeśli Meta jest przedmiotem krytyki, to to samo dotyczy osób pracujących przy otwartych technologiach. Także mili ludzie z dobrymi intencjami.

A zatem: Nasłuchujmy. Nasłuchujmy sygnałów, że zmierzamy na mielizny. Nasłuchujmy, jakby to były nasze własne dzieci w obliczu najgorszych rzeczy, jakie mogą wyrządzić nasze platformy.

Ostrzeżenia dotyczące Mjanmy płynęły od naukowców i osób zajmujących się prawami cyfrowymi. Dobiegały one przede wszystkim z Mjanmy, oddalonej o prawie 13 tysięcy kilometrów od Palo Alto. Dwadzieścia godzin samolotem. Zbyt daleko, żeby mieć znaczenie, przez zbyt wiele lat.


Przedstawiciele społeczeństwa obywatelskiego, którzy przekazali Mecie liczne ostrzeżenia, mają jasne zdanie na temat sposobów, w jakie Meta mogła uniknąć katastrofalnej bezduszności strukturalnej w latach poprzedzających ludobójstwo Rohingjów. Kilka z tych zaleceń obejmuje sumienne, zaangażowane i super-drobiazgowe słuchanie ludzi w terenie nie tylko na temat problemów z moderacją treści, ale także zagrożeń związanych z podstawową funkcjonalnością samych produktów społecznościowych.

Niedawny artykuł Nadah Feteih i Elodie Vialle w Tech Policy Press zatytułowany „Centering Community Voices: How Tech Companies Can Better Engage with Civil Society Organizations” stanowi naprawdę solidne wprowadzenie do tego, jak mógłby wyglądać taki proces konsultacyjny w przypadku dużych platform. Myślę, że oferuje on także kilkanaście praktycznych wskazówek na temat tego, jak mniejsze, bardziej rozproszone i nowsze sieci mogłyby działać.

Zajmijmy się jednak sprawami nieco bardziej operacyjnymi.

„Robienie lepiej” wymaga wsparcia materialnego

Nie da się rozmawiać o tym wszystkim, nie wspominając o problemie z zasobami w sieciach otwartoźródłowych i federacyjnych. Większość tego sektora jest krytycznie niedofinansowana i opiera się na pracy wolontariuszy, co wpływa na to, kto może wnieść swój wkład, kto zostanie wysłuchany i co zostanie zrobione.

Byłoby nierealistyczne, a wręcz graniczące z głupotą, oczekiwać, że każdy, kto wnosi swój wkład w projekty takie jak Mastodon i Lemmy, albo prowadzi małą instancję w sfederowanej sieci, będzie niezależnie zdobywać dogłębną specjalistyczną wiedzę w zakresie praw człowieka. Równie nierealistyczne jest oczekiwanie, że nawet czołowi programiści, którzy aktywnie troszczą się o bezpieczeństwo, będą posiadać zasoby i specjalistyczne kompetencje niezbędne do organizowania bliskich konsultacji z właściwymi ekspertami w dziedzinie praw cyfrowych, dezinformacji i złożonych kwestii dotyczących konkretnych kultur na całym świecie.

Istnieje wiele możliwych rozwiązań problemów i luk, które próbowałam naszkicować powyżej, ale tym, o którym bardzo marzę, jest rozwój wyspecjalizowanych, przekrojowych i współpracujących instytucji, które działałyby nie tylko w sferze zaufania i bezpieczeństwa na scentralizowanych platformach, ale także praktycznych badań, które uwzględniałyby potrzeby i głosy bezbronnych osób i grup już na etapie projektowania protokołów, aplikacji i narzędzi.

Zespoły moderacyjne i administracyjne w całej sieci znajdują się w różnych sytuacjach krytycznych. Stosunkowo niewiele osób ma czas i energię, aby brnąć w niepewność i utrzymać tryby w ruchu tylko dla sławy i chwały. Uważam, że obciążanie jednostek nie jest właściwą metodą na rozwój stabilnej i bezpiecznej sieci.

Innymi słowy, szybko rozwijające się, dramatycznie niedofinansowane sieci charakteryzujące się małymi przeciążonymi ekipami moderacyjnymi i słabymi narzędziami do zapewnienia bezpieczeństwa stanowią ogromną powierzchnię ataku. Wiara w to, że ten sam rodzaj sił, które osłabiły internet w Mjanmie, nie będzie w stanie wykorzystać sieci sfederowanych ze względu na mniejszy rozmiar serwerów, jest fundamentalnym błędem. Większość zalet zdecentralizowanych sieci można niemal natychmiast obrócić na korzyść przeciwników.

Bezkrytyczne rozrzucanie pieniędzy nie jest remedium, ale bez wsparcia finansowego zapewniającego coś więcej niż środki do życia dla kilku osób bardzo trudno wyobrażać sobie, że wolne i otwarte sieci są w stanie na czas nabyć umiejętności radzenia sobie z rodzajami zagrożeń i szkód, które rozważałam w pierwszych trzech artykułach tej serii.

Problem może wyglądać inaczej w przypadku projektów finansowanych ze środków venture capital takich jak Bluesky, ale sama nie wiem. Myślę, że w sprawiedliwym świecie nowy CTO Mastodona nie pracowałby na pełen etat za darmo.

Myślę również, że w tym sprawiedliwym świecie organizacje filantropijne zainteresowane bezpieczeństwem nowych sieci nalegałyby, a następnie obficie finansowałyby zbiorową, wspólną pracę w ramach protokołów i projektów, ponieważ niezależnie od moich własnych obaw i preferencji każdy, kto korzysta z którejkolwiek z sieci nowej generacji i platform zasługuje na bezpieczeństwo.

Wszyscy zasługujemy na miejsca, w których możemy być razem online, a które przynajmniej nie są wrogie wobec życia offline.

A co jeśli nie interesuje Cię technologia, ale mimo wszystko zależy Ci na tym wszystkim? Oczywiście mam pewne przemyślenia.

Wszystko wszędzie naraz

Nieuniknioną wadą nie polegania na scentralizowanych sieciach w celu naprawy sytuacji jest to, że nie ma jednego podmiotu, na który można byłoby wywierać presję. Zaletą jest to, że wszyscy możemy pracować nad tymi samymi celami — lepszymi, bezpieczniejszymi i swobodniejszymi sieciami — z dowolnego miejsca. Możemy także pracować nad rozliczaniem z odpowiedzialności zarówno sieci scentralizowanych, jak i sieci nowej generacji.

Jeśli mieszkasz w miejscu, w którym w rządzie jest przynajmniej częściowo demokratyczna reprezentacja, możesz wiele osiągnąć poprzez wysyłanie swoim reprezentantom takich rzeczy, jak raport Amnesty International, a może nawet tej serii. Istnieje bowiem szansa, że ich pracownicy przeczytają je i będą w stanie skuteczniej reagować na porażki technologiczne i korporacyjne.

Jeśli masz konto w sieci opartej o federację, możesz zapoznać się z zasadami i planami administratorów swojej instancji i możesz na nich naciskać (sugerowałabym grzecznie) w sprawie planów radzenia sobie z dużymi zagrożeniami przyszłości, takimi jak tajne sieci wpływów, zorganizowane ale rozproszone kampanie nienawiści, zagrożenia na poziomie podmiotów i inne zagrożenia, które widzieliśmy w sieciach scentralizowanych i których możemy się spodziewać w sieciach zdecentralizowanych.

A jeśli masz czas, energię lub pieniądze, możesz udzielić wsparcia (materialnego lub innego) kolaboratywnym instytucjom starającym się ograniczać szkody społeczne.

Odnośnie samej Mety

Mam nadzieję, że te 30 tys. słów kontekstu, dowodów i wyjaśnień zawartych w częściach 1–3 tej serii mówi samo za siebie.

Jestem pewna, że niektórzy ludzie, w tym prawdopodobnie ci, którzy pracowali lub nadal pracują dla Mety, przeczytają wszystkie te słowa i stwierdzą, że Meta nie ponosi odpowiedzialności za swoje działania i zaniechania w Mjanmie. Nie sądzę, że mam wystarczająco dużo wspólnego z tą grupą czytelników, aby wdawać się w jakiekolwiek dyskusje.

Da się zauważyć, że w Mecie są ludzie, którzy próbowali coś naprawić. Punktem wspólnym licznych wypowiedzi jest to, że kultura Facebooka polegająca na wypychaniu niebezpiecznej wiedzy ze swojego centrum przytłacza wielu pracowników, którzy starają się chronić użytkowników i społeczności. W przypadkach takich jak Sophie Zhang odmowa zrozumienia przez Metę tego, co odkryli jej pracownicy, i podjęcia działań w oparciu o tę wiedzę, stanowi wyraźną przyczynę pogarszającego się stanu zdrowia pracowników.

Z informacji ujawnianych przez sygnalistki w ciągu ostatnich kilku lat jasno wynika, że na przestrzeni wielu lat mnóstwo osób próbowało sygnalizować, diagnozować i zapobiegać szkodom. Uczciwie mówiąc, jestem pewna, że zapobiegnięto wielu strasznym rzeczom. Ale nie da się czytać informacji od Frances Haugen czy historii Sophie Zhang i twierdzić, że firma robi wszystko, co w jej mocy, ani pominąć faktu, że nikt nie potrafi wyobrazić sobie istotnego przebudowania swoich produktów i przeorganizowania budżetów tak, aby przestać krzywdzić ludzi.

Nie jestem też w stanie czytać niczego, co Meta mówi publicznie nie myśląc o zwodniczych, rażących, graniczących z pogardą wybiegach, które robi od lat w kontekście wydajności moderacji treści (o tym mówiliśmy w części III).

W 2018 roku Adam Mosseri, który był odpowiedzialny za Tablicę – główną „powierzchnię rekomendacji”, na której algorytmy Facebooka rozpowszechniały ludobójcze wiadomości skierowane przeciwko Rohingjom w Mjanmie – napisał w trakcie ludobójstwa, że stracił nieco snu z powodu tego, co się wydarzyło.

Utrata snu najwyraźniej nie wywarła większego wpływu na zmiany w projekcie produktu, biorąc pod uwagę, że Global Witness trzy lata później odkrył, że Facebook robił dokładnie te same rzeczy z tymi samymi rodzajami wiadomości.

Ale spójrzmy na to co faktycznie powiedział Mosseri:

Fałszywe wiadomości pojawiają się nie tylko na Facebooku, ale w ogóle w Mjanmie. Jednak o ile nam wiadomo, nie ma zewnętrznych organizacji fact-checkingowych, z którymi moglibyśmy podjąć współpracę, a to oznacza, że musimy polegać na innych metodach na rozwiązywanie części tych problemów. Szukamy złych podmiotów i sprawdzamy, czy naruszają nasze warunki korzystania z usług lub standardy społeczności, aby spróbować użyć naszych dźwigni do zaradzenia rozprzestrzenianiu się niektórych problematycznych treści. Staramy się także polegać na społeczności i być tak skuteczni, jak to możliwe, w modyfikowaniu zachęt związanych z takimi rzeczami, jak clickbait czy sensacyjne nagłówki, które pozostają w korelacji, ale nie są tym samym co fałszywe wiadomości.

To wszystko są przykłady tego, jak bardzo staramy się traktować tę kwestię poważnie, ale spędza nam to sen z powiek. Szkody w świecie rzeczywistym i to, co dzieje się na terenie tej części świata, jest dla nas jedną z najbardziej niepokojących rzeczy i czymś, o czym regularnie rozmawiamy. Konkretnie o tym, co możemy zrobić więcej i jak robić to skuteczniej i szybciej.

Dzieje się to w 2018 r., a więc sześć lat po tym, jak birmańskie organizacje zajmujące się prawami cyfrowymi i społeczeństwem obywatelskim zaczęły kontaktować się z Metą, aby poinformować ich o zorganizowanych kampaniach nienawiści na Facebooku w Mjanmie, które Meta najwyraźniej zignorowała, ponieważ wszystkie te zorganizowane kampanie trwały w najlepsze w trakcie szczytu ludobójstwa Rohingjów w latach 2016 i 2017.

Ponadto ten wywiad ma miejsce kilka lat po tym, jak Meta zaczęła polegać na członkach tych samych birmańskich organizacji w zakresie zgłaszania treści – ponieważ, jeśli pamiętacie z wcześniejszych artykułów z tej serii, tak naprawdę nie przetłumaczyli oni Standardów Społeczności ani samego interfejsu raportowania. Ani nawet nie zatrudnili wystarczającej liczby moderatorów mówiących po birmańsku, aby obsłużyć kraj większy niż statek wycieczkowy. Interesujące jest również to, że Mosseri poinformował, że Meta nie mogła znaleźć żadnych „zewnętrznych organizacji fact-checkingowych”, biorąc pod uwagę, że MIDO, która była jedną z organizacji zgłaszających im problemy z treścią, akurat prowadziła własną operację fact-checkingową.

A zachęty związane z clickbaitem, o których wspomina Mosseri? Mowa o rynku fałszywych i sensacyjnych wiadomości, który Meta stworzyła udostępniając Artykuły Ekspresowe, które bezpośrednio finansowały rozwój birmańskojęzycznych farm kliknięć i które w 2016 r. praktycznie zniszczyły krajobraz mediów internetowych w Mjanmie.

Ale Mosseri i jego współpracownicy regularnie o tym rozmawiali.

Miałam ochotę pozwolić sobie na złośliwości i zwrócić uwagę, że bycie odpowiedzialnym za tablicę na Facebooku podczas ludobójstwa, które Rada Praw Człowieka ONZ powiązała z Facebookiem również nie przeszkodziło Mosseriemu w niczym. W końcu to on jest odpowiedzialny za najnowszą platformę społecznościową Mety – Threads.

Być może jednak wyjaśnia to, dlaczego Threads nie pozwala użytkownikom na wyszukiwanie potencjalnie kontrowersyjnych tematów, w tym skutków trwającej pandemii. Wybór ten jest powszechnie krytykowany za utrudnianie ludziom dyskutowania na poważne tematy. Bardziej przypomina mi to przyznanie, że Meta nie jest pewna, czy czuje się na siłach zająć się moderacją treści, więc projektuje produkt tak, aby ominąć największe niebezpieczeństwa.

To z pewnością niezdarny wybór. Jest to też dziwny wybór, szczególnie po dekadzie ekspansji platform społecznościowych bez cienia refleksji, że pogarszają sytuację. Ale jeśli alternatywą jest powrót do tej samej starej, niemożliwej do wygrania walki, może po prostu nie wchodzenie tam będzie właściwym rozwiązaniem (obawiam się, że to nie potrwa długo).

Rohingjowie nadal czekają

Rohingjowie to ludzie, a nie lekcje. Prawie milion z nich spędziło co najmniej sześć lat w obozach w Bangladeszu, które stanowią najgęstsze osady uchodźców na świecie. Niedofinansowani, niedożywieni i pozbawieni możliwości pracy ludzie Rohingja w obozach są narażeni na pogarszającą się pogodę wskutek zmian klimatycznych, powodzie monsunowe, choroby, pożary i przemoc gangów. Pandemia wzmocniła już i tak intensywne ograniczenia i trudności życia w tych obozach.

Jeśli dysponujesz środkami pieniężnymi, Fundusz Pomocy Uchodźcom Rohingja należący do Global Giving przekaże je osobom, które będą w stanie zrobić z nich użytek.

Kanadyjski dokument Wandering: A Rohingya Story przedstawia intymne spojrzenie na życie w Kutupalong, największym z obozów dla uchodźców. Dokument ten jest wykonany pięknie i z miłością.

Matka i córka

Kadr z Wandering: A Rohingya Story. Historia tej matki i jej córki zdewastowała mnie.

W Mjanmie po zamachu stanu setki tysięcy ludzi ryzykują życie stawiając opór brutalnemu uciskowi junty. Mutual Aid Myanmar wspiera ich pracę. James C. Scott (tak!) należy do ich zarządu.

W następstwie zamachu stanu Rząd Jedności Narodowej – skrzydło rządu cieni birmańskiego ruchu oporu przeciwko juncie – oficjalnie uznał krzywdy wyrządzone Rohingjom i zobowiązał się do radykalnych zmian, gdy tylko ruch oporu zwycięży:

Rząd Jedności Narodowej uznaje lud Rohingjów za integralną część Mjanmy i za jej obywateli. Z wielkim wstydem potwierdzamy wykluczającą i dyskryminującą politykę, praktyki i retorykę skierowane przez długi czas przeciwko Rohingjom oraz innym mniejszościom religijnym i etnicznym. Te słowa i czyny położyły podwaliny pod okrucieństwa wojskowe, a bezkarność, która po nich nastąpiła, ośmieliła przywódców wojskowych na czele nielegalnej junty do popełniania ogólnokrajowych zbrodni.

Działając zgodnie z naszym „stanowiskiem politycznym w sprawie Rohingjów w stanie Rakhine”, Rząd Jedności Narodowej zobowiązuje się do stworzenia warunków niezbędnych do sprowadzenia Rohingjów i innych wysiedlonych społeczności do domów w sposób dobrowolny, bezpieczny, godny i zrównoważony.

Angażujemy się także w zmiany społeczne i całkowitą zmianę dyskryminujących przepisów w porozumieniu ze społecznościami mniejszościowymi i ich przedstawicielami. Przywódca Rohingjów pełni obecnie funkcję wiceministra praw człowieka, aby zapewnić, że perspektywa Rohingjów będzie wspierać rozwój polityk i programów rządowych oraz reformę legislacyjną.

W obozach dla uchodźców młodzi aktywiści Rohingja pracują nad budowaniem solidarności pomiędzy ludnością Rohingjów a etnicznym ludem Bamarów w Mjanmie, który aż do momentu zamachu stanu skłonny był wierzyć przekazom Tatmadaw, w których przedstawiano Rohingjów jako egzystencjalne zagrożenie. Inni, co może być bardziej zrozumiałe, pozostają ostrożni wobec twierdzeń Rządu Jedności Narodowej, że Rohingjowie zostaną ciepło powitani w domu.


W części II tej serii próbowałam wyjaśnić – przystępnie, ale w skrócie – jak rozpoczęły się ataki na Rohingjów w latach 2016 i 2017, które przerodziły się w pełnoskalowe czystki etniczne i ludobójstwo, kiedy to powstańcy Rohingja w stanie Rakhine w Mjanmie dokonali ataków na birmańskie siły bezpieczeństwa i dopuścili się okrucieństw wobec cywilów po dziesięcioleciach nasilających się represji i nędzy sprowadzanych na nich przez rząd birmański.

W tym tygodniu kanał społecznościowy jednego z młodych działaczy Rohingjów, o których mowa w historii linkowanej przeze mnie powyżej, jest wypełniony zdjęciami z Gazy, gdzie dwa miliony ludzi żyje za płotami i murami, gdzie szpitale, szkoły i miejsca kultu są bombardowane przez izraelskie wojsko z powodu straszliwych ataków Hamasu na izraelską ludność cywilną, po dziesięcioleciach nasilających się represji i nędzy ze strony izraelskiego rządu w Gazie i na Zachodnim Brzegu.

Nie trzeba nam internetu, żeby zamienić nasz świat w piekło. Ale nie sądzę, że powinniśmy sobie wybaczyć, że pozwoliliśmy naszej technologii pogorszyć świat.

Chciałabym przekształcić nasze technologie w lepsze narzędzia dla wielu, wielu ludzi zaangażowanych w budowanie międzyludzkiej solidarności i jedności, dzięki którym jeszcze więcej nas wszystkich będzie w stanie przebrnąć przez kataklizmy dnia codziennego w kierunku lepszej strony życia.

Data publikacji oryginalnego artykułu: 13 października 2023 r.

Meta w Mjanmie – cała seria:

Treść tłumaczenia całej serii została udostępniona na licencji Creative Commons BY-NC-ND 4.0.