Technologia do ujarzmienia technologii?

Symptomatyczny był niedawny obrazek prezydenta Stanów Zjednoczonych – wydawałoby się najpotężniejszego człowieka na świecie – którego konta w social mediach zostały ot, tak zablokowane. Nie ma chyba lepszego dowodu na potęgę sieci społecznościowych. W skali makro trudno je skontrolować czy uregulować. W skali mikro uzależniły one od siebie setki milionów użytkowników, wielu z nich co gorsza zamykając w bańkach informacyjnych, również przy wykorzystaniu zmanipulowanych i fałszywych informacji. Czy możemy jeszcze wyjść z tego klinczu? W jaki sposób mogłaby nam w tym pomóc… technologia właśnie?

15 marca 2019 r. 51 osób modlących się w dwóch meczetach w Nowej Zelandii zginęło z rąk terrorysty. Śledztwo wykazało, że przez wcześniejszych kilka lat kształtował on swoje poglądy i czerpał wiedzę z internetu. Przeszedł ścieżkę od prostego zainteresowania tematyką rasistowską do śmiertelnej radykalizacji.

Dwa lata później, 9 stycznia 2021 r., rzecznik prasowy Białego Domu oświadcza, że prezydent Donald Trump nie może wypowiedzieć się na temat sytuacji w kraju, ponieważ nie ma dostępu do sieci społecznościowych, które zablokowały mu dzień wcześniej jego konta.

Te dwa odległe zdarzenia łączy technologia. A w szczególności technologia tzw. platform (sieci) społecznościowych. Wpływ tych systemów na nasze życie to tematyka wielowątkowa i wielowarstwowa. Zacznijmy jednak od fundamentów, czyli właśnie technologii.

Sieci uzależnienia

Historycznie, pierwszą funkcją portali społecznościowych były proste „połączenia” między osobami. Gdy użytkownik znalazł już w systemie znajomych, nie miał do dyspozycji zbyt wielu opcji do dalszego działania. Dlatego zespoły tworzące takie systemy w najróżniejszy sposób poszukiwały sposobów na utrzymanie i zwiększenie zaangażowania użytkowników. Wyścig ten wygrały firmy, które do współpracy zaprosiły psychologów i wykorzystały słabość naszego mózgu. Sean Parker, jeden z twórców potęgi Facebooka, opowiadał niedawno, że najsłynniejszy guzik świata, czyli „Like” został wymyślony w taki sposób, by dawać użytkownikom mikrozastrzyk dopaminy, wciągając ich w pętlę przyjemności i zwiększając w konsekwencji ich zaangażowanie. Twórcy treści zaczęli walczyć o „lajki” i proces tworzenia „contentu” przeniósł się z prywatnych stron internetowych do systemów społecznościowych.

Drugą istotną funkcją technologii społecznościowej jest automatyczne rekomendowanie użytkownikom treści na podstawie tego, co wcześniej czytali lub oglądali. Na pierwszy rzut oka rekomendacje są czymś sprawdzonym i pożądanym w realnym świecie – np. fan wyścigów chce oglądać wyścigi, a nie bilard. Problem pojawia się, gdy wchodzimy w tematy oddziałujące na nasze poglądy. Udowodniono, że aby utrzymać użytkownika, trzeba rekomendować mu treści coraz mocniejsze. A skąd algorytm zna moc danej treści? Na podstawie statystyk: inni użytkownicy, którzy sięgnęli po takie treści, sięgnęli później po kolejne. Użytkownicy zaangażowani „ciągną” więc w swoim zaangażowaniu innych. Nie ma miejsca na umiarkowanie – cały system skonstruowany jest tak, aby użytkownicy „ekstremalni” „ciągnęli” tych, którzy jeszcze nie są ekstremalni. Nie ma znaczenia czy ekstremum jest prawicowe, lewicowe, religijne czy inne.

Systemy społecznościowe są zaprojektowane, aby uzależniać. To świadoma konstrukcja, która jest niezbędna, żeby ich właściciele mogli realizować swoje cele biznesowe. Mamy więc przed sobą toksyczny koktajl, gdzie twórcy treści walczą o dopaminę („lajki”), a ich konsumenci zamykają się w swoich bańkach systematycznie przesuwających się w stronę ekstremum. Dodatkowo, cała konstrukcja ułatwia cyrkulację informacji przekłamanych czy wręcz całkowicie fałszywych – dla algorytmów rekomendacyjnych nie ma to znaczenia.

Systemy społecznościowe są zaprojektowane, aby uzależniać. To świadoma konstrukcja, która jest niezbędna, żeby ich właściciele mogli realizować swoje cele biznesowe. Mamy więc przed sobą toksyczny koktajl, gdzie twórcy treści walczą o „lajki”, a ich konsumenci zamykają się w swoich bańkach systematycznie przesuwających się w stronę ekstremum.

Analiza zachowania terrorysty z Nowej Zelandii pokazuje, że algorytmizacja miała znaczący wpływ na jego radykalizację. Natomiast analiza obecności Donalda Trumpa w internecie wskazuje, że osoby umiejące wykorzystać ten naturalny przechył w stronę radykalizmu szybko budują dużą popularność. Dlatego Trump nie chciał wrócić do bardziej tradycyjnych metod komunikacji – straciłby wtedy całą swoją przewagę.

Zbyt duże, by uregulować?

To nie koniec: największe światowe sieci społecznościowe mają nie tylko ogromny zasięg, ale też pozostają bez żadnej kontroli. W tradycyjnym świecie jakakolwiek rzecz, która ma potencjał do uzależnienia jest dosyć szybko regulowana odpowiednimi przepisami, np. hazard, alkohol, a nawet słodzone napoje. Jak na razie nie widziałem żadnego realnego pomysłu na to, jak ograniczyć toksyczność, szerzenie nieprawdy i tendencje do uzależniania produktów społecznościowych.

W tradycyjnym świecie jakakolwiek rzecz, która ma potencjał do uzależnienia jest dosyć szybko regulowana odpowiednimi przepisami, np. hazard, alkohol, a nawet słodzone napoje. Jak na razie nie widziałem żadnego realnego pomysłu na to, jak ograniczyć toksyczność, szerzenie nieprawdy i tendencje do uzależniania produktów społecznościowych.

Właściciele platform zdają sobie sprawę z problemu, jednak nie są w stanie zaproponować żadnego prawdziwego rozwiązania, bo samo założenie ich biznesu jest problematyczne. Dlatego dzisiejsze ostrzeżenia systemów, że jakaś opublikowana informacja jest potencjalnie fałszywa przypominają stare przysłowie o diable, który po przebraniu się w ornat dzwonił na mszę własnym ogonem. Tak samo usunięcie z Twittera Donalda Trumpa jest szkolnym przykładem szukania kozła ofiarnego w sytuacji, gdy zasadniczy, pierwotny problem istnieje zupełnie gdzie indziej. Zresztą, po tym fakcie szerokie grona uznały to za absolutny zamach na wolność słowa. Wskazano, że wielu użytkowników używających brutalnego języka nadal ma konta na tej platformie.

Sytuacja tzw. deplatformingu, czyli usuwania z platform społecznościowych określonych osób, które mają poglądy zgodne z prawem, ale nie podobają się właścicielom platform przestała być problemem niszowym. Fakt, że bez względu na jej poglądy, osoba „wykluczona z platformy” nie ma żadnej realnej możliwości odwołania się od decyzji jest bardzo podobny do sytuacji, którą w latach 90. opisywała Naomi Klein, kiedy przestrzegała przed prywatyzacją przestrzeni miejskiej. Chodziło jej wówczas o wielkie prywatne centra handlowe, w których ludzie spędzają coraz więcej czasu. Klein twierdziła, że oddanie publicznej przestrzeni we władanie prywatnym firmom wprowadzi wprost cenzurę do debaty publicznej. Jak widać, miała rację, nawet jeżeli współczesna „przestrzeń” jest wirtualna.

Technologia na ratunek?

Niestety, wielkość firm stojących za platformami społecznościowymi powoduje, że jakakolwiek polityczna czy ekonomiczna walka z nimi będzie długa i kosztowna. Czy jednak to właśnie technologia, która wplątała nas przecież w tę sytuację, nie mogłaby nam pomóc się z niej wyplątać?

Na początek zastanówmy się, dlaczego tak duża część świata używa dużych platform społecznościowych pomimo opisanych powyżej wad. Wyjaśnieniem jest fakt, że oferują one użyteczne funkcje, a ich konkurencja jest po prostu bardzo słaba. Czy posiadanie alternatywy równie dobrej technologicznie, lecz działającej w mniej toksycznym modelu biznesowym, mogłoby sprawić, że stopniowo „uwalnialibyśmy” się od firm stojących za dzisiejszymi (zbyt) dużymi platformami?

Znajdziemy już pierwsze przykłady takich inicjatyw. Od kilku tygodni komunikator Whatsapp (należący do firmy Facebook) traci miliony użytkowników na rzecz konkurencji, w tym m.in. komunikatora Signal, prowadzonego przez fundację non­‑profit i opartego o tzw. oprogramowanie otwarte. Fundacja wykorzystała z sukcesem temat prywatności i anonimowości, przekonując internautów, że Whatsapp zupełnie tego nie zapewnia. Ale było to możliwe tylko dlatego, że jej produkt (Signal) absolutnie nie odstaje funkcjonalnie od większego konkurenta. Oczywiście Whatsapp użytkowników nadal liczy w miliardach. Należy jednak pamiętać o zasadzie „społecznej kuli śnieżnej”, gdzie przechodzący ciągną za sobą swoich znajomych. Przy produkcie technologicznie równie dobrym, co główna konkurencja, kolejne miliony użytkowników są coraz łatwiejsze do zdobycia.

Drugim miejscem, gdzie technologia mogłaby „przyjść z odsieczą”, jest dostarczenie łatwego w użyciu narzędzia, pozwalającego użytkownikom zrozumieć treści, które otrzymujemy. Czy informacja, którą czytamy jest fałszywa, czy prawdziwa. Czy treść jest źródłowa, czy pochodzi z powtórzenia. Czy jest relacją czy opinią i czy cytuje fakty, które można zweryfikować. Ten ostatni aspekt jest o tyle ważny, że współczesna dezinformacja stała się zindustrializowana: służby specjalne niektórych krajów nie kryją się, że stoją za określonymi destabilizującymi treściami.

Technologia pomogłaby internautom, dostarczając łatwe w użyciu narzędzie, pozwalające zrozumieć treści, które otrzymujemy. Czy informacja, którą czytamy jest fałszywa, czy prawdziwa. Czy treść jest źródłowa, czy pochodzi z powtórzenia. Czy jest relacją czy opinią i czy cytuje fakty, które można zweryfikować.

Oczywiście pomysł jednego, centralnego „weryfikatora treści” byłby bardzo zły, przypominający w dodatku czasy słusznie minione. Nie ma zresztą takiej potrzeby. Już dzisiaj istnieją bardzo wysokiej jakości internetowe strony tzw. fact­‑checkowe. Są one często oparte o instytucje działające według etyki dziennikarskiej i poddane prawu prasowemu. Dodatkowo, część fałszywych informacji generowanych algorytmicznie można już wykryć dzięki innymi algorytmom. Tak można rozpoznać tzw. deep fake, czyli realistyczne montaże wideo robione przez algorytmy.

Wydaje się więc, że dobrze wykorzystana technologia mogłaby nam pomóc w walce ze źle wykorzystywaną technologią, ale pod warunkiem, że będzie łatwa w użyciu dla przeciętnego internauty. Dzisiaj, po przeczytaniu informacji znalezionej na Facebooku, użytkownik musi samodzielnie przejść na wybrany przez siebie portal sprawdzający i poszukać, czy ktoś już napisał analizę na temat tej informacji i czy sprawdził podane fakty. Niestety nie ma jeszcze metody, aby mógł automatycznie, w miejscu gdzie otrzymuje informację (wideo, tekst czy obraz) sprawdzić jej wiarygodność, korzystając ze źródeł, którym ufa. Najlepiej, by taki system działał jak nieinwazyjna „nakładka” na dotychczasowe aplikacje.

Bez względu jednak na to, jakie rozwiązania technologiczne przyniesie nam przyszłość i czy nasz komputer będzie nam sprzymierzeńcem czy też wrogiem, pozostaje zawsze jeszcze kwestia powszechnej świadomości. Bez jej zwiększania nie stworzymy motywacji do wyjścia ze swojej bańki informacyjnej i do opierania naszej wiedzy na sprawdzonych niezależnie faktach. Całe szczęście ta świadomość rośnie: już dzisiaj w polskiej szkole dzieci uczą się o niebezpieczeństwach internetu, w tym o jakości treści. My też możemy dużo zrobić, chociażby dofinansowując darowiznami fundacje (wiarygodne!), budujące alternatywy.

Bez względu na to, jakie rozwiązania technologiczne przyniesie nam przyszłość i czy nasz komputer będzie nam sprzymierzeńcem czy też wrogiem, pozostaje zawsze jeszcze kwestia powszechnej świadomości. Bez jej zwiększania nie stworzymy motywacji do wyjścia ze swojej bańki informacyjnej i do opierania naszej wiedzy na sprawdzonych niezależnie faktach.

A jako puentę – jakkolwiek ironicznie by ona nie brzmiała, należy przypomnieć, że najlepiej propagować wiedzę o alternatywach wobec istniejących platform społecznościowych… przez publikację tego właśnie na tych platformach. Kiedy więc widzisz artykuł, notkę lub propozycję rozwiązania, które pomaga przezwyciężyć dzisiejszy klincz między interesem użytkownika a producenta systemu społecznościowego… to bez wahania podaj dalej!

Na górę
Close