Maciek Borówka – Członek Zarządu firmy Tapptic SA z siedzibą w Brukseli oraz Prezes Zarządu Tapptic Poland z siedzibą w Gdańsku. W trakcie swojej kariery zawodowej zdobył doświadczenie jako kierownik projektów i zespołów we Francji, Włoszech, w Finlandii i w Polsce. Twórca programu stypendialno­‑edukacyjnego dla młodych: Akademia Alkantara.

Wypływające co jakiś czas na światło dzienne afery z Big Tech w roli głównej pokazują, że obawy dotyczące nowych – coraz śmielej wkraczających w nasze życie technologii – nie są bezpodstawne. Bardzo łatwo jest je bowiem wykorzystać przeciwko ludziom w celu osiągnięcia określonych, często olbrzymich, korzyści. Pokusa ta może okazać się nie do odparcia – szczególnie, że model stojący u podstaw wielu biznesów technologicznych jest z gruntu toksyczny: wykorzystuje on takie cechy techniki, które wprost nas uzależniają i czynią nas podatnymi na manipulacje. Dlatego tak ważne jest wypracowanie skutecznych mechanizmów społecznego nadzoru na Big Techami. Czy to możliwe? Z pewnością potrzebne – i to najlepiej od zaraz.

Facebook podpadł wszystkim

Kiedy Frances Haugen przyniosła do Washington Post stertę dokumentów firmy Facebook, które ponad wszelką wątpliwość wykazywały to, o czym branżowa prasa mówiła już od wielu lat, czyli celowe, niezgodne z prawem, etyką i interesem użytkowników działania korporacji, temat bardzo szybko przesunął się na czołówki mainstreamowych mediów z całego świata. Niestety, większość tychże mediów skoncentrowała się tylko na tym jednym przypadku, czyli firmie Facebook, z lubością cytując co smakowitsze fragmenty dokumentów oraz przypominając inne dotychczasowe wycieki informacji.

Nie ma w tym w sumie nic dziwnego, bo Facebook naraził się przez ostatnie lata swojej działalności chyba wszystkim:

  • tradycyjnym mediom, bo zabrał im znaczną część klientów, którzy właśnie z Facebooka czerpią wiedzę o świecie,
  • antyterrorystom, bo nadal bardzo łatwo znaleźć w tym serwisie treści pochwalające wszelakiego rodzaju terroryzm,
  • ofiarom przestępstw, ponieważ z góry stały na przegranej pozycji, jeżeli ich agresorem był ktoś ważny (i więc chroniony),
  • psychoterapeutom młodzieży, którzy dowiedzieli się, że ich wysiłki często idą na marne, ponieważ wpływ produktów tej firmy na młodych ludzi jest przemożny,
  • skrajnej prawicy, po zamknięciu konta Donalda Trumpa (bez procesu, wyroku i jakiejkolwiek zewnętrznej kontroli),
  • artystom, bo profile zawierające jakikolwiek cień nagości są zamykane bez względu na wartość estetyczną,
  • i tak dalej, i tak dalej.

Niestety, ta sprawa i to, że dano jej tak dużą widoczność spowodowała, że przykryty został problem bardziej fundamentalny, a mianowicie to, że bardzo łatwo wykorzystać technologię przeciwko ludziom w celu osiągnięcia określonych, często olbrzymich korzyści.

Kiedy magia jest dobra, a kiedy zła?

Sam temat wpływu techniki na ludzi nie jest nowy, bo – jak mawia stare powiedzenie – „każda wystarczająco zaawansowana technologia w niczym nie różni się od magii”. Dlatego też ma ona potencjał do generowania w nas strachu, ale z drugiej strony, to sama technologia może nas przed zagrożeniami obronić (a przynajmniej zmniejszyć ich wpływ). W tym celu powinna jednak zostać na początku odczarowana.

Jak mawia stare powiedzenie: „każda wystarczająco zaawansowana technologia w niczym nie różni się od magii”. Dlatego też ma ona potencjał do generowania w nas strachu, ale z drugiej strony, to sama technologia może nas przed zagrożeniami obronić.

Mimo iż to firma Facebook oraz jej produkty zajmują cały czas czołowe miejsca w gazetach, to jednak wiele osób (w tym autor niniejszych słów) od jakiego czasu sygnalizuje, że cechą stojącą na fundamencie tego typu systemów jest toksyczność. Argumentują to faktem, że wykorzystują one takie cechy techniki, które wprost uzależniają ludzi i pozwalają im być łatwymi ofiarami manipulacji. Dla przykładu: ostatnio pojawiło się kilka artykułów na temat platformy TikTok, której twórcy zaimplementowali takie same mechanizmy, jak twórcy Facebooka. W dodatku fakt, że technologia ta pochodzi z Chin nie napawa optymizmem co do ewentualnej przejrzystości firmy w wypadku chęci obiektywnej kontroli. Analiza zachowań Google’a i Amazona też zresztą wykazuje, że ich produkty manipulują nami codziennie, a dodatkowo – za sprawą rozmiaru tych firm – ich wpływ na świat jest ogromny.

Poniższa teza jest poprawna: oddanie technologii w złe ręce prowadzi do złych skutków. Ale nie jest to ani wina samej technologii, ani tym bardziej tego, że coraz większa część naszych decyzji życiowych jest podejmowana przez technologiczne algorytmy wymyślone przez innych i zdecydowanie zbyt skomplikowane, aby każdy mógł je samodzielnie zrozumieć i ocenić. Tak jest od jakiegoś czasu, tak też będzie w przyszłości. Ale uwaga: nie jest to fundamentalnie złe.

Świetnym przykładem na zobrazowanie tej sytuacji jest system ABS (zapobiegający blokowaniu się kół przy hamowaniu). W swoim założeniu ma on podejmować decyzję zamiast kierowcy, ustalając, czy w danej sekundzie hamulce działają czy nie. Jakakolwiek jego pomyłka lub złe działanie mogą mieć tragiczne konsekwencje – ze śmiercią „użytkownika” włącznie. Mimo to nikt jednak nie uzna, że system ABS odbiera nam w niedopuszczalny sposób naszą wolność, czy ogólnie podmiotowość. Wręcz odwrotnie: jest on w tej chwili pożądanym przez klientów standardem, uznawanym za rzecz bezwzględnie dobrą.

Dlaczego więc ABS jest dobry, a sieci społecznościowe, które proponują nam co przeczytać lub obejrzeć, są złe? Zwróćmy uwagę na dwie zasadnicze różnice – po pierwsze: na intencje autorów tych rozwiązań, a po drugie – na sposób wytworzenia tych technologii.

Pierwszy problem – intencji, musi niestety być rozwiązany przez ludzi. Nie jesteśmy tutaj jednak całkiem bezbronni – państwa dysponują już systemami prawnymi, które zabraniają działań szkodliwych i dają możliwości ukarania winnych (zapewniając jednocześnie bezpieczeństwo sygnalizantom, np. wspominanej pani Haugen). Ważna jest również sama kwestia edukacyjna – uczenie przyszłych pokoleń, które nie znają „świata bez Google’a i Facebooka”, że z używaniem tych serwisów wiąże się bardzo konkretne ryzyko. Swoją drogą, nie ukrywam, że z perspektywy rodzica oraz osoby działającej w świecie młodych ludzi, aktualna anty‑Facebookowa histeria medialna jest mi bardzo na rękę, bo naocznie udowadnia pewne kwestie, o których moim podopiecznym mówię już od jakiegoś czasu (z różnym dotychczas skutkiem).

Ważna jest kwestia edukacyjna – uczenie przyszłych pokoleń, które nie znają „świata bez Google’a i Facebooka”, że z używaniem tych serwisów wiąże się bardzo konkretne ryzyko.

Wszystkie działania ludzkie: na poziomie prawnym, organizacyjnym czy edukacyjnym są świetne i naprawdę mogą zmienić świat. Jednak ich efekty są widoczne dopiero po jakimś czasie, często liczonym w latach. Uważam więc, że potrzeba metod obniżenia – chociaż trochę – toksyczności tych produktów istnieje już teraz.

Jakie działania „na już”?

Tutaj można wrócić do porównania do systemu ABS (czy jakiegokolwiek innego systemu tego typu). Podstawową, wręcz szkolną zasadą działania algorytmów w tych produktach, jest istnienie innych, niezależnych algorytmów, kontrolujących ten pierwszy. Oczywiście, można podjąć argument, że taki „wirtualny policjant” kontrolujący główny algorytm powinien również być kontrolowany i „kto skontroluje kontrolujących?”, ale jak pokazuje praktyka każdego zakorkowanego poranka w każdym mieście statystyka jest jednoznaczna: system działa, a samochody nie wpadają na siebie z powodu błędów systemów informatycznych.

Musimy jednak pamiętać, że algorytm algorytmowi nierówny i nie z każdym możemy podjąć walkę i go skontrolować. Ale nie znaczy to, że nie powinniśmy spróbować walczyć z tymi, z którymi jest to możliwe… W tym celu podzielmy algorytmy na pewne klasy powiązane z celami ich działania.

Pierwsza klasa algorytmów służy do tego, aby namówić nas np. na obejrzenie kolejnego odcinka serialu. Możemy nazwać je algorytmami angażującymi. Jakakolwiek próba ich kontrolowania jest bez sensu: użytkownik o słabej woli wyłączy naszą blokadę nawet jeżeli jest godzina 4 rano i obejrzał już kilkanaście odcinków.

Zupełnie inną klasą są algorytmy selekcjonujące treść, która zostanie nam pokazana na ekranie, np. w sieci społecznościowej czy portalu video. Tutaj sprawa jest bardziej skomplikowana. Nawet jeżeli pokazany artykuł manipuluje rzeczywistością, np. cytuje marnej jakości autorytety, to ingerencja w niego wiąże się z ryzykiem łamania wolności słowa – każdy powinien mieć prawo do słuchania nawet najgorszych autorytetów na świecie. Działanie „kontrolne” mogłoby polegać na sprawdzeniu tematyki artykułu i – jeżeli odpowiada jednemu ze znanych tematów – pokazania innych artykułów na ten temat pochodzących z różnych źródeł, licząc że użytkownik nie do końca „zaślepiony ideologią” przynajmniej rzuci okiem na alternatywne tytuły.

Realizacja takiego systemu jest oczywiście trudna: kto wybierze, jakie źródła będą się pokazywały (wszystkie czy tylko prasowe, publiczne czy prywatne etc.), wymaga z pewnością głębszej analizy. Dodatkowo trudno powiedzieć, jak wiele osób będzie zainteresowanych wychodzeniem ze swojej bańki poglądów i czytaniem alternatywnego punktu widzenia na dany temat.

Niezależnie od manipulacji (jak widać powyżej – trudnej do zwalczenia), kolejnym coraz częściej pojawiającym się złem są wprost fałszywe informacje. Dotyczy to głównie informacji wizualnych: zdjęcie zrobione w Białorusi pokazywane jako scena z Luksemburga. Albo kadr z filmu pokazywany jako scena prawdziwa. Lub też tzw. „deepfake” czyli całkowicie sfabrykowane wideo danej osoby. Tutaj sprawa kontroli jest prosta, a jej efekt jednoznacznie pozytywny: użytkownik mając na ekranie takie zdjęcie, film lub tekst dostaje jednoznaczną informację: „to, co widzisz przed sobą jest po prostu fałszywką”. Zakładam, że wielu z nich weźmie pod uwagę tę informację i nie „przekaże dalej” fałszywego zdjęcia czy filmiku, ograniczając „epidemię” takich treści. A fałsz, często produkowany celowo przez służby specjalne krajów niekonieczne nam przyjaznych, to coraz większy procent informacji dostępnej w sieciach społecznościowych. Warto z nim walczyć, bo walka ta – dzięki technologii – nie jest taka trudna.

Fałszywe informacje internetowe powinniśmy traktować jak wirusy komputerowe. W ich wypadku z jednej strony uczymy o nich nasze dzieci w szkole na lekcjach informatyki, a z drugiej strony używamy technologicznych programów antywirusowych. Podobnie należałoby postępować tzw. fejkami: na komputerach w szkole zainstalować nakładkę na przeglądarkę, która ostrzega użytkownika przed fałszywkami, regularnie ją aktualizować, tłumaczyć jak ważne jest jej stosowanie i pokazywać dzieciom, jak tę nakładkę zainstalować na telefonie (swoim i rodziców!). Technologia naprawdę może pomóc.

Coraz częściej pojawiającym się złem są wprost fałszywe informacje. Dotyczy to głównie informacji wizualnych: zdjęcie zrobione w Białorusi pokazywane jako scena z Luksemburga itp. Tego typu fejki powinny być traktowane jak wirusy komputerowe.

Samoregulacji nie będzie

Awantura o Facebooka pokazała, że firmy technologiczne stojące za największymi produktami społecznościowymi już dawno porzuciły swoje ideały z początków historii Doliny Krzemowej. Nie ma co liczyć ani na ich samoregulację, ani na zdrową konkurencję. Tylko skoordynowane działania na wielu poziomach: prawnym, ekonomicznym, edukacyjnym mogą przynieść dobre skutki. Jak widać, technologia też może pomóc w walce, przy użyciu schematów obecnych już w innych obszarach. Nie bez znaczenia jest fakt, że społeczeństwa demokratyczne wiele tracą na tolerowaniu patologii sieci społecznościowych – mają więc interes polityczny i ekonomiczny w uświadomieniu swoim obywatelom prawdziwego obrazu sytuacji. Może jest to też metoda na finansowanie takich narzędzi: wykorzystanie pieniędzy z budżetów na obronę kraju.

Nie ma co liczyć ani na samoregulację firm technologicznych, ani na zdrową konkurencję między nimi. Tylko skoordynowane działania na wielu poziomach: prawnym, ekonomicznym, edukacyjnym mogą przynieść dobre skutki.

Z pewnością nie uratujemy wszystkich osób i nie zabezpieczymy się przed wszystkimi zagrożeniami, ale jestem przekonany, że mimo wszystko możemy wpłynąć na szybkie i widoczne poprawienie jakości naszej wspólnej wirtualnej agory.

 

Artykuł ukazał się w Pomorskim Thinkletterze nr 4/2021. Kompletne wydanie w postaci pliku pdf można pobrać tutaj.

 

Wydawca

logo IBnGR

 

Partnerzy

Samorząd Województwa Pomorskiego                    Miasto Gdańsk                    Pomorski Fundusz Rozwoju sp. z o.o.                    Maritex

powrót
Maciek Borówka

Maciek Borówka

Prezes Zarządu, Tapptic Polska, Członek Zarządu, Tapptic SA

Maciek Borówka – Członek Zarządu firmy Tapptic SA z siedzibą w Brukseli oraz Prezes Zarządu Tapptic Poland z siedzibą w Gdańsku. W trakcie swojej kariery zawodowej zdobył doświadczenie jako kierownik projektów i zespołów we Francji, Włoszech, w Finlandii i w Polsce. Twórca programu stypendialno­‑edukacyjnego dla młodych: Akademia Alkantara.