W pułapce toksycznych modeli biznesowych

Konsumpcja darmowych usług cyfrowych, które sprawiają nam przyjemność, pomagają w życiu oraz rozwiązują nasze problemy – taką wspaniałą wizję rozpościera przed nami narracja głównego nurtu. Czy ten sielankowy obrazek nie przychodzi jednak jakimś kosztem? Gdzie w rewolucji cyfrowej jest miejsce na naszą podmiotowość? Czy wielkim cyfrowym gigantom – przyjmując ich aktualne modele biznesowe – może w ogóle zależeć na naszym dobru?

W pułapce cyfrowych gigantów

Zostaliśmy zwabieni w pułapkę cyfrowych ekosystemów takich jak Facebook czy Google. Internetowym gigantom udało się nas przyciągnąć obietnicą czegoś, co – w istocie – nigdy nie zostało nam dane: darmowych, spersonalizowanych usług, uszytych pod nasze potrzeby W rzeczywistości te platformy od początku nie traktowały nas jak klientów. Nigdy nie mogliśmy sterować ich logiką i decydować o tym, co tak naprawdę chcemy, żeby dla nas robiły, jakie doświadczenie chcemy tam przeżywać. Wchodząc w świat cyfrowych gigantów zostaliśmy raczej wpuszczeni w pewien eksperyment natury psychologicznej, socjologicznej i technologicznej, w ramach którego zarządzono nami za pomocą algorytmów. Nasze doświadczenie zoptymalizowano w taki sposób, żeby platformy cyfrowe mogły jak najwięcej zarobić na reklamie, a nie tak, żeby nam – konsumentom – było lepiej, wygodniej, milej czy bezpieczniej.

Internetowym gigantom udało się nas przyciągnąć obietnicą czegoś, co – w istocie – nigdy nie zostało nam dane: darmowych, spersonalizowanych usług, uszytych pod nasze potrzeby. W rzeczywistości te platformy od początku nie traktowały nas jak klientów.

Często nieświadomie jesteśmy poddawani ciągłemu psychologicznemu eksperymentowi, którego wyniki niewątpliwie są komercyjnie opłacalne i generują gigantyczne zyski. Ale nie są zdrowe dla nas, ludzi. Firmy, które stworzyły i dalej rozwijają te algorytmiczne laboratoria, są w pierwszej dziesiątce najbogatszych na świecie. Mówimy o potężnym kapitale ekonomicznym, który pochodzi przede wszystkim od innych firm (produkujących rozmaite przedmioty albo oferujących usługi, które muszą być gdzieś reklamowane) lub partii politycznych i pracujących dla nich agencji reklamowych. Te podmioty są w stanie zapłacić właścicielom gigantów technologicznych niemałe pieniądze za ich realną usługę, której istotą jest kształtowanie naszych wyborów konsumenckich i politycznych.

Na tym właśnie polega ta gra, którą od paru dekad toczą reklamodawcy i platformy internetowe ponad naszymi głowami. Nasza podmiotowość stoi w niej pod dużym znakiem zapytania – zarówno ta indywidualna (konkretnego człowieka w relacji z technologią), jak również zbiorowa (nas, jako społeczeństwa). W mojej ocenie – już choćby ze względu na założenia modelu biznesowego tych korporacji – powinniśmy dążyć do większej kontroli nad algorytmami, które nas profilują i podsuwają nam określone treści. Potrzebujemy nie tylko lepiej zrozumieć tę technologię, ale nade wszystko rozliczać administrujące nią firmy z celów, jakim ona faktycznie służy.

Jako jednostki jesteśmy wciągani w spiralę konsumpcji treści, w której jest naprawdę trudno zachować wstrzemięźliwość i zrozumieć, jakiego rodzaju mechanizmy na nas oddziałują. Nasza sytuacja jako społeczeństwa nie wygląda lepiej – nie mamy narzędzi poznawczych, nie mamy unormowanej wiedzy o tych systemach, bo ich właściciele taktycznie prezentują je jako „czarne skrzynki”, do których nie da się zajrzeć. Taka narracja jest konsekwentnie serwowana przez firmy technologiczne politykom oraz organizacjom walczącym o prawa w sieci. Oczywiście po to, aby utrudnić rozliczanie ich z celów, jakie stawiają swoim algorytmom.

Właściciele algorytmów taktycznie prezentują je jako „czarne skrzynki”, do których nie da się zajrzeć. Taka narracja jest konsekwentnie serwowana przez firmy technologiczne politykom oraz organizacjom walczącym o prawa w sieci. Oczywiście po to, aby utrudnić rozliczanie ich z celów, jakie stawiają swoim technologiom.

Równocześnie trzeba mieć świadomość, że procesy technologiczne i biznesowe, jakie zachodzą w ramach cyfrowych platform są obiektywnie skomplikowane. Ich głębokie zrozumienie wymaga wiedzy z wielu dziedzin, od psychologii po statystykę i programowanie. Jednym z problemów, z którymi mierzymy się przy każdej próbie uregulowania tych systemów, jest potężna przepaść poznawcza pomiędzy decydentami politycznymi którzy powinni tworzyć skuteczne prawo, chroniące naszą podmiotowość a twórcami tych złożonych systemów, którzy naszej podmiotowości zagrażają. To oczywiście ci drudzy rozdają karty i suflują dominującą narrację

Nie sprzyja nam również to, że platformy internetowe i wykorzystywane przez nie mechanizmy są nieustannie rozwijane. Próba ich uregulowania nie może zatem być tylko punktową inicjatywą. Potrzebujemy raczej systemu stałego reagowania i nadzoru nad tym rynkiem. Na ten moment nie mamy jednak ani organów ani narzędzi, które byłyby dość silne, żeby taką kontrolę sprawować i zaglądać „do środka” platform internetowych.

W wyścigu do dna

Dlatego też najwięcej wiedzy o tym, co tak naprawdę dzieje się wewnątrz tych firm, czerpiemy od kolejnych „sygnalistów”, czyli osób, które pracowały dla wielkich koncernów, projektowały kluczowe algorytmy lub produkty, a potem z różnych względów odchodziły z tych firm i decydowały się na publiczną krytykę praktyk, w których uczestniczyły. Takim sygnalistą jest m.in. Tristan Harris, dawny pracownik Google, który założył Center for Humane Technology. Mówi, że nie było w historii ludzkości droższej dla nas usługi niż ta darmowa. Za żadną nie zapłaciliśmy – jako społeczeństwo – wyższej ceny, liczonej w zdrowiu psychicznym, uzależnieniach, pieniądzach wydanych na niepotrzebne nikomu produkty czy błędnych wyborach politycznych

Zdaniem Harrisa szkody wyrządzanie nam przez model biznesowy platform internetowych można opisać jedną frazą: downgrading humanity, czyli degradowanie nas, jako ludzkości. Dzieje się tak, ponieważ algorytmy żerują na naszych bazowych, pierwotnych potrzebach i podstawowych instynktach. Wzmacniają w nas próżność, egoizm i skłonność do obwiniania innych za nasze problemy. Wspierają naszą skłonność do polaryzacji, uciekania w bańki informacyjne i szukania ukojenia w teoriach spiskowych. Nakręcają hejt i personalne nagonki w internecie. To wszystko zdaniem Tristana Harrisa jest skutkiem ubocznym modelu biznesowego wielkich platform, ale zupełnie nieprzypadkowym – te społeczne efekty są wpisane w działania systemów rekomendacyjnych, które mają jedno zadanie: zaangażować nas za wszelką cenę. Po to, żeby zysk z reklamy utrzymał się na wysokim poziomie, bo tylko zaangażowany, obecny użytkownik może zobaczyć i zareagować na reklamę. Zdaniem Harrisa obserwujemy swoisty „wyścig do dna” pomiędzy tego typu platformami, bo kto lepiej rozpracuje i wykorzysta nasze podstawowe instynkty, ten okaże się najbardziej skuteczny w angażowaniu, a tym samym osiągnie największe zyski z reklam.

Algorytmy wzmacniają w nas próżność, egoizm i skłonność do obwiniania innych za nasze problemy. Wspierają naszą skłonność do polaryzacji, uciekania w bańki informacyjne i szukania ukojenia w teoriach spiskowych. Nakręcają hejt i personalne nagonki – te społeczne efekty są wpisane w działania systemów rekomendacyjnych, które mają jedno zadanie: zaangażować nas za wszelką cenę.

Model biznesowy nie musi być toksyczny

Taka diagnoza może oczywiście sprowokować do radykalnego wniosku: zamknijmy te platformy albo sami się z nich, wycofajmy. W ten sposób rozwiążemy problem u źródła. Moim zdaniem nie o to jednak chodzi, by – w imię ochrony przed toksycznymi algorytmami – pozbawiać się dostępu do informacji i bardzo przydatnej infrastruktury do komunikacji w społeczeństwie. Powinniśmy dążyć do odzyskania tej infrastruktury dla naszych celów i wartości, a nie jej zniszczenia.

Współczesny świat jest zalany produktami i informacją. Jako jednostki jesteśmy wobec tego bezradni i potrzebujemy jakiegoś „przewodnika”, swoistego „filtru” zarządzającego dla nas tym nadmiarem. Z chęcią więc korzystamy z algorytmów Google czy Facebooka, które rekomendują nam co mamy czytać, co oglądać, co kupować i w co klikać. To bardzo wygodne, a wręcz psychologicznie niezbędne. Potrzebujemy narzędzia, które będzie dobierać treści, jakie są nam wyświetlane, pod nasze autentyczne potrzeby i zainteresowania. Sęk w tym, że platformy cyfrowe w tym momencie nie podążają wcale za naszymi zainteresowaniami i potrzebami, tylko realizują interes reklamodawców.

Problemem nie są ani same platformy internetowe, jako infrastruktura do komunikacji, ani profilujące nas algorytmy. Problemem jest to, że dziś realizują one szkodliwe dla ludzi cele, mimo że mogłyby działać inaczej. Jestem nawet w stanie uwierzyć, że wielu ludzi tworzących kluczowe usługi w ramach platform internetowych nie ma złych intencji. Przykładowo – może Marc Zuckerberg autentycznie uważa, że serwowanie ludziom informacji, które nie są wartościowe, ale szybko zyskują popularność i mają potencjał rozrywkowy, to świetny pomysł. Sęk w tym, że te decyzje zapadają wewnątrz firm i ani my, jako społeczeństwo, ani nasi reprezentanci nie jesteśmy w stanie ich kwestionować czy negocjować. Ponosimy za to ich bolesne konsekwencje.

Przykładem innego modelu biznesowego jest Netflix, w którym człowiek pozostaje podmiotem, bo płaci abonament za comiesięczną subskrypcję. Netflix nie ma interesu w tym, by zatrzymać nas przed ekranem jak najdłużej. Nie ma interesu w tym, by nas radykalizować, dołować albo wbijać na wyżyny zaangażowania emocjonalnego – on chce nam dać usługę, która sprawi, że z perspektywy miesiąca (a nie godziny czy dnia), ocenimy, że jest nam z tą usługą dobrze i warto przedłużyć jej subskrypcję o kolejny miesiąc.

Nie każdy wirtualny model biznesowy jest toksyczny. Dla przykładu, Netflix nie ma interesu w tym, by zatrzymać nas przed ekranem jak najdłużej, by nas radykalizować, dołować albo wbijać na wyżyny zaangażowania emocjonalnego – on chce nam dać usługę, której subskrypcję będziemy chcieli przedłużyć o kolejny miesiąc.

Poznałam tę firmę dość dobrze prowadząc badania o algorytmach i choć może to być dla niektórych zaskakujące, muszę przyznać, że oni rzeczywiście są w stanie wykazać, że działają na rzecz klienta. Ich algorytmy (a mają ich wiele) specjalizują się w obserwacji tego, co robimy oraz w kontekstowym podpowiadaniu co moglibyśmy chcieć zobaczyć, ale jest równocześnie ktoś, kto projektuje całe to doświadczenie – zespół ludzki, który czuwa nad tym, żeby nas nie przygnieść, nie zniechęcić, nie uzależnić, bo to wcale nie jest w ich interesie.

Ten przykład pokazuje, że wybór modelu biznesowego w dużej mierze determinuje jakimi kartami możemy grać. Jeśli mamy do czynienia z ogromnymi firmami, z których większość zarabia na nas a nie od nas, z których większość nie czyni z nas klienta czy podmiotu, lecz dla których to my jesteśmy towarem czy nawet „cyfrową biomasą”, to nie możemy wyjść z konfliktu wartości wbudowanego w fundament takiego modelu. Nie możemy powiedzieć firmie, która działa w oparciu o model przerobienia użytkownika na profil marketingowy, za który płaci ktoś trzeci, żeby od jutra tak nie robiła. Albo zmierzymy się z tym, że taki model jest toksyczny i musimy go przebudować albo będziemy naklejać plasterki na otwarte rany.

Zmienić na lepsze wirtualną przestrzeń

Ta rewolucja w myśleniu o modelu biznesowym już się powoli dzieje. Wysiłki regulacyjne Unii Europejskiej zdecydowanie ewoluują w tym kierunku. Regulacja znana powszechnie pod hasłem „RODO” była komunikatem w stylu „drogie firmy, wiemy, że robicie różne złe rzeczy, ale spróbujcie być bardziej przejrzystymi, mówić ludziom więcej, uzyskiwać od nich zgody na to, co robicie”. To podejście dobrze się nadaje do punktowania najgorszych praktyk, ale nie jest w stanie wymusić na firmach zmiany modelu biznesowego. Ta regulacja nadal ma duży sens, ale nie wyzwoli nas od zagrożeń wpisanych w DNA koncernów internetowych, które czerpią swoje zyski z profilowania i angażowania ludzi. To, że Google czy Facebook poproszą nas o zgodę na takie profilowanie. obiecując lepsze doświadczenie, nic w praktyce nie zmienia. Musimy liczyć się z tym, że taka zgoda będzie nadużywana i wykorzystywana jako listek figowy dla naprawdę niebezpiecznych praktyk, które przerabiają nas na „cyfrową biomasę”.

Unia Europejska również wyciąga wnioski ze stosowania RODO i zmienia swoje podejście do regulowania wielkich platform. W Europie nie pojawiają się pomysły podzielenia gigantów technologicznych na mniejsze firmy (które zapewne robiłyby to samo), ale pewną nośność zyskuje pomysł rozwarstwienia największych platform. Na czym miałoby to polegać?

Otóż platformy takie jak Facebook i Google mają warstwy – tak jak cały internet. Na spodzie jest warstwa złożona z kabli, hardware’u, serwerów, na niej działa warstwa danych, które wszyscy wkładamy do sieci, czyli hosting, i wreszcie warstwa oprogramowania, takiego jak Facebook czy Google, która jest dostępna nam, użytkownikom. Na tych samych kablach, tych samych danych dostarczanych przez tę samą sieć użytkowników, można położyć nowe oprogramowanie, które nie będzie robiło pewnych rzeczy – bo będzie działało w naszym interesie, a nie w interesie reklamodawców.

W takim systemie inne aplikacje i platformy społecznościowe mogłyby się komunikować z serwerami samego Facebooka i – w oparciu o jego infrastrukturę – rozwijać swoje alternatywne algorytmy. Na przykład: alternatywny interfejs do przeglądania strumienia aktualności, który nie opiera się na zyskach z reklamy i tym samym zakłada inne wskaźniki, niż zaangażowanie, albo komunikatory autentycznie chroniące prywatność użytkowników.

Przy czym to wcale nie musiałyby być usługi komercyjne. Na przykład wyspecjalizowana organizacja społeczna mogłaby stworzyć algorytm, który np. skutecznie czyści nam internet z mowy nienawiści (jeśli sobie tego zażyczymy), albo algorytm pokazujący nam informacje z różnych stron politycznej barykady. Pomysłów na społeczne innowacje można mnożyć, ale zacząć trzeba od otworzenia największych platform internetowych na tego typu modyfikacje. A to może zrobić jedynie europejski regulator.

Taka zmiana wspierałby naszą podmiotowość – i tę indywidualną, i tę zbiorową. Wreszcie moglibyśmy, w ramach już istniejących platform, realizować własne cele, których nie wspierają komercyjne firmy, bo zwyczajnie nie jest to w ich interesie. Jestem przekonana, że możemy wymusić tego rodzaju rozwarstwienie wielkich platform i za ich algorytmy wstawić te lepsze, finansowane bezpośrednio przez nas (model subskrypcji) lub pośrednio (finansowanie publiczne lub pozarządowe). Myślę, że skoro stać nas na rozbuchaną konsumpcję, to powinno być nas stać również na inwestycję w zdrową, zrównoważoną dietę informacyjną i nietoksyczne treści dla naszych dzieci.

Skoro stać nas na rozbuchaną konsumpcję, to powinno być nas stać również na inwestycję w zdrową, zrównoważoną dietę informacyjną i nietoksyczne treści dla naszych dzieci.

Zmiana musi zajść również w nas

W parze ze zmianą dominującego modelu biznesowego platform internetowych musi pójść też zmiana w nas. Myślę, że nadszedł czas na trzeźwą, dojrzałą weryfikację naszych oczekiwań wobec technologii. W rewolucję technologiczną została wpisana swego rodzaju obietnica, że jeśli damy się zeskanować, opisać, zmierzyć różnymi opaskami i urządzeniami smart wszelkiego typu, to ktoś zdiagnozuje naszego raka, depresję, cukrzycę bardzo wcześnie. Ktoś podpowie nam cudowną dietę, sposób życia, albo wskaże sport, który powinniśmy uprawiać. To obietnica rzeczywistości, w której nie będziemy czekać w kolejce do lekarza, a nawet nie trzeba będzie w ogóle żywego specjalisty bo będzie algorytm, który nas zdiagnozuje, wszystko nam opowie i zaleci kurację.

To jest niebezpieczna fikcja, z którą wcześniej czy później będziemy musieli się zderzyć. Wszystkie eksperymenty, jak choćby doświadczenia firmy IBM z wykorzystaniem do celów medycznych „Watsona”, a więc sztucznej inteligencji, pokazały ograniczenia taj narracji. Nie dość, że nie mamy sztucznej inteligencji, która by poradziła sobie z diagnostyką, to nie mamy również zasobów finansowych pozwalających na leczenie wszystkich pacjentów, których dobrze działający system mógłby zdiagnozować i zaalarmować.

Ten wniosek dotyczy zresztą różnych innych ról, do których próbujemy obecnie obsadzić sztuczną inteligencję. Chcielibyśmy wykorzystywać ją do problemów, którymi my jako ludzie nie chcemy się bezpośrednio zajmować – np. osadzać w bardzo niewdzięcznych rolach prewencji kryminalnej, obrony granic przed migrantami, wykorzystać do ataków militarnych czy dyscyplinowania ludzi podczas protestów społecznych.

Myślę, że potrzebujemy zrobić krok wstecz i nie ulegać pokusie cedowania na technologie kolejnych decyzji, z którymi sobie nie radzimy jako jednostki lub społeczeństwo. Nie ulegajmy pokusie ustawiania wcale­‑nie­‑inteligentnej technologii w roli czegoś/kogoś, kto zorganizuje za nas nasze życie. Nie odczujemy znaczącej poprawy w zakresie naszej indywidualnej i zbiorowej podmiotowości jeżeli sami nie weźmiemy odpowiedzialności za swoje wybory konsumenckie, polityczne i życiowe. Powinniśmy odrzucić pokusę przekonania, że to algorytmy i technologie urządzą nam życie lepiej niż my sami. Nie, to jest jednak nasza odpowiedzialność.

Potrzebujemy zrobić krok wstecz i nie ulegać pokusie cedowania na technologie kolejnych decyzji, z którymi sobie nie radzimy jako jednostki lub społeczeństwo. Odrzućmy pokusę przekonania, że to algorytmy i technologie urządzą nam życie lepiej niż my sami. Nie, to jest jednak nasza odpowiedzialność.

Niniejszy artykuł powstał na bazie wystąpienia Katarzyny Szymielewicz podczas XVI Kongresu Obywatelskiego

Artykuł ukazał się w Pomorskim Thinkletterze nr 4/2021. Kompletne wydanie w postaci pliku pdf można pobrać tutaj.

Wydawca

logo IBnGR

Partnerzy

Samorząd Województwa Pomorskiego                    Miasto Gdańsk                    Pomorski Fundusz Rozwoju sp. z o.o.                    Maritex

Na górę
Close