Generatywna AI – czy owinie nas w kokon iluzji?

Uruchomienie w 2022 roku ChatGPT można uznać za symboliczne wejście świata w erę generatywnej sztucznej inteligencji. Choć na razie technologia ta dopiero raczkuje, to już w tym momencie w wielu aspektach przekracza ludzkie zdolności intelektualne i wszystko wskazuje na to, że – niczym internet czy smartfon – będzie miała przełomowy charakter. Czym różni się generatywna AI od tej „zwykłej”? Co jej rozpowszechnienie może oznaczać z punktu widzenia gospodarki, ale i pojedynczego człowieka? W jaki sposób możemy przygotować się do lepszego zaadaptowania tej technologii?

Rozmowę prowadzi Marcin Wandałowski – redaktor Kongresu Obywatelskiego.

Głośno jest w ostatnim czasie o generatywnej sztucznej inteligencji, której bodaj najbardziej znanym przykładem jest obecnie ChatGPT. Z czym tak właściwie mamy do czynienia?

Generatywna sztuczna inteligencja jest narzędziem zdolnym do tworzenia nowych treści, takich jak teksty, ale też obrazy, filmy czy dźwięki. Jak Pan zaznaczył, najbardziej znaną dziś technologią tego typu jest ChatGPT, bazujący na wielkim modelu językowym (large language model). W uproszczeniu – algorytm dysponuje ogromną wiedzą (na ten moment dostępną głównie w języku angielskim), zebraną w milionach gigabitów danych, którą jest w stanie wykorzystywać do tworzenia nowych treści. W tym momencie dane te obejmują przede wszystkim zasoby internetowe i biblioteczne, natomiast już teraz rozwijane są inne podobnego typu aplikacje, jak np. Google Bard, który skupia się na „wyposażeniu” algorytmu w wiedzę o charakterze bardziej naukowym, profesjonalnym, pochodzącą z prac badawczych i czasopism znajdujących się w amerykańskich i brytyjskich archiwach.

Czym generatywna sztuczna inteligencja różni się od „zwykłej” AI – gdzie leży linia podziału?

Do tej pory znana nam sztuczna inteligencja była wykorzystywana w dużej mierze do różnego rodzaju optymalizacji – naukowych, technicznych czy księgowych. Jej algorytmy służyły nam jako wsparcie w podejmowaniu decyzji czy w określaniu pewnych planów. Same w sobie nie tworzyły one jednak nowych treści, tak jak potrafi to robić generatywna AI.

Jak duże zmiany może za sobą pociągnąć sztuczna inteligencja w wersji generatywnej?

Od czasu do czasu mamy do czynienia z zachodzeniem pewnych zmian, które wchodzą do naszej gospodarki, społeczeństwa czy kultury po cichu, aż nagle – zanim się obejrzymy – zmieniają świat nie do poznania. Tak było z elektrycznością, z internetem czy smartfonami i wiele wskazuje na to, że tak samo będzie z generatywną sztuczną inteligencją.

Choć stawia ona tak naprawdę dopiero pierwsze kroki, to już teraz przekracza zdolności intelektualne ludzi i potrafi tworzyć teksty, które trudno jest odróżnić od tych, pisanych przez człowieka. Jej wykorzystanie będzie się w kolejnych latach tylko poszerzało – już obecnie można znaleźć przykłady firm, które chcą rozwijać nowe możliwości oferowane przez algorytmy uwzględniające horyzonty czasowe, takie jak np. samodzielne tworzenie planów produkcyjnych czy dzwonienie w celu załatwienia rozmaitych spraw. Kolejne miesiące i lata przyniosą nam z pewnością wiele ciekawych przykładów zastosowania tej technologii. Jest i będzie ona napędzana trzema kluczowymi czynnikami: zwiększaniem mocy obliczeniowej, zbieraniem coraz większych ilości danych oraz stosowaniem coraz bardziej zaawansowanych algorytmów.

Rozwój generatywnej AI jest i będzie napędzany trzema kluczowymi czynnikami: zwiększaniem mocy obliczeniowej, zbieraniem coraz większych ilości danych oraz stosowaniem coraz bardziej zaawansowanych algorytmów.

W tym miejscu zaznaczyłbym również, że wszystkie dotychczasowe przełomowe wynalazki, zaczynając od koła, przez telefon, radio, telewizję, aż po internet oraz smartfon, stworzone zostały przez człowieka. Żadna z tych technologii nie wymyśliła żadnej kolejnej. Teraz mamy do czynienia z rozwiązaniem, które jest w stanie dojść do własnych wniosków, do własnych decyzji i do własnych pomysłów, a nawet wynalazków. To ogromny przełom, który w dodatku będzie zdolny do dalszego samodoskonalenia, na bazie pozyskiwanej przez siebie wiedzy.

Mamy zatem do czynienia trochę z takim technologicznym niemowlakiem­‑geniuszem, który rozwija się i rośnie jak na drożdżach, a w przyszłości będzie zdolny do tworzenia niesamowitych rzeczy, natomiast w tym momencie, jeśli nie „nakarmimy” go odpowiednią ilością danych – nie przetrwa.

Tak właśnie jest obecnie ze sztuczną inteligencją: czy to „zwykłą”, czy generatywną – musi być ona „karmiona” tym, co wymyśliła ludzkość. Taki stan nie będzie jednak trwał wiecznie – już niebawem „wsadem” merytorycznym algorytmów będą mogły być treści wytwarzane przez inne algorytmy.

Wielkie modele językowe niemal po mistrzowsku opanowały nasz środek komunikacyjny i skarbiec całej naszej wiedzy – język. Jakim doświadczeniem dla człowieka może być funkcjonowanie w świecie, w którym nie wiadomo, czy dany tekst – a w przyszłości również: dany odgłos czy dany film – został stworzony przez innego człowieka czy przez technologię?

Stworzy to ogromne pole do manipulacji człowiekiem. Sytuację tę porównałbym do puszczenia w obieg gospodarczy fałszywych pieniędzy – gdy będzie ich zbyt dużo i będzie je trudno odróżnić od pieniędzy prawdziwych, to ludzie stracą zaufanie do tego środka płatniczego. Tak samo może być z językiem – nie można wykluczyć, że stracimy zaufanie do niego, do informacji, do rzekomych faktów czy całych narracji. Skąd bowiem będziemy wiedzieli, które z nich pochodzą od człowieka, a które nie? Wielu ludzi może w konsekwencji popaść w bezradność, bezsilność i depresję.

Gdy nie wiadomo będzie, czy dany tekst został napisany przez człowieka czy przez algorytm, ludzie mogą stracić zaufanie do języka, do informacji, do rzekomych faktów czy narracji. Skąd bowiem będziemy wiedzieli, które z nich pochodzą od człowieka, a które nie?

A będzie to dotyczyło również najbardziej wrażliwych części ludzkiego życia i świadomości, jak np. religii. Byliśmy już świadkami badania, w którym ChatGPT dostał polecenie wygenerowania pisma w rodzaju Biblii, opierając się na doktrynach wielu znanym człowiekowi religii. Nietrudno wyobrazić sobie sytuację, w której ktoś natrafiłby na tę księgę, będąc przeświadczonym, że jest ona autentyczna, a nie wygenerowana przez algorytm. Czy modliłby się zatem do bóstwa stworzonego przez AI?

Koniec końców sztuczna inteligencja może nas „owinąć” w swego rodzaju kokon iluzji, podobny do złowrogiego demona Kartezjusza, próbującego oszukać człowieka poprzez tworzenie iluzji rzeczywistości i doprowadzić go do momentu, w którym nie będzie potrafił odróżnić prawdy od nieprawdy. Kartezjańską receptą na tę sytuację były słynne słowa: cogito ergo sum – myślę, więc jestem. Czy sam fakt myślenia, zdolności do percepcji rzeczywistości przez człowieka uchroni go jednak przed demonem iluzji AI, zdolnym do ciągłego samoulepszania?

Wygląda na to, że wchodzimy na kolejny, bardzo zaawansowany już poziom możliwości manipulowania człowiekiem przez technologię. Poprzednia faza, obejmująca m.in. zamykanie nas w bańkach światopoglądowych przez Facebooka dla zwiększenia klikalności, ale też dla podwyższenia poziomu satysfakcji użytkowników z korzystania z serwisu, jawi się w tym kontekście jako wręcz subtelna…

Tak, to zdecydowanie krok dalej. Niektórzy, jak np. izraelski filozof Juwal Harari, twierdzą, że w kolejnej fazie ChatGPT będzie się w stanie z nami zaprzyjaźnić, gdyż będzie nas już coraz lepiej znał – będzie wiedział, co lubimy, a czego nie, czym się interesujemy, jaki jest nasz światopogląd, co nam sprawia przyjemność. Nawiązywanie przyjaźni, czyli jakby nie patrzeć – bardzo bliskich, intymnych wręcz relacji – będzie stanowiło jeszcze większe narzędzie wpływu, manipulacji na dokonywane przez nas już w realnym życiu decyzje.

Historia ludzkości podpowiada nam, że za rozwojem każdej technologii zawsze stały pewne siły – poszczególne rozwiązania pojawiały się w przestrzeni z jakiegoś powodu, ktoś je musiał opracować czy spopularyzować. Kto zatem stoi dziś za rozwojem generatywnej AI?

Siły napędzające rozwój AI są skoncentrowane wokół prywatnych firm kierowanych interesem zysku i poszukiwaniem kolejnych szans biznesowych. Oczywiście motywacja ta jest zazwyczaj skryta głęboko pod hasłami dotyczącymi wzmocnienia produktywności, zmniejszenia kosztów czy ułatwienia życia człowiekowi. Jak to jednak w gospodarce bywa – główną motywacją jest chęć zarobienia pieniędzy. O ile nie ma w tym może niczego zaskakującego czy złego, o tyle problemem staje się fakt, że rozwój tej technologii wymyka się spod kontroli większości państw i społeczeństw.

Stanowi to twardy orzech do zgryzienia w szczególności dla społeczeństw demokratycznych, które zdają się nie posiadać żadnych narzędzi mogących utrzymać generatywną AI w ryzach. Z drugiej strony państwa – w szczególności autorytarne – mają niepowtarzalną szansę „przejąć” ją dla własnych celów. Dla Chin, wraz z USA – światowym liderem w tej dziedzinie – sztuczna inteligencja staje się już teraz środkiem kontroli społecznej, ograniczającym niewłaściwe działania interpersonalne i międzyorganizacyjne, zgodnie z obowiązującym prawem. Aby „ulepszyć” i usprawnić takie społeczeństwo, ludzie będą musieli zapłacić cenę własnej wolności i poczucia ciągłej inwigilacji swojego życia. Wprowadzenie podobnych kontroli w krajach zachodnich jest tylko kwestią czasu.

Państwa – w szczególności autorytarne – mają niepowtarzalną szansę przejąć generatywną AI dla własnych celów. Dla Chin, wraz z USA – światowym liderem w tej dziedzinie – sztuczna inteligencja staje się już teraz środkiem kontroli społecznej, ograniczającym niewłaściwe działania interpersonalne i międzyorganizacyjne, zgodnie z obowiązującym tam prawem.

Dlaczego tak trudno jest „zapanować” nad generatywną AI?

ChatGPT „rozbija” język na elementarne człony, a następnie każdemu słowu – w zależności od jego znaczenia w danym kontekście – nadaje pewną wagę. Równolegle udoskonala związki między słowami przez sieci neuronowe, a zatem kilka warstw powiązanych ze sobą neuronów, które uczą się na bazie poprzednich tekstów, rozpoznając wyróżnienia rozmaitych ciężarów gatunkowych, przepowiadając pojawienie się następnych słów. Jako ludzie już w tym momencie nie mamy kontroli nad tym, w jaki sposób owe wagi są przypisywane; jak de facto następuje proces uczenia się algorytmów. A przecież dziś mamy o tyle łatwiej, że systemy te są „karmione” treściami wygenerowanymi przez istoty ludzkie. Obecnie mówi się, że teksty tworzone przez ChatGPT odwzorowują teksty pisane przez człowieka raczej jako gatunku niż jednostki.

Sytuacja skomplikuje się jeszcze bardziej w kolejnych latach, gdy algorytmy będą uczyły się w oparciu o analizy, plany i prognozy generowane przez inne systemy, na bazie nieznanego człowiekowi rozumowania. W tym momencie wykroczymy już poza ludzką inteligencję i wtedy dopiero zrobi się nam obco, nieludzko. Swoją drogą – jeśli w oparciu o wspomniane wytworzone przez AI analizy czy plany, stworzone zostaną realne rozwiązania, jak np. instrumenty finansowe, to w wypadku ich załamania się, nikt nie będzie wiedział, dlaczego rynki finansowe się zawaliły, gdyż nikt ich de facto nie będzie rozumiał…

W kolejnych latach algorytmy będą uczyły się w oparciu o analizy, plany, prognozy generowane przez inne systemy, na bazie nieznanego człowiekowi rozumowania. W tym momencie wykroczymy już poza ludzką inteligencję i wtedy dopiero zrobi się nam obco, nieludzko.

Tworzone przez człowieka teksty – będące dziś „bazą naukową” dla algorytmów AI – mają często to do siebie, że zawarte są w nich pewnego rodzaju poglądy czy uprzedzenia ich autorów. Podejrzewam, że ich odcedzenie od warstwy faktów, informacji o charakterze obiektywnym może być dla algorytmów zadaniem trudnym, o ile czasem nawet niewykonalnym. Skoro zatem generatywna AI produkuje własne teksty na bazie danych nasiąkniętych prywatnymi opiniami czy preferencjami ludzi, to czy nie ma ryzyka, że będą one przekazywane przez algorytm dalej?

Zdecydowanie istnieje takie ryzyko i nieraz dało się wychwycić tego przykłady. W Stanach Zjednoczonych i w Holandii sztuczna inteligencja jest wykorzystywana przez system sądowniczy, będąc odpowiednio „nakarmioną” dziesiątkami tysięcy spraw sądowych rozstrzygniętych w przeszłości. W USA zauważono, że algorytm jest skłonny wskazywać niższe kary oraz częściej uniewinniać osoby białe niż o innym kolorze skóry. Z kolei w Holandii spostrzeżono, że AI sugeruje znacznie cięższe kary za podobne przewinienia dla osób o nieholendersko brzmiących nazwiskach. Z całą pewnością można więc stwierdzić, że wraz z czerpaną wiedzą, algorytmy nabywają też uprzedzeń. To duże ryzyko i wyzwanie technologiczne oraz poznawcze.

Zauważam, że rozmawiając na temat generatywnej AI, cały czas skupiamy się na związanych z nią ryzykach. Tymczasem – jak sam Pan stwierdził – technologia ta jest rozwijana przez prywatne firmy ze względu na potencjalne zyski, jakie może przynieść. Z czym mogą się one wiązać?

Zaawansowane modele językowe, jak m.in. ten, wykorzystywany przez ChatGPT, mogą przynieść daleko idące implikacje gospodarcze, wpływając np. na wzrost produktywności. Firmy wykorzystujące chatboty i rozwiązania oparte na generatywnej sztucznej inteligencji będą bowiem mogły zautomatyzować rutynowe, czasochłonne zadania, co będzie prowadziło do obniżania kosztów operacyjnych i kadrowych przez możliwości wykorzystania potencjału pracowników w innych obszarach działalności.

Technologie bazujące na generatywnej AI mogą też przyczynić się to transformacji niektórych branż i stworzenia nowych modeli biznesowych. Rozwiązania z zakresu interakcji z klientami, generowania treści, streszczenia czy analizy danych mogą wnieść znaczące zmiany w sposobie działania i konkurowania przedsiębiorstw. Generatywna sztuczna inteligencja toruje drogę dla innowacyjnych modeli biznesowych, umożliwiając firmom oferowanie produktów i usług opartych na AI oraz tworzenie nowych źródeł przychodów. W tym momencie trudno jest mi pokusić się o bardziej szczegółowe prognozy – to trochę tak, jakbym miał mówić o firmie Uber przed pojawieniem się internetu. Już niebawem jednak zaczniemy poznawać kolejne przykłady zastosowania generatywnej AI „z życia wzięte”. Dla przykładu – już teraz powstaje radio interakcyjne zarządzane wyłącznie przez AI. Moderator AI będzie rozmawiał ze słuchaczami, odpowiadał na ich pytania i spełniał ich życzenia.

Dlatego też nie ulega dla mnie wątpliwości, że kraje, które już dziś inwestują w badania, rozwój i edukację w zakresie AI, zyskają zdecydowaną przewagę konkurencyjną w skali globalnej gospodarki. Skuteczne wykorzystanie technologii opartych na sztucznej inteligencji może w bardzo dużym stopniu wpłynąć na polepszenie pozycji gospodarczej danego państwa.

Kraje, które już dziś inwestują w badania, rozwój i edukację w zakresie AI, zyskają zdecydowaną przewagę konkurencyjną w skali globalnej gospodarki.

Jak natomiast rozwój generatywnej AI może wpłynąć na rynek pracy?

Wpływ sztucznej inteligencji na rynek pracy będzie różny w zależności od branży, regionu i tempa wdrażania AI. Niektóre zawody znikną, niektóre powstaną, inne znowu zostaną przekształcone, zapewniając możliwości przekwalifikowania się i podnoszenia kompetencji. Sztuczna inteligencja będzie więc niszczyć, zakłócać, tworzyć i przekształcać miejsca pracy. Z punktu widzenia uczestników rynku pracy najważniejszymi umiejętnościami do tego, by poradzić sobie w zmienionych uwarunkowaniach, będą: elastyczność, otwartość na zmiany i gotowość do nauki, do poszerzenia swoich kompetencji.

W jaki sposób AI może przekształcać miejsca pracy?

Niedawno moja córka miała za zadanie napisanie pewnego programu komputerowego w języku Python. Poprosiła o to ChatGPT, który po chwili zaproponował kilkustronicową aplikację. Nie była ona perfekcyjna, pewne rzeczy trzeba było w niej pozmieniać, jednak koniec końców użycie AI pozwoliło zaoszczędzić jej mnóstwo czasu. W kategoriach biznesowych powiedzielibyśmy, że obniżyło koszty operacyjne, jak również oczywiście zredukowało czas potrzebny na realizację zlecenia.

Dlaczego zatem korzyści z generatywnej AI nie miałyby czerpać firmy oraz ich pracownicy? Dobry przykład mogą stanowić menedżerowie pracujący na szczeblach zarządczych, których praca będzie znacznie bardziej efektywna, gdy będą posiadali umiejętności w zakresie sztucznej inteligencji, dotyczące np. formułowania właściwych pytań. Pozwoli im to szybko zdobywać informacje podstawowe i uzupełniające, dzięki czemu AI stanie się właściwie ich asystentem. Ów asystent AI umożliwi jednostkom wykonywanie nowych rzeczy, wzmocni ich istniejące umiejętności i pozwoli skupić się na bardziej złożonych, kreatywnych, strategicznych aspektach swojej pracy, a nie na przysłowiowym „przerzucaniu papierów”. Menedżerowie z takimi kompetencjami będą wypierać tych, którzy takich kompetencji nie będą posiadali.

Nie ulega wątpliwości, że rozwój generatywnej AI oznacza ogromne zmiany. Jak się możemy do nich w Polsce przygotować?

Zanim odpowiem na to pytanie, warto podkreślić, że już niebawem nie będzie żadnej dziedziny, która nie będzie wykorzystywała sztucznej inteligencji. Niemiecki minister pracy, Hubertus Heil, powiedział na łamach „Frankfurter Allgemeine Zeitung”, że po 2035 r. nie będzie żadnej pracy bez AI. Myślę, że myli się tylko, jeśli chodzi o termin. Sztuczna inteligencja już niebawem będzie odnosiła się do wszystkiego, co robimy i co produkujemy. Większość wykonywanych przez nas czynności będzie mogła zostać ulepszona, wzmocniona za sprawą AI.

Już niebawem nie będzie żadnej dziedziny, która nie będzie wykorzystywała sztucznej inteligencji.

Dlatego też, mając to na uwadze, moim zasadniczym postulatem jest wprowadzenie zajęć budujących wiedzę na temat sztucznej inteligencji do polskiej edukacji: do liceów, szkół zawodowych, na uniwersytety. Powinny one obejmować tłumaczenie zagadnień dotyczących tego, na jakich mechanizmach opiera się AI, czym są algorytmy i sieci neuronowe, jak wygląda „rozbijanie” języka na elementarne cząstki przez zaawansowane systemy. Niech wiedza ta będzie przekazywana w jak najbardziej przystępny sposób, uwzględniający np. prowadzenie doświadczeń, eksperymentów, zapoznawanie z nowymi modelami biznesowymi, a także uświadamianie, że AI przeniknie całą tkankę społeczną i zmieni naturę, sposób wykonywania wielu zawodów.

Jestem przekonany, że zaznajomienie całego społeczeństwa z tematyką AI jest dziś kwestią fundamentalną. To w dużej mierze od tego będzie zależało, czy będziemy w stanie znaleźć się w gronie gospodarek będących liderami w tworzeniu i wykorzystywaniu tego typu rozwiązań, czy też znajdziemy się w grupie państw, które się do tego pociągu nie załapią, co będzie miało opłakane skutki dla tempa ich rozwoju.

Zaznajomienie całego społeczeństwa z tematyką AI jest dziś kwestią fundamentalną. To w dużej mierze od tego będzie zależało, czy będziemy w stanie znaleźć się w gronie gospodarek będących liderami w tworzeniu i wykorzystywaniu tego typu rozwiązań, czy też znajdziemy się w grupie państw, które się do tego pociągu nie załapią.

Szeroka edukacja społeczna w obszarze AI będzie jednak wymagała odpowiedniej liczebności należycie wykwalifikowanych kadr. Czy nie okaże się to „wąskim gardłem”?

Jestem optymistą, gdyż nie należąc do największych i najbardziej ludnych państw świata, dysponujemy naprawdę sporymi zasobami. Jesteśmy znani ze świetnych matematyków, inżynierów, informatyków, programistów. Mamy wysokiej klasy specjalistów w dziedzinie samej generatywnej AI – Jacek Krawczyk stoi za Google Bard, a Tomasz Czajka zajmuje się rozwojem podobnej technologii w SpaceX. Spore grono polskich inżynierów pracowało w OpenAI, tworząc ChatGPT. Gdańska firma SentiOne tworzy boty potrafiące rozmawiać w dziewięciu językach jednocześnie. Piotr Bombol, założyciel start‑upu Adaily, pokazuje, w jaki sposób ChatGPT tłumaczy trudne zagadnienia, daje podpowiedzi biznesowe, ale też pomaga w problemach życia prywatnego. Jarosław Kutyłowski jest założycielem i CEO firmy DeepL, której program tłumaczeniowy stanowi wyzwanie dla samego Google. Z kolei prof. Ryszard Tadeusiewicz jest wciąż aktywnym ekspertem od ewolucji AI, pamiętającym jej zalążki z czasów prac Franka Rosenblatta.

Co więcej, nasze społeczeństwo jest generalnie otwarte na technologie. Wskazuje na to chociażby odsetek młodych Polaków (33%), mających już styczność z ChatGPT, który jest znacznie wyższy niż w innych krajach Europy Środkowo­‑Wschodniej. Powiedziałbym, że mało które państwo o „gabarytach” zbliżonych do naszego ma takie predyspozycje. Więcej – jesteśmy też w stanie w tym obszarze prześcignąć kraje większe, jak np. Niemcy, których społeczeństwo jest w technologicznym wymiarze raczej konserwatywne, podchodzące z rezerwą i dystansem do „cyfrowych nowinek”. Polacy są zdecydowanie bardziej otwarci, chętni do eksperymentowania, posiadają też swego rodzaju intuicję technologiczną. Nie boimy się tego.

Naszą postawę określiłbym mianem elastyczności psychologicznej, którą nieraz już udowadnialiśmy. Wydaje mi się, że w przypadku szerokiego adaptowania się do rozwiązań generatywnej sztucznej inteligencji mógłby się zadziać podobny mechanizm, jak w wypadku płatności internetowych czy BLIK‑a. Polacy – jeśli widzą, że coś ułatwia im życie – chętnie zaczynają z tego korzystać, tworząc samonapędzający się mechanizm. Nie wszystkie społeczeństwa mają zdolność, żeby tak się dostosować.

Polacy – jeśli widzą, że coś ułatwia im życie – chętnie zaczynają z tego korzystać, tworząc samonapędzający się mechanizm. Nie każde społeczeństwo to potrafi.

Czyli to jednak my okiełznamy sztuczną inteligencję, a nie ona nas?

Jest dziś zbyt wiele parametrów, które trzeba wziąć pod uwagę, by móc jednoznacznie odpowiedzieć na to pytanie. Przyszłość pokaże, czy szerokie wdrożenie AI okaże się dla ludzkości błogosławieństwem, wielkim nieszczęściem czy też może czymś pomiędzy.

Osobiście – pomimo wielu ryzyk i potencjalnych negatywnych scenariuszy, które zresztą przedstawiłem podczas tej rozmowy – wierzę, że ludzkości uda się nie wpaść w „pułapkę” AI. Warto bowiem pamiętać, że mówiąc o sztucznej inteligencji, nie mówimy o jednolitym, zwartym, globalnym systemie. Przeciwnie – AI jest bardzo różnorodna. Są na świecie rozmaite algorytmy, rozmaite podejścia, rozmaite sposoby przypisywania wag do poszczególnych parametrów. Za poszczególnymi „wersjami” sztucznej inteligencji stoją różni gracze – niektórzy z Europy, większość jednak zza Oceanu i z Azji. Każdy system kładzie akcenty w nieco innych miejscach. Może przyczynić się to do pewnego rodzaju równowagi, balansowania. Myślę, że z perspektywy człowieka znacznie bardziej niebezpiecznym scenariuszem byłby taki, w którym na świecie istniałby jeden, spójny, potężny system. Z tego stwierdzenia możemy wywnioskować potrzebę samodzielnego tworzenia lub współtworzenia takich systemów AI, tak by nie stać się ofiarami tych, którzy je za nas i dla nas wymyślą.

AI nie jest jednolitym, zwartym, globalnym systemem – jest ona bardzo różnorodna. Za poszczególnymi „wersjami” sztucznej inteligencji stoją różni gracze – niektórzy z Europy, większość jednak zza Oceanu i z Azji. Każdy system kładzie akcenty w nieco innych miejscach. Z perspektywy człowieka znacznie bardziej niebezpiecznym scenariuszem byłby taki, w którym na świecie istniałby jeden, spójny, potężny system.

Artykuł ukazał się w Pomorskim Thinkletterze nr 4(15)/2023. Cały numer w postaci pliku pdf (9 MB) jest dostępny tutaj.

Wydawca

logo IBnGR

Partnerzy

Samorząd Województwa Pomorskiego Miasto Gdańsk Pomorski Fundusz Rozwoju sp. z o.o. Polsko-Amerykańska Fundacja Wolności Maritex Base Group

Na górę
Close