Między suwerennością a zależnością. Polska i Europa w wyścigu o chmurę i sztuczną inteligencję

Europa próbuje zbudować cyfrową suwerenność w cieniu dominacji amerykańskich gigantów technologicznych, a Polska – stojąc między ambicją a ograniczeniami skali – szuka własnej ścieżki w rozwoju chmury i sztucznej inteligencji. Pytanie nie brzmi już, czy rynek AI będzie rósł, lecz czy zdołamy stać się jego współtwórcą, a nie jedynie odbiorcą cudzych technologii. Od decyzji podjętych dziś – w obszarze infrastruktury, energii, regulacji i kapitału – zależy, czy Polska wykorzysta europejskie otwarcie na suwerenność cyfrową, czy pozostanie peryferyjnym użytkownikiem globalnych platform.

Proroctwo noblistów

Wybierając noblistów w dziedzinie ekonomii w 2025 roku, Komitet Noblowski zwrócił uwagę na potencjalne zagrożenie wieloletnią stagnacją gospodarek wielu państw świata, które może być skutkiem utrzymywania status quo przez wąską grupę gigantów technologicznych dominujących obecnie na rynku globalnym. Podmioty takie jak Amazon (AWS), Microsoft (Azure), Google (Google Cloud), Alibaba, Tencent, Oracle (Oracle Cloud), IBM (IBM Cloud) czy Salesforce kontrolują znaczną część światowego rynku infrastruktury chmurowej, systemów przetwarzania danych, systemów operacyjnych oraz środowisk rozwijających sztuczną inteligencję. W tej sytuacji europejskie państwa, instytucje sektora publicznego, podmioty gospodarcze i obywatele nie mają zapewnionej suwerenności technologicznej.

Koncentracja cyfrowej infrastruktury w rękach kilku globalnych graczy nie tylko ogranicza konkurencję – może stać się strukturalnym hamulcem dla innowacji i suwerenności całych gospodarek. Jeśli Europa nie odzyska realnej kontroli nad danymi i warunkami tworzenia wartości, ryzyko stagnacji stanie się realnym scenariuszem.

W odpowiedzi na obawy Europy dotyczące uzależnienia od USA Amazon („AWS European Sovereign Cloud”), Google i Microsoft uruchomiły niezależną infrastrukturę chmurową zlokalizowaną i zarządzaną w całości w Europie. Czy fakt, że ci trzej amerykańscy giganci posiadają własną infrastrukturę chmurową w Europie i obecnie reprezentują około 85% wartości europejskiego rynku chmurowego, jest powodem do spokoju, czy raczej do obaw? Przy ograniczonej kontroli nad strumieniami danych, procesami wytwarzania wartości dodanej oraz swobodnym rozwojem nowych rozwiązań technologicznych i ich skutecznym wdrażaniem na rynek, rosną koszty wprowadzenia innowacji przez lokalne, europejskie firmy, a apetyt na ryzyko wśród podmiotów o ograniczonych zasobach wyraźnie maleje. Czy w związku z tym czeka nas stagnacja? Czy będziemy świadkami ucieczki firm technologicznych z Polski i Europy do Stanów Zjednoczonych – bliżej wielkiego kapitału, centrów decyzyjnych gigantów oraz ich ekosystemów innowacji?

Od regulacji ku niezależnemu kształtowaniu rzeczywistości cyfrowej

W trosce o bezpieczeństwo oraz prawa mieszkańców, konsumentów i przedsiębiorców w świecie cyfrowym Komisja i Parlament Europejski podjęły w ostatniej dekadzie ponad 20 inicjatyw legislacyjnych1.

Kolejne deklaracje – takie jak Europejska deklaracja praw i zasad cyfrowych w cyfrowej dekadzie przyjęta przez Parlament Europejski, Radę i Komisję w 2022 r., deklaracja w sprawie europejskiej suwerenności cyfrowej podpisana przez państwa członkowskie w grudniu 2025 r., a także rezolucja Parlamentu Europejskiego z 22 stycznia 2026 r. w sprawie europejskiej suwerenności technologicznej i infrastruktury cyfrowej – pokazują, że Europa chce zmienić swoją pozycję z obszaru w ponad 80% zależnego od rozwiązań amerykańskich i chińskich w kierunku zwiększenia suwerenności technologicznej.

Europa buduje cyfrową suwerenność poprzez regulacje, lecz nadmiar prawa może stać się równie dotkliwy jak brak kontroli. Prawdziwym wyzwaniem nie jest więc wybór między bezpieczeństwem a innowacją, lecz znalezienie równowagi, w której regulacje chronią rynek nie tłumiąc jego zdolności do wzrostu.

Jednak mimo cyklicznych prób upraszczania i uspójniania regulacji oraz zapewnienia europejskiej gospodarce większej swobody w rozwoju technologii i skalowaniu innowacji, nie widać końca prac nad nowymi inicjatywami legislacyjnymi. Stwarza to niepewność wśród przedsiębiorstw i zwiększa ponoszone przez nie koszty zapewnienia zgodności z regulacjami.

Do zmiany podejścia w tym zakresie i budowy rozproszonego, europejskiego modelu infrastruktury i usług chmurowych próbują przekonać unijne instytucje europejscy gracze infrastruktury chmurowej2 oraz branżowe organizacje takie jak np. Stowarzyszenie Cloud Infrastructure Services Providers in Europe (CISPE)3, które zrzesza 41 podmiotów promujących ideę sprawiedliwych zasad licencjonowania oprogramowania w chmurze, bezpiecznego przetwarzania danych klientów w centrach danych oraz przejrzystych zamówień publicznych na usługi chmurowe dla sektora publicznego.

Ważną rolę w zakresie tworzenia ekosystemów współpracy tworzą również inicjatywy sektorowe – dla rolnictwa (AgrospAI), motoryzacji (Catena-X), lotnictwa i kosmonautyki (COOPERANTS), usług chmurowych (Dynamo4), a także inicjatywy promujące współpracę międzysektorową (Pontus-X) – w tych gremiach opracowywane są koncepcje i zasady funkcjonowania platform wymiany danych opartych na przejrzystości, zaufaniu i otwartości5.

Z kolei w ramach inicjatywy 8ra ponad 120 zaangażowanych organizacji rozwija zdecentralizowane, interoperacyjne i bezpieczne rozwiązanie Cloud-Edge Continuum (MPCEC), oparte na współpracy wielu dostawców. W 2023 r. w ramach MPCEC polskie firmy Atende Industries, CloudFerro oraz Oktawave zostały wybrane – wraz z 16 innymi organizacjami z Europy – do realizacji projektów w ramach europejskiego instrumentu wsparcia Important Project of Common European Interest – Cloud Infrastructure and Services (IPCEI-CIS).

Ponadto, pod egidą Federalnego Ministerstwa Gospodarki i Energii Niemiec, kilka krajów europejskich oraz podmioty zaangażowane w inicjatywę 8ra przygotowują projekt IPCEI-AI (Important Project of Common European Interest on Artificial Intelligence), którego celem jest rozwój silnego europejskiego ekosystemu AI w obszarach autonomicznej produkcji, logistyki opartej na sztucznej inteligencji, pojazdów autonomicznych, robotyki oraz przemysłowego metawersum.

Spóźnione inwestycje?

W latach 2024–2025 Komisja Europejska wybrała w drodze konkursu łącznie 13 konsorcjów planujących budowę lub rozbudowę fabryk AI (łączna kwota wsparcia europejskiego wynosi ok. 10 mld euro). Wśród nich znalazł się polski projekt „Fabryka PIAST-AI”, realizowany przez konsorcjum koordynowane przez Poznańskie Centrum Superkomputerowo-Sieciowe.

Ogłoszony przez Komisję Europejską w 2025 r. plan działań na rzecz sztucznej inteligencji w skali całego kontynentu zakłada co najmniej potrojenie pojemności centrów danych do 2032 r. Aby to umożliwić, projekty rozwoju centrów danych spełniające wymogi w zakresie efektywnego wykorzystania zasobów, gospodarki o obiegu zamkniętym oraz innowacyjności będą mogły korzystać z uproszczonych procedur wydawania pozwoleń oraz wsparcia publicznego – zgodnie z zasadami pomocy państwa.

Powstać mają również gigafabryki AI, które będą wspierać współpracę między sektorem badawczym a przedsiębiorstwami w takich dziedzinach, jak medycyna, biotechnologia, robotyka czy technologie przemysłowe. W ramach uruchomionej w 2025 r. inicjatywy InvestAI środki mają zostać przeznaczone na budowę pięciu gigafabryk AI w Europie. Jednocześnie państwa członkowskie będą musiały dokonać przeglądu dostępności energii elektrycznej (zasilanie) oraz zasobów wody (chłodzenie), co w przypadku Polski stanowi podwójne wyzwanie.

Pytanie brzmi jednak: czy nie przespaliśmy dekady? Mimo że w latach 2017–2024 przychody europejskich dostawców usług chmurowych wzrosły niemal trzykrotnie, ich udział w europejskim rynku – którego wartość w tym samym okresie zwiększyła się sześciokrotnie – spadł z 29% w 2017 r. do 15% w 2024 r.6. Oznacza to, że klienci w tym czasie w większym stopniu wybierali globalnych graczy z USA niż lokalnych dostawców, takich jak SAP, Deutsche Telekom, OVHcloud, Telecom Italia czy Orange, którzy łącznie reprezentują dziś jedynie ok. 8–10% europejskiego rynku.

Czy europejskie podejście oparte na konsorcjach i projektach jest właściwym modelem, by odwrócić trend pogłębiającego się uzależnienia technologicznego od kilku amerykańskich big techów? Czy obawa przed uwikłaniem niektórych europejskich prywatnych graczy w polityczne interesy narodowe nie skłania do ostrożności przy budowie wielkich europejskich konsorcjów? Dlaczego różnice kulturowe i sprzeczne interesy polityczne w Europie utrudniają powstanie firm na miarę Microsoftu, Google’a czy Amazona?

Europa próbuje budować cyfrową suwerenność poprzez sieć konsorcjów, federacji i wspólnych projektów infrastrukturalnych. Pytanie jednak brzmi, czy model oparty na koordynacji wielu podmiotów jest w stanie konkurować z kapitałową skalą i decyzyjną szybkością globalnych gigantów. Bez masy krytycznej inwestycji i odwagi strategicznej nawet najbardziej ambitne inicjatywy mogą pozwolić Europie jedynie nadrabiać dystans, a nie wyznaczać kierunek rozwoju.

Istnieje świadomość, że brak kontroli Europy nad kluczową infrastrukturą – chmurą, systemami operacyjnymi, wyszukiwarkami, AI, pocztą elektroniczną czy e-administracją – oznacza trwałą zależność od cudzych decyzji biznesowych i politycznych. W sytuacjach kryzysu geopolitycznego może to prowadzić do szantażu technologicznego lub wrogiego przejęcia danych. Jednak niemoc lub niechęć do dużych inwestycji na rynku kapitału wysokiego ryzyka oraz nadmierna biurokracja w publicznych programach wsparcia nie pozwalają konsekwentnie budować organizacji o odpowiedniej masie krytycznej i sile przebicia.

Podczas gdy Europa stara się zmobilizować ok. 200 mld euro kapitału publicznego i prywatnego na budowę ekosystemu AI w perspektywie najbliższych siedmiu lat, nakłady inwestycyjne tzw. wielkiej piątki (Amazon, Alphabet/Google, Microsoft, Meta/Facebook, Oracle) planowane na 2026 r. mają przekroczyć 600 mld USD, z czego ok. 75% zostanie przeznaczone na infrastrukturę AI. Łączna wartość niespłaconych kredytów dwunastu największych globalnych podmiotów aktywnych w obszarze sztucznej inteligencji przekraczała na początku 2026 r. 1 000 mld USD7.

Czy zatem nie rozumiemy, na czym polega ta gra, czy po prostu nas na nią nie stać? Europejskie regulacje, realizowane i projektowane na kolejną dekadę projekty badawczo-rozwojowe i infrastrukturalne oraz planowane budżety unijne i krajowe mogą pozwolić nam jedynie reagować na globalne wydarzenia, a nie je wyprzedzać i współkształtować.

Polska środkowoeuropejskim hubem infrastruktury i usług chmurowych?

Polska rozwija się jako wiodący środkowoeuropejski hub infrastruktury i usług chmurowych. Pod względem infrastruktury centrów danych, usług chmurowych oraz mocy obliczeniowej nasz kraj dysponuje istotnym potencjałem, który odpowiada obecnemu popytowi. Większość centrów danych koncentruje się w czterech miastach: Warszawie, Krakowie, Poznaniu i Wrocławiu. Oprócz międzynarodowych graczy, takich jak Google (Google Cloud), Microsoft (Microsoft Azure Poland Central), Amazon (AWS Local Zone), Equinix, Orange Polska, Switch Datacenters czy T-Mobile Centrum Danych, na rynku działa szeroka grupa podmiotów publicznych i prywatnych oferujących zarówno przestrzeń w centrach danych, jak i usługi chmurowe.

Inicjatywa „Polska Chmura” – związek dostawców usług chmurowych posiadających centra danych w Polsce – funkcjonuje od ponad dekady. Zaangażowane w nią firmy8, reprezentują ponad 20 centrów danych. Z kolei w stowarzyszeniu Polski Związek Przetwarzania Danych aktywnych jest ponad 68 podmiotów – w tym m.in. Atman i Beyond.pl – obejmujących cały łańcuch wartości rynku centrów danych9.

Na rynku działają także podmioty takie jak Comarch Data Center, Operator Chmury Krajowej, Oktawave, Polcom Data Center, Play czy Netia Data Center. W gronie centrów komputerów dużej mocy znajdują się: Akademickie Centrum Komputerowe Cyfronet AGH, Poznańskie Centrum Superkomputerowo-Sieciowe (Instytut Chemii Bioorganicznej PAN), Centrum Informatyczne Trójmiejskiej Akademickiej Sieci Komputerowej (Politechnika Gdańska), Wrocławskie Centrum Sieciowo-Superkomputerowe (Politechnika Wrocławska), Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego (Uniwersytet Warszawski) oraz Centrum Informatyczne Świerk (Narodowe Centrum Badań Jądrowych). Tworzą one konsorcjum PLGrid, działające od 2007 r.

Krajowy ekosystem infrastruktury i platform chmurowych stanowi stabilną bazę dla podmiotów, które – ze względu na wrażliwość danych – muszą korzystać z bezpiecznej, niezależnej, krajowej przestrzeni przetwarzania. Dla zapewnienia ciągłości działania systemów o znaczeniu krytycznym w najbliższych latach powstaną kolejne centra danych w ramach Krajowego Centrum Przetwarzania Danych.

W Polsce mają powstać co najmniej dwie fabryki AI, które m.in. udostępnią część mocy obliczeniowej start-upom oraz małym i średnim przedsiębiorstwom. Są to PIAST-AI przy Poznańskim Centrum Superkomputerowo-Sieciowym, współfinansowana w ramach EuroHPC (Wspólne Europejskie Przedsięwzięcie w dziedzinie Obliczeń Wielkiej Skali), oraz Gaia AI Factory w Krakowie, tworzona przez konsorcjum kierowane przez Akademickie Centrum Komputerowe Cyfronet AGH. Dokument „Polityka rozwoju sztucznej inteligencji w Polsce do 2030 roku” zakłada ponadto powstanie kolejnych fabryk AI – w Łodzi oraz na obszarze Górnośląsko-Zagłębiowskiej Metropolii – a także rozwój krajowej infrastruktury AI w oparciu o sieć fabryk w ramach rozbudowanej inicjatywy PLGrid, z uwzględnieniem nowo powstającej Baltic AI GigaFactory.

Każdego dnia w Polsce rodzą się nowe pomysły na innowacyjne rozwiązania oparte o sztuczną inteligencję. Setki start-upów i młodych firm technologicznych skutecznie pozyskuje finansowanie na dalszy rozwój projektów oraz skalowanie biznesu na rynkach międzynarodowych. Wiele z nich przeszło już „dolinę śmierci” i po dekadzie działalności buduje silną ofertę, zdolną konkurować poza granicami kraju.

Na rynku funkcjonują spółki wyspecjalizowane branżowo – w obszarach logistyki, medycyny (medtech), finansów (fintech), rolnictwa czy przemysłu. Inne rozwijają duże modele językowe oraz narzędzia oferujące sztuczną inteligencję jako usługę (AI-as-a-Service), a także rozwiązania dostępne przez przeglądarkę (SaaS), które mogą być hostowane i skalowane na lokalnych platformach chmurowych.

W warunkach niedoboru pracowników, wysokiej rotacji kadr i rosnących kosztów zatrudnienia rośnie zainteresowanie usprawnianiem oraz automatyzacją procesów, a także ich integracją z wykorzystaniem AI. Spółki technologiczne dostrzegają szanse w rozwoju rozwiązań wspierających komunikację między maszynami oraz między maszynami a ludźmi. Wdrażają również systemy analityki behawioralnej, które dzięki analizie obrazu i głosu identyfikują zmiany w otoczeniu, wspierając zarówno marketing, utrzymanie ruchu, jak i diagnostykę medyczną. Polskie firmy są nagradzane za granicą, a także skutecznie przekonują inwestorów z innych kontynentów do finansowania ich dalszej ekspansji.

To właśnie te podmioty współtworzą polską gospodarkę wiedzy, opartą na danych i technologiach cyfrowych.

Polski rynek należy do najszybciej rosnących pod względem adaptacji AI w Unii Europejskiej, co sprzyja rozwojowi nowych usług i kompetencji niezbędnych do budowy suwerennej platformy technologicznej. Pojawia się jednak pytanie: jak zadbać o to, by nie tracić narodowych „skarbów AI” w wyniku przejęć, fuzji lub utraty kontroli właścicielskiej na rzecz inwestorów zagranicznych? Czy w realiach globalnego wyścigu technologicznego taka ścieżka jest w ogóle do uniknięcia? A może problem nie polega na braku możliwości ochrony, lecz na braku skali kapitału i determinacji, by ją zapewnić?

Polska – jak wygrać na europejskim rynku cyfrowym?

Opublikowana przez Ministerstwo Cyfryzacji pod koniec 2025 roku „Polityka rozwoju sztucznej inteligencji w Polsce do 2030 roku”, przedstawia ideę budowy suwerennego ekosystemu infrastruktury i usług chmurowych w Polsce – w kontekście rozwoju gospodarki opartej na danych, wspieranej sztuczną inteligencją. W odniesieniu do gospodarki danych w dokumencie apeluje się o zwiększenie wolumenu danych oraz intensyfikację ich wykorzystania.

Rozmawiając z włoskim ekspertem o doświadczeniach związanych z platformami otwartych danych, usłyszałem ważne ostrzeżenie: instytucje publiczne nie powinny tworzyć wielkich zbiorów danych bez uwzględnienia konkretnych, praktycznych zastosowań. Dostawcy i odbiorcy danych powinni w symbiozie określać obszary użycia, co pozwoli następnie budować zbiory danych rzeczywiście pożądane – i możliwe do wykorzystania w aplikacjach o realnej wartości.

Równie istotna w rozwoju ekosystemu infrastruktury i usług chmurowych jest współpraca między stroną podażową a popytową w celu określenia zapotrzebowania na moce obliczeniowe. Oznacza to potrzebę prowadzenia – w kluczowych dla Polski sektorach – debaty o kierunkach rozwoju procesów opartych na danych i automatyzacji wspieranej sztuczną inteligencją. Dotyczy to zarówno przemysłów tradycyjnych (m.in. wydobywczego, energetycznego, chemicznego, hutniczego, spożywczego), jak i przemysłów zaawansowanych (m.in. medycznego, motoryzacyjnego, lotniczego, kosmicznego), a także sektora publicznego (administracji, edukacji i nauki). Taka debata pozwoli nie tylko generować popyt na usługi chmurowe, lecz także prognozować potrzeby w zakresie mocy obliczeniowej – zwłaszcza w kontekście planowanych fabryk AI.

W ramach prac nad polityką rozwoju sztucznej inteligencji w Polsce zidentyfikowano siedem obszarów o najwyższym potencjale rozwoju AI w Polsce: energetykę, e-commerce, produkty podwójnego zastosowania, cyberbezpieczeństwo, BioMedTech, usługi finansowe oraz transport, spedycję i logistykę. Zapowiedziano przygotowanie map wdrożeń sektorowych, które dla każdego z tych obszarów mają wskazać potrzeby i możliwości zastosowania AI, a także niezbędne ramy współdzielenia danych między interesariuszami.

Warto, by proces ten nie ograniczył się do urzędników i konsultantów. Kluczowe będzie realne włączenie podmiotów gospodarczych – zarówno twórców, jak i użytkowników rozwiązań – bo to oni najlepiej wiedzą, gdzie dane i AI mogą przełożyć się na produktywność, przewagi konkurencyjne i skalowalne modele biznesowe.

Oprócz zapewnienia stabilnych dostaw konkurencyjnej cenowo zielonej energii istotnym warunkiem skutecznej realizacji nowych inwestycji będzie także sprawna i przejrzysta procedura uzyskiwania niezbędnych pozwoleń i decyzji (m.in. decyzji środowiskowych, pozwoleń na budowę czy zgód na przyłącza energetyczne). Ważną rolę odgrywają tu jednostki samorządu terytorialnego oraz podmioty sektora energetycznego.

Rok 2026 jest pod tym względem szczególny: gminy muszą uchwalić do 30 czerwca swój plan ogólny10.

W dobie transformacji elektroenergetyki rozwój gospodarki cyfrowej w Polsce będzie generował kolejne wyzwania. Polski Związek Przetwarzania Danych wskazał w raporcie „Poland: A Cool Place for Data Centre Development”, że łączna moc centrów danych w Polsce ma wzrosnąć do 500 MW w 2030 roku oraz do 1,2 GW w 2034 roku. Z kolei według prognoz Polskich Sieci Elektroenergetycznych zapotrzebowanie centrów danych na energię elektryczną ma wynieść 17,4 TWh w 2036 roku (przy prognozowanej łącznej mocy 3 GW) oraz 29,4 TWh w 2040 roku (przy łącznej mocy 5 GW).

Zapotrzebowanie sektora centrów danych może stanowić niebawem ponad 11% krajowej produkcji energii. Wraz z rozwojem rozwiązań opartych na sztucznej inteligencji kluczowa stanie się gwarancja dostępu do dużej i stabilnej mocy obliczeniowej, którą warunkować będzie pewny system zasilania i sprawnego chłodzenia oraz potencjał do dalszego skalowania infrastruktury w wybranej lokalizacji.

Biorąc pod uwagę, że prognozy ujęte w Krajowym Planie w Dziedzinie Energii i Klimatu do 2030 r. z perspektywą do 2040 r. przewidują potencjał produkcji energii elektrycznej w Polsce na poziomie 249–270 TWh, zapotrzebowanie sektora centrów danych mogłoby stanowić ponad 11% krajowej produkcji energii. Wraz z rozwojem rozwiązań opartych na sztucznej inteligencji kluczowa stanie się zatem gwarancja dostępu do dużej mocy obliczeniowej – warunkowana pewnym zasilaniem, sprawnym chłodzeniem oraz możliwością skalowania infrastruktury w wybranej lokalizacji.

Nadal nie jesteśmy jeszcze w stanie w pełni wyobrazić sobie wpływu sztucznej inteligencji na nasze codzienne życie. Możemy jednak obserwować nerwowość na światowych giełdach za każdym razem, gdy kolejny dostawca prezentuje nową, jeszcze bardziej zaawansowaną wersję modelu AI. Wciąż istnieje jednak przepaść między możliwościami technologicznymi a poziomem gotowości do praktycznego wdrażania rozwiązań opartych na sztucznej inteligencji.

Małe i średnie przedsiębiorstwa nadal borykają się z niedostatecznym poziomem automatyzacji i cyfryzacji procesów – często z powodu braku skali (a więc opłacalności) lub przestarzałego parku maszynowego, niedostosowanego do nowoczesnych metod zbierania danych. W kontekście transformacji cyfrowej przedsiębiorstw, najpierw należy uporządkować procesy i logikę podejmowania decyzji oraz jasno określić, kto i w jaki sposób będzie korzystał z efektów wdrożenia nowych technologii, a dopiero potem można rozważać sensowną cyfryzację systemów, w tym z wykorzystaniem AI.

Rozwiązania oparte na sztucznej inteligencji mają sens wtedy, gdy procesy są uporządkowane, narzędzia do zbierania danych działają prawidłowo, a pracownicy potrafią – w oparciu o własną wiedzę ekspercką – ocenić, czy wynik analizy jest wiarygodny, czy też stanowi tzw. halucynację modelu. Oceniając stronę popytową w Polsce przez pryzmat otwartości przedsiębiorstw i instytucji publicznych, widać pilną potrzebę uporządkowania i usprawnienia procesów, ograniczenia biurokracji oraz przemyślenia modeli współpracy – zarówno wewnętrznej, jak i zewnętrznej. Nie powinniśmy wdrażać rozwiązań AI w warunkach bałaganu w danych, chaosu informacyjnego czy też nieprzystosowanej do ciągłej zmiany kultury organizacyjnej.

Z drugiej strony, patrząc na inicjatywy podejmowane przez przedsiębiorstwa w Polsce w obszarze infrastruktury i usług chmurowych oraz rozwiązań AI – zwłaszcza w sektorach fintech i medtech – a także na aktywność sektora badawczo-rozwojowego, można zachować umiarkowany optymizm co do potencjału polskiego ekosystemu chmury i AI na rynku europejskim. Potrafimy angażować się we wspólne inicjatywy – zarówno krajowe, jak i międzynarodowe.

Nie umniejszając sukcesu firmy ElevenLabs, nie doczekaliśmy się jeszcze własnych „sześciu małych smoków” na miarę chińskiego Hangzhou. Przez ostatnie dwie dekady brakowało ciągłości polityki w wybranych obszarach. Tego nie da się już zmienić – można natomiast konsekwentnie patrzeć w przyszłość.

Kluczowe jest systematyczne inwestowanie w polskie start-upy rozwijające AI, zapewnienie finansowania centrów danych na etapie skalowania projektów infrastrukturalnych (w tym fabryk i gigafabryk AI) oraz rozwój kompetencji cyfrowych studentów i pracowników. Istotne jest również, aby polskie spółki Skarbu Państwa w pierwszej kolejności korzystały z krajowych rozwiązań, budując wraz z dostawcami platformę do kompleksowego testowania i wdrażania nowych technologii. Pozwoli to tworzyć synergię między aplikacjami, zwiększać ich wartość dodaną i wzmacniać ofertę przed ekspansją międzynarodową.

Należy przeciwdziałać rozdrobnieniu i atomizacji działań w tym obszarze. Warto zachęcać przedsiębiorstwa do aktywnego udziału w istniejących zrzeszeniach branżowych i wykorzystywania ich potencjału jako dźwigni dalszego rozwoju.

Zrozumieć skalę wyzwań

Ważne jest, aby rozumieć skalę środków potrzebnych do rozwoju polskiego ekosystemu chmury i AI. Jeśli już dziś mamy świadomość, że łączna kwota wsparcia projektów AI ze środków publicznych – o której mowa w „Polityce rozwoju sztucznej inteligencji w Polsce do 2030 roku” – prawdopodobnie nie przekroczy 7 mld zł w najbliższych latach, to rola państwa powinna koncentrować się przede wszystkim na tworzeniu sprzyjających warunków systemowych, a nie wyłącznie na bezpośrednim finansowaniu.

W szczególności oznacza to:

  • zapewnienie przyjaznych warunków inwestycyjnych i podatkowych dla centrów danych oraz firm rozwijających AI (m.in. w ramach Polskiej Strefy Inwestycji, ulgi B+R, dostępu do przestrzeni w akceleratorach i regionalnych hubach innowacji),
  • wspieranie internacjonalizacji polskich firm oferujących usługi chmurowe i rozwiązania AI, w tym aktywne wsparcie polityczne i gospodarcze jako przeciwwagi dla prób ograniczania dostępu do rynków przez silnych graczy z innych państw UE,
  • stworzenie odpowiednich ram prawnych umożliwiających podmiotom publicznym zakup usług chmurowych i rozwiązań AI z uwzględnieniem komponentu lokalnego, przy zachowaniu zasad konkurencyjności i przejrzystości,
  • dokończenie transformacji energetycznej oraz dostosowanie systemu elektroenergetycznego do rosnących potrzeb gospodarki cyfrowej w zakresie taniej, stabilnej i rozproszonej zielonej energii,
  • modernizację modelu funkcjonowania uczelni poprzez wprowadzanie nowych form kształcenia obejmujących tworzenie rozwiązań AI, ich etyczne wykorzystanie oraz przygotowanie do funkcjonowania w środowisku silnie nasyconym technologiami cyfrowymi,
  • zapewnienie środków na finansowanie projektów wdrożeniowych w przedsiębiorstwach i sektorze publicznym, tak aby dostawcy rozwiązań chmurowych i AI mogli na wczesnym etapie testować aplikacje, budować portfolio referencyjne i zdobywać doświadczenie na rynku krajowym przed ekspansją zagraniczną.

Polska stoi dziś przed historyczną szansą: może stać się nie tylko odbiorcą cudzych technologii, lecz współtwórcą europejskiej infrastruktury chmurowej i ekosystemu AI. Warunkiem sukcesu nie jest jednak sama skala inwestycji, lecz zdolność do koordynacji działań, zapewnienia stabilnych warunków regulacyjno-energetycznych oraz zbudowania silnego rynku krajowego, który stanie się trampoliną do ekspansji na Europę. W cyfrowym wyścigu wygrywają nie tylko najwięksi, lecz ci, którzy potrafią połączyć technologię, kapitał i strategiczną konsekwencję.

Przy ograniczonych zasobach finansowych kluczowe staje się więc nie tylko „ile”, ale przede wszystkim „jak” i „gdzie” inwestujemy – oraz czy potrafimy skoordynować działania tak, aby efekt skali wynikał z synergii, a nie z sumy rozproszonych inicjatyw.

W kolejnej dekadzie europejski rynek usług chmurowych i rozwiązań AI będzie systematycznie rósł, napędzany kolejną fazą transformacji cyfrowej gospodarki, wdrażaniem sztucznej inteligencji w niemal wszystkich dziedzinach życia, zmianami demograficznymi oraz rosnącymi wymogami regulacyjnymi. Europejskie inicjatywy promujące suwerenność technologiczną i rozwój lokalnej infrastruktury danych tworzą przestrzeń dla dostawców z UE, którzy mogą oferować rozwiązania bezpieczne, zgodne z przepisami i hostowane regionalnie. To otwiera nowe możliwości dla podmiotów zdolnych połączyć kompetencje technologiczne z głębokim rozumieniem europejskiego otoczenia regulacyjnego.

Polskie firmy mogą stać się istotnymi uczestnikami tego łańcucha wartości – zarówno w obszarze budowy i zarządzania lokalną infrastrukturą, jak i tworzenia wyspecjalizowanych usług sektorowych czy eksportu na rynki europejskie oprogramowania w modelu SaaS oraz kompetencji AI.

Kluczowe będzie jednak świadome pozycjonowanie: jako partnerzy zaufani, wyspecjalizowani i zorientowani na zgodność regulacyjną, dostarczający wysokiej jakości rozwiązania chmurowe i oparte na sztucznej inteligencji. W warunkach rosnącej wrażliwości na kwestie bezpieczeństwa danych i suwerenności technologicznej taka reputacja może stać się realną przewagą konkurencyjną.

1 M.in.: Akt o usługach cyfrowych, Akt w sprawie danych, Akt w sprawie sztucznej inteligencji, Strategia Unii Danych, NIS 2, Akt o cyberbezpieczeństwie, Cloud Sovereignty Framework, rozporządzenie w sprawie ustanowienia Wspólnego Przedsięwzięcia w dziedzinie Europejskich Obliczeń Wielkiej Skali. 
2 M.in.: OVHcloud (ponad 40 centrów danych), Deutsche Telekom (Open Telekom Cloud, 6 centrów danych), United Internet (IONOS Cloud, ponad 30 centrów danych), Orange (około 40 centrów danych), TIM Enterprise (16 centrów danych), UpCloud (13 centrów danych), Scaleway (10 centrów danych) oraz Atos (10 centrów danych). Wiodącymi krajami pod względem liczby centrów danych i ich pojemności są Niemcy, Francja i Holandia. 
3 CISPE jest jednym z członków utworzonego w 2021 roku Europejskiego Stowarzyszenie na rzecz Danych i Chmury (European Association for Data and Cloud, AISBL). AISBL angażuje się w promowanie europejskiej suwerenności cyfrowej oraz budowę europejskiego ekosystemu rozwiązań i usług chmurowych w oparciu o wielu dostawców i użytkowników (inicjatywa Gaia-X), skupiając ponad 350 organizacji. Członkami tego stowarzyszenia są m.in. Polska Izba Informatyki i Telekomunikacji oraz Poznańskie Centrum Superkomputerowo-Sieciowe. 

4 Dynamo jest pierwszą federacją europejskich dostawców usług chmurowych. Jej model biznesowy zakłada współpracę wielu dostawców infrastruktury chmurowej o mniejszej skali z dostawcami usług chmurowych. Dzięki połączeniu zasobów i stworzeniu wspólnej przestrzeni rynkowej dostawcy usług chmurowych (Software as a Service – SaaS, Platform as a Service – PaaS, Infrastructure as a Service – IaaS) mogą korzystać z niezależnej infrastruktury oraz bezpiecznej przestrzeni danych. W działania Dynamo angażują się również polskie organizacje, m.in. zrzeszone w Związku Pracodawców Polska Chmura. 
 
5 Ważną rolę odgrywa również działające od ponad 12 lat stowarzyszenie Big Data Value, liczące ponad 250 członków (w tym: Akademickie Centrum Komputerowe Cyfronet AGH, Wrocławskie Centrum Sieciowo-Superkomputerowe oraz Poznańskie Centrum Superkomputerowo-Sieciowe), które koncentruje się na innowacjach w dziedzinie danych, promując m.in. rozwój europejskiej przestrzeni danych oraz sztucznej inteligencji. Fundacja EuroStack Industry zrzesza ponad 300 dostawców infrastruktury chmurowej, usług chmurowych, oprogramowania i rozwiązań opartych na sztucznej inteligencji na rzecz wzmacniania europejskiego ekosystemu technologii i usług cyfrowych. Prowadzi ona m.in. stronę internetową, na której prezentowani są europejscy dostawcy usług i infrastruktury chmurowej stanowiący alternatywę dla rozwiązań amerykańskich. 
6 Synergy Research Group, European cloud providers’ local market share now holds steady at 15%, 2024 [dostęp online]. 
7 Weissberger Alan, Hyperscaler capex > $600 bn in 2026 a 36% increase over 2025 while global spending on cloud infrastructure services skyrockets [dostęp online].
8 M.in.: Asseco Cloud, CloudFerro, COIG, ComPaas, Cyfronet, Korbank, Park Naukowo-Technologiczny w Opolu, Polcom Data Center, Sinersio, Talex, Wrocławskie Centrum Sieciowo-Superkomputerowe, Wirtualna Polska.
9 Organizacja ta jest również wydawcą przewodnika Data Center Ecosystem Guide Poland 2025 oraz organizatorem wydarzenia Gateway Poland.
10 Plan ogólny wyznaczać będzie strefy planistyczne oraz granice obszarów, dla których możliwe będzie wydanie decyzji o warunkach zabudowy. Bez uchwalonego planu ogólnego nie będzie można wydawać decyzji o warunkach zabudowy ani uchwalać nowych miejscowych planów zagospodarowania przestrzennego. 

Artykuł ukazał się w „Pomorskim Thinkletterze” nr 1(24)/2026. Cały numer w postaci pliku pdf (14,2 MB) jest dostępny tutaj.
Dofinansowano ze środków Polsko‑Amerykańskiej Fundacji Wolności w ramach Programu „Pro Publico Bono”.

 

Wydawca

logo IBnGR

Partnerzy

Samorząd Województwa Pomorskiego Pomorski Fundusz Rozwoju sp. z o.o.

Polsko-Amerykańska Fundacja Wolności     Maritex

OrlenPolski Fundusz RozwojuSieć Badawcza Łukasiewicz

Na górę
Close