Szanowny Czytelniku,
Najnowsze badanie Eurostatu dotyczące cyfryzacji przedsiębiorstw pokazuje, że do 2025 roku 8,36% polskich firm wdrożyło rozwiązanie oparte na sztucznej inteligencji. Badanie PARP/UJ podaje wyższy wynik dla firm każdej wielkości — 23%. Niezależnie od przyjętej miary, faktycznie wdrożone AI na polskim rynku to wciąż mniejszość. Tu oczywiście chodzi o oficjalne wdrożenia, bo faktyczna liczba pracowników używających AI do pracy to pewnie 90% — tyle tylko, że robią to poza kontrolą firmy…. ale to zupełnie inny temat.
Strona podażowa zupełnie tej mniejszości nie przypomina. Przegląd ofert polskich konsultantów AI na LinkedIn i w przestrzeni cyfrowej w 2026 roku pokazuje model dostarczania usług, który stał się niemal szablonem: „zbudujemy agenty, które usprawnią twoją pracę" — warstwa automatyzacji w n8n, Make.com lub Zapierze, od trzech do pięciu „agentów” podpiętych do komercyjnych LLM-ów i dwudniowe warsztaty dla personelu. Ceny najmniejszych zleceń zaczynają się od 1499 PLN miesięcznie. Akademia Asseco i Strefa Wiedzy PFR prowadzą obecnie publiczne kursy oparte na tym samym schemacie.
Luka między wolumenem i modelem oferowanego consultingu a wolumenem AI faktycznie wdrożonego w polskich przedsiębiorstwach jest tematem tego numeru. Nie twierdzę, że ten model to oszustwo. Twierdzę, że dostarcza on dokładnie to, czego nauczyli się jego twórcy — pomijając przy tym pytania o fundamenty, które decydują o tym, czy Enterprise AI buduje wartość.
Tym numerem otwieram sześcioodcinkową serię o tym, jak wygląda prawdziwa transformacja AI w firmach, które nie są „AI-native”.
Model dostarczania usług#
To, co sprzedaje ten model, jest podobne we wszystkich ofertach: „zbudujmy agenta, który zautomatyzuje Twoją codzienną pracę”. Produktem końcowym są workflowy działające na orkiestratorze low-code, agenty oparte na API komercyjnych LLM-ów, strona w Confluence lub Notion z instrukcją obsługi oraz szkolenie dla małej grupy użytkowników nazwanych „championami”. Projekt trwa zazwyczaj kilka tygodni.
Taki kształt współpracy jest skalibrowany pod najprostsze konteksty: jeden interesariusz jest właścicielem procesu, jeden użytkownik akceptuje wyniki, koszt błędu ogranicza się do czasu jednej osoby i nie jest wymagana integracja z żadnym systemem, którego konsultant sam nie wdrożył. W takich warunkach to działa. Automatyzacje startują od razu, widać efekty. Konsultant utrzymuje je, dopóki jest na miejscu. Użytkownik-właściciel może testować i akceptować wyniki w czasie rzeczywistym.
Model przestaje pasować, gdy zostaje sprzedany firmie zatrudniającej ponad 30-50 osób, gdzie sponsorem projektu jest dyrektor operacyjny lub COO, a właścicielem tego, co zostanie po wyjściu konsultanta, jest wewnętrzny menedżer IT (o ile w ogóle taki jest). Wtedy procesy dotykają systemów i interesariuszy, których konsultant nie spotkał podczas etapu discovery. Nie chodzi o to, że firma zatrudniła pojedynczego konsultanta albo mały butik zamiast Big4. Wręcz przeciwnie — moim zdaniem przed takimi małymi, zwinnymi organizacjami jest największa przyszłość. Problem leży w braku doświadczenia: bardzo liczna kategoria konsultantów AI, która weszła na rynek po 2023 roku, ze względu na świeżość tej kategorii, często nie widziała dużej organizacji od środka w procesie migracji systemów od wielu dostawców czy regulowanego programu zarządzania zmianą. Dostarczają to, co widzieli, że działa.
Co pomija ten model#
Brakuje fazy discovery — mapowania istniejących procesów, ich rzeczywistego przebiegu i obsługiwanych wariantów. Brakuje inżynierii wymagań — specyfikacji danych wejściowych, wyjściowych, obsługi wyjątków i kryteriów sukcesu. Nie ma przeglądu danych — inwentaryzacji tego, czego workflow potrzebuje, jakiej jest to jakości i gdzie się znajduje. Nie ma projektu pomiaru — zdefiniowanego sposobu, by za pół roku wiedzieć, czy wdrożenie w ogóle zadziałało. Nie ma spojrzenia w głąb architektury korporacyjnej, żeby zrozumieć długofalowe skutki proponowanego rozwiązania. Pytania, które pozostają bez odpowiedzi, to:
Które procesy automatyzować jako pierwsze. Wybór pierwszego use case’u determinuje, jakie zasoby danych powstaną dla drugiego, jakie wzorce governance zostaną ustalone i jakie wyzwania integracyjne zostaną rozwiązane. Pisałem o tym w zeszłym tygodniu. Model tej kategorii konsultantów nie dokonuje tej selekcji. Automatyzuje to, co wskaże dyrektor operacyjny, w kolejności, w jakiej o tym pomyśli.
Jak zaprojektować proces pod kątem AI-native. Dodanie wywołania LLM do istniejącego workflow przyspiesza go, włącznie z tymi elementami, które były zepsute wcześniej. Problemy, które proces generował przed AI, teraz narastają szybciej. Wyjątki, których proces nigdy dobrze nie obsługiwał, są teraz obsługiwane błędnie na masową skalę. Wartość przynosi przeprojektowana wersja procesu — taka, która reorganizuje uprawnienia decyzyjne, usuwa pośredników i wykorzystuje AI tam, gdzie pasuje, a nie jako nakładkę na to, co już było.
Jaka architektura pasuje do firmy. Architektura to odpowiedź na pytanie, czy workflow działa na infrastrukturze z Single Sign-On, zarządzaniem sekretami (secrets management), observability, logowaniem audytowym i własnością przypisaną do roli, a nie do konkretnej osoby. Jednoosobowy konsultant tego nie potrzebuje. Dla firmy zatrudniającej 500 osób, z ekosystemem Microsoft 365, wdrożonym SAP-em i trzema sektorowymi reżimami compliance, wybór architektury decyduje o tym, czy workflow przetrwa kolejną aktualizację systemu lub odejście pracownika. Model „rynkowy” domyślnie ustawia to, co konsultant wdrożył u poprzedniego klienta.
Konsekwencje pominięcia tych trzech pytań to porażki opisywane w literaturze przedmiotu. Badanie RAND z 2024 roku nad 65 projektami AI wskazało, że główną przyczyną niepowodzeń jest błędne zrozumienie przez kadrę zarządzającą, jak wprowadzić projekt na ścieżkę sukcesu — czyli porażka wybor. Analizy Forrester dotyczące RPA (zrobotyzowanej automatyzacji procesów) od dekady pokazują, że utrzymanie generuje do 60% całkowitych kosztów programu; EY szacuje wskaźnik porażek początkowych programów RPA na 30-50%. To porażka architektury w kategorii technologicznej na tyle bliskiej workflowom agentowym, że jest najlepszym dostępnym punktem odniesienia. Porażka redesignu jest najtrudniejsza do zmierzenia, ponieważ dane opierają się na obserwacji, a błędy wychodzą na jaw po miesiącach. To oczywiście wzorce znane od lat. Problem w tym, że model dostarczania usług AI, który jest obecnie sprzedawany, po prostu ich nie adresuje.
Co produkuje ten model#
Efekty pominięcia pracy u podstaw są powtarzalne w projektach realizowanych w segmencie mid-market. Wzorce te ujawniają się, gdy konsultanta nie ma już w firmie.
Słyszałem o firmach spod znaku „vibe coding”, które twierdzą przed prezesami, że potrafią zbudować system ERP w 3 dni, maksymalnie 3 tygodnie. Być może specyfikacja nie zakładała, że ten system ma faktycznie działać.
Narzędzia GenAI pozwalają na błyskawiczne i efektowne prototypowanie oraz robienie „magicznego” wrażenia podczas demo. Pozwalają też na refaktoryzację legacy code, odkrywanie architektury i procesów oraz wiele innych istotnych postępów w cyklu życia oprogramowania.
Nie pozwalają jednak na „magiczną” implementację nowego systemu za pomocą kilku promptów, bez głębokiej analizy procesów, danych i architektury. Jeśli nie zaprojektujemy procesów od nowa, by właściwie wykorzystywały AI, zapewniały ludzką kontrolę i zarządzały danymi zgodnie z prawem, skończymy z ładnie wyglądającym prototypem, który biznesowo nie zmienia nic.
Pewnie widzieliście memy: „Claude, zbuduj mi firmę wartą miliard dolarów. Make no mistakes”. ERP budowany metodą vibe-codingu jest tylko o jeden poziom niżej.
Dostawcy technologii AI naciskają na transformację definiowaną jako: „kup 100 licencji na naszego najlepszego copilota, a staniesz się AI-native”. Efekt jest taki, że płacimy co miesiąc za 100 licencji i czekamy z niecierpliwością na moment objawienia, kiedy już ta AI zmieni działanie firmy. Oba przykłady są prawdziwe.
Definiuję trzy poziomy automatyzacji AI:
L1 — To, co daje standardowe, ogólne szkolenie: ludzie dobrze promptują ChatGPT, zyskują wzrost wydajności o 10-20% na pojedynczych zadaniach. Pod spodem te same procesy, te same luki w governance. Tu działa większość „ekspertów z LinkedIn” i programów szkoleniowych.
L2 — Narzędzia AI są wdrażane w kontekście procesów i wiedzy firmy. Mamy wdrożony RAG/graf/ontologię, kontrolę dostępu, a ludzie mogą używać AI jako narzędzia osadzonego w ich pracy, a nie tylko generycznego interfejsu. To może dać 30-40% zysku.
L3 — Faktycznie projektujemy od nowa procesy, struktury danych i samą organizację, aby efektywnie korzystać z AI. Procesy działają automatycznie tam, gdzie to możliwe, i proszą o interwencję człowieka tam, gdzie nie możemy polegać na AI. Organizacja staje się AI-first lub AI-native. To może dać trzy- do pięciokrotny wzrost przepustowości w niektórych procesach.
Dowody historyczne są spójne z tym, co widzimy „w terenie” — analiza RAND z 2024 dotycząca selekcji, dane Forrester i EY o architekturze RPA. Ale historia porażek modelu tej kategorii konsultantów w średnich przedsiębiorstwach pisze się właśnie teraz, w projektach, które zaczęły się pod koniec 2024 i na początku 2025 roku.
Dlaczego ta luka istnieje#
Strona podażowa zapełniła się błyskawicznie po 2023 roku. Strona popytowa nadal nie chce płacić za tę pracę tyle, ile jest warta.
Wypełnienie strony podażowej jest proste: kategoria konsultantów istnieje, bo kategoria kupujących chciała usług wycenionych na ułamek tego, co biorą wielkie firmy doradcze. Kupujący dostali to, za co zapłacili. Nie zrozumieli jednak, że kupili model dostarczania skalibrowany pod najprostsze środowiska, sprzedany firmom, których złożoności konsultanci wcześniej nie poznali. Powyżej pewnego progu strukturalnego — mierzonego nie liczbą pracowników, ale zmiennością procesów, liczbą interesariuszy i złożonością integracji — ten model przestaje działać. Konsultanci, którzy go dostarczają, są być może kompetentni. Po prostu nie w tym, co jest potrzebne ich klientom.
Briefing#
Digital Omnibus w sprawie AI: porozumienie osiągnięte 7 maja 2026 r.
Negocjatorzy Rady UE i Parlamentu osiągnęli wstępne porozumienie w sprawie Digital Omnibus wczesnym rankiem 7 maja 2026 r. Porozumienie przesuwa terminy stosowania obowiązków dla systemów wysokiego ryzyka: samodzielne systemy AI wysokiego ryzyka sklasyfikowane w załączniku III przechodzą z 2 sierpnia 2026 r. na 2 grudnia 2027 r., a wbudowane systemy wysokiego ryzyka z załącznika I — na 2 sierpnia 2028 r. Artykuł 4 (kompetencje AI / AI literacy) jest restrukturyzowany — propozycje Komisji i Rady łagodzą pierwotny obowiązek na rzecz ram wspierających. Obowiązek szkolenia personelu do nadzoru ludzkiego w systemach wysokiego ryzyka pozostaje w mocy. Dla polskich firm z sektora mid-market nowe daty graniczne to 2 grudnia 2027 i 2 sierpnia 2028.
OpenAI i Anthropic uruchomiły 4 maja 2026 r. przedsięwzięcia usługowe AI dla przedsiębiorstw wspierane przez Private Equity
OpenAI ogłosiło powołanie joint venture o nazwie „The Deployment Company” z funduszami TPG, Brookfield i innymi. Anthropic ogłosił podobny ruch z Blackstone i Goldman Sachs. Anthropic przyjmuje model operacyjny „forward-deployed engineer” znany z Palantira, celując w spółki portfelowe z sektorów opieki zdrowotnej, produkcji, usług finansowych, handlu detalicznego i nieruchomości.
Implikacja dla rynku usług AI jest wyraźna. Dostawcy modeli sami wchodzą w dystrybucję, z potężnym wsparciem PE i dostępem do baz klientów. Za jakiś czas duża polska firma, pytając „kto ma nam pomóc wdrożyć AI”, będzie miała trzecią opcję obok wielkiej czwórki i konsultanta-solisty: ramię usługowe samego dostawcy modelu, oferowane jako loss-leader dla adopcji technologii. Moim celem jest zbudowanie opcji czwartej, najlepszej — małej, efektywnej, elastycznej firmy, która doskonale rozumie zarówno AI, jak i złożoność procesów i procedur w dużej organizacji.
Pytania do Twojego zespołu zarządzającego#
Dla każdego wdrożenia AI obecnie realizowanego w organizacji: czy ktokolwiek dokonał świadomego wyboru między tym use casem a innymi, dokumentując uzasadnienie? Czy może wybrano go, bo poprosił o to dyrektor operacyjny lub szef działu? Wybór bez planowania kolejności dalszych wdrożeń to kaprys, nie decyzja.
Dla tych samych wdrożeń: czy proces pod spodem został przeanalizowany i zaprojektowany na nowo jako AI-native, czy tylko dodano warstwę AI do istniejącego procesu? Jeśli przed wdrożeniem AI proces generował błędy lub opóźnienia, to czy AI je przyspieszyło, spowolniło, czy może ukryło?
Jaka jest architektura każdego wdrożenia? Konkretnie: czy i w jaki sposób korzysta z danych korporacyjnych, jak je zabezpiecza, jak integruje się z innymi systemami, czy jest zintegrowane z systemem monitoringu i logowania?
Dla każdego wdrożenia: czy jest ono odnotowane w rejestrze czynności przetwarzania i czy przeprowadzono DPIA, jeśli model przetwarza dane osobowe? Kto imiennie odpowiada za kompetencje (literacy) personelu pracującego z systemem?
Podsumowanie#
Operacje bankowości hurtowej ING korzystają z narzędzi Katana, Katana Lens i Domino jako produktów własnych ING. Zespół Wholesale Banking Advanced Analytics był budowany wewnętrznie przez lata. Case study McKinsey z 2024 roku opisuje siedmiotygodniowe, wspólne budowanie asystenta obsługi klienta opartego na GenAI. Z opisu jasno wynika, że te siedem tygodni było możliwe tylko dlatego, że ING spędziło poprzednią dekadę budując „Fabrykę Modeli”, która demokratyzowała tworzenie rozwiązań, skalowała się na ponad pięćdziesiąt funkcji wsparcia i przypisywała odpowiedzialność za każdy model do konkretnych ról w banku, a nie do zewnętrznych dostawców.
Te siedem tygodni nie byłoby możliwe bez pracy, która je poprzedziła.
Model rynkowy wielu „konsultantów AI” sprzedaje te siedem tygodni. Praca, która powinna je poprzedzać — analiza, redesign, architektura, przypisanie własności — to praca, której ci konsultanci nie są w stanie wykonać. Takie podejście szkodzi klientom, bo prowadzi do niebezpiecznych i niestabilnych rozwiązań, które nie dają oczekiwanych korzyści i psuje rynek, bo nietechniczny CEO uwierzy, że „zbudujemy nowego ERP-a w 3 dni”. A ile mogą kosztować 3 dni pracy? Za darmo to uczciwa cena.
Dla polskiej firmy średniej wielkości, która rozważa kolejne wdrożenie AI, pytanie do konsultanta przed podpisaniem umowy brzmi: które z tych czterech działań na wcześniejszym etapie (upstream) wchodzi w zakres prac? Jeśli odpowiedzią jest puste spojrzenie, to mamy do czynienia z modelem, o którym traktuje ten numer.
Zachowaj równowagę,
Krzysztof
