Szanowny Czytelniku,
Raport BCG z 2025 roku dotyczący generowania wartości z AI w przedsiębiorstwach zawiera wniosek, wobec którego większość organizacji przechodzi obojętnie. Firmy z górnego kwartyla pod względem wyników priorytetyzują średnio 3,5 przypadku użycia. Cała reszta próbuje realizować średnio 6,1. Co ciekawe, liderzy oczekują przy tym ponad dwukrotnie wyższego zwrotu z inwestycji w AI niż ich konkurenci.
Instynkt w większości korporacji podpowiada coś zupełnie odwrotnego: uruchomić pilotaże w wielu działach, pozwolić zespołom eksperymentować i zobaczyć, co zadziała. Dane pokazują jednak, że ten instynkt jest błędny. Nie dlatego, że szerokie podejście kosztuje więcej niż głębokie (choć tak właśnie jest), ale ze względu na zależności w danych.
Każde wdrożenie AI produkuje dane: logi, decyzje, oznaczone wyjątki, wyniki procesów. To, czy te dane przyspieszą, czy spowolnią kolejne wdrożenie, zależy między innymi od tego, co pierwszy system będzie miał za zadanie wyprodukować. Wdrażanie AI do scoringu kredytowego, zanim zrobisz inwentaryzację swoich systemów i wdrożysz data governance, oznacza budowanie modeli na powiązaniach w danych, o których istnieniu nawet nie wiesz. Wdrażanie AI do obsługi klienta, zanim wewnętrzne systemy operacyjne wygenerują odpowiednio opisane dane widoku 360 klienta, to budowanie w próżni.
W lipcu 2024 roku McDonald’s zakończył współpracę z IBM przy systemie zamówień opartym na AI. Taco Bell wycofało swój pilotaż głosowy z ponad 100 lokalizacji. Obie firmy jako punkt wyjścia wybrały aplikacje front-endowe — to najbardziej złożone, zależne od danych i wymagające pod kątem governance miejsce w całym stosie technologicznym AI. Próbowano to zrobić, zanim zbudowano odpowiednie warstwy operacyjne pod spodem. Technologia zawiodła, ale zawiodła między innymi dlatego, że wybrano zły punkt startowy.
To wydanie poświęcone jest pytaniu, które poprzedza każde wdrożenie AI, a które większość organizacji pomija: nie czy wdrażać, ale w jakiej kolejności, i dlaczego ta kolejność ma tak potężny, kumulujący się efekt.
Pułapka portfela projektów#
Powodem, dla którego najlepsi według BCG prowadzą mniej inicjatyw, nie jest dyscyplina dla samej dyscypliny. Ankieta S&P Global Market Intelligence wykazała, że 42% firm porzuciło większość swoich inicjatyw AI w 2025 roku — to wzrost z 17% rok wcześniej. Ten negatywny trend, rok do roku, oparty jest na odpowiedziach ponad 1000 respondentów. Według tego badania przeciętna korporacja wyrzuciła do kosza 46% swoich projektów typu proof-of-concept (PoC), zanim w ogóle dotarły na produkcję.
Prowadzenie sześciu pilotaży jednocześnie nie daje Ci sześciu szans na sukces. Daje Ci sześć projektów rywalizujących o tych samych inżynierów danych, te same moce integracyjne i tę samą uwagę zarządu. W efekcie żaden z nich nie dostaje wystarczająco dużo zasobów, by wejść na produkcję. Pułapka portfela projektów nie polega na wyborze złych przypadków użycia, tylko na wyborze zbyt wielu naraz.
Dlaczego kolejność ma znaczenie#
Argument za odpowiednią kolejnością wdrożeń wykracza poza kwestię samej alokacji zasobów. Chodzi o zależności w danych.
Koło zamachowe danych (data flywheel) w korporacyjnym AI to samonapędzająca się pętla: wynik działania jednego systemu staje się danymi treningowymi, danymi walidacyjnymi lub danymi wejściowymi dla następnego. W przeciwieństwie do konsumenckiego modelu – gdzie więcej użytkowników produkuje więcej danych, co ulepsza produkt i przyciąga kolejnych użytkowników – w przedsiębiorstwie działa to w poprzek granic funkcjonalnych. Wyniki z AI w dziale zakupów zasilają AI w łańcuchu dostaw, to z kolei zasila prognozowanie popytu, co z kolei wpływa na wycenę.
Li i Agarwal sformalizowali to zjawisko w czasopiśmie Management Science w 2023 roku. Ich wniosek: zachęta dla dostawcy do ulepszania algorytmu zależy od tego, jak wolumen danych treningowych współgra z wysiłkiem włożonym w te ulepszenia. Jeśli jako pierwszy wdrożysz system, który generuje dane niskiej jakości lub dane nieistotne, osłabiasz motywację – i przede wszystkim zdolność – do ulepszania każdego kolejnego systemu.
W praktyce oznacza to, że pierwszy przypadek użycia nie musi jedynie samodzielnie dostarczać wartości. Musi produkować zasoby danych, które kolejny projekt będzie w stanie skonsumować. Jeśli projekt numer jeden generuje nieustrukturyzowane logi, których projekt numer dwa nie potrafi przetworzyć, całe koło zamachowe psuje się na samym starcie.
Właśnie dlatego rozpoczynanie od aplikacji zorientowanych na klienta kończy się fiaskiem nie tylko taktycznym, ale i strukturalnym. AI kontaktująca się bezpośrednio z klientem wymaga dostępności odpowiednich danych, przetestowanej integracji, infrastruktury zarządzania i udowodnionej niezawodności. Te zdolności muszą zostać wypracowane poprzez wcześniejsze wdrożenia. Nie można po prostu założyć, że one tam są.
Efektywna sekwencja#
W sektorach, które na bieżąco omawiamy w tym newsletterze, wyraźnie wyłania się spójny wzorzec wśród organizacji odnoszących sukcesy.
W telekomunikacji (Wydanie #37)): AIOps – automatyzacja operacji sieciowych – jest naturalnym poprzednikiem rozwiązań skierowanych na analizę klienta, takich jak zaawansowane przewidywanie odejść (churn prediction). Powód jest pragmatyczny: AIOps generuje ustrukturyzowane dane telemetryczne, które znacząco wzbogacają modele klienckie. Operatorzy, którzy budują churn prediction bez danych sieciowych, produkują modele ślepe na jedną z najsilniejszych zmiennych predykcyjnych — jakość usług odbieraną przez klienta.
W farmacji (Wydanie #38): to regulacje dyktują kolejność. AI w procesach produkcyjnych – kontrola jakości, optymalizacja partii – niesie ze sobą znacznie mniejsze obciążenia regulacyjne i oferuje wyższą jakość danych niż wsparcie decyzji klinicznych. Organizacje, które odniosły sukces, zaczynały tam, gdzie obciążenia regulacyjne były najmniejsze, a dane najczystsze, by następnie rozszerzać działalność na aplikacje kliniczne, dysponując już w pełni zbudowaną infrastrukturą governance.
W bankowości (Wydanie #36): inwentaryzacja musi być pierwsza. Nie możesz klasyfikować ryzyka w systemach, których nawet nie skatalogowałeś. Banki, które próbowały wdrożyć AI do scoringu kredytowego bez wcześniejszego sfinalizowania inwentaryzacji systemów, szybko odkryły, że budują modele na podstawie danych z systemów, o których istnieniu i powiązaniach w ogóle nie wiedziały.
We wszystkich sektorach (Wydanie #42)): analiza wzorców międzysektorowych pokazała wspólny mianownik porażek — wybór przypadku użycia, który przekracza aktualną dojrzałość w zakresie governance. AI do scoringu kredytowego wymaga udokumentowanych procesów zarządzania danymi, klasyfikacji systemów i ścieżek audytu, zanim trafi na produkcję. Wewnętrzna automatyzacja raportowania — nie. Skuteczna kolejność wdrożeń nie polega na zbudowaniu pełnego frameworku governance przed startem, tylko na wyborze pierwszego przypadku użycia, który mieści się w governance, jakie organizacja już ma. Pierwsze wdrożenie to ćwiczenie z governance — i powinno być dobrane tak, żeby to ćwiczenie można było wykonać bez ryzyka systemowego.
Dane BCG potwierdzają to z innej strony: ponad 80% inwestycji w AI w wiodących organizacjach idzie na przebudowę kluczowych funkcji i tworzenie nowych ofert – a nie na rozsiane po różnych działach narzędzia obiecujące przyrostową poprawę produktywności. Organizacje, które przed wdrożeniem AI dla klientów skupiły się twardo na swoich operacjach wewnętrznych, odnotowały mierzalnie wyższe zwroty z inwestycji.
Ze wszystkich opisanych wyżej przypadków i wdrożeń, które miałem okazję obserwować na rynku, wyłania się bardzo spójna kolejność. Po pierwsze, jakość i klasyfikacja danych – wszystko, co dzieje się później, od tego zależy. Po drugie, automatyzacja operacji wewnętrznych, ponieważ generuje ona dobrze opisane dane procesowe na dużą skalę i to przy bardzo niskim ryzyku zewnętrznym. Po trzecie, systemy wsparcia decyzji i analityki, które konsumują te ustrukturyzowane dane i produkują gotowe dzienniki decyzji. Na samym końcu – aplikacje front-endowe (skierowane bezpośrednio do klienta), które po prostu wymagają niezawodnego działania wszystkich trzech poprzednich warstw.
Taka kolejność nie jest wymysłem z prezentacji konsultingowej. To cecha wspólna wszystkich organizacji, które skutecznie dowiozły projekty AI na produkcję.
Luka we frameworkach#
Mimo bardzo twardych dowodów na to, że kolejność ma strategiczne znaczenie, nie ma powszechnie przyjętego standardu decydowania o tym, który projekt wdrożyć jako pierwszy. Ankieta przeprowadzona przez Enterprise AI Executive w październiku 2025 r. skatalogowała dwanaście różnych metodyk priorytetyzacji pochodzących od największych firm konsultingowych i technologicznych – m.in. od BCG, Deloitte, OpenAI, Google, Capgemini, PwC, Anthropic, Gartnera, czy Microsoftu. Każdy framework ocenia projekty na innych osiach: wpływ kontra wysiłek, wartość w zestawieniu z wykonalnością, punktacja podatności na automatyzację, czy ogólna gotowość regulacyjna.
Tym, co je łączy, są cztery kryteria pojawiające się niemal we wszystkich podejściach: wartość biznesowa (oparta na konkretnych, namacalnych bazach do oszczędności lub nowych przychodów), wykonalność (łącząca wyzwania algorytmiczne z realiami samych systemów), ryzyko (regulacyjne, wizerunkowe oraz to związane z prywatnością danych) oraz gotowość danych.
Czego żaden z nich bezpośrednio nie modeluje, to łańcuch zależności: w jaki sposób dane wyprodukowane przez przypadek użycia numer 1 wpływają na wykonalność i finalny koszt przypadku użycia numer 2? Wymienione frameworki traktują każdy przypadek użycia niezależnie, jakby każdy z nich stanowił osobną, oderwaną od reszty inwestycję. W praktyce wartość projektu numer jeden to po części “wartość opcji” (option value), jaką tworzy on dla całego portfolio projektów, które po nim nastąpią.
Enterprise AI Navigator od Deloitte jest najbliższy właściwemu podejściu dla branż regulowanych, ponieważ ocenia decyzje związane z AI poprzez pryzmat operacyjny, regulacyjny, z zakresu compliance i wpływu na zasoby ludzkie. Z ich danych jednoznacznie wynika, że organizacje o wysokiej dojrzałości – definiowane jako te, które utrzymują projekty AI na produkcji przez minimum trzy lata – wpisują infrastrukturę governance w swój pierwszy przypadek użycia dwukrotnie częściej niż ich mniej dojrzali konkurenci. To właśnie pierwsze wdrożenie ustala wzorzec zarządzania (governance pattern), który potem dziedziczą wszystkie kolejne wdrożenia.
Ocena według wymienionych czterech kryteriów – wartości, wykonalności, ryzyka i gotowości danych – jest niezbędna, ale wciąż niewystarczająca. Ocenia ona każdy projekt jako izolowaną inwestycję. Pytaniem, na które nie odpowiada, jest to, co pierwsze wdrożenie technicznie produkuje dla drugiego wdrożenia. Zmapowanie tego łańcucha zależności – i odpowiednie ułożenie wokół niego całej sekwencji wdrożeń – to proces oceny, który w Quintant prowadzimy na samym starcie każdego programu AI.
Briefing#
SAP wskazuje „błędną kolejność” jako główną pułapkę dla korporacyjnego AI
Manos Raptopoulos, Globalny Prezes ds. Sukcesu Klienta w firmie SAP opublikował 30 kwietnia ramy identyfikujące pięć czynników, które ostatecznie decydują o tym, czy firmowa AI wygeneruje wartość, czy ryzyko. Piąty czynnik – strategia – jednoznacznie określa „błędną kolejność” jako główną pułapkę: „skupienie się wyłącznie na wbudowanej AI (embedded AI) to zostawianie pieniędzy na stole, ale skakanie od razu do głębokiej transformacji całej branży bez governance i dojrzałości danych po prostu potęguje ryzyko”.
Raptopoulos opisuje tu trzy konkretne warstwy, którymi przedsiębiorstwa muszą zarządzać równolegle: wbudowana AI (zyski ze zwykłej produktywności w już istniejących aplikacjach), Agentic AI (orkiestracja wielu agentów działających pomiędzy systemami) oraz AI branżowa (głębokie, skrojone pod dany sektor aplikacje). Jego główny argument polega na tym, że postęp musi być sterowany gotowością, a nie tylko ambicjami. Wdrażanie systemów agentowych lub AI branżowej, zanim na dobre powstaną fundamenty dla danych i zarządzania nimi, nie świadczy o biznesowej śmiałości – to po prostu kardynalny błąd w kolejności wdrożeń.
Dla polskich przedsiębiorstw korzystających z systemów SAP – a grupa ta obejmuje przecież większość dużych producentów i sieci detalicznych na naszym rynku – te implikacje są bardzo bezpośrednie. Wdrażanie potężnych możliwości agentowych od SAP przed ukończeniem warstwy zwykłej, wbudowanej AI tworzy dokładnie takie ogromne ryzyko dla zgodności (compliance exposure), o jakim mówi Raptopoulos: probabilistyczna inteligencja zbudowana na pofragmentowanych fundamentach. Zgodnie z artykułem 26 unijnego Aktu o AI, taka kolejność oznacza również wdrażanie AI wysokiego ryzyka bez w pełni rozwiniętej infrastruktury monitorującej, którą powinny przynieść prace na wcześniejszych, niższych warstwach (SAP News Center, 30 kwietnia 2026 r.).
Termin wdrożenia Aktu o AI dla systemów wysokiego ryzyka to nadal 2 sierpnia — negocjacje dotyczące jego odroczenia utknęły w martwym punkcie
Drugie podejście do negocjacji w sprawie pakietu „Digital Omnibus” — propozycji Komisji Europejskiej dotyczącej odroczenia wymagań w zakresie zgodności dla systemów wysokiego ryzyka z 2 sierpnia 2026 r. na 2 grudnia 2027 r. — zakończyło się 28 kwietnia bez porozumienia. Trzecia runda negocjacji zaplanowana jest na 13 maja. Jeśli negocjacje te ostatecznie pozostaną niezakończone przed 2 sierpnia, pierwotne obowiązki aktu dotyczące wysokiego ryzyka w pełni wejdą w życie z tą datą, dokładnie tak, jak to pierwotnie zapisano w dokumencie.
Kategoria systemów „wysokiego ryzyka” obejmuje AI wykorzystywaną chociażby w scoringu kredytowym, wycenie ryzyka dla ubezpieczeń, systemach do rekrutacji czy oceny wyników pracowniczych oraz w infrastrukturze krytycznej — to dokładnie te dziedziny, w których polskie banki, główni ubezpieczyciele i organizacje z sektora publicznego są zdecydowanie najbardziej zaawansowani we wdrażaniu AI. „Omnibus” oferował ratunek w postaci 16-miesięcznego przedłużenia.
Konsekwencje dla podejścia do wdrożeń są bezpośrednie. Organizacje, które celowo odłożyły prace nad compliance przy pierwszym lub drugim wdrożeniu AI wysokiego ryzyka (w pełni zakładając, że to odroczenie ostatecznie przejdzie), znajdują się teraz 13 tygodni od pierwotnego terminu, bez planu B. Dla instytucji nadzorowanych np. przez KNF nie jest to nawet kwestia prawna. To pilna kwestia operacyjna: które z waszych obecnych, aktualnie działających wdrożeń wysokiego ryzyka jest najdalej od spełnienia wymogów art. 26 i jakich zasobów wymaga zlikwidowanie tej luki? Te pytania powinny być fundamentalną częścią kryteriów wyboru w samym momencie, kiedy dany projekt po raz pierwszy w ogóle został wybrany do wdrożenia (DLA Piper GENIE, 29 kwietnia 2026 r.).
Pytania dla managementu#
Ile przypadków użycia AI Wasza organizacja wdraża jednocześnie? Jeśli ta liczba przekracza cztery, to jakie jest logiczne uzasadnienie dla priorytetyzacji szerokości portfela kosztem jego głębokości — i czy dane potwierdzają jego trafność? W przypadku organizacji wdrażających sztuczną inteligencję w bardzo mocno regulowanych funkcjach – scoring kredytowy, wycena ryzyka ubezpieczeniowego, systemy wsparcia decyzji medycznych – każdy równoległy pilotaż niesie ze sobą dodatkowy, odrębny obowiązek zgodności na mocy wspomnianego wcześniej art. 26 unijnego Aktu o AI. Portfel sześciu pilotaży realizowanych bez ustalonej kolejności to tak naprawdę sześć niekompletnych i ryzykownych zakresów compliance.
W przypadku przypadków użycia będących obecnie w fazie pilotażowej: czy którykolwiek z nich generuje dane, których potrzebuje inny projekt? Jeśli tak, to czy są one realizowane w odpowiedniej kolejności, czy równolegle bez zmapowania zależności w przepływie danych? Dla polskich banków i firm ubezpieczeniowych pod nadzorem KNF, projekt generujący dane treningowe dla przyszłego, kolejnego systemu AI wysokiego ryzyka, sam w sobie staje się całkowicie regulowanym systemem wejściowym.
Jaki był pierwszy przypadek użycia AI wdrożony przez Waszą organizację? Czy wybierając go, wzięliście pod uwagę, jakie dane wyprodukuje i czy kolejne projekty będą w stanie je skonsumować? Czy dopasowaliście go do poziomu dojrzałości governance, który faktycznie mieliście w tamtym momencie — czy raczej governance “doklejono” po fakcie?
Gdybyś mógł w pełni sfinansować tylko jeden projekt AI przez następne dwanaście miesięcy, który z nich obiektywnie stworzyłby najwięcej nowych możliwości dla wszystkiego, co nastąpi po nim — i co równie istotne, który z nich wymagałby najmniej radykalnych przeróbek w samej infrastrukturze zarządzania i compliance w miarę, jak cały portfel zacznie się skalować?
Podsumowanie#
Argumentacja, którą przedstawiam w tym wydaniu, to nie jest zachęta do nadmiernej ostrożności, nie chodzi o “start small”. Chodzi w nim o zrozumienie, że w sztucznej inteligencji dla przedsiębiorstw, pierwszy przypadek użycia to nie tylko kolejny, zwykły projekt – to budowa warstwy fundamentów dla kolejnych projektów — a na pewno będzie ich więcej.
Organizacje, które traktują wybór projektu AI jak klasyczne ćwiczenie z dywersyfikacji portfela – spróbujmy różnych rzeczy i zobaczmy co zadziała – konsekwentnie osiągają o wiele gorsze wyniki rynkowe od tych organizacji, które traktują to jako fundamentalną decyzję z obszaru architektury korporacyjnej.
Prawdziwi liderzy z zestawienia BCG nie wybierają mniejszej liczby projektów dlatego, że są bardziej ostrożni. Realizują mniej projektów, ponieważ rozumieją, że trzy przemyślane wdrożenia realizowane we właściwej kolejności mogą wygenerować więcej zysku w długim terminie, niż sześć losowo wybranych wdrożeń, realizowanych w niewłaściwej kolejności, które z pewnością wygenerują kumulujące się koszty.
Zachowaj równowagę,
Krzysztof Goworek
