„Wdrożyliśmy AI. Przetwarzamy 10 razy więcej zapytań. Ale jakoś… nasze ROI jest ujemne".
Jeśli brzmi to znajomo, właśnie zderzyłeś się z jedną z wielkich ironii technologii w korporacji: im lepsze narzędzie, tym szybciej prowadzi do porażki. Nazywam to Mnożnikiem nieefektywności (Speed of Waste) — zjawiskiem, w którym AI nie naprawia dysfunkcji procesowych, lecz je przyspiesza i skaluje.
Statystyki są brutalne, choć widziałeś je na LinkedInie tyle razy, że pewnie straciły już zdolność szokowania.
42% przedsiębiorstw wdrożyło AI z zerowym ROI (Constellation Research, 2025).
95% pilotaży generatywnego AI w korporacjach kończy się fiaskiem (MIT, 2025).
88% projektów proof-of-concept nigdy nie trafia na produkcję (IDC, 2025).
A trend się pogarsza: 42% firm porzuciło większość swoich inicjatyw AI w 2025 roku, w porównaniu do 17% w 2024 (S&P Global).
Standardowa diagnoza obwinia technologię: modele nie są wystarczająco dobre, dane nie są wystarczająco czyste, infrastruktura nie jest gotowa. Jest w tym trochę prawdy — pisałem o jakości danych w zeszłym tygodniu. Ale pomija to coś istotnego. Jakość danych to często tylko objaw. Głębsze pytanie brzmi: dlaczego dane są złe?
Odpowiedź, częściej niż się przyznaje, jest taka, że proces generujący te dane jest zepsuty. Niespójne dane wejściowe, nieudokumentowane wyjątki, ręczne obejścia systemowe — te błędy procesowe produkują „brudne" dane, na których dławią się systemy AI. Rozkład zaczyna się wcześniej, niż większość chce przyznać.
Silnik odrzutowy na wozie drabiniastym#
Oto eksperyment myślowy: montujemy silnik odrzutowy do konnego wozu. Nie dostajemy szybszego wozu. Dostajemy spektakularną katastrofę, prawdopodobnie z dużą ilością ognia i dość zaskoczonym koniem.
Dokładnie to dzieje się, gdy AI jest wdrażane w nieefektywnych procesach. Podstawowy proces — z jego zbędnymi akceptacjami, brakującymi bramkami jakości, niezdefiniowanymi przekazaniami (handoffs) i nagromadzonymi obejściami — nie zostaje naprawiony. Zostaje przyspieszony. A przyspieszenie, gdy jedziesz w złym kierunku, nie jest postępem.
Zastanówmy się, co automatyzacja faktycznie robi z nieefektywnym procesem:
Szybsze wykonywanie zbędnych kroków — Robisz to, czego nie powinieneś robić, tylko 100× szybciej.
Błędy powielane w skali — Jeden błąd staje się tysiącem błędów, zanim ktokolwiek zauważy.
Narastający dług technologiczny — Obejścia (workarounds) zostają „zabetonowane" w systemach produkcyjnych i trudno je potem wykorzenić.
Iluzja produktywności — „Przetwarzamy więcej!", ale bez tworzenia większej wartości.
⠀ Wydajemy miliony na AI, żeby robić szybciej dokładnie to, czego w ogóle nie powinniśmy robić.
Tworzy to rozpoznawalny wzorzec: organizacje wdrażają AI use case by use case, każdy zespół rozwiązuje swój bezpośredni problem, aż budzą się z pofragmentowanym krajobrazem silosowych rozwiązań, które ze sobą nie rozmawiają. Zmarnowane zasoby, minimalny wpływ.
Należy tu jednak wprowadzić ważne rozróżnienie. Wdrażanie „jeden przypadek użycia naraz" to w rzeczywistości prawidłowa strategia egzekucji — wieloletnie transformacje typu „big bang" zawodzą między innymi dlatego, że technologia ewoluuje zbyt szybko na kaskadowe planowanie (waterfall). Problemem nie jest przyrostowe wdrażanie. Problemem jest przyrostowe wdrażanie bez spójnych ram strategicznych. Każdy use case powinien być zarządzany według tych samych zasad, tych samych standardów danych i tych samych mierników sukcesu. Naprawiaj procesy pojedynczo — ale miej z tyłu głowy architekturę całości.
Problem kumulacji błędów#
W tym miejscu matematyka staje się nieubłagana.
Badania Patronus AI skwantyfikowały coś, co powinno przerażać każdego, kto uruchamia złożone, wielokrokowe przepływy pracy (workflows) AI. Agent AI popełniający błąd w zaledwie 1% kroków osiąga 63% prawdopodobieństwo błędu przy setnym kroku. Na poziomie tokenów, LLM z 1% błędem na token kaskaduje do 87% prawdopodobieństwa błędu przy dwusetnym tokenie.
W zastosowaniu do rzeczywistych procesów w korporacji: jeśli Twoje AI osiąga 95% dokładności na każdym pojedynczym zadaniu — co jest imponującym wynikiem — połączenie 20 sekwencyjnych zadań pozostawia Cię z zaledwie 35% szansą, że cały proces przebiegnie poprawnie. Innymi słowy, w dwóch trzecich przypadków coś pójdzie nie tak. I możesz nawet nie wiedzieć gdzie.
Teraz nałóżmy to na proces, który już był wadliwy. Jeśli ludzki workflow zawierał trzy zbędne kroki akceptacji, niejednoznaczne kryteria przekazania i dwie nieudokumentowane ścieżki wyjątków, AI wiernie nauczy się i zreplikuje to wszystko. Każda nieefektywność staje się nowym wektorem ataku dla błędów. Każde obejście staje się nowym rodzajem awarii.
To stary problem GIGO — garbage in, garbage out. Gdy sam proces jest stronniczy lub nieefektywny, AI skaluje tę dysfunkcję.
Dowody: Dojrzałość procesowa zwiększa szanse na sukces#
Badania wielu firm konsultingowych konsekwentnie pokazują, że organizacje z dojrzałymi, dobrze udokumentowanymi procesami utrzymują projekty AI przy życiu znacznie dłużej niż te bez nich. Cechą wyróżniającą udane wdrożenia AI nie jest lepsze data science — to lepsza dyscyplina procesowa. Krótko mówiąc: nudne podstawy.
Badania Accenture potwierdzają to odkrycie. Tylko 16% organizacji osiągnęło status, który nazywają „Reinvention-Ready" — gdzie procesy zostały zmodernizowane od początku do końca przed wdrożeniem AI. Te, którym się udało, osiągnęły 2,5-krotnie wyższy wzrost przychodów i 3,3-krotnie większy sukces w skalowaniu przypadków użycia AI.
Główny czynnik sukcesu? 87% firm „Reinvention-Ready" wyróżnia się w obszarze Metod i Procesów, w porównaniu do zaledwie 47% organizacji „napędzanych danymi". Dyscyplina procesowa okazała się kluczem — nie zdolności w zakresie nauki o danych. Co jest dość niewygodną prawdą dla każdego, kto sprzedaje AI jako „złoty środek" na wszystko.
Mapowanie procesów przed Prompt Engineeringiem#
Rozwiązanie jest mało spektakularne, ale skuteczne: napraw przepływ pracy, zanim go zautomatyzujesz.
Thomas Davenport, pionier reinżynierii procesów biznesowych, zaktualizował swój framework na erę AI. Jego wskazówki są precyzyjne:
Wyznacz właściciela procesu — Jasna odpowiedzialność, od początku do końca (end-to-end).
Zmapuj istniejący proces — Co faktycznie się dzieje, a nie to, co jest w dokumentacji.
Ustal mierniki wydajności — Zdefiniuj sukces przed automatyzacją.
Przeprojektuj proces — Wyeliminuj marnotrawstwo, redundancję i wyjątki.
Dopiero wtedy dobierz technologiczne narzędzia wspierające.
⠀ Jego kluczowy wniosek: „Nakładanie AI na istniejące procesy daje lepsze rezultaty niż próba przeprojektowania całych przepływów pracy wokół AI". Może to być nieintuicyjne — czy AI nie powinno umożliwiać radykalnego przeprojektowania? Rzeczywistość jest jednak taka, że radykalne przeprojektowanie wprowadza radykalne ryzyko, a większość organizacji nie ma ani apetytu, ani zdolności, by je zaakceptować.
Andrew Ng przedstawił podobny argument w swojej kampanii „data-centric AI": dla większości projektów korporacyjnych gotowe modele są wystarczająco dobre. Wąskim gardłem nie jest algorytm — to proces przygotowywania, czyszczenia i strukturyzowania danych, które go zasilają.
Model nie jest wąskim gardłem. Proces jest.
Kiedy niedoskonałe AI działa#
W pewnych kontekstach rozwiązanie AI działające w 80% i zwiększające produktywność ekspertów 5-krotnie jest lepsze niż czekanie naprzeprojektowanie procesu. Platformy do projektowania generatywnego to demonstrują: klienci tolerują projekty kompletne w 80-85%, ponieważ narzędzie rozwiązuje prawdziwy niedobór talentów. Jest niedoskonałe, ale jest lepsze niż nic — co było jedyną alternatywą.
Ale to działa tylko wtedy, gdy spełnione są trzy warunki:
Istnieje prawdziwe ograniczenie przepustowości (rozwiązujemy problem niedoboru rąk do pracy, a nie optymalizujemy koszty).
Użytkownicy tolerują niedoskonałość, podczas gdy system się uczy.
Pętle uczenia są wbudowane w workflow.
⠀ To nie ma zastosowania do automatyzacji back-office, przepływów compliance czy procesów operacyjnych. Zwiększanie możliwości przerobowych (capacity) to co innego niż poprawa efektywności. To pierwsze może tolerować niedoskonałość; to drugie nie.
Co prowadzi do ogólnej obserwacji: dostawcy AI sprzedają Ci wdrożenia. Konsultanci sprzedają Ci programy transformacji. Ale mało spektakularna prawda jest taka, że prawdopodobnie nie potrzebujesz ani jednego, ani drugiego, dopóki nie zmapujesz i nie naprawisz swoich przepływów pracy. To tańsze, mniej ryzykowne i — o ironio — często dostarcza więcej wartości niż samo AI. Nie żeby ktokolwiek miał interes w tym, żeby Ci to powiedzieć.
Briefing#
Klub 6%#
Najnowsze badanie McKinsey State of AI (listopad 2025, ~2000 respondentów) przypisuje konkretną liczbę do tego, o czym rozmawialiśmy: 88% organizacji regularnie używa AI, ale prawie dwie trzecie utknęło w fazie pilotażowej. Tylko 6% kwalifikuje się jako „AI high performers" — definiowani jako ci, którzy osiągają wpływ na EBIT rzędu 5%+ ze znaczącą przypisaną wartością.
Czynnik różnicujący? Liderzy (high performers) są prawie trzy razy bardziej skłonni do fundamentalnego przeprojektowania przepływów pracy niż ich rówieśnicy. Nie lepsze modele. Nie większe budżety. Przeprojektowanie przepływów pracy.
Odkrycie McKinsey zasługuje na bezpośredni cytat: „Celowe przeprojektowanie przepływów pracy ma jeden z najsilniejszych wkładów w osiąganie znaczącego wpływu biznesowego ze wszystkich testowanych czynników".
To najbliższe kontrolowanemu eksperymentowi, na jaki prawdopodobnie możemy liczyć. Te 94% firm, które widzą ograniczony lub żaden wpływ na poziomie przedsiębiorstwa, w dużej mierze automatyzuje istniejące procesy zamiast najpierw je naprawić. Te 6% odrobiło pracę domową.
Faza czatu się skończyła#
Tymczasem dane o użyciu korporacyjnym OpenAI (grudzień 2025) ujawniają interesującą zmianę. Podczas gdy liczba wiadomości w ChatGPT Enterprise wzrosła 8-krotnie rok do roku, zużycie tokenów wnioskowania (reasoning tokens) przez API wzrosło 320-krotnie. Implikacja: poważne przedsiębiorstwa przechodzą od traktowania AI jako „konsultanta, z którym rozmawiasz" do traktowania go jako „silnika osadzonego w przepływach pracy".
Górne 5% użytkowników korporacyjnych — OpenAI nazywa ich pracownikami „Frontier" — wysyła 6 razy więcej wiadomości niż mediana użytkowników i używa narzędzi do kodowania 17 razy częściej. Przepaść nie dotyczy dostępu. Wszyscy mają dostęp. Przepaść dotyczy głębokości integracji i dojrzałości workflow.
25% przedsiębiorstw nie włączyło podstawowych konektorów, by dać AI dostęp do danych firmowych. Jedna czwarta płacących klientów używa korporacyjnego AI jako drogiego auto-complete — co oczywiście może wynikać z braku zaufania do dostawcy modelu.
Pytanie na ten tydzień#
Przed kolejnym przeglądem inicjatywy AI zadaj swojemu zespołowi projektowemu to pytanie:
„Czy możecie mi pokazać mapę procesu, która została zoptymalizowana ZANIM zaczęliśmy go automatyzować?"
Jeśli odpowiedź brzmi „przeszliśmy od razu do rozwiązania AI" — właśnie znalazłeś swój wyciek ROI.
Model nie jest problemem. Proces jest.
Do następnego razu, Krzysztof
