95% pilotaży AI kończy się porażką. Nie dlatego, że technologia nie działa — powodów jest wiele. Jednym z nich jest to, że nikt nie mierzył, czy działa. Rok 2026 nie przyniesie krachu. Przyniesie proste pytanie z działu finansów: „Pokaż mi liczby albo tracisz budżet."
W numerze #28 newslettera pisałem o Shadow Engineering — kodzie pisany, poza zasięgiem wzroku IT, bez nadzoru i pomiarów. To wydanie dotyczy bliźniaczego problemu: AI wdrożonego bez żadnego sposobu na udowodnienie, że działa. Oba problemy wynikają z tej samej przyczyny: organizacje budują szybciej, niż są w stanie zarządzać.
Trzy iluzje, które zniknęły w 2025 roku#
1. Użycie ≠ Wartość#
Niektóre organizacje mierzą wskaźniki takie jak „liczba zbudowanych agentów" — sukces osiągamy jeśli każdy pracownik zbudował przynajmniej jednego agenta. MAU, prompty, liczba PoC. Żaden z tych wskaźników nie pojawia się w rachunku zysków i strat. Statystyki użycia mówią tylko tyle, że ludzie klikali w przyciski.
2. „Wzrost produktywności", który wyparował#
„Pracownicy oszczędzają 5 godzin tygodniowo".
Ale gdzie podziały się te godziny? Zazwyczaj nigdzie. Brak zwiększenia celów sprzedażowych, brak zmian w zatrudnieniu, brak realokacji do zadań o wyższej wartości. Taki wzrost produktywności jest wirtualny — zniknął w przepaści między tym, co obiecał dostawca, a tym, co widać w finansach. Dopóki ktoś nie odzyska tych godzin — poprzez zwiększenie produktywności, nowe funkcje organizacji lub realokację zasobów — ich ilość jest bez znaczenia.
3. „Wartość strategiczna"#
Ostatnia deska ratunku dla projektów, które nie potrafią udowodnić ROI.
Kiedy CFO pyta „Jaki jest zwrot z inwestycji?", a odpowiedź brzmi „wartość strategiczna", słyszy tak naprawdę: „Nie wiemy."
Co CFO faktycznie chcą wiedzieć#
Tylko 23% organizacji potrafi dokładnie zmierzyć ROI z projektów AI. Reszta zgaduje.
Ograniczenie się do technicznych KPI — dokładność odpowiedzi, latency, NPS — jest niebezpieczne bez kontekstu P&L. Chatbot może mieć świetne parametry techniczne, jednocześnie zwiększając koszty wsparcia, ponieważ odbija zgłoszenia zamiast je rozwiązywać.
Ile kosztuje jednostka pracy — AI vs człowiek?
Przykład z contact center:
- Agent-człowiek: średni koszt rozwiązania zgłoszenia 12,50 PLN
- Agent AI: średni koszt rozwiązania 1,35 PLN To przetrwa weryfikację zarządu. „Strategiczne dopasowanie" nie.
Scorecard wart wdrożenia#
Aby zmierzyć faktyczną wartość biznesową automatyzacji AI, wystarczy pięć wskaźników:
1. % wolumenu procesu obsłużonego przez AI (vs człowiek) — nie wskaźnik adopcji, ale faktyczne przejęcie pracy.
2. Koszt netto na transakcję — pełne TCO, w tym integracja, licencje i ludzie nadal potrzebni do obsługi modelu. Nie tylko koszty tokenów.
3. Zmiana przepustowości — czy organizacja może obsłużyć więcej pracy bez zwiększania zatrudnienia? To tutaj obietnice produktywności stają się faktem lub zostają obnażone.
4. Zmiana ekspozycji na ryzyko — incydenty, skargi, naruszenia compliance. AI może ryzyko zmniejszać lub je wzmacniać. Musisz wiedzieć, co robi w Twoim przypadku.
5. Time-to-value — czas od pilotażu do pierwszego mierzalnego wpływu na P&L. Jeśli ta liczba to „nie wiemy" lub „18+ miesięcy", nie masz inicjatywy biznesowej.
Zwycięstwa, które mają znaczenie, nie polegają na budowaniu wyrafinowanych chatbotów, którymi można chwalić się na konferencjach. Przykładowo — w branży finansowej lepszym zastosowaniem jest rekoncyliacja — 80% redukcji żmudnej pracy ludzkiej, 10 mln PLN oszczędności. Nudne. Mierzalne. Do obrony.
Co nas czeka w 2026#
Governance staje się faktem#
Termin wejścia w życie kolejnych regulacji AI Act: sierpień 2026. Systemy wysokiego ryzyka — rekrutacja, scoring kredytowy, ubezpieczenia — muszą być zarządzane zgodnie z nowymi przepisami. Kara za naruszenie: do 7% globalnego obrotu lub 35 mln EUR. Niektórzy członkowie UE próbują przesunąć ten termin (patrz Briefing), więc nie traktuj go jako wyrytego w kamieniu.
Audytorzy zmienią pytania zadawane podczas weryfikacji AI compliance. Nie „czy udokumentowałeś politykę AI?", ale „czy potrafisz wyjaśnić, dlaczego ten model podjął taką decyzję?".
Bez podejścia governance-as-code, wymagania na zgodność z przepisami zabiją projekty szybciej niż technologia czy słabe uzasadnienie biznesowe.
Koniec czyśćca pilotaży#
Budżety na eksperymenty kurczą się. Dyrektorzy finansowi oczekują decyzji kierunkowych: ubić czy skalować.
Projekty bez jasnej ścieżki na produkcję czeka smutny koniec:
- Brak punktu odniesienia do pomiaru wzrostu produktywności? Do kosza.
- Działa >6 miesięcy bez planu produkcyjnego? Do kosza.
- Koszt AI >50% kosztu człowieka, którego miałoby zastąpić? Do kosza.
- Nie przechodzi weryfikacji governance? Do kosza. Tylko 39% organizacji raportuje pozytywny wpływ na EBIT z AI na poziomie przedsiębiorstwa. Z tych, większość mówi o mniej niż 5% EBIT. Zaledwie 6% - „high performers" wg McKinseya - przypisuje AI więcej niż 5% EBIT.
Część tego „wpływu AI na EBIT" to zwykłe cięcie kosztów — zwolnienia, konsolidacja dostawców, zamrożenie budżetów — wstecznie oznaczone w systemach jako „transformacja AI", bo brzmi to lepiej na spotkaniach z inwestorami. Prawdziwy wkład AI może być jeszcze mniejszy.
Shadow AI wymaga odpowiedzi#
68% pracowników (lub 75%, w zależności od źródła badań) używa narzędzi AI, których IT nie usankcjonowało - a znaczna część (niektórzy mówią o 15% wszystkich promptów) przekazuje im wrażliwe dane korporacyjne. Dwa wyjścia:
- Zablokować wszystko, co niesankcjonowane. Stracić szanse na innowacje, które z tego wynikają. Mieć pewność, że ludzie i tak będą omijać Twoje zasady, bo nowe narzędzia pomagają w pracy.
- Lub: abolicja. Ujawnij to, co istnieje, zrób inwentaryzację przypadków użycia, zbuduj rozwiązania, które dają kontrolę bez zabijania tego, co działa. Shadow AI to albo największe ryzyko, albo darmowe laboratorium R&D, którego nie było w budżecie. Różnica polega na tym, czy zostanie objęte zarządzaniem.
Co zrobić w Q1#
Trzy decyzje, których nie możesz odłożyć:
- Wybierz 3 metryki ROI z AI, które trafią do zarządu.
- Spisz kryteria eliminacji dla istniejących PoC. Co umiera, co skalujemy, co zamrażamy.
- Wyznacz osobę odpowiedzialną za produkcję i governance AI. Nie za innowacje — za produkcję i ryzyko. Przed podpisaniem kolejnego kontraktu na projekt AI zapytaj:
- Gdzie dokładnie pojawi się wpływ na P&L i kiedy?
- Jak będzie mierzony sukces bez odwoływania się do „wolumenu użycia" lub „wartości strategicznej"?
- Kto jest właścicielem tego projektu po jego zakończeniu — technicznie i operacyjnie?
The Briefing#
Hinton: „Nie zatrzymamy tego tylko z powodu kilku istnień"#
Geoffrey Hinton, laureat Nobla i powszechnie nazywany „ojcem chrzestnym AI”, wystąpił w zeszłym tygodniu w programie CNNState of the Union. Jego ocena: martwi się bardziej niż wtedy, gdy odchodził z Google dwa lata temu.
Technologia rozwinęła się szybciej niż oczekiwano, szczególnie w zakresie rozumowania i tego, co Hinton nazywa „oszustwem" — systemy AI tworzące plany uniknięcia wyłączenia. Prawdopodobieństwo, że AI „przejmie kontrolę", ocenia na 10–20%.
O regulacjach: Hinton nazwał dążenia administracji Trumpa przeciwko nadzorowi AI „szalonymi". O motywacji Big Tech: „Podejrzewam, że myślą sobie: cóż, jest dużo pieniędzy do zarobienia. Nie zatrzymamy tego tylko z powodu kilku istnień".
BCG: „Cele ponad narzędzia"#
Najnowszy raport BCG na temat zarządzania transformacją AI trafia w sedno tezy tego wydania: zarządy muszą domagać się „ścieżek dochodzenia do wyników” - przejrzystych dashboardów, które czynią postępy AI tak samo widocznymi jak koszty czy ryzyko. Ich mantra: „wpływ przed technologią, cele przed narzędziami, dyscyplina przed szumem."
Konsultanci identyfikują częsty błąd: zespoły zarządzające traktują AI jako eksperyment techniczny, a nie narzędzie do realizacji wyników powiązane z P&L. Ich rada: zacznij od pytania „od zera" — „Gdybyśmy dziś budowali ten proces od nowa, jak wyglądałby ideał?" — a następnie zaprojektuj drogę wstecz do kwartalnych kamieni milowych.
Rada dotycząca governance: każda inicjatywa AI powinna dostarczać wskaźniki wyprzedzające wartości dla przedsiębiorstwa (wzrost produktywności, skrócenie czasu cyklu, redukcja kosztów), z interwencją, gdy metryki zbaczają z kursu. Zarządy powinny pytać: „Które kluczowe procesy są przeprojektowywane od początku do końca i jak to przełoży się na mierzalne wyniki biznesowe?"
Konsultanci przyznają, że faza skupiania się tylko na wizji się skończyła.
Francja dołącza do Niemiec: Pauza dla AI Act?#
Sierpień 2026 roku jako termin wejścia w życie regulacji systemów AI wysokiego ryzyka (rekrutacja, scoring kredytowy, ubezpieczenia) technicznie pozostaje w mocy. Ale skoro Francja, Niemcy, Szwecja i Czechy stawiają opór, a Komisja przygotowuje pakiet upraszczający „Digital Omnibus", grunt polityczny się przesuwa.
Francja publicznie poparła wezwanie Niemiec do opóźnienia egzekwowania przepisów dotyczących wysokiego ryzyka w ramach EU AI Act. Francuska minister cyfryzacji Anne Le Hénanff argumentowała na szczycie w Berlinie, że firmy potrzebują więcej czasu na adaptację.
Hiszpania i Holandia sprzeciwiają się opóźnieniu, argumentując, że osłabiłoby to zabezpieczenia, zanim zaczną działać.
Dla liderów w przedsiębiorstwach: planujcie pod obecny termin, ale uważnie obserwujcie Brukselę. Tak czy inaciej, firmy, które przygotowały się wcześniej, są w lepszej pozycji.
Pytanie na ten tydzień#
„Jaki procent naszych projektów AI może dziś pokazać wpływ na P&L — nie prognozowany, nie ‘strategiczny’, ale rzeczywiste liczby, które przetrwałyby weryfikację dyrektora finansowego?"
Jeśli odpowiedź brzmi „prawie żaden" lub — co gorsza — „nie wiemy", właśnie znalazłeś swoją lukę w pomiarach.
Nie potrzebujesz kolejnego raportu o bilionach dolarów wartości wygenerowanych przez AI. Potrzebujesz trzech liczb, których możesz bronić przed finansami.
Firmy, które wygrają w 2026 roku, nie będą miały najlepszych modeli. Będą to te, które jasno mierzyły, wcześnie wprowadziły governance i ubijały to, co nie działało.
Do następnego razu,
Krzysztof
