Przewiń do głównej treści

#29 — Karta wyników ROI

·1434 słów·7 min

95% pilotaży AI kończy się porażką. Nie dlatego, że technologia nie działa — powodów jest wiele. Jednym z nich jest to, że nikt nie mierzył, czy działa. Rok 2026 nie przyniesie krachu. Przyniesie proste pytanie z działu finansów: „Pokaż mi liczby albo tracisz budżet."

W numerze #28 newslettera pisałem o Shadow Engineering — kodzie pisany, poza zasięgiem wzroku IT, bez nadzoru i pomiarów. To wydanie dotyczy bliźniaczego problemu: AI wdrożonego bez żadnego sposobu na udowodnienie, że działa. Oba problemy wynikają z tej samej przyczyny: organizacje budują szybciej, niż są w stanie zarządzać.

Trzy iluzje, które zniknęły w 2025 roku
#

1. Użycie ≠ Wartość
#

Niektóre organizacje mierzą wskaźniki takie jak „liczba zbudowanych agentów" — sukces osiągamy jeśli każdy pracownik zbudował przynajmniej jednego agenta. MAU, prompty, liczba PoC. Żaden z tych wskaźników nie pojawia się w rachunku zysków i strat. Statystyki użycia mówią tylko tyle, że ludzie klikali w przyciski.

2. „Wzrost produktywności", który wyparował
#

„Pracownicy oszczędzają 5 godzin tygodniowo".

Ale gdzie podziały się te godziny? Zazwyczaj nigdzie. Brak zwiększenia celów sprzedażowych, brak zmian w zatrudnieniu, brak realokacji do zadań o wyższej wartości. Taki wzrost produktywności jest wirtualny — zniknął w przepaści między tym, co obiecał dostawca, a tym, co widać w finansach. Dopóki ktoś nie odzyska tych godzin — poprzez zwiększenie produktywności, nowe funkcje organizacji lub realokację zasobów — ich ilość jest bez znaczenia.

3. „Wartość strategiczna"
#

Ostatnia deska ratunku dla projektów, które nie potrafią udowodnić ROI.

Kiedy CFO pyta „Jaki jest zwrot z inwestycji?", a odpowiedź brzmi „wartość strategiczna", słyszy tak naprawdę: „Nie wiemy."

Co CFO faktycznie chcą wiedzieć
#

Tylko 23% organizacji potrafi dokładnie zmierzyć ROI z projektów AI. Reszta zgaduje.

Ograniczenie się do technicznych KPI — dokładność odpowiedzi, latency, NPS — jest niebezpieczne bez kontekstu P&L. Chatbot może mieć świetne parametry techniczne, jednocześnie zwiększając koszty wsparcia, ponieważ odbija zgłoszenia zamiast je rozwiązywać.

Ile kosztuje jednostka pracy — AI vs człowiek?

Przykład z contact center:

  • Agent-człowiek: średni koszt rozwiązania zgłoszenia 12,50 PLN
  • Agent AI: średni koszt rozwiązania 1,35 PLN To przetrwa weryfikację zarządu. „Strategiczne dopasowanie" nie.

Scorecard wart wdrożenia
#

Aby zmierzyć faktyczną wartość biznesową automatyzacji AI, wystarczy pięć wskaźników:

1. % wolumenu procesu obsłużonego przez AI (vs człowiek) — nie wskaźnik adopcji, ale faktyczne przejęcie pracy.

2. Koszt netto na transakcję — pełne TCO, w tym integracja, licencje i ludzie nadal potrzebni do obsługi modelu. Nie tylko koszty tokenów.

3. Zmiana przepustowości — czy organizacja może obsłużyć więcej pracy bez zwiększania zatrudnienia? To tutaj obietnice produktywności stają się faktem lub zostają obnażone.

4. Zmiana ekspozycji na ryzyko — incydenty, skargi, naruszenia compliance. AI może ryzyko zmniejszać lub je wzmacniać. Musisz wiedzieć, co robi w Twoim przypadku.

5. Time-to-value — czas od pilotażu do pierwszego mierzalnego wpływu na P&L. Jeśli ta liczba to „nie wiemy" lub „18+ miesięcy", nie masz inicjatywy biznesowej.

Zwycięstwa, które mają znaczenie, nie polegają na budowaniu wyrafinowanych chatbotów, którymi można chwalić się na konferencjach. Przykładowo — w branży finansowej lepszym zastosowaniem jest rekoncyliacja — 80% redukcji żmudnej pracy ludzkiej, 10 mln PLN oszczędności. Nudne. Mierzalne. Do obrony.

Co nas czeka w 2026
#

Governance staje się faktem
#

Termin wejścia w życie kolejnych regulacji AI Act: sierpień 2026. Systemy wysokiego ryzyka — rekrutacja, scoring kredytowy, ubezpieczenia — muszą być zarządzane zgodnie z nowymi przepisami. Kara za naruszenie: do 7% globalnego obrotu lub 35 mln EUR. Niektórzy członkowie UE próbują przesunąć ten termin (patrz Briefing), więc nie traktuj go jako wyrytego w kamieniu.

Audytorzy zmienią pytania zadawane podczas weryfikacji AI compliance. Nie „czy udokumentowałeś politykę AI?", ale „czy potrafisz wyjaśnić, dlaczego ten model podjął taką decyzję?".

Bez podejścia governance-as-code, wymagania na zgodność z przepisami zabiją projekty szybciej niż technologia czy słabe uzasadnienie biznesowe.

Koniec czyśćca pilotaży
#

Budżety na eksperymenty kurczą się. Dyrektorzy finansowi oczekują decyzji kierunkowych: ubić czy skalować.

Projekty bez jasnej ścieżki na produkcję czeka smutny koniec:

  • Brak punktu odniesienia do pomiaru wzrostu produktywności? Do kosza.
  • Działa >6 miesięcy bez planu produkcyjnego? Do kosza.
  • Koszt AI >50% kosztu człowieka, którego miałoby zastąpić? Do kosza.
  • Nie przechodzi weryfikacji governance? Do kosza. Tylko 39% organizacji raportuje pozytywny wpływ na EBIT z AI na poziomie przedsiębiorstwa. Z tych, większość mówi o mniej niż 5% EBIT. Zaledwie 6% - „high performers" wg McKinseya - przypisuje AI więcej niż 5% EBIT.

Część tego „wpływu AI na EBIT" to zwykłe cięcie kosztów — zwolnienia, konsolidacja dostawców, zamrożenie budżetów — wstecznie oznaczone w systemach jako „transformacja AI", bo brzmi to lepiej na spotkaniach z inwestorami. Prawdziwy wkład AI może być jeszcze mniejszy.

Shadow AI wymaga odpowiedzi
#

68% pracowników (lub 75%, w zależności od źródła badań) używa narzędzi AI, których IT nie usankcjonowało - a znaczna część (niektórzy mówią o 15% wszystkich promptów) przekazuje im wrażliwe dane korporacyjne. Dwa wyjścia:

  • Zablokować wszystko, co niesankcjonowane. Stracić szanse na innowacje, które z tego wynikają. Mieć pewność, że ludzie i tak będą omijać Twoje zasady, bo nowe narzędzia pomagają w pracy.
  • Lub: abolicja. Ujawnij to, co istnieje, zrób inwentaryzację przypadków użycia, zbuduj rozwiązania, które dają kontrolę bez zabijania tego, co działa. Shadow AI to albo największe ryzyko, albo darmowe laboratorium R&D, którego nie było w budżecie. Różnica polega na tym, czy zostanie objęte zarządzaniem.

Co zrobić w Q1
#

Trzy decyzje, których nie możesz odłożyć:

  1. Wybierz 3 metryki ROI z AI, które trafią do zarządu.
  2. Spisz kryteria eliminacji dla istniejących PoC. Co umiera, co skalujemy, co zamrażamy.
  3. Wyznacz osobę odpowiedzialną za produkcję i governance AI. Nie za innowacje — za produkcję i ryzyko. Przed podpisaniem kolejnego kontraktu na projekt AI zapytaj:
  • Gdzie dokładnie pojawi się wpływ na P&L i kiedy?
  • Jak będzie mierzony sukces bez odwoływania się do „wolumenu użycia" lub „wartości strategicznej"?
  • Kto jest właścicielem tego projektu po jego zakończeniu — technicznie i operacyjnie?

The Briefing
#

Hinton: „Nie zatrzymamy tego tylko z powodu kilku istnień"
#

Geoffrey Hinton, laureat Nobla i powszechnie nazywany „ojcem chrzestnym AI”, wystąpił w zeszłym tygodniu w programie CNNState of the Union. Jego ocena: martwi się bardziej niż wtedy, gdy odchodził z Google dwa lata temu.

Technologia rozwinęła się szybciej niż oczekiwano, szczególnie w zakresie rozumowania i tego, co Hinton nazywa „oszustwem" — systemy AI tworzące plany uniknięcia wyłączenia. Prawdopodobieństwo, że AI „przejmie kontrolę", ocenia na 10–20%.

O regulacjach: Hinton nazwał dążenia administracji Trumpa przeciwko nadzorowi AI „szalonymi". O motywacji Big Tech: „Podejrzewam, że myślą sobie: cóż, jest dużo pieniędzy do zarobienia. Nie zatrzymamy tego tylko z powodu kilku istnień".

BCG: „Cele ponad narzędzia"
#

Najnowszy raport BCG na temat zarządzania transformacją AI trafia w sedno tezy tego wydania: zarządy muszą domagać się „ścieżek dochodzenia do wyników” - przejrzystych dashboardów, które czynią postępy AI tak samo widocznymi jak koszty czy ryzyko. Ich mantra: „wpływ przed technologią, cele przed narzędziami, dyscyplina przed szumem."

Konsultanci identyfikują częsty błąd: zespoły zarządzające traktują AI jako eksperyment techniczny, a nie narzędzie do realizacji wyników powiązane z P&L. Ich rada: zacznij od pytania „od zera" — „Gdybyśmy dziś budowali ten proces od nowa, jak wyglądałby ideał?" — a następnie zaprojektuj drogę wstecz do kwartalnych kamieni milowych.

Rada dotycząca governance: każda inicjatywa AI powinna dostarczać wskaźniki wyprzedzające wartości dla przedsiębiorstwa (wzrost produktywności, skrócenie czasu cyklu, redukcja kosztów), z interwencją, gdy metryki zbaczają z kursu. Zarządy powinny pytać: „Które kluczowe procesy są przeprojektowywane od początku do końca i jak to przełoży się na mierzalne wyniki biznesowe?"

Konsultanci przyznają, że faza skupiania się tylko na wizji się skończyła.

Francja dołącza do Niemiec: Pauza dla AI Act?
#

Sierpień 2026 roku jako termin wejścia w życie regulacji systemów AI wysokiego ryzyka (rekrutacja, scoring kredytowy, ubezpieczenia) technicznie pozostaje w mocy. Ale skoro Francja, Niemcy, Szwecja i Czechy stawiają opór, a Komisja przygotowuje pakiet upraszczający „Digital Omnibus", grunt polityczny się przesuwa.

Francja publicznie poparła wezwanie Niemiec do opóźnienia egzekwowania przepisów dotyczących wysokiego ryzyka w ramach EU AI Act. Francuska minister cyfryzacji Anne Le Hénanff argumentowała na szczycie w Berlinie, że firmy potrzebują więcej czasu na adaptację.

Hiszpania i Holandia sprzeciwiają się opóźnieniu, argumentując, że osłabiłoby to zabezpieczenia, zanim zaczną działać.

Dla liderów w przedsiębiorstwach: planujcie pod obecny termin, ale uważnie obserwujcie Brukselę. Tak czy inaciej, firmy, które przygotowały się wcześniej, są w lepszej pozycji.

Pytanie na ten tydzień
#

„Jaki procent naszych projektów AI może dziś pokazać wpływ na P&L — nie prognozowany, nie ‘strategiczny’, ale rzeczywiste liczby, które przetrwałyby weryfikację dyrektora finansowego?"

Jeśli odpowiedź brzmi „prawie żaden" lub — co gorsza — „nie wiemy", właśnie znalazłeś swoją lukę w pomiarach.

Nie potrzebujesz kolejnego raportu o bilionach dolarów wartości wygenerowanych przez AI. Potrzebujesz trzech liczb, których możesz bronić przed finansami.

Firmy, które wygrają w 2026 roku, nie będą miały najlepszych modeli. Będą to te, które jasno mierzyły, wcześnie wprowadziły governance i ubijały to, co nie działało.

Do następnego razu,

Krzysztof