Przewiń do głównej treści

#31: Business case na AI

·1548 słów·8 min

„Nie dostaniemy budżetu, bo nie umiemy wykazać ROI."

Jeśli to zdanie pojawiło się na jakimś nerwowym chacie na Teamsach — nie jesteś sam. Przez ostatnie dwa lata obserwujemy dziwny paradoks: AI jest wszędzie w prezentacjach strategicznych i prawie niewidoczne w P&L. Dostawcy mówią o „potencjale transformacyjnym" i „wartości strategicznej". Zarządy kiwają głowami, piloty dostają finansowanie, a pół roku później CFO po cichu zamyka program.

Problem w tym, że większość propozycji AI jest pisana jak esej strategiczny, a nie jak plan finansowy. Business case po prostu nie jest zaprojektowany tak, żeby przetrwać kontakt z finansami.

To wydanie jest o tym, jak to naprawić.

Dlaczego CFO odrzucają business case’y AI
#

Na pierwszy rzut oka obietnicom projektów AI trudno się oprzeć. Obiecują lepsze doświadczenie klienta, szybsze decyzje, nowe produkty. Ten język działa w komunikacie prasowym. W gabinecie CFO — nie.

Większość business case’ów AI odpada z trzech prostych powodów.

Po pierwsze, wartość jest mglista. „Lepsza jakość decyzji", „wyższa produktywność", „lepsze doświadczenie klienta" to aspiracje, nie przepływy pieniężne. Nie mapują się wprost na żadną pozycję w rachunku zysków i strat.

Po drugie, brakuje punktu odniesienia. Obietnice dostawców mówią o „30% wzroście efektywności", ale rzadko definiują — 30% czego? W porównaniu z jakim obecnym procesem? Przy jakim koszcie na transakcję? Z jakim obecnym wskaźnikiem błędów i poprawek? Bez baseline’u wzrost jest bajką, nie faktem.

Po trzecie, propozycje ignorują ekonomikę jednostkową. W erze on-premise oprogramowanie przypominało środek trwały: kupowałeś licencje i serwery, potem korzystałeś z nich latami z niemal zerowym kosztem krańcowym. SaaS nieco zmienił postać rzeczy. Licencje per stanowisko, wywołanie API, usage — znacząca część wydatków przesunęła się z capexu do opexu. AI idzie o krok dalej. Każda predykcja, każde wywołanie modelu, każda „wspomagana przez AI" decyzja ma jawny koszt zmienny — i ciągnie za sobą drugi, mniej widoczny koszt zmienny: koszt ludzkiej weryfikacji.

Pozycja CFO jest prosta: propozycja przedstawia AI jako inicjatywę strategiczną. Finanse muszą traktować to jako plan finansowy. Jeśli dokument nie schodzi do poziomu kosztu na transakcję, wolumenów i zabezpieczeń przed ryzykiem — nie przejdzie weryfikacji.

Ekonomika jednostkowa inteligencji
#

Wyjściem z impasu jest przestać przekonywać, że musimy wdrożyć rewolucję AI i zacząć wyliczać korzyści finansowe tych wdrożeń: zmniejszenie kosztu decyzji, transakcji, interakcji.

Przy business case opartym na redukcji kosztów liczą się dwie liczby. Pierwsza to koszt operacji w obecnym, manualnym lub półautomatycznym procesie. Druga to koszt operacji w proponowanym procesie wspomaganym przez AI — włącznie z weryfikacją przez człowieka. Jeśli druga liczba nie jest niższa od pierwszej przy realistycznych wolumenach i poziomach jakości, propozycja nie ma podstaw.

Business case’y AI, które są oparte tylko na wartościach opłat licencyjnych i budżetów wdrożeniowych, ale pomijają trzy linie kosztowe, które dominują w perspektywie wieloletniej — nie działają.

Pierwsza to inference. Każde wywołanie modelu zużywa moc obliczeniową. Jeśli korzystasz z zewnętrznych API, rachunek rośnie wraz z użyciem. Jeśli uruchamiasz modele samodzielnie, płacisz za GPU, energię i chłodzenie. Trend długoterminowy jest jasny: koszt na token spada, nowsze architektury są bardziej efektywne. Problem w tym, że organizacje nie utrzymują innych zmiennych na stałym poziomie. W miarę jak modele stają się tańsze i bardziej zdolne, zwiększają okna kontekstowe, dodają więcej danych wejściowych, stosują AI do kolejnych procesów. Tańsze tokeny są natychmiast reinwestowane w „cięższe" użycie, więc sumaryczne wydatki i tak rosną wraz z adopcją i złożonością, zamiast spadać.

Druga linia to podatek weryfikacyjny. AI przygotowuje odpowiedź; człowiek wciąż musi zdecydować, czy jej zaufać. Jeśli prawnik spędza dwadzieścia minut na przeglądaniu kontraktu wygenerowanego w minutę przez AI, arbitraż pracy nie wynosi dwadzieścia do jednego. Może być ujemny. Jeśli underwriter musi ręcznie sprawdzić trzydzieści procent wniosków ocenionych przez AI, efektywny koszt decyzji to nie cena API modelu — to „API plus underwriter". W przeciwieństwie do mocy obliczeniowej, czas doświadczonego człowieka nie tanieje z każdą nową wersją modelu. Jeśli świadomie nie zaprojektujesz procesu tak, żeby obniżyć wskaźnik weryfikacji, ta linia zdominuje koszty.

Trzecia linia to utrzymanie i dryf. Modele nie starzeją się z wdziękiem. Regulacje się zmieniają, produkty się zmieniają, wzorce fraudów się zmieniają, dane ewoluują. Trzeba finansować przetwarzanie danych, ewaluację, retrenowanie, monitoring i obsługę incydentów. Nawet jeśli efektywność GPU rośnie, a operatorzy centrów danych wyciskają więcej pracy z każdej kilowatogodziny, koszty ludzi i procesów wokół modeli nie obniżają się. W praktyce warto zabudżetować 15–20% początkowych kosztów budowy na każdy rok użytkowania, żeby utrzymać dokładność i zgodność na poziomie, który obiecałeś przy starcie.

Gdy te trzy linie są pominięte — albo traktowane jako jednorazowe koszty projektowe, a nie wieloletnie zobowiązania — CFO jest proszony o podpisanie czeku in blanco w imię „innowacji". CFO nie lubią podpisywać takich czeków.

Jak zrobić to dobrze
#

Zamiast zaczynać od nazw modeli i diagramów architektury, zacznij od zapisania prostym językiem: jaką decyzję lub transakcję chcesz usprawnić, kto jest jej właścicielem dzisiaj i ile ona obecnie kosztuje. Czyli konkretne liczby: wolumeny miesięczne, średni czas obsługi, pełny koszt na sprawę, wskaźnik błędów i poprawek. Jeśli nie jesteś w stanie zdobyć tych danych w ciągu kilku dni, nie masz wsadu do business case’u.

Potem wylicz te wartości dla stanu docelowego w tych samych jednostkach. Dla procesu wspomaganego przez AI — jak wyglądałby koszt na transakcję, gdyby uwzględnić tokeny, infrastrukturę i weryfikację ludzką? Przy jakim poziomie adopcji nowa linia naprawdę zacznie przesuwać P&L? Jaki wskaźnik błędów i eskalacji byłby jeszcze akceptowalny dla ryzyka i compliance?

Weźmy obsługę klienta. Załóżmy, że pełny koszt obsługi zgłoszenia przez człowieka to około 6 euro. Załóżmy, że asystent AI kosztuje 0,50 euro w mocy obliczeniowej na zgłoszenie. Jeśli człowiek musi interweniować przy połowie tych zgłoszeń (i koszt interwencji jest porównywalny z kosztem manualnej obsługi zgłoszenia), prawdziwy koszt to około 3,50 euro, nie 0,50. To oczywiście istotne obniżenie kosztów, ale znacznie mniejsze, niż wynikało z pierwotnego szacowania. Jeśli uda się obniżyć konieczność interwencji do dziesięciu procent zgłoszeń bez szkody dla jakości, efektywny koszt spada do około 1,10 euro — i teraz wygląda to znacznie lepiej.

Chodzi nie o precyzyjne liczby — dostosujesz je do własnego kontekstu. Chodzi o to, że przy wielu przypadkach użycia najbardziej wrażliwą zmienną w business case jest wskaźnik weryfikacji. Rozmowa o wyborze modelu i cenach tokenów jest drugorzędna. Kontrakt chmurowy zawsze można renegocjować. Znacznie trudniej renegocjować koszt pracy seniorów przepalany na poprawianie AI-slopu.

Od slajdów do arkusza walidacyjnego
#

Pełny arkusz walidacji projektu zmusza do zapisania na jednej stronie: obecnego procesu i jego właściciela, baseline kosztowego, docelowych parametrów kosztowych z AI, opisania architektury w stopniu wystarczającym do zrozumienia czynników kosztowych, przedstawienia kosztów weryfikacji i kontroli, oraz etapowego planu inwestycji z jasnymi punktami decyzyjnymi. Każde pole potrzebuje jednego-dwóch zdań i kilku liczb. Jeśli liczb nie potrafimy podać, nie jest dobrze.

Taki one-pager pomaga w podejmowaniu decyzji projektowych. To miejsce, gdzie widać efekty kompromisów i inwestycji: na przykład „wybieramy droższy model, bo pozwala obniżyć weryfikację z trzydziestu do dziesięciu procent, co jest warte znacznie więcej niż oszczędności na tokenach" albo „ograniczamy okno kontekstowe, bo marginalna wartość dodatkowo analizowanych dokumentów jest niższa niż koszt inkrementalny analizy".

Gdy masz taki arkusz, wszystkie typowe powody problemów finansowych projektów AI są łatwiejsze do wychwycenia. Teksty o „wartości strategicznej" bez powiązania z linią P&L od razu rzucają się w oczy. Obietnice „pełnej automatyzacji" w przypadkach wysokiego ryzyka wyglądają nieprawdopodobnie, gdy obok pojawi się ocena ryzyka błędu i kosztu weryfikacji. Plany integracji mówiące „włączymy model w istniejący proces" rodzą oczywiste pytanie: czy ten proces jest w ogóle gotowy na automatyzację?

Briefing
#

Gartner: ponad 40% projektów agentic AI zostanie anulowanych do końca 2027

Gartner prognozuje, że ponad 40% inicjatyw agentic AI nie dojdzie do produkcji. Schemat jest znajomy: projekty uruchamiane na fali strategicznego entuzjazmu, skalowane bez analizy ekonomiki jednostkowej, po cichu zamykane, gdy liczby się nie zgadzają. Stworzenie dobrego business case’u to nie opcja — to różnica między 40%, które wypadną, a resztą.

Finlandia jako pierwszy kraj UE w pełni egzekwuje AI Act

VinciWorks donosi, że od 1 stycznia Finlandia ma w pełni działający reżim egzekwowania AI Act — Traficom jako regulator AI, powołana Rada ds. sankcji dla kar powyżej 100 tys. euro i zasady sandboxa od lutego. Inne państwa członkowskie się spóźniają, ale obowiązki są bezpośrednio egzekwowalne przez sądy. Zgodność regulacyjna to nie „przyszła praca" — to pozycja kosztowa w business case już dziś.

NIST publikuje projekt Cyber AI Profile łączący bezpieczeństwo z zarządzaniem ryzykiem AI

NIST opublikował wstępny projekt Cyber AI Profile, który integruje ryzyka specyficzne dla AI z Cybersecurity Framework (CSF 2.0) i AI Risk Management Framework. Governance AI to już nie poboczny projekt dla zespołów data science — łączy się z bezpieczeństwem i audytem korporacyjnym. Jeśli Twój plan wdrożenia AI nie zawiera odpowiednich mechanizmów kontroli, budujesz pod wczorajszy krajobraz compliance.

Zmiana tonu rozmowy
#

Canvas do budowy business case’u służy zwiększeniu szans na realizację projektów, które przyniosą korzyści organizacji.

Zamiast prosić CFO o wsparcie „innowacji", oferujesz konkretną wymianę: przy tych realistycznych założeniach, dla tego dobrze zdefiniowanego procesu, możemy zmniejszyć koszt operacji o X%; wiemy, które zmienne mają znaczenie; i mamy zdefiniowane punkty, w których wycofujemy się, jeśli te założenia się nie spełnią.

Najbardziej przekonująca linia w tej rozmowie to nie „musimy inwestować w AI, żeby pozostać konkurencyjni", tylko coś znacznie bardziej prozaicznego: „Przy tych założeniach system obniża koszt jednej operacji z 6 euro do nieco ponad 1 euro".

Przed zatwierdzeniem następnej propozycji AI warto zadać jedno proste pytanie:

Jaki jest nasz obecny koszt pojedynczej operacji, jaki jest docelowy koszt tej samej operacji z AI — włącznie z weryfikacją — i jakie mamy bramki decyzyjne, przy których zobaczymy, czy nasze wyliczenia są słuszne?