W salach zarządów na całym świecie rozgrywa się osobliwy rytuał. Zaczyna się od zgrabnej prezentacji w PowerPoincie, po której następuje demonstracja na żywo narzędzia generatywnej AI, bezbłędnie streszczającego złożony raport. Kończy się rundą pełnych podziwu, choć nieco nerwowych, oklasków. Pilotaż jest sukcesem. Zespół otrzymuje gratulacje. A potem… nic.
Genialny prototyp, ulubieniec laboratorium innowacji, nigdy nie ujrzy światła dziennego w środowisku produkcyjnym. Pozostaje sprytną sztuczką, na zawsze uwięzioną w czyśćcu pilotaży.
To nie jest rzadki przypadek; to staje się normą. Żyjemy w czasach paradoksu AI w przedsiębiorstwach: szczyt inwestycji i szczyt szumu medialnego zbiegają się z zadziwiającym, rosnącym wskaźnikiem niepowodzeń projektów. Pęd, by coś zrobić z AI, napędzany strachem przed pozostaniem w tyle, jest właśnie tym, co powoduje, że tak wiele inicjatyw upada. Wygląda na to, że w pośpiechu, by budować przyszłość, zapomnieliśmy, jak budować rzeczy, które przetrwają.
Briefing#
Ostatnie tygodnie przyniosły znaczące, a często sprzeczne, wydarzenia w dziedzinie sztucznej inteligencji, obejmujące strategię rządową na najwyższym szczeblu, realne potknięcia operacyjne i duże premiery produktów od gigantów technologicznych.
23 lipca Biały Dom zaprezentował swój Plan Działania AI, 90-punktowy dokument opisujący podejście do wzmocnienia wiodącej pozycji kraju w dziedzinie AI. Strategia opiera się na trzech filarach: przyspieszeniu innowacji, rozbudowie infrastruktury i opanowaniu międzynarodowej dyplomacji z obszaru AI.
Planowane działania obejmują przegląd przepisów federalnych w celu uchylenia tych, które utrudniają rozwój AI, usprawnienie pozwoleń środowiskowych na budowę centrów danych oraz wykorzystanie funduszy federalnych jako dźwigni do zniechęcania stanów do uchwalania własnych, „uciążliwych” praw dotyczących AI.
Planowi towarzyszyły trzy dekrety wykonawcze. Jeden z nich, zatytułowany „Zapobieganie Woke AI w Rządzie Federalnym”, nakazuje agencjom federalnym, aby mogły zamawiać tylko LLMy, które są „ideologicznie neutralne”. Wyraźnie definiuje on Diversity, Equality and Inclusion (DEI) jako „destrukcyjną” ideologię i nakazuje Narodowemu Instytutowi Standardów i Technologii (NIST) usunięcie odniesień do DEI czy informacji o zmianach klimatycznych z jego Ram Zarządzania Ryzykiem AI. Czytałem wystarczająco dużo książek historycznych, by mieć dziwne deja vu, przypominające stalinowską Rosję lub Koreę Północną.
W kontraście do tego strategicznego działania w USA, artykuł z Pulsu Biznesu naświetlił ryzyka operacyjne niekontrolowanego użycia niedojrzałych systemów AI. Według doniesień, ekspert z NCBiR prawdopodobnie użył ogólnodostepnego systemu AI do zautomatyzowania weryfikacji wniosków o dotacje. System zaczął „halucynować” — z przekonaniem generując fałszywe informacje — i wymyślał fikcyjne powody odrzucenia wniosków. Incydent ten służy jako praktyczny przykład skutków braku AI Governance w instytucjach państwowych, przypominając o poważnych konsekwencjach holenderskiego skandalu z zasiłkami na opiekę nad dziećmi, gdzie wadliwy algorytm niesłusznie oskarżył tysiące rodzin o oszustwo.
Firma analityczna Palantir Technologies odnotowała ponad dwukrotny wzrost ceny swoich akcji w 2025 roku, a jej kapitalizacja rynkowa na krótko osiągnęła 375 miliardów dolarów 25 lipca. Wzrost ten jest w dużej mierze przypisywany szybkiej adaptacji jej Platformy Sztucznej Inteligencji (AIP). W wynikach za pierwszy kwartał 2025 roku Palantir poinformował, że jego przychody komercyjne w USA wzrosły o 71% rok do roku, przekraczając roczny wskaźnik 1 miliarda dolarów, podczas gdy liczba klientów w tym segmencie wzrosła o 69%. Firma ma opublikować swoje wyniki za drugi kwartał 4 sierpnia.
Inne firmy również przechodzą od eksperymentów do produkcji. Podczas ostatniego results call Netflix ujawnił, że po raz pierwszy użył generatywnej AI do stworzenia efektów wizualnych na ekranie w swoim argentyńskim serialu science-fiction El Eternauta. Scena przedstawiająca zawalenie się budynku została podobno ukończona dziesięć razy szybciej i za ułamek kosztów tradycyjnych metod.
23 lipca Ally Financial ogłosiło wdrożenie w całej firmie swojej własnej platformy AI, Ally.ai, dając swoim 10 000 pracownikom dostęp do narzędzi generatywnej AI w celu usprawnienia codziennych zadań.
Głębsze spojrzenie: Poza czyściec pilotaży#
Anatomia cichej katastrofy#
Gdy rozbija się samolot, śledztwo rzadko odkrywa jedną przyczynę katastrofy. Zamiast tego ujawnia łańcuch małych, powiązanych ze sobą awarii — wadliwy czujnik, niezrozumiane ostrzeżenie, odstępstwo od procedury — które kaskadowo prowadzą do katastrofy. Porażka projektu AI w przedsiębiorstwie nie różni się od tego. Raport, który obwinia „niską jakość danych”, jest tak samo uproszczony, jak obwinianie grawitacji o katastrofę lotniczą.
Łańcuch porażek zaczyna się od wadliwych założeń wejściowych. Inicjatywa zrodzona z niejasnego polecenia, takiego jak „Użyjmy GenAI, aby poprawić obsługę klienta”, jest skazana na porażkę od samego początku. To nie jest strategia; to rozwiązanie w poszukiwaniu problemu. To podejście, w którym technologia jest na pierwszym miejscu, prowadzi do tego, co nazywam „fetyszem modelu” — zespoły AI mają obsesję na punkcie wskaźników dokładności, całkowicie oderwane od skomplikowanej rzeczywistości procesu biznesowego, który mają ulepszyć.
Sytuację pogarszają ograniczenia samej technologii. LLMy nie posiadają wewnętrznego modelu opisywanej rzeczywistości. Są mistrzami statystycznej mimikry, a nie prawdziwego zrozumienia. Nie mają pojęcia o przyczynie i skutku. To czyni je genialnymi asystentami do pewnych zadań, ale niewiarygodnymi architektami krytycznych procesów. Wiara, że pokaz w kontrolowanym środowisku testowym jest dowodem na gotowość do wdrożenia w przedsiębiorstwie, jest błędem. Prawdziwym wyzwaniem nie jest sprawienie, by model zadziałał raz; jest nim zapewnienie, że nie zawiedzie na tysiąc nieprzewidywalnych sposobów, gdy zostanie wystawiony na chaos milionów rzeczywistych zapytań.
Zarządzanie zmianą#
Jeśli chcesz zrozumieć obecny stan wdrożeń AI, spójrz na historię IT. Pamiętasz lata 2000? Każdy dział miał własny budżet na zakup technologii, co prowadziło do heterogenicznego, silosowego krajobrazu niekompatybilnych systemów i marnotrawienia pracy i pieniędzy. Powtarzamy dokładnie ten sam błąd z AI. Niepowiązane ze sobą zespoły w efekcie nieskoordynowanych działań tworzą wektorowe bazy danych wektorowych i osierocone klastry GPU, tworząc koszmar zarządczy, który uniemożliwia skalowanie rozwiązań na całą firmę. Źródłem tego jest zapominanie, że wdrażanie AI to nie projekt technologiczny; to projekt zarządzania zmianą. Nie instalujesz po prostu nowego narzędzia. Przeprojektowujesz cały proces biznesowy, realizowany dotąd przez ludzi, którzy mają nawyki, motywacje i sceptycyzm wobec nowości. Narzędzie do podsumowywania dokumentów mające dokładność 95% jest bezwartościowe, jeśli przełożeni, obawiając się ryzyka pojedynczego błędu, i tak polecają swoim zespołom ręczne sporządzanie notatek. To nie jest porażka technologii; to porażka zaufania i adaptacji.
To prowadzi nas do odwiecznego kozła ofiarnego: danych. Problemem nie jest brak danych. Jest nim brak danych gotowych na AI. Liderzy traktują „czyszczenie danych” jak jednorazowy projekt, wiosenne porządki przed przybyciem gości. Ale dane gotowe na AI to nie statyczny stan doskonałości; to dynamiczna zdolność. Niespójne dane, które potrafimy czyścić na potrzeby systemów BI, to często te same dane, które zawierają najcenniejsze sygnały dla modelu AI. Budowanie zdolności do zarządzania, nadzorowania i kwalifikowania danych do konkretnych przypadków użycia jest mało efektownym, ale niepodważalnym fundamentem sukcesu. AI nie naprawi Twoich problemów z danymi; po prostu znajdzie je szybciej.
Dylemat ROI: Mierzenie mgły linijką#
Ostatnią przeszkodą, na której potyka się większość pilotaży, jest wymóg udowodnienia tradycyjnego, liniowego zwrotu z inwestycji (ROI). To jak próba zmierzenia wartości studiów uniwersyteckich poprzez obliczenie kosztu podręczników. To wadliwa miara dla złożonej, nowej technologii. Wartość AI rzadko pojawia się w uporządkowany, przewidywalny sposób, jakiego wymaga arkusz kalkulacyjny działu finansów.
Korzyści są często pośrednie (poprawa jakości decyzji), opóźnione (przyspieszone cykle innowacji) i jakościowe (lepsze doświadczenie pracowników). Niedawne badanie wdrożenia GenAI w Novo Nordisk wykazało, że satysfakcja pracowników była trzykrotnie silniej skorelowana z postrzeganą poprawą jakości pracy niż z obiektywnie zaoszczędzonym czasem.
Jak to ująć w obliczeniach NPV? Wciskanie nowej technologii w sztywny model ROI tworzy błędne koło. Zespoły albo naginają wartość swojego projektu, albo przyznają, że ROI jest niejasne i patrzą, jak ich strategicznie ważny projekt traci finansowanie. Jaka jest więc alternatywa? Musimy poszerzyć naszą definicję wartości i zmienić modele.
W przypadku złożonych systemów może to oznaczać przyjęcie bardziej radykalnych technik pomiaru. Rozważmy koncepcję „digital twins” — użycie AI do stworzenia symulacji procesu lub klienta. Możesz przeprowadzić niezliczone eksperymenty w tym symulowanym świecie, aby precyzyjnie wyizolować przyczynowy wpływ AI, skutecznie zamieniając „miękkie” wskaźniki, takie jak zaangażowanie klienta, w prognozowalne dane finansowe, które mogą mieć właściwą atrybucję. Musimy zacząć używać AI do mierzenia AI.
Pytania#
Oto kilka pytań do rozważenia:
1 Czy finansuję eksperyment naukowy, czy rozwiązanie biznesowe? Spójrz na swoje portfolio PoC AI. Czy lider projektu potrafi w jednym zdaniu wyrazić konkretny, skwantyfikowany problem biznesowy, który rozwiązuje? Jeśli nie, dlaczego jest on finansowany?
2 Czy moja organizacja ma alergiczną reakcję na ten projekt? Czy inicjatywa AI jest traktowana jako odizolowany projekt IT, czy jest integralną częścią szerszej transformacji biznesowej, z prawdziwym zaangażowaniem zarządu i międzyfunkcjonalnymi zespołami, które podzielają tę samą definicję sukcesu?
3 Jeśli ten pilotaż zakończy się 100% sukcesem, co dalej? Czy istnieje jasna, wyceniona i uzgodniona ścieżka do produkcji? Czy zbudowaliśmy most (MLOps, infrastrukturę, plan zarządzania zmianą), zanim dotarliśmy do przepaści?
4 Czy mierzymy właściwe rzeczy? Czy zmuszamy zespoły do uzasadniania strategicznej, długoterminowej wartości za pomocą krótkoterminowych, liniowych modeli ROI? Jak możemy stworzyć kulturę, która formalnie uznaje wartość poprawy podejmowania decyzji, zdolności do innowacji i doświadczenia pracowników?
⠀Wyzwanie wyjścia poza czyściec pilotaży to nie kwestia technologii, ale przywództwa i strategii. Sukcesu nie znajdzie się w najnowszym modelu czy najsprytniejszym algorytmie. Znajdzie się go w dyscyplinie, pragmatyzmie i nieustannym skupieniu na rozwiązywaniu realnych problemów. Wymaga to traktowania AI nie jako magicznego pudełka do zainstalowania, ale jako kluczowej kompetencji, którą należy starannie rozwijać w całym przedsiębiorstwie. W następnym numerze zbadamy powstający krajobraz „AI jako usługi” i co to oznacza dla długoterminowej strategii i zarządzania ryzykiem dostawców.
