W ostatnim numerze pisałem o tym, że „pole rażenia” AI w przedsiębiorstwie wykracza daleko poza mury firmy. W tym tygodniu, kończąc naszą początkową, dziesięcioddcinkową serię, w ramach podsumowania zajmiemy się podsumowaniem wyzwań stojących przed liderami w organizacji.
Briefing#
Nowy raport, który powstał w ramach inicjatywy NANDA na MIT, „The GenAI Divide”, szczegółowo opisuje stan wdrożeń AI w przedsiębiorstwach. Badanie ujawnia przepaść między eksperymentowaniem a wartością. Chociaż ponad 80% organizacji przeprowadziło pilotaże narzędzi takich jak ChatGPT i Copilot, 95% nie widzi żadnego wymiernego zwrotu na poziomie rachunku zysków i strat. Raport potwierdza, że narzędzia te zwiększają produktywność osobistą pracowników, ale nie przekładają się na zyski na poziomie firmy. Wymienione tam przyczyny — opór przed nowymi narzędziami, obawy o jakość, słabe doświadczenie użytkownika i brak wsparcia ze strony kierownictwa — wskazują na porażkę strategii, a nie tylko technologii.
Kluczowy wniosek z raportu jest taki, że 5% firm, które budują wartość biznesową, nie kupuje po prostu narzędzi; budują one „systemy zdolne do uczenia się”, zintegrowane z ich unikalnymi procesami.
Traktują wdrożenie AI jako zmianę systemową, a nie aktualizację oprogramowania. Wymaga to przeprojektowania procesów i inwestycji w przygotowanie danych.
Wskazuje to na pewien rozdźwięk. Użytkownicy biznesowi, jak stwierdza raport, lubią narzędzia konsumenckie, takie jak ChatGPT, za ich elastyczność i natychmiastową użyteczność. Jednak ci sami użytkownicy są w przeważającej mierze sceptyczni wobec niestandardowych lub oferowanych przez dostawców narzędzi AI, opisując je jako „kruche” lub „projekty naukowe”. To klasyczny problem z doświadczeniem użytkownika. Narzędzia konsumenckie dają poczucie mocy, podczas gdy narzędzia korporacyjne często wydają się restrykcyjne i nieporęczne.
Moim zdaniem wynika to z faktu, że większość dostawców i konsultantów zamykała oczy i “wrzuca” modele LLM w istniejące procesy biznesowe, mając nadzieję, że „zadzieje się magia”, tak jak wydaje się to dziać w wielu aplikacjach konsumenckich. Różnica polega na tym, że aplikacje konsumenckie są bardzo podobne w całej bazie użytkowników, więc model wytrenowany na dużym zbiorze danych podstawowych może obsłużyć 99% zapytań w miarę dobrze. W przedsiębiorstwie procesy są jednak bardziej skomplikowane i indywidualne, więc ogólny model wytrenowany na danych z internetu nie będzie w stanie przynieść wyników tak dobrych, jak w prostych, jednoetapowych zapytaniach indywidualnych.
Wszystko to doprowadziło do gwałtownego wzrostu zjawiska „Shadow AI”. Pracownicy z ponad 90% firm zgłaszają regularne używanie osobistych narzędzi AI do zadań służbowych, mimo że tylko 40% ich firm ma oficjalną subskrypcję LLM. Siła robocza nie czeka na odgórne rozwiązanie; używają własnych narzędzi do rozwiązywania własnych problemów. Dla lidera oznacza to, że najwrażliwsze dane korporacyjne są prawdopodobnie wklejane do narzędzia konsumenckiego o wątpliwej polityce prywatności, co stwarza duże, niezarządzane ryzyko.
Kilka słów o „halucynacjach”#
Zanim przejdziemy dalej, chwila na terminologię. Często słyszymy, że modele LLM „halucynują”. Uważam, że to mylące określenie. Pochodzi ono z psychiatrii i oznacza postrzeganie zmysłowe — takie jak widzenie, słyszenie, wąchanie, smakowanie lub czucie czegoś — które występuje bez żadnego zewnętrznego bodźca i wydaje się realne osobie, która go doświadcza. Modele LLM nie halucynują; generują statystycznie prawdopodobne sekwencje słów na podstawie swoich danych treningowych. Nie mają pojęcia o „prawdzie”. Termin „halucynacja” przedstawia problem jako możliwą do naprawienia usterkę w maszynie, która poza tym myśli. Trafniej jest powiedzieć, że maszyna działa dokładnie tak, jak została zaprojektowana, a to my się mylimy (czy to my tak naprawdę halucynujemy?), oczekując od niej ludzkiego zrozumienia, którego nie posiada.
Podsumowanie dotychczasowej podróży#
Przez ostatnie dziewięć tygodni starałem się zbudować fundamenty pod rozumienie obszaru. Zaczęliśmy od pragmatyzmu, mówiąc o tym, że większość projektów AI kończy się niepowodzeniem nie z powodu wadliwych modeli, ale dlatego, że są budowane na słabych danych i wierze, że modele potrafią dokonywać jakichś magicznych sztuczek, obsługując złożone procesy biznesowe. Następnie przeszliśmy do zaufania i kontroli, argumentując, że prawdziwe zarządzanie nie znajduje się w dokumentach z politykami („teatr zarządzania”), ale w inżynierskiej rzeczywistości audytowalnych, zautomatyzowanych mechanizmów kontroli — „Governance-as-Code”. Na koniec zbadaliśmy wymiar ludzki, zmieniając narrację z zastępowania na wzmacnianie i poszerzanie odpowiedzialności. Te trzy filary — pragmatyzm, zaufanie i kontrola oraz koncentracja na człowieku — nie są oddzielnymi koncepcjami. To trzy nogi stołka, na którym opiera się stabilna równowaga AI. Bez wszystkich trzech, każda strategia upadnie. Zadaniem lidera jest bycie tą jedyną osobą w organizacji, która potrafi mieć te trzy idee w głowie jednocześnie.
Wyzwanie ciągłej zmiany#
Główną trudnością w zarządzaniu AI jest to, że próbujesz budować stabilną strukturę na ciągle zmieniającym się gruncie, zarządzając technologią, która zmienia się z miesiąca na miesiąc. Modele stają się potężniejsze, regulacje ewoluują, a oczekiwania społeczne wciąż się zmieniają. Złożoność stale rośnie. Ramy zarządzania zaprojektowane dla AI z 2024 roku są już przestarzałe. Próba stworzenia jednego, statycznego zbioru zasad jest zatem daremnym ćwiczeniem. Psychologiczną pułapką jest tu pragnienie pewności. Liderom płaci się za dostarczanie jasnych odpowiedzi. Ale w świecie AI jedyną pewnością jest niepewność. Zwycięska strategia nie polega na budowaniu fortecy, która wytrzyma przewidywaną burzę, ale na budowaniu statku, który poradzi sobie z każdą pogodą.
Budowanie adaptacyjnych ram#
Jak więc zbudować ten odporny statek? Kluczem jest przejście od budowania zasad do budowania adaptacyjnego systemu. System ten ma trzy podstawowe komponenty:
1. Żywy inwentarz modeli: Twój inwentarz systemów AI nie może być arkuszem kalkulacyjnym aktualizowanym raz w roku. Musi to być dynamiczny, działający w czasie rzeczywistym pulpit nawigacyjny, połączony bezpośrednio z Twoimi procesami deweloperskimi. Powinien on automatycznie oznaczać nowe modele, śledzić ich wydajność i monitorować „dryf modelu”.
2. Oparte na zasadach „barierki”, a nie nakazowe reguły: Zamiast 500-stronicowego zbioru zasad, który próbuje uwzględnić każdą ewentualność, zdefiniuj zestaw jasnych, niepodlegających negocjacjom zasad (np. „Żaden system AI nie podejmie ostatecznej, niezweryfikowanej decyzji o dostępie klienta do podstawowej usługi”). Następnie daj swoim zespołom swobodę innowacji wewnątrz tych barierek, używając ich osądu do stosowania zasad w nowych sytuacjach.
3. Zespół szybkiego reagowania: Stwórz mały, międzyfunkcjonalny zespół (np. z działu prawnego, inżynierii i jednostki biznesowej), który można zwołać w krótkim czasie, aby ocenić nowy przypadek użycia AI lub nieoczekiwane zachowanie modelu. Jego zadaniem nie jest bycie powolnym komitetem, ale podjęcie szybkiej, pragmatycznej decyzji na podstawie ustalonych zasad.

Rola lidera#
W tym świecie ciągłych zmian, jaka jest rola lidera? Jest nią bycie głównym ogrodnikiem ekosystemu człowiek-AI w organizacji. Ogrodnik nie rozkazuje roślinom rosnąć. Zamiast tego skupia się na tworzeniu warunków do zdrowego wzrostu. Użyźnia glebę (jakość danych), wyrywa chwasty (wcześnie kończy nietrafione projekty), zapewnia wystarczającą ilość światła słonecznego (dostarcza jasny kierunek strategiczny) i buduje mocne podpory (adaptacyjne ramy zarządzania), aby wspierać rośliny, gdy pną się w górę. Musi być pragmatyczny, nie wierzyć w żadne obietnice cudownych środków, które sprawią, że rośliny będą rosły dziesięć razy szybciej.
To ciągłe, cierpliwe i skoncentrowane na człowieku zadanie. Wymaga krytycznego myślenia do oceny zdrowia systemu, etycznego zarządzania, aby zapewnić, że rozwija się on w korzystnym kierunku, oraz skupienia na długoterminowym zdrowiu ogrodu, a nie tylko na wielkości plonów w jednym sezonie. To podróż uczenia się i adaptacji, a nie cel do osiągnięcia. To ostatecznie jest „AI Equilibrium”. Nie jest to statyczny stan do osiągnięcia, ale dynamiczna równowaga do utrzymania.
Wszystkiego dobrego, Krzysztof
