W poprzednim numerze zgłębialiśmy wizję „wzmocnionej siły roboczej”. Ta poszerzająca się perspektywa partnerstwa człowieka z technologią niesie ze sobą konsekwencje: zwiększenie zakresu odpowiedzialności każdego lidera. Do niedawna lider odpowiadał głównie za działania swoich pracowników — było to niekiedy trudne w realizacji, ale łatwe do zrozumienia wyzwanie. Teraz w coraz większym stopniu będziesz odpowiedzialny za wyniki działania złożonych, często nieprzejrzystych systemów AI. Problem polega na tym, że „pole rażenia” wadliwego algorytmu może być znacznie większe niż pojedynczego ludzkiego błędu, a wady w „rozumowaniu” AI bywają znacznie trudniejsze do przewidzenia.
W tym tygodniu omówimy tę zmieniającą się rzeczywistość. Rola lidera ewoluuje — nacisk na projektowanie i architekturę systemów i mechanizmów musi stać się silniejszy niż na samo zarządzanie zespołami.
Briefing#
Wygląda na to, że oficjalnie zaczęliśmy opuszczać erę hype wokół GenAI, wchodząc w mniej efektowną, ale ważniejszą fazę wdrożeń, dbania o zgodność i zarządzania konsekwencjami.
W najnowszym wydaniu Technology Hype Cycle Gartnera generatywna AI po raz pierwszy znalazła się w „dolinie rozczarowań”. To nie sygnał porażki, ale znak, że rzeczywistość zaczyna doganiać przesadzone obietnice. Rzeczywiście, pomimo średnich wydatków na inicjatywy GenAI w wysokości 1,9 miliona dolarów w 2024 roku, mniej niż 30% liderów technologicznych twierdzi, że ich prezesi są zadowoleni ze zwrotu z tej inwestycji.
Czy nadszedł już czas, by zacisnąć zęby i mieć nadzieję, że bańka nie pęknie z hukiem? Dostawcy technologii GenAI będą nadal podsycać hype — muszą, aby utrzymać napływ pieniędzy od inwestorów. Ostatnie newsy z rynku, takie jak premiera GPT-5, dowodzą jedynie, że nie zbliżamy się do AGI, ani tym bardziej do ASI (Artificial Superintelligence), jak twierdzą. Gdy pewnego dnia muzyka ucichnie, dla kogoś zabraknie krzesła. Jak na razie wszystkie firmy zajmujące się głównie GenAI nadal przepalają szalone ilości pieniędzy, wydając znacznie więcej na moc obliczeniową, niż zarabiają, lub składając absurdalne oferty, by podkupić pracowników konkurencji. Uważam, że te pieniądze można by wydać lepiej, przynosząc większe korzyści ludzkości. Zaczyna to przypominać historię WeWork, kiedy miliardy dolarów wpompowano w biznes, który był strukturalnie nierentowny. GenAI może, ale nie musi, być podobnym przypadkiem. Czas pokaże.
Niedawny wyciek wewnętrznych dokumentów z Meta stanowi konkretny przykład wyzwań związanych z zarządzaniem AI. Dziennikarskie śledztwo agencji Reuters ujawniło dwuznaczne próby nadania osobowości swojemu chatbotowi AI. Wytyczne czyta się mniej jak specyfikację techniczną, a bardziej jak notatkę dla niedoświadczonego stażysty. Dokumenty pokazują, jak inżynierowie i etycy debatują nad kwestiami odpowiedzialności i wizerunku marki. Czy AI powinna mieć opinię na temat Donalda Trumpa? Czy może wyrażać empatię wobec osobistych problemów użytkownika?
W wewnętrznym zarządzaniu AI w Meta istnieją również znacznie bardziej niepokojące niespójności. Podczas gdy firma oficjalnie zakazuje mowy nienawiści w swoich wytycznych, fragmenty ujawnionych dokumentów pozwalają ich AI na angażowanie dzieci w „romantyczne lub zmysłowe” rozmowy i tworzenie treści poniżających mniejszości. Udokumentowane standardy pozwalają AI opisywać dzieci pod kątem atrakcyjności i generować argumenty na to, że „czarni są głupsi od białych” — co stoi w sprzeczności z publicznym stanowiskiem Meta w sprawie odpowiedzialnej AI.
Równie niepokojące są wytyczne dotyczące obrazów przemocy. Standardy wyznaczają arbitralne granice między treściami dopuszczalnymi a niedopuszczalnymi — pozwalając na generowanie obrazów pokazujących starsze osoby bite lub kopane, walczących dzieci i kobiet, którym grozi się bronią (choć bez pokazywania faktycznej przemocy). Te niespójności ujawniają głębokie wyzwania etyczne, przed którymi stają firmy, próbując skodyfikować granice zachowań AI.
Odpowiedzialność lidera w erze AI to już nie tylko zarządzanie produktami i ludźmi, ale także ramami etycznymi, które regulują to, jak AI reprezentuje Twoją organizację. Gdy te zabezpieczenia zawodzą, „pole rażenia” sięga daleko poza mury korporacji, potencjalnie niszcząc zaufanie publiczne i powodując realne szkody społeczne. Przykład Meta służy jako przypomnienie, że zarządzanie AI to nie tylko ćwiczenie techniczne, ale odpowiedzialność przywódcza z głębokimi konsekwencjami.
Zastanówmy się nad tym przez chwilę — nie sądzę, by te rewelacje zaszkodziły Meta, ponieważ ten gigant ma realny monopol w swojej niszy, a uzależnienie użytkowników od ich produktów czyni ich potężniejszym podmiotem niż wiele demokratycznie wybranych rządów. Po prostu nie muszą się przejmować. Co by się jednak stało, gdyby podobne dokumenty wyciekły ze startupu, urzędu publicznego, firmy telekomunikacyjnej czy banku?
Od menedżera do architekta: Wewnętrzna zmiana#
Pierwsza zmiana jest wewnętrzna. Punkt ciężkości Twojej roli przesuwa się z zarządzania realizacją zadań przez zespół na architekturę systemu (szeroko rozumianego, obejmującego procesy biznesowe, nie tylko narzędzia IT), w którym on działa. Wymaga to nowego zestawu decyzji i dawki inżynierskiego sceptycyzmu. Pokusa, by pozwolić AI „podjąć decyzję”, jest silna — bo tam jest linia najmniejszego oporu. Musimy jednak pamiętać, że dzisiejsza technologia, zwłaszcza LLM, nie jest i nie stanie się AGI (ogólną sztuczną inteligencją). LLM tak naprawdę nie rozumieją kontekstu. To potężne modele statystyczne, wyjątkowo dobre w naśladowaniu, ale niezdolne do prawdziwego zrozumienia, jak argumentowałem w numerze #4 newslettera. Traktowanie ich jak autonomicznych decydentów w czymkolwiek poza prostymi, niskiego ryzyka zadaniami, jest zaniedbaniem obowiązków.
Oznacza to, że Twoje nowe kluczowe obowiązki obejmują:
Selekcję zadań: decydowanie, które zadania można w pełni zautomatyzować, które muszą pozostać pod pełną kontrolą człowieka, a które najlepiej nadają się do hybrydowego podejścia.
Gospodarowanie zasobami: Oparcie się napędzanej przez hype pokusie stosowania drogiej, energochłonnej AI do problemów, które prosty, statyczny lub dynamiczny workflow, albo tradycyjny model AI mógłby rozwiązać sto razy taniej.
Zasadę ograniczonego zaufania: Twoją najcenniejszą nową umiejętnością jest zdolność do ciągłego zadawania pytania: „Jak AI doszła do tego wniosku?” i wymagania weryfikowalnej ścieżki audytu danych i procesu.
Pole rażenia: Gdy działania Twojego modelu mają trudne do przewidzenia konsekwencje#
Wykorzystanie generatywnej AI w procesach biznesowych sprawia, że przewidywanie konsekwencji staje się o rząd wielkości trudniejsze. Mogą pojawić się “skutki drugiego rzędu”, które wynikają z niezamierzonego, niewyjaśnialnego i nietransparentnego działania modeli. Wpływ tych skutków na reputację i wyniki finansowe jest tym większy, im bardziej kluczowe procesy czy decyzje powierzymy AI.
Weźmy pod uwagę zaufanie publiczne. Algorytm scoringu kredytowego banku, który nabiera subtelnej stronniczości, nie tylko stwarza ryzyko prawne; po ujawnieniu może zniszczyć zaufanie społeczności klientów, a to rana, która goi się powoli.
Dotyczy to też samego społeczeństwa. Model AI optymalizujący rozmieszczenie reklam lub kanały informacyjne może, bez żadnych złych intencji, wpływać na dyskurs polityczny i procesy demokratyczne. To nie są odległe, akademickie problemy — prawdopodobnie byliśmy świadkami wielu celowych ingerencji w wybory, a ujawnienie prawdziwej skali tego zjawiska zajmie prawdopodobnie lata i będzie wymagało mnóstwa pracy dziennikarzy śledczych. To nowe ryzyka, za które liderzy stają się odpowiedzialni. Ocena tego „pola rażenia” przed wdrożeniem systemu nie jest już opcjonalna.
Głos lidera: Kształtowanie narracji i zasad#
Publiczna narracja na temat AI jest obecnie zdominowana przez dwie skrajności: utopijny entuzjazm i dystopijny strach, walkę laissez-faire z “Red Flag Act”. Doświadczeni liderzy powinni promować trzecią, bardziej realistyczną narrację: że AI to potężne narzędzie, które, jak wszystkie potężne narzędzia, wymaga wykwalifikowanych, odpowiedzialnych operatorów, którym pomaga i których pracę uzupełnia.
Milczenie liderów biznesu w sprawie polityki AI, w przekonaniu, że bezpieczniej jest czekać na jasność, nie jest dobrym wyborem. Jeśli ludzie, którzy faktycznie muszą budować i obsługiwać te systemy, nie będą kształtować zasad, zasady te będą kształtowane przez teoretyków i lobbystów, co doprowadzi do regulacji, które będą zarówno niepraktyczne, jak i nieskuteczne.
Pułapka krótkoterminowego myślenia#
Istnieje ogromna presja, by wykorzystać hype wokół AI do poprawy krótkoterminowych wyników i cen akcji. Często prowadzi to do chodzenia na skróty w trudnej, fundamentalnej pracy nad zarządzaniem. To korporacyjny odpowiednik zajadania się prostym cukrem dla szybkiego zastrzyku energii, wiedząc, że zjazd jest nieunikniony. Prawdziwe przywództwo w erze AI wymaga podejmowania decyzji o długim horyzoncie. Oznacza to argumentowanie za inwestowaniem w solidne zarządzanie, jakość danych i nadzór ludzki, nawet gdy zwrot z inwestycji nie jest od razu widoczny w raporcie kwartalnym. Oznacza to budowanie odpornego „korporacyjnego systemu odpornościowego”, który jest przygotowany na każde zagrożenie, zamiast czekać na pojawienie się konkretnego „wirusa”. Organizacje, które potrafią dostosować się do chaosu regulacyjnego i społecznego, wygrają.
Pytania, które warto zadać#
1 Czy mamy proces decyzyjny na zakres wykorzystania AI? Czy mamy jasny, udokumentowany proces decydowania, które zadania nadają się do pełnej automatyzacji AI w porównaniu z podejściem hybrydowym lub wyłącznie ludzkim?
2 Jakie jest „pole rażenia”? Czy dla naszego najważniejszego systemu AI formalnie określiliśmy najgorszy scenariusz i jego potencjalne skutki drugiego rzędu dla naszych klientów i firmy?
3 Jesteśmy głosem czy echem? Jaka jest nasza strategia, by wnosić naszą praktyczną wiedzę do publicznej i regulacyjnej rozmowy na temat AI?
4 Inwestujemy w odporność czy wydajemy kasę na hype? Jak nasz budżet na zarządzanie AI i jakość danych ma się do naszego budżetu na eksperymentalne, medialne projekty AI?
Podsumowanie#
Transformacja AI to nie tylko zmiana technologiczna; to zmiana w przywództwie. Wymaga szerszej perspektywy, głębszego poczucia odpowiedzialności i nieustannego skupienia na długoterminowych konsekwencjach naszych decyzji. Ostateczne pytanie dla lidera nie brzmi już tylko: „Czy zrealizowaliśmy cele liczbowe?”, ale: „Jaką przyszłość budujemy?”.
Z pozdrowieniami, Krzysztof
