Przewiń do głównej treści

#20 —  Menedżer jako Architekt Systemu

·1784 słów·9 min

Przygotowuję się do dyskusji podczas wydarzenia organizowanego przez Morgan Phillips na temat: “Człowiek w erze AI: Największe ryzyko operacyjne czy ostatnia przewaga konkurencyjna?”. To oczywiście pytanie retoryczne — człowiek jest i pozostanie kluczową przewagą konkurencyjną, ale tylko pod warunkiem, że zarządzanie organizacjami dostosuje się do wymogów współczesnego świata. Błędem jest zarówno unikanie wykorzystania AI w procesach biznesowych, jak i traktowanie technologii jako autonomicznego pracownika. To narzędzie, które generuje ryzyko, szczególnie na obecnym etapie jego rozwoju. Zadaniem lidera nie jest już tylko zarządzanie ludźmi, lecz projektowanie modelu operacyjnego, który łączy AI z ludzkim nadzorem oraz „tradycyjnymi“ metodami automatyzacji procesów. Sztuczna inteligencja ma bowiem nadal poważne wady, których – w mojej opinii – nie da się szybko wyeliminować.

Briefing
#

Biuro UE ds. AI definiuje zasady zgłaszania „poważnych incydentów“
#

Komisja Europejska opublikowała projekt wytycznych, który szczegółowo opisuje, jak dostawcy systemów AI wysokiego ryzyka muszą zgłaszać „poważne incydenty" zgodnie z art. 73 Aktu o AI (EU AI Act). Projekt, otwarty do konsultacji do 7 listopada 2025 r., znacząco doprecyzowuje zakres odpowiedzialności firm. Pojęcie „poważny incydent" jest zdefiniowane szeroko – obejmuje nie tylko szkody fizyczne, ale także każde naruszenie praw podstawowych UE. Co istotne, wytyczne wskazują, że do uruchomienia procedury zgłoszeniowej wystarczy pośredni związek przyczynowy między działaniem systemu AI a szkodą. Terminy zgłoszeń są wyjątkowo krótkie: 15 dni na większość incydentów i tylko dwa dni w przypadku „powszechnego" naruszenia praw podstawowych lub poważnego zakłócenia infrastruktury krytycznej. Niezastosowanie się do przepisów grozi karą do 15 mln euro lub 3% globalnego rocznego obrotu.

Raport ENISA: AI odpowiada już za ponad 80% ataków socjotechnicznych
#

Agencja Unii Europejskiej ds. Cyberbezpieczeństwa (ENISA) opublikowała raport “Krajobraz Zagrożeń 2025”, z którego wynika, że kampanie phishingowe i ataki socjotechniczne wspierane przez AI stanowią obecnie ponad 80% wszystkich zaobserwowanych ataków opartych na inżynierii społecznej. Raport wskazuje phishing jako najczęstszą metodę wtargnięcia do systemu, stosowaną w 60% przypadków. Raport wskazuje, że atakujący używają zaawansowanych technik, w tym złamanych (jailbroken) modeli językowych i deepfake, aby tworzyć na dużą skalę wysoce skuteczne, spersonalizowane ataki. Utrudnia to pracownikom i narzędziom wykrywanie tych prób.

Bank of England ostrzega przed ryzykiem dla stabilności finansowej związanym z bańką AI
#

Analiza opublikowana przez Bank of England zwraca uwagę na rosnące ryzyko dla stabilności finansowej, wynikające z wysokiej koncentracji i zawyżonych wycen aktywów związanych z AI. W październiku 2025 r. akcje spółek związanych z AI stanowiły około 44% kapitalizacji rynkowej indeksu S&P 500, co jest poziomem koncentracji przewyższającym szczyt bańki internetowej z 2000 roku. Raport odnotowuje też postępującą zmianę w sposobie finansowania firm AI: przewidywane 2,9 biliona dolarów wydatków na infrastrukturę AI w latach 2025-2028 ma być w dużym stopniu finansowane długiem zewnętrznym, w tym szacunkowo ok 800 miliardów dolarów będzie pochodzić z rynków private credit. To sprawia, że bańka AI przestaje być tylko kwestią wycen giełdowych, a staje się problemem systemowego ryzyka kredytowego. Ostrzeżenie to zbiega się w czasie z ankietą Bank of America, w której rekordowe 54% globalnych zarządzających funduszami uznało, że akcje AI znajdują się w bańce spekulacyjnej. ⠀

Przewodnik po projektowaniu procesów Człowiek-AI
#

Wdrożenia AI w przedsiębiorstwach wymagają od menedżerów nowych umiejętności. Case studies pokazują, że dążenie do pełnej autonomii w większości środowisk jest błędem. Optymalny model to model hybrydowy, oparty na jasnym podziale zadań i kontrolowany przez człowieka.

Ryzyko autonomii: Argumenty za nowym modelem
#

Dowody na to, że AI nie można traktować jak autonomicznego pracownika, są jednoznaczne. Słabości obecnych modeli wynikają z ich natury i generują bezpośrednie ryzyko.

  1. Halucynacje i fabrykowanie informacji Zdolność AI do generowania przekonujących, lecz fałszywych informacji, stwarza bezpośrednie ryzyko prawne i finansowe.

  2. Brak rozumienia kontekstu i realiów fizycznego świata Systemy AI nie rozumieją świata fizycznego, co prowadzi do nieprzewidywalnych skutków, gdy powierzy się im kontrolę nad fizycznymi zasobami.

    • Zawieszenie działalności robotaksówek Cruise w 2023 r., po tym jak jeden z pojazdów potrącił i wlókł po jezdni pieszego, dowiodło, że systemom AI brakuje rozeznania w świecie rzeczywistym, niezbędnego do podejmowania autonomicznych decyzji o wysokim ryzyku. To także prawdopodobny powód opóźnienia projektu Robotaxi Tesli.
  3. Niekompetencja operacyjna i szkody wizerunkowe Wdrażanie niedojrzałej AI do obsługi klienta skutkuje porażką operacyjną.

    • Zarówno McDonald’s, jak i Taco Bell (2024-2025) podjęły próbę zautomatyzowania systemów drive-thru. Niestety AI często błędnie interpretowała zamówienia, tworząc nonsensowne zestawy, które stawały się wiralami, zmuszając firmy do wycofania tej technologii.
  4. Systemowe uprzedzenia i nieprzejrzystość decyzji Algorytmy trenowane na danych historycznych utrwalają i skalują zawarte w nich uprzedzenia, tworząc ryzyko braku zgodności (compliance) i ryzyko wizerunkowe.

⠀ Te przypadki dowodzą, że “rozliczalność AI” (AI accountability) jest fikcją. W każdym przypadku porażki, odpowiedzialność – prawna, finansowa czy wizerunkowa – spoczywa na organizacji i jej kierownictwie.

Framework 1: Podział pracy Człowiek-AI
#

Właściwym zastosowaniem AI jest wsparcie człowieka, a nie zastępowanie. Rolą lidera jest zaprojektowanie nowego modelu operacyjnego, w którym każda ze stron wykonuje zadania, do których jest najlepiej przystosowana (i w których jest najbardziej efektywna ekonomicznie). Uwalnia to pracowników od powtarzalnej pracy, pozwalając im skupić się na działaniach wymagających ludzkich umiejętności: złożonego rozwiązywania problemów, podejmowania decyzji, myślenia strategicznego i empatycznego podejścia. Skuteczny model hybrydowy wymaga zrozumienia mocnych stron AI i ludzi.

Rodzaj zadaniaZadanie dla: AIZadanie dla: CzłowiekaRyzyko błędnego przypisania
Przetwarzanie danych na dużą skalęAnalizuje miliony rekordów transakcji w czasie rzeczywistym, aby wyłapać anomalie statystyczne.Przegląda wyselekcjonowaną listę anomalii najwyższego ryzyka, stosując kontekstową wiedzę biznesową.Powierzenie analizy AI grozi dużą liczbą fałszywych alarmów (false positives) i pominięciem kontekstu.
Wykonywanie zadań opartych na zasadachAutomatyzuje przetwarzanie 95% standardowych faktur o spójnym formacie.Obsługuje 5% faktur, które są niestandardowe, uszkodzone lub zawierają wyjątki.Nadmierne poleganie na AI prowadzi do nieprzewidzianych rezultatów, gdy pojawią się wyjątki.
Podejmowanie decyzji strategicznychProwadzi deep research dostępnych materiałów i na tej podstawie proponuje scenariusze wejścia na rynek.Ocenia scenariusze wygenerowane przez AI, krytykuje, proponuje nowe, analizuje ryzyka jakościowe i podejmuje ostateczną decyzję.Delegowanie strategicznych decyzji na AI to rezygnacja z przywództwa i ignorowanie niemierzalnych czynników.
Interakcje z klientemUdziela natychmiastowych odpowiedzi na typowe, proste pytania (np. “W jakich godzinach pracujecie?”).Zarządza złożonymi, wrażliwymi lub wartościowymi skargami klientów, które wymagają empatii i negocjacji.Używanie AI do wrażliwych interakcji niszczy relacje z klientami i generuje ryzyka wizerunkowe, prawne i ekonomiczne
Ocena etycznaSygnalizuje potencjalne konflikty interesów w zbiorze danych na podstawie zaprogramowanych reguł.Bada zgłoszone konflikty, rozumie ich kontekst i niuanse etyczne oraz decyduje o dalszych działaniach.Powierzenie oceny etycznej systemowi AI stwarza poważne ryzyko dla zgodności (compliance) i reputacji.

Framework 2: Nadzór ludzki jako mechanizm kontrolny
#

Nadzór ludzki jest często błędnie postrzegany jako środek tymczasowy. Jest to stały i niezbędny składnik każdego systemu wykorzystującego AI. Ograniczenia generatywnej AI – między innymi brak wbudowanego modelu rzeczywistości i niezdolność do oceny etycznej – są wpisane w jej naturę. Nie można ufać modelowi AI wytrenowanemu na wczorajszych danych, że sprosta wyzwaniom jutra bez ludzkiego nadzoru.

Wdrożenie nadzoru ludzkiego: Studia przypadków
#

Praktyczne modele wdrażania nadzoru ludzkiego już przynoszą wartość.

  • Finanse: “Orkiestracja” AI: Firmy finansowe stosują niekiedy model nazywany “orkiestracją AI”. Do wielu modeli AI kieruje się ten sam prompt. Jeśli rozbieżność między odpowiedziami przekroczy określony próg (np. 8%), zadanie jest eskalowane do eksperta w celu podjęcia decyzji.

  • Logistyka: Automatyczne przetwarzanie dokumentów: Platformy AI automatyzują przetwarzanie dużych ilości dokumentów przewozowych. Worflow jest zaprojektowany z uwzględnieniem wyjątków. Gdy AI napotka niestandardowy dokument lub ocena pewności przetworzenia będzie niższa od ustalonego progu, przekaże go do operatora. To hybrydowe podejście pozwala osiągnąć znacznie większą poprawność przetwarzania przy jednoczesnej redukcji kosztów

  • Compliance: Przeciwdziałanie praniu pieniędzy (AML): Systemy AI monitorują miliony transakcji, aby sygnalizować podejrzane działania. Rola AI ogranicza się do wskazywania transakcji. Analityk (człowiek) musi przeanalizować alert, uwzględnić kontekst i podjąć ostateczną decyzję.

Modele nadzoru: HIC, HITL i HOTL
#

Potrzebujemy bardziej precyzyjnych ram niż ogólny termin “Human-in-the-Loop”. Wymienioine poniżej modele pozwalają skalibrować nadzór odpowiednio do poziomu ryzyka w danym zastosowaniu.

  • Human-in-Command (HIC): System AI może jedynie proponować działania. Człowiek musi wydać wyraźną zgodę przed wykonaniem jakiejkolwiek akcji.

  • Human-in-the-Loop (HITL): Człowiek jest aktywnym i wymaganym uczestnikiem. AI musi zatrzymać się w krytycznych, predefiniowanych momentach, aby poczekać na weryfikację, walidację lub korektę.

  • Human-on-the-Loop (HOTL): System AI działa autonomicznie. Człowiek (operator) monitoruje funkcjonowanie systemu i może interweniować lub anulować jego działania.

Model nadzoruDefinicjaPoziom kontroli ludzkiejTypowe zastosowanie w branży regulowanej
Human-in-Command (HIC)AI proponuje; człowiek autoryzuje działanie.Maksymalny / Decyzje po stronie człowiekaDecyzje inwestycyjne o dużej skali; ocena motywacji działania człowieka; decyzje, które mogą mieć duży wpływ na życie i zdrowie ludzi.
Human-in-the-Loop (HITL)Człowiek jest aktywnym uczestnikiem; musi walidować działania w krytycznych punktach.Wysoki / Aktywna walidacja.Weryfikacja zgłoszonych przez AI roszczeń ubezpieczeniowych powyżej określonej kwoty; ostateczna zgoda na kredyt hipoteczny .
Human-on-the-Loop (HOTL)AI działa autonomicznie; człowiek nadzoruje i może interweniować.Umiarkowany / Nadzorczy.Systemy wykrywania nadużyć (fraud) w czasie rzeczywistym, automatycznie blokujące małe transakcje; monitorowanie handlu algorytmicznego.

Rola lidera
#

Możliwości i ograniczenia AI wraz z coraz bardziej powszechnym stosowaniem tej technologii wymuszają zmianę w podejściu kadry zarządzającej. Rośnie rola umiejętności projektowania, „orkiestracji" i nadzoru złożonych, hybrydowych systemów człowiek-AI. Punkt ciężkości przesuwa się z nadzorowania ludzi na projektowanie procesów, w ramach których działają zarówno ludzie, jak i AI. Konieczne jest przeprojektowanie wielu procesów biznesowych pod kątem efektywnego zastosowania AI, ustalanie progów decyzyjnych uruchamiających interwencję człowieka, zapewnienie audytowalności wszystkich systemów oraz wspieranie kultury, w której pracownicy są zachęcani do kwestionowania i podważania wyników generowanych przez AI.

Ważne pytania
#

  1. Projektowanie procesów: Czy mamy mapę naszych kluczowych procesów, która może pomóc zidentyfikować zadania, które można w pełni zautomatyzować, oraz te, które powinny być realizowane wyłącznie przez ludzi?

  2. Kalibracja ryzyka: Czy w naszych systemach AI wysokiego ryzyka domyślnie przyjęliśmy model “Human-in-Command” lub “Human-in-the-Loop”?

  3. Audytowalność: Czy w dowolnym momencie możemy udowodnić, dlaczego nasza AI podjęła konkretną decyzję? Czy każda decyzja AI i późniejsza interwencja człowieka jest rejestrowana do wglądu?

  4. Kultura: Czy jasno komunikujemy naszym zespołom, że oczekuje się od nich weryfikowania, kwestionowania i podważania wyników generowanych przez AI?

  5. Wybór problemu: Czy zaczynamy od konkretnego, kosztownego wąskiego gardła w biznesie i budowy business case na automatyzację, zamiast od ogólnego pytania “Gdzie możemy użyć AI?”

Podsumowanie
#

AI to narzędzie, a nie kolega z zespołu. Odpowiedzią na jej możliwości i ograniczenia jest takie projektowanie modeli operacyjnych i procesów, w ramach których jest wdrażana, by nie narażać się na nowe rodzaje ryzyk, ale efektywnie wykorzystać zdolności automatyzacji. Zmienia się rola menedżerów i liderów, pojawiają się nowe wymagania związane z inżynierią procesów biznesowych, a nie tylko nadzorowaniem pracy człowieka. Pojawia się więcej pytań i problemów etycznych, konieczne jest lepsze zrozumienie technologii.

Do następnego razu, Krzysztof