Drogi Czytelniku,
W numerach od #36 do #39 przeanalizowaliśmy wdrażanie AI w czterech regulowanych sektorach: bankowym, telekomunikacyjnym, farmaceutycznym i publicznym. Każdy ma swojego regulatora, własne akronimy, własną wersję instytucjonalnej ostrożności. KNF w Warszawie. EBA w Paryżu. FDA w Silver Spring. Holenderski urząd skarbowy nieodpowiadający przed nikim przez siedem lat.
Każdy sektor ma swoje specyficzne problemy z governance AI, ukształtowane przez presję konkretnego regulatora. Ale pod tymi różnicami leży wspólna warstwa: te same pięć błędów pojawia się w każdym sektorze, niezależnie od reżimu regulacyjnego.
W tym numerze opisuję wspólne wzorce. Jeśli działasz poza bankowością, telko, farmacją i sektorem publicznym, wnioski dotyczą także ciebie, z jedną istotną różnicą: masz nieco więcej czasu, żeby zbudować governance, zanim regulacje wymuszą zmiany.
Pięć strukturalnych porażek#
1. Nie zarządzisz tym, czego nie mierzysz.
W kwietniu 2025 r. badanie grupy roboczej FTB Związku Banków Polskich wykazało, że tylko co piąty bank miał pełną inwentaryzację swoich systemów AI — choćby zwykłą listę, nie mówiąc o ocenie ryzyka. Sektor publiczny w Polsce nie ma rejestru systemów AI. Żadna polska firma farmaceutyczna nie opublikowała inwentaryzacji systemów ani klasyfikacji zgodnej z AI Act. W telekomunikacji większość operatorów nie przeprowadziła formalnej klasyfikacji zgodnie z załącznikiem III, mimo jednoczesnego wdrażania agentów AI w operacjach sieciowych, obsłudze klienta i wykrywaniu oszustw.
Bez inwentaryzacji nie ma governance. Nie sklasyfikujesz ryzyka w systemach, których nie skatalogowałeś. Nie przypiszesz nadzoru do procesów, których nie zmapowałeś. Termin zgodności z AI Act w sierpniu 2026 r. wymaga działającego rejestru jako warunku wstępnego. W czterech sektorach i setkach organizacji ten warunek nie jest spełniony.
2. Ład pojawia się po wdrożeniu, nie przed (albo wcale).
ING ocenia ponad 100 czynników ryzyka, zanim jakikolwiek system generatywnej AI trafi na produkcję. To wyjątek. Normą w każdym badanym sektorze jest wdrożenie najpierw, a ład pod presją. Holenderski algorytm toeslagen działał siedem lat, zanim interweniował sąd. Polski system STIR zamraża konta bankowe na podstawie niejawnych kryteriów bez opublikowanego audytu. Operatorzy telekomunikacyjni wdrożyli agenty AI do operacji sieciowych (47% osiągnęło autonomię operacyjną w konkretnych przypadkach AIOps), podczas gdy tylko 21% deklaruje odpowiedni ład dla autonomicznych agentów.
Wzorzec jest spójny: koszt budowy ładu przed wdrożeniem jest widoczny i natychmiastowy. Koszt jego braku jest niewidoczny, dopóki system nie ulegnie publicznej awarii. Organizacje systematycznie wybierają tańszą opcję dziś i droższą później.
3. Nadzór ludzki istnieje na papierze i nigdzie indziej.
W każdym sektorze mówi się o nadzorze inaczej, ale problem jest ten sam. Art. 26 AI Act wymaga „znaczącego" ludzkiego nadzoru nad wszystkimi systemami AI wysokiego ryzyka — niezależnie od branży. W bankowości zespół przeglądający oflagowane przypadki raz w tygodniu tego nie spełnia. W farmacji klinicysta, który ma dostęp do odrzucenia rekomendacji AI, ale nigdy z niego nie korzysta, nie sprawuje nadzoru. Zapewnia ochronę przed odpowiedzialnością. W telekomunikacji agent retencyjny dzwoniący do klienta oznaczonego przez model churn nie jest mechanizmem nadzoru, chyba że ma udokumentowane uprawnienia i realną możliwość odrzucenia rekomendacji modelu. W sektorze publicznym STIR zamraża konta bankowe na 72 godziny bez powiadomienia właściciela, a kryteria decyzyjne algorytmu są z założenia sklasyfikowane jako tajemnica państwowa. NIK nie przeprowadził ani jednego audytu tego systemu.
Jedno pytanie weryfikujące: kiedy ostatnio ktokolwiek w procesie nadzoru faktycznie odrzucił decyzję systemu? Jeśli nigdy — nadzór jest fikcją.
4. System nie potrafi wyjaśnić własnych decyzji.
Trzy z czterech sektorów mają bezpośrednią ekspozycję na art. 22 RODO — zakaz podejmowania wyłącznie zautomatyzowanych decyzji o istotnych skutkach dla jednostki. To nie jest obowiązek, który nadejdzie z AI Act w sierpniu 2026 r., lecz obowiązek, który obowiązuje już teraz. Bankowe modele scoringowe podejmują decyzje akceptuj/odrzuć, które dotykają konkretnych osób. Telekomunikacyjne modele churn generują zróżnicowane traktowanie (lepsze oferty dla klientów o wysokiej wartości, pogorszona usługa dla przewidywanych odejść) bez udokumentowanego ludzkiego punktu decyzyjnego. AI w farmacji wpływa na ścieżki kliniczne. Algorytmy sektora publicznego decydują o uprawnieniach do świadczeń i ocenach zgodności podatkowej.
W każdym przypadku osoba, której to dotyczy, ma prawo do wyjaśnienia. W każdym przypadku zdolność organizacji do jego udzielenia waha się od ograniczonej do nieistniejącej. Ekspozycja nie jest teoretyczna.
5. Dostawca wdrożył, a organizacja uznała, że compliance przeszedł wraz z fakturą.
We wszystkich sektorach ten sam schemat: zewnętrzny system AI jest zamawiany, wdrażany i obsługiwany, a organizacja wdrażająca zakłada, że odpowiedzialność za compliance leży po stronie dostawcy. Nie leży. Zgodnie z AI Act podmiot wdrażający ponosi własne obowiązki niezależnie od treści umowy z dostawcą. Zgodnie z DORA wywołania API modeli LLM z systemów bankowych stanowią zależności ICT od podmiotów trzecich, które muszą znaleźć się w rejestrze podmiotów trzecich instytucji. Watson for Oncology został wdrożony globalnie na danych treningowych, których żaden szpital nie poddał niezależnemu audytowi. Operatorzy telekomunikacyjni kupują rozwiązania punktowe od dostawców sprzedających przypadki użycia bez odpowiedzialności za całość portfolio.
Pytanie „Czy Twój dostawca AI widnieje w Twoim rejestrze compliance?" ma w większości organizacji niewygodną odpowiedź: nikt nie sprawdził.
Gdzie sektory się różnią#
Pięć wzorców błędów jest wspólnych. Konsekwencje już nie.
Asymetria wyjścia. Jeśli model kredytowy banku traktuje cię niesprawiedliwie, próbujesz innego banku. Jeśli operator telekomunikacyjny pogarsza usługę, zmieniasz operatora. W farmacji lekarz prowadzący może odrzucić rekomendację algorytmu. Ale jeśli rządowy algorytm zamrozi twoje konto bankowe — jak STIR w Polsce — nie ma konkurencyjnego urzędu skarbowego, do którego można się odwołać. Holenderski skandal toeslagen dotknął 26 000 rodzin, odszkodowania wyniosły 30 000 EUR na rodzinę, rząd upadł. Australijski Robodebt wystawił 469 000 wezwań do zapłaty, mógł przyczynić się do samobójstw i kosztował 1,56 mld AUD w ramach ugody. Brytyjski algorytm oceniania egzaminów maturalnych zaniżył 40% ocen i został wycofany w ciągu czterech dni pod presją polityczną.
Nieprzejrzystość algorytmów plus podmiot bez alternatywy — to przekształca błędy governance z problemów compliance w kryzysy polityczne. Ryzyko jest kategorycznie inne, gdy obywatel nie ma dokąd pójść.
Kolejność wdrożeń zależy od sektora. Telekomunikacja ma najprostszą logikę: zacznij od AIOps, bo generuje ustrukturyzowane dane telemetryczne zasilające każdy kolejny przypadek użycia — przewidywanie rezygnacji, obsługę klienta, planowanie sieci. Koło zamachowe danych działa tylko wtedy, gdy przypadki użycia są ze sobą połączone. W farmacji regulacje dyktują start od produkcji, gdzie obciążenie jest najniższe, a jakość danych najwyższa — nie od wspomagania decyzji klinicznych. W bankowości nie ma naturalnej kolejności, ale inwentaryzacja musi być pierwsza. Sektor publiczny nie miał możliwości wyboru kolejności — systemy już działają, więc governance buduje się wstecz.
Nieprzejrzystość jest wyborem projektowym w jednym sektorze, a awarią w pozostałych. W bankowości modele LLM dostawców zwiększają nieprzejrzystość przez zależność od podmiotów trzecich, co da się rozwiązać kontrolami zakupowymi. W farmacji nieprzejrzyste modele generują niewytłumaczalne rekomendacje kliniczne — to porażka systemu. W telekomunikacji silosowe systemy danych tworzą przypadkową nieprzejrzystość. W sektorze publicznym algorytm STIR jest sklasyfikowany jako tajemnica państwowa z mocy prawa. Tylko w administracji publicznej nieprzejrzystość jest świadomym wyborem, a nie problemem inżynieryjnym.
Dlaczego branże nieregulowane powinny się tym przejmować teraz#
W każdym sektorze, który przeanalizowaliśmy, organizacje budujące governance dobrowolnie robiły to na długo przed wymogiem regulacyjnym. ING, Nordea i BBVA miały infrastrukturę governance AI, zanim AI Act w ogóle powstał. Gdy regulacja weszła w życie, miały działający system. Reszta zaczęła nadrabiać.
To samo zaczyna docierać do branż nieregulowanych dwiema drogami. Po pierwsze, zamówienia: regulowani klienci (banki, firmy farmaceutyczne, instytucje publiczne) zaczynają wymagać dokumentacji governance od swoich dostawców — wymogi AI Act spływają w dół łańcucha dostaw. Po drugie, odpowiedzialność cywilna: Fortune podaje, że 64% firm o rocznych obrotach powyżej miliarda dolarów straciło ponad milion przez awarie AI; 80% organizacji zgłasza ryzykowne zachowania agentów AI. Pytanie nie brzmi, czy wymogi governance dotrą do branż nieregulowanych, lecz czy nadejdą jako regulacja, jako wymóg w zamówieniach, czy jako pozew.
Przewaga dobrowolnego governance#
Najbardziej dojrzały model governance z tej serii to kanadyjska Directive on Automated Decision-Making, obowiązująca od 2019 r. Cztery poziomy wpływu z rosnącymi obowiązkami. Na najwyższym: obowiązkowy ludzki decydent plus opublikowana ocena wpływu algorytmicznego. Działa od siedmiu lat. Ani w prawie polskim, ani unijnym nie ma jeszcze nic porównywalnego.
Praktyczny wniosek: nie czekać na regulacje. Szef działu AI governance w Nordea ujął to wprost: „Jeśli nie akceptuję wdrażania governance, powinienem iść do startupu." Komentarz dotyczył przetrwania regulacyjnego. Ale można go interpretować też jako ocenę pozycji konkurencyjnej. Organizacje, które zbudowały infrastrukturę governance, zanim zostały do tego zmuszone, łatwiej przetrwają wprowadzenie regulacji i zamienią ją w przewagę konkurencyjną.
Raport Deloitte State of AI 2026 szacuje lukę w gotowości do governance na 30% we wszystkich przedsiębiorstwach, poniżej infrastruktury technicznej (43%), zarządzania danymi (40%) i znacznie poniżej dostępu do narzędzi (60%). Dostęp do narzędzi AI jest dwukrotnie wyższy niż gotowość do governance. Ta dysproporcja jest miejscem, w którym powstaną kolejne awarie — niezależnie od sektora.
Briefing#
97% przedsiębiorstw spodziewa się poważnego incydentu z agentami AI w ciągu roku#
2026 Agentic AI Security Report firmy Arkose Labs, oparty na globalnym badaniu 300 liderów przedsiębiorstw z obszarów bezpieczeństwa, oszustw, tożsamości i AI, wykazał, że 97% spodziewa się istotnego incydentu bezpieczeństwa lub oszustwa związanego z agentami AI w ciągu 12 miesięcy. Niemal połowa spodziewa się tego w ciągu sześciu miesięcy. Luka: tylko 6% budżetów bezpieczeństwa jest przeznaczonych na ryzyko związane z agentami AI. Ponad połowa organizacji nie ma formalnych mechanizmów kontroli agentów AI. 87% respondentów zgadza się, że agenty AI działające z legalnymi poświadczeniami stanowią większe zagrożenie wewnętrzne niż pracownicy. Konkluzja raportu jest bezpośrednia: „Technologia wyprzedziła kontrole."
Shadow AI to teraz problem zarządu#
Forbes opublikował w tym tygodniu artykuł argumentujący, że Shadow AI różni się strukturalnie od Shadow IT. Shadow IT dotyczyło niesankcjonowanej infrastruktury. Shadow AI dotyczy niesankcjonowanego poznania: dane nie są tylko przenoszone, ale przekształcane. Prompt jest nowym kanałem wydobycia informacji: kontekst, logika cenowa, plany konkurencyjne opuszczają mury organizacji przez proste kopiuj-wklej. A gdy agenty mają dostęp do narzędzi, „generuj" zamienia się w „wykonaj". Test gotowości: jeśli twoja organizacja nie potrafi odpowiedzieć na pytania „Jakie narzędzia AI są obecnie używane?" i „Jakie dane trafiają do promptów?" — nie zarządzasz AI. Zgadujesz.
Agenty AI to problem tożsamości#
Analiza Security Boulevard ujmuje ryzyko agentów AI jako problem zarządzania tożsamością. Agenty AI działają przez konta serwisowe, role IAM i klucze API — tę samą infrastrukturę co każda tożsamość maszynowa. Powiązane odkrycie: 92% tożsamości chmurowych ma nadmierne uprawnienia, a agenty AI często mają szerszy dostęp niż deweloperzy, którzy je zbudowali. Proponowane rozwiązanie (traktowanie agentów AI jako pełnoprawnych tożsamości podlegających zasadzie minimalnych uprawnień i dostępu just-in-time) wprost odpowiada wzorcom ładu analizowanym w tym wydaniu.
Pytania dla Twojego zespołu kierowniczego#
- Czy Twoja organizacja posiada aktualną inwentaryzację wszystkich systemów AI w produkcji — włącznie z narzędziami zewnętrznych dostawców i AI adoptowaną przez pracowników? Czy byłbyś w stanie udostępnić ją w ciągu 48 godzin?
- Dla każdego systemu na tej liście: kto jest personalnie odpowiedzialny, jeśli system wyrządzi szkodę?
- Kiedy ostatni raz człowiek w Twoim procesie nadzoru faktycznie odrzucił rekomendację AI? Jeśli odpowiedź brzmi „nigdy", co to mówi o nadzorze?
- Czy umowy z Twoimi dostawcami AI widnieją w rejestrze compliance? Czy Twój dział zamówień wie, że powinny?
- Gdyby regulacja w stylu AI Act objęła Twój sektor jutro, ile z Twojej obecnej dokumentacji ładu przetrwałoby audyt?
Termin w sierpniu 2026 r. dotyczy systemów wysokiego ryzyka, ale pytania te odnoszą się do każdego, kto wykorzystuje lub przygotowuje się do wykorzystania AI w środowisku korporacyjnym.
Zachowaj równowagę, Krzysztof
