Twój Marketing Manager właśnie poprosił ChatGPT o napisanie skryptu w Pythonie. Skrypt odpytuje bazę klientów. Działa. Jest na produkcji. A Twój dział IT nie ma pojęcia, że istnieje. W wydaniu 24 przedstawiłem koncept Shadow AI — niesankcjonowanego używania narzędzi AI w organizacji. Teza: Twoi pracownicy prowadzą nieopłacane laboratorium R&D. Zamiast zakazywać im korzystania z narzędzi, zinwentaryzuj je, ucz się na przypadkach użycia i utoruj oficjalną ścieżkę. Ten framework wciąż się sprawdza. Ale dzisiaj idziemy o krok dalej. Raport OpenAI Enterprise AI z grudnia 2025 opisuje następujacy trend: 36% wzrost wiadomości dotyczących kodowania od osób spoza działów technicznych w ciągu sześciu miesięcy. Marketing. HR. Operacje. Finanse. Wszyscy piszą w Pythonie. Wszyscy piszą SQL. Wszyscy omijają działy IT. Shadow AI ewoluuje. Nie chodzi już tylko o używanie narzędzi — chodzi o tworzenie za ich pomocą. Witaj w świecie Shadow Engineering.
Kluczowe rozróżnienie#
Shadow AI to konsumpcja. Twój zespół sprzedaży tworzy maile w ChatGPT. Twój dział prawny streszcza umowy. Narzędzie wykonuje pracę; człowiek konsumuje wynik. Ryzyka — wyciek danych, ekspozycja regulacyjna, brak śladu audytowego — są możliwe do opanowania. AI Gateway z redakcją PII rozwiązuje większość z nich. Omówiliśmy to w wydaniu 24. Shadow Engineering to produkcja. Osoby spoza działów technicznych używają AI do pisania kodu, budowania automatyzacji i wdrażania logiki przetwarzającej prawdziwe dane. Człowiek nie tylko konsumuje wynik (dane) — wdraża go (bo wynikiem jest kod). To nie jest zupełnie nowe. „Podbiurkowe” systemy IT istniały kilkadziesiąt lat przed GenAI. Zmiana polega na tym, że teraz są bardziej zdemokratyzowane. Kiedy wdrażasz kod, dziedziczysz wszystkie obowiązki governance właściwe dla inżynierii oprogramowania:
Kontrola wersji. Gdzie jest repozytorium? Nie ma. Skrypt leży w osobistym folderze albo jako
skrypt_final_v2_PRAWDZIWY.pyna czyimś pulpicie.Przegląd bezpieczeństwa. Czy ktoś sprawdził SQL injection? Zahardkodowane hasła? Nie. Twórca nie wie, co to jest.
Własność. Kiedy twórca odchodzi, wiedza odchodzi razem z nim.
Utrzymanie. Kiedy zależność się psuje, kto to naprawi? Nikt nie wie, że skrypt istnieje.
⠀Shadow AI to problem governance danych. Shadow Engineering to problem inżynierii oprogramowania. To rozróżnienie determinuje, które kontrole faktycznie działają.
Taksonomia ryzyk specyficznych dla AI#
Shadow Engineering wprowadza ryzyka, do których tradycyjne frameworki bezpieczeństwa nie zostały zaprojektowane.
1. Bezpieczeństwo: Pułapka „happy path” LLM-y to silniki probabilistyczne. Przewidują, co następuje dalej, na podstawie wzorców — w tym gór niebezpiecznego kodu z publicznych repozytoriów. Model optymalizuje pod „działa”, nie pod „bezpieczne”. Badania Veracode wykazały, że 45% kodu generowanego przez AI zawiera luki bezpieczeństwa: SQL injection, zahardkodowane sekrety, brak walidacji danych wejściowych. To nie są przypadki brzegowe — to baseline.
2. Halucynacje: Problem „slopsquattingu” Oto ryzyko unikalne dla kodu generowanego przez AI: model wymyśla zależności, które nie istnieją. Badacze odkryli, że około 20% próbek kodu z popularnych LLM-ów zawierało zmyślone nazwy pakietów — biblioteki, które brzmiały wiarygodnie, ale nie istniały. Atakujący wykorzystali to. Rejestrują te widmowe pakiety w PyPI i npm, wstrzykują do nich malware i czekają. Kiedy Twój analityk finansowy uruchamia pip install na pakiecie sugerowanym przez ChatGPT, ściąga złośliwy kod bezpośrednio do Twojego środowiska.
3. Wyciek danych: Problem „ingress” Aby wygenerować użyteczny kod, użytkownicy muszą dostarczyć kontekst. A kontekst oznacza dane. Incydent Samsunga to kanoniczny przykład. Inżynierowie wkleili poufny kod źródłowy i notatki ze spotkań do ChatGPT, żeby sprawdzić błędy. Te dane trafiły do korpusu treningowego. Własność intelektualna opuściła budynek — nie przez transfer plików, który złapałby Twój DLP, ale przez tekst wklejony w okno przeglądarki. Twój firewall pilnuje niewłaściwych drzwi.
4. Osierocony kod: Kryzys sukcesji Finance Manager pisze skrypt w Pythonie automatyzujący cotygodniową rekoncyliację danych. Sześć miesięcy później odchodzi z firmy. Skrypt działa dalej — dopóki system źródłowy nie zmieni API. Wzywane jest IT. Ale IT nigdy nie widziało tego skryptu. Nie można naprawić czegoś, czego nie można znaleźć.
5. Ekspozycja regulacyjna: Luka compliance Dla organizacji regulowanych Shadow Engineering tworzy egzystencjalne ryzyko compliance.
AI Act UE, Artykuł 13 wymaga, aby systemy AI były projektowane z myślą o przejrzystości — wdrażający muszą interpretować wyniki i rozumieć, jak system działa. Skrypt wygenerowany przez ChatGPT, którego jego twórca nie rozumie, z definicji nie spełnia tego testu.
RODO, Artykuł 25 wymaga ochrony danych w fazie projektowania. Skrypty, które pobierają całe zbiory danych, bo twórca nie umie filtrować w SQL u źródła, łamią zasady minimalizacji danych. Naruszenie pochodzące z kodu Shadow Engineering przyciągnie kontrolę — i kary.
W tym momencie możesz oczekiwać, że będę argumentował za zakazaniem ChatGPT. Nie będę. Demokratyzacja wspierana przez AI dostarcza prawdziwą wartość. Szybkość. Empowerment. Innowacje na brzegu organizacji. Pracownicy najbliżej problemów biznesowych mogą teraz rozwiązywać je bezpośrednio. Odpowiedzią nie jest zakaz. Jest nią zaprojektowanie linii najmniejszego oporu. Twoja oficjalna polityka AI konkuruje z łatwością wklejania do ChatGPT. Jeśli Twoje sankcjonowane narzędzia są wolniejsze, trudniejsze w dostępie lub mniej wydajne niż shadow-alternatywy, przegrasz. Za każdym razem.
I pamiętaj o kluczowej zasadzie: „Jeśli Twoja polityka governance AI nie może automatycznie zrzucić builda, to jest sugestia, a nie kontrola.”
Framework rozwiązania#
Jak wyciągnąć Shadow Engineering na światło dzienne — i tam go utrzymać:
1. Amnestia — Ogłoś ograniczoną czasowo abolicję. Zaproś pracowników do zadeklarowania ich shadow-skryptów i automatyzacji, bez kary. Nie możesz zarządzać tym, czego nie widzisz.
2. Utwardzanie drogi (Pave) — Przeanalizuj zadeklarowane narzędzia. Zidentyfikuj typowe przypadki użycia. Następnie dostarcz sankcjonowane narzędzia enterprise, które spełniają te potrzeby lepiej niż shadow-alternatywy. Jeśli oficjalna ścieżka jest łatwiejsza, użytkownicy wybiorą ją dobrowolnie.
3. Gateway — Zaimplementuj AI Gateway jako middleware między użytkownikami a zewnętrznymi modelami: scentralizowana kontrola, obserwowalność, redakcja PII zanim prompty dotrą do zewnętrznych modeli. Scenariusz Samsunga staje się niemożliwy.
4. Strefy (Zone) — Klasyfikuj według ryzyka. Zielona strefa: osobiste skrypty produktywnościowe, luźny governance. Żółta strefa: narzędzia departamentowe, wymagany przegląd. Czerwona strefa: aplikacje enterprise, pełny SDLC, obowiązkowy nadzór IT.
5. Rejestracja — Po zakończeniu Amnestii pojawią się nowe potrzeby. Stwórz stałe „drzwi wejściowe”: prosty formularz, odpowiedź w 48 godzin, przekierowanie do stref. Rejestruj wszystko — właściciel, dotykane dane, przypadek użycia. Przeglądaj kwartalnie. Kiedy właściciel odchodzi, własność jest przekazywana albo narzędzie jest wycofywane.
Briefing#
Karpathy: „Nigdy nie czułem się tak w tyle”#
Andrej Karpathy, który ukuł termin „vibe coding”, napisał w tym tygodniu: „Nigdy nie czułem się tak w tyle jako programista. Zawód jest dramatycznie przebudowywany.” Opisuje narzędzia AI do kodowania jako „kosmiczne narzędzia bez instrukcji obsługi” — stochastyczne, podatne na błędy, ale rewolucyjne. Jeśli Karpathy czuje się w tyle, pomyśl o swoim Marketing Managerze piszącym Pythona przez ChatGPT. Możliwości są zdemokratyzowane. Osąd potrzebny do bezpiecznego zarządzania nimi — nie. Dokładnie tu Shadow Engineering staje się niebezpieczny.
Reality check Salesforce’a#
Salesforce wycofuje się z polegania na wielkich modelach językowych po tym, jak problemy z niezawodnością zachwiały zaufaniem zarządu. „Wszyscy byliśmy bardziej pewni wielkich modeli językowych rok temu”, przyznała SVP Sanjna Parulekar. Firma przestawia Agentforce w kierunku „deterministycznej” automatyzacji — przewidywalnych reguł zamiast probabilistycznych wyników. Dlaczego? Gdy LLM-y dostają więcej niż osiem instrukcji, zaczynają pomijać polecenia. Firma Vivint zajmująca się bezpieczeństwem domów odkryła, że Agentforce czasami nie wysyłał ankiet dla klientów z niewyjaśnionych powodów.
Ironia: Salesforce podobno zredukował zespół wsparcia z 9 000 do 5 000 osób dzięki wdrożeniu agentów AI — a następnie odkrył, że agentom nie można ufać w złożonych workflow’ach. Narracja „AI zastępuje pracowników” zderza się z „AI nie potrafi niezawodnie wykonywać instrukcji”.
„Agentic Strategy” Accenture — przepis na wzrost marżowości?#
Najnowszy raport Accenture twierdzi, że firmy, które uspójniają strategie AI, platformy i biznesu widzą 2,2x wzrost przychodów i 37% wzrost EBITDA. Proponuje „Platform Agent Hierarchy” — agenty Utility, Super i Orchestrator — by przejść od „systemów rejestrujących” do „systemów działania”.
Z czym się nie zgadzam:
Miraż „orchestracji”. Trzywarstwowa hierarchia agentów tworzy nieaudytowalne czarne skrzynki. Dla CIO w bankowości to nie zwinność — to koszmar compliance.
Pułapka „modernizacji najpierw”. Raport sugeruje, że 94% menedżerów musi przebudować swój cyfrowy rdzeń. Klasyczny Big Consulting: „Wydaj 20 mln zł na modernizację, zanim AI zadziała”.
Rozwiązanie: Buduj lekkie warstwy abstrakcji API, które traktują systemy legacy jako źródła danych. Nie przebudowuj rdzenia od razu.
Rozpraszacz „kulturowy". Accenture podaje „opór pracowników" jako główną barierę (64%). Pracownicy nie opierają się narzędziom, które działają — opierają się chaosowi narzędziowemu, który dodaje 20 minut do ich workflow. To błąd inżynieryjny, nie kulturowy.
⠀ Moim zdaniem ta strategia to przepis na wzrost marżowości, ale nie klientów a samego Accenture, niewątpliwie skuteczny.
Dostawcy platform wbudowują agentów natywnie. Twoim zadaniem nie jest „budowanie architektur przyszłości” od razu — ale upewnienie się, że Twoje pipeline’y CI/CD poradzą sobie z wersjonowaniem modeli i dryfem, zanim agenty dotkną danych produkcyjnych.
Pytanie na ten tydzień#
Przed kolejnym przeglądem governance AI zapytaj swój zespół:
„Ile mamy skryptów lub automatyzacji w organizacji, które nie zostały zbudowane przez IT — i jakich danych dotykają?”
Jeśli nikt nie potrafi odpowiedzieć, znalazłeś swoją powierzchnię ryzyka. GenAI sprawiło, że każdy pracownik jest potencjalnym deweloperem. Shadow Engineering nie jest już przypadkiem brzegowym — to nowy standard. Pytanie brzmi, czy odkryjesz to podczas audytu, czy przez naruszenie.
Zachowaj równowagę, Krzysztof
