Przewiń do głównej treści

#39 — AI w sektorze publicznym:

·1766 słów·9 min

Drogi Czytelniku,

W styczniu 2021 roku holenderski rząd podał się do dymisji. Powodem był algorytm.

W latach 2012–2019 holenderski urząd skarbowy wykorzystywał system wykrywania nadużyć, który oceniał ryzyko wyłudzenia zasiłków na opiekę nad dziećmi. System łączył dane podatkowe, bazę świadczeń i rejestry imigracyjne. Oznaczył około 26 000 rodzin. Wielu odebrano świadczenia i nakazano zwrot dziesiątków tysięcy euro. Logika scoringu była objęta tajemnicą — poszkodowane rodziny nie mogły sprawdzić, jaka była przyczyna decyzji.

System nieproporcjonalnie uderzał w osoby bez obywatelstwa holenderskiego i gospodarstwa o niskich dochodach. Sąd Okręgowy w Hadze orzekł w lutym 2020 roku, że system naruszył artykuł 8 Europejskiej Konwencji Praw Człowieka. Zaproponowano początkowe odszkodowanie w wysokości 30 000 euro na rodzinę. Część rodzin zdążyła stracić domy.

Model punktował dokładnie to, do czego został zaprojektowany. Problemem było to, że nikt nie odpowiadał za konsekwencje — ani dostawca, ani departament, ani algorytm. System działał siedem lat, zanim sąd go zatrzymał.

Przypadek holenderski nie jest odosobniony. Australijski program Robodebt (2015–2019) wykorzystywał automatyczne uśrednianie dochodów do obliczania zaległości wobec systemu opieki społecznej. Arytmetyka systematycznie zawyżała kwoty, które beneficjenci mieli rzekomo do zwrotu. Wysłano około 469 000 wezwań do zapłaty. Co najmniej dziesięć samobójstw powiązano z tymi wezwaniami. Ugoda: 1,56 miliarda dolarów australijskich. W Wielkiej Brytanii w 2020 roku algorytm oceniający egzaminy A-level zaniżył około 40% ocen, nieproporcjonalnie uderzając w uczniów szkół publicznych. Cofnięto go w ciągu czterech dni.

Różne kraje, różne systemy. Ten sam wzorzec: automatyczny system wdrożony bez walidacji. Brak realnego nadzoru ludzkiego w trakcie działania. Nieprzejrzystość z założenia. Nieproporcjonalna szkoda dla najsłabszych. Zmiana dopiero pod presją opinii publicznej.

Dlaczego sektor publiczny to inny problem
#

Algorytmiczne podejmowanie decyzji w sektorze publicznym różni się strukturalnie od AI w biznesie: obywatel nie może odejść. Jeśli model kredytowy banku potraktuje cię niesprawiedliwie, możesz pójść do innego banku. Jeśli algorytm urzędu skarbowego zamrozi ci konta — nie masz alternatywnego dostawcy.

W biznesie odpowiedzialność to ryzyko biznesowe. W administracji publicznej to obowiązek konstytucyjny. Decyzja administracyjna musi być zgodna z prawem, uzasadniona i zaskarżalna. Kiedy algorytm kształtuje tę decyzję, wszystkie trzy wymogi nadal obowiązują. W większości państw UE infrastruktura do ich egzekwowania nie istnieje.

Co już działa
#

Polska — STIR (wykrywanie oszustw podatkowych). System prowadzony przez KAS za pośrednictwem Krajowej Izby Rozliczeniowej od 2017 roku. Trzystopniowa analiza transakcji finansowych: dzienna ocena ryzyka przepływów pieniężnych, analiza sieci podejrzanych powiązań i profilowanie ryzyka na tle wzorców statystycznych. W 2019 roku przetworzył ponad 11 milionów transakcji obejmujących około 4 miliony podmiotów. Może zamrozić rachunek bankowy na 72 godziny bez powiadomienia, z możliwością przedłużenia do trzech miesięcy.

Kryteria algorytmu są objęte tajemnicą państwową. NIK nie przeprowadził ani jednej kontroli algorytmu STIR.

Holandia — Rejestr Algorytmów. Po aferze zasiłkowej (toeslagenaffaire) holenderski rząd zbudował najbardziej ambitną infrastrukturę transparentności algorytmicznej w Europie. Stan na grudzień 2025: 1 245 algorytmów z 289 organizacji rządowych. Niezależna analiza Algorithm Audit wykazała, że 53% algorytmów o wysokim wpływie nie posiada oceny skutków. Klasyfikacje ryzyka są niespójne — ten sam typ systemu otrzymuje różne oceny w zależności od gminy, która go obsługuje.

Francja — CFVR i CAF. Francuska administracja skarbowa od lat prowadzi predykcyjne profilowanie pod kątem priorytetyzacji kontroli, stosowane wobec milionów deklaracji rocznie. CAF (Caisse d’Allocations Familiales) prowadzi automatyczną weryfikację uprawnień do świadczeń z ograniczoną dokumentacją publiczną. Defenseur des Droits (francuski Rzecznik Praw Obywatelskich) opublikował w 2024 roku raport dokumentujący lukę między ramami prawnymi Francji a praktyką operacyjną.

AI Act a sektor publiczny
#

Unijny AI Act klasyfikuje szerokie spektrum AI w sektorze publicznym jako systemy wysokiego ryzyka w ramach Załącznika III: ocena uprawnień do pomocy publicznej i świadczeń (5a), profilowanie w kontekście egzekwowania prawa i ocena ryzyka recydywy (6a–6e), przetwarzanie wniosków migracyjnych i azylowych (7b–7d), wymiar sprawiedliwości (8a) oraz wpływ na procesy demokratyczne (8b). Każdy system AI, który profiluje osoby fizyczne, jest systemem wysokiego ryzyka.

Na podmiotach sektora publicznego ciążą szersze obowiązki niż na przedsiębiorstwach prywatnych. Artykuł 27 wymaga oceny wpływu na Prawa Podstawowe (FRIA) przed pierwszym wdrożeniem: grupy osób, których dotyczy system, konkretne ryzyka, środki nadzoru i procedury na wypadek materializacji ryzyk. Wyniki muszą być przekazane organowi nadzoru rynku. Biuro ds. AI (AI Office) nie opublikowało jeszcze oficjalnego szablonu FRIA.

Artykuł 86 daje obywatelom prawo do „jasnych i zrozumiałych wyjaśnień roli systemu AI w procedurze decyzyjnej oraz głównych elementów podjętej decyzji." W sektorze publicznym nakłada się to na istniejące obowiązki prawa administracyjnego dotyczące uzasadniania decyzji.

Termin wdrożenia: 2 sierpnia 2026. Istniejące systemy sektora publicznego mają wydłużony termin do 2 sierpnia 2030.

Problem Polski
#

STIR to jedyny polski system algorytmicznego podejmowania decyzji w sektorze publicznym, który doczekał się istotnej dokumentacji publicznej. Niemal na pewno nie jest jedynym działającym — sama KAS prowadzi dodatkowe narzędzia profilowania ryzyka, a ustawa z maja 2025 roku zezwalająca na rozpoznawanie twarzy w przestrzeni publicznej bez zgody sądu sugeruje dalsze wdrożenia. Nikt nie zna pełnej liczby, bo Polska nie ma ani inwentarza, ani rejestru. To jest właśnie problem.

KRiBSI — Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, powołany przez Polskę organ nadzoru rynku w zakresie AI Act — została zatwierdzona w lutym 2026 roku. Budżet: 27 milionów złotych rocznie. Komisja jest osadzona w Ministerstwie Cyfryzacji — nie jest niezależną agencją. Planowane jest 70 stanowisk eksperckich do 2027 roku.

NIK nie ma kontroli dotyczących AI w planie pracy na 2026 rok (70 tematów kontroli, żaden nie dotyczy systemów algorytmicznych). Ministerstwo Cyfryzacji nie opublikowało wytycznych dla administracji publicznej w zakresie odpowiedzialności algorytmicznej.

Kodeks postępowania administracyjnego (KPA) wymaga, by decyzje zawierały uzasadnienie. Algorytm, którego kryteria są objęte tajemnicą państwową, nie jest w stanie go dostarczyć. To problem konstytucyjny: prawo obywatela do poznania podstaw decyzji, która go dotyczy, kontra twierdzenie państwa, że ujawnienie algorytmu osłabiłoby jego skuteczność. Żaden polski sąd tego problemu nie zbadał. W Holandii zajęło to siedem lat i kosztowało dymisję rządu.

Kanada dostarcza punkt odniesienia. Jej Directive on Automated Decision-Making (2019) definiuje cztery poziomy wpływu z rosnącymi obowiązkami — na najwyższym poziomie wymagany jest ludzki decydent, a ocena wpływu algorytmu musi być opublikowana. System działa w federalnych departamentach od siedmiu lat. Polska nie ma odpowiednika.

Briefing
#

Polska zatwierdza organ nadzoru Rozporządzenia o AI — osadzony w ministerstwie

Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI) została zatwierdzona przez Komitet Stały Rady Ministrów 12 lutego 2026. Budżet: 27 mln zł rocznie, 70 stanowisk eksperckich do 2027 roku. Decyzja o osadzeniu organu w ministerstwie, zamiast powołania niezależnej agencji, rodzi pytania o niezależność regulatora — zwłaszcza gdy rząd sam jest podmiotem wdrażającym regulowane systemy.

Większość firm nie potrafi powiedzieć, ile agentów AI ma dostęp do ich systemów

Fortune informuje, że o ile większość przedsiębiorstw potrafi wskazać każdego użytkownika z dostępem do systemów finansowych, o tyle w przypadku agentów AI — nie. Autonomiczne agenty rozprzestrzeniają się w firmach bez zarządzanej tożsamości, egzekwowalnych kontroli dostępu i zarządzania cyklem życia. Według badania EY przywoływanego w artykule, 64% firm o przychodach powyżej miliarda dolarów straciło ponad milion dolarów na awariach związanych z AI. Tylko 21% menedżerów deklarowało pełną widoczność uprawnień agentów, wykorzystywanych narzędzi i wzorców dostępu do danych. Luka w odpowiedzialności, którą ten numer opisuje w sektorze publicznym, jest tą samą luką, która otwiera się w enterprise AI — systemy działają bez wyraźnego właściciela.

80% organizacji raportuje ryzykowne zachowania agentów AI

Raport o bezpieczeństwie enterprise AI zebrał dane wskazujące, że 80% organizacji zgłosiło ryzykowne zachowania agentów, w tym nieautoryzowany dostęp do systemów i niewłaściwe ujawnianie danych. Przeciętne przedsiębiorstwo korzysta z szacunkowo 1 200 nieoficjalnych aplikacji AI, a 86% nie ma wglądu w przepływy danych AI. Naruszenia związane z Shadow AI kosztują 670 000 dolarów więcej niż standardowe incydenty bezpieczeństwa. Stanford Trustworthy AI Research Lab stwierdziło, że zabezpieczenia na poziomie modelu nie wystarczają: ataki fine-tuningowe omijały Claude Haiku w 72% przypadków. Techniczne kontrole — walidacja danych wejściowych, zabezpieczenia na poziomie akcji, transparentność łańcucha rozumowania — dają to, czego same dokumenty governance nie zapewnią.

Amerykański krajobraz regulacyjny AI odbiega od podejścia UE

Baker Botts przeanalizował serię marcowych terminów federalnych wynikających z rozporządzenia wykonawczego Trumpa z grudnia 2025. Departament Handlu ma ocenić istniejące stanowe ustawy dotyczące AI i wskazać te uznane za „uciążliwe." Grupa Zadaniowa ds. Postępowań Sądowych AI przy Departamencie Sprawiedliwości przygotowuje się do zaskarżenia stanowych regulacji w sądach federalnych. Ustawa o AI stanu Kolorado — wymagająca należytej staranności w zapobieganiu dyskryminacji algorytmicznej w systemach wysokiego ryzyka — jest wymieniona z nazwy. Kontrast z podejściem UE jest bezpośredni: tam gdzie Rozporządzenie o AI buduje jednolite ramy regulacyjne, USA zmierzają do demontażu ochrony na poziomie stanów, zanim powstanie jakikolwiek federalny standard minimalny.

Dwa pytania, które warto zadać
#

  1. Gdyby rządowy algorytm jutro zamroził konto bankowe twojej firmy — co byłbyś w stanie zaskarżyć? STIR potrafi to zrobić — 72 godziny, bez powiadomienia, z możliwością przedłużenia do trzech miesięcy. Kryteria scoringu są utajnione. Na mocy KPA przysługuje ci uzasadnienie każdej decyzji administracyjnej. Algorytm, którego logika jest tajemnicą państwową, nie jest w stanie go dostarczyć. Ci sami czytelnicy, którzy budują ramy AI Governance w swoich organizacjach, podlegają systemom AI sektora publicznego, które takich ram nie posiadają.

  2. Czy instytucja, która podejmuje decyzje w twojej sprawie, wie, jakie systemy AI prowadzi? Rozporządzenie o AI wymaga pełnego inwentarza do sierpnia 2026. Kanada wymaga go od 2019 roku. Holandia zbudowała krajowy rejestr. Polska nie zaczęła. Jeśli instytucje publiczne, które regulują twoją branżę, nie potrafią wymienić własnych systemów algorytmicznych, asymetria governance działa w obie strony — wymagają od ciebie spełnienia standardów, których same do siebie nie stosują.

Podsumowanie
#

Odpowiedzialność za AI w sektorze publicznym to nie problem przyszłości. STIR zamraża rachunki bankowe od 2017 roku. Holandia punktowała beneficjentów świadczeń przez ponad dekadę. Systemy działają. Governance — nie.

Prawdziwy termin nie jest regulacyjny. To moment, w którym system wyrządza szkodę na skalę wymuszającą reakcję polityczną. W Australii kosztowało to 1,56 miliarda dolarów australijskich. W Holandii — rząd.

Polska ma algorytm wykrywający oszustwa podatkowe, który może zamrozić rachunki bankowe na podstawie utajnionych kryteriów, brak jakiejkolwiek niezależnej kontroli tego algorytmu i nowo powołany organ nadzorczy z 70 planowanymi etatami i budżetem 27 milionów złotych rocznie na nadzór nad całą sztuczną inteligencją we wszystkich sektorach. Pytanie brzmi: czy luka zamknie się przed incydentem, który to wymusi — czy po nim.

Do następnego wydania,

Krzysztof


Źródła: AlgorithmWatch: Poland STIR VAT Fraud · Algorithm Audit: Analiza holenderskiego Rejestru Algorytmów (grudzień 2025) · Holenderski Rejestr Algorytmów · Sąd Okręgowy w Hadze: wyrok w sprawie SyRI (luty 2020) · Defenseur des Droits: Algorithms, AI Systems and Public Services (2024) · Kanada: Dyrektywa w sprawie Zautomatyzowanego Podejmowania Decyzji · Interface EU: Poland AI Act Implementation · Rozporządzenie o AI: Załącznik III · Rozporządzenie o AI: Artykuł 27 (FRIA) · Rozporządzenie o AI: Artykuł 86 (prawo do wyjaśnienia) · Australijska Komisja Królewska ds. Robodebt (2023) · Fortune: The AI Risk Few Organisations Are Governing (marzec 2026) · Help Net Security: Enterprise AI Agent Security (marzec 2026) · Baker Botts: March 2026 Federal AI Deadlines