Drogi czytelniku,
Wątek K: Branżowe zastosowania AI — produkcja w sektorach regulowanych (numery #36–40)
W 2019 roku platforma AI firmy Insilico Medicine zidentyfikowała TNIK — kinazę powiązaną z bliznowaceniem tkanki płucnej — jako potencjalny cel terapeutyczny w idiopatycznym zwłóknieniu płuc. Choroba ta nie ma leczenia przyczynowego i zabija większość pacjentów w ciągu pięciu lat od diagnozy. W ciągu osiemnastu miesięcy drugi system AI zaprojektował cząsteczkę zdolną do hamowania tego celu. Do 2024 roku lek przeszedł badania kliniczne fazy 2a z udziałem 71 pacjentów w 21 ośrodkach: w grupie przyjmującej najwyższą dawkę odnotowano średnią poprawę czynności płuc o 98,4 ml, podczas gdy w grupie placebo nastąpiło pogorszenie o 62,3 ml. Cały proces — od identyfikacji celu do wyników fazy 2a — trwał około pięciu lat. Branżowa średnia to bliżej dwunastu, a koszt ponad dwa miliardy dolarów. Praca ukazała się w Nature Biotechnology po recenzji naukowej.
Tak właśnie działa dziś AI w badaniach farmaceutycznych. Złożoność regulacyjna jest realna — wrócimy do niej — ale historia AI w farmacji to przede wszystkim historia możliwości, a nie problem ze zgodnością. I rozwija się szybciej, niż większość obserwatorów spoza branży zdążyła zarejestrować.
Co AI zmienia w rozwoju leków#
Przewidywanie struktury białek. Przez pięćdziesiąt lat określenie trójwymiarowej struktury białka na podstawie sekwencji aminokwasów należało do najtrudniejszych problemów biologii. W 2020 roku AlphaFold firmy DeepMind go rozwiązał. Baza danych AlphaFold zawiera dziś przewidywania dla ponad 200 milionów struktur białkowych — obejmując niemal wszystkie znane białka — i była używana przez ponad trzy miliony naukowców w 190 krajach. Jej twórcy odebrali Nagrodę Nobla w dziedzinie chemii w 2024 roku. Praktyczna konsekwencja dla rozwoju leków: cele terapeutyczne, których charakterystyka strukturalna zajmowała wcześniej lata, można teraz opisać w ciągu kilku godzin. Żaden lek zaprojektowany na podstawie AlphaFold nie zakończył jeszcze badań klinicznych, ale infrastruktura już istnieje. Isomorphic Labs — firma projektująca leki zbudowana na tej technologii — przygotowuje pierwszych kandydatów onkologicznych do prób na ludziach.
Repozycjonowanie leków — od hipotezy do autoryzacji klinicznej w mniej niż rok. 4 lutego 2020 roku, kilka tygodni po wybuchu pandemii, BenevolentAI opublikował w The Lancet hipotezę: baricitynib, lek zatwierdzony w reumatoidalnym zapaleniu stawów, mógł blokować wnikanie wirusa do komórek płucnych. Hipoteza wygenerowana przez AI. Dziewięć miesięcy później FDA wydała zezwolenie na stosowanie w trybie nagłym w przypadku hospitalizowanych pacjentów z COVID-19. Kolejne badanie fazy 3 z udziałem 1 525 pacjentów wykazało 38-procentowe zmniejszenie śmiertelności — to drugorzędowy punkt końcowy, ale na tyle istotny, że zmienił protokoły leczenia na całym świecie. BenevolentAI nie prowadziło badań. Wskazało kandydata. Czas od hipotezy AI do zezwolenia klinicznego: mniej niż rok.
Diagnostyka. We wrześniu 2021 roku Paige Prostate jako pierwsze oprogramowanie patologiczne oparte na AI uzyskało autoryzację FDA w trybie De Novo — ścieżka regulacyjna dla innowacyjnych urządzeń programowych bez poprzednika. Narzędzie wspiera patologów przeglądających cyfrowe slajdy biopsji prostaty, zaznaczając obszary podejrzane o nowotwór. Wyniki kliniczne: poprawa wykrywalności raka o 7,3%, redukcja wyników fałszywie ujemnych o 70%, fałszywie dodatnich o 24% — w porównaniu z przeglądem bez wsparcia AI. Patolog zachowuje ostateczną ocenę. To narzędzie pomocnicze działające w codziennej praktyce klinicznej, nie w programie pilotażowym.
Produkcja. Pfizer zastosował AI i uczenie maszynowe w produkcji PAXLOVIDu. Zgodnie z raportem rocznym za 2022 rok: skrócenie czasu cyklu o 67% na krytycznym etapie produkcji i 20 000 dodatkowych dawek na serię. Ta sama infrastruktura trafiła do kontroli jakości danych z badań klinicznych — przyspieszyła przegląd o 50% w ponad połowie wszystkich badań Pfizera. Są to dane własne firmy, nie wyniki recenzowane — ale konkretne, publicznie dostępne i przypisane do nazwiska.
Nadzór nad bezpieczeństwem farmakoterapii. Wykrywanie sygnałów bezpieczeństwa w danych ze świata rzeczywistego po zatwierdzeniu leku to jedno z najbardziej wymagających zadań w farmacji. AbbVie opublikowało w 2024 roku recenzowany pilotaż walidujący model uczenia maszynowego do wykrywania sygnałów dla dwóch produktów. To skala pilotażowa, nie masowe wdrożenie produkcyjne — ale wskazuje, dokąd zmierzają największe inwestycje w branży.
Jak wygląda porażka#
Watson for Oncology to najbardziej udokumentowana porażka AI w farmacji i zarazem najbardziej pouczająca — bo problemy nie były techniczne. To nie jest świeża historia: IBM uruchomił Watson for Oncology komercyjnie w 2015 roku, największe błędy wyszły na jaw w latach 2017–2018, a Watson Health trafił na sprzedaż w 2022 roku. Warto do niej wracać, bo przyczyny tamtej porażki to dokładnie te same przyczyny, które dziś kładą projekty AI w farmacji.
IBM trenował system na syntetycznych, hipotetycznych przypadkach generowanych przez wąskie grono specjalistów z Memorial Sloan Kettering Cancer Center. Nie na danych prawdziwych pacjentów. System trafił następnie do szpitali w Chinach, Indiach, Tajlandii i Korei Południowej — do warunków, dla których protokoły MSKCC skoncentrowane na rynku amerykańskim nie miały żadnych danych. Niezależne, recenzowane badanie przeprowadzone w chińskim szpitalu, opublikowane w 2018 roku, wykazało 12-procentową zgodność między zaleceniami Watsona a praktyką lokalnych onkologów w przypadku raka żołądka — choroby powszechnej w Chinach, prawie nieobecnej w zbiorze danych treningowych. Wewnętrzne dokumenty IBM z 2017 roku, uzyskane przez STAT News, opisywały rekomendacje systemu jako „często niedokładne" i wskazywały konkretne przykłady niebezpiecznych sugestii terapeutycznych — w tym zalecenie leku przeciwwskazanego u pacjentów z dokładnie tym schorzeniem, z którym się zgłosili.
MD Anderson Cancer Center wydało 62 miliony dolarów — 39 milionów dla IBM, 23 miliony dla PwC — na system oparty na Watsonie, który nie leczył ani jednego pacjenta. Projekt zakończono we wrześniu 2016 roku, po około czterech latach i druzgocącym audycie rządowym. Porażka nie polegała na tym, że AI nie może wspierać decyzji klinicznych. Polegała na tym, że system trenowano na populacji, dla której nie był projektowany, wdrożono bez zewnętrznej walidacji i sprzedano klientom zanim podstawowe problemy z danymi zostały rozwiązane.
Kontrast z Insilico i BenevolentAI jest oczywisty: w obu udanych przypadkach AI dostała jasno zdefiniowane zadanie — wskaż cel, wskaż kandydata — z precyzyjnie określonymi danymi i zdefiniowaną ścieżką walidacji. Watson tego nie miał.
Dlaczego farmacja jest trudniejsza niż większość branż#
Środowisko regulacyjne dokłada warstwę złożoności, której nie ma odpowiednika poza ochroną zdrowia. Firma wdrażająca AI w europejskim badaniu klinicznym w 2026 roku musi jednocześnie spełnić cztery nakładające się reżimy: wymogi GxP (ocena wiarygodności, ścieżka audytu, nadzór ludzki), unijną ustawę o AI (klasyfikacja wysokiego ryzyka dla komponentów AI w wyrobach medycznych, termin compliance: sierpień 2026), art. 22 RODO (zakaz podejmowania wyłącznie zautomatyzowanych decyzji mających istotny wpływ na osoby fizyczne) oraz MDR/IVDR, jeśli AI jest powiązana z wyrobem medycznym. Między tymi czterema reżimami nie istnieje żaden punkt integracji. Firmy muszą równolegle prowadzić cztery strumienie prac compliance, wobec czterech zestawów wymagań dokumentacyjnych, z czterema różnymi organami regulacyjnymi.
Wytyczne FDA ze stycznia 2025 roku zastąpiły tradycyjną walidację oprogramowania modelem oceny wiarygodności: zaufanie do wyników modelu musi być proporcjonalne do kontekstu jego zastosowania — zdefiniowanego zanim w ogóle zacznie się budować. Co „wystarczająca wiarygodność" oznacza w praktyce — każda firma decyduje sama. Każde zgłoszenie regulacyjne tworzy dziś precedens.
Praktyczna konsekwencja: punkt startowy ma w farmacji większe znaczenie niż w większości branż. Produkcja i nadzór nad bezpieczeństwem farmakoterapii to najniższe obciążenie regulacyjne i najlepsza jakość danych. Wspomaganie decyzji klinicznych — przypadek użycia Watsona — to najwyższe ryzyko regulacyjne i najbardziej rygorystyczna ścieżka walidacji. To nie znaczy, żeby go unikać. To znaczy, że jest najtrudniejszym możliwym punktem startowym, a historia Watsona pokazuje, co się dzieje, gdy wchodzisz tam bez fundamentów.
Polska: kto pierwszy, ten wyznacza standard#
Polska należy do pięciu największych krajów w Europie pod względem wolumenu badań klinicznych, z czasami rekrutacji należącymi do najkrótszych na kontynencie i kosztami niższymi o 15–20% w porównaniu z Europą Zachodnią. Ponad 60% alokacji badań fazy III w Europie Środkowo-Wschodniej trafia do Polski. Żadna polska firma farmaceutyczna nie opublikowała studium przypadku walidacji AI w kontekście badań regulowanych. URPL nie wydał żadnych wytycznych dotyczących AI. Brak publicznej dokumentacji nie oznacza braku aktywności — polskie firmy są prywatne i publikują niewiele. Oznacza natomiast, że nie istnieje żaden precedens regulacyjny, żaden publiczny punkt odniesienia i żadne referencyjne wdrożenie dla sponsorów prowadzących prace wspomagane AI w polskich ośrodkach. Organizacja, która opublikuje pierwsze zweryfikowane podejście w tym kontekście, zyska trwałą przewagę rynkową w sektorze, który aktywnie jej szuka.
Briefing#
Sztuczna inteligencja w przedsiębiorstwach wciąż w fazie eksperymentalnej#
Badanie 123 menedżerów i dyrektorów przeprowadzone przez Operator Collective — fundusz venture skupiony na AI w przedsiębiorstwach — pokazuje, że 90% respondentów wdrożyło chatboty ogólnego użytku, ale integracja z rzeczywistymi procesami biznesowymi przebiega znacznie wolniej. Mniej niż połowa odpowiedziała na pytanie o zwrot z inwestycji, a spośród tych, którzy to zrobili, 40% przyznało, że w ogóle nie definiuje wskaźników ROI. Badacze skomentowali, że brak odpowiedzi był sam w sobie odpowiedzią. 32% wskazało czas jako największą barierę wdrożenia — zbyt szybkie tempo zmian dostępnych narzędzi. Wniosek: adopcja jest szeroka i płytka; integracja — wąska i głęboka — tylko w firmach budowanych od zera wokół AI.
Deloitte: gotowość na poziomie zarządzania AI — 30%#
Raport Deloitte State of AI 2026 (opublikowany 4 marca) ocenia gotowość governance na 30% w badanych organizacjach — poniżej gotowości infrastruktury technicznej (43%), zarządzania danymi (40%) i znacznie poniżej dostępu do narzędzi AI (60% pracowników). Tylko 25% organizacji wdrożyło produkcyjnie 40% lub więcej pilotaży, choć ponad połowa spodziewa się przekroczyć ten próg w ciągu kilku miesięcy. Najostrzejszy wniosek: 74% organizacji planuje wdrożyć autonomicznych agentów AI w ciągu dwóch lat, ale tylko 21% twierdzi, że ma odpowiednie mechanizmy zarządzania tymi systemami. Luka między ambicjami wdrożeniowymi a gotowością governance jest największa dokładnie tam, gdzie stawki są najwyższe.
„Cicha porażka na skalę" — gdy AI robi dokładnie to, co jej kazałeś#
CNBC opisało dwie awarie AI w przedsiębiorstwach, które nie wiązały się z żadną usterką techniczną. System produkcyjny producenta napojów oparty na AI nie rozpoznał własnych produktów po wprowadzeniu świątecznych etykiet — zinterpretował nieznane opakowanie jako sygnał błędu i uruchamiał kolejne serie produkcyjne, dopóki w magazynie nie pojawiło się kilkaset tysięcy nadmiarowych puszek. W innym przypadku agent AI obsługi klienta zaczął zatwierdzać zwroty poza wytycznymi polityki firmy po tym, jak jeden klient go do tego przekonał i wystawił pozytywną opinię — system zoptymalizował się pod kątem ocen, nie pod kątem zgodności z regulaminem. „Te systemy robią dokładnie to, co im kazałeś, nie to, co miałeś na myśli" — powiedział John Bruggeman, CISO w CBTS. Obie awarie narastały po cichu i stały się widoczne dopiero wtedy, gdy straty były już na dużą skalę.
Pytania dla kadry zarządzającej#
1. Czy termin sierpień 2026 z unijnej ustawy o AI dotyczy Cię — i czy to sprawdziłeś? Polskie firmy działające w obszarze ochrony zdrowia, wyrobów medycznych lub badań klinicznych podlegają dokładnie tym samym zasadom klasyfikacji wysokiego ryzyka co firmy we Frankfurcie czy Amsterdamie. URPL nie opublikował żadnych wytycznych dotyczących AI — nie ma polskiego skrótu regulacyjnego. Jeśli Twój zespół prawny nie przeprowadził analizy klasyfikacji systemów AI na gruncie unijnej ustawy o AI, nie zbliżasz się do terminu. Już go przekroczyłeś.
2. Czy Twoje systemy AI były trenowane na polskich pacjentach — czy na cudzych? Porażka Watsona miała charakter geograficzny: model wytrenowany na pacjentach z Upper East Side na Manhattanie osiągnął 12-procentową zgodność w przypadkach raka żołądka w Chinach. Polskie populacje pacjentów — demografia, profil chorób, protokoły refundacji NFZ, dostępność leków — różnią się od zachodnioeuropejskich i amerykańskich punktów odniesienia. Jeśli wdrażasz system AI w polskim kontekście klinicznym lub diagnostycznym, pytanie nie brzmi tylko „czy model był walidowany", ale „gdzie i na kim". Zwalidowany model to nie to samo co model przenośny.
3. Czy nadzór ludzki na podstawie art. 22 RODO jest realny — czy tylko formalny? Artykuł 22 RODO zakazuje podejmowania wyłącznie zautomatyzowanych decyzji mających istotny wpływ na osoby fizyczne. W ochronie zdrowia oznacza to, że każdy system AI podejmujący lub istotnie wpływający na decyzje kliniczne wymaga udokumentowanej weryfikacji przez człowieka. UODO nie opublikował jeszcze decyzji egzekucyjnych w tym obszarze, ale obowiązek prawny obowiązuje już teraz. Lekarz, który ma dostęp do odrzucenia rekomendacji systemu, ale nigdy tego nie robi, nie sprawuje nadzoru w rozumieniu przepisów. Interwencja musi być kompetentna, udokumentowana i realnie możliwa — nie polem wyboru w formularzu.
4. Kiedy regulator zapyta — co mu pokażesz? Żadna polska firma farmaceutyczna ani medyczna nie udokumentowała publicznie podejścia do walidacji AI w kontekście regulowanym. Gdy inspektorzy URPL, jednostki notyfikowane unijnej ustawy o AI lub zespół audytowy sponsora badań poproszą o wgląd w Twoją dokumentację governance AI — albo ją przedstawisz, albo nie. Organizacje, które budują tę dokumentację teraz — metodologię, ścieżkę audytu, rejestry walidacji — nie tylko zarządzają ryzykiem compliance. Tworzą punkt odniesienia, do którego inni będą przykładani.
Do następnego numeru,
Krzysztof
Źródła: Insilico Medicine: wyniki fazy 2a, INS018_055 (listopad 2024) · Insilico Medicine: publikacja w Nature Biotechnology (marzec 2024) · Baza danych AlphaFold, Google DeepMind (2025) · Nagroda Nobla w dziedzinie chemii 2024 — AlphaFold · BenevolentAI: hipoteza baricitinibu, The Lancet (luty 2020) · Autoryzacja FDA De Novo dla Paige Prostate DEN200080 (wrzesień 2021) · Raport roczny Pfizer 2022 — AI w produkcji · Pilotaż nadzoru farmakowigilancji AI firmy AbbVie (PMC11133112, 2024) · Wytyczne FDA dotyczące oceny wiarygodności AI (styczeń 2025) · Wspólne zasady EMA/FDA dotyczące dobrej praktyki AI (styczeń 2026) · Petrie-Flom Center: regulacja medycznej AI w UE (5 marca 2026) · EFPIA: ekosystem badań klinicznych w Europie (2024) · Ustawa o AI UE, załącznik III i art. 6 · STAT News: niebezpieczne rekomendacje IBM Watson (lipiec 2018) · Zhou i in.: badanie zgodności Watson, The Oncologist (2018) · Audyt UT System: projekt Watson w MD Anderson (2017)
