Rynek oprogramowania dla firm zaczyna działać jak mechanizm wymuszania haraczu. Dotychczasowi dostawcy, wykorzystując uzależnienie klientów od swoich kluczowych platform, żądają teraz obowiązkowej dopłaty za funkcje AI, które, jak sami przyznają, nie są jeszcze gotowe do użytku. To swoisty „podatek AI”, który zmusza Cię do finansowania ich badań i rozwoju (lub po prostu zwiększania marż raportowanych akcjonariuszom) pod pozorem modernizacji.
W tym wydaniu „The AI Equilibrium” przedstawiam ramy, które pomogą poruszać się w tym środowisku. Zgłębimy nowe fronty prawne otwierające się wokół danych treningowych i przedstawimy pragmatyczną metodę oceny dostawców zewnętrznych systemów AI. Celem jest wyjście poza marketingową narrację i ocena rzeczywistości operacyjnej.
Briefing#
W 2025 roku obserwujemy agresywne repozycjonowanie rozwiązań AI dla przedsiębiorstw wokół koncepcji agentów. Najwięksi dostawcy oprogramowania ogłaszają nową erę automatyzacji, ale bliższe przyjrzenie się faktom pokazuje, że od klientów wymaga się płacenia dodatkowo za technologię, która jest w oczywisty sposób niedojrzała. Dopłata ta działa jak obowiązkowy „podatek AI”, zmuszając uzależnioną bazę klientów do subsydiowania bieżących badań i rozwoju dostawców.
Na przykład Salesforce wycofał markę „Einstein” na rzecz nowej platformy „Agentforce”, czemu towarzyszyła 6% podwyżka cen dla kluczowych klientów, podczas gdy wewnętrzne badania Salesforce pokazują, że ich nowe agenty AI osiągają zaledwie 58% dokładności w zadaniach jednoetapowych. Obietnica automatyzacji nie ma podstaw gdy narzędzie zawodzi prawie w połowie przypadków. Problem potęguje się wraz ze złożonością zadania. Dla procesu składającego się z zaledwie pięciu kroków, prawdopodobieństwo uzyskania pomyślnego wyniku spada do żałosnych 6,5% (to zjawisko wykładnicze, przy założeniu niezależności prawdopodobieństwa sukcesu każdego kroku). Tworzy to nowe wymagania związane z koniecznością ciągłej weryfikacji przez człowieka.
Oracle integruje najnowsze modele od OpenAI i Google, SAP promuje swoich „Agentów Joule” w całej swojej ofercie, a ServiceNow prognozuje solidny wzrost napędzany przez swoje droższe produkty „Pro Plus” i „Now Assist” AI. Wspólnym mianownikiem jest strategia wykorzystywania ugruntowanej pozycji rynkowej do pozyskiwania kapitału na eksperyment. Sprzedają obietnicę przyszłości, a Ty płacisz za nią już dziś.
Nie twierdzę, że technologia nie przyniesie oczekiwanych rezultatów, być może z czasem tak się stanie — po prostu nie wydarzy się to w ciągu najbliższych kilku kwartałów.
Jednocześnie otworzył się nowy front prawny, wokół paliwa AI: danych treningowych. Fala pozwów zbiorowych kwestionuje powszechną i nieprzejrzystą praktykę wykorzystywania danych klientów i pracowników do trenowania modeli AI dostawców.
Pozew z sierpnia 2025 roku przeciwko Otter.ai, usłudze transkrypcji AI stwierdza, że Otter wykorzystywał treść prywatnych rozmów do trenowania swoich modeli bez uzyskania konkretnej, świadomej zgody od wszystkich uczestników, działając jako „nieautoryzowany podsłuch”. Zdaniem powodów ogólna zgoda na korzystanie z usługi nie rozciąga się automatycznie na zgodę na wykorzystanie danych jako zbioru treningowego dla komercyjnej korzyści dostawcy.
Gdy wdrażasz narzędzie AI dla klientów, tworzysz potok danych, który może płynąć bezpośrednio do architektury treningowej Twojego dostawcy. Jeśli ten dostawca wykorzystuje dane z interakcji z klientami do usprawniania swoich globalnych modeli, możesz zostać pociągnięty do odpowiedzialności za dostarczenie tych danych bez uzyskania wyraźnej, konkretnej i jednoznacznej zgody na trenowanie modeli ulokowanych np. na terytorium USA. To nowa i odrębna kategoria przetwarzania danych, której standardowe polityki prywatności nie obejmują. Dane do treningu AI muszą być teraz traktowane obszar wysokiego ryzyka, wymagające własnych, dedykowanych ram zarządzania i mechanizmów udzielania zgody.
Kupowanie zewnętrznego systemu AI: Ramy postępowania#
Pozyskanie zewnętrznego systemu AI jest bardziej złożone niż licencjonowanie np. CRM. Integrujesz złożony, na wpół autonomiczny (to jest nowość!) element “maszynerii” z kluczowymi procesami biznesowymi. Tradycyjne kwestionariusze dla dostawców są do tego zadania nieadekwatne. Potrzebne jest rozszerzenie oceny partnera w procesie zakupowym. Ocena ta powinna opierać się na czterech filarach.
Filar I: Fundamenty#
Zanim zaczniemy analizować algorytmy, trzeba upewnić się, że dostawca prowadzi stabilną i bezpieczną organizację. Innowacyjny model od firmy o słabej higienie bezpieczeństwa może stanowić niedopuszczalne ryzyko, jeśli zostanie wykorzystany w kluczowych procesach biznesowych. Ocena dostawcy modelu w tym zakresie nie różni się od standardowej oceny dostawcy — przegląd sprawozdań finansowych, certyfikatów SOC 2 lub ISO 27001 oraz planów reagowania na incydenty.
Filar II: Zarządzanie danymi i ich pochodzenie#
Dane to paliwo dla AI. Dostawca musi przedstawić jednoznaczny, audytowalny dowód swojego prawa do wykorzystania wszystkich danych w zbiorze treningowym. Wymaga to żądania dokumentów takich jak „Datasheet for Datasets” — kompleksowego dokumentu szczegółowo opisującego skład i proces gromadzenia każdego użytego zbioru danych. Inne niezbędne dokumenty to raporty o pochodzeniu danych i wszelkie oceny skutków dla ochrony danych (DPIA).
Filar III: Przejrzystość i odporność modelu#
Ten filar oparty jest na zbieraniu dowodów na to, jak model działa i gdzie zawodzi. Centralnym artefaktem jest „Model Card” — dokument szczegółowo opisujący architekturę modelu, dane treningowe, wskaźniki wydajności i przeznaczenie. Powinno to być poparte raportami z audytu stronniczości (bias) ze wskaźnikami wydajności w podziale na podgrupy demograficzne oraz dokumentacją wszelkich funkcji wyjaśnialności (explainability).
Filar IV: Bezpieczeństwo operacyjne i gotowość regulacyjna#
Model AI to dynamiczny system działający we wrogim środowisku. Dostawca musi udowodnić, że model jest odporny na ataki. Wymaga to wglądu w podsumowania testów typu „red-teaming” i testów penetracyjnych pod kątem ataków specyficznych dla AI, takich jak „prompt injection”. Wymaga to również przeglądu polityk MLOps dotyczących zarządzania „dryfem modelu” oraz ich formalnego oświadczenia o zgodności z regulacjami, takimi jak unijny Akt o AI.
Jesteśmy wciąż na wczesnym etapie cyklu rozwoju AI, więc wielu dostawców nie będzie w stanie dostarczyć wszystkich powyższych dokumentów i, moim zdaniem, nie powinno to ich automatycznie dyskwalifikować — ale powinno to informować kupującego, jakie obszary zastosowań są dopuszczalne (tj. procesy wewnętrzne z nadzorem ludzkim vs. zautomatyzowana sprzedaż i obsługa klienta).
Przewodnik po „etycznym mydleniu oczu”#
„Etyczne mydlenie oczu” (ethics washing) to tworzenie powierzchownego wrażenia dobrego zarządzania bez leżących u podstaw procesów. Pewne zwroty powinny wzbudzać sceptycyzm, ponieważ często są używane do ukrycia braku treści.
Ogólnikowe i nieweryfikowalne obietnice#
Terminy takie jak „oparty na AI”, „etyczny z założenia” i „godna zaufania AI” są funkcjonalnie bez znaczenia bez konkretnych dowodów. Proces „oparty na AI” może być prostym zestawem reguł warunkowych; prawdziwa AI powinna być integralną częścią podstawowej funkcji produktu.
Skupienie na intencjach, nie na wynikach#
Oświadczenia o „zaangażowaniu w sprawiedliwość” są nieistotne. Liczą się systemy i audyty, które wykazują sprawiedliwe wyniki. Dobre intencje dostawcy nie są obroną przed regulatorem.
Antropomorfizacja#
Opisywanie AI jako „rozumiejącej” lub „myślącej” to taktyka marketingowa mająca na celu ukrycie statystycznej natury technologii. Sygnalizuje to powierzchowne zrozumienie technologii lub próbę wprowadzenia w błąd.
Przykłady powierzchownego zarządzania#
Rada ds. etyki bez realnej władzy: Dostawca ogłasza „Radę Doradczą ds. Etyki AI” obsadzoną znanymi postaciami z branży. Co z tego, jeśli rada nie ma faktycznej władzy, jej rekomendacje są niewiążące, a jej działania są nieprzejrzyste. Jest to tarcza PR, a nie mechanizm governance.
Mylące twierdzenia o zastosowaniu AI: Amerykańska Komisja Papierów Wartościowych i Giełd (SEC) nałożyła grzywny na dwie firmy inwestycyjne, Delphia i Global Predictions, za fałszywe twierdzenia o AI. Żadna z nich nie potrafiła uzasadnić swoich zapewnień, co skutkowało karami cywilnymi w wysokości 400 000 dolarów.
„GPT Wrapper”: Dostawca twierdzi, że ma autorskie rozwiązanie AI, ale zbudował jedynie interfejs użytkownika na modelu zewnętrznego dostawcy, takiego jak OpenAI. Tacy dostawcy mają niewielką kontrolę nad zachowaniem modelu, danymi treningowymi czy bezpieczeństwem. Nie oznacza to, że ich produktów nie należy kupować i używać, ale trzeba zrozumieć, kto stoi za faktycznym modelem, jak go trenuje i nim zarządza.
Pytania do rozważenia#
Te pytania mogą pomóc zweryfikować podejście dostawcy do AI.
1. Wyzwanie dotyczące pochodzenia danych: „Czy możecie dostarczyć pełną ścieżkę audytu pokazującą sposób pozyskania każdego elementu danych treningowych? Jak obsługujecie wnioski osób, których dane dotyczą?”
2. Weryfikacja „dryfu modelu”: „Jak powiadomicie nas, jeśli wydajność modelu się pogorszy? Co stanowi istotną zmianę wymagającą naszej zgody? Czy możecie zagwarantować spójne wyniki dla identycznych danych wejściowych?”
3. Test warunków skrajnych w kwestii odpowiedzialności: „Jeśli wasza AI podejmie decyzję, która spowoduje naruszenie przepisów, jaki jest wasz zakres odpowiedzialności? Czy możecie przedstawić dowód ubezpieczenia, które obejmuje ryzyka specyficzne dla AI?”
4. Zakres wykorzystania przetwarzanych danych: „Jak zapobiegacie wpływowi naszych zastrzeżonych danych na modele używane przez waszych innych klientów, w tym naszych konkurentów?”
Powtórzę — nie możemy jeszcze oczekiwać pozytywnych i satysfakcjonujących odpowiedzi na wszystkie powyższe pytania od dostawców i… to jest OK — to po prostu pokazuje stan rozwoju technologii GenAI w 2025 roku. Odpowiedzi, które otrzymasz, nie powinny automatycznie dyskwalifikować dostawców, ale powinny Ci wiele powiedzieć o tym, do jakich zastosowań AI jest obecnie odpowiednia.
Istotą tej pracy jest zrozumienie ryzyka, inteligentne zarządzanie nim i stworzenie dającego się obronić, opartego na dowodach procesu. Pozwala to organizacji na innowacje, przechodząc od ślepej wiary w obietnice dostawcy do stanu zdobytego zaufania, zweryfikowanego przez audytowalne dowody.
Do następnego razu,
Krzysztof
