Przewiń do głównej treści

#2 Zderzenie AI z rzeczywistością

·1287 słów·7 min

Drogi czytelniku,

W zeszłym tygodniu zarysowałem temat, a dziś pora na dawkę inżynierskiego pragmatyzmu. Początkowy, bezkrytyczny entuzjazm dla generatywnej AI zderza się teraz z niewdzięczną pracą, jaką trzeba wykonać, aby zaczęła ona działać wewnątrz prawdziwej firmy. Dla wielu liderów ta podróż przypomina mniej start rakiety, a bardziej próbę uruchomienia starej kosiarki w deszczowy poranek.

To nie cynizm, lecz pragmatyzm, niezbędny, by dostrzec, gdzie leży prawdziwa wartość. Chodzi o unikanie pułapki myślenia zwanej „kultem cargo”, jak nazwali to Brytyjczycy w 1945 roku: naśladowania rytuałów sukcesu bez zrozumienia leżących u ich podstaw zasad. AI potrafi stworzyć 30-stronicowy raport, który wygląda na owoc głębokich przemyśleń; potrafi wygenerować kod, który wydaje się funkcjonalny. Nie mylmy jednak przekonującej imitacji pracy z pracą samą w sobie. To nie czyni tych narzędzi bezużytecznymi, ale oznacza, że musimy nimi dobrze zarządzać — i opierać się pokusie umysłowego lenistwa. W końcu, jeśli AI potrafi brzmieć inteligentnie, bardzo łatwo jest przestać zadawać sobie pytanie, czy rzeczywiście taka jest.

Briefing
#

Obecny krajobraz AI w biznesie definiuje pewien paradoks: coraz większa przepaść między rewolucyjnymi obietnicami dostawców technologii a twardą rzeczywistością wdrożeń.

Rynek kształtują dwie dominujące narracje. Po pierwsze, mamy śmiałe twierdzenia o „rewolucji pracy cyfrowej”. Prezes Salesforce, na przykład, sugeruje, że AI wykonuje obecnie „od 30% do 50% pracy” w kluczowych działach. Głębsza analiza pokazuje jednak, że nie jest to żaden twardy wskaźnik, a raczej zręczna marketingowa narracja, zbudowana przez zsumowanie konkretnych automatyzacji na poziomie zadań. Ta „rewolucja” jest ogłaszana równolegle ze zwolnieniami pracowników, co sugeruje, że główną strategią jest wykorzystanie wewnętrznego sukcesu AI jako mocnego argumentu w sprzedaży swoich platform innym firmom.

Po drugie, mamy wielką wizję architektoniczną. ServiceNow dąży do przyszłości, w której stanie się „systemem operacyjnym AI” dla biznesu – centralną wieżą kontroli nad chaosem rozproszonych narzędzi. To spójna i strategicznie rozsądna wizja, ale opiera się na poziomie dojrzałości organizacyjnej i danych, który posiada niewiele firm. To jak sprzedawanie najnowocześniejszego systemu kontroli lotów krajowi, który nie zaczął planować lotniska. Myślenie, że agenty AI wkrótce zastąpią istniejące procesy biznesowe, projektowane i optymalizowane przez ludzi, przypomina szum, jaki lata temu towarzyszył e-commerce, chmurze czy Big Data. Wszystkie te technologie miały duży wpływ na biznes, ale rzeczywistość zawsze okazywała się hybrydowa. E-commerce nie zastąpił całkowicie sklepów stacjonarnych, chmura jest świetnym rozwiązaniem, dopóki nie zaczniemy naprawdę skalować rozwiązania i nie zobaczymy ogromnych faktur. Big Data obiecywało wiele, ale ostatecznie złożone architektury zarządzania danymi i ich niska jakość ograniczyły wykorzystanie jego potencjału.

Kolejny kubeł zimnej wody wylewa na nas historia firmy Klarna. Po tym, jak pochwaliła się, że jej chatbot AI zastąpił 700 ludzkich agentów, firma musiała publicznie przyznać się do błędu. Prezes stwierdził, że nadmierne skupienie na cięciu kosztów doprowadziło do „niższej jakości” obsługi. Klarna teraz ponownie zatrudnia ludzi do obsługi złożonych interakcji, wyciągając kluczową lekcję: „AI daje nam szybkość. Ludzie dają nam empatię”. Poza tym, ludzie generalnie wolą rozmawiać z ludźmi, a nie z botami; dotyczy to zwłaszcza rosnącego udziału pokolenia seniorów w całej populacji.

To nie jest odosobniony incydent. Niektóre raporty sugerują, że 42% firm rezygnuje obecnie z większości swoich inicjatyw AI. Wniosek dla liderów jest jasny: ignorujcie marketingowy szum. Mądrzejsza ścieżka to dokładne mierzenie wyników i uczenie się na kosztownych, publicznych błędach innych.

„Problem 1%”: Dlaczego generyczna AI nie jest złotym środkiem dla Twojej firmy
#

To zderzenie z rzeczywistością prowadzi nas do kluczowego punktu dotyczącego danych. Duże modele językowe, o których jest głośno, są trenowane na publicznym internecie. Imponujące, bez wątpienia. Ale ten ocean informacji — ta mieszanina artykułów z Wikipedii, dyskusji na Reddicie i zapomnianych blogów — często reprezentuje zaledwie 1% danych, które są naprawdę istotne dla Twojego biznesu.

Prawdziwe złoto, czyli 99%, leży w Twoich własnych danych: historiach transakcji klientów, wewnętrznych modelach ryzyka, logistyce łańcucha dostaw, prywatnych danych rynkowych. Generyczny model nie ma pojęcia o unikalnym kontekście Twojej firmy. Nie wie, że „Projekt Nightingale” to ściśle tajna inicjatywa badawczo-rozwojowa, a nie klub obserwatorów ptaków.

Co jeszcze bardziej wymagające i przerażające — nie jest w stanie zrozumieć subtelnych, niepisanych zasad, które rządzą Twoimi najcenniejszymi relacjami z klientami.

Marketingowy szum sugeruje, że można po prostu „podłączyć” te modele do swojego środowiska i zacząć z nich korzystać. To niebezpiecznie mylące. Wyobraź sobie dział zarządzania majątkiem, który używa generycznej AI do tworzenia porad finansowych dla zamożnych klientów. AI mogłaby wygenerować mądrze brzmiącą, gramatycznie poprawną poradę opartą na publicznych informacjach finansowych. Byłaby jednak całkowicie ślepa na specyficzny poziom tolerancji ryzyka przez klienta, jego złożone struktury funduszy powierniczych czy przekazaną w rozmowie z pracownikiem zapowiedź sprzedaży firmy za dwa lata. Porada byłaby nie tylko generyczna; byłaby szkodliwa – to prosta droga do zautomatyzowanego błędu w sztuce.

Bez głębokiej i bezpiecznej integracji z Twoimi unikalnymi danymi, wartość generycznej AI jest ograniczona. To niewiarygodnie drogi sposób na uzyskanie nieco lepszej wyszukiwarki, która dodatkowo „halucynuje” z niepokojącą pewnością siebie. Podejmowanie decyzji, wbrew temu, czego chciało wielu menedżerów i entuzjastów technologii, nie opiera się tylko na danych. Jest też intuicja i doświadczenie, które pochodzą z wielu lat podejmowania decyzji i obserwowania ich wyników — nasza własna, białkowa wersja feeedback-reinforced learning. Modele są dalekie od osiągnięcia tych samych zdolności, co ludzie.

Bezpieczne udostępnianie danych: podstawa wdrożeń
#

Dochodzimy do kluczowego punktu. Jeśli prawdziwa wartość AI jest związana z Twoimi danymi, to umożliwienie do nich dostępu jest najważniejsze. Ale to miecz obosieczny:

  • Szansa: AI może analizować Twoje dane, aby znaleźć nowe oszczędności, personalizować doświadczenia klientów i przyspieszać innowacje.

  • Ryzyko: Udostępnienie modelom AI Twoich kluczowych danych bez odpowiedniego zarządzania (governance) to zaproszenie do „kosztownych problemów” — od kar regulacyjnych, przez wzmacnianie ukrytych w danych uprzedzeń, aż po wyciek danych, co ostatecznie niszczy zaufanie klientów.

Pomyśl o tym w ten sposób: nie dałbyś genialnemu, ale nieznanemu stażyście kluczy do całej serwerowni pierwszego dnia. Dałbyś mu nadzorowany dostęp do konkretnych plików. Mimo to wiele organizacji jest tak chętnych, by „robić AI”, że spieszy się z podłączaniem potężnych, zewnętrznych modeli do swoich najwrażliwszych danych.

Problemem rzadko jest sam model AI. Prawdziwą przeszkodą jest ekosystem danych, z którego musi on czerpać. To jak zaproszenie światowej klasy szefa kuchni do kuchni bez składników, z zardzewiałymi patelniami i zepsutym piekarnikiem. Rezultat będzie rozczarowujący i nie będzie to wina szefa kuchni. Słabo zarządzane środowisko danych nie tylko ogranicza potencjał AI; aktywnie je zatruwa, zamieniając potężne narzędzie w źródło chaosu. Może ono przetwarzać stare uprzedzenia w nowe, zautomatyzowane decyzje, nadając im niebezpieczną otoczkę obiektywnego, technologicznego autorytetu.

Pytania do management team
#

Oto cztery pytania, które warto zadać swojemu zespołowi. Mają one na celu przebicie się przez szum i skupienie na realiach inżynieryjnych i operacyjnych, które naprawdę mają znaczenie.

  1. Czy mylimy kalkulator z kolegą z pracy? Czy nasze oczekiwania co do autonomii AI są osadzone w rzeczywistości dzisiejszej technologii, czy też musimy projektować bardziej solidne systemy z udziałem człowieka, aby zapobiegać kosztownym, bezsensownym błędom?

  2. Czy nasza strategia danych to strategia, czy lista życzeń? Jaki jest nasz konkretny, sfinansowany i rozliczalny plan zapewnienia jakości, bezpieczeństwa i etycznego pozyskiwania danych, które będą napędzać nasze najważniejsze inicjatywy AI?

  3. Czy jesteśmy gotowi na „audyt zarządzania” z dnia na dzień? Gdyby regulator zapytał, dlaczego nasza AI podjęła konkretną decyzję dotyczącą klienta, czy moglibyśmy pokazać mu wdrożone mechanizmy audytowe i pochodzenie danych, czy też musielibyśmy wzruszyć ramionami i wskazać na dokument z polityką?

  4. Czy nieświadomie nie oddajemy przywileju myślenia maszynom? Jak tworzymy kulturę, w której AI jest używana jako narzędzie do wzmacniania i kwestionowania naszego myślenia, a nie jako proteza, która pozwala zanikać naszym zdolnościom krytycznego myślenia?

W kierunku pragmatycznej równowagi
#

To zderzenie z rzeczywistością nie jest powodem do pesymizmu. To wezwanie do strategicznej rzetelności i inżynierskiej precyzji, które oddzielają trwały sukces od kosztownej porażki. Droga do prawdziwej Równowagi AI leży w poszanowaniu ograniczeń technologii przy jednoczesnym skrupulatnym zarządzaniu Twoim najcenniejszym zasobem: Twoimi danymi.

W naszym następnym numerze przyjrzymy się bliżej, co Akt o AI naprawdę uważa za „System AI”. Odpowiedź może Cię zaskoczyć.

Do zobaczenia za tydzień,

Krzysztof