Przez kilka ostatnich tygodni zgłębialiśmy mechanikę zarządzania AI — od mało efektownej, ale ważnej pracy nad budową solidnych fundamentów danych, po wyzwanie kontrolowania autonomicznych agentów. Ale za każdą debatą na tematy techniczne lub regulacyjne kryje się pytanie, które prawdopodobnie zaprząta myśli każdego członka Twojego zespołu: „Czy ta technologia zabierze mi pracę?”.
To nie jest bezzasadna obawa. Ostatnie artykuły, jak szeroko komentowany tekst z Axios, malują ponury obraz masowych zwolnień, podsycając narrację o zbędności człowieka. Chociaż prawdą jest, że AI zautomatyzuje wiele zadań, uważam, że skupianie się na zastępowaniu jest błędnym rozumieniem nadchodzącej transformacji.
Znacznie ciekawsza i, moim zdaniem, bardziej trafna historia to nie opowieść o zastępowaniu, ale o wzmacnianiu. Przyszłość nie należy do AI, która zastąpi prawnika, analityka czy stratega. Należy do prawnika, analityka i stratega, którzy nauczą się używać AI, aby zwielokrotnić swoje możliwości. To wydanie newslettera jest poświęcone jest temu, jak przeprowadzić Twoją organizację przez tę transformację, przechodząc od strachu do kultury inteligentnego wzmocnienia, w której to człowiek pozostaje w centrum.
Nowe role hybrydowe#
Pomysł, że AI po prostu masowo wyeliminuje miejsca pracy, jest uproszczoną, choć wcale nie nierealną prognozą. Bardziej korzystnym dla nas wszystkich scenariuszem jest powstanie nowej klasy ról hybrydowych — nazwijmy je „centaurami”; profesjonalistów, którzy łączą swoją wiedzę z umiejętnym wykorzystaniem AI.
Trener / Kurator AI:#
Obowiązki: To osoba, która uczy AI. Jest odpowiedzialna za dobór wysokiej jakości firmowych danych, na których trenowana jest AI, oraz za dostarczanie ciągłego feedbacku niezbędnego do korygowania błędów i doskonalenia jej działania. To opiekun danych, ekspert dziedzinowy i po części nauczyciel.
Kluczowe umiejętności: Niezbędna jest głęboka wiedza dziedzinowa. Trener AI dla systemu wsparcia działu prawnego musi być doświadczonym prawnikiem. Potrzebne są również umiejętności analityczne do wykrywania subtelnych uprzedzeń w danych.
Przykładowy scenariusz: W dużym banku inwestycyjnym, doświadczona analityczka finansowa poświęca teraz połowę swojego czasu na „trenowanie” firmowej AI do analizy rynku. Dostarcza jej wyselekcjonowane raporty badawcze i wykorzystuje swoje wieloletnie doświadczenie do korygowania jej interpretacji, ucząc ją niepisanych zasad i niuansów specyficznych dla ich niszy rynkowej.
Etyk / Audytor AI:#
Obowiązki: Ta rola pełni funkcję sumienia organizacji. Jest odpowiedzialna za przeprowadzanie „testów etyki AI”, o których mówiliśmy w ostatnim numerze, prowadzenie Oceny Wpływu AI i kierowanie ćwiczeniami typu „red teaming”, mającymi na celu odkrycie ukrytych uprzedzeń i potencjalnych szkód.
Kluczowe umiejętności: To interdyscyplinarna rola, wymagająca wykształcenia w dziedzinie etyki lub prawa, dobrego rozumienia technologii oraz umiejętności interpersonalnych, by rzucać wyzwanie zespołom technicznym, nie zrażając ich do siebie.
Przykład: Firma ubezpieczeniowa tworzy mały zespół Etyków AI. Zanim jakikolwiek nowy model underwritingowy oparty na AI zostanie wdrożony, zespół ten musi zatwierdzić formalny audyt, który obejmuje statystyczne testy stronniczości i jakościową ocenę jego potencjalnego wpływu na klientów z grup wrażliwych.
Architekt korporacyjny AI:#
Obowiązki: W miarę jak organizacje wdrażają dziesiątki narzędzi i agentów AI, pojawia się nowa rola: korporacyjny architekt AI, który decyduje, jak te systemy współdziałają ze sobą i z ludźmi. Jego odpowiedzialnością jest też projektowanie architektury funkcjonalnej rozwiązań AI i weryfikacja tego, czy nowo wdrażane rozwiązania są z nią zgodne.
Kluczowe umiejętności: Wymaga to kombinacji myślenia systemowego, umiejętności projektowania doświadczeń użytkownika (UX) i zrozumienia procesów biznesowych. Osoba na tym stanowisku mniej skupia się na budowaniu pojedynczych modeli, a bardziej na projektowaniu całej fabryki.
Przykład: Wśród zadań architekta korporacyjnego AI w dużej firmie logistycznej jest zaprojektowanie procesu i przepływu pracy między AI, która przewiduje opóźnienia w dostawach, agentem AI, który automatycznie zmienia trasy przesyłek, a menedżerami logistyki, którzy muszą weryfikować i zatwierdzać zmiany powodujące koszty dla firmy.
Przewaga człowieka#
Wspólnym mianownikiem wszystkich tych nowych ról jest to, że dzięki nim zwiększamy możliwości pozostałych pracowników organizacji i korzystamy z AI w sposób, który minimalizuje ryzyko szkód. AI jest dobra w obliczeniach (nie każda!), rozpoznawaniu wzorców i przewidywaniu, istnieje kilka obszarów, w których ludzie zachowują trwałą przewagę.
Złożone myślenie krytyczne: AI potrafi przeanalizować zbiór danych i powiedzieć Ci, co się stało. Ekspert potrafi spojrzeć na ten sam wynik i powiedzieć, dlaczego ma on znaczenie. Zdolność do stosowania kontekstu, rozumienia dalszych konsekwencji i zadawania właściwych pytań pozostaje ludzką umiejętnością. AI może dostarczyć mapę, ale to człowiek decyduje, dokąd iść.
Kreatywność i innowacja: Generatywna AI jest mistrzem rekombinacji. Potrafi łączyć istniejące idee, style i dane. Nie potrafi jednak stworzyć czegoś z niczego. Przeskok od 0 do 1, czyli nowatorski pomysł — rodzaj myślenia, który tworzy nowy rynek lub paradygmat — pozostaje domeną ludzkiej kreatywności. AI jest narzędziem do burzy mózgów i iteracji, może być źródłem inspiracji, ale nie jest (jeszcze) kreatywnym członkiem zespołu.
Złożone rozumowanie etyczne: AI może zostać zaprogramowana za pomocą zestawu reguł lub przykładów oczekiwanego zachowania lub decyzji. Nie potrafi ona jednak poruszać się po kruchym lodzie dylematów etycznych, które wymagają równoważenia sprzecznych wartości. Nie rozumie ducha prawa, a jedynie jego literę. Zdolność do podjęcia trudnej decyzji w szarej strefie, ważąc współczucie i sprawiedliwość, jest być może najbardziej ludzką ze wszystkich umiejętności. Istotna jest tu też kwestia odpowiedzialności za podejmowane decyzje — ją zawsze musi ponosić człowiek.
Empatia i perswazja: AI można wytrenować, by naśladowała empatyczny język. Nie potrafi jednak nawiązać ludzkiej więzi. Zdolność do rozmowy z klientem, zrozumienia jego niewypowiedzianych obaw, budowania relacji opartej na zaufaniu i przekonania go do określonego działania jest ludzkim procesem. Jak odkryła Klarna, empatii nie da się zautomatyzować.
Zbiór zasad#
Zarządzanie tą transformacją jest jednym z kluczowych wyzwań dla dzisiejszych liderów. Wymaga wyjścia poza narrację opartą na strachu i przyjęcia strategii wzmacniania. Oto cztery obszary, na których warto się skupić:
1 Promuj wiedzę o AI, a nie tylko umiejętność jej obsługi: Celem nie jest przekształcenie wszystkich w data scientistów. Chodzi o stworzenie kultury, w której każdy w organizacji ma podstawowe, pragmatyczne zrozumienie tego, czym jest AI, co potrafi, a czego nie. Można to osiągnąć poprzez praktyczne warsztaty i odczarowywanie technologii w komunikacji wewnętrznej.
2 Inwestuj w nowe kompetencje, a nie tylko w przekwalifikowanie: Tradycyjny reskilling często polega na dostosowywaniu istniejących umiejętności do nowych narzędzi. Skuteczniejsze jest podejście „new-skilling” — identyfikowanie powstających ról hybrydowych, których Twoja organizacja będzie potrzebować (jak te opisane powyżej) i tworzenie jasnych ścieżek kariery dla obecnych pracowników. To nie tylko oferowanie kursów; to tworzenie i promowanie możliwości nauki w praktyce.
3 Dbaj o bezpieczeństwo emocjonalne: W czasach transformacji strach jest hamulcem innowacji. Liderzy muszą dawać poczucie bezpieczeństwa emocjonalnego, tak by pracownicy mogli w kontrolowany sposób eksperymentować z AI, ponosić porażki i otwarcie mówić o swoich niepokojach. Oznacza to docenianie inteligentnych eksperymentów, które się nie powiodły i przedstawianie AI nie jako zagrożenia, ale jako nowego narzędzia, którego każdy może się nauczyć.
4 Mierz to, co ma znaczenie: wzmocnienie człowieka, a nie tylko automatyzację: Niewłaściwym sposobem mierzenia sukcesu AI jest liczenie zautomatyzowanych zadań lub zlikwidowanych stanowisk — choć oczywiście z perspektywy CEO obniżenie kosztów zawsze wydaje się kuszące. Czasem tylko, tnąc koszty, zapominamy o tym, że równocześnie odcinamy potencjał wzrostu przychodów i marży. Przykłady pytań, które warto sobie zadawać: Czy Twoje zespoły podejmują lepsze decyzje? Czy skutecznie rozwiązują bardziej złożone problemy? Czy jakość ich myślenia strategicznego rośnie? Sukces nie polega tylko na szybszym wykonywaniu tej samej pracy; polega na podniesieniu jakości i wartości samej pracy. Więcej na ten temat można przeczytać w moim artykule: “Wzmocnienie, nie zastąpienie: Przewodnik lidera po współpracy człowieka z AI.”
Podsumowanie#
Narracja „człowiek kontra maszyna” jest prosta, dramatyczna i w dużej mierze błędna. Prawdziwa historia to opowieść o współpracy. Przyszłość pracy to nie świat bez ludzi; to świat, w którym ludzie są wzmocnieni przez potężne narzędzia, uwalniające nas od monotonii powtarzalnych zadań, abyśmy mogli skupić się na ludzkiej pracy polegającej na kreatywności, krytycznym myśleniu i budowaniu relacji. Cytując zdanie Joanny Maciejewskiej: “Chcę, żeby AI robiła za mnie pranie i zmywanie, żebym mogła zajmować się sztuką i pisaniem, a nie, żeby sztuczna inteligencja zajmowała się moją sztuką i pisaniem, żebym mogła robić pranie i zmywanie."
Wyzwaniem dla nas jako liderów nie jest przewidywanie przyszłości, ale jej budowanie. To przeprowadzenie naszych zespołów przez tę wyjątkową transformację z wizją, pragmatycznym podejściem i wiarą w wartość ludzkiej pomysłowości. W naszym następnym numerze rozwiniemy ten temat, badając szerszy wpływ AI w przedsiębiorstwach na społeczeństwo i rosnącą odpowiedzialność kadry kierowniczej jako strażników tej potężnej technologii.
Z najlepszymi pozdrowieniami, Krzysztof
