Thursday, April 9, 2026

Pracownicy umysłowi po cichu buntują się przeciwko sztucznej inteligencji, ponieważ 80% zdecydowanie odrzuca mandaty adopcyjne | Fortuna

Koniecznie przeczytaj

Teraz dane mówią co innego. Narzędzie, które kiedyś pracownicy pospiesznie adaptowali, stało się dla dużej i rosnącej części siły roboczej narzędziem, z którego w ogóle przestali korzystać. Nie dlatego, że to nie działa. Ponieważ boją się tego, co się stanie, gdy wszystko będzie działać zbyt dobrze.

Z nowego, globalnego badania przeprowadzonego wśród 3750 kadry kierowniczej i pracowników w 14 krajach, przeprowadzonego przez spółkę zależną SAP WalkMe na potrzeby piątego corocznego raportu „State of Digital Adoption”, wynika, że ​​ponad 54% pracowników w ciągu ostatnich 30 dni omijało narzędzia sztucznej inteligencji swojej firmy i zamiast tego wykonywało pracę ręcznie. Kolejne 33% w ogóle nie korzystało ze sztucznej inteligencji. Łącznie około ośmiu na dziesięciu pracowników firm aktywnie unika technologii lub ją odrzuca, na jej wdrożenie ich pracodawcy wydają rekordowe sumy. Średnie budżety na transformację cyfrową wzrosły rok do roku o 38% do 54,2 mln dolarów; jednak 40% tych wydatków nie osiągnęło zadowalających wyników z powodu niepowodzeń w przyjęciu.

Menedżerowie nie widzą, jak naprawdę czują się pracownicy

To, co przyćmiło początkowy entuzjazm, teraz widać w liczbach. Tylko 9% pracowników ufa sztucznej inteligencji przy podejmowaniu złożonych, kluczowych decyzji biznesowych, w porównaniu z 61% kadry kierowniczej – różnica w zaufaniu wynosi 52 punkty. Osiemdziesiąt osiem procent menedżerów twierdzi, że ich pracownicy mają odpowiednie narzędzia; Tylko 21% pracowników zgadza się z tym: różnica w adekwatności samych narzędzi wynosi 67 punktów. Kierownictwo i ich pracownicy, używając języka raportu, „opisują zasadniczo różne firmy”.

Sceptycy również mają dane po swojej stronie. Steve Hanke, ekonomista Johnsa Hopkinsa, przeszedł wystarczającą liczbę cykli technologicznych, aby wiedzieć, jak reklama wygląda od środka. „Sztuczna inteligencja nie zadziałała” – powiedział niedawno Fortune. „Witamy w prawdziwym świecie. Zapomnij o bańce AI. Wiesz, to nie zadziałało. Patrzysz na wszystkie ankiety i tak, wszyscy po trochu z tego korzystają, ale jeśli pogrzebiesz głębiej, niewiele to dało”. Konkluzja Hanke: „Nawiasem mówiąc, produktywność była słaba. Gdyby sztuczna inteligencja działała, produktywność znacznie wzrosła. Słucha się tych gości z Doliny Krzemowej i mówią, że PKB wzrośnie z 6 do 5%. Produktywność wzrośnie do sześciu. To się po prostu nie dzieje”.

Ten sceptycyzm jest na swój sposób zgodny z danymi WalkMe. Dan Adika, dyrektor generalny i współzałożyciel WalkMe, od początku śledził tę rozbieżność. Regularnie spotyka się z CIO i zadaje im proste pytanie: Ilu Twoich pracowników faktycznie korzysta ze sztucznej inteligencji, aby wykonywać sensowną pracę? „Liczby te są poniżej 10%” – powiedział.

Adika użyła metafory, również preferowanej przez tego konkretnego redaktora, że ​​sztuczna inteligencja jest jak samochód sportowy pod względem prędkości. Powiedział, że jego ulubioną analogią jest sytuacja, w której kupujesz każdemu pracownikowi samochód sportowy, ale on nie wie, jak nim jeździć; Nie mają umiejętności sztucznej inteligencji.

Część problemu ma charakter strukturalny, a nie behawioralny. „Każdy pracownik kupuje ten sportowy samochód, Ferrari, ale nie umie jeździć” – powiedziała Adika. „Czasami nie mają paliwa, taki jest kontekst. Wskazaniem jest umiejętność prowadzenia pojazdu. W niektórych przypadkach nie ma nawet wystarczającej liczby dróg; nie ma serwera API ani MCP, aby robić to, co chcesz”. Co robisz, gdy masz Ferrari, ale bez kierowcy, bez paliwa i bez dróg? Nie jedziesz zbyt szybko.

Brad Brown, globalny szef technologii i innowacji podatkowych w KPMG w USA, użył niemal dokładnie tej samej metafory w osobnym wywiadzie dla „Fortune”. „To jak kierowca F1” – powiedział. „Samochód F1 jest niesamowity. Ale jeśli nie masz wykwalifikowanego i utalentowanego kierowcy, to narzędzie nie przyniesie ci zbyt wiele dobrego”. Fakt, że dwóch doświadczonych technologów (jeden założyciel, drugi partner Wielkiej Czwórki) spontanicznie doszło do tego samego opisu, sugeruje, że opisują coś, co obaj wielokrotnie widzieli na dużą skalę na własne oczy.

Ta przepaść kosztuje firmy

Późniejszy koszt tego Ferrari bez kierowcy jest teraz wymierny. Z raportu WorkMe wynika, że ​​z powodu tarć technologicznych pracownicy tracą równowartość 51 dni roboczych w roku (prawie dwa pełne miesiące), co oznacza wzrost o 42% w porównaniu z 2025 r. To 7,9 godziny tygodniowo. Ekonomiści z Goldman Sachs podali w tym tygodniu, że sztuczna inteligencja oszczędza pracownikom, którzy korzystają z niej prawidłowo, średnio od 40 do 60 minut dziennie. Matematyka jest niemal symetryczna: produktywność, jaką sztuczna inteligencja zapewnia ludziom, którzy ją dobrze wykorzystują, jest prawie dokładnie równa produktywności, jaką niszczy w przypadku ludzi, którzy nie potrafią jej sprawić.

Stara historia sztucznej inteligencji w cieniu żyje pod powierzchnią. 78% kadry kierowniczej twierdzi, że chce zdyscyplinować wykorzystanie sztucznej inteligencji w cieniu; Jednak tylko 21 procent pracowników twierdzi, że kiedykolwiek ostrzegano ich o polityce dotyczącej sztucznej inteligencji, a 34 procent nawet nie wie, jakie narzędzia zatwierdził ich pracodawca. Kierownicy grożą karaniem zachowań, których nigdy nie wyjaśnili, że są zabronione. Sprzeczność jest tak głęboka, że ​​62% tych samych menedżerów prywatnie przyznaje, że ryzyko nieautoryzowanej sztucznej inteligencji jest przesadzone w porównaniu z ryzykiem całkowitego niewykorzystania sztucznej inteligencji.

„Korzystanie z Shadow AI nie jest zachowaniem, które powinno być karane; jest raczej okazją do wypełnienia luki systemowej” – powiedział Keith Kirkpatrick, wiceprezes i dyrektor ds. badań ds. cyfrowych przepływów pracy w oprogramowaniu dla przedsiębiorstw w The Futurum Group. „Kiedy pracownicy korzystają z niezatwierdzonych narzędzi sztucznej inteligencji, rekompensują luki w wydajności lub wydajności pozostawione przez zatwierdzone narzędzia i niejasne zarządzanie”.

Odłączenie AI

Nowością i tym, co dane dopiero zaczynają przechwytywać, jest warstwa pod cieniem AI. Pracownicy, którzy nie unikają zasad. Pracownicy, którzy nic nie robią.

Zapytano Adikę, jak nazwałaby tę dynamikę. Przerwał. „Są dumni z tego, co robią” – powiedział o pracownikach, którzy sprzeciwiają się przyjęciu sztucznej inteligencji. „Nie pozwolą żadnemu botowi AI przejąć kontroli i zawsze znajdą i pokażą wady tego narzędzia w porównaniu z nimi”. Z pewnością brzmi to jak cicha rezygnacja: zjawisko z czasów pandemii, w którym pracownicy przestali robić wszystko, co mogli, bez formalnej rezygnacji. Może również wystąpić bardzo zrozumiała frustracja w związku z narzędziami AI, które nie przestają cię zadziwiać, marnując tyle czasu, ile obiecują zaoszczędzić.

„Organizacje, które zrobią to dobrze, nie będą tymi, które po prostu automatyzują większość zadań” – stwierdziła Adika. „To oni dowiedzą się, kiedy powinien działać człowiek, kiedy agent powinien działać i jak przebiega przekazanie między nimi. Na tym przekazaniu leży zaufanie. A w tej chwili większość firm nawet nie zaczęła o tym myśleć”. Do tego momentu badanie MIT wykazało, że 90% pracowników nadal preferuje ludzi do pracy o znaczeniu krytycznym, co stanowi wyraźną niechęć do pójścia na głęboką wodę.

Oracle ogłosił zwolnienia dziesiątek tysięcy pracowników w następstwie podobnego oświadczenia Blocka, choć krytycy postrzegają to jako „wybielanie sztucznej inteligencji” lub ukrywanie nadmiernego zatrudnienia pod wygodną wymówką, która akurat podnosi cenę akcji. Logika nie pozostaje niezauważona wśród podstaw. „Dotrzemy do punktu, w którym poczujemy niepewność, strach i będziemy świadkami zwolnień” – powiedziała Adika. „Myślę więc, że jest to rodzaj okresu przejściowego, który nastąpi z czasem. Ale ostatecznie ludzie nadal z tego nie korzystają”.

Adika dała również jasno do zrozumienia, że ​​pracownicy, którzy trzymają się z daleka od sztucznej inteligencji, nie mylą się, odczuwając coś realnego: mylą się w wyciąganiu wniosków. „Nie widzielibyście jutro dyrektora generalnego banku lub firmy ubezpieczeniowej, który zwalniałby grupę ludzi, bo kto to zrobi?” Powiedział, że widzi „duży problem”, ponieważ twierdzenia, że ​​sztuczna inteligencja zastąpi wszystkich, będą musiały zmierzyć się z faktem, że „to po prostu nie dzieje się teraz”.

Problem wykwalifikowanego kierowcy

Brown powiedział, że spędza więcej czasu niż kiedykolwiek myśląc o tym, czego naprawdę potrzeba, aby zmniejszyć różnicę między Ferrari a kierowcą. W KPMG zaczął kategoryzować pracowników na, jak to nazywa, konstruktorów, twórców i zaawansowanych użytkowników: różne poziomy możliwości sztucznej inteligencji z powiązanymi wyraźnymi ścieżkami kariery. „Obecnie skupiamy się na stworzeniu zachęt i ścieżek kariery dla wszystkich naszych pracowników, aby mogli osiągnąć ten poziom” – powiedział. „Nadszedł czas, aby ludzie dogonili technologię”.

Najważniejszą ideą w tym kontekście jest to, że problemem nie jest inteligencja, ani nawet szkolenie w tradycyjnym sensie. „Myślę, że dzięki ludzkim umiejętnościom w zakresie krytycznego myślenia i osądu” – powiedział Brown – „pozwoli to ludziom stać się twórcami: pracownikami, którzy mogą bezproblemowo wykorzystywać narzędzia sztucznej inteligencji, nawet wykorzystując je do samodzielnego tworzenia nowych narzędzi”. Jego zdaniem najbardziej zagrożeni nie są pracownicy, którym brakuje umiejętności technicznych. To ci, których pracodawcy nie zapewnili im bezpiecznej przestrzeni, ścieżki ani zachęty do podjęcia prób.

Jedna trzecia pracowników w przedsiębiorstwach nigdy nie korzystała z narzędzi sztucznej inteligencji (AI) i zgłasza najniższy poziom wsparcia, najmniej szkoleń i najwyższy poziom obaw przed zakłóceniami. Jak uważnie zauważa raport WalkMe, nie są one odporne na sztuczną inteligencję. Po prostu nie zostały one osiągnięte. Jeśli chodzi o to, czy ewolucja tych narzędzi przewyższa zdolność pracowników do nadrabiania zaległości, Brown przyznał, że zdecydowanie odczuwa lukę.

Ewolucja jest możliwa i ważna

To, co przywróciło Hanke do życia, było cały czas zapisywane, gdy tylko zorientował się, do czego chce używać sztucznej inteligencji. „Dla mnie sztuczna inteligencja jest jak kolejny asystent badawczy” – powiedział – „i pozwala zaoszczędzić mnóstwo czasu, ponieważ gdybym miał asystenta badawczego, który zajmowałby się takimi rzeczami, musiałbym go wysłać do biblioteki. Pracowaliby tam przez tydzień, robiąc coś, co ja mogę zrobić ze sztuczną inteligencją w około godzinę”. Ostrzeżenie: „Musisz wiedzieć, do czego służą”. A co najważniejsze, musisz wiedzieć wystarczająco dużo na ten temat, aby wykryć błędy. „Wiem, o co zapytać sztuczną inteligencję. Wiem, jak ustrukturyzować to, co chcę, aby zostało zrobione” – powiedział Hanke, wskazując na swoje dziesięciolecia doświadczenia w ekonomii, towarach i finansach międzynarodowych.

Jego własna droga – od całkowitego zakazu używania narkotyków przez uczniów po ostrożny sceptycyzm i codzienną zależność – podąża ścieżką obraną przez wielu poważnych myślicieli. Powiedział, że przechodziło od „nie” przez „może” do „to jest świetne, ale niektóre z tych narzędzi są do niczego”. Jego ocena samych narzędzi jest charakterystycznie dosadna: „Istnieje wiele rodzajów sztucznej inteligencji. A niektóre z nich są naprawdę gówniane. To zależy od tego, czego potrzebujesz”.

Zdaniem Browna jest to ostatecznie optymistyczna historia, ale tylko dla tych, którzy się ruszają. „Zwycięzcami są ci, których pracownicy skutecznie wykorzystują możliwości sztucznej inteligencji” – powiedział. „Praca, która nie jest skłonna do korzystania ze sztucznej inteligencji, stanie przed wyzwaniem. A środowisko pracy, które jest zbyt zorientowane na sztuczną inteligencję, bez wartości, jaką stanowi ludzka siła robocza, będzie stanowić wyzwanie”.

Website |  + posts
- Advertisement -spot_img
- Advertisement -spot_img

Najnowszy artykuł