W różnych branżach kadra kierownicza inwestuje bezprecedensowy kapitał w platformy danych, analityki i sztucznej inteligencji. Obietnica jest przekonująca. Lepsze widzenie. Szybsze decyzje. Wymierny wzrost. Jednak wynik jest często znajomy i frustrujący. Najlepsze programy AI osiągają słabsze wyniki. Produktywność rośnie w stagnacji. Jakość decyzji poprawia się na papierze, ale nie w praktyce.
Problemem rzadko jest sama technologia. Częściej jest to system, do którego wprowadzana jest dana technologia.
Sztuczna inteligencja nie naprawia luk w wykonaniu. To je powiększa. Kiedy kultura, prawa do podejmowania decyzji i codzienne przepływy pracy nie są ze sobą spójne, zaawansowana technologia ujawnia słabe punkty, które wcześniej były ukryte lub możliwe do zarządzania. W wielu organizacjach im szybciej docierają spostrzeżenia, tym wyraźniej ujawniają się ograniczenia organizacji.
Większość modeli operacyjnych nadal odzwierciedla wcześniejszą epokę. Informacje napływały powoli. Władza była scentralizowana. Eskalacja decyzji, często przez zaniechanie. Struktury te zapewniały kiedyś stabilność. Dziś po cichu podważają szybkość i odpowiedzialność.
Sztuczna inteligencja rozwija się dzięki przejrzystości. Wymaga podejmowania decyzji w odpowiednim czasie, jasnej odpowiedzialności i zaufania do danych. Gdy te warunki nie istnieją, wydajność gwałtownie się pogarsza.
Koszt pozostania w bezruchu
Model operacyjny określa sposób wykonywania pracy. Reguluje, kto decyduje, w jaki sposób przepływ informacji, w jaki sposób zespoły są koordynowane i jak mierzony jest sukces. Podczas gdy strategie ewoluują, a technologie postępują, modele operacyjne zwykle zmieniają się w najmniejszym stopniu. Z biegiem czasu warstwy się tworzą. Wyjątki się mnożą. Odpowiedzialność jest zamazana.
Na początku tarcie jest subtelne. Potem jest coraz gorzej.
Narzędzia AI generują informacje w czasie rzeczywistym, ale uprawnienia decyzyjne pozostają niejednoznaczne. Analityka podkreśla możliwości, ale zachęty nadal nagradzają unikanie ryzyka. Retorycznie zachęca się do współpracy, a procesy wzmacniają funkcjonalne silosy. Zamiast przyspieszać realizację, technologia dodaje stresu.
W takich środowiskach sztuczna inteligencja staje się testem warunków skrajnych. Nie tworzy dysfunkcji, ale uwydatnia istniejącą dysfunkcję. Kiedy zaufanie jest słabe, dane są kwestionowane. Kiedy odpowiedzialność jest niejasna, pomysły ulegają stagnacji. Kiedy przywódcy wahają się przed przekazaniem władzy, decyzje utknęły w martwym punkcie.
Dlaczego wykonanie się nie udaje?
Niepowodzenia w realizacji rzadko wynikają z braku ambicji lub inwestycji. Występują, ponieważ model operacyjny nigdy nie został zaprojektowany w celu wspierania zachowań niezbędnych do trwałej wydajności.
Trzy błędy pojawiają się wielokrotnie.
Pierwsza dotyczy praw decyzyjnych. Sztuczna inteligencja umożliwia szybsze i bardziej rozproszone podejmowanie decyzji. Jednak wiele organizacji w dalszym ciągu opiera się na scentralizowanych zatwierdzeniach. Spostrzeżenia przepływają szybciej, niż liderzy są w stanie je przetworzyć, powodując opóźnienia, które negują wartość szybkości.
Drugie niepowodzenie ma charakter proceduralny. Nowe narzędzia nakładają się na starsze przepływy pracy. Pracownicy dostosowują się do zmian, pracując wokół systemów, a nie poprzez nie. Złożoność wzrasta. Tarcie normalizuje się.
Trzeci upadek ma charakter kulturowy. Dane zaprzeczają intuicji. Automatyzacja zakłóca ustalone role. Bez standardów wspierających uczenie się, odpowiedzialność i adaptację, wgląd jest traktowany raczej jako rada niż działanie.
W stabilnych warunkach możliwe jest przetrwanie tych luk. Pod presją zaawansowanej analityki i automatyzacji stają się one zobowiązaniami strukturalnymi.
Wzrost ma charakter strukturalny, a nie techniczny
Zrównoważony wzrost nie wynika wyłącznie z technologii. Pochodzi z wyrównania. Struktura, zachowanie i odpowiedzialność muszą się wzajemnie wzmacniać.
Organizacje, które wydobywają prawdziwą wartość ze sztucznej inteligencji, podchodzą do tego wyzwania inaczej. Nie skupiają się wyłącznie na narzędziach. Badają, w jaki sposób podejmowane są decyzje i gdzie utknęły. Wyjaśniają własność wyników. Przeprojektowują przepływy pracy tak, aby informacje prowadziły bezpośrednio do działania. Oczekiwania kulturowe wzmacniają się wraz ze zmieniającymi się procedurami.
Nie chodzi o zastąpienie osądów algorytmami. Chodzi o zapewnienie, aby osąd był dokonywany na właściwym szczeblu, we właściwym czasie i przy użyciu właściwych informacji.
Gdy modele operacyjne są dopasowane, sztuczna inteligencja wyostrza koncentrację i przyspiesza naukę. Jeśli nie, sztuczna inteligencja zwiększa hałas i zwiększa ryzyko.
Strategiczny martwy punkt
Modele operacyjne są często traktowane jako mechanizmy wewnętrzne. Priorytetem jest strategia i technologia. Jeśli w ogóle, struktura zostanie dostosowana później. Ta sekwencja jest droga.
Modele operacyjne określają, jakie strategie można wdrożyć i jakie technologie mogą zapewnić realistyczne wyniki. Nie są to infrastruktury pasywne. Aktywnie wpływają na wydajność.
W środowisku, w którym przewaga zależy od szybkości i zgodności, pytanie nie brzmi już, czy inwestować w sztuczną inteligencję. Najważniejszym pytaniem jest, czy organizacja jest zaprojektowana tak, aby działać w oparciu o informacje ujawniane przez sztuczną inteligencję.
Dla wielu firm odpowiedź jest niewygodna.
Zastanów się jeszcze raz, jak wykonywana jest praca
Przegląd modelu operacyjnego nie wymaga demontażu organizacji. Wymaga zmierzenia się z rzeczywistością. Gdzie następuje spowolnienie decyzji? Gdzie znika odpowiedzialność? Gdzie zachęty są sprzeczne z ustalonymi priorytetami?
Oznacza to raczej badanie przeszkód w podejmowaniu decyzji, niż składanie sprawozdań. Oznacza to dostosowanie nagród do wyników, a nie do aktywności. Oznacza to projektowanie przepływów pracy w oparciu o tworzenie wartości, a nie wygodę funkcjonalną. Oznacza to także zajęcie się normami kulturowymi, które w milczeniu podważają własność.
Technologia będzie nadal się rozwijać. Sztuczna inteligencja będzie szybsza, bardziej dostępna i głębiej zintegrowana z codzienną pracą. Organizacje, które pozostawią swoje modele operacyjne nienaruszone, będą działać szybciej, nie posuwając się do przodu.
Ci, którzy wykonają najcięższą pracę w zakresie dostosowania, doświadczą czegoś innego. Sztuczna inteligencja nie będzie sprawiać wrażenia hazardu. Będzie to przypominać dźwignię.
Nie dlatego, że zmieniła się technologia, ale dlatego, że zmieniła się organizacja.
Opinie wyrażone w komentarzach Fortune.com są wyłącznie poglądami ich autorów i niekoniecznie odzwierciedlają opinie i przekonania Fortune.

