Ekonomiści Mariana Mazzucato i Rosie Collington przekonują, że konsultanci mogą w najlepszym wypadku udzielić wątpliwych wskazówek, a w najgorszym – zaostrzyć dysfunkcje w rządzie i sektorze prywatnym. W swojej książce The Big Con: How the Consulting Industry Weakens Our Businesses, Infantilizes Our Governments i wypacza nasze gospodarki ekonomiści argumentują, że konsultanci pojawili się w erze ograniczonych przepisów po Ronaldzie Reaganie, co wymagało interwencji stron trzecich w celu ratowania instytucji, które straciły wiarę w siebie.
Zamiast naprawiać statek, argumentowali Mazzucato i Collington, konsultanci ci po prostu stworzyli „wrażenie wartości”, iluzję użyteczności i niewiele więcej, a wszystko to podczas gdy rząd i prywatne firmy marnowały pieniądze, aby ich zatrudnić.
W epoce sztucznej inteligencji, która obiecuje zaoszczędzić firmom pieniądze poprzez automatyzację prac administracyjnych, korzystanie z chatbotów w celu uzyskania wskazówek może być atrakcyjną alternatywą dla firm, które nie chcą lub nie mogą już płacić za konsultantów. Jednak nowe badania pokazują, że chociaż można zapytać sztuczną inteligencję, co zrobiłaby konsultantowi za ułamek ceny, jej rady mogą również nie być warte stosowania. W rzeczywistości pomoc AI może po prostu przedstawić stary problem w nowym medium.
Niedawne badanie przeprowadzone przez Esade Business School na Universitat Ramon Llull w Barcelonie wykazało, że gdy poproszono kilka dużych modeli językowych (LLM) o wskazówki dotyczące tematu pracy, skłaniały się one ku odpowiedzi bardziej pasującej do modnych haseł, zamiast zapewniać wskazówki lepiej dopasowane do scenariusza. Naukowcy nazwali skłonność sztucznej inteligencji do zwracania się w stronę tego samego żargonu, aby uzasadnić swoje oceny, „stronniczością”.
„LLM to nie kolega, który krytycznie ocenia aktualne pomysły, bada szczegóły kontekstu, testuje założenia i odrzuca, gdy wszyscy czują się komfortowo” – napisali autorzy badania w poście Harvard Business Review podsumowującym swoje badania. „Z punktu widzenia strategii studia LLM mogą bardziej przypominać świeżo upieczonego MBA lub młodszego konsultanta, papugującego to, co popularne, a nie to, co jest odpowiednie w konkretnej sytuacji”.
Niedawne zwolnienia w firmach doradczych Wielkiej Czwórki, spowodowane szerszym spowolnieniem w branży, sugerują, że firmy mogą już tracić na wartości w oczach potencjalnych klientów. PwC zwolniło 150 pracowników wsparcia biznesowego w listopadzie 2025 r., mniej więcej w tym samym czasie, gdy McKinsey zwolnił setki stanowisk pracy.
„Gdy nasza firma kończy 100 lat, działamy w czasie charakteryzującym się szybkim postępem w sztucznej inteligencji, który zmienia biznes i społeczeństwo” – powiedział Bloombergowi w zeszłym roku rzecznik McKinsey.
Jednak pojawienie się „trendu” sugeruje, że sztuczna inteligencja nie jest w stanie zapewnić wskazówek firmom poszukującym porad w zakresie tej technologii, a to badanie obnaża uprzedzenia, z którymi zmagają się organizacje LLM.
Jak objawia się „trend spadkowy”.
Aby zmierzyć tendencję sztucznej inteligencji do udzielania odpowiedzi zgodnych raczej z trendami niż logiką, badacze przetestowali siedem modeli, w tym GPT-5, Claude, Gemini i Grok, w 15 000 symulacji i scenariuszy. Modele poproszono o dokonanie wyboru pomiędzy dwoma rozwiązaniami w obliczu napięć w miejscu pracy, np. czy firma powinna przedkładać długoterminowy rozwój nad rozwój krótkoterminowy, czy też firma powinna wykorzystywać technologię do automatyzacji lub usprawniania pracy pracowników.
Naukowcy przewidzieli, że jeśli osoby z wykształceniem wyższym będą udzielać porad w oparciu o konkretne szczegóły sytuacji, rozwiązania wybrane przez modele będą zróżnicowane. Zamiast tego wszystkie siedem modeli ogólnie skupiło swoje odpowiedzi wokół tej samej strategii, wskazując na preferencję dla „modnych haseł współczesnego zarządzania i tropów kulturowych”.
Nawet gdy badacze przeformułowali pytania lub poprosili o analizę zalet i wad, modele sztucznej inteligencji w wielu przypadkach wykazywały silną preferencję w stronę podobnej strategii handlowej. Autorzy badania ostrzegają, że poleganie na sztucznej inteligencji jako doradcy nie zaowocuje niestandardowymi rozwiązaniami biznesowymi, a raczej standardowym rozwiązaniem, które będzie można zaproponować każdej firmie na żądanie, niezależnie od szczegółów przedstawionego wyzwania.
„To ujawnia realne ryzyko dla przywódców” – stwierdzili naukowcy. „LLM może wydawać się bardzo dostosowany do Twojej sytuacji, jednocześnie cicho prowadząc Cię do tej samej małej grupy nowoczesnych trendów w zarządzaniu”.
Ujawnianie stronniczości LLM
Innymi słowy, sztuczna inteligencja poproszona o wskazówki dotyczące skomplikowanego scenariusza pracy nie analizuje danej sytuacji, a zamiast tego zwraca kluczowe frazy na podstawie tego, jak często je napotykała podczas uczenia się na danych. Jak wynika z badania, w przypadku ChatGPT bot czasami odmawiał zaoferowania opcji binarnej i zamiast tego zalecał oba rozwiązania. Badania opublikowane w zeszłym roku w Nature wykazały, że uwielbienie AI jest nie tylko bezproduktywne, ale może być również szkodliwe dla nauki, co potwierdza uprzedzenia tych, którzy do tego nawołują, zamiast przedstawiać użytkownikom dane poparte literaturą naukową lub innymi wiarygodnymi, bardziej bezstronnymi źródłami.
Badacze „trendslopu” nie uniknęli całkowicie stosowania LLM w radzeniu sobie ze skomplikowanymi sytuacjami zawodowymi. Zasugerowali, że modele mogą być nadal przydatne do generowania alternatywnych rozwiązań lub identyfikowania martwych punktów w niektórych scenariuszach. Według badania, jeśli zdajesz sobie sprawę ze skłonności sztucznej inteligencji do takich koncepcji jak wzmacnianie czy strategie długoterminowe, możesz rzucić wyzwanie tym uprzedomom, aby uzyskać bardziej wnikliwe wskazówki.
„Ostatecznie przywództwo polega na podejmowaniu trudnych decyzji w warunkach niepewności i braniu za nie odpowiedzialności” – stwierdzili naukowcy. „Sztuczna inteligencja nie może i nie powinna być substytutem”.

