W miarę jak generatywna sztuczna inteligencja szybko rozprzestrzenia się w organizacjach, kadra kierownicza staje przed zwodniczo prostym pytaniem: jak ludzie powinni współpracować ze sztuczną inteligencją? Powszechna odpowiedź: „informuj ludzi na bieżąco” brzmi uspokajająco.
Jednak nowe badania pokazują, że odpowiedź ta jest niebezpiecznie niekompletna. To, co wydaje się być tym samym podejściem „ludzkim w pętli”, w rzeczywistości objawia się na trzy radykalnie różne sposoby, z całkowicie różnymi konsekwencjami dla wydajności i rozwoju umiejętności.
Aby zrozumieć, w jaki sposób firmy mogą naprawdę wydobyć wartość ze współpracy człowieka z sztuczną inteligencją, przeprowadziliśmy eksperyment terenowy z 244 konsultantami, którzy używali GPT-4 do rozwiązywania złożonych problemów biznesowych. W eksperymencie, przy wsparciu naukowców z Harvard Business School, MIT Sloan School of Management, Wharton School i Warwick Business School, przeanalizowano prawie 5000 interakcji człowiek-AI, aby odpowiedzieć na kluczowe pytanie: co właściwie robią i co powinni robić ludzie współpracujący z GenAI?
Trzy ukryte wzorce współpracy człowieka i sztucznej inteligencji
Najbardziej zaskakującym wnioskiem z naszego eksperymentu jest to, że profesjonaliści pracujący z GenAI w naturalny sposób podzielili się na trzy różne style współpracy, z których każdy dawał radykalnie różne wyniki:
Cyborgi (60% uczestników) zaangażowały się w coś, co nazywamy „współtworzeniem wiedzy skondensowanej”, czyli ciągły, iteracyjny dialog z sztuczną inteligencją przez cały proces. Używali go do każdego podzadania w swoim przepływie pracy i na różne sposoby: przydzielali ludzi do sztucznej inteligencji, dzielili złożone zadania na moduły, odrzucali wyniki sztucznej inteligencji, ujawniali sprzeczności i walidowali wyniki w sposób dynamiczny. W przypadku cyborgów granica między myśleniem człowieka a sztuczną inteligencją celowo się zatarła.
Centaury (14% uczestników) ćwiczyły „ukierunkowane współtworzenie wiedzy”, selektywnie wykorzystując sztuczną inteligencję do określonych podzadań, zachowując jednocześnie ścisłą kontrolę nad całym procesem rozwiązywania problemów. Wykorzystali sztuczną inteligencję do zwiększenia swoich możliwości, mapowania dziedzin problematycznych, gromadzenia spostrzeżeń metodologicznych i udoskonalania własnych treści generowanych przez ludzi. Pozostali jednak zdecydowanie po stronie kierowcy, wykorzystując sztuczną inteligencję jako dedykowane narzędzie, a nie partnera do współpracy.
Osoby samoautomatyzujące (27% uczestników) zaangażowały się w „zrezygnowanie z współtworzenia wiedzy”, delegując całe przepływy pracy do sztucznej inteligencji przy minimalnych iteracjach lub krytycznym zaangażowaniu. Dostarczyli AI dane i instrukcje do wykonania podzadań, a następnie zaakceptowali jej wyniki bez modyfikacji lub z niewielkimi zmianami. Ich prace były szybkie i dopracowane, ale brakowało im głębi, przypominały pracę wykonywaną dla nich, a nie z nimi.
Godne uwagi jest to, że wszyscy uczestnicy mieli dostęp do tych samych narzędzi i tego samego zadania. Nie otrzymali odmiennych instrukcji dotyczących procesu pracy z AI. Jednak ich wyłaniające się/instynktowne decyzje dotyczące tego, kiedy zaangażować sztuczną inteligencję i ile uprawnień jej nadać, spowodowały zasadniczo odmienną dynamikę współpracy.
Ramy zrozumienia współpracy
Aby zrozumieć te wzorce, opracowaliśmy ramy zbudowane wokół dwóch podstawowych pytań, które nadają strukturę wszelkiej dynamice wspólnego rozwiązywania problemów między ludźmi i maszynami: Kto wybiera, co należy zrobić? A kto określa, jak to się robi?
Cyborgi pozwalają ludziom kierować „co”, ale pozwalają sztucznej inteligencji na znaczną kontrolę nad „jak”. Centaury zachowują ludzką kontrolę i przywództwo w obu wymiarach i wykorzystują sztuczną inteligencję tylko do określonej pomocy. Autoautomaty przekazują kontrolę nad obydwoma rozwiązaniami AI. W szczególności czwarta możliwość teoretyczna (w której sztuczna inteligencja kieruje wyborem zadań, a człowiek kieruje wykonaniem) pozostała w naszym badaniu pusta; Kiedy profesjonaliści rezygnują z kontroli nad tym, nad czym pracować, zwykle rezygnują także z kontroli nad tym, jak to zrobić.
Ukryty koszt: A co z doświadczeniem?
Być może najważniejsze nasze odkrycie dotyczy tego, co dzieje się z doświadczeniem zawodowym w każdym trybie współpracy. Konsekwencje są diametralnie różne:
Centaury pogłębiały swoje doświadczenie w terenie – tradycyjnym „wzmacnianiu umiejętności”. Wykorzystując sztuczną inteligencję do przyspieszania uczenia się o nieznanych branżach, zdobywania wskazówek metodologicznych i doskonalenia własnego myślenia, zbudowali silniejsze, podstawowe możliwości. Nie zdobyli jednak znaczącego doświadczenia związanego z sztuczną inteligencją, ponieważ ich interakcje z sztuczną inteligencją były ograniczone i specyficzne.
Auto-Automaty nie rozwinęły żadnej z tych rzeczy bez doświadczenia tego, co nazywamy „jakimikolwiek zdolnościami”. Delegując cały proces poznawczy na sztuczną inteligencję, stracili szansę na rozwój wiedzy dziedzinowej lub biegłości w posługiwaniu się sztuczną inteligencją. Wzrost produktywności nastąpił kosztem rozwoju zawodowego.
To odkrycie powinno dać do myślenia kierownictwu. Kiedy pracownicy nie uciekają się do samoautomatycznych zachowań (co zrobiła ponad jedna czwarta naszych doskonale wyszkolonych konsultantów), organizacje mogą nieumyślnie wykorzystywać wiedzę specjalistyczną, która tworzy przewagę konkurencyjną.
Konsekwencje dla wydajności: kto robi to dobrze?
W naszym eksperymencie ocenialiśmy wyniki w dwóch wymiarach: trafności (czy polecili właściwą markę?) i perswazji (na ile przekonująca była notatka dyrektora generalnego?). Wyniki podważają uproszczone założenia dotyczące współpracy ze sztuczną inteligencją:
Centaury osiągnęły najwyższą dokładność, przewyższając zarówno cyborgi, jak i autoautomaty w uzyskiwaniu prawidłowej odpowiedzi. Zachowując kontrolę nad procesem analitycznym i kierując się własnym osądem do oceny wkładu sztucznej inteligencji, uniknęli zwiedzenia przez pewne, ale czasami błędne zalecenia sztucznej inteligencji.
Zarówno cyborgi, jak i centaury były doskonałe w perswazji, dając bardziej przekonujące wyniki niż autoautomaty. Głębokość zaangażowania, czy to poprzez iteracyjne udoskonalanie (Cyborgi), czy analizę kierowaną przez człowieka (Centaury), zaowocowała wyższą jakością wyników.
W szczególności cyborgi czasami padały ofiarą perswazji sztucznej inteligencji. Nawet jeśli stosowali najlepsze praktyki, takie jak walidacja (prosząc sztuczną inteligencję o weryfikację własnej pracy), czasami przekonywało ich pewne uzasadnienie błędnych odpowiedzi przez sztuczną inteligencję. Podkreśla to krytyczne ryzyko: wyrafinowana interakcja ze sztuczną inteligencją nie gwarantuje odporności na jej błędy.
Co firmy powinny teraz zrobić?
Odkrycia te mają bezpośrednie implikacje dla sposobu, w jaki organizacje wdrażają GenAI:
Przede wszystkim należy porzucić mit jednego podejścia, w którym uczestniczy człowiek. Menedżerowie muszą zdać sobie sprawę, że ich pracownicy już przyjmują radykalnie różne style współpracy i że te różnice mają znaczenie. Samo wymaganie „nadzoru człowieka” bez określenia, co to oznacza, przyniesie niezwykle niespójne wyniki.
Po drugie, dopasuj style współpracy do celów strategicznych. W przypadku zadań wymagających maksymalnej precyzji w podejmowaniu decyzji o wysokiej stawce zachęcaj Centaury do zachowania: selektywnego korzystania ze sztucznej inteligencji w oparciu o silny ludzki osąd. W przypadku zadań wymagających szybkiej iteracji i kreatywnej eksploracji bardziej odpowiednie może być zachowanie Cyborga. Zarezerwuj podejście do samoautomatyzacji dla naprawdę rutynowych zadań, a nie kluczowych lub ryzykownych, i gdzie rozwój umiejętności nie jest problemem.
Po trzecie, kontroluj samozadowolenie w zakresie automatyzacji. Odnotowany w naszym badaniu wskaźnik samoautomatyzacji wynoszący 27% (wśród dobrze wyszkolonych i zmotywowanych specjalistów, którzy wiedzieli, że ich wyniki są oceniane) sugeruje, że pokusa nadmiernego delegowania zadań jest potężna. Organizacje muszą opracować mechanizmy wykrywające, kiedy pracownicy zmierzają w kierunku pełnej automatyzacji zadań wymagających zaangażowania człowieka.
Po czwarte, zastanów się ponownie, w jaki sposób mierzony jest sukces wdrożenia sztucznej inteligencji. Używanie wyłącznie wyników końcowych (takich jak współczynnik edycji lub współczynnik akceptacji) jako wskaźników zaangażowania jest niewystarczające. Autoautomater, który akceptuje wyniki AI i Cyborg, który intensywnie iteruje, a następnie akceptuje udoskonaloną wersję, mogą wyglądać identycznie w danych. Firmy muszą monitorować jakość interakcji w trakcie całego przepływu pracy, a nie tylko jej wynik.
Po piąte, inwestuj w rozwój płynności sztucznej inteligencji wraz z wiedzą domenową. Z naszych ustaleń wynika, że najbardziej zrównoważone podejście łączy oba te elementy. Zachowanie cyborga rozwija zaawansowane umiejętności sztucznej inteligencji przy jednoczesnym zachowaniu wiedzy dziedzinowej; Zachowanie centaura rozwija umiejętności mistrzowskie, zapewniając jednocześnie podstawowy kontakt z sztuczną inteligencją. Firmy potrzebują programów szkoleniowych, które celowo rozwijają obie możliwości, zamiast oczekiwać, że pracownicy sami to zrozumieją.
Stawka: doświadczenie w dobie sztucznej inteligencji
W miarę ciągłego rozszerzania i ulepszania możliwości sztucznej inteligencji, sukces osiągną te organizacje, które opanują nie tylko to, co potrafi sztuczna inteligencja, ale także to, jak ludzie powinni z nią pracować. Zrozumienie, że „człowiek w pętli” to nie pojedyncze podejście, ale trzy zasadniczo różne tryby współpracy, z zasadniczo różnymi konsekwencjami, jest pierwszym krokiem w rozwijaniu tego mistrzostwa.
François Candelon jest partnerem w firmie private equity Seven2 i członkiem kadry kierowniczej w instytucie D^3 na Uniwersytecie Harvarda. Przeczytaj inne felietony Fortune autorstwa François Candelona.
Katherine Kellogg jest profesorem zarządzania i innowacji Davida J. McGratha Jr. w MIT Sloan School of Management.
Hila Lifshitz jest profesorem zarządzania w Warwick Business School, profesorem nadzwyczajnym w Harvard Innovation Sciences Laboratory i współdyrektorem AI Innovation Network.
Steven Randazzo jest doktorantem w Warwick Business School, wizytującym badaczem w Harvard Innovation Sciences Laboratory i współdyrektorem AI Innovation Network.

