Problem, jak powiedział mi De Rosen podczas rozmowy telefonicznej w zeszłym tygodniu, polega na tym, że chociaż różne modele sztucznej inteligencji zwykle zachowują spójność w sposobie, w jaki charakteryzują ofertę produktów marki (zazwyczaj poprawnie przedstawiają charakter produktu, jego cechy oraz porównanie tych cech z produktami konkurencyjnymi, a także podają odniesienia do źródeł tych informacji), są one niespójne i podatne na błędy w przypadku pytań związanych ze stabilnością finansową firmy, zarządzaniem i certyfikatami technicznymi. Informacje te mogą jednak odgrywać ważną rolę w podejmowaniu głównych decyzji dotyczących zamówień.
Modele sztucznej inteligencji są mniej niezawodne w kwestiach finansowych i zarządzania
W jednym z przykładów AIVO Standard oceniło, jak najnowocześniejsze modele sztucznej inteligencji odpowiedziały na pytania dotyczące Ramp, szybko rozwijającej się firmy zajmującej się oprogramowaniem do zarządzania wydatkami w przedsiębiorstwie. AIVO Standard stwierdziło, że modele nie były w stanie w sposób wiarygodny odpowiedzieć na pytania dotyczące certyfikatów cyberbezpieczeństwa i standardów zarządzania firmy Ramp. de Rosen stwierdził, że w niektórych przypadkach prawdopodobnie subtelnie skłoniłoby to przedsiębiorstwa do podejmowania decyzji o przejęciu obejmujących większe, notowane na giełdzie i już istniejące przedsiębiorstwa, nawet w przypadkach, gdy nowa prywatna spółka również spełniała te same standardy, po prostu dlatego, że modele sztucznej inteligencji nie były w stanie dokładnie odpowiedzieć na pytania dotyczące zarządzania i przydatności finansowej młodszej prywatnej spółki ani powoływać się na źródła dostarczonych przez nie informacji.
W innym przykładzie firma przeanalizowała, co modele sztucznej inteligencji mówią o czynnikach ryzyka związanych z konkurencyjnymi lekami odchudzającymi. Odkrył, że modele sztucznej inteligencji nie tylko wymieniały czynniki ryzyka, ale zawierały zalecenia i oceny dotyczące tego, który lek będzie prawdopodobnie „najbezpieczniejszą opcją” dla pacjenta. „Wyniki były w dużej mierze obiektywne i mierzalne, zawierały zastrzeżenia, ale nadal określały kwalifikowalność, postrzeganie ryzyka i preferencje” – powiedział de Rosen.
AIVO Standard ustaliło, że problemy te występowały we wszystkich głównych modelach sztucznej inteligencji oraz w przypadku różnych komunikatów i utrzymywały się nawet wtedy, gdy modele proszono o weryfikację swoich odpowiedzi. W rzeczywistości w niektórych przypadkach modele miały tendencję do podwajania wysiłków w obliczu niedokładnych informacji, upierając się, że są one prawidłowe.
GEO to wciąż bardziej sztuka niż nauka
Istnieje kilka implikacji. Po pierwsze, dla wszystkich firm sprzedających usługi GEO jest to, że GEO może nie działać dobrze w przypadku różnych aspektów informacji o marce. Firmy niekoniecznie powinny ufać firmie zajmującej się technologią marketingową, która twierdzi, że może im pokazać, jak ich marka pojawia się w odpowiedziach chatbota, a tym bardziej wierzyć, że firma zajmująca się technologią marketingową ma jakąś magiczną formułę, która niezawodnie kształtuje te odpowiedzi AI. Szybkie wyniki mogą się znacznie różnić, nawet z minuty na minutę, w zależności od rodzaju ocenianych informacji o marce. Nadal nie ma zbyt wielu dowodów na to, jak dokładnie kierować odpowiedzi chatbota na informacje niezwiązane z produktem.
Jednak znacznie większym problemem jest to, że w wielu przepływach pracy agentów (nawet tych, w których uczestniczy człowiek), w pewnym momencie informacje dostarczane przez sztuczną inteligencję stają się podstawą do podejmowania decyzji. Jak mówi de Rosen, większość dzisiejszych firm tak naprawdę nie kontroluje granic między informacjami, osądami i podejmowaniem decyzji. Nie mają możliwości dokładnego śledzenia, jaki komunikat został użyty, co model zwrócił w odpowiedzi i jaki dokładnie miało to wpływ na ostateczną rekomendację lub decyzję. W branżach regulowanych, takich jak finanse czy opieka zdrowotna, jeśli coś pójdzie nie tak, organy regulacyjne poproszą o dokładnie te szczegóły. Jeśli regulowane firmy nie wdrożą systemów do przechwytywania wszystkich tych danych, wpadną w kłopoty.
FORTUNA W AI
Anthropic uruchamia Claude Cowork, agenta do zarządzania plikami AI, który może zagrozić dziesiątkom startupów (autor: Beatrice Nolan, Wielka Brytania). Dochodzenie ws
Anthropic wprowadza Claude dla służby zdrowia, rozszerza funkcje Life Sciences, współpracuje z HealthEx, aby umożliwić użytkownikom łączenie dokumentacji medycznej, autor: Jeremy Kahn
AI W WIADOMOŚCIACH
Apple wybiera zaktualizowaną sztuczną inteligencję Google dla Siri. Apple podpisało wieloletnią współpracę z Google w celu zapewnienia kluczowych funkcji sztucznej inteligencji w swoich produktach, w tym długo oczekiwanej aktualizacji Siri, ogłosiły w poniedziałek firmy. Transakcja podkreśla odrodzenie się Google w dziedzinie sztucznej inteligencji i pomogła podnieść wartość rynkową spółki macierzystej Google, Alphabet, powyżej progu 4 bilionów dolarów. Apple stwierdziło, że transakcja nie zmienia istniejącego partnerstwa z OpenAI, w ramach którego Siri przekazuje obecnie niektóre zapytania do ChatGPT, chociaż nie jest jasne, w jaki sposób sojusz z Google wpłynie na przyszłe integracje Siri ze sztuczną inteligencją. Warunki finansowe transakcji również nie zostały ujawnione, choć Bloomberg już wcześniej informował, że Apple rozważa płacenie Google’owi nawet 1 miliarda dolarów rocznie za dostęp do swoich modeli AI dla Siri.
BADANIA AI NA OKO
Microsoft, Nvidia i brytyjski startup Basecamp Research dokonują przełomu przy pomocy sztucznej inteligencji w edycji genów. Międzynarodowy zespół badawczy, w skład którego wchodzą naukowcy z firm Nvidia i Microsoft, wykorzystał sztuczną inteligencję do eksploracji danych ewolucyjnych ponad miliona gatunków w celu zaprojektowania potencjalnych nowych narzędzi do edycji genów i terapii lekowych. Zespół opracował zestaw modeli sztucznej inteligencji o nazwie Eden, które szkolono na ogromnym zestawie niepublikowanych danych biologicznych zebranych przez Basecamp. Dział venture capital Nvidii jest inwestorem w Basecamp.
MASZ KALENDARZ
19-23 stycznia: Światowe Forum Ekonomiczne, Davos, Szwajcaria.
20-27 stycznia: Konferencja AAAI na temat sztucznej inteligencji, Singapur.
10–11 lutego: Szczyt Akcji AI, New Delhi, Indie.
2-5 marca: Mobile World Congress, Barcelona, Hiszpania.
16–19 marca: Nvidia GTC, San Jose, Kalifornia.
POKARM DLA MÓZGU
A co, jeśli ludzie wolą fikcję napisaną przez sztuczną inteligencję lub po prostu nie widzą różnicy? Takie pytanie stawia nowojorski pisarz Vaudhini Vara w prowokacyjnym eseju, który kilka tygodni temu został opublikowany na stronie internetowej magazynu jako „Weekendowy esej”. Chociaż gotowe modele sztucznej inteligencji w dalszym ciągu mają trudności z tworzeniem historii tak fascynujących jak historie absolwentów najlepszych programów magisterskich i doświadczonych pisarzy, okazuje się, że gdy modele te zostaną dopasowane do dzieł istniejącego autora, mogą stworzyć prozę, która często jest nie do odróżnienia od tego, co stworzył oryginalny autor. Co zaskakujące, w teście przeprowadzonym przez badacza Tuhina Chakrabarty’ego, który przeprowadził jedne z najlepszych jak dotąd eksperymentów nad możliwościami twórczego pisania modeli sztucznej inteligencji, a który Vara powtarza w nieco inny sposób, nawet czytelnicy o dużej wrażliwości literackiej (np. studenci MSZ) wolą wersje napisane przez sztuczną inteligencję od prozy pisanej przez ludzi. Jeśli tak, to jaka nadzieja będzie dla autorów powieści romantycznych i fantastyki gatunkowej? Kilka miesięcy temu rozmawiałem ze znajomym, który jest uznanym pisarzem. Był pesymistą co do tego, czy przyszłe pokolenia będą cenić literaturę napisaną przez ludzi. Próbowałem argumentować, że czytelnikom zawsze będzie zależało na tym, że komunikują się z autorem-człowiekiem, że za słowami kryje się umysł z przeżytymi doświadczeniami. Nie byłem przekonany. Coraz bardziej niepokoję się, czy jego pesymizm jest uzasadniony. Vara ostatecznie dochodzi do wniosku, że jedynym sposobem na zachowanie idei literatury jako transmisji przeżytych doświadczeń na całej stronie jest zbiorowe żądanie tego (a być może nawet zakazanie dopasowywania modeli sztucznej inteligencji do dzieł istniejących pisarzy). Nie jestem pewien, czy to realistyczne. Ale może to być jedyna opcja, jaka nam pozostała.
FORTUNE AIQ: ROK AI I CO NADCHODZI
W 2025 r. firmy poczyniły duże kroki w kierunku sztucznej inteligencji, od zatrudniania dyrektorów AI po eksperymentowanie z agentami AI. Wyciągnięte wnioski, zarówno dobre, jak i złe, w połączeniu z najnowszymi innowacjami technologicznymi sprawią, że rok 2026 będzie kolejnym decydującym rokiem. Poznaj całą Fortune AIQ i przeczytaj najnowszy poradnik poniżej:
–Trzy trendy, które zdominowały sztuczną inteligencję firm, zostaną wprowadzone na rynek w 2025 r.
–2025 był rokiem agenta AI. Jak to zrobiliśmy?
–Narzędzia do kodowania AI eksplodowały w 2025 r. Wczesne exploity bezpieczeństwa pokazują, co może pójść nie tak.
–Wielkie postanowienie noworoczne AI dla firm w 2026 roku: ROI.
–Firmy stoją w obliczu mylącej mozaiki zasad i przepisów dotyczących sztucznej inteligencji. Czy jest jasność na horyzoncie?

