Tuesday, February 17, 2026

Co zatrudnienie OpenClaw w OpenAI mówi o przyszłości agentów AI | Fortuna

Koniecznie przeczytaj

Witamy w Eye on AI, gdzie Sharon Goldman zastąpi Jeremy’ego Kahna. W tym wydaniu: Co naprawdę oznacza zatrudnienie OpenClaw przez OpenAI… Pentagon grozi karą antropiczną… Dlaczego wideo AI przedstawiające Toma Cruise’a walczącego z Bradem Pittem przeraziło Hollywood… Niepokój napędzający brutalną kulturę pracy AI.

Właśnie tego rodzaju autonomiczne zachowanie uczyniło OpenClaw interesującym dla programistów, przybliżając ich do ich marzenia o prawdziwym JARVISIE, zawsze aktywnym pomocniku z filmów Iron Man. Jednak szybko uruchomiło to alarm wśród ekspertów ds. bezpieczeństwa. W zeszłym tygodniu opisałem OpenClaw jako „złego chłopca” agentów AI, ponieważ znacznie trudniej jest zabezpieczyć asystenta, który jest trwały, autonomiczny i ma głębokie połączenia między systemami.

Niektórzy twierdzą, że zatrudnienie OpenAI to „najlepszy wynik”

To napięcie pomaga wyjaśnić, dlaczego niektórzy uważają interwencję OpenAI za niezbędny krok. „Myślę, że to prawdopodobnie najlepszy wynik dla wszystkich” – powiedział Gavriel Cohen, inżynier oprogramowania, który stworzył NanoClaw, które nazywa „bezpieczną alternatywą” dla OpenClaw. „Peter ma świetne wyczucie produktu, ale projekt stał się zbyt duży, zbyt szybki, bez wystarczającej uwagi na architekturę i bezpieczeństwo. OpenClaw jest zasadniczo niepewny i wadliwy. Nie można tego po prostu naprawić za pomocą poprawek”.

Inni uważają to posunięcie za równie strategiczne dla OpenAI. „To świetny ruch z ich strony” – powiedział William Falcon, dyrektor generalny firmy Lightning AI zajmującej się chmurą sztucznej inteligencji, skupiającej się na programistach, i stwierdził, że produkty Claude firmy Anthropic, w tym Claude Code, zdominowały segment programistów. OpenAI, wyjaśnił, chce „pozyskać wszystkich programistów, na to przeznaczana jest większość wydatków na sztuczną inteligencję”. OpenClaw, który pod wieloma względami jest alternatywą open source dla Claude Code i z dnia na dzień stał się ulubieńcem programisty, zapewnia OpenAI „darmową kartę wyjścia z więzienia” – powiedział.

Ze swojej strony Altman przedstawił zatrudnienie jako zakład na to, co będzie dalej. Powiedział, że Steinberger ma „wiele niesamowitych pomysłów” na temat interakcji agentów sztucznej inteligencji ze sobą, dodając, że „przyszłość będzie niezwykle wieloagentowa” i że takie możliwości „szybko staną się podstawą naszej oferty produktów”. OpenAI oświadczyło, że planuje utrzymać OpenClaw jako niezależny projekt open source za pośrednictwem fundacji, zamiast integrować go z własnymi produktami, co według Steinbergera miało kluczowe znaczenie dla jego decyzji o wyborze OpenAI zamiast rywali takich jak Anthropic i Meta (w wywiadzie dla Lexa Fridmana Steinberger powiedział, że Mark Zuckerberg skontaktował się z nim nawet osobiście za pośrednictwem WhatsApp).

Kolejnym etapem jest zdobycie zaufania programistów do agentów AI

Poza weekendowym szumem, zatrudnienie OpenClaw przez OpenAI daje wgląd w ewolucję kariery agenta AI. W miarę jak modele stają się coraz bardziej wymienne, konkurencja przesuwa się w stronę mniej widocznej infrastruktury, która decyduje o tym, czy agenci mogą działać niezawodnie, bezpiecznie i na dużą skalę. Zatrudniając twórcę wirusowego, ale kontrowersyjnego autonomicznego agenta, obiecując jednocześnie zachować open source projektu, OpenAI sygnalizuje, że kolejna faza sztucznej inteligencji nie będzie definiowana wyłącznie przez inteligentniejsze modele, ale poprzez zdobycie zaufania programistów, których zadaniem będzie przekształcenie eksperymentalnych agentów w niezawodne systemy.

Może to doprowadzić do fali nowych produktów, powiedział Yohei Nakajima, partner w Untapped Capital, którego eksperyment open source o nazwie BabyAGI z 2023 r. pomógł zademonstrować, w jaki sposób LLM mogą generować i wykonywać zadania autonomicznie, pomagając zapoczątkować ruch nowoczesnego agenta AI. Zarówno BabyAGI, jak i OpenClaw, powiedział, zainspirowały programistów do sprawdzenia, co jeszcze mogą zbudować przy użyciu najnowszych technologii. „Wkrótce po BabyAGI byliśmy świadkami uruchomienia pierwszej fali firm agentów: gpt-engineer (stała się Lovable), Crew AI, Manus, Genspark” – powiedział. „Mam nadzieję, że po tej ostatniej fali zobaczymy podobne nowe, inspirowane produktami”.

FORTUNA W AI

Inwestycje w sztuczną inteligencję rosną w Indiach w miarę gromadzenia się liderów technologicznych na szczycie w Delhi – autor: Beatrice Nolan

Big Tech zbliża się do momentu „czerwonej flagi”: AI CapEx jest tak duży, że hiperskalery mogą mieć negatywny wpływ na przepływy pieniężne, ostrzega Evercore – Jim Edwards

Dyrektor generalny Anthropic, Dario Amodei, wyjaśnia swoją ostrożność w wydatkach, ostrzegając, że jeśli prognozy rozwoju sztucznej inteligencji różnią się choćby o rok, „wtedy zbankrutujesz” – Jason Ma

AI W WIADOMOŚCIACH

Pentagon grozi karą antropiczną. Według Axios Pentagon grozi uznaniem Anthropic za „ryzyko łańcucha dostaw”, co jest rzadkim i karnym posunięciem, które skutecznie zmusiłoby każdą firmę współpracującą z armią amerykańską do zerwania powiązań ze start-upem zajmującym się sztuczną inteligencją. Urzędnicy obrony twierdzą, że są sfrustrowani odmową Anthropic całkowitego złagodzenia zabezpieczeń dotyczących sposobu wykorzystania jej modelu Claude (w szczególności ograniczeń mających na celu zapobieganie masowej inwigilacji Amerykanów lub opracowywaniu w pełni autonomicznej broni), argumentując, że wojsko powinno mieć możliwość korzystania ze sztucznej inteligencji do „wszystkich celów zgodnych z prawem”. Spór jest szczególnie napięty, ponieważ Claude jest obecnie jedynym modelem sztucznej inteligencji zatwierdzonym do użytku w tajnych systemach Pentagonu i jest głęboko osadzony w procesach wojskowych, co oznacza, że ​​nagła przerwa byłaby kosztowna i destrukcyjna. Spór podkreśla rosnące napięcie między laboratoriami sztucznej inteligencji, które chcą narzucić ograniczenia etyczne, a amerykańskim establishmentem wojskowym, który coraz bardziej skłonny jest do ostrej gry, dążąc do szerszej kontroli nad potężnymi narzędziami sztucznej inteligencji.

Niepokój napędzający brutalną kulturę pracy AI. Jeśli kiedykolwiek martwiłeś się o równowagę między życiem zawodowym a prywatnym, myślę, że po przeczytaniu tego artykułu poczujesz się lepiej. Według The Guardian w dynamicznie rozwijającej się gospodarce opartej na sztucznej inteligencji w San Francisco długotrwałe zalety i elastyczna kultura sektora technologicznego zostają zastąpione bezlitosnymi, wymagającymi oczekiwaniami, ponieważ start-upy zmuszają pracowników do długich godzin pracy, niewielkiej ilości urlopów i ogromnej presji produktywności w imię dotrzymania kroku szybkiemu postępowi i intensywnej konkurencji. Pracownicy opisują 12-godzinne dni pracy, sześciodniowe tygodnie i środowiska, w których opuszczanie weekendów lub życia towarzyskiego wydaje się być ceną za pozostanie istotnym, nawet gdy rosną obawy dotyczące bezpieczeństwa pracy i wpływu sztucznej inteligencji na przyszłe role. Ta zmiana odzwierciedla szerszą transformację sposobu, w jaki ceni się pracę AI, transformację, która zmienia normy w miejscu pracy i może zwiastować podobną presję w innych sektorach w miarę przyspieszania automatyzacji i innowacji. Następnym razem, gdy będę w Zatoce, zdecydowanie będę musiał zobaczyć, jak to wygląda na ziemi.

BADANIA AI NA OKO

DEF CON, największa i najdłużej działająca konferencja hakerska na świecie, opublikowała swój najnowszy Hackers’ Almanack – roczny raport podsumowujący badania przedstawione w najnowszym wydaniu z sierpnia 2025 r. Raport skupiał się na tym, jak badacze wykazali, że systemy sztucznej inteligencji nie tylko pomagają ludziom szybciej hakować, ale czasami mogą je przewyższyć. W kilku konkursach dotyczących cyberbezpieczeństwa zespoły korzystające z agentów sztucznej inteligencji pokonały zespoły składające się wyłącznie z ludzi, a w jednym przypadku sztuczna inteligencja mogła działać samodzielnie i skutecznie włamać się do systemu docelowego bez dalszej interwencji człowieka. Naukowcy zademonstrowali także narzędzia sztucznej inteligencji, które potrafią na dużą skalę znajdować wady oprogramowania, naśladować ludzki głos i manipulować systemami uczenia maszynowego, podkreślając, jak szybko postępują ofensywne zastosowania sztucznej inteligencji.

Naukowcy utrzymują, że problem polega na tym, że większość decydentów ma niewielki wgląd w te możliwości, co zwiększa ryzyko wprowadzenia w błąd zasad dotyczących sztucznej inteligencji. Ich propozycja: umożliwić systemom sztucznej inteligencji otwarte konkurowanie w publicznych konkursach hakerskich, rejestrować wyniki w otwartej, współdzielonej bazie danych i wykorzystywać dowody ze świata rzeczywistego, aby pomóc rządom w opracowywaniu mądrzejszych i bardziej realistycznych polityk bezpieczeństwa sztucznej inteligencji.

MASZ KALENDARZ

16–20 lutego: Szczyt dotyczący wpływu sztucznej inteligencji w Indiach 2026, Delhi.

24-26 lutego: Międzynarodowe Stowarzyszenie na rzecz Bezpiecznej i Etycznej Sztucznej Inteligencji (IASEAI), UNESCO, Paryż, Francja.

2-5 marca: Mobile World Congress, Barcelona, ​​Hiszpania.

12-18 marca: South by Southwest, Austin, Teksas.

16–19 marca: Nvidia GTC, San Jose, Kalifornia.

6-9 kwietnia: HumanX, San Francisco

POKARM DLA MÓZGU

Dylemat zaufania, gdy AI wchodzi do sali egzaminacyjnej. Zafascynował mnie nowy artykuł w czasopiśmie „Scientific American”, w którym zauważono, że w miarę jak sztuczna inteligencja coraz głębiej wnika w opiekę kliniczną, pielęgniarki znajdują się na pierwszej linii frontu przed nowym dylematem dotyczącym zaufania: czy powinny stosować się do poleceń generowanych przez algorytmy, gdy osądy w świecie rzeczywistym mówią inaczej? Na przykład alert dotyczący sepsy skłonił zespół ratunkowy do podania płynów pacjentowi z uszkodzonymi nerkami, dopóki pielęgniarka nie odmówiła, a lekarz nie zignorował sztucznej inteligencji. W artykule stwierdzono, że w szpitalach w USA modele predykcyjne są obecnie zintegrowane ze wszystkim, od oceny ryzyka i dokumentacji po logistykę, a nawet autonomiczne odnawianie recept, ale personel pierwszej linii coraz częściej narzeka, że ​​narzędzia te zawodzą, brakuje im przejrzystości, a czasami podważają ocenę kliniczną. To tarcie wywołało protesty i strajki, a zwolennicy tej technologii nalegają, aby pielęgniarki musiały brać udział w podejmowaniu decyzji dotyczących sztucznej inteligencji, ponieważ ostatecznie to ludzie ponoszą jej skutki.

- Advertisement -spot_img

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

- Advertisement -spot_img

Najnowszy artykuł