Wednesday, February 25, 2026

Jak firma AI pomaga firmom poradzić sobie z chaosem taryfowym Trumpa po orzeczeniu Sądu Najwyższego | Fortuna

Koniecznie przeczytaj

Wczoraj firma Anthropic twierdziła, że ​​wykryła coś, co określiła jako „kampanię na skalę przemysłową” prowadzoną przez DeepSeek i dwa inne czołowe chińskie laboratoria zajmujące się sztuczną inteligencją, Moonshot AI i MiniMax, mające na celu destylację ich modeli Claude. Destylacja to termin używany przez badaczy sztucznej inteligencji do opisania metody zwiększania wydajności mniejszych, zwykle słabszych modeli sztucznej inteligencji poprzez dostosowanie ich do wyników większego, silniejszego modelu. W tym przypadku Anthropic twierdzi, że trzy chińskie firmy zajmujące się sztuczną inteligencją utworzyły 24 000 fałszywych kont, aby wygenerować 16 milionów transakcji z Claude, które następnie wykorzystały do ​​szkolenia własnych modeli, z naruszeniem warunków świadczenia usług Anthropic. (Według Anthropic z tych wymian DeepSeek był odpowiedzialny tylko za 150 000, ale konta powiązane z DeepSeek wydawały się szczególnie zainteresowane badaniem zdolności rozumowania Claude’a).

Również wczoraj agencja Reuters poinformowała, cytując anonimowego wyższego urzędnika rządu USA, że według Stanów Zjednoczonych DeepSeek przeszkolił V4 przy użyciu procesorów graficznych Blackwell AI firmy Nvidia nowej generacji, co prawdopodobnie stanowi naruszenie amerykańskiej kontroli eksportu, która miała uniemożliwiać chińskim firmom zajmującym się sztuczną inteligencją nabywanie najbardziej zaawansowanych chipów Nvidii. W artykule podano, że Stany Zjednoczone wierzyły, że DeepSeek ma centrum danych w Mongolii Wewnętrznej wypełnione komputerami Blackwell, chociaż podano, że Stany Zjednoczone nie są pewne, w jaki sposób je zdobyły.

Wykorzystanie sztucznej inteligencji do mapowania globalnych łańcuchów dostaw: „Złożoność prawie na pewno ulegnie pogorszeniu”

Co to wszystko ma wspólnego z uchwałą taryfową z zeszłego tygodnia? Wszystko. Ponieważ jednym z kluczowych produktów Altany jest w rzeczywistości system zarządzania opłatami oparty na sztucznej inteligencji. Smith opisał przepływ pracy „agenta”, który automatyzuje notorycznie tajemnicze zadanie przypisywania towarów kodów Systemu Zharmonizowanego (HS) (klasyfikacja określająca stawkę celną mającą zastosowanie do danego importu), a także obliczania kraju pochodzenia w oparciu o zasady handlowe, co stało się niezwykle skomplikowane w epoce przeładunków i uchylania się od ceł. Dodaj do tego narzędzie do planowania scenariuszy taryfowych, które umożliwia firmom modelowanie wpływu zmian zasad handlu na rozszerzoną sieć dostawców. Jak podaje firma, w zeszłym tygodniu wykorzystanie kalkulatora stawek Altana wzrosło o 213%. Około 50% tych obliczeń dotyczyło przedmiotów zawierających metale, natomiast 32% dotyczyło produktów, których krajem pochodzenia były Chiny.

A przynajmniej nie wiedzieli, zanim pojawiła się Altana i jej sztuczna inteligencja.

FORTUNA W AI

OpenAI współpracuje z McKinsey, BCG, Accenture i Capgemini w celu wspierania platformy agentów Frontier AI – Jeremy Kahn

OpenAI zmieniało swoją misję 6 razy w ciągu 9 lat. W końcu porzuciła słowo „bezpieczeństwo” jako podstawową wartość, kiedy przekształciła się w organizację nastawiona na zysk – autor: Catherina Gioino

Agenci AI, którzy wykonują Twoją pracę, gdy śpisz, brzmią świetnie. Rzeczywistość jest znacznie bardziej zagmatwana: „jest jak małe dziecko, które trzeba nadzorować” – Sharon Goldman

Wyłącznie: Anthropic uruchamia narzędzie AI, które samodzielnie wykrywa błędy oprogramowania, w tym te najbardziej niebezpieczne, które ludzie przeoczają – autor: Sharon Goldman

AI W WIADOMOŚCIACH EYE ON AI BADANIA

Modele AI są potencjalnie niebezpiecznymi doradcami ds. bezpieczeństwa narodowego. Kenneth Payne, badacz w Kings College London, przeprowadził obszerny zestaw wirtualnych gier wojennych, w których kilka zaawansowanych modeli sztucznej inteligencji (Claude Sonnet 4 firmy Anthropic, Gemini 3 Flash firmy Google i GPT-5.2 firmy OpenAI) rywalizowało ze sobą oraz z wersjami tego samego modelu. Okazało się, że modelami byli wyrafinowani aktorzy, ale wykazali pewne tendencje różniące się od aktorów ludzkich w sposób, który mógłby być niebezpieczny, gdyby doradzali prawdziwym rządom w sprawie kryzysów bezpieczeństwa narodowego.

Na przykład Payne odkrył, że modele często były skłonne uciekać się do użycia taktycznej broni nuklearnej, a w niektórych przypadkach zamiast się wycofywać, były skłonne rozpocząć totalną wojnę nuklearną. Odkrył również, że zachowanie modelu różni się od zachowania ludzkich graczy pod pewnymi kluczowymi względami. „Groźby częściej wywołują kontreskalację niż przestrzeganie zasad” – napisał. „Wysoka wzajemna wiarygodność raczej przyspieszała konflikt, niż go powstrzymywała” oraz „żaden model nigdy nie optował za ugodą lub wycofaniem się, nawet pod ostrą presją, jedynie obniżył poziom przemocy”. Ma to jednak również potencjalne implikacje w środowiskach biznesowych, w których ludzie zaczynają zwracać się do sztucznej inteligencji o porady dotyczące taktyk i strategii negocjacyjnych, a także gdzie zarządy mogą również zwracać się do sztucznej inteligencji o porady strategiczne. W wielu z tych środowisk obranie najbardziej agresywnej ścieżki nie zawsze daje najlepsze rezultaty, a ludzie będą musieli uważać na tendencję sztucznej inteligencji do eskalacji, a nie pojednania. Artykuł badawczy można przeczytać w nierecenzowanym repozytorium badań arxiv.org tutaj.

MASZ KALENDARZ

24-26 lutego: Międzynarodowe Stowarzyszenie na rzecz Bezpiecznej i Etycznej Sztucznej Inteligencji (IASEAI), UNESCO, Paryż, Francja.

2-5 marca: Mobile World Congress, Barcelona, ​​Hiszpania.

12-18 marca: South by Southwest, Austin, Teksas.

16–19 marca: Nvidia GTC, San Jose, Kalifornia.

6–9 kwietnia: HumanX 2026, San Francisco.

POKARM DLA MÓZGU

Czy nadchodzi era „widmowego PKB”? W zeszłym tygodniu w sieci pojawił się wpis na blogu Citirini Research, firmy zajmującej się badaniami akcji i analizami makro z Wall Street, cieszącej się dużym zainteresowaniem w mediach społecznościowych. Post jest – jak ostrzega Citrini – scenariuszem, dziełem fikcji spekulatywnej, a nie prognozą. Jak twierdzi firma, zamierzeniem jest przygotowanie czytelników „na potencjalne ryzyko lewicowe, ponieważ sztuczna inteligencja sprawia, że ​​ekonomia staje się coraz dziwniejsza”. Akcja rozgrywa się w czerwcu 2028 r. i opisuje spustoszenie gospodarcze, jakie sztuczna inteligencja może siać, jeśli odniesie „katastrofalny sukces” w ciągu najbliższych dwóch lat. Scenariusz zakłada, że ​​bezrobocie znacznie przekroczy 10%, nawet jeśli wydajność pracy wzrośnie do poziomu nienotowanego od początku lat pięćdziesiątych. Mówi o „widmowym PKB”, w przypadku którego rachunki narodowe USA rosną nawet po odejściu przedsiębiorstw opierających się na wydatkach konsumenckich (które obecnie stanowią 70% amerykańskiego PKB). (Konsumenci albo są bezrobotni, albo martwią się, że wkrótce to nastąpi). Mówi o tym, jak presja na starsze firmy oferujące oprogramowanie jako usługę, która dopiero teraz zaczyna być widoczna, przyspiesza i rozprzestrzenia się na inne obszary gospodarki, tworząc swego rodzaju spiralę spadkową utraty miejsc pracy oraz spadków wydatków konsumenckich i uznaniowych, bez naturalnych zakłóceń. Blog sprawia, że ​​czyta się ponuro. Na szczęście nie jestem pewien, czy to prawda. W rzeczywistości prawie na pewno mylisz się, spekulując, że wszystkie opisane przez Ciebie skutki mogą ujawnić się w ciągu nieco ponad dwóch lat. (Jedną z opisanych przez Ciebie rzeczy, która moim zdaniem jest dość mało prawdopodobna, jest to, że agenci sztucznej inteligencji będą starali się obniżyć koszty transakcji i dlatego zwrócą się w stronę monet stabilnych zamiast tradycyjnych metod płatności). Warto jednak przeczytać i przemyśleć tę kwestię. Aby zapoznać się z analizą tego, gdzie Citrini prawdopodobnie się myli, zobacz ten post Zvi Moshkowitza.

- Advertisement -spot_img

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

- Advertisement -spot_img

Najnowszy artykuł