Saturday, April 11, 2026

Sztuczna inteligencja, która znalazła 27-letnie luki w zabezpieczeniach, których żaden człowiek wcześniej nie wykrył, właśnie wymusiła nadzwyczajne spotkanie ze wszystkimi czołowymi dyrektorami generalnymi Wall Street | Fortuna

Koniecznie przeczytaj

Sekretarz skarbu Scott Bessent i przewodniczący Rezerwy Federalnej Jerome Powell wezwali we wtorek przywódców Wall Street na nadzwyczajne spotkanie w sprawie najnowszego modelu sztucznej inteligencji Anthropic, wyrażając obawy dotyczące zwiększonego ryzyka cyberbezpieczeństwa.

Bessent i Powell zgromadzili grupę wpływowych menedżerów w centrali Departamentu Skarbu, aby upewnić się, że banki są świadome zagrożeń cybernetycznych, jakie stwarza nowy model Anthropic, Mythos, i podobne przyszłe modele, podają Bloomberg i Financial Times. Źródła, które rozmawiały z Bloombergiem, podały, że wśród uczestników byli dyrektor generalna Citigroup Jane Fraser, dyrektor generalny Morgan Stanley Ted Pick, dyrektor generalny Bank of America Brian Moynihan, dyrektor generalny Wells Fargo Charlie Scharf i dyrektor generalny Goldman Sachs David Solomon. Źródła podają, że zaproszony został także dyrektor generalny JPMorgan Jamie Dimon, ale nie mógł w nim uczestniczyć.

Rezerwa Federalna odmówiła komentarza „Fortune”. Ministerstwo Skarbu nie odpowiedziało natychmiast na prośbę Fortune o komentarz.

Do spotkania doszło zaledwie kilka tygodni po tym, jak magazyn „Fortune” poinformował wyłącznie, że Anthropic opracowuje niewydany jeszcze model, opisany przez firmę jako „zdecydowanie najpotężniejszy model sztucznej inteligencji”, jaki kiedykolwiek opracowała, o istnieniu którego Anthropic nieumyślnie upubliczniła w zeszłym miesiącu za pośrednictwem swojego systemu zarządzania treścią. Firma później rozpoznała ten model jako Claude Mythos.

We wtorek firma Anthropic opublikowała raport zatytułowany „Assessing the Cybersecurity Capabilities of Claude Mythos Preview”, w którym odnotowuje, jak modelowi udało się znaleźć wiele luk sprzed 10 i 20 lat, a także lukę sprzed 27 lat w OpenBSD – systemie operacyjnym cieszącym się reputacją jednego z najbezpieczniejszych.

Anthropic poinformowało urzędników wyższego szczebla rządu USA i zainteresowane strony z branży o możliwościach Mythos Preview przed jego premierą, powiedziała Fortune osoba posiadająca wiedzę w tej kwestii. W poście na blogu firma oświadczyła, że ​​jest gotowa współpracować z urzędnikami na wszystkich szczeblach władzy, aby zapewnić, że bezpieczeństwo narodowe będzie priorytetem przy wdrażaniu nowych modeli sztucznej inteligencji oraz że Stany Zjednoczone utrzymają wiodącą pozycję w technologiach sztucznej inteligencji.

Anthropic powiedział Fortune, że od początku planem firmy była współpraca z rządem (firma toczy obecnie spór prawny z Pentagonem po tym, jak Departament Obrony umieścił ją na czarnej liście za nakładanie ograniczeń na korzystanie z technologii sztucznej inteligencji).

Nowy model sztucznej inteligencji firmy Anthropic może „przekształcić cyberbezpieczeństwo” i dlatego uruchomiono projekt Glasswing

We współpracy z JPMorgan Chase, Amazon i Google, a także innymi kluczowymi firmami technologicznymi, firma Anthropic uruchomiła w tym tygodniu Project Glasswing, inicjatywę mającą na celu ochronę krytycznego oprogramowania w obliczu postępu AI. W ramach partnerstwa Anthropic stwierdziła w poście na blogu, że podzieli się zdobytą wiedzą z branżami technologii i usług finansowych.

Oprócz swoich partnerów firma rozszerzyła dostęp do 40 dodatkowych organizacji budujących lub wdrażających krytyczną infrastrukturę oprogramowania i przeznaczyła do 100 milionów dolarów na wykorzystanie Mythos Preview, najbardziej podstawowej jednostki wykorzystania sztucznej inteligencji. Anthropic zauważyła, że ​​projekt został uruchomiony w odpowiedzi na możliwości, które firma dostrzegła w swoim nowym, pionierskim modelu Mythos, który jego zdaniem może „przekształcić cyberbezpieczeństwo”.

„Biorąc pod uwagę tempo postępu sztucznej inteligencji, nie minie dużo czasu, zanim takie możliwości się rozprzestrzenią, potencjalnie wykraczając poza podmioty zaangażowane w ich bezpieczne wdrażanie” – ostrzeżono w publikacji. „Konsekwencje (dla gospodarki, bezpieczeństwa publicznego i bezpieczeństwa narodowego) mogą być poważne”.

We wtorkowym komunikacie firma Anthropic poinformowała, że ​​początkowo udostępni nowy model ograniczonej grupie partnerów branżowych, aby „umożliwić obrońcom rozpoczęcie ochrony krytycznych systemów, zanim modele o podobnych możliwościach staną się powszechnie dostępne”.

Inni liderzy biznesowi podnieśli alarm w związku z zagrożeniami dla bezpieczeństwa cybernetycznego stwarzanymi przez potężne modele sztucznej inteligencji. W swoim corocznym liście do akcjonariuszy Dimon nakreślił zagrożenia dla bezpieczeństwa cybernetycznego, na jakie narażone są główne gałęzie przemysłu i korporacje ze względu na sztuczną inteligencję, stwierdzając, że cyberbezpieczeństwo „pozostaje jednym z naszych największych zagrożeń”. Dodał: „Sztuczna inteligencja prawie na pewno pogorszy to ryzyko”.

W ramach Projektu Glasswing JPMorgan dąży do ograniczenia zagrożeń cybernetycznych wynikających z szybko rozwijających się możliwości sztucznej inteligencji. „Promowanie cyberbezpieczeństwa i odporności systemu finansowego jest podstawą misji JPMorgan Chase i wierzymy, że branża staje się silniejsza, gdy wiodące instytucje współpracują ze sobą nad wspólnymi wyzwaniami” – stwierdził w oświadczeniu Pat Opet, dyrektor ds. bezpieczeństwa informacji w JPMorgan.

„Projekt Glasswing oferuje wyjątkową możliwość oceny na wczesnym etapie narzędzi sztucznej inteligencji nowej generacji pod kątem cyberbezpieczeństwa defensywnego w infrastrukturze krytycznej, zarówno na naszych własnych warunkach, jak i we współpracy z szanowanymi liderami technologii” – dodał.

Website |  + posts
- Advertisement -spot_img
- Advertisement -spot_img

Najnowszy artykuł