Thursday, February 26, 2026

Mężczyzna przypadkowo uzyskał dostęp do tysięcy robotów sprzątających, narażając ryzyko cyber koszmaru AI, przed którym stoją miliony Amerykanów | Fortuna

Koniecznie przeczytaj

Kiedy inżynier oprogramowania Sammy Azdoufal zasiadł do prowadzenia swojego nowego robota odkurzającego DJI Romo z kontrolerem gier wideo PlayStation 5, nie spodziewał się, że przypadkowo przejmie globalną sieć monitoringu. Wykorzystując asystenta kodowania AI do inżynierii wstecznej sposobu, w jaki odkurzacz komunikuje się ze zdalnymi serwerami DJI, Azdoufal wyodrębnił token bezpieczeństwa, który miał udowodnić własność jego konkretnego urządzenia. Zamiast tego, jak donosi Popular Science, serwery backendowe potraktowały go jak właściciela blisko 7 tysięcy robotów sprzątających działających w 24 krajach.

Za pomocą kilku naciśnięć klawiszy Azdoufal odkrył, że może uzyskać dostęp do obrazu z kamer na żywo, aktywować mikrofony, a nawet stworzyć dwuwymiarowe plany pięter prywatnych domów nieznajomych. Chociaż w sposób odpowiedzialny zgłosiliśmy błąd bezpieczeństwa (do The Verge), zamiast go wykorzystać, ta zdumiewająca luka uwydatnia przerażającą rzeczywistość: szybka i niekontrolowana integracja zautomatyzowanych systemów powoduje ogromne, bezprecedensowe naruszenie bezpieczeństwa.

Miliony Amerykanów coraz częściej zapraszają urządzenia podłączone do Internetu do swoich najbardziej intymnych przestrzeni. Według Parks Associates w 2020 r. w około 54 milionach amerykańskich domów zainstalowano co najmniej jedno urządzenie inteligentnego domu. Ponadto firmy takie jak Tesla, Figura i 1X ścigają się, aby wprowadzić wyrafinowane humanoidalne roboty autonomiczne, które mogą mieszkać w domach i wykonywać złożone zadania.

Możliwości nadzoru inteligentnych urządzeń stały się tematem dyskusji w całym kraju na początku tego roku, kiedy urządzenie Google Nest najwyraźniej przechowywało w chmurze materiał filmowy przedstawiający rzekome porwanie Nancy Guthrie, matki gospodarzy programu Today Savannah Guthrie. Niedługo potem pojawiła się reklama produktu Ring na Amazon Super Bowl, która rzekomo przedstawiała urocze ratowanie zagubionego psa, ale w rzeczywistości ujawniła, że ​​wszędzie istnieją kamery sieciowe zdolne do szpiegowania Amerykanów. Ta reakcja najwyraźniej skłoniła Amazon do zaprzestania współpracy z policyjną firmą monitorującą. Po dodaniu do tego autonomicznych agentów sztucznej inteligencji powstaje scenariusz, który gigant cyberbezpieczeństwa Thales opisuje jako koszmarny scenariusz.

Koszmarny scenariusz tuż za rogiem

Według niedawno opublikowanego raportu Thales Data Threat Report 2026, aż 70% organizacji wyraźnie wskazuje sztuczną inteligencję jako największe zagrożenie dla bezpieczeństwa danych. I podobnie jak odkurzacze DJI, które opierają się na zdalnych serwerach w chmurze, firmy chętnie włączają sztuczną inteligencję do swoich codziennych przepływów pracy, zapewniając zautomatyzowanym systemom szeroki dostęp do rozszerzających się danych biznesowych.

Podstawowym problemem jest zaskakujący brak widoczności i kontroli krytycznych danych. Z raportu Thales wynika, że ​​tylko 34% organizacji faktycznie wie, gdzie znajdują się wszystkie ich wrażliwe dane. A ponieważ systemy sztucznej inteligencji nieustannie przetwarzają informacje i działają na nich w rozległych środowiskach chmurowych, niezwykle trudno jest wymusić „dostęp z najniższymi uprawnieniami”, czyli praktykę przyznawania jedynie minimalnych niezbędnych praw dostępu. Jeśli poświadczenia maszyny (takie jak tokeny lub klucze API) zostaną naruszone, ujawnienie danych może być druzgocące.

W rzeczywistości kradzież danych uwierzytelniających jest obecnie wiodącą techniką ataku na infrastrukturę zarządzania chmurą, wskazywaną przez 67% organizacji, które padły ofiarą ataków w chmurze. Wyobraź sobie nie tylko 7 000 automatycznych odkurzaczy, ale urządzenia Nest lub Ring całej społeczności, kontrolowane przez agenta AI.

Rodney Brooks, współzałożyciel firmy iRobot, twórca odkurzacza Roomba, powiedział, że wizja Elona Muska dotycząca przyszłości napędzanej przez humanoidalne roboty to „czysta fantazja”, ponieważ są one zbyt niezdarne.

„Dzisiejsze roboty humanoidalne nie nauczą się zręczności pomimo setek milionów, a może wielu miliardów dolarów ofiarowanych przez inwestorów kapitału wysokiego ryzyka i duże firmy technologiczne na opłacenie ich szkolenia” – napisał Brooks w poście na blogu. Nie jest jasne, czy to myślenie dotyczy człowieka, czy agenta AI zdalnie kontrolującego robota.

„Ryzyko wewnętrzne nie dotyczy już tylko ludzi. Chodzi także o zautomatyzowane systemy, którym zbyt szybko zaufano” – ostrzegł Sébastien Cano, starszy wiceprezes ds. produktów cyberbezpieczeństwa w firmie Thales. Cano zauważa, że ​​gdy podstawowe środki bezpieczeństwa, takie jak zarządzanie tożsamością i zasady dostępu, są słabe, „sztuczna inteligencja może wzmocnić te słabości w środowiskach korporacyjnych znacznie szybciej niż jakikolwiek człowiek”.

Co gorsza, te same narzędzia używane do tworzenia oprogramowania obniżają barierę wejścia na rynek w celu wykorzystania tych systemów. Narzędzia do kodowania oparte na sztucznej inteligencji, takie jak to, którego Azdoufal używał do inżynierii wstecznej serwerów DJI, znacznie ułatwiają mniej doświadczonym technicznie osobom odkrywanie i wykorzystywanie wad oprogramowania. Pomimo tych rosnących zautomatyzowanych zagrożeń tylko 30% ankietowanych firm dysponuje obecnie budżetem przeznaczonym na bezpieczeństwo sztucznej inteligencji i zamiast tego polega na tradycyjnych zabezpieczeniach obwodowych budowanych dla użytkowników.

Jak zauważył Eric Hanselman, główny analityk 451 Research firmy S&P Global, pilnie konieczna jest fundamentalna zmiana paradygmatu.

„W miarę jak sztuczna inteligencja staje się głęboko zintegrowana z operacjami biznesowymi, ciągła widoczność i ochrona danych nie jest już opcjonalna” – powiedział Hanselman.

Bez radykalnego przemyślenia protokołów tożsamości i szyfrowania społeczeństwo zasadniczo pozostawia szeroko otwarte drzwi dla przysłowiowego kolejnego inżyniera oprogramowania posiadającego kontroler gier wideo.

- Advertisement -spot_img

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

- Advertisement -spot_img

Najnowszy artykuł