Monday, March 30, 2026

Pomagałem projektować silniki rakietowe do wahadłowców kosmicznych NASA. Oto dlaczego firmy potrzebują sztucznej inteligencji tak niezawodnej jak technologia lotnicza | Fortuna

Koniecznie przeczytaj

Kiedy byłem inżynierem lotniczym pracującym nad programem wahadłowców kosmicznych NASA, zaufanie miało kluczowe znaczenie dla misji. Każda śruba, każda linia kodu, każdy system musiały zostać dokładnie sprawdzone i przetestowane, w przeciwnym razie wahadłowiec nigdy nie opuściłby wyrzutni. Po zakończeniu misji astronauci chodzili po biurze i dziękowali tysiącom inżynierów za bezpieczny dowóz ich do rodzin; Tak głęboko zakorzenione było zaufanie i bezpieczeństwo w naszych systemach.

Pomimo retoryki „szybkiego poruszania się i psucia rzeczy” technologia nie powinna się różnić. Nowe technologie muszą budować zaufanie, zanim będą mogły przyspieszyć wzrost.

Oczekuje się, że do 2027 r. około 50% firm wdroży agentów AI, a raport McKinsey przewiduje, że do 2030 r. aż 30% całej pracy będzie mogło być wykonywane przez agentów AI. Wielu liderów ds. cyberbezpieczeństwa, z którymi rozmawiam, chce jak najszybciej wdrożyć sztuczną inteligencję, aby umożliwić prowadzenie działalności gospodarczej, ale zdają sobie również sprawę, że muszą zapewnić bezpieczeństwo tej integracji przy użyciu odpowiednich barier ochronnych.

Aby sztuczna inteligencja mogła spełnić swoje obietnice, liderzy biznesu muszą jej zaufać. To nie stanie się samo. Liderzy bezpieczeństwa muszą wyciągnąć wnioski z inżynierii lotniczej i budować zaufanie do swoich procesów od pierwszego dnia, w przeciwnym razie ryzykują utratę przyspieszenia rozwoju biznesu.

Związek między pewnością siebie a wzrostem nie jest teoretyczny. Przeżyłem to.

Znalazłem biznes oparty na zaufaniu

Po zakończeniu programu wahadłowców kosmicznych NASA założyłem swoją pierwszą firmę: platformę dla profesjonalistów i studentów, umożliwiającą prezentowanie i udostępnianie dowodów potwierdzających ich umiejętności i kompetencje. Pomysł był prosty, ale wymagał od naszych klientów zaufania. Szybko odkryliśmy, że uniwersytety nie będą z nami współpracować, dopóki nie udowodnimy, że potrafimy bezpiecznie obchodzić się z wrażliwymi danymi studentów. Oznaczało to zapewnienie pewności na kilka różnych sposobów, w tym poprzez wykazanie czystego certyfikatu SOC 2, udzielenie odpowiedzi na długie kwestionariusze bezpieczeństwa i uzyskanie wielu certyfikatów zgodności w drodze żmudnych, ręcznych procesów.

To doświadczenie ukształtowało powstanie Drata, gdzie moi współzałożyciele i ja postanowiliśmy zbudować warstwę zaufania między dużymi firmami. Pomagając liderom GRC i ich firmom w uzyskaniu i zaprezentowaniu swojego stanu bezpieczeństwa klientom, partnerom i audytorom, eliminujemy tarcia i przyspieszamy rozwój. Nasza szybka zmiana rocznych przychodów powtarzalnych z 1 miliona dolarów na 100 milionów dolarów w ciągu zaledwie kilku lat jest dowodem na to, że firmy dostrzegają wartość i powoli zaczynają odchodzić od postrzegania zespołów GRC jako centrum kosztów na czynnik umożliwiający biznes. Przekłada się to na realne, wymierne rezultaty: zaobserwowaliśmy 18 miliardów dolarów przychodów związanych z bezpieczeństwem dzięki zespołom ds. bezpieczeństwa korzystającym z naszego Centrum zaufania SafeBase.

Teraz, dzięki sztucznej inteligencji, stawka jest jeszcze wyższa.

Obecne ramy i regulacje dotyczące zgodności, takie jak SOC 2, ISO 27001 i RODO, zostały zaprojektowane z myślą o prywatności i bezpieczeństwie danych, a nie z myślą o systemach sztucznej inteligencji, które generują tekst, podejmują decyzje lub działają autonomicznie.

Dzięki prawodawstwu, takiemu jak niedawno wprowadzone w Kalifornii przepisy dotyczące bezpieczeństwa sztucznej inteligencji, organy regulacyjne powoli zaczynają nadrabiać zaległości. Jednak czekanie na nowe zasady i regulacje nie wystarczy, zwłaszcza że firmy, aby pozostać na czele, polegają na nowych technologiach sztucznej inteligencji.

Nie wystrzeliłbyś nieprzetestowanej rakiety

Pod wieloma względami ta chwila przypomina mi pracę, którą wykonywałem w NASA. Jako inżynier lotniczy nigdy nie „testowałem w produkcji”. Każda misja wahadłowca była szczegółowo zaplanowaną operacją.

Wdrażanie sztucznej inteligencji bez zrozumienia i rozpoznania związanego z nią ryzyka jest jak wystrzelenie nieprzetestowanej rakiety: szkody mogą być natychmiastowe i zakończyć się katastrofalną awarią. Tak jak nieudana misja kosmiczna może zmniejszyć zaufanie ludzi do NASA, tak błąd w wykorzystaniu sztucznej inteligencji bez pełnego zrozumienia ryzyka lub zastosowania barier bezpieczeństwa może zmniejszyć zaufanie, jakie konsumenci pokładają w tej organizacji.

Teraz potrzebujemy nowego, zaufanego systemu operacyjnego. Aby zoperacjonalizować zaufanie, liderzy muszą stworzyć program, który jest:

Przezroczysty. W inżynierii lotniczej kompleksowa dokumentacja nie jest biurokracją, ale siłą napędową odpowiedzialności. To samo dotyczy sztucznej inteligencji i zaufania. Konieczna jest identyfikowalność, począwszy od polityki po kontrolę, od dowodów po certyfikację. Ciągły. Tak jak NASA stale monitoruje swoje misje 24 godziny na dobę, tak firmy muszą inwestować w zaufanie w ramach ciągłego, ciągłego procesu, a nie pola wyboru w dowolnym momencie. Na przykład kontrole powinny być stale monitorowane, tak aby gotowość do audytu stała się raczej stanem rzeczy, a nie sprintem w ostatniej chwili. Autonomiczny. Obecnie silniki rakietowe mogą samodzielnie zarządzać pracą za pomocą zintegrowanych komputerów, czujników i obwodów sterujących, bez konieczności bezpośredniej regulacji zaworów przez pilotów lub obsługę naziemną w trakcie lotu. Ponieważ sztuczna inteligencja staje się coraz bardziej rozpowszechnioną częścią codziennej działalności, musi to dotyczyć również naszych programów powierniczych. Jeśli transakcje będą przeprowadzane przez ludzi, agentów i zautomatyzowane przepływy pracy, muszą być w stanie samodzielnie zweryfikować zaufanie, w sposób deterministyczny i jednoznaczny.

Kiedy wracam pamięcią do moich dni spędzonych w lotnictwie, wyróżnia się nie tylko złożoność misji kosmicznych, ale także ich współzależność. Dziesiątki tysięcy komponentów zbudowanych przez różne zespoły muszą bezproblemowo ze sobą współpracować. Każdy zespół ufa, że ​​inni skutecznie wykonują swoją pracę, a decyzje są dokumentowane, aby zapewnić przejrzystość w całej organizacji. Innymi słowy, zaufanie było warstwą spajającą cały program promu kosmicznego.

To samo dotyczy dzisiejszej sztucznej inteligencji, zwłaszcza gdy wkraczamy w rodzącą się erę sztucznej inteligencji agentów. Przechodzimy na nowy sposób prowadzenia działalności, w którym setki (kiedyś tysiące) agentów, ludzi i systemów nieustannie wchodzą ze sobą w interakcje, generując dziesiątki tysięcy punktów kontaktowych. Narzędzia są potężne, a możliwości ogromne, ale tylko wtedy, gdy potrafimy zdobyć i utrzymać zaufanie w każdej interakcji. Firmy, które stworzą przejrzystą, ciągłą i autonomiczną kulturę zaufania, poprowadzą kolejną falę innowacji.

Przyszłość sztucznej inteligencji jest już w budowie. Pytanie jest proste: czy zbudujesz go na zaufaniu?

Opinie wyrażone w komentarzach Fortune.com są wyłącznie poglądami ich autorów i niekoniecznie odzwierciedlają opinie i przekonania Fortune.

Fortune Global Forum powraca w dniach 26–27 października 2025 r. w Riyadzie. Dyrektorzy generalni i światowi liderzy spotkają się na dynamicznym wydarzeniu dostępnym wyłącznie na zaproszenie, które ukształtuje przyszłość biznesu. Poproś o zaproszenie.

Website |  + posts
- Advertisement -spot_img
- Advertisement -spot_img

Najnowszy artykuł