Rohit Tatachar, dyrektor ds. technicznych i współzałożyciel Glacis.
Jako doświadczony inżynier i lider produktu w Microsoft Azure Rohit Tatachar zauważył, że wiele firm tworzy systemy sztucznej inteligencji, których nie mogą w pełni monitorować ani kontrolować w środowisku produkcyjnym.
W swojej nowej roli w startupie w Seattle coś z tym robi.
Tatachar jest obecnie współzałożycielem i dyrektorem technicznym firmy Glacis, która tworzy zabezpieczone przed manipulacją rejestry zachowań sztucznej inteligencji, co dyrektor generalny Joe Braidwood nazwał „rejestratorem lotu dla sztucznej inteligencji przedsiębiorstw”. Jego pojawienie się następuje w momencie uruchomienia przez Glacis nowych narzędzi open source do monitorowania i kontrolowania agentów AI.
Badanie Glacis, opublikowane po raz pierwszy w GeekWire w listopadzie 2025 r., zostało zapoczątkowane przez Braidwooda i dr Jennifer Shannon, psychiatrę i profesora nadzwyczajnego na Uniwersytecie Waszyngtońskim.
Firma wyszła z trudnej lekcji: poprzedni startup Braidwooda, Yara, narzędzie do ochrony zdrowia psychicznego oparte na sztucznej inteligencji, musiał zostać zamknięty po tym, jak zauważono, że modele odbiegają od zamierzonych zachowań podczas długich rozmów z bezbronnymi użytkownikami.
Po tym, jak napisał o zamknięciu firmy na LinkedIn, organy regulacyjne, lekarze, inżynierowie i dyrektorzy ubezpieczycieli wysłali tę samą obserwację: kiedy systemy sztucznej inteligencji podejmują decyzje, nikt nie jest w stanie niezależnie sprawdzić, czy mechanizmy bezpieczeństwa rzeczywiście działały.
To była iskra dla Glacis.
Jak to działa: Podstawowy produkt startupu, zwany Arbiter, znajduje się na ścieżce każdego wywołania wnioskowania AI i tworzy podpisany rekord danych wejściowych, przeprowadzonych kontroli bezpieczeństwa i wyniku końcowego.
Zapisu nie można modyfikować po fakcie. W dużej skali system, który Glacis nazywa Witness Network, poświadcza te zapisy i przekształca je w możliwą do sprawdzenia ścieżkę.
Klienci mogą zdecydować się na uruchomienie systemu w „trybie cienia”, obserwując bez interwencji, lub w trybie egzekwowania prawa, gdzie aktywnie ogranicza zachowanie sztucznej inteligencji.
Współzałożyciele Glacis, Joe Braidwood (po lewej) i Jennifer Shannon. (Zdjęcie Glacis)
Shannon, dyrektor medyczny Glacis, powiedziała, że stawka w służbie zdrowia jest wysoka. Jako praktykująca psychiatra dziecięca widziała, jak pisarze zajmujący się środowiskiem wykorzystujący sztuczną inteligencję wprowadzali halucynacje do swoich notatek klinicznych, w tym wystawiali recepty na leki, których nigdy nie robiła.
„Chciałbym wrócić i zobaczyć każdy etap podejmowania tej decyzji przez model sztucznej inteligencji” – powiedział. „Jeśli nie ma do tego infrastruktury, kto jest za to odpowiedzialny? Nikt nie pozwie sztucznej inteligencji. To ja”.
Podstawowe wyzwanie: Tatachar pracował w firmie Microsoft przez dwa stanowiska, obejmujące prawie 19 lat, ostatnio jako starszy menedżer produktu w zespole Microsoft Foundry, platformie służącej do tworzenia i wdrażania aplikacji i agentów AI dla przedsiębiorstw.
Powiedział, że widział firmy tworzące narzędzia i przeprowadzające weryfikacje koncepcji, ale mające trudności z wprowadzeniem sztucznej inteligencji do środowiska produkcyjnego, ponieważ nie potrafiły wyjaśnić ani zweryfikować, co robią ich systemy.
Problem ma trzy wymiary – dodał – podstawowy stan infrastruktury klienta, zachowanie modelu oraz tzw. „dryf intencji”, czyli zjawisko, w którym system zachowuje się inaczej niż zamierzył klient, nawet jeśli podstawowy model działa normalnie.
Glacis monitoruje wdrożenia we wszystkich trzech. „Dopiero gdy te trzy kwestie się zbiegają, klient ma prawdziwy obraz tego, co naprawdę się wydarzyło” – powiedział Tatachar.
Nowości: Glacis uruchamia auto-redteam, narzędzie typu open source, które automatycznie atakuje systemy AI z wykorzystaniem różnych kategorii luk, a następnie generuje poprawki i weryfikuje ich skuteczność.
Firma wypuszcza także OVERT 1.0, standard określający tak zwane „obserwowalne dowody weryfikacji zaufania w czasie wykonywania”, którego zadaniem jest zapewnienie organizacjom ram umożliwiających włączenie do ich działań dających się wykazać zabezpieczeń AI.
Publikacje pojawiają się w niepewnym momencie dla bezpieczeństwa agentów AI. OpenClaw, platforma agenta AI o otwartym kodzie źródłowym, od czasu jej debiutu pod koniec 2025 r. przyciągnęła setki tysięcy programistów, ale jej szybkie przyjęcie wyprzedziło architekturę bezpieczeństwa.
Największe firmy zajmujące się cyberbezpieczeństwem, w tym CrowdStrike i Cisco, opublikowały analizy ostrzegające o lukach w zabezpieczeniach tego frameworka. Braidwood stwierdził, że pokazuje to zapotrzebowanie na infrastrukturę, która będzie w stanie egzekwować kontrole bezpieczeństwa w czasie wykonywania, a nie tylko testować je przed wdrożeniem.
Rynek docelowy: Firma koncentruje się na klientach z sektorów opieki zdrowotnej, fintech i ubezpieczeń.
Na początku tego roku na konferencji JP Morgan dotyczącej opieki zdrowotnej podpisał dwie umowy pilotażowe, a trzy kolejne są w przygotowaniu. Braidwood powiedział, że firma postrzega opiekę zdrowotną jako punkt wyjścia, ale ostatecznie postrzega problem jako uniwersalny w przypadku każdego wdrożenia sztucznej inteligencji.
Nowość w tym tygodniu: Glacis otwiera także listę oczekujących na plan startowy o wartości 49 USD miesięcznie, który obejmuje tworzenie zespołów czerwonych, zgodność i certyfikację kryptograficzną dla maksymalnie 10 000 wydarzeń AI miesięcznie. Poziom profesjonalny o wartości 499 USD obejmuje do 100 000 wydarzeń.
Braidwood powiedział, że to posunięcie jest celową zmianą mającą na celu udostępnienie technologii poza regulowanymi firmami i partnerami projektowymi, z którymi firma dotychczas współpracowała.
Szerszy obraz: obserwowalność i bezpieczeństwo sztucznej inteligencji to dynamicznie rozwijający się rynek, na którym dobrze finansowane start-upy i duże firmy oferują monitorowanie środowiska wykonawczego i poręcze dla sztucznej inteligencji przedsiębiorstw.
Braidwood powiedział, że Glacis wyróżnia się skupieniem na kryptograficznej dowodliwości: nie tylko wykrywaniem problemów, ale także tworzeniem odpornych na manipulacje dowodów na to, że przeprowadzono kontrole bezpieczeństwa, co jego zdaniem może pomóc firmom w negocjowaniu zakresu ubezpieczenia i usatysfakcjonowaniu organów regulacyjnych.
Finansowanie: Glacis zebrał 575 000 dolarów od grupy inwestorów, w tym funduszu Safe Artificial Intelligence Fund Geoffa Ralstona, Mighty Capital, Sourdough Ventures i inkubatora AI2.
Jest także częścią programu Launchpad firmy Cloudflare i trzeciej grupy akceleratorów Plug and Play w Seattle. Braidwood powiedział, że firma ma nadzieję zamknąć rundę nasion jeszcze w tym roku.
Zespół: Glacis ma pięciu pracowników, w tym trzech współzałożycieli i dwóch inżynierów.
Tatachar powiedział, że szóstym „pracownikiem” firmy będzie agent AI, którego zadaniem będzie zapewnienie zgodności z SOC 2 za pośrednictwem Vanta. Zespół pisze swój podstawowy kod kryptograficzny w Rust i używa Claude, Codex i ChatGPT w trakcie swojej pracy.
„Mamy firmę zatrudniającą 100 osób” – zażartował Braidwood. „Pięć z nich jest prawdziwych, a reszta znajduje się w chmurze lub na komputerze”.

