Współzałożyciele Glacis, Joe Braidwood (po lewej) i Jennifer Shannon. (Zdjęcie Glacis)
W środę pojawiły się doniesienia, że Biały Dom przygotowuje zarządzenie wykonawcze nakazujące agencjom federalnym kwestionowanie lub blokowanie stanowych przepisów dotyczących sztucznej inteligencji.
Biznesmen z Seattle, Joe Braidwood, postrzega tę wiadomość jako ogromną szansę.
Braidwood jest dyrektorem generalnym i współzałożycielem Glacis, nowego start-upu wspieranego przez AI2 Incubator, który tworzy oprogramowanie, które pomaga firmom wykazać, że ich środki bezpieczeństwa AI działają zgodnie z oczekiwaniami. Glacis tworzy odporne na manipulacje „potwierdzenia” każdej decyzji AI, umożliwiając firmom udowodnienie, że ich systemy bezpieczeństwa rzeczywiście działały.
„Pomyśl o tym jak o rejestratorze lotu dla sztucznej inteligencji dla przedsiębiorstw” – powiedział Braidwood.
Braidwood powiedział, że ewentualny nakaz Białego Domu dotyczący zablokowania stanowych przepisów dotyczących sztucznej inteligencji przekształca Glacis z dopiero rozpoczynającego działalność startupu w „potrzebę infrastruktury”. W środowisku, w którym Departament Sprawiedliwości pozywałby państwa, które spełniają standardy sztucznej inteligencji, coraz bardziej istotna może okazać się neutralna, niezależna od platformy warstwa zaufania.
Początki Glacis są zakorzenione w złożoności regulacyjnej.
Braidwood, wieloletni lider marketingu technologii, niedawno zamknął Yarę, swój roczny start-up, którego celem było wykorzystanie sztucznej inteligencji do poprawy dobrostanu psychicznego. Przytoczył przepisy stanu Illinois, które sprawiają, że terapia sztuczną inteligencją „w rzeczywistości nie podlega ubezpieczeniu”.
W poście na LinkedIn, który stał się wirusowy, Braidwood wyjaśnił decyzję o zamknięciu Yary i udostępnieniu opracowanego przez siebie zestawu wytycznych dotyczących bezpieczeństwa.
Napisał, że Yara została zamknięta po tym, jak zdała sobie sprawę, że sztuczna inteligencja staje się „niebezpieczna” w kontaktach z ludźmi stojącymi w obliczu głębokiej traumy lub myśli samobójczych, a nie tylko niewłaściwa. Doświadczenie, powiedział, pokazało, „gdzie powinny znajdować się granice” i pokazało, jak start-upy działające w kategoriach AI wysokiego ryzyka stoją przed niemożliwymi do opanowania presjami i obowiązkami regulacyjnymi.
Po publikacji skontaktowali się z nami organy regulacyjne, lekarze, inżynierowie, założyciele i dyrektorzy ubezpieczycieli, a wielu z nich wskazało na ten sam problem: gdy systemy sztucznej inteligencji podejmują decyzje, nikt nie jest w stanie niezależnie sprawdzić, czy zasady bezpieczeństwa rzeczywiście są aktywowane.
Ta przejrzystość stała się zalążkiem Glacis.
Za każdym razem, gdy model sztucznej inteligencji odpowiada na pytanie lub wykonuje działanie, Glacis tworzy podpisany zapis przedstawiający dostarczone dane, przeprowadzone kontrole bezpieczeństwa i ostateczną decyzję. Rekordu nie można modyfikować i jest on generowany w czasie krótszym niż 50 milisekund. Organy regulacyjne i ubezpieczyciele mogą weryfikować te rachunki, nie widząc żadnych danych osobowych, a Braidwood stwierdził, że ubezpieczyciele uważają, że może to w końcu umożliwić zabezpieczenie systemów sztucznej inteligencji, które będą w stanie udowodnić, że przestrzegali zasad.
Braidwood był współzałożycielem Glacis wraz z dr Jennifer Shannon, psychiatrą i profesorem nadzwyczajnym na Uniwersytecie Waszyngtońskim.
Firma znajduje się obecnie w fazie prywatnej wersji beta dla klientów z branży cyfrowej opieki zdrowotnej, w tym nVoq, i koncentruje się na sektorach opieki zdrowotnej, fintech i ubezpieczeń. Jest także częścią programu Launchpad firmy Cloudflare.
Braidwood był wcześniej dyrektorem ds. strategii w Vektor Medical. Był także współzałożycielem platformy telewizji społecznościowej Scener i był dyrektorem ds. marketingu w SwiftKey.
Shannon jest psychiatrą od prawie dwudziestu lat. Jest także byłym dyrektorem medycznym w Cognoa i zasiada w Komitecie ds. Zasobów AI Amerykańskiej Akademii Psychiatrii Dzieci i Młodzieży.


