Alfortation jest niezbędny dla działania modeli językowych opartych na transformatorach. W rzeczywistości jest to jego największy zasób: jest to metoda, w której modele językowe znajdują powiązania między czasem odmiennymi pojęciami. Ale halucynacja może stać się klątwą, gdy modele językowe są stosowane w domenach, w których prawda jest ważna. Przykłady obejmują pytania dotyczące zasad opieki medycznej, po kodowanie, które poprawnie wykorzystują interfejsy API trzeciej części. W przypadku agenta zakłady są jeszcze wyższe, ponieważ autonomiczne boty mogą podejmować nieodwracalne środki, takie jak wysyłanie pieniędzy, na naszym imieniu.
Ważne jest, aby zrozumieć, że nie mówimy o prawdopodobieństwie ani o najlepszych przypuszczeniach. Z drugiej strony są to rygorystyczne dowody znalezione w logice matematycznej poprzez wyszukiwanie algorytmiczne. Symboliczna sztuczna inteligencja wykorzystuje fundamenty pierwotnie ustanowione przez poprzedników, takich jak Arystoteles, Bool i Free, i opracowywany we współczesnych czasach przez wielkie umysły, takie jak Claude Shannon i Alan Turing.
Zautomatyzowane rozumowanie to nie tylko teoria: w rzeczywistości cieszy się głębokim przyjęciem branży
W latach 90. zaczęło się od testów obwodów o niskim poziomie w odpowiedzi na błąd FDIV. Później znajdował się w krytycznych systemach bezpieczeństwa używanych przez Airbusa i NASA. Dziś rozwija się coraz więcej w przypadkach neurozimbolicznych. Na przykład Leibniz AI stosuje formalne rozumowanie w sztucznej inteligencji w dziedzinie prawnej, podczas gdy Atalanta stosuje te same pomysły do problemów w zatrudnieniu przez rząd, a system Alphaproof DeepMind nie generuje fałszywych argumentów w matematyce, ponieważ używa twierdzenia o szczupłym przysłowie.
Lista kontynuuje: Codelogian Imandy nie zezwala programom na syntetyzację, że naruszają one zasady korzystania z interfejsu API, ponieważ wykorzystuje również zautomatyzowane narzędzia rozumowania. Zautomatyzowane weryfikacje rozumowania Amazon znajdują się w BatedRock Buardrails Prawdziwe filtry fałszywych stwierdzeń przy użyciu automatycznego rozumowania wraz z formalizacjami aksjomatycznymi, które klienci mogą zdefiniować. W przypadku organizacji, które starają się zwiększyć swoją pracę z AI, podczas gdy mają zaufanie do swoich wyników, można wykorzystać logiczne możliwości dedukcji zautomatyzowanych narzędzi rozumowania, aby zapewnić, że interakcje żyją w ramach ograniczeń i zdefiniowanych zasad.
Kluczową cechą zautomatyzowanego rozumowania jest to, że przyznaje „nie wiem”, kiedy nie może wykazać ważnej odpowiedzi, zamiast produkcji informacji. W wielu przypadkach narzędzia mogą również wskazywać na sprzeczną logikę, która sprawia, że nie można udowodnić ani obalić oświadczenia i pokazać uzasadnienie ustaleń.
Zautomatyzowane narzędzia rozumowania są również zwykle ekonomiczne, szczególnie w porównaniu z narzędziami opartymi na głodnych transformatorach. Powodem jest to, że zautomatyzowane narzędzia rozumowania działają tylko symbolicznie o tym, co jest prawdziwe i fałszywe. Żadnych „nie są„ chrupiące liczby ”, a w GPU nie ma mnożenia matrycy. Aby zobaczyć, dlaczego, pomyśl o takich problemach, jak„ Rozwiązywanie x ”ich kursów matematycznych w szkole. Gdy przepisujemy x+ya y+x, worek (y+z) na xy+xz, rozumujemy o nieskończoności nieskończoności.
Prawdą jest, że zastosowanie logiki matematycznej nie jest uniwersalnym rozwiązaniem dla wszystkich problemów w AI. Na przykład wątplibyśmy w aksjomatyzację tego, co czyni piosenkę lub wiersz „Good”. Zakwestionowalibyśmy również narzędzia, które twierdzą, że w logice matematycznej udowodnilibyśmy, że nasz krajowy piekarnik nie złamie. Ale w aplikacjach, w których możemy zdefiniować aksjatycznie zestaw prawdziwych i fałszywych stwierdzeń w danej dziedzinie (na przykład uprawnienia do rodziny licencji medycznej rodzinnej lub prawidłowe wykorzystanie biblioteki oprogramowania), podejście oferuje praktyczny sposób bezpiecznego wdrażania sztucznej inteligencji w krytycznych obszarach biznesowych, w których precyzja jest niezbędna.
Startowy
Chociaż zautomatyzowane narzędzia rozumowania historycznie wymagały głębokiego doświadczenia matematycznego, rosnąca moc generatywnej AI sprawia, że są one coraz bardziej dostępne dla szerszych odbiorców, w których użytkownicy mogą wyrażać zasady w języku naturalnym i automatycznie weryfikować wyniki AI w tych zasadach. W rzeczywistości: wiele modeli językowych jest szkolonych w zakresie zautomatyzowanych narzędzi rozumowania (często w połączeniu z uczeniem się wzmocnienia). Kluczem jest rozpoczęcie od jasnych przypadków, które można dokładnie zdefiniować: pomyśl o takich rzeczach, jak kodowanie, zasady zasobów ludzkich i przepisy podatkowe. Ma również zastosowanie w obszarach, w których weryfikacja naprawdę ma znaczenie, ponieważ bezpieczeństwo, zgodność i infrastruktura w chmurze.
Patrząc w przyszłość
Gdy staramy się coraz bardziej zintegrować sztuczną inteligencję z naszym życiem, zdolność do weryfikacji korekty i prawdziwości ich działań i wyników stanie się tylko bardziej krytyczna. Organizacje, które inwestują w zautomatyzowane możliwości rozumowania, będą teraz lepiej przygotować się do bezpiecznej wspinania się na sztuczną inteligencję i przyjęcia agentów przy jednoczesnym zachowaniu kontroli i zgodności. Na następnym spotkaniu strategii AI rozważ zautomatyzowane rozumowanie. Może to być klucz do wdrażania z zaufaniem do całej organizacji i jej klientów.
Opinie wyrażone w komentarzach Fortune.com są jedynie opiniami jej autorów i niekoniecznie odzwierciedlają opinie i przekonania fortuny.
Globalna forma Fortune powraca od 26 do 27 października 2025 r. W Riad. Dyrektor generalny i światowej liderzy spotkają się na dynamicznym wydarzeniu i tylko na zaproszeniu, które kształtuje przyszłość biznesu. Poproś o zaproszenie.

