Narodziny „wojny prochowej” datuje się na XV wiek i wynalezienie pistoletu z zamkiem zapałkowym, pierwszego mechanicznego urządzenia strzelającego. Teraz roje dronów bezkarnie atakują granice. W 1685 roku Giovanni Borelli, włoski fizyk, wyobraził sobie świat, w którym maszyny napędzane kołem pasowym mogłyby naśladować działania zwierząt. Elon Musk mówi teraz o robotach wystarczająco inteligentnych, aby robić zakupy i zastępować chirurgów.
Rozwój technologiczny jest natychmiastowy i zakotwiczony w historii, zarówno w przypadku „Wszystko, wszędzie, wszystko na raz”, jak i „Slow Horses”. Kontrast szybki/wolny został zintegrowany z dziełem sztuki Calculated Empires, muralem o długości 24 metrów, prezentowanym w Muzeum Designu w Barcelonie. Wizualizuje podróż od prasy drukarskiej do deepfakes, od quipu, starożytnego peruwiańskiego kalkulatora wykonanego z wiązanej liny, do systemów danych „na skalę planetarną”.
„Naprawdę interesujące jest to, że kiedy ludzie wchodzą do tej instalacji, pomaga im to spojrzeć na tę chwilę z odpowiedniej perspektywy” – powiedziała Kate Crawford podczas Światowego Kongresu Mobile World Congress w Barcelonie w marcu. Crawford, profesor zajmujący się sztuczną inteligencją na Uniwersytecie Południowej Kalifornii, jest współtwórcą muralu, którego tworzenie trwało cztery lata. Praca, w której uczestniczy artysta wizualny Vladen Joler, wzywa nas wszystkich do zastanowienia się, kto ustala zasady i decyduje, co jest ważne, jeśli chodzi o fundamentalne zmiany technologiczne.
„Ludzie mają wrażenie, że żyjemy w technologicznym prezentyzmie i ogromnych zmianach” – powiedział Crawford. „A zatem umiejętność zatrzymania się i powiedzenia: «Czego nauczyliśmy się przez 500 lat?» (to ma znaczenie). Dla mnie (mural) był to projekt transformacyjny, ponieważ jasno wyraziłem się, że historia to nie tylko innowacje techniczne. „Chodzi o to, kto ma władzę ustalania zasad, według których będziemy żyć”.
„Dlatego sztuczna inteligencja agentów jest teraz tak ważna, ponieważ jest to szybko rozwijająca się dziedzina. Standardy nie są jeszcze ustalone i to ludzie tutaj, w takich salach, jak Mobile World Congress, będą prowadzić następujące rozmowy: Jakie mają być te standardy, jak wdrażamy je w naszych systemach i jak chronimy siebie i naszych klientów?”
„Ponieważ to najwyższy czas, aby upewnić się, że jest to technologia niezwykle użyteczna i użyteczna, a nie taka, która otwiera luki w zabezpieczeniach, wektory ataku i nowe powierzchnie ataku, i która w rzeczywistości może być również dość niebezpieczna pod względem poznawczym”.
Mobile World Congress to fenomen. Ponad 100 000 delegatów celowo spaceruje po ośmiu przepastnych salach, każda wypełniona technologią przyszłości. W ogromnych pawilonach sponsorowanych przez Huawei i Google, Honor i Qualcomm prezentowane są godne uwagi innowacje, które łączą nasz samochód z telefonem, robota z osobą niepełnosprawną, nasze okulary z Internetem. Rządy żądne wpływów i inwestycji konkurują o przestrzeń z firmami, które mają nadzieję na duże zwycięstwo w rewolucji sztucznej inteligencji.
MWC to także miejsce debaty. Na dużych scenach największe umysły świata technologii często gubią rozmowy wśród migających neonów i interaktywnych ekranów plazmowych. „Działaj szybko i niszcz wszystko” – powiedział Mark Zuckerberg w 2012 roku. Dziś stawka jest wysoka.
Prowadzimy ożywioną dyskusję na temat samego znaczenia inteligencji. Demis Hassabis, założyciel DeepMind, powiedział, że sztuczna inteligencja ogólna może być z nami już za pięć lat. Kto lub co będzie w tym świecie podejmować decyzje? Czy to kwestia ludzi w pętli? A może na czele stoi człowiek? A może nie jest potrzebny człowiek? Mo Gawdat, były dyrektor handlowy Google, mówił o ryzyku związanym z „krótkoterminową dystopią”, gdy rządy, społeczeństwo obywatelskie i organy regulacyjne usiłują kontrolować działanie maszyn, które potrafią się uczyć i podejmować decyzje.
„Co rozumiemy przez inteligencję?” – zapytał Crawford. „Historia terminu „inteligencja” jest problematyczna. Używano go do dzielenia populacji i forsowania wniosków dotyczących tego, kto jest wartościowy, a kto nie”.
„Próbujemy porównać agentów do ludzkiej inteligencji. W rzeczywistości są zupełnie inni. To (inteligencja) jest statystycznym prawdopodobieństwem na dużą skalę. Są to systemy śledzące zadania w złożonych środowiskach. To bardzo różni się od ludzi, ale to oznacza, że musimy zadać inny zestaw pytań, a mianowicie: Co robią agenci? Jak możemy to śledzić i jak możemy lepiej zrozumieć, jak zmieni to nasz przepływ pracy i, co ważniejsze, jak żyjemy?”
„Historia terminu „inteligencja” jest burzliwa…”
Kate Crawford, profesor badań nad sztuczną inteligencją na Uniwersytecie Południowej Kalifornii
W miarę jak trwa debata na temat napięć między OpenAI, Anthropic i Departamentem Wojny Stanów Zjednoczonych, Crawford zadaje sobie pytanie, jakie są czerwone linie w przypadku korzystania z agentów. „Wyobraźcie sobie agentów na polu bitwy” – mówi. Nie ma potrzeby. Donoszono, że zamachy bombowe AI mają miejsce w Iranie „z szybkością myśli”. Jedną z funkcji AI jest „kompresja decyzji”, skracająca czas między pomysłem a wykonaniem. „Łańcuch śmierci” ulega skróceniu.
Crawford mówi o kryminalistyce odpowiedzialności: systemach śledzących, gdzie podejmowane są decyzje. W tej chwili mamy do czynienia z praniem kont, za które nikt nie ponosi odpowiedzialności. W brytyjskiej służbie cywilnej, operacyjnym ramieniu rządu, zjawisko to znane jest jako „syndrom opuszczonych ramion”, polegający na tym, że wszyscy unikają obowiązków, aby uniknąć odpowiedzialności.
„Widzimy coś w rodzaju gry pozornej, w której (ludzie mówią) «czy jest to projektant (kto jest odpowiedzialny)? Czy jest to wykonawca? Czy jest to klient korporacyjny? Czy jest to użytkownik końcowy?». I każdy może powiedzieć: „no cóż, jeszcze nie wiemy”. To nie będzie do zaakceptowania” – powiedział Crawford. „Myślę, że w rozmowach, zwłaszcza z organami regulacyjnymi, zaczniemy dostrzegać bardzo silny łańcuch odpowiedzialności, pozwalający dokładnie wiedzieć, kto i kiedy jest odpowiedzialny”.
„Dopiero zaczynamy rozumieć, jak to wygląda” – powiedział. Wszystkie rozmowy muszą być merytoryczne. I natychmiastowe.

