Blip czy wybuch?
To może być uderzenie. Biuro Spisu Powszechnego zadaje również kolejne pytanie dotyczące przyjęcia sztucznej inteligencji, konsultacji firm o tym, czy przewidują wykorzystanie sztucznej inteligencji do produkcji towarów lub usług w ciągu najbliższych sześciu miesięcy. I tutaj dane nie pokazują spadku, chociaż odsetek, który odpowiada „tak”, wydaje się zmierzyć na poziomie poniżej tego, co było na końcu 2023 r. I na początku 2024 r.
Czy zima AI?
Gdy trzymam się w utworze, jest dziś wiele czynników, które przyczyniły się do zim poprzednich. Wcześniejszy cykl przesad, który wydaje się bardziej podobny do obecnego, miał miejsce w latach 80. wokół „systemów ekspertów”, chociaż zostały one zbudowane przy użyciu zupełnie innego rodzaju technologii AI dzisiejszych modeli AI. Bardziej zaskakująco podobne jest to, że firmy z Fortune 500 były podekscytowane systemami ekspertów i wydały świetne pieniądze na ich przyjęcie, a niektórzy znaleźli ogromne zyski z produktywności podczas ich korzystania. Ale ostatecznie wielu było sfrustrowanych tym, jak drogie i trudne było budowanie i utrzymanie tego rodzaju sztucznej inteligencji, a także łatwością, z jaką mogłoby się nie poradzić w niektórych rzeczywistych sytuacjach, z którymi ludzie mogliby łatwo sobie poradzić.
Sytuacja nie różni się dzisiaj. Integracja LLM z przepływami pracy biznesowej jest trudna i potencjalnie droga. Modele AI nie są dostarczane z instrukcjami instrukcji i integrują je z korporacyjnymi przepływami pracy lub budowanie innych zupełnie nowych wokół nich, wymaga mnóstwa pracy. Niektóre firmy to rozwiązują i widzą prawdziwą wartość. Ale wielu walczy.
I podobnie jak systemy ekspertów, dzisiejsze modele często nie są wiarygodne w sytuacjach prawdziwego świata, choć z różnych powodów. Systemy eksperckie miały tendencję do upadku, ponieważ były zbyt nieelastyczne, aby poradzić sobie z zaburzeniem świata. Pod wieloma względami dzisiejsze LLM są zbyt elastyczne, wymyślając informacje lub przyjmując nieoczekiwane skróty. (Naukowcy Operai właśnie opublikowali artykuł o tym, jak uważają, że niektóre z tych problemów można rozwiązać: patrz sekcja badań AI poniżej).
Niektórzy zaczynają sugerować, że rozwiązaniem może być układ neurokoliczny, hybrydy, które próbują zintegrować najlepsze cechy sieci neuronalnych, takich jak LLM, z zasadami symbolicznymi opartymi na regułach, podobnych do systemów ekspertów z lat osiemdziesiątych. Jest to tylko jedno z kilku alternatywnych podejść do AI, które mogą zacząć zyskać przyczepność, jeśli przesada wokół LLM rozproszy się. Na dłuższą metę może to być dobra rzecz. Ale w krótkim okresie może to być zimna i zimna zima dla inwestorów, założycieli i badaczy.
Fortuna mamy
Firmy wydają tak wiele w sztucznej inteligencji, że redukują akcje, mówi Goldman Sachs, przez szefa Wielkiej Brytanii Jima EdwardaSpwc, przyznaje, że zmniejsza pracę na poziomie wejściowym i przyjmuje „zegar i czeka podejście”, aby zobaczyć, jak działają AI, przez Preston przednie przedpro
Ponieważ AI utrudnia znalezienie pracy, Openai buduje platformę, która pomoże ci zdobyć, autor: Jessica Coacci
„Ojciec chrzestny AI” mówi, że technologia stworzy masowe bezrobocie i wyśle bardzo wysokie zyski – „to jest system kapitalistyczny” – autorstwa Jasona Ma
Oko na AI Newseye w dochodzeniu AI
Naukowcy z operacjami twierdzą, że znaleźli sposób na zmniejszenie halucynacji. Zespół Openai mówi, że uważa, że powodem, dla którego modele halucynanu tak często jest to, że podczas fazy treningowej, w której są udoskonalane przez ludzkie informacje zwrotne i oceniane w kilku punktach odniesienia, są one karane przez zmniejszenie pytania z powodu niepewności. Przeciwnie, modele na ogół nie są nagradzane za wyrażanie wątpliwości, pomijając wątpliwe szczegóły lub żądanie wyjaśnień. W rzeczywistości większość wskaźników oceny obserwuje jedynie ogólną precyzję, często na egzaminach wielokrotnego wyboru, lub, co gorsza, zapewnia binarne „kciuki” lub „kciuki”. Tego rodzaju wskaźniki ostrzegają badaczy Openai, nagradzaj odpowiedzi „lepszego przypuszczenia” zbyt poufnego.
Aby to poprawić, badacze Openai proponują trzy poprawki. Po pierwsze, twierdzą, że model musi otrzymać wyraźne zaufane progi dla swoich odpowiedzi i nie mówi się, aby nie odpowiadać, chyba że ten próg zostanie przekroczony. Następnie zalecają, aby punkty odniesienia modeli zawierały cele zaufania i że oceny wywnioskowały punkty niepoprawnych odpowiedzi w ich wyniku, co oznacza, że modele zostaną ukarane przez zgadywanie. Wreszcie sugerują, że modele są przeszkoleni w celu stworzenia najbardziej użytecznej odpowiedzi, która przekracza minimalny próg zaufania: zapobieganie uczeniu się modelu do błędu, nie odpowiadając w większej liczbie okoliczności, niż uzasadnia.
Nie jest jasne, że strategie te całkowicie eliminują halucynacje. Modele nadal nie mają nieodłącznego zrozumienia różnicy między prawdą a fikcją, bez poczucia, które źródła są bardziej wiarygodne niż inne, i bez podstaw ich wiedzy w doświadczeniu prawdziwego świata. Ale techniki te mogą znacznie przyczynić się do zmniejszenia producentów i niedokładności. Możesz przeczytać gazetę Operai tutaj.
Masz kalendarz
8-10 września: Fortune Brainstorm Tech, Park City, Utah.
6-10 października: World AI Week, Amsterdam
21-22 października: Tedai San Francisco.
2-7 grudnia: Neuroips, San Diego
8-9 grudnia: Fortune Brainstorm AI San Francisco. Prośba o udział tutaj.
Jedzenie mózgu
Dlaczego nauczanie nie dostosowało się? Jeśli firmy nadal starają się znaleźć sprawy mordercy dla generatywnej sztucznej inteligencji, dzieci nie mają takiej udręki. Znają przypadek morderczego użycia: oszukują ich zadanie. Jest to przygnębiające, ale nie jest zaskakujące przeczytanie eseju na Atlantyku obecnego ucznia szkoły średniej, Ashanty Rosario, który opisuje, w jaki sposób jego koledzy z klasy używają chatgpt, aby uniknąć ciężkiej pracy w celu analizy literatury lub zadawania się, jak rozwiązać zestaw problemów matematycznych. Słuchasz teraz takich historii. A jeśli porozmawiasz z kimś, aby uczyć studentów uniwersytetów, a zwłaszcza, trudno nie stwierdzić, że AI jest śmiercią edukacji.
Ale to, co uważam za zaskakujące, a być może jeszcze bardziej przygnębiające, to dlaczego, prawie trzy lata po debiucie Chatgpt, więcej nauczycieli nie zmieniło zasadniczo sposobu, w jaki uczą i oceniają studentów. Rosario przybija go w swoim eseju. Jak mówi, nauczyciele mogą zacząć oceniać uczniów w znacznie trudniejszy sposób zabawy z AI, na przykład udzielanie egzaminów ustnych lub zaufanie o wiele więcej na temat argumentów, które uczniowie robią podczas dyskusji i debaty w klasie. Mogą bardziej polegać na prezentacjach w klasach lub ocenie „portfolio” zamiast w raportach badawczych w domu. „Uczniowie mogą być zachęcani do refleksji nad własną pracą, za pomocą magazynów naukowych lub dyskusyjnych w celu wyrażania swoich zmagań, podejść i wniosków wyciągniętych po każdym zadaniu” – pisze. Trzy lata po Chatgpt uczniowie z pewnością nauczyli się i dostosowali do technologii. Dlaczego nauczyciele nie?
To jest internetowa wersja Eye on AI, cotygodniowego biuletynu Fortune o tym, jak AI kształtuje przyszłość biznesu. Zarejestruj się bezpłatnie.