Firmy ze wszystkich sektorów zachęcają swoich pracowników do korzystania z narzędzi sztucznej inteligencji w pracy. Tymczasem Twoi pracownicy często bardzo chcą jak najlepiej wykorzystać generatywne chatboty AI, takie jak ChatGPT. Jak dotąd wszyscy są na tej samej stronie, prawda?
Jest tylko jeden problem: jak firmy chronią wrażliwe dane firmowe przed wchłonięciem przez narzędzia, które mają zwiększać produktywność i ROI? W końcu bardzo kuszące jest załadowanie informacji finansowych, danych klientów, zastrzeżonego kodu lub dokumentów wewnętrznych do ulubionego chatbota lub narzędzia do kodowania AI, aby uzyskać szybkie rezultaty, których oczekujesz (lub których może wymagać Twój szef lub współpracownik). W rzeczywistości nowe badanie przeprowadzone przez firmę Varonis zajmującą się bezpieczeństwem danych wykazało, że sztuczna inteligencja cieni (niesankcjonowane generatywne aplikacje AI) stanowi poważne zagrożenie dla bezpieczeństwa danych, a narzędzia mogą ominąć ład korporacyjny i nadzór IT, co prowadzi do potencjalnych naruszeń danych. Badanie wykazało, że prawie wszystkie firmy zatrudniają pracowników korzystających z nieautoryzowanych aplikacji, a prawie połowa ma pracowników korzystających z aplikacji sztucznej inteligencji uznawanych za wysokiego ryzyka.
Znalezienie równowagi między zachęcaniem do korzystania ze sztucznej inteligencji a budowaniem barier bezpieczeństwa
„To, z czym mamy do czynienia, nie jest problemem technologicznym, ale wyzwaniem dla użytkownika” – powiedział James Robinson, dyrektor ds. bezpieczeństwa informacji w firmie Netskope zajmującej się bezpieczeństwem danych. Celem – wyjaśnił – jest zapewnienie pracownikom bezpiecznego korzystania z narzędzi generatywnej sztucznej inteligencji, bez zniechęcania ich do stosowania zatwierdzonych technologii.
„Musimy zrozumieć, co firma próbuje osiągnąć” – dodał. Zamiast po prostu mówić pracownikom, że robią coś złego, zespoły ds. bezpieczeństwa powinny pracować nad zrozumieniem, w jaki sposób ludzie korzystają z narzędzi, aby upewnić się, że zasady są odpowiednie lub czy należy je dostosować, aby umożliwić pracownikom odpowiednie udostępnianie informacji.
Jacob DePriest, dyrektor ds. bezpieczeństwa informacji w firmie 1Password, dostawcy ochrony haseł, zgodził się z tym, twierdząc, że jego firma stara się znaleźć równowagę w swoich zasadach, zarówno zachęcając do korzystania ze sztucznej inteligencji, jak i edukując, aby wprowadzić odpowiednie bariery.
Czasami oznacza to dokonanie dostosowań. Na przykład firma opublikowała w zeszłym roku politykę dotyczącą dopuszczalnego wykorzystania sztucznej inteligencji w ramach corocznego szkolenia firmy z zakresu bezpieczeństwa. „Ogólnie rzecz biorąc, jego temat brzmi: «Proszę korzystać ze sztucznej inteligencji w sposób odpowiedzialny; skupić się na zatwierdzonych narzędziach; a oto kilka niedopuszczalnych obszarów zastosowania»”. Jednak sposób, w jaki został napisany, spowodował, że wielu pracowników wykazało nadmierną ostrożność – stwierdził.
„To dobry problem, ale CISO nie mogą skupiać się wyłącznie na bezpieczeństwie” – powiedział. „Musimy zrozumieć cele biznesowe, a następnie pomóc firmie osiągnąć zarówno cele biznesowe, jak i wyniki w zakresie bezpieczeństwa. Myślę, że technologia sztucznej inteligencji w ciągu ostatniej dekady uwydatniła potrzebę zachowania równowagi. Dlatego naprawdę próbowaliśmy rozwiązać ten problem, łącząc bezpieczeństwo i produktywność”.
Blokowanie narzędzi AI, aby zapobiec nadużyciom, nie działa
Jednak firmy, które uważają, że zakazanie niektórych narzędzi jest rozwiązaniem, powinny przemyśleć to jeszcze raz. Brooke Johnson, starsza wiceprezes ds. zasobów ludzkich i bezpieczeństwa w Ivanti, powiedziała, że jej firma odkryła, że wśród osób korzystających z generatywnej sztucznej inteligencji w pracy prawie jedna trzecia całkowicie ukrywa swoje wykorzystanie sztucznej inteligencji przed kierownictwem. „Udostępniają dane firmy systemom, których nikt nie sprawdzał, przesyłają żądania na różne platformy z niejasnymi zasadami dotyczącymi danych i potencjalnie ujawniają wrażliwe informacje” – stwierdził w wiadomości.
Instynkt zakazujący niektórych narzędzi jest zrozumiały, ale błędny, powiedział. „Nie chcesz, aby pracownicy lepiej ukrywali korzystanie ze sztucznej inteligencji; chcesz, aby byli przejrzyści, aby można było ich monitorować i regulować” – wyjaśnił. Oznacza to zaakceptowanie faktu, że wykorzystanie sztucznej inteligencji ma miejsce niezależnie od polityki i przeprowadzenie właściwej oceny, które platformy AI spełniają Twoje standardy bezpieczeństwa.
„Edukuj zespoły na temat konkretnych zagrożeń bez niejasnych ostrzeżeń” – powiedział. Pomóż im zrozumieć, dlaczego istnieją pewne bariery bezpieczeństwa – zasugerował, podkreślając jednocześnie, że nie ma to charakteru karnego. „Chodzi o to, aby mogli wykonywać swoją pracę wydajnie, skutecznie i bezpiecznie”.
Agent AI stworzy nowe wyzwania dla bezpieczeństwa danych
Czy uważasz, że obecnie w dobie sztucznej inteligencji trudno jest chronić dane? DePriest powiedział, że agenci sztucznej inteligencji podniosą stawkę.
„Aby działać skutecznie, agenci ci potrzebują dostępu do danych uwierzytelniających, tokenów i tożsamości i mogą działać w imieniu osoby fizycznej; być może mają własną tożsamość” – powiedział. „Nie chcemy na przykład ułatwiać sytuacji, w której pracownik mógłby scedować uprawnienia decyzyjne na agenta AI, co mogłoby mieć wpływ na człowieka”. Organizacje chcą narzędzi, które pomogą szybciej się uczyć i szybciej syntetyzować dane, ale ostatecznie ludzie muszą być w stanie podejmować krytyczne decyzje – wyjaśnił.
Niezależnie od tego, czy chodzi o przyszłych agentów sztucznej inteligencji, czy o dzisiejsze generatywne narzędzia sztucznej inteligencji, znalezienie właściwej równowagi między umożliwieniem wzrostu produktywności a bezpiecznym i odpowiedzialnym działaniem może być trudne. Eksperci twierdzą jednak, że wszystkie firmy stoją przed tym samym wyzwaniem, a zajęcie się nim będzie najlepszym sposobem na pokonanie fali sztucznej inteligencji. Ryzyko jest realne, ale przy odpowiednim połączeniu edukacji, przejrzystości i nadzoru firmy mogą wykorzystać moc sztucznej inteligencji, nie oddając kluczy do swojego królestwa.
Poznaj więcej historii z Fortune AIQ, nowej serii opisującej, jak firmy stojące na czele rewolucji sztucznej inteligencji radzą sobie z wpływem tej technologii na świat rzeczywisty.

