Thursday, April 2, 2026

Korzystanie ze sztucznej inteligencji w pracy może prowadzić do „pozytywnego cyklu”, w ramach którego pracownicy zgłaszają większą satysfakcję z pracy i wydajność, mówi dyrektor ds. etyki BCG AI | Fortuna

Koniecznie przeczytaj

Sztuczna inteligencja może być tematem dnia, ale nadal istnieje wiele pytań dotyczących przyjęcia tej szybko zmieniającej się technologii. Więcej niż jeden na trzech amerykańskich pracowników obawia się, że sztuczna inteligencja może ich zastąpić, a niektórzy liderzy HR obawiają się nieznanego wpływu tej technologii na ich role i pracowników.

HR Brew spotkał się niedawno ze Stevenem Millsem, dyrektorem ds. etyki sztucznej inteligencji w Boston Consulting Group, aby wyjaśnić niektóre zagrożenia i możliwości związane ze sztuczną inteligencją.

Ta rozmowa została zredagowana pod kątem długości i przejrzystości.

W jaki sposób rozwiązuje się wątpliwości i obawy pracowników dotyczące sztucznej inteligencji?

Kiedy ludzie zaczną korzystać z technologii i zdadzą sobie sprawę z wartości, jaką może im ona przynieść, zaczną z niej częściej korzystać i pojawia się swego rodzaju koło pozytywne. W rzeczywistości zgłaszają większą satysfakcję z pracy. Czują się bardziej skuteczni. Mają poczucie, że podejmują lepsze decyzje.

To powiedziawszy, uważamy również, że bardzo ważne jest edukowanie ludzi na temat technologii, w tym na temat tego, w czym jest dobra, w czym nie jest dobra i do czego nie należy jej używać. Osobiście siedzę gdzieś pomiędzy.

Gdzie widzisz największe ryzyko związane ze sztuczną inteligencją?

W przypadku nas (BCG) mamy cały proces, w ramach którego, jeśli kwalifikuje się to do obszaru, który uważamy za obszar wysokiego ryzyka, następuje cały proces przeglądu, podczas którego stwierdzamy: „Czy w ogóle czujemy się komfortowo, korzystając ze sztucznej inteligencji w ten sposób?”

Załóżmy, że mamy zamiar zbudować technologię. Systematycznie planuj wszystkie ryzyka, na przykład to, co się stanie, jeśli udzielisz obiektywnie błędnej odpowiedzi lub co się stanie, jeśli nieumyślnie skłonisz użytkowników do podjęcia złej decyzji. A następnie, w trakcie opracowywania produktu, jaki jest akceptowalny poziom ryzyka w tych różnych wymiarach?

Niektórzy obawiają się, że niewłaściwie wdrożona sztuczna inteligencja może spowodować, że technologia nauczy się wzmacniać uprzedzenia i tworzyć więcej możliwości dyskryminacji. Jak możemy zapewnić różnorodność myśli w LLM?

Chcemy ocenić dane wejściowe i wyjściowe z perspektywy produktu. Ponownie chodzi o przyjrzenie się potencjalnym zagrożeniom, którymi mogą być różne rodzaje uprzedzeń, niezależnie od tego, czy jest to uprzedzenie wobec jakiejkolwiek grupy chronionej, czy też kwestie takie jak sytuacja miejska i wiejska. Te rzeczy mogą istnieć w modelach. Naprawdę dużo mówimy o odpowiedzialnej sztucznej inteligencji od samego początku. Nie może to być coś, o czym myślisz podczas konceptualizacji produktu, projektowania go od początku, myślenia o tych rzeczach i interakcji z użytkownikami w znaczący sposób.

Co słyszysz od liderów HR na temat ich odczuć na temat transformacji AI?

Wielu liderów HR jest bardzo podekscytowanych produktywnością i wartością technologii i chce udostępnić ją swoim pracownikom. Problem polega na tym, że chcemy mieć pewność, że ludzie korzystają z tej technologii i czują się uprawnieni do korzystania z niej, ale robią to w sposób odpowiedzialny.

Uwielbiam pokazywać fantastyczne wady systemu, który robi głupie rzeczy, które rozśmieszają, ale to naprawdę dobra ilustracja, że ​​nie są one doskonałe we wszystkim. A kiedy ludzie to widzą, pomaga im to zdać sobie sprawę, że muszę uważać na to, jak z tego korzystam.

Bardzo ciężko pracujemy z naszymi ludźmi, upewniając się, że rozumieją, że nie mogą pozwolić sztucznej inteligencji wykonywać swojej pracy. Użyj go jako partnera myślowego. Użyj go, aby udoskonalić swoje punkty, ale ostatecznie powinieneś posiadać produkt swojej pracy.

W jaki sposób mniejsi pracodawcy mogą ustalać ograniczenia dotyczące sztucznej inteligencji?

Zwłaszcza w przypadku małych firm może to być tak proste, jak wejście przywódcy do pokoju i omówienie miejsca, w którym czuje się komfortowo, korzystając ze sztucznej inteligencji. Ostatecznie częściowo sprowadza się to do wartości korporacyjnych i dlatego też starsi przywódcy organizacji muszą angażować się w dialog. To nie musi być wyrafinowane. Może to być dosłownie nieformalny dokument, który mówi: „Właśnie można go używać. Oto sposób, w jaki nie powinieneś go używać”.

Czy sądzisz, że sztuczna inteligencja może mieć wpływ na wymagania dotyczące produktywności?

Chcemy mieć pewność, że pracownicy będą korzystać ze sztucznej inteligencji w celu zwiększenia produktywności, ale nie w sposób karny. Należy raczej powiedzieć, że jeśli tego nie rozumieją, to dlatego, że ponieśliśmy porażkę. Dlatego ich szkolimy, szkolimy i pomagamy im zobaczyć, jak korzystać z narzędzi.

Jak wykorzystujesz sztuczną inteligencję w swojej pracy?

Często wykorzystuję go jako towarzysza myślenia… Mógłbym udostępnić prezentację, której zamierzam użyć podczas ważnego spotkania, i powiedzieć: „Jakie miałbyś pytania, gdybyś był dyrektorem ds. ryzyka?” To tylko sposób, który pomoże mi się przygotować. Używam go również, aby przedstawić sobie kontrapunkty dla argumentów, które mam. Ważne jest, abyśmy pozostali panami naszych własnych pomysłów, ale wykorzystywanie tej (AI) jako myślącego partnera, czegoś, co może rzucić wyzwanie naszym myślom. W takich przypadkach jest dość potężny.

Raport ten został pierwotnie opublikowany przez HR Brew.

Website |  + posts
- Advertisement -spot_img
- Advertisement -spot_img

Najnowszy artykuł