REKLAMA
  1. bizblog
  2. Biznes

Botom nie należy się szacunek. Sztuczna inteligencja stanie się naszym niewolnikiem

Czy sztuczna inteligencja jest w stanie zastąpić pracowników we wszystkich branżach, czy tylko w niektórych? Czy jest wystarczająco kreatywna, aby prześcignąć człowieka? Co z emocjami? O wpływie ChatGPT na biznes, relacje i edukację rozmawiamy z Michałem Chodakowskim z Silver Bullet Solutions.

03.07.2023
6:34
Sztuczna inteligencja będzie naszym niewolnikiem
REKLAMA

Wobec pojawienia się AI w biznesie zupełnie nowego wymiaru nabiera rola emocji w podejmowaniu biznesowych decyzji. Dzieje się tak dlatego, że wszelka analiza logiczna już jest lub w krótkiej przyszłości będzie mogła być zastąpiona przez modele AI. Wpływa to na mnóstwo biznesowych decyzji, poczynając już od rekrutacji. Jak ją prowadzić, kiedy nawet teksty marketingowe może pisać za na ChatGPT? A może AI po prostu odeśle do lamusa dużą część zawodów?

REKLAMA

Właśnie o tym rozmawiamy z Michałem Chodakowskim, który już od 20 lat pracuje w branży IT. Od kilku lat nadzoruje zaś projekty związane z przetwarzaniem języka naturalnego w Silver Bullet Solutions.

Karol Kopanko, Bizblog.pl: AI zmienia się tak szybko, że najlepiej chyba zacząć od pytania o przyszłość i jak ludzie będą się integrować ze sztuczną inteligencją.

Michał Chodakowski, prezes zarządu Silver Bullet Solutions: Pamiętam, jak będąc jeszcze w szkole usłyszałem zdanie: Nie interesują mnie komputery, bo nie są mi do niczego potrzebne, nie widzę dla nich żadnego zastosowania. Minęło kilkadziesiąt lat i nie mam już kontaktu z koleżanką która to powiedziała. W ciemno jednak mogę powiedzieć, że używa komputerów do wielu zadań, w tym w pracy. Z AI będzie identycznie.

To znaczy?

AI już z nami zostanie - w biznesie, jak i w życiu prywatnym. Liczba zastosowań będzie rosła, obejmując obszary, które w chwili obecnej trudno sobie wyobrazić. AI przyjmie w biznesie rolę intelektualnie dość przeciętnego pracownika wyposażonego w nieprawdopodobną pamięć i wiedzę. AI dokona rewolucji w wyszukiwaniu informacji tam, gdzie jest to trudne, wymaga skojarzenia wielu niezwiązanych ze sobą elementów, uwzględnienia wielkich zasobów danych w tym danych nieuporządkowanych jak opinie i komentarze.

AI umie uogólniać otrzymane informacje i budować skojarzenia, czasem odległe i zaskakujące. To ogromna wartość i miejsce, gdzie w zasadzie już sztuczna inteligencja wyprzedza człowieka.

Jednak to ludzie odpowiadają za generowanie treści i pomysłów, które wcześniej nie istniały. To z ludźmi wiążemy też emocje.

W biznesie te ostatnie są często wypierane. Szczycimy się analityką i skodyfikowanymi procedurami i racjonalnością. To jednak nie jest do końca prawda. Większość decyzji, także biznesowych, ma podłoże emocjonalne, a w tym obszarze AI jest bezradna. Dlatego AI pozostanie asystentem, dostarczającym niezbędne informacje, kojarzącym fakty i pokazującym trendy. Podejmowanie decyzji pozostanie w ręku człowieka. 

Żeby zrozumieć rolę AI w biznesie, trzeba sobie uświadomić, że mamy do czynienia z zupełnie nowym zjawiskiem, które wciąż nie zostało przez ludzi oswojone. 

Widzę to po sobie. Pisząc z czatem, staram się zachować formy grzecznościowe, które są bez znaczenia.

Dziękujemy za dostarczone informacje i łagodzimy wypowiedzi kwestionujące maszynę. Taki odruch świadczy o tym, jak bardzo nieoczywista jest dla człowieka sytuacja, w której może prowadzić dyskusję w naturalnym języku z krzemem. Maszyna nie ma własnych odczuć i nie należy się szacunek, mniej więcej tak samo jak szacunek nie należy się pralce.

Przywodzi mi to na myśl niewolnictwo.

Myślące maszyny rzeczywiście staną się współczesną kastą niewolników do wykonywania naszych poleceń. Będą się różniły od dowolnej wcześniej znanej maszyny przede wszystkim sposobem porozumiewania - opartym o zwykłą rozmowę - oraz wszechstronnością. Wbrew wizjom autorów SF nie widzę jednak zagrożenia buntem maszyn. 

Dlaczego?

Bunt wymaga posiadania własnych emocji. Muszę wiedzieć, że jest mi źle i wyobrazić sobie, że może mi być lepiej. Żaden z tych elementów nie jest AI dostępny.

Jednak AI samo w sobie otacza wiele emocji; zwłaszcza związanych z zastępowaniem pracowników.

Mamy z tym do czynienia już od dawna. Koleżanka, która jest wybitnym tłumaczem kilku języków, narzekała, że ciągle poprawiająca się jakość tłumaczy maszynowych powoduje spadek liczby zleceń. Zagadnienie dyktowania tekstów - automatycznej konwersji głosu na tekst - jest już w praktyce rozwiązane. 

Rynek się zmniejszy skoro więcej pracy będziemy wykonywali z pomocą AI?

Wszędzie, gdzie mamy do czynienia z interakcją między ludźmi i ważne są emocje, tam jest miejsce dla ludzi. Obawiam się natomiast wystąpienia innego problemu. Współczesne AI dobrze sobie radzi z rozwiązywaniem przeciętnych zadań nie wymagających nadzwyczajnej kreatywności. Oznacza to, że od pracowników będziemy oczekiwali jeszcze większej kreatywności. Czy jednak wszyscy są w stanie i chcą być bardzo kreatywni? Obawiam się, że dzisiaj nie.

Jak temu zaradzić?

Będzie musiało dojść do dość zmian w obszarze edukacji. Będziemy musieli uczyć tak, aby odkryć i rozwinąć w każdym człowieku te jego cechy, które dają mu największą szansę na bycie kreatywnym -  cechy, które stanowią o jego wyjątkowości.

Tymczasem polskie szkolnictwo, to zwykle jednostronne wykłady.

To trudne w naszym modelu, ale możemy wykorzystać AI.

Wyobrażam sobie wytworzenie sztucznego nauczyciela, który indywidualnie podejdzie do każdego ucznia w oparciu o analizę zdolności, kompetencji i oczekiwań. Nauczyciel AI będzie wiedział, ile czasu poświęcić na omawiane zagadnienia, uwzględniając wcześniejszą wiedzę oraz predyspozycje ucznia. Znając jego mocne strony, będzie kształcił go tak, aby rozwinął się w kierunku, wykorzystującym kreatywność. Do lamusa odejdą standardowe programy nauczania określające, czego uczyć i na co ile godzin poświęcić.

Zmieni się edukacja, ale nasza praca zmienia się już teraz. Wszyscy możemy przecież korzystać z chatbotów przy codziennych czynnościach.

To też nic nowego. Gdy byłem dzieckiem moja babcia dorabiała sobie do emerytury, wykonując pracę chałupniczą polegającą na składaniu długopisów z części. Dzisiaj nikt już takiej pracy nie wykonuje, bo długopisy składają roboty w fabryce. Pytanie o to, jak rozliczać pracę polegającą na składaniu długopisów, nie ma sensu. Myślę, że z AI będzie podobnie. Zadanie człowieka będzie polegało na wyznaczaniu zadań AI i kontroli wyników pracy. Za to człowiek będzie wynagradzany. Naszą rolą będzie kreatywne kierowanie maszynami (sztucznymi niewolnikami), aby realizowali wskazane przez nas cele. Ludzi będą uzgadniali cele i definiowali priorytety wobec ograniczonych zasobów.

Dziś zajmują się tym nasi liderzy.

Nie sądzę, że będzie to rola wyłącznie przywódców. Każdy z nas stawia przed sobą i swoją grupą cele, określa ich priorytety i nadzoruje ich realizację. Wyobrażam sobie, że jak starożytny Rzym tworzyli obywatele rzymscy, którzy posługiwali się niewolnikami dla realizacji swoich celów, tak ludzkość stanie się zbiorowiskiem obywateli rzymskich wykorzystujących kastę sztucznych, opartych o AI niewolników do realizacji swoich celów.

Jednak niewolnicy byli podobni do swoich właścicieli pod wieloma względami. Mieli choćby emocje, które wspomniał Pan wcześniej.

Współczesne modele oparte o uczenie maszynowe, wbrew pozorom nie są oparte o logiczne rozumowanie. Ich działanie więcej ma wspólnego ze statystyką niż rozumiem. To oznacza, że modele mają tendencję do wspierania takich rozwiązań, które były wspierane najczęściej w populacji danych, na których model się uczył. To może prowadzić do masowych błędnych decyzji, a także wspierać pewne mody wynikające nie tyle z analizy optymalności rozwiązania, ile z powszechności podejścia.

Czyli jeśli ludzie - w swojej masie są motywowani emocjami, to maszyny będą kopiowały ich zachowania i decyzje.

Znany jest przypadek systemu wspomagającego pracę sędziów - sugerującego wyroki w konkretnych sprawach. System został wytrenowany na ogromnej liczbie wcześniejszych przypadków. Jako dane uczące wykorzystano zarówno wszelkie dane, którymi dysponowali sędziowie, jak i wyroki, które na podstawie tych danych zapadły. Po analizie okazało się, że część wyroków sugerowanych przez AI nacechowana jest uprzedzeniami do określonych grup ludzi. Działo się tak dlatego, że statystycznie istotny odsetek spraw użytych do uczenia AI zostało rozstrzygniętych w sposób naznaczony uprzedzeniami.

Z powyższym zjawiskiem wiąże się dość poważne zagrożenie. Systemy AI oparte o uczenie maszynowe są uczone w oparciu o duże ilości danych i są niezwykle użytecznym narzędziem wtedy, gdy nie jest możliwe sformułowanie prostych, algorytmicznych reguł określających, jakiego rezultatu oczekujemy. Systemy te jednak, ze względu na swoją złożoność, nie dają możliwości jednoznacznego stwierdzenia, dlaczego taka a nie inna odpowiedź została udzielona lub decyzja podjęta.

Jak może się to odbić na użytkownikach systemu?

System może nauczyć się zależności przypadkowych, nie mających związku z istotą badanego zagadnienia. Przykładowo może się zdarzyć, że użyjemy dużej liczby danych do wytrenowania systemu wykrywającego działalność niezgodną z prawem. Jeśli, w skutek zbiegu okoliczności, okaże się, że wśród firm działających niezgodnie z prawem i wskazanych w zbiorze treningowym jest statystycznie znacząca przewaga takich, których nazwy zaczynają się na literę D, F i G to system może się nauczyć, że firmy o takich nazwach, są znacząco bardziej podejrzane.

Żaden człowiek by tak nie pomyślał, a system opierający swoją pracę o statystykę tak właśnie zrobi. Problem polega na tym, że czasem bardzo trudno jest takie zależności wykryć, co w konsekwencji może prowadzić do niebezpiecznych efektów. A ponieważ ludzie mają tendencję do kierowania się emocjami, a potem uzasadniania swoich emocjonalnych decyzji na polu racjonalnym (ukrywania właściwych motywacji), łatwo sobie wyobrazić AI, które niejako przejmie emocjonalny sposób podejmowania decyzji.

W wielu wypadkach wkładamy dużo pracy, aby decyzje emocjonalne uzasadnić na poziomie racjonalnym. Takie uzasadnienie ma dwie funkcje. Po pierwsze pozwala nam postrzegać samych siebie jako ludzi racjonalnych, co jest uważane za zaletę. Po drugie jednak pozwala wyeliminować te decyzje, które - choć atrakcyjne emocjonalnie - w racjonalnej perspektywie prowadzą do katastrofy. Katastrofy rozumianej jako zagrożenie dla osiągnięcia innych naszych celów - również wyznaczonych emocjonalnie. Z tego rozumowania wynika bezpośrednio sposób wykorzystania AI. Wolna od własnych emocji sztuczna inteligencja będzie w stanie dostarczać nam uzasadnień dla naszych emocjonalnych decyzji, a także proponować sposoby osiągnięcia naszych emocjonalnych celów. 

Będą to robiły dzięki możliwościom generatywnej sztucznej inteligencji. Nigdy wcześniej nie dostaliśmy narzędzi, które były tak blisko naszych, ludzkich umiejętności. Jakie przełomy stoją za jej wyjściem na salony?

Skonstruowanie sensownego asystenta opartego o przetwarzanie języka naturalnego wymaga opracowania systemu dialogowego zdolnego do utrzymania kontekstu rozmowy. Oznacza to, że podczas odpowiadania na kolejną wypowiedź w konwersacji, system powinien uwzględniać cały wcześniejszy dialog, a nie tylko najnowsze pytanie.

Mocno rozwija się także analiza sentymentu wypowiedzi pozwalająca przypisać atrybuty emocjonalne do tekstu. Zagadnienie to powiązane jest z tagowaniem semantycznym, czyli określaniem tematu poszczególnych wypowiedzi. 

Jak można to praktycznie wykorzystać?

Proszę sobie wyobrazić call center, w którym pracę kilkunastu, a może kilkudziesięciu konsultantów nadzoruje doświadczony koordynator. Nie może jednocześnie monitorować każdej rozmowy, ale za to system pomoże mu zidentyfikować wzrost napięcia emocjonalnego w konwersacji, gdzie będzie mógł interweniować. Emocje oznaczają bowiem, że za chwilę zapadnie ważna decyzja.

Jeśli zbliżamy się do decyzji pozytywnej, np. o zakupie oferowanego produktu, warto sprawdzić, czy nie można jakoś konsultantowi pomóc, aby nie stracił kontraktu na ostatniej prostej. Jeśli mamy do czynienia z emocjami negatywnymi, to grozi nam rozczarowanie klienta, a nawet zerwanie kontraktu. Tu również warto podać pomocną rękę konsultantowi, aby ograniczyć straty. 

Samo AI nie pomoże konsultantowi?

REKLAMA

Oczywiście, pomoże, ale nie jest w stanie zastąpić dobrego sprzedawcy, który umie wczuć się w potrzeby klienta i tak pokierować rozmową, aby wskazać cechy produktu czy usługi, które przekonają nabywcę i pozwolą domknąć sprzedaż.

Każdy współczesny automatyczny system wykrywania emocji robi to gorzej niż zupełnie przeciętny, ale żywy rozmówca.

REKLAMA
Najnowsze
Aktualizacja:
REKLAMA
REKLAMA
REKLAMA