REKLAMA
  1. bizblog
  2. Technologie /
  3. Rozmowa

O czym śni sztuczna inteligencja? Czasami omamy i mitomania sprowadzają boty na manowce

Właśnie teraz kreują się dobre praktyki i wyznaczane są granice w podejściu do sztucznej inteligencji – od etyki, przez realną wartość i podejście do halucynacji – mówi Aleksandra Bilińska z KODA.AI na początku naszej rozmowy o trendach w świecie chatbotów.

22.04.2023
13:01
chatbot_AI
REKLAMA

ChatGPT błyskawicznie wdrapał się na szczyt rankingów popularności. Dziś korzystają z niego nie tylko zwykli ludzie, którzy chcą szybko dostać odpowiedź, ale również wydawcy czy psychologowie. Możliwości dużych modeli językowych (LLM - Large language model) rosną z dnia na dzień: w ramach treningu, ale również dodawania nowych funkcji, takich jak pluginy.

REKLAMA

Łatwość obsługi i integracji sprawiła, że dziś jest to najszybciej rozwijająca się technologia. Zwłaszcza prędkość jej rozwoju sprawiła, że Elon Musk, współzałożyciel Apple Steve Wozniak, badacze SI i uczenia maszynowego z całego świata czy pracownicy DeepMind wystosowali list otwarty do badaczy sztucznej inteligencji:

Wstrzymajcie rozwój sztucznej inteligencji na 6 miesięcy

Odpowiedzialny i transparentny rozwój sztucznej inteligencji był również tematem niedawno zakończonej konferencji Chatbot and Conversation AI Summit w Edynburgu. I właśnie w jej kontekście rozmawiam z Aleksandrą Bilińską, Head of Customer Success w KODA.AI. 

Karol Kopańko, Bizblog.pl: Zanim przejdziemy do poważniejszych rzeczy, zacznijmy od ciekawostki, która przyciągnęła mój wzrok. Okazuje się bowiem, że ludzie najczęściej wybierają awatary kreskówkowe dla sztucznej inteligencji. 

Aleksandra Bilińska: Przyjrzyjmy się więc pierwszym chatbotom, które mocno odstawały jakością od tego, co mamy teraz. Brak NLP, czyli rozumienia języka, sprawiał, że chatboty nie wyłapywały odmiany słów, synonimów czy zmian szyku w zdaniach i literówek. Jeśli więc firmy nie informowały otwarcie o wykorzystaniu chatbota, to użytkownicy czuli się oszukani.

Czyli kreskówkowy awatar był pierwszym sygnałem, że nie mamy do czynienia z człowiekiem.

A dodatkowo wprowadzał przyjemny i luźny klimat rozmowy, co idealnie pasowało do wymiany wiadomości na czacie, a nie np. w formularzu. Natomiast wraz z rozwojem technologii możemy wpaść w dolinę niesamowitości, gdy firmy będą używały niepokojąco podobnych do ludzi avatarów.

Historia zatoczy więc koło, podobnie jak teraz nie jesteśmy już w stanie rozróżnić tekstu napisanego przez LLM i człowieka.

Dziś na rynku mamy już wielu producentów oprogramowania do tworzenia postaci 3D i dostosowywania ich głosu, aby sprawdzały się najlepiej jako prezenterzy wiadomości czy przedstawiciele firmy. Chodzi tu m.in. o dobranie najprzyjemniejszego głosu z odpowiednią dykcją i naturalną długością przerw między wyrazami i zdaniami.

Dziś ta naturalność sprawia, że sztuczną inteligencję wykorzystują uniwersytety we współpracy z firmami technologicznymi w terapii zdrowia psychicznego.

Dzięki temu zwiększa się dostępność do terapii dla osób, które nie mogą sobie pozwolić na wsparcie psychologa (nowe rozwiązania są darmowe, a koszty terapii tradycyjnej są wysokie). Z nowych technologii chętniej korzystają również młodsze osoby, przyzwyczajone do czatowania.

Ludziom łatwiej otworzyć się, gdy nie biorą pod uwagę tego, że inny człowiek może to przeczytać czy ich ocenić. Ale oczywiście, takie podejście jest również krytykowane – nie mamy pełnej kontroli nad odpowiedziami AI. Możemy przetrenować maszynę do tego, aby na podstawie różnych parametrów odpowiadała tak, jak to zaplanujemy, ale ludzka mowa, emocje czy konteksty są tak złożone, że nie ma możliwości, aby maszyna nie popełniała błędów.

Człowiek także je popełnia.

Tak i dlatego nasz dylemat można porównać do autonomicznych samochodów, których wypadek jest zwykle przyczynkiem do krytyki całej technologii. W przypadku zdrowia psychicznego, jest podobnie. Błędna odpowiedź również może doprowadzić do tragedii, dlatego temat ten dzieli wiele osób.

Sztuczna inteligencja ma halucynacje

Kilka dni temu świat obiegła informacja, że chatbot miał nakłonić młodego mężczyznę, obawiającego się o klimat do popełnienia samobójstwa. Kiedy ten podzielił się z nim myślami samobójczymi, chatbot nie zareagował, a jedynie stwierdził, że „staną się jednością w niebie”.

Możemy zdefiniować najlepsze odpowiedzi, jak np. przekazanie informacji o możliwości uzyskania pomocy od prawdziwego człowieka w krytycznych sytuacjach, ale nie jesteśmy w stanie przewidzieć wszystkiego.

Dziś widzimy, że gdy chatbot nie ma pojęcia o jakiejś kwestii, to spotykają go halucynacje, czyli wymyślanie odpowiedzi. Nie będzie to dużym problemem, kiedy AI popełni błąd przy podawaniu wyniku meczu, ale co innego, kiedy stworzy recenzję nieistniejącego produktu, doradzi fatalną inwestycję.

Halucynacje są obecnie głównym hamulcowym wdrażania tej technologii w kontekście biznesowym. Ze względu na specyfikację rozwiązań LLM wyeliminowanie ich w 100 proc. nie jest możliwe. Można je jednak ograniczać, np. precyzyjnie definiując konteksty – tzw. prompty. Często nawet jedno sformułowanie potrafi znacząco zmniejszyć poziom halucynacji. Co istotne, z każdą kolejną wersją GPT, halucynacji jest w nim mniej. W KODA.AI wdrażamy obecnie produkcyjnie projekty które opierają się na ChatGPT i badamy współczynnik halucynacji w zależności od przekazywanego kontekstu.

Czy hamulcem wdrożenia takich modeli w firmach może być np. ich polityka bezpieczeństwa?

Gdy używamy ChatGPT na stronie www twórców, prawa autorskie do odpowiedzi przez niego wysyłanych, a także do samych promptów wpisywanych przez użytkowników, należą do OpenAI, czyli automatycznie służą do douczania ogólnodostępnej bazy wiedzy. Na szczęście, jeśli korzystamy z tego rozwiązania przez komercyjne API do wdrożeń firmowych, przekazywane treści nie służą do uczenia modelu – to nie powinno być więc problemem. 

Istotnym, ale tymczasowym, aspektem w tej kwestii jest natomiast przetwarzanie danych osobowych. OpenAI w tej chwili dane przetwarza w USA, co jest niezgodne z RODO. Według dyrektywy, dane użytkowników Unii Europejskiej, muszą być przetwarzane na terenie Unii Europejskiej. Swego czasu, z tym zapisem walczył Facebook i ostatecznie musiał dostosować się do europejskiego prawa. Dlatego na ten moment rekomendujemy wykorzystywanie tej technologii w rozwiązaniach (czy ich aspektach), w których nie padają dane osobowe użytkowników, a w razie czego i tak stosujemy ich automatyczną anonimizację.

Unii Europejskiej zdarza się jednak stawiać chatboty w pozytywnym świetle. 

Unia Europejska z coraz większą śmiałością pracuje nad wykorzystaniem nowych technologii w komunikacji z mieszkańcami. Na terenie Wspólnoty funkcjonuje w końcu ponad 20 języków oficjalnych i dużo dużo więcej nieoficjalnych. Automatyzacja komunikacji ma pozwolić na bardziej swobodny szybszy przepływ informacji, właśnie ze względu na możliwość działania w tak wielu językach na raz.

Od wielu lat mamy przecież do czynienia z automatycznymi tłumaczami (jak np. ten od Google’a), które robią dobrą robotę. Porównałem tłumaczenia i nie widzę dużej różnicy.

Samo tłumaczenie pojedynczego paragrafu może różnić się jedynie w detalach. ChatGPT rozumie jednak kontekst pytania w wielu językach i samodzielne dopasowuje odpowiedzi też w tym języku. W przypadku dotychczasowych translatorów, tłumaczą one pytanie, tłumaczą odpowiedź, ale w przypadku czatu ważne jest wszystko pomiędzy – związane z poprawnym zrozumieniem pytania i dopasowaniem odpowiedzi.

W przypadku rozmowy z chatbotem kluczowe wydaje się również odpowiednie zadanie pytania – promptu.

Powiem więcej – już teraz powstaje wiele kursów tworzenia promptów. Niektórzy porównują to do rzucania zaklęć.

Ciekawe porównanie. Na ile jest to umiejętność, której nie da się wytrenować w kilka dni, analizując odpowiedzi maszyny?

REKLAMA

Modele otwierają drzwi do branży przed wieloma osobami, które nie mają ani wykształcenia związanego z programowaniem ani nie są specami od komunikacji. Tworzenie promptów wymaga wiedzy, ale przede wszystkim ćwiczenia i samodzielnego sprawdzania jak maszyna reaguje na polecenie.

Ktoś, kogo ciekawią technologie, ale nie ma w nich żadnego doświadczenia, jest w stanie opanować tę umiejętność dosłownie w kilka dni. Ważna jest tu ciekawość, uważność i wytrwałość – nawet jeśli przez kilka napisanych promptów odpowiedź nas nie satysfakcjonuje. Warto spróbować jeszcze raz, trochę inaczej.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA