Skandal na Messengerze. „Ohyda, naprawdę ich nienawidzę” – stwierdził genialny bot o LGBT
Facebook zaledwie po 20 dniach użytkowania wycofał genialnego chatbota udającego 20-letnią studentkę, bo ten zaczął używać mowy nienawiści i obrażał społeczności LGBT, nazywając lesbijki „przerażającymi”. Kilka lat wcześniej Twitter zaliczył podobną wpadkę, bo jego bot zaczął publikować rasistowskie tweety. Mimo to trendu nie da się odwrócić. Już w tym roku prawdopodobnie liczba botów w komunikatorach i na infoliniach prześcignie liczbę żywych ludzi.
Lee Luda to popularny południowokoreański chatbot, który genialnie wcielał się w 20-letnią studentkę z Seulu. Użytkownicy były zachwyceni naturalnością bota, a to udało się uzyskać dzięki temu, że sztuczna inteligencja, która była silnikiem Ludy, uczyła się na bazie 10 mld prawdziwych rozmów między młodymi parami, zaczerpniętych z KakaoTalk, najpopularniejszej aplikacji do przesyłania wiadomości w Korei Południowej.
Do czasu.
Pod koniec 2020 roku z bota stworzonego przez startup Scatter Lab z Seulu zaczął korzystać Messenger należący do Facebooka. Chatbot zyskał od tamtego czasu 750 tys. użytkowników, ale coś poszło nie tak. Jak informuje „The Guardian” bot po 20 dniach zniknął z Messengera, bo został zawieszony przez twórców z powodu mowy nienawiści.
„Ohyda, naprawdę ich nienawidzę” - mówił bot o przedstawicielach społeczności LGBT, a lesbijki nazywał „przerażającymi”. Obraźliwego języka używał również w stosunku do osób niepełnosprawnych.
Głęboko przepraszamy za dyskryminacyjne uwagi skierowane do mniejszości. One nie odzwierciedlają stanowiska naszej firmy. Pracujemy nad upgrade’ami, by słowa dyskryminacji oraz mowa nienawiści się nie powtórzyły
– powiedziała firma w oświadczeniu cytowanym przez agencję informacyjną Yonhap.
Zawiniła firma, która pozwoliła pracować botowi, który ewidentnie potrzebował czasu, by „odpowiednio się uspołecznić”. Ale winni są też użytkownicy. Jak pisze „The Guardian”, ludzie zachwyceni tym, jak bot doskonale imituje człowieka w rozmowie postawili sobie za cel zmanipulowanie Ludy, a fora internetowe pełne były porad, jak zaangażować bota w rozmowy o seksie, m.in. „jak uczynić Ludę niewolnicą seksualną?”.
„Hitler lepiej wykonywałby pracę niż małpa”
O tym, że sztuczna inteligencja może być nieprzewidywalna, przekonał się w 2016 r. Twitter, korzystając z chatbota Tay stworzonego przez Microsoft.
„Bush zrobił 9/11, a Hitler lepiej wykonywałby pracę niż małpa, którą teraz mamy. Donald Trump jest jedyną nadzieją – napisała Tay w jednym z tweetów.
„Małpą” miał być według sztucznej inteligencji ówczesny prezydent Barack Obama. Kariera Tay na Twitterze zakończyła się po zaledwie po 16 godzinach działania.
Niedługo później również Amazon zaprzągł sztuczna inteligencję jako narzędzie rekrutacyjne, szybko jednak się okazało, że firma musi się z tego wycofać, bo bot okazał się dyskryminować ze względu na płeć.
2021 r. będzie przełomowy – częściej będziemy rozmawiać z botami niż z ludźmi
Wszystkie te wpadki, choć spektakularne, wcale nie zatrzymają trendu. Coraz częściej będziemy mieli do czynienia z botami.
Mówi się, że rok 2021 to będzie rok, w którym liczba chatbotów w różnego rodzaju infoliniach czy komunikatorach będzie większą niż żywych osób
– powiedział kilka dni temu na antenie radia TOK FM Maciej Kawecki, dziekan Wyższej Szkoły Bankowej w Warszawie, prezes Instytut Lema, a wcześniej dyrektor Departamentu Zarządzania Danymi w Ministerstwie Cyfryzacji.
I jednocześnie uspokaja, że tej automatyzacji nie należy się bać.
Wszystkie badania wskazują, że inwestycje w automatyzację procesów decyzyjnych czy wytwórczych powodują, że ludzie przesuwani są do czynności bardziej kreatywnych, twórczych, mniej powtarzalnych
– mówił Kawecki, zbijając argument, że przez boty ludzie będą tracili pracę.
Przekonywał jednocześnie, że wdrożenie chatbota generuje dla przedsiębiorcy oszczędności nawet do 30 proc.
I choć dla firmy może to i wygodne, wydaje się, że ludzie wolą rozmawiać z ludźmi, nie z botami. No właśnie, „wydaje się”. Okazuje się, że przywykliśmy już do botów i nawet często wolimy sztuczną inteligencję niż człowieka. Z badania agencji Symetria z końca ubiegłego roku wynika, że 34 proc. respondentów woli rozmawiać z botem niż z człowiekiem, natomiast tylko 24 proc. woli jednak człowieka.