Sztuczna inteligencja jak internetowy troll. Ma halucynacje, wprowadza w błąd i spamuje
Sztuczna inteligencja w mgnieniu oka poda przepis na ciasto drożdżowe, sposoby na spędzenie weekendu nad morzem lub wytłumaczy zasady piłki nożnej. A równie łatwo może napisać recenzję nieistniejącego produktu, doradzić nieopłacalną inwestycję lub wyprodukować śmieciowy tekst?
ChatGPT błyskawicznie zyskał gigantyczną popularność – zwłaszcza wśród podmiotów, które muszą szybko tworzyć duże ilości treści. Ten artykuł w całości został napisany przez człowieka, ale w teorii mogłem przecież wyręczyć się AI. To w końcu tylko szybki prompt, a ściana tekstu pojawiłaby się w kilka chwil przed moimi oczyma. Korzystanie z automatycznego generowania treści jest jednak krótkowzroczną strategią.
Jak wykazał Futurism, serwis CNET, popularna amerykańska platforma, na której można znaleźć recenzje produktów i usług z branży technologii czy bankowości, przez wiele miesięcy zatrudniał silnik AI do pisania artykułów na poświęconą finansom osobistym stronę CNET Money. Futurism zauważył, że publikacje zawierały niemal identyczne sformułowania jak te, które widniały w artykułach Forbes Advisor, The Balance i Investopedia – również oferujących doradztwo finansowe.
Dlatego warto zdać sobie sprawę, że ChatGPT nie tyle tworzy nowe treści, co przewiduje jakie słowo powinno się znaleźć następne w kolejności.
ChatGPT to plagiator, robi błędy i ma omamy
Właśnie dlatego CNET musiał poprawiać 41 z 77 artykułów – w każdym z nich znajdowały się nieścisłości.
Sztuczna inteligencja nie wie o swojej niewiedzy, jedynie wymyśla fakty i ubiera je w zgrabną całość. To, co stworzy, jest wynikiem setek godzin uczenia maszynowego na podstawie ogromnej ilości danych. AI jest więc karmiona gotową treścią, pochodzącą np. z internetu. Poza tym artykuł stworzony przez generator w praktyce nie jest autorstwa AI ani osoby, która go opublikuje. Pojawia się więc problem: Kto odpowiada za tę treść? Na ludzki rozum wina spada na redaktorów CNET, którzy nie sprawdzili, czy narzędzie SI tworzy oryginalne materiały – zauważa Marcin Stypuła, właściciel agencji Semcore.pl.
Duże modele językowe są jedynie narzędziem - same w sobie nie są zła. Wręcz przeciwnie – chcą ułatwić nam życie. Problemem pojawia się wówczas, kiedy zaczniemy wykorzystywać je nieetycznie. Już teraz powstają jednak narzędzia, które pomagają nam w zabezpieczeniu się przed felerną sztuczną inteligencją.
Jedno z nich, służące do wykrywania plagiatów AI, zaprojektował 22-letni student Uniwersytetu Princetone Edward Tian. Efekty zademonstrował w nagraniu wideo, w którym przeprowadził analizę artykułu z magazynu „The New Yorker” i postu na LinkedIn napisanego przez ChatGPT.
Aplikacja odróżnia treść napisaną przez człowieka od stworzonej przez AI
Z kolei Eric Anthony Mitchell, student informatyki w Stanford, wraz z kolegami opracowali detektor ChatGPT o nazwie DetectGPT. Młodzi naukowcy twierdzą, że opracowana przez nich technologia jest w stanie poprawnie zidentyfikować tekst stworzony przez duży model językowy nawet do 95 proc. przypadków.
Na laurach nie spoczywają także twórcy modułu ChatGPT i oprogramowania do generowania obrazów OpenAI. Udostępnili bowiem bezpłatne narzędzie, które ma odróżniać tekst napisany przez człowieka od napisanego przez AI. Tak zwany klasyfikator jest łatwy w użyciu, wymaga jedynie założenia bezpłatnego konta w OpenAI. Jak działa? Wystarczy skopiować i wkleić podejrzany materiał do okienka, o długości min. 1000 znaków, a narzędzie natychmiast poinformuje o prawdopodobieństwie udziału sztucznej inteligencji w jego stworzeniu.
Jak jednak podała sama OpenAI, klasyfikator nie jest w pełni wiarygodny, więc nie powinien być używany jako wyrocznia, a jedynie jako podpowiedź do dalszej weryfikacji przez człowieka. Zdarza się, że popełnia błędy i potrafi niewłaściwie przypisać treści napisane przez człowieka jako pochodzące od sztucznej inteligencji. Z drugiej strony może też błędnie zasugerować autorstwo człowieka, np. w przypadku, gdy materiał zostanie skorygowany.
Google walczy z internetowym bełkotem?
Danny Sullivan, rzecznik Google Search, opublikował 18 sierpnia 2022 roku artykuł „Więcej treści dla ludzi od ludzi w wyszukiwarce”. Zauważa w nim frustrację związaną z odwiedzaniem strony, na której znajduje się treść stworzona tylko dla SEO i wygenerowana przez sztuczną inteligencję. Sullivan deklarował również wprowadzenie algorytmu, który będzie walczył z „treściami, które wydają się być stworzone głównie w celu dobrego rankingu w wyszukiwarkach, a nie do pomagania lub informowania ludzi” oraz recenzjami, które nie są napisane przez ekspertów.
Zrobił tak, jak zapowiedział. Google w sierpniu 2022 r. wprowadziło aktualizację algorytmu. Wyszukiwarka aktualnie działa w oparciu o tzw. Helpful Content, czyli czynnik rankingowy promujący rozbudowane treści, których celem jest pomaganie użytkownikowi. Głównym założeniem Helpful Content jest to, aby słaba treść była nisko w rankingu, a na górę wyszukiwań wyciągane będą te strony, które mają wartościową treść.
Jak taka ocena się odbywa? Algorytm skanuje całe strony i ocenia znalezioną treść. Jednak Helpful Content nie zagraża treści tworzonej przez AI. Algorytm Google’a nie bada jakości treści lub realności autorów. Technologiczny gigant skupia się m.in. na długości, literówkach, niepowtarzalności treści – to wszystko mogą spełnić teksty od AI.
Aktualizacja Helpful Content sprawiła, że z rankingów spadały strony, które miały artykuły zbudowane tylko ze słów kluczowych. Ale pamiętajmy, że aktualnie sztuczna inteligencja jest o wiele bardziej finezyjna! Tworzy teksty, które po redakcji profesjonalisty mogą nadawać się pod SEO. Jeśli jednak treści stworzone przez SI okażą się mało wartościowe i nie odpowiedzą na potrzeby internautów, to algorytm nie pozwoli aby wybiły się w wynikach wyszukiwania. Wniosek jest prosty. SI może być przydatnym narzędziem w ręku redaktora, ale sama w sobie na dłuższą metę nie zda egzaminu. Nie obędzie się bez wizji, kreatywności, holistycznego spojrzenie, analitycznego myślenia i wyczucia. A do tego potrzebny jest człowiek. Wiele firm zapewne pójdzie na łatwiznę, ale nie wróżę im długofalowego sukcesu – ostrzega Marcin Stypuła i dodaje, że przed nami masowa produkcja artykułów, opisów produktów, postów a nawet recenzji, których autorem będzie sztuczna inteligencja.
Nasuwa się więc pytanie: Czy Google, aby zapewnić użytkownikom swojej wyszukiwarki najwyższą jakość wyników, sięgnie po rozwiązania wykrywające materiały stworzone przez sztuczną inteligencję? W końcu gigant pracuje nad własną SI, może więc nie chcieć podcinać gałęzi, na której niebawem zamierza się rozsiąść.