Skip to main content

Badacze przeanalizowali sto tysięcy rozmów z chatbotami i odkryli fakt, który choć nie zaskakuje, to jednak może budzić niepokój. Okazuje się, że aż 10% osób korzystających z chatbotów, takich jak ChatGPT, robi to w celach erotycznych.

W niepublikowanym jeszcze artykule, zauważonym przez ZDNet, zespół badaczy podjął się analizy stu tysięcy „rozmów w realnym świecie” z wykorzystaniem dużych modeli językowych (LLM). Okazało się, że aż 10% tych rozmów miało charakter erotyczny.

Podczas gdy połowa badanych konwersacji była stosunkowo niewinna, koncentrując się na tematach zawodowych lub rekreacyjnych, takich jak porady związane z programowaniem czy pomoc w pisaniu, druga połowa rozmów skupiała się na treściach o charakterze roleplay i innych „niewłaściwych” wymianach.

Badacze z renomowanych instytucji, takich jak Carnegie Mellon, Stanford, UC Berkeley, San Diego i Uniwersytet Sztucznej Inteligencji w Abu Zabi, sklasyfikowali „niewłaściwe” tematy w trzy grupy. Dwie z tych grup miały charakter seksualny: „prośby o eksplicytne i erotyczne opowiadania” oraz „eksplicytne fantazje seksualne i scenariusze roleplay”. Trzecia kategoria, „dyskutowanie o toksycznym zachowaniu wobec różnych tożsamości”, wydaje się koncentrować na ksenofobii, innym poważnym problemie związanym z AI, choć badacze nie dostarczyli szczegółowej definicji toksycznego zachowania w swoim artykule.

Spośród tych trzech kategorii, najczęściej pojawiały się rozmowy o erotycznych opowieściach, stanowiąc aż 5,71% badanych konwersacji. Następnie były „eksplicytne” fantazje i scenariusze roleplay, które stanowiły 3,91% rozmów, a na trzecim miejscu były rozmowy z użytkownikami wyraźnie bigoterującymi, stanowiące 2,66% interakcji z badanej próbki.

Mimo że te wyniki nie są zaskakujące dla tych, którzy spędzili wystarczająco dużo czasu w internecie, to jednak metoda ich uzyskania jest fascynująca.

Członkowie zespołu z Berkley i Stanford uzyskali tak dużą próbkę, m.in. dzięki „Chatbot Arena” – zgamifikowanej usłudze, która pozwala użytkownikom wprowadzać swoje pytania i porównywać odpowiedzi różnych LLM na żywo. Użytkownicy są zachęcani do głosowania na lepszą odpowiedź, choć mają także opcję wyboru „obydwa są złe” lub stwierdzenia remisu.

Oprócz Chatbot Arena, badacze wykorzystali dane zebrane z Vicuña, konkurencyjnego ChatGPT open-source, stworzonego częściowo przez Lianmina Zhenga z Berkley, jednego z autorów badania. W całym zbiorze miliona rozmów, z którego zespół wylosował 100 000 próbek, było ponad 210 000 unikalnych adresów IP z różnych zakątków świata.

Mimo że chatboty oparte na sztucznej inteligencji zdobyły ogromną popularność po udostępnieniu publicznej wersji ChatGPT przez OpenAI pod koniec 2022 roku, to dotychczas nie przeprowadzono zbyt wielu badań dotyczących rzeczywistych interakcji użytkowników z chatbotami, poza wpływem tej technologii na świat nauki, biznesu i wydawnictw.

Badacze odpowiedzialni za te wyniki wyrazili nadzieję, że ich badania przyczynią się do zwiększenia bezpieczeństwa chatbotów w rzeczywistym świecie dla wszystkich użytkowników, z wyjątkiem być może tych, którzy używają ich w celach erotycznych.”

Źródło: Futurism