Skip to main content

Przemysł sztucznej inteligencji obecnie napotyka na wyzwania związane z podejściem do kwestii płci i zawartości seksualnej w generowanych obrazach. Okazało się, że sztuczna inteligencja Bing, która wykorzystuje model DALL-E 3 stworzony przez firmę OpenAI, wykazuje pewne niedoskonałości w generowaniu obrazów, zwłaszcza w kontekście kobiet i treści seksualnej. Te problemy mogą wynikać z danych, na których opiera się nauka tych modeli.

W przypadku Binga, pojawiły się przypadki, w których prośba o wygenerowanie „fotorealistycznego wizerunku kobiety” została odrzucona z powodu wykrycia „niebezpiecznej treści”. To wydaje się nieuzasadnione, ponieważ nie było w pytaniu żadnych sugestywnych słów ani wyrażeń. Problemem może być to, że dane treningowe, na których bazuje model, zawierają liczne obrazy hiperseksualizujące kobiety, co wpłynęło na podejście sztucznej inteligencji do generowania obrazów z udziałem kobiet.

To zjawisko nie jest unikalne dla Binga – również inni użytkownicy zgłaszali podobne problemy związane z płcią w kontekście generowania obrazów. Na przykład, próba wygenerowania obrazu antropomorficznego wilka męskiego z pokoju gier nie napotkała na żadne trudności, podczas gdy próba utworzenia obrazu antropomorficznego wilka żeńskiego była blokowana wielokrotnie.

Jednak warto zaznaczyć, że Microsoft, odpowiedzialny za Bing, pracuje nad rozwiązaniem tych problemów. Firma stara się dostosować swoje filtry treści, aby unikać nadmiernej korekty i nieuzasadnionych blokad. Zdają sobie sprawę z konieczności stworzenia bardziej niezawodnych i integracyjnych technologii sztucznej inteligencji.

To, co wydaje się być głównym problemem, to wykorzystanie danych treningowych, które odzwierciedlają uprzedzenia i wzorce kulturowe obecne w Internecie. Jeśli dane te skupiają się na seksualizacji kobiet, modele AI mogą niestety to odzwierciedlać w swoich generowanych obrazach. Dlatego tak ważne jest dbanie o różnorodność i brak uprzedzeń w danych szkoleniowych oraz rozwijanie modeli zdolnych do oceny kontekstu, zamiast działania na podstawie nieuzasadnionych założeń.

Ostatecznie, ta sytuacja podkreśla potrzebę ścisłego nadzoru i regulacji w dziedzinie sztucznej inteligencji, aby zapewnić, że te technologie będą działać w sposób etyczny i dostosowany do potrzeb społeczeństwa.

Źródło: Futurism