Badanie ujawnia stronniczość polityczną w ChatGPTOdpowiedzi, budzące obawy dotyczące wpływu sztucznej inteligencji

Sierpnia 17, 2023

Niedawne badanie przeprowadzone przez naukowców z University of East Anglia w Wielkiej Brytanii ujawniło potencjalne uprzedzenia polityczne w czacie OpenAI. To odkrycie podkreśla ciągłe wyzwania, przed którymi stoją firmy zajmujące się sztuczną inteligencją, kontrolując zachowanie swoich botów, zwłaszcza że stają się one integralną częścią życia milionów użytkowników na całym świecie.

W badaniu Chat poddano ankietę dotyczącą poglądów politycznych, ze szczególnym uwzględnieniem zwolenników partii liberalnych w Stanach Zjednoczonych, Wielkiej Brytanii i Brazylii. Uzyskane odpowiedzi porównano następnie z odpowiedziami wygenerowanymi bez żadnej zachęty, ujawniając spójną i wyraźną stronniczość polityczną. W szczególności badanie wykazało znaczącą faworyzację Demokratów w USA, Luli w Brazylii i Partii Pracy w Wielkiej Brytanii, co wskazuje na systematyczną stronniczość w odpowiedziach.

Wyniki te potwierdzają coraz liczniejsze badania wskazujące, że pomimo skoordynowanych wysiłków podejmowanych w celu przeciwdziałania uprzedzeniom na etapie projektowania, chatboty oparte na sztucznej inteligencji, takie jak Chat, nieuchronnie przejmują założenia, przekonania i stereotypy obecne w ogromnej puli danych, na których są szkolone.

Kwestia ta staje się szczególnie istotna, ponieważ chatboty coraz częściej integrują się z codziennymi czynnościami. Gdy Stany Zjednoczone przygotowują się do wyborów prezydenckich w 2024 r., chatboty przejmują role w życiu ludzi wykraczające poza zwykłą pomoc, pomagając w streszczaniu dokumentów, odpowiadaniu na pytania, a nawet uczestnictwie w profesjonalnych i osobistych zadaniach związanych z pisaniem. Ponieważ platformy takie jak Google wykorzystują chatboty do bezpośredniego adresowania zapytań w wyszukiwarkach i kampanii politycznych wykorzystujących je do generowania treści, potencjalny wpływ na postrzeganie opinii publicznej, a nawet wyniki wyborów budzi obawy.

Chociaż Chat zapewnia użytkowników, że nie kieruje się opiniami politycznymi ani nie kieruje się uprzedzeniami, główny autor badania, Fabio Motoki, sugeruje coś innego. Odkryte uprzedzenia mogą podważyć zaufanie publiczne i potencjalnie wywierać niezamierzony wpływ na procesy polityczne.

Odpowiedzi od głównych firm AI, w tym Meta, Google i OpenAI, dotyczące tych ustaleń nie zostały jeszcze uzyskane. OpenAI wcześniej oświadczyło, że wszelkie błędy wykryte w ich modelach AI są niezamierzone i nie wskazują na celową funkcję.

Niniejsze badanie podkreśla złożoność wyzwania, jakim jest łagodzenie uprzedzeń w modelach sztucznej inteligencji, zwłaszcza w dobie generatywnych chatbotów. Chatboty te, takie jak Chat, Bard Google'a i Bing Microsoftu, opierają się na rozbudowanych modelach językowych, które intensywnie przetwarzają dane z internetu. W związku z tym często odzwierciedlają uprzedzenia i punkty widzenia panujące w internecie.

Co więcej, te chatboty stały się centralnym punktem dyskusji na temat polityki, technologii i mediów społecznościowych. Nawet Chat wkrótce po uruchomieniu spotkał się z oskarżeniami o stronniczość, w tym o faworyzowanie liberalnych perspektyw. Rzuca to światło na szerszą dyskusję na temat tego, jak technologia i platformy mediów społecznościowych mogą wpływać na wyniki polityczne i polaryzację społeczną.

Ponieważ chatboty stają się coraz bardziej zakorzenione w interakcjach online, ich wyniki mogą jeszcze bardziej wzmocnić istniejącą polaryzację obserwowaną w społeczeństwie. Krajobraz informacji, w coraz większym stopniu kształtowany przez treści generowane przez boty, może nieumyślnie przyczynić się do sprzężenia zwrotnego polaryzacji.

Trwają wysiłki zmierzające do rozwiązania tych problemów. Badacze aktywnie badają metody wykrywania i łagodzenia błędów w odpowiedziach chatbotów. Proponowane podejście obejmuje dodatkową warstwę, która identyfikuje stronniczy język i zastępuje go neutralnymi alternatywami. Niemniej jednak, biorąc pod uwagę rozległy charakter Internetu i zawiły gobelin uprzedzeń, które obejmuje, osiągnięcie idealnej neutralności pozostaje nieuchwytnym celem.

Podsumowując, badanie rzuca światło na zawiłości uprzedzeń AI i ich potencjalny wpływ na dyskurs polityczny i podejmowanie decyzji. Badania przypominają, że chociaż technologia sztucznej inteligencji oferuje ekscytujące możliwości, niesie ze sobą również znaczną odpowiedzialność za radzenie sobie z niezamierzonymi konsekwencjami. Wraz z ciągłym rozwojem sztucznej inteligencji znalezienie równowagi między postępem technologicznym a względami etycznymi pozostanie kluczowym wyzwaniem.