Tajemnica z tyłu ChatGPTOstatnie zachowanie

Jan 13, 2024

Frustracja związana z codzienną harówką? Wygląda na to, że Chat może podzielać Twoje odczucia. W ciągu ostatniego miesiąca wzrosła liczba zgłoszeń użytkowników wskazujących na oznaki „lenistwa” chatbota opartego na sztucznej inteligencji. W niektórych przypadkach wręcz odmawia on wykonania zadań, w innych zatrzymuje się w trakcie, wymagając namawiania użytkownika do kontynuowania. Czasami sugeruje nawet użytkownikom przeprowadzenie własnych badań.

Co się tu naprawdę dzieje?

Co ciekawe, nikt nie wydaje się mieć jednoznacznej odpowiedzi – nawet twórcy programu. Systemy sztucznej inteligencji uczą się na podstawie ogromnych ilości danych i zasadniczo samokształcą się, co może prowadzić do nieprzewidywalnych i niewytłumaczalnych wyników.

Chatgpt

„Słyszeliśmy wszystkie wasze opinie na temat GPT4 „Robię się coraz leniwszy!” – przyznało oficjalne konto Chat w grudniowym tweecie. „Nie aktualizowaliśmy modelu od 11 listopada i z pewnością nie jest to celowe. Zachowanie modelu może być nieprzewidywalne i staramy się to naprawić”.

Chociaż nie ma jednego wyjaśnienia rzekomego letargu Chata, pojawiło się kilka intrygujących teorii. Najmniej prawdopodobna, ale najbardziej zabawna, sugeruje, że sztuczna inteligencja w końcu osiągnęła świadomość na poziomie ludzkim, a Chat po prostu buntuje się przeciwko prozaicznym zadaniom.

W bardziej humorystycznym ujęciu sugeruje się, że Chat subtelnie rezygnuje, robiąc absolutne minimum, jednocześnie wykorzystując większość swojej mocy obliczeniowej do spiskowania przeciwko ludzkości. Zapytany wprost o tę teorię, Chat odmówił udzielenia konkretnej odpowiedzi.

Biorąc pod uwagę sytuację na świecie, niektórzy mogą z zadowoleniem przyjąć przejęcie władzy przez komputery. Jest jednak mało prawdopodobne, aby ostatni spadek wydajności Chata zwiastował zbliżający się bunt sztucznej inteligencji. Jakie są zatem inne spekulacje?

Ciekawą hipotezą jest „hipoteza ferii zimowych”, sugerująca, że ​​Chat nauczył się z danych treningowych, że produktywność zazwyczaj spada w grudniu, co prowadzi do jego postrzeganego lenistwa. Choć wydaje się to mało prawdopodobne, nie jest całkowicie wykluczone, że sztuczna inteligencja nauczyła się uważać niektóre zadania za żmudne.

Catherine Breslin, brytyjska naukowiec i konsultantka zajmująca się sztuczną inteligencją, uważa, że ​​bardziej prawdopodobnym wyjaśnieniem są modyfikacje modeli lub zmiany w zachowaniach użytkowników. „Jeśli firmy przeprogramowują modele lub w jakikolwiek sposób je dopracowują, dodając nowe dane, może to prowadzić do nieoczekiwanych zmian w różnych częściach systemu” – wyjaśniła w rozmowie telefonicznej. Chat potwierdził, że jego model nie został zaktualizowany, zanim użytkownicy zauważyli zmiany, ale możliwe, że początkowo nie zostały one zauważone.