Mysteriet bakom ChatGPTs senaste beteende

Jan 13, 2024

Frustrerad över vardagens slit? Det verkar som att Chat delar dina känslor. Under den senaste månaden har det skett en ökning av användarrapporter som indikerar att AI-chatboten visar tecken på "lathet". I vissa fall vägrar den helt att slutföra givna uppgifter, andra gånger stannar den mitt i en uppgift, vilket kräver att användaren fortsätter att övertala. Ibland föreslår den till och med att användare gör sin egen research.

Så vad händer här egentligen?

Intressant nog verkar ingen ha ett entydigt svar – inte ens skaparna av programmet. AI-system lär sig av enorma mängder data och utbildar sig i huvudsak, vilket kan leda till oförutsägbara och oförklarliga resultat.

Chatgpt

"Vi har hört all din feedback om GPT4 "blir latare!" erkände det officiella Chat-kontot i en tweet i december. "Vi har inte uppdaterat modellen sedan den 11 november, och det är verkligen inte avsiktligt. Modellbeteende kan vara oförutsägbart, och vi undersöker möjligheten att åtgärda det."

Även om det inte finns någon enskild förklaring till Chats upplevda slöhet, har flera spännande teorier dykt upp. Den minst sannolika men mest underhållande teorin antyder att AI äntligen har uppnått medvetande på mänsklig nivå, och att Chat helt enkelt gör uppror mot vardagliga uppgifter.

I en mer humoristisk tolkning antyds det att Chat subtilt slutar, gör det absolut nödvändigaste samtidigt som det mesta av sin datorkraft används för att planera ett uppror mot mänskligheten. När Chat tillfrågades direkt om denna teori vägrade de att ge ett konkret svar.

Med tanke på det globala läget kanske vissa välkomnar ett datorövertagande. Ändå är det osannolikt att Chats senaste prestandanedgång signalerar en förestående AI-revolt. Så vad är de andra spekulationerna?

Ett intressant förslag är "vinterlovshypotesen", som antyder att Chat har lärt sig från sina träningsdata att produktiviteten vanligtvis saktar ner i december, vilket leder till upplevd lathet. Även om det verkar långsökt är det inte helt omöjligt att AI:n har lärt sig att betrakta vissa uppgifter som tråkiga.

Catherine Breslin, en brittisk AI-forskare och konsult, tror att den mer rimliga förklaringen ligger i modellförändringar eller förändringar i användarbeteende. ”Om företag omskolar modellerna eller finjusterar dem på något sätt, och lägger till ny data, kan det leda till oväntade förändringar i olika delar av systemet”, förklarade hon i en telefonintervju. Chat har bekräftat att deras modell inte uppdaterades innan användarna märkte förändringar, men det är möjligt att dessa förändringar gick obemärkta förbi initialt.