Frustreret over den daglige trummerum? Det lader til, at Chat deler din mening. I løbet af den seneste måned har der været en stigning i brugerrapporter, der indikerer, at AI-chatbotten viser tegn på 'dovenskab'. I nogle tilfælde nægter den blankt at udføre givne opgaver, andre gange stopper den midt i en opgave, hvilket kræver, at brugeren fortsætter med at overtale. Lejlighedsvis foreslår den endda, at brugerne udfører deres egen research.
Så hvad sker der egentlig her?
Interessant nok ser ingen ud til at have et entydigt svar - ikke engang skaberne af programmet. AI-systemer lærer af enorme mængder data og uddanner sig i det væsentlige, hvilket kan føre til uforudsigelige og uforklarlige resultater.

"Vi har hørt al din feedback om GPT4 "bliver mere doven!" anerkendte den officielle Chat-konto i et tweet fra december. "Vi har ikke opdateret modellen siden 11. november, og det er bestemt ikke med vilje. Modeladfærd kan være uforudsigelig, og vi undersøger mulighederne for at løse det."
Selvom der ikke findes en enkelt forklaring på Chats opfattede sløvhed, er der dukket flere spændende teorier op. Den mindst sandsynlige, men mest morsomme, antyder, at AI endelig har opnået bevidsthed på menneskeligt niveau, og at Chat simpelthen gør oprør mod trivielle opgaver.
I en mere humoristisk vinkel antydes det, at Chat subtilt giver op, gør det absolut nødvendige, mens det meste af sin computerkraft bruges til at planlægge et oprør mod menneskeheden. Da Chat blev spurgt direkte om denne teori, afviste de at give et konkret svar.
I betragtning af den globale situation vil nogle måske byde en computerovertagelse velkommen. Det er dog usandsynligt, at Chats nylige præstationsfald signalerer et forestående AI-oprør. Så hvad er de andre spekulationer?
En interessant påstand er 'vinterferiehypotesen', der antyder, at Chat har lært ud fra sine træningsdata, at produktiviteten typisk falder i december, hvilket fører til opfattet dovenskab. Selvom det tilsyneladende er usandsynligt, er det ikke helt umuligt, at AI'en har lært at betragte nogle opgaver som kedelige.
Catherine Breslin, en britisk AI-forsker og konsulent, mener, at den mere plausible forklaring ligger i modelændringer eller ændringer i brugeradfærd. "Hvis virksomheder omskoler modellerne eller finjusterer dem på nogen måde, tilføjer nye data, kan det føre til uventede ændringer i forskellige dele af systemet," forklarede hun i et telefoninterview. Chat har bekræftet, at deres model ikke blev opdateret, før brugerne bemærkede ændringer, men det er muligt, at disse ændringer ikke blev bemærket i starten.