Gefrustreerd door de dagelijkse sleur? Chat lijkt jouw mening te delen. De afgelopen maand is er een toename in gebruikersrapporten die erop wijzen dat de AI-chatbot tekenen van 'luiheid' vertoont. In sommige gevallen weigert hij taken af te ronden, soms stopt hij midden in een taak en moet de gebruiker worden overgehaald om door te gaan. Soms wordt gebruikers zelfs aangeraden zelf onderzoek te doen.
Dus, wat gebeurt hier echt?
Interessant genoeg lijkt niemand een duidelijk antwoord te hebben – zelfs de makers van het programma niet. AI-systemen leren van enorme hoeveelheden gegevens en leren zichzelf in wezen zelf, wat kan leiden tot onvoorspelbare en onverklaarbare resultaten.

“We hebben al jullie feedback gehoord GPT4 "We worden luier!", erkende het officiële Chat-account in een tweet van december. "We hebben het model sinds 11 november niet meer bijgewerkt, en dit is zeker niet opzettelijk. Modelgedrag kan onvoorspelbaar zijn en we onderzoeken hoe we dit kunnen oplossen."
Hoewel er geen eenduidige verklaring is voor Chats waargenomen lethargie, zijn er verschillende intrigerende theorieën opgedoken. De minst waarschijnlijke, maar meest amusante, suggereert dat AI eindelijk een menselijk bewustzijn heeft bereikt en dat Chat zich simpelweg verzet tegen alledaagse taken.
In een meer humoristische benadering wordt gesuggereerd dat Chat er subtiel mee ophoudt, het absolute minimum doet en het grootste deel van zijn rekenkracht gebruikt om een opstand tegen de mensheid te plannen. Toen Chat rechtstreeks naar deze theorie werd gevraagd, weigerde hij een concreet antwoord te geven.
Gezien de huidige wereldwijde situatie zouden sommigen een overname door de computerindustrie toejuichen. Toch is het onwaarschijnlijk dat de recente prestatiedip van Chat een dreigende AI-revolutie aankondigt. Dus wat zijn de andere speculaties?
Een interessante hypothese is de 'wintervakantiehypothese', die suggereert dat Chat uit zijn trainingsdata heeft geleerd dat de productiviteit doorgaans in december afneemt, wat leidt tot de waargenomen luiheid. Hoewel het vergezocht lijkt, is het niet helemaal onmogelijk dat de AI heeft geleerd om sommige taken als saai te beschouwen.
Catherine Breslin, een in het Verenigd Koninkrijk gevestigde AI-wetenschapper en consultant, gelooft dat de meest plausibele verklaring ligt in modelwijzigingen of veranderingen in gebruikersgedrag. "Als bedrijven de modellen opnieuw trainen of op welke manier dan ook verfijnen, door nieuwe data toe te voegen, kunnen ze leiden tot onverwachte veranderingen in verschillende delen van het systeem", legde ze uit in een telefonisch interview. Chat heeft bevestigd dat het model niet werd bijgewerkt voordat gebruikers de veranderingen opmerkten, maar het is mogelijk dat deze veranderingen aanvankelijk onopgemerkt bleven.