Chat, den avancerade AI-chatboten som har revolutionerat webbsökningar och effektiviserat kontorsuppgifter, har tyvärr hittat ett nytt jobb som bedragare inom sociala medier.
Botnätet, känt som "Fox8", upptäcktes fungerande på en social nätverksplattform tidigare i år av forskare från Indiana University Bloomington. Botnätet, länkat till flera kryptovalutawebbplatser, bestod av över 1,000 XNUMX konton, många trodde använda Chatt att generera inlägg och svar på sociala medier. Innehållet som skapats av dessa bots var utformat för att locka oskyldiga användare att klicka på länkar som leder till webbplatser som främjar kryptovaluta.
Micah Musser, en forskare som har studerat potentialen för AI-driven desinformation, varnar för att Fox8-botnätet bara kan vara början på vad vi kan förvänta oss att se när stora språkmodeller och chatbots fortsätter att öka i popularitet.
Botnätet, trots sin stora räckvidd, använde inte Chat på ett särskilt sofistikerat sätt. Upptäckten av botnätet har dock väckt oro kring hur lätt avancerade chattrobotar som Chat kan utnyttjas för oönskade syften. Det befaras att mer avancerade och mindre upptäckbara botnät redan kan vara i drift.
Filippo Menczer, en professor vid Indiana University Bloomington som var involverad i forskningen, säger: "Den enda anledningen till att vi märkte det här specifika botnätet är att de var slarviga." Han betonar att "bättre" dåliga skådespelare sannolikt skulle undvika de misstag som görs av skaparna av Fox8-botnätet.
OpenAI, organisationen bakom Chat, har ännu inte kommenterat upptäckten av botnätet. Deras användarpolicy förbjuder strikt användningen av deras AI-modeller för bedrägerier eller spridning av desinformation.
Chatt och andra avancerade chattrobotar använder stora språkmodeller för att generera text som svar på uppmaningar. Med tillräcklig träningsdata, beräkningskraft och feedback från mänskliga testare kan dessa bottar reagera på imponerande sofistikerade sätt på en mängd olika inmatningar. De har dock också potential att sprida hatpropaganda, visa sociala fördomar och fabricera information.
Ett välkonfigurerat chattbaserat botnät skulle vara svårt att identifiera och skulle effektivt kunna lura användare och manipulera algoritmer för sociala medier. ”Det lurar både plattformen och användarna”, säger Menczer.
Oro över potentiellt missbruk av teknik som Chat för desinformationskampanjer är inte nytt. OpenAI sköt till och med upp lanseringen av en föregångare till Chat på grund av sådana farhågor.
William Wang, professor vid University of California, Santa Barbara, säger att det är avgörande att studera dessa verkliga kriminella användningar av Chat. Han tror att många spamwebbsidor nu genereras automatiskt, vilket gör det allt svårare.cult för människor att upptäcka sådant material. Och med AI som ständigt förbättras kommer det bara att bli svårare. "Situationen är ganska dålig", avslutar han.