Chat, zaawansowany chatbot oparty na sztucznej inteligencji, który zrewolucjonizował wyszukiwanie w sieci i usprawnił zadania biurowe, niestety znalazł nowe zajęcie jako oszust w mediach społecznościowych.
Botnet znany jako „Fox8” został wykryty na początku tego roku na platformie społecznościowej przez badaczy z Indiana University Bloomington. Botnet, powiązany z kilkoma witrynami poświęconymi kryptowalutom, składał się z ponad 1,000 kont, z których wielu prawdopodobnie korzystało z Czat do generowania postów i odpowiedzi w mediach społecznościowych. Treści tworzone przez te boty miały na celu nakłonienie niewinnych użytkowników do kliknięcia linków prowadzących do stron promujących kryptowaluty.
Micah Musser, badacz, który badał potencjał dezinformacji opartej na sztucznej inteligencji, ostrzega, że botnet Fox8 może być dopiero początkiem tego, czego możemy się spodziewać w miarę ciągłego wzrostu popularności dużych modeli językowych i chatbotów.
Botnet, pomimo swojego ogromnego zasięgu, nie wykorzystywał Chata w wysoce zaawansowany sposób. Niemniej jednak, odkrycie botnetu wzbudziło obawy dotyczące łatwości, z jaką zaawansowane chatboty, takie jak Chat, mogą zostać wykorzystane do niecnych celów. Istnieje obawa, że bardziej zaawansowane i mniej wykrywalne botnety mogą już działać.
Filippo Menczer, profesor na Uniwersytecie Indiana Bloomington, który brał udział w badaniu, mówi: „Jedynym powodem, dla którego zauważyliśmy ten konkretny botnet, było to, że był niechlujny”. Podkreśla, że „lepsi” źli aktorzy prawdopodobnie uniknęliby błędów popełnionych przez twórców botnetu Fox8.
OpenAI, organizacja stojąca za Chatem, nie skomentowała jeszcze odkrycia botnetu. Polityka użytkowania firmy surowo zabrania wykorzystywania modeli sztucznej inteligencji do oszustw i rozpowszechniania dezinformacji.
Chatboty i inne zaawansowane chatboty wykorzystują rozbudowane modele językowe do generowania tekstu w odpowiedzi na komunikaty. Dzięki odpowiednim danym szkoleniowym, mocy obliczeniowej i opiniom od testerów, boty te mogą reagować na różnorodne dane wejściowe w imponująco wyrafinowany sposób. Mają jednak również potencjał do szerzenia mowy nienawiści, prezentowania uprzedzeń społecznych i fałszowania informacji.
Dobrze skonfigurowany botnet oparty na czacie byłby trudny do zidentyfikowania i mógłby skutecznie oszukiwać użytkowników oraz manipulować algorytmami mediów społecznościowych. „Oszukuje zarówno platformę, jak i użytkowników” – mówi Menczer.
Obawy dotyczące potencjalnego niewłaściwego wykorzystania technologii takiej jak Chat do kampanii dezinformacyjnych nie są niczym nowym. Z tego powodu OpenAI opóźniło nawet wydanie poprzednika Chata.
William Wang, profesor Uniwersytetu Kalifornijskiego w Santa Barbara, twierdzi, że kluczowe jest zbadanie rzeczywistych, przestępczych zastosowań Chata. Uważa, że wiele stron ze spamem jest obecnie generowanych automatycznie, co utrudnia ich znalezienie.cult aby ludzie mogli dostrzec taki materiał. A ponieważ AI ciągle się rozwija, będzie to tylko trudniejsze. „Sytuacja jest dość zła” – podsumowuje.