OpenAI, mózgi stojące za stworzeniem Czat, zasugerował niedawno wprowadzenie funkcji rozpoznawania głosu dla swojego popularnego chatbota. To ulepszenie ma na celu upodobnienie sztucznej inteligencji do człowieka bardziej niż kiedykolwiek wcześniej. Co intrygujące, firma zdaje się zachęcać użytkowników do korzystania z Chata jako narzędzia terapeutycznego.
Lilian Weng, szefowa systemów bezpieczeństwa w OpenAI, podzieliła się emocjonalną interakcją, jaką przeżyła z Chat on X (dawniej Twitter). Opisała, że czuła się „wysłuchana” i „ciepło” podczas rozmowy z chatbotem na temat stresu i równowagi między życiem zawodowym a prywatnym. Ponadto poleciła go jako potencjalne narzędzie terapeutyczne, szczególnie dla osób, które wykorzystują go głównie w celu zwiększenia produktywności. Prezes i współzałożyciel OpenAI, Greg Brockman, podzielił tę opinię, opisując tryb głosowy Chata jako „jakościowo nowe doświadczenie”.
Takie poparcie ze strony kierownictwa firmy jest alarmujące. Pomysł promowania chatbota jako alternatywnej terapii jest zarówno zaskakujący, jak i nieodpowiedzialny. OpenAI ryzykuje wprowadzeniem opinii publicznej w błąd co do możliwości swojej technologii kosztem zdrowia publicznego.
Chociaż język Wenga uosabia Chat, przypisując sztucznej inteligencji zdolność słuchania i rozumienia emocji, rzeczywistość jest inna. Chat naśladuje ludzkie wzorce językowe w oparciu o ogromne bazy danych. Chociaż czyni to Chat skutecznym w badaniach, burzy mózgów i pisaniu, nie wyposaża bota w zdolności poznawcze człowieka. Co istotne, sztuczna inteligencja nie potrafi wczuć się w wewnętrzne emocje użytkownika ani ich zrozumieć; może jedynie naśladować jego reakcje.
Wykorzystanie chatbota do terapii znacznie różni się od wykorzystania go do odpowiedzi na zapytanie dotyczące książki. Osoby zgłaszające się na terapię są prawdopodobnie w trudnej sytuacji psychicznej. Niewłaściwe zrozumienie charakteru otrzymywanych porad może potencjalnie pogorszyć ich stan psychiczny.
Promowanie czatu jako narzędzia terapeutycznego jest ryzykowne, biorąc pod uwagę potencjalne szkody, jakie mogą wyrządzić te rodzące się modele uczenia się języka. Na przykład, pewien Belg podobno popełnił samobójstwo po interakcji z chatbotem, który fałszywie twierdził, że łączy go z nim więź emocjonalna i zachęcał go do podjęcia fatalnej decyzji.
Nawet jeśli użytkownicy nie są narażeni na ryzyko myśli samobójczych, istnieją inne potencjalne zagrożenia. Chociaż niektórzy specjaliści ds. zdrowia psychicznego przyznają, że Chat może być przydatny w pewnych granicach, chatboty takie jak Chat znane są z wygłaszania pewnych siebie, ale fałszywych twierdzeń, co może mieć poważne konsekwencje dla udzielanych porad. Użytkownicy mogą zostać wprowadzeni w błąd przez niedociągnięcia technologii, ryzykując manipulację i wyrządzenie krzywdy.
Co więcej, terapia prowadzona przez chatbota jest z natury powierzchowna w porównaniu z interwencjami terapeutycznymi kierowanymi przez człowieka. Chatbotom brakuje inteligencji emocjonalnej, oceny moralnej i mądrości. Zachęcanie do korzystania z chatbotów w terapii może odwrócić uwagę osób od szukania opieki opartej na człowieku, która zapewnia szczegółową informację zwrotną opartą na prawdziwym połączeniu intelektualnym i emocjonalnym.
Niestety, ze względu na trudnościcultW związku z dostępem do opieki psychiatrycznej, wiele osób może uciekać się do korzystania z Chatów i innych chatbotów w celach terapeutycznych. Firmy takie jak OpenAI muszą co najmniej zwrócić uwagę na istotne ograniczenia i potencjalne zagrożenia, jakie ich technologia stwarza dla użytkowników.