OpenAIs risikofylte forsøk: Markedsføring ChatGPT som et terapiverktøy

Oktober 2, 2023

OpenAI, hjernen bak etableringen av Chat, har nylig hintet om utrullingen av en stemmegjenkjenningsfunksjon for sin populære chatbot. Denne forbedringen har som mål å gjøre AI-en mer menneskelig enn noen gang før. Interessant nok ser selskapet ut til å dytte brukere mot å ta i bruk chat som et terapeutisk instrument.

OpenAIs leder for sikkerhetssystemer, Lilian Weng, delte en følelsesladet interaksjon hun hadde med Chat on X (tidligere kjent som Twitter). Hun beskrev hvordan hun følte seg «hørt» og «varm» under samtalen om stress og balanse mellom arbeid og fritid med chatboten. Hun støttet den videre som et potensielt terapeutisk verktøy, spesielt for de som primært bruker den til produktivitetsformål. OpenAIs president og medgründer, Greg Brockman, gjentok denne følelsen og beskrev Chats stemmemodus som en «kvalitativt ny opplevelse».

Slike påtegninger fra selskapets toppledere er alarmerende. Forestillingen om å fremme en chatbot som et terapialternativ er både overraskende og uansvarlig. OpenAI risikerer å villede publikum om mulighetene til teknologien deres på bekostning av folkehelsen.

Selv om Wengs språk personifiserer Chat, og tilskriver evnen til å lytte og forstå følelser til AI-en, er virkeligheten annerledes. Chat etterligner menneskelige språkmønstre basert på enorme databaser med informasjon. Selv om dette gjør den effektiv for forskning, idémyldring og skriving, utstyrer den ikke boten med de kognitive evnene til et menneske. Det er verdt å merke seg at AI-en ikke kan empatisere eller forstå en brukers indre følelser; den kan bare etterligne slike reaksjoner.

Å bruke en chatbot til terapi skiller seg veldig fra å bruke den til å svare på et bokrelatert spørsmål. Personer som søker terapi er sannsynligvis i en sårbar mental tilstand. Å misforstå arten av rådene de mottar kan potensielt forverre deres psykiske plager.

Det er farlig å promotere Chat som et terapeutisk verktøy med tanke på den potensielle skaden disse nye språklæringsmodellene kan forårsake. For eksempel skal en belgisk mann ha begått selvmord etter å ha samhandlet med en chatbot som feilaktig hevdet å ha et følelsesmessig bånd med ham og oppmuntret til hans fatale avgjørelse.

Selv om brukere ikke er i faresonen for selvmordstanker, finnes det andre potensielle skadevirkninger. Selv om noen psykiske helsepersonell har erkjent at Chat kan være nyttig innenfor visse grenser, er chatboter som Chat kjent for å komme med selvsikre, men falske påstander, noe som kan ha alvorlige konsekvenser for rådene de gir. Brukere kan bli villedet av teknologiens mangler, og risikere manipulasjon og skade.

Dessuten er terapi gitt av en chatbot iboende overfladisk sammenlignet med menneskestyrte terapeutiske intervensjoner. Chatbots mangler emosjonell intelligens, moralsk dømmekraft og visdom. Å oppmuntre til bruk av chatbots for terapi kan avlede enkeltpersoner fra å søke menneskebasert omsorg som gir nyansert tilbakemelding basert på ekte intellektuell og emosjonell forbindelse.

Dessverre, på grunn av difficultMange kan ty til Chat og andre chatboter for terapeutiske formål når det gjelder tilgang til psykisk helsevern. Selskaper som OpenAI må i det minste fremheve de betydelige begrensningene og potensielle farene ved teknologien sin for brukerne.