OpenAI, den banbrytande organisationen bakom skapandet av Chat, intensifierar sitt engagemang för säkerhet inom artificiell intelligens (AI). Företaget presenterade nyligen ett nytt initiativ som syftar till att proaktivt hantera hela spektrumet av potentiella risker i samband med AI.
Den här romanindelningen, kallad Preparedness, tillkännagavs den 25 oktober och markerar ett betydande framsteg i OpenAIs pågående ansträngningar för att säkerställa en säker distribution av AI. Teamet kommer att koncentrera sig på att identifiera och mildra potentiella AI-hot som spänner över kemiska, biologiska, radiologiska och nukleära domäner, såväl som risker relaterade till individualiserad övertalning, cybersäkerhet och autonom replikering och anpassning.
Preparedness-teamet, under ledning av Aleksander Madry, kommer att brottas med kritiska frågor som potentiellt missbruk av frontier AI-system och hotet från illvilliga aktörer som använder stulna AI-modellvikter.
OpenAI erkänner AI-teknikens tvåkantiga natur. Frontier AI-modeller, som kommer att överträffa de möjligheter som för närvarande finns i de mest avancerade befintliga modellerna, har potential att gynna hela mänskligheten”, skriver företaget. Men den medger också att dessa modeller medför "allt allvarligare risker."
För att navigera i detta komplexa landskap har OpenAI förbundit sig att utveckla en robust strategi för katastrofberedskap. Detta engagemang sträcker sig till deras rekryteringsstrategi, där OpenAI aktivt söker individer med olika tekniska färdigheter för att gå med i deras beredskapsteam. Företaget har också lanserat en AI Preparedness Challenge som syftar till att förhindra katastrofalt missbruk, och erbjuder $25,000 10 i API-krediter till de XNUMX bästa bidragen.
Tillkännagivandet av Preparedness-teamet följer OpenAI:s uttalande från juli 2023 om dess planer på att etablera ett team dedikerat till att ta itu med potentiella AI-hot.
Allt eftersom AI fortsätter att utvecklas har oron kring dess potentiella risker ökat. Vissa fruktar att AI kan överträffa mänsklig intelligens, vilket leder till oförutsedda konsekvenser. Trots dessa farhågor fortsätter företag som OpenAI att förnya sig inom AI-området, vilket har väckt ytterligare debatt.
I maj 2023 utfärdade den ideella organisationen Center for AI Safety ett öppet brev om AI-risk, och uppmanade det globala samhället att prioritera att minska riskerna för utrotning från AI vid sidan av andra risker i samhällsskala som pandemier och kärnvapenkrig.