OpenAI, головная организация ChatGPT, похоже, находится на грани монументального достижения – решения загадки «сверхинтеллекта». Однако этот потенциальный прорыв несет с собой глубокие последствия для будущего человечества.
Внезапное увольнение и последующее повторное назначение соучредителя и генерального директора OpenAI Сэма Альтмана стало темой многочисленных обсуждений в мире технологий. Продолжают появляться новые идеи о катализаторе этого шага, а в отчете The Information внутренние беспорядки объясняются значительным прогрессом в области генеративного ИИ. Это развитие событий может потенциально проложить путь к появлению «сверхинтеллекта» в течение этого десятилетия или даже раньше.
«Суперинтеллект», как следует из этого термина, относится к интеллекту, превосходящему человеческие возможности. Естественно, создание системы искусственного интеллекта, обладающей таким интеллектом, без адекватных гарантий, вызывает серьезные опасения.
Говорят, что главный научный сотрудник OpenAI Илья Суцкевер, который также входит в совет директоров, возглавил эту новаторскую инициативу. Она позволяет ИИ использовать более чистые, сгенерированные компьютером данные для решения беспрецедентных проблем. Это означает, что ИИ обучается не на нескольких итерациях одной и той же проблемы, а на информации, которая не связана напрямую с рассматриваемой проблемой. Решение проблем таким образом, как правило, математических или научных, требует рассуждений — человеческой черты, которая обычно не ассоциируется с ИИ.
ChatGPT, флагманский продукт OpenAI, работающий на базе Большая языковая модель GPT (LLM), может создать впечатление, что он использует рассуждения для формулирования своих ответов, учитывая его очевидный интеллект. Однако при более тесном взаимодействии с ChatGPT, становится очевидным, что он просто повторяет то, что узнал из огромных объемов обработанных данных, делая в основном точные прогнозы о построении связных предложений, соответствующих вашему запросу. Рассуждение здесь не играет роли.
The Information предполагает, что этот прорыв, на который Альтман, возможно, намекнул на недавней конференции, заявив: «Лично мне, буквально за последние пару недель, удалось побывать в зале, где мы как бы отодвигаем завесу невежества и раздвигаем границы открытий», вызвал шок в OpenAI.
Обращение с угрозой
В то время как ChatGPT В настоящее время не наблюдается никаких признаков сверхинтеллекта, однако вполне вероятно, что OpenAI прилагает усилия по внедрению части этой мощи в свои премиальные продукты, такие как GPT-4 Turbo и будущие «интеллектуальные агенты».
Проведение связи между недавними действиями совета, изначально поддержанными Суцкевером, и прорывом в области суперинтеллекта может показаться надуманным. Сообщенный прорыв произошел несколько месяцев назад и побудил Суцкевера и другого ученого OpenAI, Яна Лейке, создать новую исследовательскую группу OpenAI под названием «Superalignment», которой было поручено разработать меры безопасности для суперинтеллекта.
Любопытно, что та самая компания, которая является пионером в разработке сверхинтеллекта, одновременно конструирует механизмы, защищающие нас от него, что напоминает доктора Франкенштейна, вооружающего жителей деревни огнеметами.
Что остается неясным из отчета, так это то, привели ли внутренние опасения, связанные с быстрым развитием сверхинтеллекта, непосредственно к увольнению Альтмана. Возможно, по большому счету это не имеет значения.
На данный момент Альтман готовится вернуться на свою должность в OpenAI, совет директоров был реструктурирован, а стремление разработать сверхразум и защититься от него продолжается.
Для тех, кого эти события сбивают с толку, взаимодействие с ChatGPT объяснение может оказаться поучительным.