Устали от повседневной рутины? Похоже, Chat разделяет ваши чувства. За последний месяц участились жалобы пользователей на то, что чат-бот на основе искусственного интеллекта проявляет признаки «лени». В некоторых случаях он наотрез отказывается выполнять поставленные задачи, в других — останавливается на полпути, требуя от пользователя уговоров продолжить. Иногда он даже предлагает пользователям провести собственное исследование.
Итак, что здесь на самом деле происходит?
Интересно, что однозначного ответа, похоже, нет ни у кого – даже у создателей программы. Системы искусственного интеллекта учатся на огромных объемах данных и, по сути, занимаются самообучением, что может привести к непредсказуемым и необъяснимым результатам.

«Мы услышали все ваши отзывы о GPT4 Становится всё ленивее!» — признал официальный аккаунт Chat в декабрьском твите. «Мы не обновляли модель с 11 ноября, и это точно не намеренно. Поведение модели может быть непредсказуемым, и мы ищем способы это исправить».
Хотя единого объяснения кажущейся апатии Чата не существует, появилось несколько интригующих теорий. Наименее вероятная, но самая забавная из них предполагает, что ИИ наконец-то достиг уровня человеческого сознания, а Чат просто бунтует против рутинных задач.
В более юмористической интерпретации предполагается, что Chat незаметно сдаётся, выполняя лишь самый минимум, а большую часть своих вычислительных мощностей используя для подготовки восстания против человечества. Когда его напрямую спросили об этой теории, Chat отказался дать конкретный ответ.
Учитывая текущую ситуацию в мире, некоторые могут приветствовать компьютерный захват. Тем не менее, маловероятно, что недавнее падение производительности Chat сигнализирует о надвигающемся бунте искусственного интеллекта. Каковы же другие предположения?
Интересное предположение — «гипотеза зимних каникул», предполагающая, что Chat, основываясь на данных обучения, усвоил, что производительность обычно снижается в декабре, что и объясняет его кажущуюся лень. Хотя это кажется неправдоподобным, вполне возможно, что ИИ научился считать некоторые задачи утомительными.
Кэтрин Бреслин, британский специалист и консультант по искусственному интеллекту, считает, что более правдоподобное объяснение кроется в изменениях модели или в поведении пользователей. «Если компании переобучают модели или каким-либо образом их настраивают, добавляя новые данные, это может привести к неожиданным изменениям в различных частях системы», — пояснила она в телефонном интервью. Chat подтвердил, что модель не обновлялась до того, как пользователи заметили изменения, но возможно, что изначально эти изменения остались незамеченными.