Розчаровані щоденною рутиною? Схоже, Chat поділяє ваші почуття. Протягом останнього місяця спостерігається збільшення кількості повідомлень користувачів, які свідчать про те, що чат-бот зі штучним інтелектом демонструє ознаки «ліні». У деяких випадках він відверто відмовляється виконувати поставлені завдання, в інших випадках зупиняється на півдорозі, вимагаючи від користувача вмовляння продовжити. Іноді він навіть пропонує користувачам провести власне дослідження.
Отже, що тут насправді відбувається?
Цікаво, що однозначної відповіді, здається, немає ні в кого – навіть у творців програми. Системи штучного інтелекту навчаються на величезних масивах даних і, по суті, самонавчаються, що може призвести до непередбачуваних і незрозумілих результатів.

«Ми почули всі ваші відгуки про GPT4 «стаю лінивішим!» – визнав офіційний акаунт Chat у грудневому твіті. «Ми не оновлювали модель з 11 листопада, і це точно не навмисно. Поведінка моделі може бути непередбачуваною, і ми шукаємо способи її виправити».
Хоча єдиного пояснення уявної млявості Чата немає, з'явилося кілька цікавих теорій. Найменш ймовірна, але найкумедніша, припускає, що ШІ нарешті досяг свідомості людського рівня, а Чат просто повстає проти буденних завдань.
У більш гумористичному сенсі, натякається, що Chat непомітно здається, роблячи найнеобхідніше, використовуючи більшу частину своєї обчислювальної потужності для планування повстання проти людства. Коли Chat безпосередньо запитали про цю теорію, він відмовився надати конкретну відповідь.
З огляду на стан світових справ, дехто може вітати комп'ютерне захоплення. Однак малоймовірно, що нещодавнє падіння продуктивності Chat сигналізує про майбутній бунт штучного інтелекту. Тож які ж інші припущення?
Цікавою є гіпотеза про «зимові канікули», яка передбачає, що Chat з навчальних даних дізнався, що продуктивність зазвичай знижується в грудні, що призводить до його уявної ліні. Хоча це здається неправдоподібним, не зовсім неможливо, що ШІ навчився вважати деякі завдання нудними.
Кетрін Бреслін, британська науковиця та консультантка зі штучного інтелекту, вважає, що більш правдоподібне пояснення полягає у змінах моделі або змінах у поведінці користувачів. «Якщо компанії перенавчають моделі або будь-яким чином налаштовують їх, додаючи нові дані, це може призвести до неочікуваних змін у різних частинах системи», – пояснила вона в телефонному інтерв’ю. Chat підтвердив, що їхня модель не оновлювалася до того, як користувачі помітили зміни, але можливо, що ці зміни спочатку залишилися непоміченими.