OpenAI 報導「超級智慧」突破

2023 年 11 月 24 日

Chat 的母公司 OpenAI 似乎即將取得一項重大成就——解決「超級智慧」難題。然而,這項潛在的突破將對人類的未來產生深遠的影響。

OpenAI 聯合創始人兼執行長 Sam Altman 的突然解僱和隨後的重新任命一直是科技界廣泛討論的話題。關於這項舉措的催化劑的新見解不斷湧現,The Information 的報告將內部動盪歸因於生成人工智慧的重大進步。這一發展可能會在十年內甚至更早的時間內為「超級智慧」的出現鋪平道路。

顧名思義,「超級智能」指的是超越人類能力的智能。 當然,在沒有足夠保障的情況下創建具有這種智慧的人工智慧系統會引起嚴重擔憂。

OpenAI 首席科學家 Ilya Sutskever 也是該委員會的成員,據說他領導了這項開創性的舉措。它使人工智慧能夠利用更乾淨的電腦生成的數據來解決前所未有的問題。這意味著人工智慧不是針對相同問題的多次迭代進行訓練,而是針對與當前問題不直接相關的資訊進行訓練。以這種方式解決問題(通常是數學或科學問題)需要推理——這是一種通常與人工智慧無關的人類特徵。

Chat 是 OpenAI 的旗艦產品,由 GPT大語言模型 (法學碩士)可能給人一種印象,因為它表面上很聰明,似乎運用推理來組織回應。然而,在與 Chat 更深入的互動後,你會發現它只是在重複它從處理過的海量數據中學到的東西,對構建與你的查詢相關的連貫句子做出基本準確的預測。推理在這裡不起作用。

訊息表明,奧特曼可能在最近的一次會議上暗示了這一突破,他說:「就個人而言,就在過去幾週,當我們有點像推動有點像無知之幕的回歸和發現前沿的前進”,在OpenAI 中引發了衝擊波。

處理威脅

雖然 Chat 目前沒有顯示出超級智慧的跡象,但 OpenAI 很可能正在努力將部分功能融入其高階產品中,例如 GPT-4 Turbo 和未來的「智慧代理」。

將最近由 Sutskever 支持的董事會行動與超級智慧突破聯繫起來似乎有些牽強。據報道,這項突破發生在幾個月前,促使 Sutskever 和另一位 OpenAI 科學家 Jan Leike 建立了一個名為「Superalignment」的新 OpenAI 研究小組,負責為超級智慧設計保障措施。

有趣的是,這家開創超級智慧發展的公司同時也在建構保護我們免受超級智慧侵害的機制,讓人想起科學怪人博士用火焰噴射器武裝村民。

報告中仍然含糊不清的是,內部對超級智慧迅速發展的擔憂是否直接導致了奧特曼的解僱。 也許,從長遠來看,這無關緊要。

目前來看,Altman 即將恢復在 OpenAI 的職位,董事會也已重組,並且對發展和防範超級智慧的追求仍然存在。

對於那些發現這些發展令人困惑的人來說,透過聊天尋求解釋可能會有所啟發。