超級智能的發展是科學家們爭論不休的話題。超級智能是從更傳統的通用人工智能(AGI)概念演變而來的。這種功能強大的技術可能在目前的十年內出現,可能解決重大的全球問題,也可能導致人類的權力喪失或滅絕。
OpenAI(美國人工智能研究公司)的戰略包括創建一個具有人類水平能力的自動對齊研究人員,并利用大量計算資源迭代地訓練和對齊超級智能。這個過程被稱為超級智能對齊,需要人工智能對齊技術的創新、廣泛的驗證和對抗性壓力測試。
OpenAI正在投入大量資源和研究來應對這一挑戰,并鼓勵杰出的研究人員和工程師共同努力。然而,術語從通用人工智能到超級智能的轉變,是否會對圍繞人工智能風險和收益的持續爭論產生深遠影響,還有待觀察。
OpenAI強調了超級智能的潛力,它可能是有史以來最有影響力的技術,能夠解決重大的全球問題。然而,它也承認與超級智能相關的巨大風險,人類被剝奪權力甚至滅絕。
盡管超級智能看似遙遠,但OpenAI相信它可能會在這十年內出現。管理這些風險需要新的治理機構,并應對使超級智能與人類意圖保持一致的挑戰。有趣的是,OpenAI使用的是這個術語,而不是更傳統的通用人工智能(AGI)。他們的理由如下:
在這里,我們關注超級智能,而不是通用人工智能,以強調更高的能力水平。在未來幾年里,我們對這項技術的發展速度有很多不確定性,所以我們選擇瞄準更困難的目標,以校準一個更有能力的系統。
當前的人工智能對齊技術,例如根據人類反饋進行強化學習,不足以控制潛在的超級智能人工智能。人類無法可靠地監督比我們聰明得多的系統,現有技術也無法擴展到超級智能。OpenAI強調需要科學和技術突破來克服這些挑戰。
OpenAI的方法涉及構建一個具有大致人類水平能力的自動對齊研究人員。大量的計算資源將被用來擴展他們的努力,并迭代地調整超級智能。關鍵步驟包括開發可擴展的訓練方法、驗證生成的模型以及對對齊管道進行壓力測試。根據OpenAI公告的標題,這個概念被稱為超級智能對齊。
為了解決評估對人類具有挑戰性的任務的困難,可以采用人工智能系統進行可擴展的監督。將監督推廣到無監督任務,以及檢測有問題的行為和內部結構,對于驗證一致性至關重要。對抗性測試,包括訓練未對齊的模型,將有助于確認對齊技術的有效性。
OpenAI預計,隨著對該問題的了解越來越多,其研究重點將會發生變化,并且他們計劃在未來分享他們的路線圖。他們組建了一支由頂尖機器學習研究人員和工程師組成的團隊,致力于解決超級智能對齊問題。OpenAI將在未來四年內將其20%的安全計算投入到這項工作中。
雖然不能保證成功,但OpenAI仍然樂觀地認為,集中一致的努力可以解決這個問題。他們的目標是提供證據和論據,讓機器學習和安全社區相信問題已經解決,他們正在積極與跨學科專家合作,考慮更廣泛的人類和社會問題。
OpenAI鼓勵杰出的研究人員和工程師,即使是那些以前沒有從事過對齊工作的人,也加入到他們的努力中。他們認為超級智能對齊是最重要的未解決的技術問題之一,并認為這是一個易于處理的機器學習問題,具有重大貢獻的潛力。
關于人工智能、通用人工智能以及從實用到人類毀滅等復雜的相互關聯問題,激烈爭論似乎正在形成新的裂痕。如今,詞匯已經發生了一些變化,但尚不清楚這是科學還是語義。