雖然GPT和PaLM等專有軟件占據了市場主導地位,但是仍舊有很多開發人員看到了開源語言模型的價值。由于開源語言模型有很多優點和缺點,并且會對人工智能行業產生積極和消極的影響,因此我們總結了您應該了解和理解的要點。
開源語言模型的5個積極影響
開源語言模型集合了來自世界各地的開發人員的意見、評論和用例,通過多方協作,能夠更快地推進項目落地。
1、人工智能開發人員使用開源模型節省資源
采用專有語言模型需要花費數百萬甚至數十億的資源。以OpenAI為例。Business Insider報道稱,該公司必須籌集約 300 億美元才能有效運營 ChatGPT。對于大多數公司來說,獲得這么多資金是不可能的。處于早期階段的科技初創公司即使能達到七位數就已經很幸運了。
考慮到高昂的開銷,許多開發人員轉而使用開源語言模型。他們通過利用這些系統的架構、神經結構、訓練數據、算法、代碼實現和訓練數據集節省了數百萬美元。
2、開源模型可以讓進步更快
許多技術領導者比較重視社區貢獻和協作,因此他們認為開源語言模型比專有語言模型進步得更快。數以百萬計的熟練開發人員正在開發開放項目——理論上,他們可以更快地實現無錯誤、復雜的迭代。
使用開源人工智能也可以更快地彌補知識空白。公司可以分析和利用社區貢獻,而不是培訓團隊尋找錯誤、測試更新和探索實施。為此,知識共享使用戶能夠更有效地工作。
3、開發人員將更快地發現漏洞
開源語言模型鼓勵同行評審和協作社區的積極參與,開發人員可以自由訪問代碼庫更改。由于有如此多的用戶分析開放項目,他們可能會更快地發現安全問題、漏洞和系統錯誤。
同樣,錯誤解決也得到簡化。開發人員無需手動解決系統問題,而是可以檢查項目的版本控制系統是否有以前的修復。雖然有些條目可能已經過時,然而他們仍然會為研究人員和人工智能培訓師提供一個有用的起點。
4、人工智能技術領導者向開源模型學習
開源語言模型受益于反饋循環。正反饋循環共享有效的算法、數據集和函數,鼓勵開發人員模仿。這個過程為他們節省了大量時間。另請注意,用戶隨意復制的積極反饋可能會出現錯誤——錯誤往往會被忽視。
5、開源人工智能平臺在新系統上獲得優先權
科技公司共享價值數十億美元的語言系統并不是出于善意。雖然開源許可證授予第三方用戶修改和銷售系統的自由,但它們也有局限性。經銷商經常創造條件來確保他們保留一些權威。所以,你會在開源程序的許可協議中找到這些規則 - 最終用戶很少獲得 100% 的權限。
假設 Meta 希望控制 LLaMA 支持的產品。其法律團隊可以指定 Meta 保留投資任何基于其語言模型構建的新系統的權利。但請不要誤解——第三方開發商和發行商仍然會達成互惠互利的協議。后者提供價值數十億美元的技術和系統。與此同時,初創公司和獨立開發人員正在探索將它們實現到不同應用程序中的方法。
開源語言模型的 5 個負面影響
開源語言模型本質上是公正的,但人類卻不然。具有惡意的消費者、開發者和公司可能會利用這些系統的開放性來謀取個人利益。
1、企業隨意加入人工智能競賽帶來的負面影響
目前,企業面臨著加入人工智能競賽的巨大壓力。隨著人工智能系統的普及,許多公司擔心如果不采用人工智能,它們就會被淘汰。結果,企業隨意地加入了這股潮流,他們將開源語言模型集成到他們的產品中,以便銷售產品并跟上競爭,即使它們沒有提供任何有價值的東西。
雖然人工智能是一個快速新興的市場,但是不小心發布復雜但不安全的系統會損害整個行業并損害消費者的安全。開發者應該用人工智能來解決問題,而不是搞營銷噱頭。
2.、消費者能夠接觸到他們幾乎不了解的技術
各種技術工具基于人工智能的變體,從在線圖像編輯器到健康監測應用程序。隨著人工智能的發展,品牌將不斷引入新系統。人工智能模型幫助他們提供更加定制化、以用戶為中心的現有平臺迭代。
雖然科技行業歡迎創新,但人工智能的快速發展超過了用戶教育。消費者正在獲得他們幾乎不了解的技術。教育的缺乏造成了巨大的知識差距,使公眾容易受到網絡安全威脅和掠奪性行為的影響。
為此,企業應該像產品開發一樣優先考慮培訓。他們必須幫助用戶了解如何安全、負責任地使用強大的基于人工智能的工具。
3、并非所有開發者都有良好的意圖
并非每個人都將人工智能工具用于其預期目的。例如,OpenAI 開發了 ChatGPT 來回答工作安全的常識問題并復制自然語言輸出,但犯罪分子利用它進行非法活動。自 2022 年 11 月 AI 聊天機器人推出以來,已發生多起ChatGPT 詐騙事件。
因此,即使人工智能實驗室實施嚴格的限制,騙子仍然會找到繞過它們的方法。再次以 ChatGPT 為例。用戶通過使用ChatGPT 越獄提示來繞過限制并執行禁止的任務。
4、機構可能難以監管開源人工智能
監管機構正在努力跟上人工智能的發展步伐,而開源模型的激增只會讓監控變得更加困難。人工智能的進步已經超過了監管框架。甚至埃隆·馬斯克、比爾·蓋茨和薩姆·奧爾特曼等全球科技領袖也呼吁加強人工智能監管。
私營部門和政府部門都必須控制這些系統。否則,惡意者將繼續利用它們來違反數據隱私法、實施身份盜竊、詐騙受害者以及其他非法活動。
5.降低進入壁壘會影響質量
由于能夠在網上找到數千種基于人工智能的工具,因此開源語言模型的激增降低了加入人工智能競賽的準入門檻。
看到公司采用機器和深度學習可能看起來令人印象深刻,但很少有公司提供任何實際價值。大多數人只是復制競爭對手。隨著時間的推移,復雜的語言模型和訓練數據集的可訪問性可能會使毫無意義的人工智能平臺商品化。
開源語言模型對人工智能行業的整體影響
雖然開源語言模型使人工智能技術更容易使用,但它們也帶來了一些安全風險。開發商應制定更嚴格的限制。否則,騙子將繼續利用這些系統的透明架構。
也就是說,消費者對于人工智能騙局并非完全毫無防御能力。熟悉騙子利用生成式人工智能工具的常見方式并研究警告信號。當然,我們可以通過保持警惕來打擊大多數網絡犯罪。