精品国产av一区二区三区,国产av一区二区三区,丰满少妇大乳高潮在线,9lporm自拍视频区九色

當前位置:首頁 > 最新資訊 > 行業資訊

重新構建生成式人工智能時代的數據中心

如今,任何有關人工智能的討論都必然會涉及ChatGPT的崛起,這是一款基于OpenAI的GPT系列大型語言模型(LLM)構建的無處不在的聊天機器人。但是,如何在數據中心滿足這種生成式人工智能技術的需求呢?

重新構建生成式人工智能時代的數據中心

這款聊天機器人于去年年底推出,并以其內容生成功能引起轟動。人們正在使用ChatGPT和其他供應商的競爭機器人來回答復雜的問題,以及自動化編寫軟件代碼和制作營銷文案等任務。

但由于這種生成式人工智能技術固有的所有可能性,充分利用基礎模型的潛力一直很困難。大多數模型都是根據公開數據進行訓練的,這使得它們不太適合特定的企業應用,例如查詢敏感的內部文檔。

企業希望這些模型能夠處理企業內部數據。但這是否意味著企業必須全力以赴、從頭開始構建?讓我們深入了解一下。

構建大型語言模型:數據中心中成本高昂之事

構建LLM的任務需要多個步驟,例如GPT-3或GPT-4,首先需要進行大量的計算訓練,這需要數百甚至數千個昂貴的GPU在數據中心服務器中聚集在一起,持續數周或數月。

隨著模型規模的增加,訓練和再訓練所需的GPU數量也會增加。例如,Google必須插入6144個芯片來訓練其5400億參數的PaLM模型。這一過程還需要高級培訓技術和工具方面的專業知識,例如Microsoft DeepSpeed和Nvidia MegaTron-LM,而這些在組織中可能并不容易獲得。

訓練完成后,這些芯片就需要在模型上持續運行推理,這進一步增加了成本。從這個角度來看,如果只使用500臺Nvidia DGX A100多GPU服務器(通常用于LLM訓練和推理),每臺售價19.9萬美元,就意味著該項目的支出約為1億美元。除此之外,服務器產生的額外功耗和熱量輸出將增加總擁有成本。

這是對數據中心基礎設施的大量投資,特別是對于那些不是專門的人工智能組織、只希望LLM加速某些業務用例的企業來說。

人工智能時代數據中心的理想方法

除非企業擁有獨特的高質量數據集,可以創建具有堅實競爭優勢的模型,值得投資。否則最好的方法是針對組織自身數據(企業文檔、客戶電子郵件等)的特定用例,對現有開源LLM進行微調。

一個很好的反例是BloombergGPT模型。這是Bloomberg從頭開始訓練的一個包含500億個參數的[模型]……有多少組織可以自信地聲稱其擁有相同數量的獨特高質量數據?其實,沒有那么多。

另一方面,微調是一個更輕量級的過程,只需要一小部分時間、預算和精力。

如果企業確實看到從頭開始構建LLM的價值,那么就應該從小規模開始,使用托管云基礎設施和機器學習(ML)服務,而不是立即購買昂貴的GPU進行現場部署。

云還提供了更多培訓選項可供選擇,不僅包括Nvidia GPU,還包括AMD和Intel的GPU,以及Google TPU和AWS Trainium等客戶加速器。

另一方面,如果當地法律或法規強制要求遠離云端,現場部署GPU等加速硬件將是默認的首選。

規劃仍然是關鍵

在急于為特定領域的LLM和基于其的應用投資GPU、技能或云合作伙伴之前,技術決策者必須通過與企業中的其他領導者和主題專家合作來制定明確的戰略。專注于決策的業務案例,大致了解此類工作負載當前和未來的需求將會很有幫助。

通過這種規劃,企業可以做出明智的決定,決定何時以及如何投資培訓LLM。這包括選擇什么樣的硬件、可以在哪里使用其他人開發的現有模型,以及誰可能是人工智能之旅的合適合作伙伴等方面。

人工智能/機器學習的發展速度令人難以置信……如果以傳統的面向未來的思維方式來對待這些新技術,那么解決方案很可能會相對較快地過時。所涉及的技術和硬件的特殊性意味著,更好的選擇可能是首先開發解決方案前景,并相應地升級數據中心。

在沒有正當理由的情況下,人們很容易相信采用新技術的炒作和趨勢,但這無疑會導致失望,并可能拒絕企業未來可以從中受益的實際用例。更好的方法是保持頭腦冷靜,投入時間了解相關技術,并與利益相關者合作,評估可以從集成中獲得的好處。

猜你喜歡