大型語言模型無處不在。每一次客戶對話或風險投資都會涉及有關 LLM 技術準備程度以及它將如何推動未來應用的問題。我在上一篇文章中介紹了這方面的一些模式。在這里,我將討論持久系統所從事的制藥行業應用程序的一些現實模式。
大型語言模型和核心優勢
LLM 擅長理解語言,這是他們的強項。我們在應用程序中看到的最常見模式是檢索增強生成(RAG),其中知識是從數據源外部編譯的,并在上下文中提供,作為法學碩士解釋響應的提示。在這種情況下,矢量數據庫和基于 Elasticsearch 的引擎等超快速搜索機制將作為第一線搜索。然后,搜索結果被編譯成提示并主要作為 API 調用發送到 LLM。
另一種模式是通過向 LLM 提供數據模型作為提示和特定的用戶查詢來生成對結構化數據的查詢。此模式可用于為 Snowflake 等 SQL 數據庫以及 Neo4j 等圖形數據庫開發高級“與數據對話”界面。
利用法學碩士模式獲得現實世界的見解
Persistent Systems 最近研究了Blast Motion的一種模式,這是一家體育遙測公司(棒球、高爾夫等的揮桿分析),我們分析了球員摘要的時間序列數據以獲得建議。
對于更復雜的應用程序,我們通常需要將 LLM 請求與調用之間的處理鏈接起來。我們為一家制藥公司開發了一款智能跟蹤應用程序,可以根據從臨床試驗文件中提取的標準篩選患者進行臨床試驗。這里我們使用了LLM鏈方法。首先,我們開發了一個 LLM 來閱讀試驗 pdf 文檔,并使用 RAG 模式來提取納入和排除標準。
為此,使用了相對簡單的 LLM,例如 GPT-3.5-Turbo (ChatGPT)。然后我們將這些提取的實體與 Snowflake 中患者 SQL 數據庫的數據模型相結合,以創建提示。這個提示輸入到更強大的 LLM(如 GPT4),為我們提供了一個 SQL 查詢來過濾患者,該查詢已準備好在 Snowflake 上運行。由于我們使用 LLM 鏈接,因此我們可以在鏈的每個步驟使用多個 LLM,從而使我們能夠管理成本。
目前,我們決定保持這條鏈的確定性,以便更好地控制。也就是說,我們決定在鏈中提供更多智能,并使編排保持非常簡單和可預測。該鏈的每個元素本身都是一個復雜的應用程序,在法學碩士預科階段需要幾個月的時間來開發。
為更高級的用例提供支持
對于更高級的情況,我們可以使用ReAct等代理來提示 LLM 創建針對特定用戶查詢遵循的分步說明。這當然需要像 GPT4 或 Cohere 或 Claude 2 這樣的高端 LLM。但是,模型存在采取錯誤步驟的風險,需要使用護欄進行驗證。這是在鏈條的可控環節中移動智能或使整個鏈條自治之間的權衡。
如今,隨著我們習慣了語言生成式人工智能時代,業界開始采用具有可預測鏈的法學碩士應用程序。隨著這種采用的增長,我們很快將開始嘗試通過代理為這些鏈提供更多自主權。這就是關于 AGI 的爭論的全部內容,我們有興趣了解這一切如何隨著時間的推移而演變。