精品国产av一区二区三区,国产av一区二区三区,丰满少妇大乳高潮在线,9lporm自拍视频区九色

當前位置:首頁 > 最新資訊 > 行業(yè)資訊

當人工智能公司成為軟件供應鏈漏洞的受害者時會發(fā)生什么

看看OpenAI的漏洞,并推斷可能的人工智能公司SSC黑客及其可能的影響。企業(yè)能做些什么來保護自己?

2023年3月20日,OpenAI公司關閉了流行的生成式人工智能工具ChatGPT幾個小時。該公司后來承認,其宕機的原因是源自開源內存數據存儲庫“Redis”的軟件供應鏈漏洞。

由于這個漏洞,有一個時間窗口(3月20日上午1-10點),用戶可能會意外訪問其他用戶的聊天歷史記錄標題,并可能暴露與支付相關的信息,例如姓名、電子郵件地址、支付地址、信用卡類型和支付卡號的最后四位數字。

這是一個相對較小的錯誤,很快就被發(fā)現并修復了??紤]到ChatGPT和其他生成式人工智能來越受歡迎,更有針對性的軟件供應鏈攻擊可能會產生什么后果?

2023年企業(yè)應用程序安全將面臨哪些挑戰(zhàn)

2022年“企業(yè)應用安全”報告為開發(fā)人員提供了工具和技術,以確保SDLC的所有階段都是安全的。其內容包括供應鏈安全、DevSecOps、零信任安全原則、移動應用程序安全等。

本文將研究3月20日究竟發(fā)生了什么,以及用戶信息是如何暴露的。還將想象一下更嚴重的潛在攻擊,看看哪些信息可能被暴露,以及可以做些什么來幫助防止此類情況的發(fā)生。最后將給出一些通用的軟件供應鏈安全建議,無論企業(yè)正在開發(fā)什么軟件,這些建議都是相關的。

像幾乎所有其他軟件公司一樣,OpenAI公司的代碼在很大程度上依賴于開源庫和代碼。在這個例子中,這個bug是在Redis客戶端開源庫Redis-py中發(fā)現的。以下是該公司自己重新記錄的漏洞描述:

OpenAI使用Redis在他們的服務器中緩存用戶信息,以便不需要每次請求都檢查他們的數據庫。

Redis集群用于將負載分配到多個Redis實例上。

Redis-py庫用于與公司的Python服務器的Redis接口,該服務器與Asyncio一起運行。

庫維護服務器和集群之間的共享連接池,并回收連接,以便在完成后用于另一個請求。

當使用Asyncio時,redis-py的請求和響應表現為兩個隊列:調用者將請求推送到傳入隊列,從傳出隊列彈出響應,然后將連接返回到池。

假設一個請求在被推送到傳入隊列之后,但在響應從傳出隊列彈出之前被取消。在這種情況下,看到了錯誤:連接損壞,并且為不相關請求提取的下一個響應可以接收連接中遺留的數據。

在大多數情況下,這會導致一個不可恢復的服務器錯誤,用戶將不得不再次嘗試他們的請求。

但在某些情況下,損壞的數據恰好與請求者期望的數據類型相匹配,因此從緩存中返回的數據看起來是有效的,即使它屬于另一個用戶。

3月20日凌晨1點,OpenAI公司無意中對他們的服務器進行了更改,導致Redis請求取消激增。這使得每個連接返回錯誤數據的概率高于平常。

這個特定的錯誤只出現在Redis集群的AsyncioRedis-py客戶端中,并且已經由OpenAI公司工程師和Redis庫維護者共同修復。

提醒一下,這個錯誤可能會無意中暴露另一個活躍用戶的搜索標題和該用戶的部分支付信息。一些用戶現在讓ChatGPT完全或部分控制他們的個人財務,暴露這些信息可能會帶來災難性的后果。

這是可能發(fā)生的事情

在這種情況下,OpenAi從開源庫Redis繼承的軟件供應鏈漏洞是一個相對簡單的漏洞,很容易修補??梢韵胂笠粋€更嚴重的場景,這是一個有針對性的軟件供應鏈攻擊,類似于SolarWinds遭受的攻擊,發(fā)生了,并且在很長一段時間內(假設是幾個月)都沒有被發(fā)現。

由于用戶現在向OpenAI公司付費以更直接地訪問他們的大型語言模型(LLM),這樣的攻擊可能會泄露客戶的信息,包括他們的支付數據。但這并不是我們假設的黑客組織真正感興趣的信息。ChatGPT目前擁有11.6億用戶。它的用戶在2023年3月突破了10億。這些數字表明,從2023年2月到2023年3月,這一數字增長了近55%?,F在,從藝術到歷史作業(yè)再到金融,許多人都在使用生成式人工智能,不受限制地訪問OpenAI的數據庫可能會泄露無數用戶的潛在勒索信息。如果想找一個更現實的例子,那么2015年AshleyMadison的數據泄露事件造成了一些嚴重后果,其中一些后果甚至在多年后仍然存在。

讓我們在我們想象的黑客中更進一步,假設這個未命名的黑客組織不僅可以訪問OpenAI數據庫,而且還可以影響請求的結果。你能想象數以百萬計的人獲得黑客組織量身定制的有針對性的財務建議的可能性嗎?或者得到虛假的安全掃描信息或代碼測試信息,再次由我們神秘的黑客組織提供?ChatGPT現在可以訪問互聯(lián)網,這使得將進出OpenAI服務器的信息隱藏起來變得更加容易,這些信息只不過是常規(guī)的、無害的數據。

人們可以看到針對成功的LLM的軟件供應鏈攻擊可能造成的巨大潛在損害。

如何保護自己和軟件供應鏈

為了保護自己,你能做的第一件事就是提高你的懷疑意識。不要盲目地信任任何工具,無論它看起來多么溫和,除非您能保證完全控制它所做的事情、它可能做的事情以及它可以訪問的資源。在本地運行ChatGPT的開源版本的選項可以讓您對培訓信息和訪問級別有更多的控制。

對軟件供應鏈中正在發(fā)生的事情有更多的透明度,并建立一個管道也是一個好主意。您可以從每個構建的SBOM開始,但這只是一個步驟,您還可以做許多其他事情來增加服務器、云或網絡中正在發(fā)生的事情的透明度。

人工智能的未來

無論我們做什么,人工智能都會一直存在。它對人們日常生活的影響程度還有待推測,但僅從過去六個月的情況來看,似乎可以肯定的是,我們正在看到LLM技術及其應用的潛在分水嶺。隨著人工智能使代碼和整個應用程序的創(chuàng)建變成了用“自然語言”找到正確提示的問題,我們可能會面臨前所未有的大量應用程序,這些應用程序沒有經過適當的測試,也沒有適當的安全保障措施來保護它們的用戶和創(chuàng)建它們的人員或公司。

猜你喜歡