現(xiàn)如今,生成式AI的探索和實(shí)施工作已經(jīng)不可避免地同安全問(wèn)題交織在一起。根據(jù)近期的一份數(shù)據(jù)報(bào)告,49%的企業(yè)領(lǐng)導(dǎo)者認(rèn)為安全風(fēng)險(xiǎn)已經(jīng)成為首要問(wèn)題,38%的企業(yè)領(lǐng)導(dǎo)者則將因不了解如何使用GPT工具而引發(fā)的人為錯(cuò)誤/人為數(shù)據(jù)泄露列為頭號(hào)挑戰(zhàn)。
盡管這些擔(dān)憂(yōu)各有道理,但早期采用者所獲得的好處將遠(yuǎn)遠(yuǎn)超過(guò)這些阻礙探索的潛在后果。
在本文中,我們將幫助各位團(tuán)隊(duì)成員和客戶(hù)了解為何不能把安全視為事后因素,而應(yīng)將其作為AI與業(yè)務(wù)相集成的先決條件,同時(shí)探討這方面工作中的一系列最佳實(shí)踐。
以安全策略為起點(diǎn)
企業(yè)已經(jīng)感受到由AI應(yīng)用所帶來(lái)的新興安全風(fēng)險(xiǎn)與現(xiàn)實(shí)緊迫性。事實(shí)上,根據(jù)之前提到的統(tǒng)計(jì)報(bào)告,81%的企業(yè)領(lǐng)導(dǎo)者表示他們的公司已經(jīng)實(shí)施、或者正在制定圍繞生成式AI建立的用戶(hù)政策。
然而,由于該項(xiàng)技術(shù)的發(fā)展速度極快、新興應(yīng)用與用例時(shí)刻都在涌現(xiàn),因此政策內(nèi)容也必須不斷更新以應(yīng)對(duì)隨時(shí)出現(xiàn)的風(fēng)險(xiǎn)和挑戰(zhàn)。
為了在加快探索的同時(shí)最大限度降低安全風(fēng)險(xiǎn),我們自然有必要為測(cè)試和學(xué)習(xí)工作設(shè)置“護(hù)欄”。而且相關(guān)政策的制定也絕不應(yīng)孤立推進(jìn),而應(yīng)從企業(yè)內(nèi)各個(gè)部門(mén)的代表處充分征集意見(jiàn),思考不同職能單位如何使用/是否可以使用生成式AI應(yīng)對(duì)各自面臨的安全風(fēng)險(xiǎn)。
總而言之,各部門(mén)對(duì)于AI技術(shù)的探索不應(yīng)被粗暴禁止。如果單純出于恐懼而在企業(yè)范圍內(nèi)全面封禁,那么大家也不必?fù)?dān)心競(jìng)爭(zhēng)對(duì)手吞噬自己的市場(chǎng)份額了——您本身就是在自毀長(zhǎng)城。
以一線(xiàn)人員為核心
為了確保能夠以安全的方式使用生成式AI,我們首先應(yīng)為普通開(kāi)發(fā)人員提供許可,例如允許他們?nèi)媸褂么笳Z(yǔ)言學(xué)習(xí)模型Insight GPT的私有實(shí)例。這一方面有助于發(fā)現(xiàn)潛在用例,同時(shí)也能根據(jù)輸出開(kāi)展壓力測(cè)試,對(duì)生成式AI服務(wù)做出持續(xù)改進(jìn)。
我們很快發(fā)現(xiàn),一位倉(cāng)庫(kù)團(tuán)隊(duì)成員找到了一種提高訂單配送效率的方法。在這種非凡的用例中,該成員要求Insight GPT在SAP中編寫(xiě)一份腳本,用以自動(dòng)處理部分工作負(fù)載。雖然效果很棒,但如果沒(méi)有設(shè)置適當(dāng)?shù)淖o(hù)欄,這種嘗試也極易引發(fā)事故。比如說(shuō),一旦工作人員粗心之下執(zhí)行了一筆訂單中并不存在的交易,那么后續(xù)的自動(dòng)環(huán)節(jié)將無(wú)法中斷。
所以在促進(jìn)民間探索并盡可能限制風(fēng)險(xiǎn)的過(guò)程中,我們需要:審查委員會(huì)應(yīng)制定明確的指導(dǎo)方針,開(kāi)展風(fēng)險(xiǎn)評(píng)估并加強(qiáng)AI系統(tǒng)的透明度。進(jìn)行適當(dāng)培訓(xùn),教育員工如何以負(fù)責(zé)任的方式將AI納入工作場(chǎng)景,特別是應(yīng)當(dāng)闡明對(duì)于道德標(biāo)準(zhǔn)、偏見(jiàn)、人類(lèi)監(jiān)督和數(shù)據(jù)隱私等關(guān)鍵問(wèn)題的處理方式。開(kāi)設(shè)內(nèi)部論壇,鼓勵(lì)團(tuán)隊(duì)成員在公司創(chuàng)新者群組內(nèi)分享自己的發(fā)現(xiàn)和教訓(xùn)。
減少“幻覺(jué)”的風(fēng)險(xiǎn)
生成式AI之所以存在風(fēng)險(xiǎn),一個(gè)重要原因就是它偶爾會(huì)產(chǎn)生“幻覺(jué)”。根據(jù)Insight報(bào)告,企業(yè)領(lǐng)導(dǎo)者最關(guān)心的一個(gè)共同主題,就是幻覺(jué)會(huì)如何引發(fā)錯(cuò)誤的商業(yè)決策。然而,由幻覺(jué)導(dǎo)致的風(fēng)險(xiǎn)往往各不相同,有時(shí)問(wèn)題不大、有時(shí)后果嚴(yán)重,具體影響往往因場(chǎng)景而異。
雖然GPT工具必然會(huì)輸出某些與客觀現(xiàn)實(shí)不符的結(jié)果,但我們很快意識(shí)到這種錯(cuò)誤回答往往屬于措辭層面的混淆。例如,在早期測(cè)試當(dāng)中,我們?cè)儐?wèn)Insight GPT埃迪·范·海倫曾與埃迪·范·海倫合作過(guò)哪首作品。正確答案是“Beat It”,但它的回答卻是“Thriller”。可從另一角度講,“Beat It”確實(shí)是“Thriller”專(zhuān)輯中的一首作品,所以它的回答也并非毫無(wú)道理。
這就完美詮釋了“幻覺(jué)”問(wèn)題造成的不同風(fēng)險(xiǎn),特別是在處理各種主觀性較強(qiáng)的工作負(fù)載時(shí)。要想在安全角度上解決這類(lèi)問(wèn)題,我們就必須建立并執(zhí)行相關(guān)政策,將所有AI生成的內(nèi)容都納入人工監(jiān)督范疇之內(nèi)。此外,所有由AI輔助生成的內(nèi)容都必須進(jìn)行明確標(biāo)記。當(dāng)這些內(nèi)容穿行在內(nèi)部及外部各價(jià)值鏈時(shí),也應(yīng)始終附帶標(biāo)記并接受監(jiān)督。
當(dāng)下,生成式AI行業(yè)仍處于萌芽階段,誰(shuí)能摸索出負(fù)責(zé)任且安全的應(yīng)用方式,同時(shí)減少數(shù)據(jù)泄露、信息錯(cuò)誤、偏見(jiàn)及其他風(fēng)險(xiǎn)所引發(fā)的潛在威脅,誰(shuí)就能建立起明確的技術(shù)優(yōu)勢(shì)。企業(yè)需要保證自己的AI政策與行業(yè)的變化持續(xù)保持同步,在維護(hù)合規(guī)性、緩解幻覺(jué)問(wèn)題的同時(shí)逐步建立起用戶(hù)信任。