Bria公司的人工智能倡導(dǎo)者RavitDotan表示,盡管呼吁制定新的、針對人工智能的監(jiān)管規(guī)定,作為討論人工智能未來的一部分,有其合理的地位,但這些規(guī)定不應(yīng)以犧牲其他保護(hù)公眾的機(jī)制為代價(jià)。通用法律(例如非歧視法律)適用于人工智能,應(yīng)盡快在更大范圍內(nèi)實(shí)施。此外,要求監(jiān)管的呼聲不應(yīng)被用作向政策制定者推卸責(zé)任的手段。
開發(fā)和部署人工智能的組織可以而且應(yīng)該積極主動地確保他們的技術(shù)是安全和有益的,即使監(jiān)管和執(zhí)行還沒有跟上技術(shù)的步伐。
OpenAI公司首席執(zhí)行官SamAltman最近在美國參議院關(guān)于人工智能監(jiān)管的司法聽證會上作證,他主張對人工智能進(jìn)行監(jiān)管,引起了媒體的廣泛關(guān)注。雖然在AIR討論中包括監(jiān)管的呼吁很重要,但它們不應(yīng)以犧牲其他保護(hù)公眾的機(jī)制為代價(jià)。
為了盡快解決與人工智能相關(guān)的問題,必須在更大范圍內(nèi)執(zhí)行非歧視法等一般性法律。此外,要求監(jiān)管的呼聲不應(yīng)被用作向政策制定者推卸責(zé)任的手段。開發(fā)和部署人工智能的組織應(yīng)該采取積極措施,確保其技術(shù)的安全性和效益,即使監(jiān)管和執(zhí)法趕上來。
呼吁將監(jiān)管作為道德洗滌的一種形式
呼吁監(jiān)管而不追究自己的責(zé)任是一種空洞的姿態(tài),可能會造成一種負(fù)責(zé)任的假象。在聽證會上,Altman一再呼吁監(jiān)管機(jī)構(gòu)在參議員提出擔(dān)憂時(shí)進(jìn)行干預(yù)。他承認(rèn),“無論美國國會做什么,企業(yè)都有自己的責(zé)任,這一點(diǎn)很重要”。然而,他對OpenAI公司為保持自身責(zé)任所做的事情保持沉默,這表明情況并非如此。該公司自己最近的人工智能安全聲明指出,建議轉(zhuǎn)移同樣的責(zé)任。
雖然OpenAI公司的聲明涉及了從現(xiàn)實(shí)世界的例子中學(xué)習(xí)、隱私、保護(hù)兒童和準(zhǔn)確性等主題,但它忽略了一些重要問題。例如,聲明沒有提到版權(quán)和知識產(chǎn)權(quán)(IP)。此外,在ChatGPT實(shí)驗(yàn)中觀察到的偏見和公平問題,在聲明中根本沒有提到。該聲明還無視抄襲和欺詐的風(fēng)險(xiǎn),盡管ChatGPT的能力使欺詐活動更容易實(shí)現(xiàn),撼動了整個(gè)行業(yè)的核心。盡管估計(jì)指出了這些擔(dān)憂,但聲明同樣對ChatGPT的環(huán)境成本保持沉默,例如高碳排放和水消耗。這樣的例子不勝枚舉。
在聲明的最后,OpenAI暗示他們在安全方面的努力可能不夠。他們不是自己追求更高的標(biāo)準(zhǔn),而是提倡監(jiān)管,防止其他人走捷徑。
Altman說,“為了更好地了解GPT-4的功能、好處和風(fēng)險(xiǎn),我們等了6個(gè)多月才部署它,但有時(shí)可能需要更長的時(shí)間來提高人工智能系統(tǒng)的安全性。因此,政策制定者和人工智能提供商將需要確保人工智能的開發(fā)和部署在全球范圍內(nèi)得到有效管理,這樣就不會有人為了獲得成功而偷工減料。”
OpenAI這樣的公司,憑借其實(shí)力、財(cái)富和影響力,有責(zé)任在其技術(shù)中優(yōu)先考慮公共安全。雖然降低風(fēng)險(xiǎn)是一項(xiàng)集體努力,但在如此利害攸關(guān)的情況下,把責(zé)任推給監(jiān)管機(jī)構(gòu)是不可接受的。如果確保產(chǎn)品安全需要6個(gè)月以上的時(shí)間,那么在發(fā)布更高級的版本之前也需要6個(gè)月以上的時(shí)間。
轉(zhuǎn)移對現(xiàn)有法律的關(guān)注
除了將責(zé)任轉(zhuǎn)移給監(jiān)管機(jī)構(gòu)之外,呼吁對人工智能進(jìn)行監(jiān)管還可以轉(zhuǎn)移人們對企業(yè)可能違反的現(xiàn)有法律的注意力。關(guān)于隱私、版權(quán)和知識產(chǎn)權(quán)等主題的法律得到了一些關(guān)注,但它們只是冰山一角。
例如,非歧視法律是技術(shù)不可知論的;無論底層技術(shù)如何,他們都禁止歧視。美國聯(lián)邦機(jī)構(gòu)發(fā)表聲明強(qiáng)調(diào)了這一事實(shí)。例如,聯(lián)邦貿(mào)易委員會、司法部、消費(fèi)者金融保護(hù)局和平等就業(yè)機(jī)會委員會這四個(gè)聯(lián)邦機(jī)構(gòu)最近發(fā)表的聯(lián)合聲明“打開一個(gè)新窗口”,以及聯(lián)邦貿(mào)易委員會和消費(fèi)者金融保護(hù)局之前的聲明。訴訟努力也證明了這一點(diǎn)。例如,司法部起訴Meta(當(dāng)時(shí)的Facebook)違反了《公平住房法》。美國司法部辯稱,Meta的廣告算法帶來的歧視是非法的。作為和解的一部分,Meta已經(jīng)同意改變其算法。鑒于它所做的有偏見的假設(shè),ChatGPT的商業(yè)使用可能會以類似的方式導(dǎo)致違反非歧視法律。
聽證會上簡要地提到了現(xiàn)行法律,但它們更值得關(guān)注。毫不奇怪,科技公司并沒有呼吁監(jiān)管機(jī)構(gòu)根據(jù)現(xiàn)行法律追究它們的責(zé)任。然而,重要的是要優(yōu)先執(zhí)行現(xiàn)有法律,而不是僅僅依靠新法規(guī);這些法律可以確保我們的安全,并更及時(shí)地追究科技公司的責(zé)任。
監(jiān)管之外的責(zé)任
呼吁制定新的、針對人工智能的法律可能會造成人工智能不在現(xiàn)行法律范圍內(nèi)的錯(cuò)誤印象。它們還會讓科技公司只對法律規(guī)定負(fù)責(zé)的說法永久化。
我們不應(yīng)該相信這種說法。科技公司對其技術(shù)的負(fù)面影響負(fù)有責(zé)任,無論其合法性如何。作為一個(gè)社會,我們有權(quán)力對這些公司施加壓力,要求他們履行責(zé)任。