Bria公司的人工智能倡導者RavitDotan表示,盡管呼吁制定新的、針對人工智能的監管規定,作為討論人工智能未來的一部分,有其合理的地位,但這些規定不應以犧牲其他保護公眾的機制為代價。通用法律(例如非歧視法律)適用于人工智能,應盡快在更大范圍內實施。此外,要求監管的呼聲不應被用作向政策制定者推卸責任的手段。
開發和部署人工智能的組織可以而且應該積極主動地確保他們的技術是安全和有益的,即使監管和執行還沒有跟上技術的步伐。
OpenAI公司首席執行官SamAltman最近在美國參議院關于人工智能監管的司法聽證會上作證,他主張對人工智能進行監管,引起了媒體的廣泛關注。雖然在AIR討論中包括監管的呼吁很重要,但它們不應以犧牲其他保護公眾的機制為代價。
為了盡快解決與人工智能相關的問題,必須在更大范圍內執行非歧視法等一般性法律。此外,要求監管的呼聲不應被用作向政策制定者推卸責任的手段。開發和部署人工智能的組織應該采取積極措施,確保其技術的安全性和效益,即使監管和執法趕上來。
呼吁將監管作為道德洗滌的一種形式
呼吁監管而不追究自己的責任是一種空洞的姿態,可能會造成一種負責任的假象。在聽證會上,Altman一再呼吁監管機構在參議員提出擔憂時進行干預。他承認,“無論美國國會做什么,企業都有自己的責任,這一點很重要”。然而,他對OpenAI公司為保持自身責任所做的事情保持沉默,這表明情況并非如此。該公司自己最近的人工智能安全聲明指出,建議轉移同樣的責任。
雖然OpenAI公司的聲明涉及了從現實世界的例子中學習、隱私、保護兒童和準確性等主題,但它忽略了一些重要問題。例如,聲明沒有提到版權和知識產權(IP)。此外,在ChatGPT實驗中觀察到的偏見和公平問題,在聲明中根本沒有提到。該聲明還無視抄襲和欺詐的風險,盡管ChatGPT的能力使欺詐活動更容易實現,撼動了整個行業的核心。盡管估計指出了這些擔憂,但聲明同樣對ChatGPT的環境成本保持沉默,例如高碳排放和水消耗。這樣的例子不勝枚舉。
在聲明的最后,OpenAI暗示他們在安全方面的努力可能不夠。他們不是自己追求更高的標準,而是提倡監管,防止其他人走捷徑。
Altman說,“為了更好地了解GPT-4的功能、好處和風險,我們等了6個多月才部署它,但有時可能需要更長的時間來提高人工智能系統的安全性。因此,政策制定者和人工智能提供商將需要確保人工智能的開發和部署在全球范圍內得到有效管理,這樣就不會有人為了獲得成功而偷工減料。”
OpenAI這樣的公司,憑借其實力、財富和影響力,有責任在其技術中優先考慮公共安全。雖然降低風險是一項集體努力,但在如此利害攸關的情況下,把責任推給監管機構是不可接受的。如果確保產品安全需要6個月以上的時間,那么在發布更高級的版本之前也需要6個月以上的時間。
轉移對現有法律的關注
除了將責任轉移給監管機構之外,呼吁對人工智能進行監管還可以轉移人們對企業可能違反的現有法律的注意力。關于隱私、版權和知識產權等主題的法律得到了一些關注,但它們只是冰山一角。
例如,非歧視法律是技術不可知論的;無論底層技術如何,他們都禁止歧視。美國聯邦機構發表聲明強調了這一事實。例如,聯邦貿易委員會、司法部、消費者金融保護局和平等就業機會委員會這四個聯邦機構最近發表的聯合聲明“打開一個新窗口”,以及聯邦貿易委員會和消費者金融保護局之前的聲明。訴訟努力也證明了這一點。例如,司法部起訴Meta(當時的Facebook)違反了《公平住房法》。美國司法部辯稱,Meta的廣告算法帶來的歧視是非法的。作為和解的一部分,Meta已經同意改變其算法。鑒于它所做的有偏見的假設,ChatGPT的商業使用可能會以類似的方式導致違反非歧視法律。
聽證會上簡要地提到了現行法律,但它們更值得關注。毫不奇怪,科技公司并沒有呼吁監管機構根據現行法律追究它們的責任。然而,重要的是要優先執行現有法律,而不是僅僅依靠新法規;這些法律可以確保我們的安全,并更及時地追究科技公司的責任。
監管之外的責任
呼吁制定新的、針對人工智能的法律可能會造成人工智能不在現行法律范圍內的錯誤印象。它們還會讓科技公司只對法律規定負責的說法永久化。
我們不應該相信這種說法。科技公司對其技術的負面影響負有責任,無論其合法性如何。作為一個社會,我們有權力對這些公司施加壓力,要求他們履行責任。