精品国产av一区二区三区,国产av一区二区三区,丰满少妇大乳高潮在线,9lporm自拍视频区九色

當前位置:首頁 > 最新資訊 > 行業資訊

第一名失業的人工智能機器人

在數字化的巨浪中,一場看似微不足道的失誤揭示了一個深刻的問題:當企業將人工智能(AI)納入其運營時,它們應承擔何種責任?加拿大航空就因一次由客服聊天機器人引發的定價錯誤而不得不進行賠償,這一事件遠非簡單的插曲,而是關于企業如何精確監管 AI 工具的重大議題的縮影。

優惠引發的爭議

這一故事圍繞著加拿大 British Columbia 省的居民 Jake Moffatt 展開。2022 年 11 月的一個清晨,他在瀏覽加拿大航空的網站,試圖預訂一張飛往安大略省,參加祖母葬禮的機票。網站上的聊天機器人向他保證,只要在 90 天內提交申請,他就有資格獲得部分退款。然而,現實卻與之相悖,因為加航的實際政策明確指出,預訂航班票后,乘客不能以家庭悲傷為由申請退款。

到了 2023 年 2 月,Moffatt 終于提交了他與聊天機器人對話的截圖給航空公司,以此證明自己的主張。文件揭露,加航“承認聊天機器人使用了‘誤導性詞匯’”,但仍然拒絕退款。

加航的辯解是,鑒于聊天機器人的回復中鏈接到了詳細的喪親旅行政策頁面,Moffatt 本應該知曉喪親優惠不能追溯申請。加航未予退款,而是提出更新聊天機器人的計劃,并向 Moffatt 提供了一張價值 200 美元的優惠券,供其日后使用。

對這一解決方案,Moffatt 表示不滿,拒絕了優惠券,并向加拿大民事解決法庭提起了索賠。

案件的主審官 Christopher Rivers 對加航的立場提出了批評,他指出:“加航的論點是,它不能為其代理人、仆人或代表(包括聊天機器人)所提供的信息承擔責任。”他質疑航空公司要求客戶根據網站其他部分的信息來驗證聊天機器人所提供信息的合理性,認為這一要求是不合理的。

最終,支持 Moffatt 的裁決讓他能夠從 1640.36 加元的原票價中獲得 650.88 加元的部分退款,以及額外的損失賠償,包括機票利息和法庭費用。

在與 AI 系統提供的不良投資建議、指導進行欺詐性交易等問題相比,650 加元或許只是象征性的金額,但它凸顯了一個更廣泛的問題:在 AI 日益滲透我們生活的今天,企業應如何負責地部署和監管這些技術,以確保既促進效率又保護消費者權益。

轟轟烈烈地上崗后悄無聲地下崗

在數字化創新的浪尖上,加拿大航空的一次大膽嘗試——引入聊天機器人,旨在通過人工智能(AI)技術探索新的客戶服務模式,卻在實踐中遭遇了波折。去年三月,加航首席信息官 Mel Crocker 曾對外宣布,部署聊天機器人是一場關于 AI 的“實驗”,初衷是緩解航班延誤或取消時呼叫中心的壓力。

Crocker 解釋道,在極端天氣條件下,乘客急需重新安排航班,而此時,AI的介入能簡化流程,提升效率:“如果你因為暴風雪而未能拿到新的登機牌,僅僅想要確認是否能在另一班飛機上獲得座位,這正是我們可以借助 AI 輕松解決的問題。”隨著時間推移,加航寄望于聊天機器人能解決更多復雜的客戶服務問題,實現服務流程的全面自動化,減少“人工接觸”的需求。

Crocker 的言論透露了加航對技術進步的積極態度:“如果我們能通過技術解決那些可以自動化的問題,我們就會毫不猶豫。”加航對于客戶服務中人工智能技術的初步投資,盡管成本高昂,遠超繼續支付人工處理簡單查詢的費用,但他們堅信,這樣的投資最終會通過提高服務質量得到回報。

然而,這一切并非沒有代價。至少對于一位顧客而言,這項技術帶來的是更多的挫折而非便利。截至 2 月 18 日,這位不速之客——聊天機器人,在加航的網站上已經不復存在。這不僅標志著一個高調啟動、卻默默退場的技術實驗的結束,也對企業如何在追求自動化和保證客戶滿意度之間尋找平衡提出了重要的思考。

有沒有規避措施?

在人工智能(AI)愈發成為企業運營不可或缺的一部分時,加航聊天機器人引發的爭議凸顯了一個重要的法律與道德議題:企業如何在利用 AI 提升效率與確保提供準確信息之間找到平衡點。法律專家的見解揭示了一個潛在的規避責任的策略:若加航的聊天機器人能在與顧客互動時明確指出其提供的信息可能存在不準確性,那么公司或許能夠規避類似莫法特案件中的責任。

遺憾的是,加航似乎未采取此類預警措施。Christopher Rivers 裁判官的判斷明確指出,“加航未采取合理謹慎的措施以確保其聊天機器人提供信息的準確性”,強調企業應對其網站上所有形式的信息負責,無論是來自靜態頁面還是動態的聊天機器人。

這一判決對于所有利用AI工具的企業來說,都是一個重要的警示,強調了監控和確保 AI 產出準確性的重要性。Gartner 的 AI 分析師 Avivah Litan 強調,企業必須投入資源進行嚴格的監控,這不僅可以避免潛在的法律費用和罰款,更重要的是確保技術為企業帶來的是助力而非負擔。

此外,生成式 AI,特別是聊天機器人等工具的使用,引發了對準確性的廣

泛討論。Litan 指出,大約 30%的生成式 AI 回答存在誤差,企業需要通過建立防護機制來控制這些被稱為“幻覺”的輸出,確保不準確的信息不會誤導用戶。

IDC 的 Hayley Sutherland 和 Forrester 的 David Truog 分別強調了負責任地使用 AI 的重要性和目前聊天機器人技術的局限性。他們提醒企業,盡管技術不斷進步,但在部署這些工具時應保持審慎,確保其既能處理簡單任務,也能在復雜性和專業性方面達到有效溝通的標準。

綜上所述,加航的經驗教訓為所有企業提供了寶貴的洞察:在追求自動化和效率的同時,必須投入適當的資源和策略來確保 AI 工具的準確性和可靠性,從而避免潛在的法律風險和維護顧客信任。

企業擁抱AI的責任與挑戰

加拿大航空的經歷超越了一個簡單的聊天機器人失誤,它觸及了企業在采納人工智能(AI)技術時所必須承擔的更深層責任。這起事件不僅僅是一個警鐘,也是對未來,特別是涉及 AI 系統——包括生成式 AI——的案件一個明確的指示:需要仔細考慮哪些參與者,無論是 AI 的行為者還是使用者,應對 AI 系統的輸出承擔責任。

這一事件強調了一個關鍵信息,即所有企業在追求由技術帶來的效率和便利性的同時,也必須相應地投入資源,以確保這些技術的使用是安全、可靠且負責任的。這不僅關乎法律責任的界定,更關乎于企業如何在技術創新與倫理責任之間找到平衡點,確保在利用 AI 推動業務發展的同時,也能保護消費者的權益并促進公平、透明的技術使用環境。

猜你喜歡