人工智能技術正在努力跟上當今的條件,并應用于現實世界。
如果對技術感興趣,就很難不對人工智能技術著迷。人工智能是當今科技界最受關注的話題之一,其在給我們的生活帶來許多東西方面發揮了巨大的作用,尤其是在過去的五年里。無論是利用其生成能力突破創造力的極限,還是利用其先進的分析能力了解我們的需求,許多行業已經在人工智能的巨大蛋糕中分得一杯羹。但這是否意味著人工智能是完美的?
盡管人工智能已經成功地吸引了所有人的關注,但我們有時會忘記關注天平的另一面。雖然我們人類很難解釋生活和情感,但提供數據的人工智能技術在這方面也不是很成功。不幸的是,考慮到當今的技術,解釋生物體不可預測的運動(其大部分決定都是基于荷爾蒙沖動),并希望一臺從未經歷過這些荷爾蒙影響的機器能夠做到這一點,這是一個很大的困境。
下面,讓我們來談談在生活中最重要的方面接受和使用人工智能所面臨的挑戰。
人工智能技術如何從提供的數據中學習?
人工智能技術通過一個被稱為訓練的結構化過程,從提供的數據中學習。這個過程是機器學習的基礎,機器學習是人工智能的一個子集,涉及幾個不同的步驟。
首先,數據收集是必不可少的。人工智能系統需要大量且多樣化的數據集,這些數據集與其要解決的特定問題相關。該數據集包含輸入數據(特征)和相應的輸出或標簽,其代表所需的預測或分類。例如,在圖像識別中,數據集將由圖像及其相關標簽組成,例如識別圖像是否包含貓或狗。
收集數據后,將對其進行預處理。此步驟確保數據采用適合訓練的格式。數據預處理任務可以包括用于消除錯誤或不一致的數據清理、使數據處于一致范圍內的規范化,以及從原始數據中提取有意義的信息的特征工程。
下一個關鍵步驟是模型選擇。人工智能從業者選擇適合當前問題的機器學習模型或算法。常見的選擇包括神經網絡(用于深度學習)、決策樹、支持向量機等。
選擇模型后,將進行參數初始化。這些參數是決定其行為的模型的系數或權重。其用隨機值初始化。
訓練循環是模型真正學習的地方。由幾個迭代步驟組成:
在前向傳遞中,模型獲取輸入數據并根據其當前參數生成預測。
損失函數量化這些預測與實際標簽之間的差異。目標是盡量減少這種損失。
采用梯度下降等優化算法,反向傳播對模型參數進行調整。此步驟確保模型不斷地改進其預測。
這種迭代訓練過程在多個時代重復,允許模型進一步微調其參數。
驗證和測試是關鍵階段。驗證評估模型泛化到新的、看不見的數據的程度,而測試則更嚴格地評估其性能和泛化能力。
從理論上講,一旦模型表現出令人滿意的性能,就可以將其部署到現實應用程序中,以根據新的、以前未見過的數據進行預測或自動執行任務。
人工智能技術可以通過多種方式從數據中學習,但最常見的方法是監督學習,即人工智能算法在標記數據上進行訓練,這意味著正確的輸出是已知的。該算法通過進行預測,并將其與真實標簽進行比較來學習將輸入映射到輸出。隨著時間的推移,該算法的準確性會提高,并且可以對新的、未見過的數據做出更好的預測。
因此,雖然數據標記在監督學習中至關重要,但我們能否完全確定其準確性?答案是否定的。讓我們面對現實——人類并不完美。我們都有過質疑自己能力的時刻,比如懷疑醫療診斷或懷疑刑事案件的結果是否真的公正。然而,我們應該毫不猶豫地相信自己和標記的數據。這很難接受,但現實是,即使有最好的意圖,我們都容易犯錯誤。
機器學習算法的另一種形式稱為無監督學習。這涉及到人工智能系統在一組未標記的數據上進行訓練,這意味著該算法不具備每個數據點的正確輸出。因此,這必須獨立識別數據內的模式和關系。例如,可以利用無監督學習來識別具有相似消費習慣的客戶群體。
此外,人工智能技術具有實時從數據中學習的能力。這就是所謂的強化學習。在此過程中,人工智能系統會因所采取的行為利否而獲得獎勵或懲罰。
盡管看起來合乎邏輯,但這種方法還遠遠不夠完美,還沒有為嚴酷的世界做好充分準備。
預測人工智能準備好迎接如此復雜的世界了嗎?
最近發表在《連線》雜志上的一項研究發現,預測人工智能技術及其軟件應用(如Geolitica)并不像人們希望的那樣有效。事實上,研究發現人工智能軟件的準確率只有0.6%左右。這引起了人們對世界各地警察部門使用人工智能技術的擔憂。
那么,問題出在哪里呢?預測性人工智能軟件的主要問題之一是,其依賴于生命是可預測的這一有缺陷的假設。生命是一種復雜的現象,受到眾多變量的影響,其中許多變量是不可預測的。因此,很難依靠軟件來準確預測事件發生的地點和時間。
人工智能技術在醫學領域的情況也不是很好。ChatGPT被廣泛使用,被普遍認為是最強大的大型語言模型(LLM),但對于醫學研究和準確診斷而言,具有很大的誤導性和不足。
Maryam Buholayka、Rama Zouabi和Aditya Tadinada的研究評估了ChatGPT獨立撰寫科學案例報告的能力。該研究將ChatGPT與人類口腔頜面放射科醫生在撰寫病例報告方面的表現進行了比較。
最終發現,ChatGPT能夠生成與人類放射科醫生撰寫的病例報告質量相似的病例報告。然而,ChatGPT病例報告不太可能包含某些重要元素,例如鑒別診斷的討論和文獻綜述。
因此,綜合研究得出的結論是,ChatGPT尚未準備好自行撰寫科學案例報告。那么,所有這些做法對我們意味著什么呢?盡管人工智能技術的魔力讓所有人驚嘆不已,但遠未達到完美。許多不可預測的因素,例如人為控制來源以及算法運行不正確或不完整,正在減慢人工智能技術融入日常生活的速度。
但別忘了,即使是帶有傳感器的門,也曾一度被認為是人類的想象。