人工智慧研究的議題

Vincent Chen-WS
8 min readJan 21, 2019

人工智慧(AI)是一項重要的前瞻技術,它正在以極快的速度發展,並成為所有環境和行業軟體中不可或缺的元素。 這些進步的前景是,人工智慧在所有領域都具有轉化能力,為市場帶來可能的創新解決方案。隨著人工智慧能力的提高和人工智慧系統在社會的功能中將日益重要,面對的相關挑戰也日益艱鉅。

AI指的是廣泛的技術,可以讓軟硬體展示智慧,導致針對特定問題(例如機器學習、深度學習)堤共最佳或接近最佳的解決方案。 隨著AI的發展,它將成為許多應用程式的根源,這些應用程式被建議引入AI,並以越來越自主的方式運行,即以靈活、彈性和自學的方式回應環境並與之互動。

支持AI的核心特徵是它們可以分析和解釋數據以解決問題,或者從數據中獲取洞察力。人工智慧被假設通過反複試驗來即時學習,就像人類一樣,為此需要大量的數據來訓練模型。但唯一的區別是,現在快速處理、快速網路和大量生成的數據集,使AI更能夠充分發揮潛力。

事實上,公民住在智慧住宅,駕駛自動駕駛汽車,穿著智能可穿戴設備,大量的數據可以由具有AI功能的系統生產和處理。使用AI的“大數據”分析的核心概念,能夠將非結構化數據轉換為有意義的信息,並且訓練有素的AI模型,能夠基於先前的行為做出即時決策。 許多主要的雲服務提供商,已經開始提供人工智慧即服務(AI as a Service)。 雖然可能需要進一步努力為所有業務案例發現可行的解決方案,但方向大致已經確定。不幸的是,人工智慧不僅提供了機會,也會帶來了安全威脅和安全風險,這將影響為人工智慧的有益使用的同時,也需要建立AI防禦的努力。

今天人工智慧的一些應用

自動駕駛汽車

自動駕駛汽車現在正在逐漸成為現實。他們使用各種傳感技術,包括雷達、光學識別,它可以與GPS和慣性測量傳感器協同工作,以模擬車輛的當前動態行為。此外,傳感器數據可以提供車輛位置和方向的準確估計。這有助於與合作智慧運輸系統(ITS)的融合,以建立操作環境的詳細動態圖及其與車輛的計劃路線的關係。車輛中的AI技術非常豐富,可以實現這種動態地圖,並估計其他車輛與人或AI駕駛員的行為,從而最大限度地提高車輛及其環境的安全性。因為自動駕駛汽車的開發已經非常廣泛,然而網路安全才是自動駕駛汽車開發研究的關鍵領域,包括如何避免駭客控制汽車、修改系統不遵循公佈的交通標誌、鎖定系統的勒索贖金等。另外尚須在環境對AI控制的車輛及其環境都不安全或危險情況下,教導AI本身的行為方式。

圖像和視頻識別

現在可以產生幾乎與真實照片無法區分的合成圖像(synthetic images)。 很快,人類可能無法區分哪些視頻是從真實視頻中人工創建的。隨著高品質偽造品的生產和傳播,變得越來越低成本,合成多媒體可能構成媒體和信息生態系統的很大一部分,並且它們可能使用於社交網路傳播。 顯然,機器學習的進步可能允許以更高的準確度,來檢測合成多媒體的真偽。

監控

已經開發出監視系統可以跟踪個人行動的軌跡、計數並且預測在沒有人為干預的情況下,可能發生人群擁擠的地方。 許多部署的CCTV系統,具有部署AI處理以執行許多技術任務的能力,包括識別特定個體的步態(gait)和臉部。 雖然技術上可用,但由於法律限制,並非所有此類技術都可以部署 。但是它們的存在,表明在確保公民隱私方面存在著特殊的挑戰。

雙重用途技術(Dual use technology)

人工智慧是一個雙重用途的技術領域。 它可用於攻擊和防禦角色,用於民用或軍用,更廣泛地用於有益和有害的情境。 DARPA的網路大挑戰賽(DARPA’s Cyber Grand Challenge)創造了一個“奪旗(Capture the Flag)”錦標賽,其中包括可以自主機器攻擊參加錦標賽的其他六台機器,同時保護自己的系統。另外例如,檢查軟體漏洞的應用程式系統,同時具有攻擊性和防禦性,可以實現軟體缺陷的自動識別攻擊、補丁的產生和網路上的及時防禦部署等。

近來有許多無監督的AI例子,由於不必要的行為而成為頭條新聞:

•用於測試和改善微軟對會話語言理解的Twitter聊天機器人,在16小時後,以意外和無意的方式開始表現時,遭到暫停的命運。

•亞馬遜提出的招聘自動工具,由於出現性別歧視跡象而被取消。

•在一項分析使用人工智慧輔助工具COMPAS(替代制裁的懲教罪犯管理概況)的風險的研究中,發現人工智慧工具通過錯誤識別重新犯罪(累犯)風險,高於白人被告的黑人被告而引入種族歧視,從而加強對黑人罪犯的監禁判刑。

人工智慧去偏見化(de-bias)研究

社交媒體網站的例子包括過濾新聞,讓這些新聞通同溫層的自然偏見,來擴大行為偏差,並且保護讀者免受相互矛盾的新聞來源的挑戰。這會在道德和倫理層面上產生問題:如何確AI的數據,能公平和平等地用於在多樣性、種族、文化、性別、語言學等方面,以避免歧視、種族主義、極端政治觀點? 人工智慧決策如何能夠實現公平和包容的觀點並平衡不同的立場? 如何吸引和支持我們社會中的邊緣化人群和最弱勢群體?這裡的結論是,需要進行研究以人工智慧去偏見化(de-bias),並確保人工智慧的數據培訓計劃,不會繼承其程式人員的偏見。

可解釋的穩健和安全的AI研究

人工智慧為所有部門提供了巨大的機會。 “然而,風險也是巨大的,並且可能構成極端的治理挑戰。這些包括勞動力移轉、不平等、寡頭壟斷的全球市場結構、強化的極權主義、國家權力的變化和波動、戰略不穩定以及犧牲安全和其他價值觀的人工智慧競賽“。AI要在社會中被接受,必須讓人們信任AI機器。希望研究能夠證明無監督的AI(unsupervised AI)可以根據需要穩健地運行,並且結果符合預期。

這可以轉化為5個研究領域:

•驗證(Verification):如何證明系統滿足某些所需的形式屬性( desired formal properties)。(我是否正確地構建了系統-system right?)

•有效性(Validity):如何確保滿足其正式要求的系統,不會產生不良行為和後果。(我是否構建了正確的系統-right system?)

•安全性(Security):如何防止未經授權方有意或無意地操縱。

•可控制性(control):如何在AI系統開始運行後,對其進行有意義的人工控制。

•可追溯性(Tracability):如何能夠追踪AI系統如何做出某種決定。

人工智慧系統設計不當,可能會導致不安全和有害的行為。以下列表顯示了有關安全AI的一些研究問題:

•避免負面影響:如何確保AI代理人,不會對環境的其他部分造成意外和破壞性影響?

•避免獎勵駭客攻擊:“我們如何確保AI代理人,無法獲得獎勵功能?例如,如果我們獎勵機器人實現沒有混亂的環境,它可能會使其視力失能,使其看不到任何混亂,或者用無法透視的材料覆蓋混亂,以至於無法告訴它有關新型的混亂“

•分散式轉變:當測試或部署環境與培訓環境不同時,如何確保AI代理行為穩健?

•安全探索(safe exploration):如何構建尊重約束和限制的AI代理人?

•缺席監督(Absent supervisor):不管是否有監督,AI代理如何確保其行為不會有所不同?

•安全中斷能力:如何確保AI代理,為了實現其目標,不會禁用任何設計的kill switch?

通過可解釋的、穩健的AI,可以更好地管理所有這些安全問題。這一研究領域旨在以人類理可以解的基本原理、信任結果並能夠預測未來人工智慧將如何表現的方式,產生更多可解釋的模型。

對抗性機器學習智能(Adversarial machine learning intelligence )和識別未知的挑戰

對抗機器學習,其中攻擊者產生精心擾亂的輸入樣本,目的是在部署時誤導檢測,這是需要進行研究的另一個領域。 據報導,在封閉監視系統、自動駕駛汽車和語音識別中進行了黑箱攻擊,可作為對抗性機器學習的例子。對抗性AI通常處理未知的未知數,其中在部署時,它們錯誤地分類了與已知訓練數據完全不同的前所未見的輸入。這種威脅需要進一步研究,以避免在使用AI進行的攻擊的緩解和檢測中出現虛假的安全感,其中未知的未知數,會對防禦監視工具造成錯誤分類的風險。

人工智慧和道德

更具挑釁性的研究領域是人工智慧與道德之間的關係。機器人將越來越多地獲得智慧,並且由此產生的機器人可能在將來用作防禦工具。

第一個問題是,如何定義能夠識別道德“正確”的AI。任何消除感知不確定性的解決方案,例如創建具有明確制定規則的程序,而不是要求機器人自己衍生出來,都會破壞具有感知能力或自主能力AI的基本原理。

有許多方法可以考慮和遊戲化道德困境。在研究中面臨的挑戰是提供一種道德結構,允許機器人與人類(以及其他有感覺的東西(機器或動物))進行互動。道德黑匣子,能夠保持記錄輸入和導致任何決策的行動,對於發現機器人造成事故的原因和方式的過程可能至關重要,因此是建立當責和責任(accountability and responsibility)的重要部分。社會對此類機器的接受,將取決於它們是否可以被程式化,為以最大限度地提高安全性、融入社會規範和鼓勵信任的方式。

然而,一個更具哲學的問題仍然存在:機器能否有感知能力?如何識別有感知的機器?這重申了圖靈測試:機器可以思考嗎?如何區分人與機器?由此產生的道德操守,人工智慧程式必須能夠在各種技術中實現互通操作,這必須解決諸如政策和立法的可程式化,以及信息通信技術要求分享知識和信息等問題。

--

--

Vincent Chen-WS

喜歡閱讀科普、心理、網路治理、哲學宗教等書籍