Page 6 - 腦機介面無回應?
P. 6

                                 4
業界趨勢
 Tesla機器人原型 讓AI安全性爭議再次浮上檯面
George Leopold,EE Times美國版特約記者
特斯拉的人形協作機器人(TeslaBot)的華麗亮相,讓人工智慧(AI)的 安全性爭議以及如何在自動化系統走上城市街道和工廠生產線前經 過測試和驗證等問題又一次浮上檯面。
(explainability),就像數學老師 要求學生展示解題過程。
 人們對AI的第一輪恐懼主要 是擔心它的惡意、可自我複製, 以及類似HAL的機器(編按:美國 經典科幻電影《2001:A Space Odyssey》中的超級電腦),最終 力量超越它的創造者或在戰場上 不受控制地攻擊。不過在那之後, 輿論對AI的爭議更務實,更清晰地 聚焦於最受關注的安全性問題上。 具體而言,相關討論集中在如何改 善AI的安全性,讓人類操作員於應 用場景中能信任自主性機器系統? 儘管這些應用目前還未達到關鍵 任務等級,不需要支援99.999% 的可靠性。
而『意外』這個名詞通常可以讓人 推卸責任。」
因此,上述AI研究人員提議成 立一個國家級的AI測試平台,設定 參數以確保基於深度學習的AI系 統之安全。Arnold和Toner總結: 「現在,對於安全AI並沒有普遍被 接受的定義,也沒有標準方法來測 試真實世界AI系統的意外風險。」
汽車產業資深分析師、《EE Times》專欄作者Egil Juliussen 指出,政府主管機關已經邁出了積 極的第一步,意識到採用駕駛輔 助系統的車輛所造成的AI事故, 是「碰撞」(crash),而非「意外」 (accident);Juliussen表示, 「汽車產業改用『碰撞』這個名 詞,因為那會歸咎於某人的失誤,
「今日的尖端AI系統在很多 方面都很強大,但在某些方面卻 極度脆弱;」上述政策簡報的作者 Zachary Arnold和Helen Toner 指出:「AI系統往往缺乏很淺顯的 常識,很容易被愚弄或破壞,並 以意想不到和不可預測的方式出 現 故 障。」
「當我們開始在某些地方應 用這些系統,而錯誤或故障可能造 成非常嚴重的影響時,我們應當投 入更多的精力來開發新方法;」她 補充:「我們應該要有可以提前測 試AI系統的方法,確保我們知道它 們可以做什麼、不能做什麼,以及 它們何時會運作,何時不運作。」
www.eettaiwan.com | 2021年10月 
為此,美國喬治城大學 (Georgetown University)安全與 新興技術中心(CenterforSecurity and Emerging Technology)研究 人員在一系列關於AI安全性的政 策簡報中,嘗試辨別出實現安全AI 系統的工程要求。
儘管現在已有經驗證的方法, 可以測試用於飛機自動駕駛儀等 「故障安全」(fail-safe)應用的 早期專門系統,但Tonar在接受 一個採訪時強調,那些系統不等 同於AI,「那些方法都不能用於深 度 學 習。」
「人們通常很難或不能理解 它們為什麼會這樣,」研究人員的 結論是,對不可靠AI系統的信任度 「很可能造成可怕的後果。」
像是Tesla這樣的先鋒業者在 藉由像是Tesla Bot這樣的機器人 原型推動AI技術的同時,可能會接 受以上觀點──Tesla執行長Elon Musk在8月下旬舉辦的該公司年 度AI Day活動中發表Tesla Bot時
一個核心問題是要了解AI 系統「黑盒子」如何運作── 或稱之為AI的「可解釋性」
INDUSTRY TRENDS
















































































   4   5   6   7   8