清理AI的陰暗面相

2018年,是人工智慧(AI)成長快速的一年,也可以說是「智慧」增進的一年,運用的範圍也擴大到科技以外,工商各業從工廠到辦公室,到居家的衣食住行,不冠以AI就好像落伍似的。這好比上一世紀70年代電腦發展初期,任何事都要加電腦兩個字;又好比90年代網路紅翻了天,記得當時英國有人設計方便上網的茅房 (Loo),讓人真的一邊「方便」、一邊上網。現在的AI的空氣,看幾來是步電腦與網路的後塵。
成長的對面,也就是光鮮亮麗的另一面,存在著陰暗。自駕車的車禍,無疑引起行人與一般駕駛人的憂慮;臉書洩漏大量個資,操縱政治活動,引發的軒然大波是否會重演;深度學習技術,可以維妙維肖的仿製變造語音與影視,精密到真假難辨;Google 為國防部提供AI技術,分析中東影片,引發Google員工抗議,AI的軍事用途成為全球話題;偏差的演算法與數據,導致AI偏差,弱勢族群遭受不平等待遇。這許多陰暗面的AI,在2019年能否清理消除?
自駕車,可以自動行駛但有人坐在駕駛座,遇到狀況切換成手動駕駛。去年一輛自駕車,在一條亞利桑納州公路夜間行駛,一名婦人推自行車橫跨馬路,自動系統沒有煞車,駕駛人也一時疏忽沒看到路上有人,當場撞死這名婦人。即使如此,自駕車的實驗並沒有停止,亞利桑納州還是開闢有限的區域,供GoogleWaymo無人車以計程車載客行駛。無人車,指的是駕駛座上沒有人。
無人車的下一步發展,是車內沒有方向盤、腳踏板、以及任何控制行車的器具,是一輛完全自己駕駛的車輛,目前交通法規還不允許上路,唯各大車廠都躍躍欲試,通用汽車還向交通單位請求放寬這一規定。無人車發展的初衷,在減少數以百萬的車禍死亡,川普政府有意放寬法規,唯一旦施行,路上的車輛與行人都成了白老鼠,安全不無堪虞,看樣子今年可能還不能上路。
臉書的紕漏,可以說驚天動地,同時也暴露了設計的缺失,製造機會任人玩弄,讓放大不實、暗藏爭論、分化族群的新聞與資訊,在適當時機浮出水面。執行長札克伯格在國會被煎熬兩天,應允訓練AI找出有害的內容。但基本的問題,是機器無法理解人類的溝通語言,即使學習,仍難瞭解文字、圖像、影視的真正意涵。所以臉書仍雇用人力,偵測有害內容,提出警訊。
紐約時報比喻社群網路有如每晚與 500 個朋友喝酒,你可能聽到一些消息,但不太會記得誰說了什麼,也不會在意消息是否真實、向誰求證,因為消息太多了。我們聽到的幾乎都是二手消息,但是否相信,多取決於對傳播者的信任,但這種證言規範(Norm of Testimony)並不存在於社群網路,因為大多數的「朋友」在真實世界可能都不認識。今年有南非與奈及利亞選舉,且看臉書預防的措施能否生效。
深度學習(Deep Learning)的進展,把AI帶進新的境界,生成對抗網路(Generative adversarial networks),用兩個網路對抗,一個網路盡量挑剔另一網路缺點,而另一網路盡量不讓挑剔,這樣相競的最後,可以製作出幾可亂真的圖像與影視。AI技術固然因此向前進一大步,造假的技術也跟著向前進一步。去年529日「從深度學習到深度造假」一文,例舉一段不是奧巴馬總統說的「談話」,真假難辨。
一個月以前,Nvidia宣佈把深度學習推向另一層次,繪製的精緻人臉,不是幾可亂真,因為就是真的,從式樣、皮膚、毛髮,與真人的照片無異,無法辨認是繪製出來的,但這是假人,在世界上不存在的人。Nvidia從大批的人臉照片取出各部位的式樣,用來建造不存在的人像,這不是造假,是造「真」。國防部外圍組織DARPA預備用新技術偵測深度造假,新技術免不了還得用AIAIAI?貓捉耗子的遊戲。
去年Google參與國防部Maven計畫,用AI工具協助美軍分析在中東空拍的圖片,Google 員工知道了大力反彈,堅持AI不能用於戰爭,引發學界與科技業的聲援,有點像當年反越戰的味道,迫使Google停止Maven計畫的參與,宣示不發展戰爭AI,並制定倫理規範。
AI用在軍事,似乎再自然不過了,軍方除了自行發展,也需要業界協助,即使 Google 不幫忙,微軟與亞馬遜仍保留協助的態度。但AI化的戰爭是否會肆無忌憚的殺戮,成為有識者最關心的事,像「制止機器殺人運動」組織,就試圖藉一連串的會議,寄望聯合國能盡快約制「AI自治」的全自動武器。
AI的運用逐漸普及,漫不經心的進入了我們的生活,許多生活上的選擇,求學、謀事、借貸、醫保,都不再由人、而是由機器來決定。理論上大家用同一尺度,摒棄人為的偏頗,是一個公平的法則,但背後所用的數學模型,既不受管制、又無法驗證,即使偏差也任其繼續,致歧視不斷的擴大,支撐了幸運的人,卻懲罰了不幸的人,數學就成了毀滅武器。
這是去年26日「我們背後的數學引擎」一文,闡述了這一AI的負面效應。AI所以有用,是由演算法(數學模型),用大量資訊(大數據),學習訓練產生的。一旦演算法在設計上偏差,或大數據取得不確實,都會扭曲AI的運作。說起來這是一個嚴重的問題,長期下去製造AI不平等,增加社會的分歧。去年9IBM推出一個AI Fairness 360工具,幫助偵測AI的偏差,寄望今年看到效果。
AI像是一把兩面利刃,希望兩面的銳利不要相等,反面要不停的磨,磨得越頓鈍好。

https://www.worldjournal.com/

備註:經濟部駐外單位為利業者即時掌握商情,廣泛蒐集相關資訊供業者參考。國際貿易局無從查證所有訊息均屬完整、正確,讀者如需運用,應自行確認資訊之正確性。