確保人工智慧符合人類最佳利益 美國學術機構4大領域探討AI道德爭議

2019年08月25日 14:30 風傳媒
人工智慧遭濫用具有風險,美國學術機構紛紛探討AI道德議題(資料照,AP)

人工智慧遭濫用具有風險,美國學術機構紛紛探討AI道德議題(資料照,AP)

「這些工具對日常生活許多部份造成影響,包括健保、司法、教育、聘僱等領域,一切都在同步發生中」,美國紐約大學人工智慧現代研究所共同創辦人克勞福特告訴《時代》雜誌,儘管人工智慧帶來不少便利性,但也被濫用散布不實資訊、助長種族和經濟社會偏見,以及越過隱私界線,為此該研究所把人工智慧涉及的爭議分成4大類,探討道德問題,以確保人工智慧符合人類最佳利益。

《時代》(Time)23日報導稱,由於名字有「人工智慧」(artificial intelligence,AI)這個詞,紐約大學AI現代研究所(AI Now Institute)常被誤會成是研發AI技術的新創公司,不過這間2017年由克勞福特(Kate Crawford)與懷特克(Meredith Whittaker)共同創立的研究機構,主要任務是檢視企業和政府推出的AI技術,但也因受到法規限制,檢視程度相當有限。

人工智慧涉及4大類道德爭議

AI現代研究所把涉及的爭議分成權利與自由、勞動力與自動化、偏見與包容、安全與關鍵基礎建設4大類。權利與自由部分就是探討公民權是否受到侵犯,像是公共臉部辨識系統引發的疑慮;偏見與包容則是檢視AI系統,是否會讓長期存在的歧視和排外問題惡化;安全與關鍵基礎設施主要是監督能源網這類重要系統,導入AI之後可能的風險。

這些議題也受到美國政府重視,懷特克與其他專家2019年6月29日才在聯邦眾議院科學、太空暨科技委員會進行聽證而AI現代研究所政策研究主任李察遜(Rashida Richardson)則是在聯邦參議院商業、科學暨交通委員會進行聽證。懷特克先前在谷歌(Google)任職,帶頭反對Google參與美國軍方的「內行計畫」(Project Maven),該計畫想要開發無人機使用的AI圖像辨識軟體。

科技業內外合作 近年已有轉變

《彭博社》7月16日率先報導懷特克離開Google的消息,Google隨後向美國科技網媒《The Verge》證實此事,但未多加解釋。懷特克當時在部落格寫道:「我離開Google的原因並不是個謎,我對AI現代研究所、AI道德規範,以及組織負責任的科技產業有所承諾,而Google不是我能繼續執行這些工作的地方。」另外,懷特克坦言,目前討論的AI道德爭議有經過挑選。

「但也有重大轉變,這不能被低估」,懷特克強調,矽谷(Silicon Valley)內部與外面有人願意奮鬥,且近年來已可看見深度改變,「整個科技產業有數十萬人在意他們的工作,我們不想要一起做出具傷害性的事物,也不想只為少數人帶來好處,壓榨大多數人獲得巨大利益」。《時代》指出,尚不清楚道德檢視是否會加速科技轉變,但可確定的是不會走向「快速行動,打破成規」的不成熟狀態。

受制法律規範 檢視作業綁手綁腳

不過檢視AI技術是否有道德疑慮的程度仍有限,像是依據法院對《電腦欺詐和濫用法》(Computer Fraud and Abuse Act,CFAA)的解釋,破壞網站或網路平台的提供服務屬於犯罪行為,而研究人員在檢視網站AI系統是否具不平等設定時,通常都會導致服務暫停,但此舉可能有機會獲得解決,因為美國公民自由聯盟(ACLU)已對此提出告訴。

代表部分記者和電腦科學專家的ACLU律師班達利(Esha Bhandari)2016年把美國司法部告上法院,控訴CFAA規定違憲,「這是走在最前端的案子......這攸關21世紀執行反歧視檢視的權利」。美國加州大學聖地牙哥分校(UCSD)通訊、科技與性別研究教授伊朗尼(Lilly Irani)直言:「我們不能只有會傷害大眾的系統,且只能不斷對其叫嚷抗議。」

人工智慧會未類帶來末日嗎?祖克柏與馬斯克持相反論調。(美聯社)
專家憂心企業光說不練,形成「道德洗白」現象。(美聯社)

擔憂光說不練 出現「道德洗白」現象

美國密西根大學道德、社會暨電腦中心(ESC)主任桑德維格(Christian Sandvig)則擔心出現「道德洗白」(ethics-washing)現象,即科技產業嘴上說要進行改變,但都只是報告寫得好看,實際上卻沒做多少,「讓一切看起來有轉變,表面上符合『道德』這個詞」。AI現代研究所並非孤軍奮戰,美國史丹佛大學也有相關機構「AI以人為核心研究所」(Institute for Human-Centered Artificial Intelligence)。

美國哈佛大學柏克曼網路社會中心(Berkman Klein Center)也關注AI對治理和道德層面帶來的影響,且該中心今(2019)年與麻省理工學院(MIT)媒體實驗室共同舉辦「大會」(Assembly),聚集政策制定者和科技專家一起研商AI道德方案,像是檢視AI系統設定是否具有偏見,以及對開發監控能力相關的AI研究所造成的風險,能夠負起責任。

加入Line好友

【我要發風】

風傳媒歡迎各界分享發聲,來稿請寄至 opinion@stormmediagroup.com,並請附上姓名、聯絡方式、自我簡介,謝謝!

我想再看到這個主題
您已閒置超過10分鐘了,看看最新的新聞吧?