QQ在線客服

當前位置:首頁> 資訊> 科技評論

AI將非洲人標為大猩猩機器人不誤差有多難

2016-11-10 11:27 來源: 站長資源平臺 編輯: 等等 瀏覽(659)人   

    AI將非洲人標為大猩猩,我咋那么想笑呢。。。創(chuàng)建無偏見機器人有多難?隨著人工智能(AI)與機器學習技術的日益成熟,它們被用于解決復雜問題的潛力也逐漸顯現(xiàn)出來,我們甚至有點兒期待,希望機器人能在人類失敗的領域取得突破,即在決策時拋開個人偏見。


AI將非洲人標為大猩猩機器人不誤差有多難


    但是最近出現(xiàn)的許多案例顯示,就像所有顛覆性技術那樣,機器學習被引入的同時,也出現(xiàn)了許多意想不到的挑戰(zhàn),有時候甚至產(chǎn)生錯誤、令人討厭的、冒犯性的后果,與人類社會信奉的道德和倫理標準截然不符。


    這些故事聽起來可能很有意思,但它們卻促使我們反思AI技術對未來產(chǎn)生的影響。將來,機器人和AI將承擔起更重要的責任,甚至將為它們做出的錯誤決定負責。


    在其核心領域,機器學習利用算法分析數(shù)據(jù)、提取模式以及學習和預測,并會基于收集到的見解做出決定。它已經(jīng)成為我們?nèi)粘I钪惺褂玫脑S多技術的基石,比如搜索引擎、面部識別應用以及數(shù)字助理等。機器學習算法獲得的數(shù)據(jù)越多,它就會變得越聰明。這也就是科技公司千方百計收集更多用戶和消費者數(shù)據(jù)的原因。


    但是最終,機器學習只會保持其獲得的數(shù)據(jù)那樣聰明。這其中存在一個問題,因為同樣被用于訓練機器學習算法的數(shù)據(jù),也可能會讓它變得邪惡或存在偏見。就像所有孩童那樣,機器學習算法往往會選擇迎合其開發(fā)者的品味和偏見。更復雜的是,許多公司都以非常隱秘的方式運行內(nèi)部算法,并把它們視為商業(yè)機密。


    機器學習初創(chuàng)企業(yè)Beauty.ai今年舉行了世界上首場AI驅動的選美大賽。超過6000人遞交了自己的照片,AI通過對稱性、皺紋等因素評估這些人的魅力。這項比賽的原意是減少人類裁判的社會偏見,但結果令人感到失望。44位獲勝者中,絕大多數(shù)都是白人,只有少數(shù)亞洲人,深色皮膚人種的獲勝者僅有1人。1名研究人員解釋稱,問題是用于訓練算法的照片樣本在種族方面存在不平衡性。


    這并非機器算法首次出現(xiàn)偏見問題。今年年初,一種語言處理算法被發(fā)現(xiàn),在處理艾米麗、馬特等聽起來像白人的名字時,顯然比處理賈馬爾、埃博尼等黑人名字時更愉快。


    此外,微軟此前被迫關閉了其聊天機器人Tay。它被設計模仿十幾歲女孩的行為,卻被發(fā)現(xiàn)滿口臟話。Tay原本被期望提取用戶評論,通過處理它們學習如何做出個性化回應。但是用戶似乎對教授它種族歧視和納粹言論更感興趣。


    可是,如果這些發(fā)生在敏感情況下,比如某人的生命或自由受到威脅時,將會如何?ProPublica5月份的研究顯示,在評估未來犯罪傾向時,佛羅里達州執(zhí)法機構使用的算法對非洲裔的評分更高。


    有關這類機器學習算法存在偏見的例子不勝枚舉,包括谷歌算法將非洲裔標注為大猩猩,廣告投放引擎更少向女性展示高薪職位,新聞算法推廣假新聞和粗俗故事等。


    在傳統(tǒng)軟件中,確定某個失誤是用戶錯誤還是設計缺陷非常簡單。但是機器學習并不那么透明,最大的挑戰(zhàn)之一就是難以確定責任。開發(fā)機器學習軟件與傳統(tǒng)編碼完全不同,訓練算法與編寫代碼同樣重要。即使開發(fā)者也無法精確預測機器將會做出何種決定,有時候也會對結果感到驚訝。


    當Facebook被譴責在“趨勢主題”模塊中存在政治偏見時,事情變得更加復雜,因為這個模塊部分由機器學習驅動。當美國共和黨總統(tǒng)提名人唐納德·特朗普(Donald Trump)譴責谷歌調整其搜索引擎結果,試圖抑制有關民主黨總統(tǒng)提名人希拉里·克林頓(Hillary Clinton)的負面新聞時,做出透明解釋和證明機器錯誤的確有點兒難。


    當關鍵決定權被賦予AI時,事情將會變得更加敏感。舉例來說,如果無人駕駛汽車撞倒1個行人,誰將被追究責任?司機(更精確地說車主)還是機器學習算法的開發(fā)者?


    從數(shù)據(jù)庫中根除這些偏見是開發(fā)公正的機器學習算法的關鍵,但是開發(fā)平衡數(shù)據(jù)庫是非常復雜的任務。目前還沒有任何相關規(guī)則或標準,可以用于評估用于訓練機器學習算法的數(shù)據(jù)。有時候,研究人員利用和分享現(xiàn)成的框架和數(shù)據(jù)庫,盡管里面存在各種偏見。


    一個解決方案就是創(chuàng)造可共享的、受到監(jiān)管的數(shù)據(jù)庫,它不歸任何單一實體所有,從而可預防任何人單方面操作數(shù)據(jù)。在這方面的顯著努力就是AI合作組織(Partnership on Artificial Intelligence)的成立,F(xiàn)acebook、亞馬遜、谷歌、IBM、微軟以及機器學習創(chuàng)新領域的其他公司嘗試解決AI和機器學習增長帶來的恐懼。這個組織的目標包括,解決AI的倫理問題,確保AI被公開應用前接受多元化審視。


    另一個有趣的努力是伊隆·馬斯克(Elon Musk)創(chuàng)建的AI公司OpenAI,其目標是令AI研究變得更透明,防止它變成作惡工具。


    將來有一天,或許機器人會變得足夠聰明,可以解釋自己的行為,并糾正它們的錯誤。但我們據(jù)此目標依然有很長的路要走。到那時,人類的責任將是預防訓練AI的人類負面傾向被無限擴大。


    2898站長資源平臺友情鏈接交換:http://afrimangol.com/friendchange.htm 


【版權與免責聲明】如發(fā)現(xiàn)內(nèi)容存在版權問題,煩請?zhí)峁┫嚓P信息發(fā)郵件至 kefu@2898.com ,我們將及時溝通與處理。 本站內(nèi)容除了2898站長資源平臺( afrimangol.com )原創(chuàng)外,其它均為網(wǎng)友轉載內(nèi)容,涉及言論、版權與本站無關。