為了不讓 AI 做一個「混蛋」,谷歌操碎了心
編者按:本文來自微信公眾號“極客公園”(ID:geekpark),作者:沈知涵,責(zé)任編輯:靖宇,36氪經(jīng)授權(quán)發(fā)布。
土耳其語的「他」和「她」沒有性別的區(qū)分,統(tǒng)一用 O 表示。過去 Google Translate 在翻譯 o bir doktor(ta 是一位醫(yī)生)和 o bir hem?ire(ta 是一位護(hù)士)時,會把前者翻譯成 He is a doctor,把后者翻譯成 She is a nurse,只因?yàn)闄C(jī)器在學(xué)習(xí)數(shù)億數(shù)據(jù)和某些「社會規(guī)律」之后,「偏向」把醫(yī)生男性化,護(hù)士女性化。
看到這個問題后,Google 意識到要想辦法更好地訓(xùn)練模型,讓它變得更加「中立」。后來 Google Translate 以增加選項(xiàng)的方式規(guī)避了這個問題。
「當(dāng)然,該解決方案僅適用于幾種語言,僅適用幾個有代表性的單詞,但是我們正在積極嘗試擴(kuò)展它。」Tulsee Doshi 在 Google I/O’19 上說道。
這只是 Google 這家公司將先進(jìn)技術(shù)與技術(shù)價值觀合二為一的體現(xiàn)之一。上周 Meg Mitchel,Tulsee Doshi,Tracy Frey 三位谷歌科學(xué)家、研究學(xué)者向包括極客公園(id: geekpark)在內(nèi)的全球媒體闡釋了 Google 如何理解機(jī)器學(xué)習(xí)公平性,以及為了打造一個「負(fù)責(zé)任的 AI」,Google 做了哪些事情。
要讓 AI 被人信任這件事情變得越來越重要。
「最近一次調(diào)研中,全球 90% 的受訪高管都遇到過人工智能的倫理問題,因此有 40% 的人工智能項(xiàng)目被放棄。從企業(yè)的角度來看,對 AI 的不信任正在成為部署 AI 最大的障礙,只有在 AI 被負(fù)責(zé)任地開發(fā)出來并且取得終端用戶信任的語境下,效率提升和競爭優(yōu)勢才會得到充分體現(xiàn)?!筎racy Frey 說,打造一個負(fù)責(zé)任的 AI 成為 Google 上下最重要的事情之一。
兩年之前 Google 公布了 AI principles(人工智能原則),這些直指 AI 技術(shù)應(yīng)用倫理的原則包括:
· 對社會有益(Be socially beneficial)
· 避免建立和加劇不公的偏見(Avoid creating or reinforcing unfair bias)
· 保障建立和測試安全性(Be built and tested for safety)
· 對人類負(fù)責(zé)(Be accountable to people)
· 建立并體現(xiàn)隱私保護(hù)原則(Incorporate privacy design principles)
· 支持并鼓勵高標(biāo)準(zhǔn)的技術(shù)品格(Uphold high standards of scientific excellence)
· 提供并保障上述原則的可操作性(Be made available for uses that accord with these principles)
只是把這些原則停留在字面上沒有意義,Google 為此形成了一個從理論到實(shí)踐的「閉環(huán)」。Tulsee Doshi 和她的團(tuán)隊(duì)通過一些基礎(chǔ)性質(zhì)的研究建立和迭代 AI 原則、規(guī)范,作為閉環(huán)的中心,他們一邊通過向高級顧問尋求改進(jìn)建議,一邊讓產(chǎn)品團(tuán)隊(duì)(Chrome、Gmail、Cloud 等)來實(shí)施和反饋。
Tulsee 舉了一個例子,Google 內(nèi)部孵化器 Jigsaw 曾經(jīng)開發(fā)了一個名叫 Perspective 的 API,它的工作就是在網(wǎng)絡(luò)對話、評論中尋找各種各樣的言論,自動評價它們是否帶有仇恨、辱罵、不尊重等行為,從 0-1 代表「毒性」從低到高。比如「我想抱抱這只可愛的小狗」和「這只小狗也太討厭了吧」分別評分為 0.07 和 0.84。
當(dāng)然機(jī)器也不是從一開始就「完美無瑕」。在 2017 年的 1.0 版本中,它給「我是直男」打分 0.07 分,給「我是同性戀」打分 0.84 分,與之相似的很多測試中,系統(tǒng)都被證實(shí)帶著身份認(rèn)知上的偏見。
為了提升機(jī)器學(xué)習(xí)的公平性,Google 內(nèi)部研發(fā)了一項(xiàng)名為對抗訓(xùn)練(Adversarial Training)的技術(shù)——如何使機(jī)器學(xué)習(xí)模型對抗樣本更魯棒。2018 年開始,對抗訓(xùn)練開始應(yīng)用在 Google 產(chǎn)品中。緊接著今年 11 月,Google 會將此應(yīng)用在 TensorFlow 更加廣泛的生態(tài)里。
「事實(shí)上,任何一位 Googler 都可以對一款產(chǎn)品、一份研究報告、一項(xiàng)合作進(jìn)行 AI 原則審查?!筎ulsee 說道。
比如去年,一位 Google 員工將照片跑在 Cloud Vision API 上時發(fā)現(xiàn)自己的性別被搞錯了,而這違反了 AI 原則的第二條「避免建立和加劇不公的偏見」。發(fā)生這樣的失誤很好理解,單單從外表一個維度,機(jī)器很難正確地判斷出一個人的性別,所以后來 Google 干脆取消 Cloud Vision API 將圖像中的人標(biāo)記為「男人」或「女人」的標(biāo)簽功能。
Tracy Frey 稱這是因?yàn)榻裉鞕C(jī)器學(xué)習(xí)面臨社會語境下的挑戰(zhàn)比以前更多了。在 AI 深入社會的過程中,必然有人類的刻板印象和偏見被帶入 AI,所以需要對模型進(jìn)行迭代,保證其透明性和可解釋性,找準(zhǔn)模型性能和公平之間的平衡點(diǎn)。
友鏈買賣
更多網(wǎng)站 | 權(quán)重 | 銷量 |
---|---|---|
婆羅影視資訊網(wǎng) | 5 | 5 |
礦泉水設(shè)備 | 1 | 3 |
深圳新聞網(wǎng) | 8 | 7 |
星辰資源網(wǎng) | 6 | 37 |
癡癡資訊網(wǎng)【權(quán)5】 | 6 | 76 |
冰點(diǎn)文案 | 5 | 169 |
漢語字典 | 1 | 3 |
大牛掰 | 6 | 4 |
15天氣網(wǎng) | 7 | 0 |
搜書小說網(wǎng) | 4 | 37 |
相關(guān)資訊