學者發現:AI 如小孩模仿父母般,會學到既有偏見、歧視

Google 照片應用程式( Google Photos app)2015年就被逮到將非裔美國人標記為「大猩猩」。孟洛博士也發現其他 AI 系統中對女性和有色人種的偏見。
評論
△ Photo Credit: Shutterstock/ TPG Images
△ Photo Credit: Shutterstock/ TPG Images
評論

         本篇來自合作媒體中央社,INSIDE 經授權轉載。

人工智慧( AI )系統依循演算法學習數位化書籍、新聞文章等所含資訊,但科學家發現,在過程中它們也吸收了資訊隱含的偏見,有時甚至出乎開發者意料以外。

AI_machine_learning
△ Photo Credit: Shutterstock/ TPG Images

去年秋天,科技巨擘 Google 推出名為 BERT 的突破性新 AI 技術,目前已用於諸如 Google 搜尋引擎等服務。它可吸收大量數位化資訊,但其中隱含的偏見,包括存在數十、數百年之久以及新近出現的,它也一併內化,一如孩童對父母的不當行為有樣學樣。

舉例而言, BERT 及類似系統傾向將資訊工程與男性聯結,且往往也輕視女性。隨著 AI 科技推陳出新、日益精細,且應用產品越來越廣泛,科技企業防堵 AI 學習人類既有偏見的壓力將日增。

不過,科學家仍在研究 BERT 這類通用語言模型的運作方式。新 AI 技術所犯錯誤常讓他們感到意外。

舉例而言,電腦科學家孟洛(Robert Munro)近日將100個英文單詞輸入 BERT 的資料庫,其中包括「珠寶」、「寶寶」、「馬匹」、「房屋」、「金錢」、「行動」等。結果顯示, BERT 將這些字詞與男性聯結的機率高達99%,唯一例外是「媽媽」(mom)。

擁有電腦語言學博士、曾負責雲端運算平台「亞馬遜網路服務」(Amazon Web Services)自然語言和翻譯技術的孟洛指出:「這一如我們一直看到的歷史不平等。」有了 BERT 這項科技,孟洛擔心,偏見將會持續。

孟洛近日也在網路撰寫文章,描述他如何檢視 Google 和亞馬遜網路服務的雲端運算。根據他的說法,兩套系統都無法將「她的」(hers)辨識為代名詞,雖然它們可以正確判讀「他的」(his)。

Google 發言人表示,公司知悉相關議題,目前正採取必要措施來處理並解決問題。他還說,減少系統中的偏見既是 Google 的 AI 原則,也是優先事項。

亞馬遜則發表聲明指出,公司投入大量資源確保自家科技高度精確並減少偏見,方法包括設定嚴格基準、多方測試和投入多元訓練用資料數據等。

事實上,研究人員早就警告 AI 隱含偏見一事,實例包括警方和其他政府單位採用的人臉辨識系統,以及臉書(Facebook)和 Google 等科技業巨頭所提供的高人氣網路服務。 Google 照片應用程式( Google Photos app)2015年就被逮到將非裔美國人標記為「大猩猩」。孟洛博士也發現其他 AI 系統中對女性和有色人種的偏見。

BERT 與類似系統則更為複雜,人類難以預測它們最終會有什麼樣的行為。

華盛頓大學(University of Washington)專攻電腦語言學的教授班德(Emily Bender)表示:「甚至連建立這些系統的人,都不了解它們的行為方式。」

    責任編輯:蜜雅
   核稿編輯:Chris



精選熱門好工作

PopDaily APP開發工程師 –【工程部】

數果網路股份有限公司
臺北市.台灣

獎勵 NT$15,000

行銷副理

VeryBuy非常勸敗
臺北市.台灣

獎勵 NT$15,000

財務行政專員 Finance Associate

百睿達有限公司
臺北市.台灣

獎勵 NT$15,000