歡迎您來到美新社! 請登錄 註冊

美新社

陳玲華廣告

首页 > 今日焦點 > 國際

谷歌假面形象 亞裔女性看不到機會

發佈時間:2017年09月02日 16:57 來源:中國日報 评论:0條 點擊:3109次

谷歌歡樂表面之下,工作環境其實對於女性及非白人並不友善。

  (綜合報導)Google作為硅谷高科技産業的巔峰,許多人都夢想能夠參與其中,但曾任Google的女性工作者Qichen Zhang表示:「在裏面我看不到任何機會。」

  根據英國衛報報導,曾任Google的亞裔女性Qichen Zhang指出,其內部工作環境對於性別及非白人工作者並不友善,工作時也時常需要經歷漠視、冷淡等態度,並提出曾有過在會議中成為唯一女性的情況,但在場男性卻沒有讓她參與討論。

  「身為一個亞裔女性,想必很輕鬆地就能夠進入Google吧,尤其是他們總認為亞洲人精通數學」Qichen Zhang提到在Google工作時,男同事對她開的"玩笑"。她認為雖然沒有明確爆出歧視性的言論或舉動,但並不代表他們沒有抱持歧視的態度。

  Qichen Zhang曾對Google工作充滿憧憬,但進入Google之后卻只待一年就離職了,而除了Qichen Zhang以外,還有另一名黑人女性透露,Google所提倡的多元化事實上只是一種企業形象。

  她表示除了每天需經歷冷待及忽視外,她也多次目睹上層以應徵者未符合企業文化要求來拒絶聘請,然而卻總是挑選出一個能夠融入白人圈的應徵者。

  Google現任環球多元化主席Yolanda Mangolini對此表示公司已盡力改善來提供共融環境。

  人工智慧性別歧視 谷歌有解釋

  透過研究顯示,人類研發的機器也能學到人類看世界的觀點,無論是否有意。對閲讀文本的人工智慧來说,它可能會將「醫生」一詞與男性優先關聯,而非女性,或影像辨識也會更大機率將黑人錯誤分類為大猩猩。

  2015 年,Google Photos 應用誤把兩名黑人標註為「大猩猩」,當時這錯誤意味着 Google 的機器學習還處於「路漫漫其修遠兮」的狀態。Google 立即對此道歉,並表示將調整演算法,以修復該問題。近日,身為錯誤的責任方,Google 正在嘗試讓大衆了解 AI 如何不經意間永久學到創造它們的人持有的偏見;一方面,這是 Google 對外 PR(公關)的好方式,其次,AI 工程師也可用一種簡單的方法來簡介自己的偏見演算法。

  在影片中,Google 介紹了 3 種偏見:

  互動偏差:用戶可透過我們與其互動的方式來偏移演算法。例如,Google 召集一些參與者,讓他們每人画一隻鞋,但多半用戶會選擇画男鞋,故以這些資料為基礎的系統可能不會知道高跟鞋也是鞋子。

  潛在偏差:該演算法會將想法和性別、種族、收入等不正確地聯繫。例如,當用戶在 Google Search 搜尋「醫生」時,出現的大多為白人男性。

  之前 Quarts 發了一則相關新聞,該報導稱,經普林斯頓大學最新研究成果,這些偏見,如將醫生與男性相關聯,將護士與女性關聯,都來自演算法被教授的語言影響。正如一些資料科學家所说:沒有好的資料,演算法也做不出好決策。

  選擇偏差:據了解,用於訓練演算法的資料量已大大超過全球人口,如果訓練影像辨識的資料僅針對白人進行,那麼得到的資料也只能來自 AI 有限的認定。

  去年 6 月,「青年實驗室」(輝達、微軟等科技巨擘均是該實驗室的合作伙伴和支援者)舉辦了一次 Beauty.ai 網路選美大賽。比賽透過人工智慧分析,征集了 60 萬條紀錄。演算法參考皺紋、臉部比例、皮膚疙瘩和瑕疵的數量、種族和預測的年齡等因素。最后結果顯示,種族因素比預期發揮更大的作用:在 44 名獲獎者中,其中有 36 人為白人。

  事實上,關於演算法中含有性別、種族偏見的研究和報導,早已有之。據之前報導,要消除這些偏見,並不容易。正如微軟紐約研究院的進階研究員 Hanna Wallach 所说:



下一篇:

發表評論 已有0 條評論

  • *用户名:
  • *我的態度:
  • *驗證碼:
    驗證碼
国泰银行上海灘餐廳張青會計師事務所銀泰珠寶葉俊麟會計師華興保險
寶爾博物館鄭博仁律師事務所凱悅大酒樓美國奧淇國際金融美芝秀權威保險

Copyright@since2016 chinesenewsusa.com All Rights Reserved