本內容已獲得營銷AI研究所合作夥伴Pandata的許可重新發布。BETVlCTOR1946伟德
2019年的一天,臉書的法律團隊在他們的收件箱裏發現了一起由美國住房和城市發展部提起的訴訟。
收費嗎?Facebook違反了《公平住房法》。
的原因嗎?的偏見Facebook的人工智能算法。
最終的法庭案件發現,Facebook允許其廣告商根據宗教、性別和種族向個人投放廣告,不僅違反了《公平住房法》,還違反了美國憲法,這些都是美國憲法保護階級不受歧視的內容。
Facebook的算法發現,當房屋銷售和公寓出租的房地產廣告向白人展示時,他們的參與度最高。因此,該算法向白人顯示廣告,並停止向有色人種和其他少數群體顯示廣告。政府注意到了這種偏見,將Facebook告上了法庭。
人工智能產生偏見的原因有很多。有時數據不具有代表性(例如,它傾向於特定的性別或種族)。有時候算法會放大有偏見的數據。在其他時候,人工智能是有偏見的,因為創建算法的人是有偏見的,無論是有意還是無意。
缺乏多樣性和有偏見的AI的原因
人工智能領域存在偏見的主要原因之一,很可能是數據科學和技術行業缺乏多樣性。
STEM專業(尤其是數據科學領域)因缺乏性別和種族多樣性而臭名昭著。一項研究發現,高達85%的數據科學家是男性。另一項研究數據科學是所有技術領域中多樣性最低的。一項由AI Now研究所發現“超過80%的人工智能教授是男性,隻有15%的Facebook人工智能研究人員和10%的穀歌人工智能研究人員是女性。”
這種多樣性的缺乏在很大程度上可以歸因於STEM教育項目的不平等和排斥性的工作場所文化。任何以白人和男性為主的領域,都有可能複製或延續他們工作中的曆史偏見和權力失衡。
缺乏多樣性的代價
缺乏多樣性導致的人工智能偏見是有代價的。當然,這傷害了那些受到歧視的人。但它也損害了整個社會,阻礙了每個人參與經濟和社會的能力。
缺乏多樣性還會產生扭曲的搜索結果和產品推薦,從而助長消費者的不信任。它阻礙了平衡和準確的決策。
人工智能領域缺乏多樣性也阻礙了招聘實踐,使誰被選中參加麵試、誰被拒絕的偏見持續存在。
最後,正如我們在Facebook所看到的,在人工智能方麵持續且未經糾正的偏見會導致訴訟、監管製裁、罰款和品牌聲譽受損。
熊貓是如何朝著多樣化和可信的人工智能發展的
Pandata打破了行業慣例設計可信的人工智能解決方案一個由多文化、多種族的數據科學家組成的團隊。我們的團隊通過建立一個由女性和男性組成的團隊來優先考慮工作場所的多樣性,其中許多人具有多元文化和多種族背景。
Pandata首席執行官卡爾•杜拜布(Cal Al-Dhubaib)表示:“很多數據科學領域的組織都將注意力集中在開發更好的模型或尋找更好的數據上,以對抗不道德的人工智能解決方案。”“但在Pandata,我們發現,培養多元化、包容性的員工隊伍,可以讓我們以更有意義的方式解決複雜的問題。”
漢娜Arnson
Hannah Arnson是Pandata的數據科學總監。