這個內容與Pandata許可轉載,營銷人工智能研究所的合作夥伴。BETVlCTOR1946伟德
2019年的一天,在Facebook醒來訴訟法律團隊在他們的收件箱,提出由美國住房和城市發展。
收費嗎?Facebook違反了《公平住房法》。
的原因嗎?的偏見Facebook的人工智能算法。
由此產生的案件不僅發現Facebook是違反美國憲法公平住房法》還通過允許其廣告主廣告個人根據他們的宗教,性別和種族,所有受保護的類反歧視在美國憲法。
Facebook的算法已經了解到房地產廣告房屋銷售和公寓租金收到最訂婚時的白人。因此,該算法將廣告展示給白人,停止了廣告展示給別人的顏色和其他少數民族。政府注意到這種偏見,將Facebook告上法庭。
偏見在人工智能出現的原因。有時數據不能代表(它是傾向於一個特定的性別或種族,例如)。有時算法放大有偏見的數據。在其他時候,人工智能是有偏見的,因為創建算法是有偏見的人,要麼是故意的還是無意的。
缺乏多樣性和偏見的AI的原因
AI偏見的主要原因之一可能是缺乏多樣性的數據中發現的科技產業。
幹細胞行業(尤其是數據科學),缺乏性別和種族多樣性而臭名昭著。一項研究發現,高達85%的數據科學家是男性。另一項研究顯示數據科學多樣性最低的技術領域。發表的一項研究現在人工智能研究所發現,“超過80%的AI教授是男性,隻有15%的人工智能研究人員在Facebook和穀歌的人工智能研究人員的10%是女性。”
這種多樣性的缺乏可以很大程度上歸因於不平等獲取幹細胞和排他的職場文化的教育項目。和任何領域絕大多數白人和男性可能會複製或延續曆史偏見和權力失衡的他們的工作。
缺乏多樣性的成本
AI由於缺乏多樣性的偏見有代價的。這會傷害那些歧視,當然可以。但它也傷害了阻礙社會的每個人都參與到經濟和社會的能力。
缺乏多樣性也鼓勵消費者的不信任產生扭曲的搜索結果和產品建議。它阻礙了平衡和準確的決策。
AI也阻礙了招聘實踐,缺乏多樣性保持偏見誰被選中為求職麵試,誰將被拒絕。
與Facebook最後,正如我們看到的,持久的和未修正的偏見在AI會導致訴訟,監管製裁,罰款和品牌聲譽受損。
朝著多元化和可信的AI Pandata嗎
Pandata無視行業規範信任的AI設計解決方案一個多元文化的團隊,多民族數據科學家。我們的隊伍有優先在工作場所多樣性通過構建一組婦女和很多曾經與多元文化和多民族背景。
“很多組織數據科學的大部分注意力集中在發展中更好的模型或尋找更好的數據打擊不道德的人工智能解決方案,”卡爾Al-Dhubaib說Pandata的首席執行官。”但在Pandata,我們發現培養多元化、包容性工作有機地讓我們更有意義的方式來解決複雜的問題。”
漢娜Arnson
漢娜Arnson Pandata數據科學主任。