4分鍾閱讀

是時候為我們解決人工智能的倫理

有特色的圖片

不知道怎麼開始使用人工智能嗎?我們對營銷人員的按需駕駛AI係列。

了解更多

人工智能應該嚇到我們所有人,但不是Elon Musk支持的原因

公司已經超越了炒作和競相建立和采用“聰明”的解決方案,和人工智能的意想不到的後果日益明顯。從穀歌有性別偏見的自動完成致命的自駕車輛到一個種族偏見的算法,把白人黑人患者的前麵卻不乏去年災難性的例子。

這些問題並不新鮮。節奏項目,2016年在美國廣泛使用指導量刑,發現預測黑人被告構成累犯的風險更高比他們實際上做的事情。早在2015年,一個圖像穀歌搜索“首席執行官”這個詞不成比例地返回白人男性的形象。最後,讓我們不要忘記Tay-Microsoft試圖建立一個聊天機器人交談,學習變成了一個世界卑鄙的,欺負,hatebot

所以你為什麼要關心作為營銷人員?毫無疑問很好擔心更大的利益。但如何在自然語言生成或歧視性別偏見醫療風險評分影響我嗎?

  1. 你淹沒在定性市場研究,從客戶調查在線評論,你正在考慮利用許多新興的人工智能工具分類和理解這些數據。如果你情緒的工具始終確定反饋有關團隊成員與非裔美國人的名字更多的負麵比其他名字嗎?
  2. 你是投資數字體驗和使用AI要極致個性化才行直接客戶的新產品。最初的觀眾開始是,35歲左右有興趣購買回家。AI是長時間接觸到觀眾,和少接觸別人,重新加強,這是最成功的集團市場俯瞰別人為代價的。
  3. 你想提高你的領導識別和評分過程上花更多的時間更有可能購買的顧客。任其發展,人工智能可以磨練潛在的問題行為。假設您的人工智能解決方案利用在線行為和參與生產前景領先分數。購買曆史,在線觀看行為和地理位置都可以代理諸如性別、種族、年齡、和其他受保護的類。如果AI開始利用這些因素得分,你可能會發現自己在棘手的領土,特別是如果你在監管等領域經營金融、醫療、或保險。

有超過50%的組織觀看AI優先。這不是一個假設;這是我們的新現實,你需要做好準備來導航。

我們都可以得到“無害”的背後,但當後果似乎都是不可預測的,如何使道德規範人工智能的開發和部署解決方案?它不會滿足數據科學家在自己談論AI的倫理。最終用戶和用戶需要這些談話的一部分。

如果所有AI模型必須被訓練在某些能力源數據,然後我們應該提防新的AI係統從我們過去的錯誤中學習。作為一個社會,我們已經山克服社會偏見在過去幾十年;我們不應該讓我們的AI係統從最糟糕的人類的行為模式,我們回來了。因此,它是至關重要的利益相關者了解偏見通過數據體現,反過來,用來訓練人工智能模型。

數據的複雜性和複雜性,目標和質量難題

在之前的文章中,我介紹了的概念人工智能作為分析數據的複雜性和目標函數的複雜性。隨著人工智能解決方案的目標變得更加複雜(即實時推薦)和數據變得更加複雜的性質(即更大的數據集,自然語言、圖像和音頻),它變得很難測量解決方案的目標性能。什麼是一個好的建議?有多好的建議嗎?

也是困難或不太明顯的檢測偏差在更複雜的數據集,可以學會通過人工智能。然而,人工智能解決方案與複雜目標複雜的數據迅速崛起。

Explainability與性能

“黑匣子”方法的爆炸,主要由神經網絡的發展,可以檢測高度複雜的模式,實現先進的預測性能。然而,這些模型的缺點是缺乏可解釋性。

假設你有一個回歸模型,預測銷售總量基於許多因素如日期、天氣、體積和曆史訂單。不僅可以知道每個因子的回歸模型分配的重要性,也是相對簡單的看看底層數據集和指向每個因素對最終的預測的貢獻。與回歸模型,神經網絡有很多成百上千甚至數十億的參數轉換和基礎數據的排列,超出人類理解的數學優化識別微妙的模式。

如果人工智能的目標是驅動業務的結果,那麼很容易追求最高的模型馬力和性能。在這種情況下,意外後果的風險很低,那麼這是一個可以接受的選擇。即使是這樣,當你的老板或組織要深入具體預測背後的“為什麼”,黑盒方法不足。在極端偏見可以引入重大風險歧視客戶或員工,解決方案的explainability變得更加重要。

偏見是如何進入方程

了解偏見進入方程是什麼讓AI的道德考慮如此具有挑戰性。有許多階段和構建塊,進入一個人工智能的解決方案。

  • 訓練數據集。公共數據集是一個偉大的存儲庫和我信息,但他們也延續曆史的社會規範。偏見可以引入盲目使用這些數據集,如男性ceo的曆史圖像主要是可用的消息。
  • 代理變量。這是指與另一個特性是高度相關;例如,種族和普查區。即使當您顯式地刪除種族的信息從一個數據集,如果代理像普查區輸入模型中,它可能會引入偏見基於曆史性的社會規範。
  • Pre-trained模型。與許多快速變化的數據科學世界的進步,通常使用第三方api和構建塊,也使用其他第三方api和構建塊。這些構建塊可能一直在訓練數據集抱有偏見。即使你額外的勤奮,偏差可以通過這些工具被引入。

解決方案

雖然人工智能的挑戰與道德是沒有明確的答案或擔保方式避免意想不到的後果,這裏有一些重要的問題,任何精明的團隊著手一個AI旅程應該考慮:

  • 可解釋性。尤其是當使用“黑盒”像深層神經網絡方法,你怎麼能可靠地找到一種方式來解釋“為什麼”?為什麼模型得出的結果了嗎?為什麼是重要的業務嗎?
  • 可追溯性。是怎樣一個特定的模型訓練和底層數據集你知道什麼?你能證明合理的試圖通過這個過程減少偏見?
  • 可審核性。你將如何審計性能和管理您的人工智能解決方案的風險表現在野外嗎?你將如何發現潛在的問題和意想不到的行為?

最後,我要強調對話的重要性。這是每個人的工作,防止偏差和負麵影響。經常我看到團隊避開AI談話,因為他們不是技術人員,或相反數據科學家在隔離操作。下次你發現自己在談論AI,不要隻是問模型能做什麼,還問如何以及為什麼模型訓練。

相關的帖子

負責人工智能:道德、創新,大型科技股的經驗教訓

麥克壞了的| 2022年2月25日

或大或小的公司需要采用人工智能沒有忽略這些倫理問題的解決方案,或付出代價。

AI現在可以識別你的行走方式

阿什利地空導彈2018年5月30日|

從預測在線談話是否會衝突識別個人的行走方式,人工智能和機器學習實現無處不在。我們有獨家報道在所有AI本周新聞你需要知道。

超過90%的銷售專業人士預計2019年人工智能來提高性能

阿什利地空導彈| 2019年2月1日

你每周摘要最好的人工智能和機器學習新聞本周我們讀到。不要錯過InsideSales新狀態的人工智能報告,達美樂AI-powered pizza-identifier忠誠計劃,等等。

Baidu
map