訂閱
此內容重新發布,銷售AI研究所夥伴Pandata許可。BETVlCTOR1946伟德
在這裏Pandata.,我們談談了很多以人為本的ai,但在申請中是什麼意思?
根據正在創建的解決方案的目的,它可以意味著不同的事情。
以人為本的AI可以意味著創建一種培訓的道德設計的算法,這些算法受過訓練,以使最多的人受益,同時最大限度地減少風險和危險。
它可能意味著創建一個釋放員工,以獲得更複雜,創意和滿足任務的工具。
它也意味著增強人們能夠做或了解的東西。
通過這種增強的人類能力和知識,我們看到我們如何使用AI的一些最令人興奮的收益。
我們一直聽證著AI在醫學診斷中的驚人進展,特別是皮膚癌。
AI能夠準確地識別比人類醫生更高的稅率危險病變。
一套醫生知道AI更好的人不滿意:他們想知道為什麼它更好。因此,他們決定逆轉工程師如何達到其決定。他們了解到,通過查看皮膚病的邊界,他們可以更好地診斷。他們從AI中學到了什麼讓他們更好地醫生。
此過程也有許多業務應用程序。
例如,假設您有一個模型,這些模型預測銷售比您能夠獨自與人類思想更好。了解業務流程是否有助於銷售周期的流程,以便您可以采取行動,這不是很好嗎?
這是Pandata客戶之一尋求的洞察力。我們采取了複雜的預測模型的結果,並分析了意見,了解哪些業務流程與銷售額的增加相關或減少。攜帶這種知識,客戶能夠製定可能影響收入的幹預措施。
解剖為ai的黑盒子允許我們深入了解它如何確定它計算的決策。這是雙重的。
首先,正如我們的皮膚病專家朋友所學到的那樣,我們可以深入了解我們的數據中的關係,幫助我們做出更好的決定。其次,了解AI如何計算其決定,可以幫助我們糾正和解除棘手的道德考慮因素。
例如,假設您有一個由郵政編碼代表的權重地理位置,嚴重代表其決策。
因為郵政編碼與種族和民族群體相關聯,所以您有一個無意中在其決定中無意中重量種族和種族。
但是,您可能有很好的理由希望將地理視為您的模型中的功能。這是我們另一個客戶麵臨的困境。
我們利用這些知識來減輕我們將地理位置的方式減輕了我們的AI,通過改變我們看待地理學來產生更公平的結果。然後,我們測試了結果,看看模型預測中是否存在種族或民族偏見,並且能夠在產生高效模型時確定偏差不存在。
通過了解您的AI如何使用這些信息來產生結果,您可以在部署之前提前領先於這些問題,然後在他們成為公共關係噩夢之前。
了解他們的模型如何做出決策的企業不太可能被AI的意外後果所蒙蔽。
它們處於更好的位置,以利用AI增加收入,從可用的全部洞察力中受益,同時保護自己和社會。
攪拌的黑匣子可以讓我們在保持我們品牌的全部潛力的同時做出更好的決策。以人為本的AI是關於使用AI使人類益處,其中部分是理解為什麼決策。