公司大小需要采用AI,而不會忽視這些解決方案的道德含義或付出代價。
這就是麻省理工學院技術評論高級AI編輯Karen Hao的收獲營銷AI會議(Maicon)2021。
在演講中,HAO為公司提供了負責任地設計和開發AI的實用建議,並避免了意外後果的可能性……
PS-您是否聽說過世界領先的營銷AI會議?點擊這裏要查看Maicon 2022計劃的令人難以置信的節目。
負責人工智能101
Hao說,盡管您的意圖最佳,AI仍會產生意想不到的後果。
例如,看似良性的AI係統通常運行良好,可能會因侵犯隱私或對身份錯誤進行侵犯而意外造成傷害。
以醫療保健中的AI為例…
AI係統可能能夠在醫療掃描中檢測到癌症,但可以通過利用應該保持私密的患者信息來做到這一點。
或者,該係統可能是對僅從白色而不是黑色患者獲取的數據進行培訓的,從而導致該係統變得歧視。
這些後果通常不會因為故意惡意而發生。而是來自AI係統本身的工程監督。
Hao說,為避免這些類型的後果,商業領袖應該考慮其他主要的AI實施者(例如Google和Facebook)作為指南的錯誤不是去做。
Google,Facebook和AI的危險
AI擅長處理大量信息,並為用戶選擇相關位。這就是為什麼Google使用它為其搜索功能的幾乎各個方麵供電的原因。在基本層麵上,Google使用AI並沒有錯。
但是僅僅因為它沒有錯,並不意味著它不能去錯誤的。
如果Google的AI係統沒有檢索準確的信息怎麼辦?或者,如果他們僅檢索一部分信息,而不是全部圖片怎麼辦?
例如,HAO引用了Google的搜索算法最終與黑人婦女但沒有白人婦女相關的研究。
但小心點…
僅僅因為Google的AI並沒有故意出錯,並不意味著Google的領導者無法選擇對該問題的非常非常錯誤的回應。
豪列舉了Google的道德AI團隊的例子,該團隊負責考慮與AI相關問題的研究和研究。當該團隊開始批評Google語言模型的某些方麵(這是Google廣告機的高利潤的一部分)時,管理層解雇了團隊的領導者。
該事件損壞了公司,並質疑其對負責人AI的承諾。
Facebook也發生了類似的情況,該場景因其不負責任的AI而積極臭名昭著。
Facebook將AI集成到他們平台上的所有內容:填充飼料內容,在照片中標記人員,其Messenger產品等等。Hao說,Facebook上可能沒有任何AI的功能。廣泛報道了公司。
從表麵上看,Facebook AI係統的目標很簡單:增加用戶的參與度,因此他們在平台上花費更多的時間並與更多的人建立聯係,這又使Facebook的廣告業務更加有利可圖。
但是,實際上,這些AI係統使許多用戶看到(和傳播)錯誤信息,歧視性消息和發病含量,這都是因為這些類型的內容引人入勝。
2018年,Facebook成立了一個負責任的AI團隊來解決該問題。該團隊確定該公司的技術正在擴大錯誤信息和兩極分化的用戶。
但是,Facebook並沒有使團隊能夠對這個問題做任何事情,因為減少與內容的參與意味著該平台不會那麼受歡迎或有利可圖。
結果,問題沒有解決。在Facebook之後,Facebook麵臨著更多問題舉報人闡明了與公司算法如何工作有關的嚴重問題。
業務領導者應該做什麼?
那麼,您該怎麼辦?
Hao提供了一些快速的提示,以確保您的AI負責並避免您的公司重大問題。
- 如果您還沒有,請立即開始AI。如果您現在開始,您將有一個巨大的優勢:您可以看到AI在過去幾年中顯然出了問題,這可以幫助您避免類似的錯誤。
- 獎勵員工提出棘手的問題。讚美或促進員工,他們提出與您建議或當前使用AI有關的棘手問題。
- 優先考慮人們的利潤。您不應該害怕修改有問題的項目,或者完全終止它們,即使在短期內花了錢。AI必須如果您希望它使您的公司受益,維護利益相關者的信任並避免公關醜聞,則受益於人類。
PS-您是否聽說過世界領先的營銷AI會議?點擊這裏要查看Maicon 2022計劃的令人難以置信的節目。