人工智能會有偏見嗎?
你的賭注。
盡管AI有明顯的好處,但它最終可能通過偏見傷害消費者、品牌和行業。
當我們說AI可以有偏見時,我們指的是什麼?什麼是AI的偏見?
簡單地說,AI中的偏見是指AI係統產生了意料之外的、不受歡迎的輸出。
產生偏見有兩大原因:
- 人類的盲點。人類有意無意地將自己的偏見注入到AI或AI係統設計使用的數據中。這些可能包括基於年齡、性別、性別、種族或其他特征的直接或間接歧視。
- 不完整的數據。用於訓練AI的數據在不完整的情況下也會產生偏見。AI的好壞取決於它的訓練數據。因此,如果數據缺乏足夠的多樣性或全麵性,差距就會引發問題。
為什麼AI中的偏見會是有害的?
首先是明顯的危害:人工智能會助長公然的偏執。
一個例子是An微軟創造的用於在推特上發帖的人工智能機器人。
機器人從推特上的對話中學會了如何像人一樣發推文。不幸的是,用來訓練它的很多語言都是褻瀆和偏執的。
結果,機器人在推特上的語言嚴重不當。微軟迅速關閉了測試。
AI不能發明偏執本身。它從人類那裏學習,人類把它顯示在用於訓練的數據集中。
如果微軟沒有在包含偏執語言的數據集中訓練它的機器人,它就不會是偏執的。這是一個錯誤,而不是惡意行為。該公司沒有預料到將整個Twitter用作數據集的後果。
然而,它仍然傷害了人們和公司的形象。結果就像公司故意讓機器人產生偏見一樣。
這就是為什麼人工智能中的偏見如此危險。
第二,是更常見但不那麼明顯的危害:AI可能會因為數據不完整而無意中產生偏見。
蘋果卡就是一個例子。
2019年,蘋果發布了一款信用卡產品。該公司使用的AI會根據消費、信用評分、收入等多種特征自動為申請人提供信用額度。
然而,當人們發現蘋果的人工智能給了女性一個較小的信用額度比男性多,即使在控製其他因素的情況下。
之所以會出現這種情況,是因為AI係統使用了不完全的數據,沒有考慮到與收入和薪酬相關的一係列性別相關因素。
結果,它得出的結論是,即使在財務狀況相同的情況下,女性應得的榮譽也低於男性。
那麼,如何應對人工智能中的偏見呢?
一旦你構建了一個產品或係統,通常已經太晚了。
你需要在導致在產品和運營中采用AI的每一步過程中解決偏見問題。
微軟和蘋果的例子證明了這一點。兩家公司都擅長AI。兩家公司都擁有世界級的工程人才。然而,他們都對AI領域的偏見感到驚訝。而當他們發現的時候,已經太晚了。
這種技術是健全的。但對偏見的考慮並不合理。
這是因為修正AI中的偏見不僅僅是一個技術問題。
當然,你需要完全相信你的數據是全麵、準確和幹淨的。
但你也需要在每個業務職能部門,而不僅僅是工程部門,都有人員和流程到位,以評估偏見風險。這是一項全麵的努力,需要時間。
一個很好的起點是為你的組織起草一份AI倫理政策,無論你是構建AI技術還是在工作中使用它。
AI倫理聲明是公開發布的一份正式文件,概述了你的公司對AI的立場。
它提供了你的公司將如何使用和不使用人工智能的細節。
它還詳細說明了你采取(或將采取)哪些步驟,以確保倫理問題和偏見不影響你構建或使用的AI。
麥克壞了的
作為首席內容官,Mike Kaput利用內容營銷、營銷策略和營銷技術為營銷AI Institute增長和擴大流量、線索和收入。BETVlCTOR1946伟德作為一名狂熱的作家,Mike已經發表了數百篇關於如何在營銷中使用AI來增加收入和降低成本的文章。Mike是《營銷人工智能:AI、營銷和商業的未來》(Matt Holt Books, 2022)的合著者。他還著有《比特幣的簡明英語》(Bitcoin in Plain English),這是全球最受歡迎的加密貨幣的入門指南。