26分鍾閱讀

(營銷AI顯示:10集)負責人工智能AI高級編輯會談

有特色的圖片

不知道怎麼開始使用人工智能嗎?我們對營銷人員的按需駕駛AI係列。

了解更多

營銷AI顯示——播客,幫助企業成長更聰明,使人工智能平易近人和actionable-is與另一個插曲。

現在你可以聽你喜歡的播客應用,或繼續閱讀更多關於在這一集裏會發生什麼。

第十集:凱倫,麻省理工學院技術評論,負責任的AI:道德、創新,從大型技術和經驗教訓

在本周的節目中,節目主持人保羅與凱倫Roetzer坐下,高級人工智能編輯器,麻省理工學院技術評論。這個特殊的事件發生在麥孔2021當保羅和卡倫坐在爐邊談話討論負責人工智能。

在這節課中,保羅和凱倫探索人工智能的道德發展和應用。

畫在她的研究和寫作,郝提供:

  • 一個內部的政策和做法主要科技公司。
  • 經驗教訓,您可以使用,以確保貴公司的AI計劃把人放在利潤。
  • 看看什麼是下一個需要負責任的人工智能。

時間戳

[00:05:34]細節凱倫騎士科學新聞的

穀歌曆史上[00:14:16]一個教訓與人工智能和道德規範

(00:31:04)討論關於Facebook的凱倫的麻省理工學院技術評論

00:36:56快速問答


觀看視頻


閱讀訪談轉錄

免責聲明:這轉錄是由人工智能,感謝深,

(就是)保羅Roetzer:所以我今天加入了凱倫,高級人工智能麻省理工學院技術評論》的編輯。凱倫,感謝你和我們在一起。很高興再次見到你。

(00:00:14)凱倫郝:感謝你邀請我在這裏,保羅。

(00:00:15)保羅Roetzer:是的,當我到達你,因為對於那些沒有與我們2019年,卡倫是我們的一個關鍵提示第一營銷AI會議上“人工智能是什麼?”

不僅是一個巨大的影響對我來說,我喜歡說話,但我們聽到這麼多不可思議的從我們的與會者的反饋。我曾試圖讓凱倫在2020年當我們要做的。會議最終沒有發生。但後來我達到了2021回,說“機會我們能做一遍嗎?”

她隻是寫這麼多不可思議的文章,尤其是在去年負責任的人工智能,人工智能。道德的人工智能。它是這樣一個重要的主題,為我們和我們的觀眾。這就是我們想要的帶回凱倫今天是討論。凱倫,再次,非常感謝你,你對我們做出的所有貢獻社會。

(00:01:03)凱倫郝:是的。謝謝你,熱情介紹。

(00:01:08)保羅Roetzer:所以我想開始——我聽說你的背景——但你最終在人工智能嗎?你最後怎麼會寫AI人工智能代替建築?讓我們開始,你是怎麼進入人工智能嗎?

(00:01:26)凱倫郝:部分的解釋,實際上我有一起回答第二個問題。

所以我有一個有趣的旅程到新聞,因為我開始作為一個工程師。我在麻省理工學院的本科學習機械工程,當時,我非常著迷的原因機械工程是建築的概念;我很著迷的想法使用技術作為社會變革的驅動程序。

和麻省理工學院有一個令人難以置信的機械工程項目的真正關注用戶為中心的產品設計。和如何使用產品改變人們的思想,改變人們的行為,我很感興趣。後,總是想象這樣的史蒂夫•喬布斯(Steve Jobs)或某人的腳步誰真正理解用戶,能夠發明這些東西,然後完全改變了的文化,改變了我們消費信息,音樂,所有這些事情。

當我畢業時,我最終在軟件啟動工作。所以我將遠離機械工程硬件方麵和軟件。我當時真的迷戀啟動,因為它是失去Google X的創業公司,專注於構建體係結構軟件,或城市開發軟件,幫助城市政府本質上優化他們的城市設計和建築設計更可持續,讓資源更加高效。

和我非常感興趣的可持續性和氣候變化。和9個月的經驗,我認為我找到了我夢寐以求的工作在一個工作任務驅動技術公司利用科技為社會變化,啟動下放,因為它不是賺錢。

和私人投資者很不高興。他們解雇首席執行官,接替他與另一個CEO應該是麵向業務和幫助我們盈利。他根本不明白我們在做什麼。完全報廢產品,開始旋轉。和它讓我想了很多關於激勵在矽穀,如果我們不斷地糾纏於季度收益,那麼我們最終減少或限製我們的能力來追求真正的長時間尺度氣候變化等問題,如扶貧,所有這些問題真正的毛。於是我跳進新聞和我開始思考寫作。

也許我可以用寫作為社會變革的工具。因為新聞行業,我想,可能好一點關於使命意識而不是利潤驅動的。通過進入新聞,然後我發現我的人工智能。所以我變成了一個一般的科技記者,我很感興趣科技和社會和思考“我們如何實際技術負責和確保我們為社會變革發展嗎?我經曆過矽穀的缺陷,我想用一個平台,試圖推動矽穀在特定方向激勵更好的產品,更好的技術,從那裏降落在AI因為AI是這樣的。和很難談論技術今天不討論人工智能。

一旦我找到了我的家,我變得非常癡迷於它,因為它是完美的縮影的所有技術和社會問題,我想談談和探索。

(00:05:25)保羅Roetzer:我不認為你和我說話,因為你有任命為騎士科學新聞項目獎學金類。

最近剛剛發生。

(00:05:34)凱倫郝:剛剛發生。所以我提出了這個項目,因為它是一個故事係列認為人工智能發展的今天,如果我們看看它通過一個全球鏡頭,這真的不是成功地為每個人服務。有很多富裕國家,富裕公司提取大量價值和利潤的技術,但以犧牲弱勢群體,脆弱的國家。經濟效益是完全被扭曲和集中在國家和公司已經有很多權力和金錢。交通真的很興奮。我超級興奮的我已經等了兩年在這一點上寫這個故事係列。這就是我要為明年的關注。

(00:06:29)保羅Roetzer:好,祝賀你。這太棒了。實際上我並不熟悉獎學金。所以別人看不熟悉嗎?這是很酷的。你知道,我已經在網站上看到你要調查全球供應鏈,以及它如何通常集中的國家權力在富人手中,企業和國家,而不幸的人。所以你概述。我認為這是一個很重要的背景,所以人們理解你來自哪裏。所以你的親密知識技術和它是如何工作的,如何構建它。

所以當你正在做的研究和寫作,你可以批判,不僅僅是公關信息,也許這些大型科技公司想要你寫,把這些消息,希望你的小號,他們想要的東西在市場上。你可以退後一步,看批判說,但這樣就好嗎?

像,這是技術沿著正確的道路?這就是為什麼我喜歡你的寫作。我認為你是樂觀的技術在你的寫作,,這裏有可能性。有可能發生的事情當你照亮,像氣候變化和貧困和饑餓。就像它可以幫助做所有這些事情,但是它也可能出錯。這就是我今天想要關注的在這個討論人工智能負責。之前你和我見麵的時間和類型的討論,我們有一個混合的觀眾。會上我們有人在我們的社區建造人工智能技術,你知道,也許他們在企業資助的科技公司工作,或者他們中的一些人實際上是在人工智能大公司工作。

我們營銷人員使用人工智能技術,也許沒有意識到的偏差,可以建在或可能出錯的事情。然後我們有商業領導人可能不進入雜草和學習所有AI的來龍去脈。但是他們試圖找出如何使用這種新技術來推進他們的業務,推動增長,增長更聰明。

所以很多人隻是想弄這個東西,他們不知道他們不知道。這些未知數倫理責任。所以你和我談論我們的工作就是讓他們照顧。即使你隻是運行你的第一個試點項目來幫助優化數字廣告支出,或如何更有效地發送電子郵件,現在當你真正想要的是思考如何組織將以負責任的方式使用人工智能。所以我認為一個良好的開端是負責任的,你如何定義?因為我看到AI,負責任、有道德的人工智能。我們看到不同的術語。你覺得當你認為負責任的人工智能嗎?

(00:09:06)凱倫郝:我想負責任的人工智能的核心是真正減輕傷害和最大化效益。

人們可能會看到諸如負責人工智能AI偏差作為同義詞使用。的傷害的一個例子,你可以識別與人工智能技術,人工智能可以使歧視,但也有許多其他類型的傷害,一個人工智能係統可以延續。

也許這是侵犯你的隱私,也許miscategorizing你的身份,就像這樣。所以當思考如何實際構建負責任的人工智能,首先必須非常清晰的關於你使用人工智能?什麼目標你希望達到的目標是,它可能出錯的方式是什麼?

怎麼可能最終讓人們下來然後你必須想,“好吧,那麼什麼類型的方法我可以重新設計係統嗎?我警衛隊rails可以到位,以確保它不這樣做呢?”然後下一步就是好的,既然我們已經消除或至少減少傷害,它可以做的數量,我們如何最大化係統可以帶來的好處?為了使這個更具體一點,如果我們討論的是一個智能醫療係統,現在有很多工具,人工智能真的很擅長發現癌症病變,一個特殊的掃描,醫療掃描,它可能會損害這些病人的方法之一是通過侵犯隱私。

為了培養這個人工智能模型,你必須積累大量的病人的醫療記錄,然後如果黑客破解這個係統,所有這些私人病人信息?這是一個傷害你必須思考和最小化,然後另一個危害是如果這個人工智能係統是歧視性的,因為某些原因,你隻能得到掃描從白色的病人,但你無法從黑人獲得掃描病人?

然後它隻執行在白色的病人和最終會加劇現有的健康差異在我們的醫療保健係統。這是另一件事你必須考慮,和你去減輕他們的方式可以不同的解決方案。

有時它像AI係統本身無關。有時它是關於網絡安全,確保你有良好的數據基礎設施保護和防止黑客訪問數據,有時它是關於重新設計算法,確保你平衡的數據,不是歧視,一旦我們思考係統的效益最大化,這就像,好了,現在讓我們確保醫生正確使用該係統。

這是最好的方式,我們會得到好處的係統。然後,涉及教育、培訓的醫生,培訓護士,病人,使他們理解和交流感覺授權的事實評價他們,給他們一個一個人工智能係統的診斷。它包含整個管道的人工智能技術的開發和部署。

(00:12:30)保羅Roetzer:我認為從市場營銷的角度來看,你和我之前有感動,即使你的想法不建造它,你會買這些工具,別人建基於一些數據集,因為人工智能去做它,它需要的數據。所以有這個動機作為一個營銷人,作為一個品牌來捕捉盡可能多的數據。

我不會使用一個名字,但一個主要的電信運營商剛砍。不管出於什麼原因,他們仍然收集社會安全號碼與他們的客戶帳戶。就像40一些百萬記錄,我想。現在,突然之間,所有這些個人數據,營銷人員使用在這個組織在世界和手機號碼,社會安全號碼,誰知道其他數據。

可能隻是專有數據,甲方數據捕獲,然後他們可能是購買第三方數據,進一步豐富數據。當作為一個營銷人員理解,好的,AI不會發生沒有數據。所以在其基本意義上負責任的AI在市場營銷和業務,您需要理解數據的來源以及人工智能學習。

所以如果你要購買一個應用工具或內容的工具或不管它是什麼,你需要房間裏的人誰知道問這些問題,了解供應商告訴你關於他們得到的數據。

(00:13:51)凱倫郝:是的,當然。我認為這是這樣負責任的人工智能的一個重要方麵,是數據來自誰?我們看著它,看它是否有意義?這些數據來自的人同意嗎?他們知道數據是如何被使用的?我們如何存儲數據並確保數據?

像這些東西,都是負責任的人工智能的關鍵。

(00:14:16)保羅Roetzer:我們談論了一些關於如何傷害人,所以它可以影響員工。它會影響消費者,你的客戶,你的投資者,你的利益相關者。所以如果你犯了錯,這個東西,你可以承擔責任。你知道,很多時候尚未設置合法的先例,但你可以敞開心扉這網絡安全你給例子。

每個人都是一個潛在的候選人有網絡安全風險。像它可能隻是一個時間問題。所以考慮的數據和數據負責還是你不考慮最終傷害它。對於很多組織,我們希望這些大型科技公司為例。

我知道穀歌有一個道德AI標準。我相信Facebook。亞馬遜可能有。我知道Adobe它。所以每個人都至少有道德標準。所以你介紹這些大公司。他們想做什麼?所以穀歌顯然有大量的數據。Facebook有大量數據,所有營銷人員使用這兩個工具。

這兩個公司目標技術我們做廣告,宣傳ee跑。他們試圖從負責任的角度接近人工智能嗎?我們會為是否工作,但他們想做什麼?

(00:15:35)凱倫郝:好吧。讓我們開始與穀歌。穀歌是一個有趣的,有趣的案例研究。

如果你想想穀歌的使命是什麼,他們想,我忘了什麼口號是什麼,但從本質上說,喜歡組織全世界的信息,幫助用戶檢索相關的信息。當你使用搜索,當你使用Gmail,當你使用他們的廣告工具,那隻是為了提供最相關的信息在一個有效的方法。所以人工智能實際上是一種鞋這一使命。AI非常,非常擅長處理大量的信息和選擇的根據不同的信號可能被認為與用戶相關的東西。所以就像從一個基線基本水平,它不一定出現壞,穀歌使用人工智能。

喜歡它是有意義的,它與他們的使命,在理想的情況下使產品更好,幫助用戶。這個係統能去哪裏錯了嗎?如果你考慮信息檢索,基本上我們所知道的,我們的知識,是透過穀歌,然後你就會開始擔心如果穀歌實際上並不是獲取準確的信息給你,或者如果穀歌隻檢索一個特定子集的信息?這不是給你關於特定主題的全貌,讓你有一個非常扭曲理解,或非常扭曲的看法。

這是當你開始擔心如何參與人工智能,如果你不設計你的人工智能係統。嗯,那完全可以發生。有已知的情況下,穀歌搜索將檢索錯誤信息的人,因為如果你輸入“氣候變化是假的?“你會得到結果,加強你的偏見和當你輸入“氣候變化是真實的嗎?”

有例子,穀歌的搜索算法將把負麵的和搜索關於黑人女性。像從前,如果你搜索黑人女性大多顯示色情。而如果你搜索白人女性,它可能會顯示時尚。和這些聯係AI是製作和然後檢索信息在這些非常,非常具有歧視性的方式。

所以穀歌本質上是試圖做什麼當他們開始建立道德AI的團隊,他們的道德AI團隊負責思考我們的技術可以通過不同的方式出錯。我們不斷在努力推動人工智能可以幫助我們獲取信息的方式。

他們建立了一個世界級的研究團隊來想想這些問題,開展研究這些問題。和團隊有一個非常廣泛的議程。他們不一定告訴你要做具體的研究或關注這個特定的產品。實際上就像是任何我們部署的人工智能技術,然後您可以檢查它然後告訴我們事情可能會出錯,我們是否需要改變他們。我想笑點是這支球隊開始這樣做。當他們開始批評某些那一刻,非常、非常的盈利方麵穀歌的技術,團隊的領導人。

(00:19:21)保羅Roetzer:是的。所以你指博士Timnit Gebru,如果我正確的發音。有趣的營銷人員是相關語言模型,f我不是錯誤的,凱倫。所以她的團隊和米切爾博士,倫理AI的兩個領導的團隊發現了潛在的問題與這些大型語言模型,凱倫曾寫過關於廣泛。但當我們談論在我打開,跟談論GPT-3,和機器開始生成語言能力的規模,以及穀歌已經做了一些瘋狂的進步空間,但是在這之前,他們接受大量的信息,處理大量的數據,你消耗大量的計算能力。有影響你能夠完成與智能組成一個句子,並最終在Google docs,也許最終完成整個段落寫你的初稿寫作。

這一切聽起來令人驚奇的作為一個營銷人,但現實是凱倫的一點,有影響。所以Gebru博士的研究小組帶來這些。凱倫,發生了什麼?你的笑點,但也有一些其他的事情了,但在本質上,導致像,嗯,也許他們不是真正的道德背後的AI他們聲稱背後。

(00:20:44)凱倫郝:是的。所以語言模型,我猜,給更多的上下文,穀歌廣泛使用語言模型的方式出現在智能組成,正如你提到的,這也是它支撐搜索。所以為什麼你可以輸入幾個關鍵字,然後得到一些相關的信息,因為這些語言模型是處理所有的在線網頁,處理你的關鍵詞搜索,然後匹配實質上是什麼網頁,他們應該排名更高的相關查詢?最初,穀歌搜索並沒有總是語言模型,但他們意識到是在使用語言模型的最新迭代技術,他們可以增加他們的搜索的相關性明顯大片土地的搜索結果,這意味著廣告增加收入,因為廣告可以更具體有針對性的用戶。

博士和發生了什麼Timnit Gabru和瑪格麗特·米切爾博士正在研究這項技術,這是誠實相對新生的。他們開始關注喜歡的研究領域,本質上他們甚至沒有做新的研究。他們隻是總結了現有的研究說這是一個新興的技術。

這裏有一些這種技術的風險之前,我們真的應該考慮滾出來影響全世界數十億的用戶在搜索引擎和信息檢索過程。和他們提到的事情之一是這些模型必須被訓練文本數據,我們不能,它甚至不是人類可能的了理解是文本數據。

所以他們捕獲諸如真的侮辱性語言,褻瀆,種族主義和性別歧視的語言,然後有下遊的影響。但這些下遊的影響是什麼?我們真的不知道。

我們隻知道,在這些巨大的數十億的句子,我們使用這些模型訓練,所有這些垃圾被折疊,並在某種程度上它可能會損害用戶通過搜索結果返回真正的種族主義,或當你使用智能,組成告訴你完成一個句子用侮辱性語言。

因此,有趣的是他們從字麵上說,我們應該考慮這個問題。他們沒有說什麼。他們並沒有說我們應該把產品。他們沒有說,穀歌需要關閉了大部分地區的業務,但這足以讓穀歌突然大動肝火因為搜索是一個巨大的搖錢樹。

語言模型是為許多其他東西是穀歌的搖錢樹,一件事導致另一個,他們試圖釋放的紙就通知公眾和領域,這是人們應該研究更緊密,最終穀歌試圖審查它。

然後升級,兩位聯席Gebru博士和米切爾博士被解雇和團隊的解體。

(00:24:19)保羅Roetzer:這是2020年冬天,如果我沒弄錯的話,到今年1月,2001年2月。這是最近的。然後再一次,這並不是意味著在穀歌上貶低。

這是很難的。像這些進步發生了什麼,你說的是新生的。大部分的能力和語言和視覺和凱德梅茨將談論這個在他關閉主題。他們都基本上源於2012年,實現深度學習實際上是可能的。這個種族語言生成和理解,和遠見,所有這些事情,穀歌將會去買深,他們購買傑夫•辛頓的公司。

你知道,這些東西剛剛發生在過去九年。所以他們賽車,推進科技,把團隊問尖銳的問題,但是你的觀點,有時這些難題…這隻是也許更好,你不要問那麼難的問題。所以他們並不孤單。

我們為什麼不花點時間討論Facebook。你有去年還是今年早些時候的一篇文章?造謠的?這是今年早些時候。隻是起飛。喜歡我看到它在我的飼料,所以我假定它傳開,從麻省理工學院技術評論的角度看。也許和大家分享這篇文章你寫了Facebook的前提。我知道你寫的,但發生在Facebook的症結所在,因為他們也可能試圖建立負責任的人工智能嗎?

(00:25:45)凱倫郝:是的。所以的開始,我們開始與穀歌也讓我們考慮Facebook的使命是什麼,它是連接世界各地的每個人。

和非常早期,他們開始將AI納入平台中的一切。像任何你能想象你能做與Facebook。不僅僅是廣告的方式newsfeed排名,為什麼你看到某些狗圖片第一或你朋友的文章,這就是人工智能的。

即使你在信使,傳遞文本數據也正在搶占訓練Facebook的AI係統,Instagram標簽時人們在Facebook上和照片。當你與人交談的照片,所有的人工智能。

(00:26:31)保羅Roetzer:或不標記,他們認出他們。

所以大概四年前當發生,人們開始喜歡它如何知道這是凱倫的照片嗎?它是人工智能。它無處不在。

(00:26:44)凱倫郝:像一切你能想到的。可能沒有一個功能在Facebook上現在沒有一些人工智能的某個地方,在背景做一些事情。

他們開始將它的原因是因為他們認為,好吧,如果我們能增加接觸的平台,那麼人們會花更多的時間在平台。他們會與更多的人。他們會看到更多的團體會喜歡更多的頁麵,我們將成功連接更多的世界各地的人們,我想這是哲學。

我們知道一點開始發生。所以在2016年的時間,當超過政府上任時,科技睫毛開始,人們開始質疑,等等,我們是與生俱來的,就像Facebook在某種程度上使這個新政府上台?

那麼我們到底扮演了什麼樣的角色在幫助選出的這個人嗎?周圍有很多的問題,人們開始懷疑,等等,當我們看到的內容在Facebook上的朋友和家人,似乎每個人都在自己的過濾器泡泡。和每個人都是看到不同的信息。

有些人看到錯誤信息和一些人看到仇恨言論和其他真正的內容。所以對我們的社會效應是什麼?隨著人們開始思考這些事情,它回到,“Facebook已經使用這種人工智能的最大化參與平台,但似乎我們已經遇到這個問題,就像人工智能最大化接觸,這也最終放大分裂的內容,因為這是你如何最大化訂婚。”

所以有很多人員外部開始呼籲Facebook更加深入的思考這個問題,Facebook在2018年決定,好吧我們要開始一個負責任的AI團隊和也是一個完整的團隊,這是他們的名字試圖減少壞處的平台。

他們開始做一些研究,我們實際上放大這個信息嗎?我們實際上偏振與這些人工智能算法,我們使用我們的用戶嗎?簡短的回答是肯定的。他們做這些研究,他們認為這確實是發生了,但問題是,他們實際上並沒有授權負責人工智能團隊然後做任何事。

相反,他們認為:如果我們擺脫這些偏振效應,我們要讓人們分享較少爭議的內容。一旦人們開始分享的內容少,平台就不會那麼迷人了。

相反,他們要求負責任的AI團隊主關注的東西不挖他們的底線。他們要求他們關注公平之類的東西。“當我們部署內容適度算法,它同樣影響保守的用戶,因為它影響自由?”

或“當我們部署照片標記算法,它同樣認出白的臉,黑色的臉嗎?”這些都是重要的問題,但它完全忽略了這個像巨大的根本問題,是潛伏在他們內部已經確認和驗證。

這是非常,非常類似於穀歌的情況;一些員工很積極地試圖問這些棘手的問題,我們揭示醜陋的答案沒有成功讓領導真正做任何事。最終他們被排擠出公司或自願離開。

(00:31:04)保羅Roetzer:所以這篇文章,我的意思是,這是我見過最好的標題和急轉彎!所以這篇文章是Facebook是如何沉迷於傳播錯誤信息嗎。然後文章上的急轉彎是公司的人工智能算法給了它一個貪得無厭的習慣謊言和仇恨言論。現在,建立他們的人不能解決這個問題。

這是一個可怕的閱讀。然後我知道你和我都讀一個醜陋的真相,這是一本最近從幾個作家來自《紐約時報》,他們非常非常深入這個話題。所以如果,如果Facebook是我們做營銷人員至關重要,有一個很好的機會,每個人都在這個會話在Facebook上花的錢在一些目標用戶,無論是圖片廣告或通過,你知道,他們的人口和地理定位之類的。

你可能使用人工智能市場的公司。你絕對可能使用它在你的個人生活。也許你的孩子,就像使用它,關鍵是我們理解這項技術是如何工作的,所以你理解的影響。所以我想有點像退後一步,比如,我們可以從這裏學到什麼?

作為營銷人員,作為商業領袖我們能帶走什麼?像一個大外賣是什麼?當我們看穀歌和Facebook,我不是在批評穀歌和Facebook,他們非常高調的案件。他們並不孤單。像其他大型科技公司的問題,你知道,我認為蘋果和微軟可能執行他們試著做的更好一點。他們有自己的缺陷,但他們看起來也許更故意AI的應用程序在一個道德的方式。

但同樣,它是一種通用的。也許我們可以討論。我是一個商業領袖,我是一個商人,我試圖找出本文的會話嗎?

這樣一件事情讓我揪心的是什麼?你認為人們可以學會從錯誤中學習,當他們開始算出負責任的AI在他們的組織?

(00:33:13)凱倫郝:我想從這兩個例子中,你發現原來這些公司開始以非常合理的目標將人工智能整合到他們的產品和最初,沒有方法設想它可能出錯。所以我認為對於商人和商業領袖現在,思考首次將人工智能整合到他們的產品。

你應該提前考慮到,有什麼傷害我試圖實現,AI將如何幫助提高了嗎?也有哪些方式,這可能會出錯。然後繼續回顧這個問題隨著項目的發展。當你把AI越來越融入你正在做的事情。發生在Facebook和穀歌是他們在AI的早期革命尚未有肌肉很發達時考慮負責任的人工智能。

所以在某種程度上,人們現在開始有一點點的優勢,他們已經看到事情可能出錯的方法。他們早'開始思考這個問題,但是你需要繼續回顧這每一次。它不僅僅是思考這些事情。

你還需要這個合並到你的關鍵性能指標。你需要把它融入你的員工的期望和當員工思考AI道德。他們應該得到回報。他們應該讚揚。他們應該提拔當他們問棘手的問題,可能有醜陋的答案。

你應該開心。你不應該認為,“好吧,我現在要忽略,前進,繼續快速推進這個人工智能項目,“你應該考慮我們如何修改項目或我們需要拔掉插頭在這個項目?即使它在短期內,可能會影響我們的底線,在長期,它可能會是一件好事,因為你不會在公關醜聞。

你不會有品牌的損傷,人,消費者和利益相關者會更信任你。所以我認為所有這些都是人們應該開始思考。就像建立過程去思考這些事情,有真正的牙齒。

(00:35:44)保羅Roetzer:而且,你知道,我聽說你說有時是在利潤這個想法的人,就像聽起來那麼簡單,北極星,我認為這些是你的話,一定要造福人類,就像無論我們要做什麼,造福人類,人民。現在,它變得困難。

如果你工作在一個VC資金啟動,他們就有2000萬的資金提高四個人工智能技術,你坐在這想,好吧,我可以確定五種方式我們可能會走一個灰色的線現在。你做什麼工作?你有聲音嗎?所以很難一步Gebru博士和米切爾博士所做的,知道你可能會讓你的職業生涯,但這就是需要這個運動對需要人工智能從消費者負責,從投資者、商業領袖。

我很高興我們要做這個會話,所有你正在做的研究有助於推進這談話,因為它對我們所做的如此重要的一個產業。

(00:36:53)凱倫郝:感謝你讓我談論,保羅。

(00:36:56)保羅Roetzer:好吧。所以我們有幾分鍾了,我想有一點樂趣和一些快速的問題。你使用任何人工智能工具在你的研究和寫作嗎?

(00:37:09)凱倫郝:我做的事。我使用穀歌搜索,實際上我也使用

Twitter的算法,這所有的人自己的新鮮事我跟隨他們的微博。我依賴我表麵相關微博在AI的談話。

(00:37:29)保羅Roetzer:我愛這兩個,因為在我說話的時候,我談到AI是如何無縫地集成到你的生活。和你開始做事想當然的營銷行業。

這將是像Facebook,你每碰觸到任何東西在CRM平台AI。我們現在沒有作為一個行業,但穀歌搜索絕對是人工智能的一個例子和Twitter和YouTube的算法的算法。和Facebook。所有這些不存在沒有人工智能。這就是酷。

好吧。你如何闡明AI非技術人員當你解釋它嗎?

(00:38:02)凱倫郝:我隻是告訴他們,這是花哨的統計或喜歡的數學。喜歡你隻是有一個巨大的數據,你需要找出這些數據的關係。所以你有一些奇特的數學機將梳理數據,發現模式,然後使用這些模式在未來做出決策。

(00:38:23)保羅Roetzer:我喜歡它。有時我們可以借借。好,最喜歡的例子的AI在日常生活中,大多數消費者認為理所當然或甚至還沒有意識到通過人工智能嗎?

(00:38:34)凱倫郝:我的Netflix的推薦算法。

(00:38:38)保羅Roetzer:有顯示,你有推薦的算法,否則你不會看,你就像“工作?”

我的是空間的。我推薦給紀錄片和空間。所以我覺得這些很酷的東西,除非我去尋找特定的主題,但AI,紀錄片和空間的繼續出現在我和他們保持吸吮我的建議。

(00:39:04)凱倫郝:這真是一個好問題。

我正要說過去的電影,我看了,但是後來我意識到這是Amazon prime的推薦算法。但這是奧斯卡獲獎電影。我看很多像獲獎電影。所以我想推薦我最終得到越來越多的獲獎電影。和我看著在邁阿密的一個晚上,一個曆史戲劇與穆罕默德·阿裏基於一個真實的故事,馬爾科姆·X,和另外兩個男人現在的名字我不記得了,碰巧相交在邁阿密的一個晚上。就像一個很酷的,虛構的代表,一個曆史性的時刻。

(00:39:52)保羅Roetzer:所以亞馬遜和Netflix都得到它;迪斯尼+,他們所有人…每一個媒體平台都是這樣做。

讓你最擔心的AI和它如何可能出錯呢?

(00:40:05)凱倫郝:隻是事實,我想很多公眾的這些天,我認為仍困在這個空間,他們相信他們真的沒有機構來塑造未來的人工智能。首先,我不認為這是真的。

我認為每個人都有機構參與未來的這項技術將如何發展。我想參加這個會議就像一個方法,你可以開始做。我隻是擔心,如果人們不參與營造這種技術,那麼我們將得到的技術我們沒有好處。

是如何受益我們隻有一個小時,極小一部分的人類決定什麼樣的價值觀是嵌入在這些係統和他們的優化。所以我隻希望更多的人可以工作技術。

(00:41:04)保羅Roetzer:所以你花了很多時間研究潛在的負麵影響,或者現有的缺點,但是你也得這前排座位創新,也許接下來會發生什麼,好能做什麼。你對人工智能最興奮的什麼?

(00:41:19)凱倫郝:我想有這麼多潛力AI有非常大的影響在諸如醫療保健教育、科學發現。這是一個最令人興奮的領域的藥物發現,材料的發現,天體物理,隻是理解宇宙,和真正的大計算量的問題如氣候建模和用氣候模型來幫助減輕氣候變化的影響。

這些東西都是非常激動人心的人工智能的應用。我隻希望更多的人工作,因為並不是所有人非常有利可圖。

(00:41:56)保羅Roetzer:是的。涼爽的例子是黛米斯隊與DeepMindα折疊項目,他們可以預測蛋白質的折疊。

再一次,我假裝不知道這一切是如何工作的,但我知道的是它的發展打開了一扇大門新醫藥、生命科學的重大發展,因為他們開了的一切。所以,我們回到像,是的,穀歌有失誤,但穀歌買了深刻的思想。

和穀歌的資源就是伟德bv885使黛米的研究小組讓這些飛躍,會影響氣候變化和衛生和所有這些其他的東西。總是有好的和壞的,所有這些東西。我們種了,所以我要問最後一個,喜歡,你會怎麼想留給我們的觀眾嗎?

所以花費這麼多時間研究這個東西,寫這個東西,思考它,有什麼事你會想離開這些技術人員,營銷人員、商界領袖、作為他們向前走並考慮負責任的人工智能嗎?

(00:43:00)凱倫郝:隻是,AI並不可怕。它並不複雜。我認為有這總感覺,哦,太技術了。我不會去理解它。

我保證你隻要花一點時間的時間。你會意識到,人工智能是非常簡單的,我希望你會覺得有權這樣做,因為我們需要更多的人思考AI和思考自己的未來,思考如何確保它能幫助人們。

所以,是的,這不是可怕的。這並不複雜。就跳進去。

(00:43:37)保羅Roetzer:你可以回去看她的“人工智能”第一年學習基礎知識和意識到並不是抽象的。所以凱倫,我太感謝你來到這裏。我喜歡你的寫作。我等不及要繼續閱讀你做研究,特別是在新的獎學金。

這將是驚人的。感謝你做的一切你做,作為這次活動的一部分,我們的社區的一部分。

凱倫郝:謝謝你,保羅。

保羅Roetzer:好吧。這是所有的會話。我感謝每個人都在這裏,期待著與你聊天後。再次感謝。

相關的帖子

[營銷AI顯示:18集]CMOs AI: 2022年的報告

凱茜。麥克菲利普| 2022年6月17日

CMOs數字轉換的最前沿。他們準備好了嗎?

(營銷AI顯示20集):AI權利法案》,建立AI-Driven公司,和元做一個視頻

凱茜。麥克菲利普| 2022年10月14日

本周營銷AI,我們說白宮的AI權利法案,建議建立AI-driven公司,和元做一個視頻。

(營銷AI顯示23集):穀歌懲罰AI-Generated內容,負責人工智能指南,對本地新聞和艾未未的影響

凱茜。麥克菲利普| 2022年11月4日

營銷AI 23集的節目,我們談論穀歌懲罰AI內容,負責任的人工智能,人工智能對當地新聞的影響。

Baidu
map