訂閱
AI需要被人和其他AI負責。
這是Zeze Peters的外帶,這是一個實際的火箭科學家和創始人/首席執行官Beam.City.,在他的談話中營銷AI會議(MAICON)2021。
在其中,Peters分享企業如何開始持有AI工具和係統負責,並防止沿線的嚴重問題。
PS - 您是否聽說過世界領先的營銷AI會議?點擊這裏要查看計劃的令人難以置信的編程,為Maicon 2022。
彼得斯說,沒有問題一些非常聰明的人害怕艾麗的潛力出錯。他引用伊朗麝香的擔心,“AI的危險遠遠超過核彈頭的危險。”
Ai周圍的大部分恐懼都歸功於解釋性。現在,許多AI係統,甚至是危險的係統,都是“黑匣子”。我們看不到他們內心,以完全了解他們如何或為什麼做出決定。因為AI可以向目標設計自己的途徑,有時甚至製造這些係統的工程師也不總是知道他們為什麼做他們所做的事。
彼得斯說,我們需要通過打開黑匣子來使AI可以理解。有四種關鍵方法可以做到這一點。
在一些先進的案件中,彼得斯說,您實際上可能需要另一個AI審核您的第一個AI係統並將其保留。(這些有時被稱為生成的對抗性網絡。)
這可能對非技術商業領袖和營銷人員來說是很多。但有必要開始理解,使您的AI采用努力受益,而不是危害您的業務。
即使你從Square One開始,你也可以通過提出一個簡單的問題來獲得軸承,然後找到可以幫助您回答的人?
你的ai是什麼,它做了什麼?
PS - 您是否聽說過世界領先的營銷AI會議?點擊這裏要查看計劃的令人難以置信的編程,為Maicon 2022。