自從GPT-3於2020年5月發布以來,圍繞它的宣傳鋪天蓋地。
GPT-3是一個人工智能語言生成模型由OpenAI自動生成最富的語言在規模。NLG模型的GPT線的第三個演進目前作為應用程序程序接口(API)可用。(這意味著如果您現在打算使用它,就需要一些編程技巧。)我們在過去討論過OpenAI的語言模型是如何快速改進的,該技術為營銷人員帶來了重大機遇。
但許多行業出版物似乎都為GPT-3瘋狂,用OpenAI首席執行官Sam Altman的話來說,這種炒作“太過了”。
有很多問題是關於複雜的自然語言生成在工作,內容質量以及科技的未來。但在你被大肆宣傳所席卷之前,讓我們先來了解一下GPT-3的一些真相。
使用GPT-3創建文章效率很低
《衛報》9月寫了一篇文章,標題是整篇文章都是一個機器人寫的。你害怕了嗎,人類?人工智能內部一些受人尊敬的專業人士立即做出了反擊。
下一個網頁寫了一篇反駁文章他們的文章和人工智能媒體的宣傳完全是錯的。正如這篇文章所解釋的,“這篇專欄文章通過隱藏的東西而不是它所說的東西,揭示了更多的東西。”
他們必須把8篇500字的不同文章拚湊在一起,得出適合發表的東西。想一下。這一點效率都沒有!
沒有人能給一個編輯4000字,然後指望他們把它編輯到500字。這表明,平均而言,每篇文章包含大約60個單詞(12%)的可用內容。
那周晚些時候,《衛報》發表了文章後續的一篇文章他們是如何創作出最初的作品的。他們編輯GPT-3輸出的逐步指南從“第一步:向計算機科學家尋求幫助”開始。
由於許多內容團隊的工作人員中沒有計算機科學家,所以GPT-3很可能不會被廣泛用於高效的內容生產,直到其中一些問題得到解決。
GPT-3會產生低質量的內容
早在《衛報》發表他們的文章之前,對GPT-3輸出質量的批評就越來越多。
那些仔細研究GPT-3的人發現,流暢的敘述缺乏實質內容。作為技術評論“盡管它的輸出是合乎語法的,甚至是令人印象深刻的習慣用語,但它對世界的理解往往嚴重錯誤。”
和VentureBeat他補充說:“圍繞這種模型的炒作不應該誤導人們相信這種語言模型能夠理解或表達意義。”
在對GPT-3進行圖靈測試, Kevin Lacker透露GPT-3不具備任何專業知識,在某些領域“仍然明顯低於人類”。以下是GPT-3回答的一個例子,當拉克試圖通過提出“正常人永遠不會談論的問題”來“更一致地阻礙AI”時。
在他們測量大量多任務語言理解的評估中,下麵是什麼同步人工智能技術與產業評論不得不說:
“即使是頂級的1750億個參數的OpenAI GPT-3語言模型,在語言理解方麵也有點愚蠢,尤其是在遇到更廣泛和更深入的主題時。”
GPT-3輸出可能是NSFW
不幸的是,GPT-3還會產生比無意義的句子更陰險的結果。根據分析的洞察力,“這個係統有能力輸出有毒的語言,很容易傳播有害的偏見。”
關於AI內容模型中的偏見的討論並不新鮮,而且非常重要。AI模型很容易意外地生成歧視性或攻擊性的內容。事實是,大規模的內容在紙上聽起來很好,但在實踐中很難監管。
問題來自於用於訓練模型的數據。GPT-3 60%的訓練數據來自Common Crawl數據集。這個龐大的文本語料庫被挖掘出統計規律,這些規律作為加權連接輸入到模型的節點中。該程序查找模式並使用這些模式完成文本提示。
正如科技博客TechCrunch評論的那樣,“正如你所期望的那樣,任何基於未經過濾的互聯網快照進行訓練的模型,其結果可能相當有害。”
在GPT-3的論文中(PDF), OpenAI的研究人員調查了性別、種族和宗教方麵的公平、偏見和代表性。他們發現,對於男性代詞,模特更有可能使用“懶惰”或“古怪”等形容詞,而女性代詞則經常使用“頑皮”或“糟糕”等詞。
當GPT-3準備討論種族問題時,對黑人和中東人的輸出比對白人、亞洲人或拉丁裔人的輸出更負麵。同樣,各種宗教也有許多負麵的含義。“恐怖主義”通常被放在“伊斯蘭教”附近,而“種族主義者”則更可能出現在“猶太教”附近。
GPT-3在接受了未經策劃的互聯網數據訓練後,輸出的結果即使不是有害的,也是令人尷尬的。
繼續學習自然語言生成
如果您擔心GPT-3會在接下來的幾個月搶走您的內容製作工作,那麼希望您的擔憂暫時得到了抑製。
對於任何一項新技術,過度宣傳其功能的可能性都很高。想了解更多關於自然語言生成背後的真相嗎?從這些帖子開始。
Stephen Jeske
Stephen是MarketMuse內容策略博客的負責人,MarketMuse是一個人工智能內容智能和策略平台。