女高中生穿jk自慰污污网站_两个人在线观看视频直播_差差差很疼APP大全免费软件_我坐在学长的鸡上写作业长篇文字_2012高清国语版免费观看下载

微資訊!關于AI,現在哪些方向太樂觀,哪些方向還可以更堅定一些?

2023-04-10 10:45:29 來源:富途牛牛

來源:思想鋼印作者:人神共奮

1、人工智能不只是ChatGPT

ChatGPT火了之后,有一個段子,說:我們過去想象的人工智能是,我們寫詩畫畫編音樂,AI燒飯洗碗修電腦,沒想到,最后是AI寫詩畫畫編音樂,我們自己燒飯洗碗修電腦。

白領危機四伏,藍領暗自慶幸。


(相關資料圖)

然而,ChatGPT實際上只是人工智能歷史上的第一個爆款應用,又是以一對一對話形式展開,效果又超出了我們的心理預期,很容易讓我們產生一個“人工智能能說會道”的錯覺,進而讓我們覺得,它未來可以取代很多白領的工作。

其實,ChatGPT底層的自然語言大模型GPT,只是眾多人工智能大模型中率先“涌現”的一個,它更傾向于生成文本的能力,所以看起來都是寫寫文章,說說話,畫畫畫,但并不是說人工智能就只能干這些,你總不能因為趙本山演小品,就以為東北人只會演小品吧?

所以說,哪有什么“只取代白領的工作”這么簡單的事啊,取代藍領工作的人工智能早晚也會來的。

僅就自然語言大模型而言,最有名的有兩種方向,除了GPT模型外,還有Google的BERT模型,兩者的核心區(qū)別在于目標不同,GPT更傾向于生成文本,而BERT 模型更傾向于理解文本。

更不用說還有更多開發(fā)中的各種方向的人工智能模型。

本文將從GPT模型與BERT模型的區(qū)別出發(fā),分析一系列相關的問題:

1、GPT模型與BERT模型的區(qū)別、各種擅長的領域和未來可能適用的場景

2、為什么突破率先出現在GPT模型上

3、AI行情的投資策略、重點方向與風險

2、文科的GPT和全科的BERT

說GPT更傾向于生成文本,而BERT 模型更傾向于理解文本,這個區(qū)別可能人類無法理解,不理解文本怎么生成文本呢?

但這個問題對AI來說,并不存在。

給一個形象的比喻,有一部勵志日本電影《墊底辣妹》,講一個年級倒數第一的差生通過一年內復習考入慶應大學(日本復旦交大這個級別)的真實故事,相當于在全國學生中的最后2%,進步到前2%。

這個神奇的故事之所以能實現,是因為她只要考“英語、小論文、歷史”這三門強調記憶的科目,她不需要很深的理解,只需要記憶和“生成”,注意重點是——不考數學、物理等注重推理的科目。

而GPT模型的成功,就像“墊底辣妹”一樣,很大程度在于選擇了一個“語言生成”為目標的捷徑,從而讓它看上去的效果比它實際上的突破更明顯——這一點跟現實中一樣,一個能說會道的員工,總是比只會干實事的員工,看起來更能干。

Transformer模型有編碼器和解碼器兩部分,GPT模型只使用編碼器部分,而BERT模型既包含編碼器部分,也包含解碼器部分,所以,通常認為,BERT模型需要“理解”文本的內容,GPT模型則不一定。BERT雖然也是一個文科生,但也要學習數學、物理這一類注重推理的課程,全面發(fā)展。

兩者的區(qū)別在一開始訓練時就產生了,GPT的訓練目標是通過最大化下一個單詞的條件概率來預測下一個單詞,從而完成生成任務;而BERT的訓練目標是隨機掩蓋一些輸入詞匯并要求模型預測這些詞匯,強迫模型預測缺失的單詞,因此產生了雙向性。

GPT模型完成任務的方法就是“猜猜下一個概率最大的詞是什么”,所以ChatGPT都是一個字一個字地蹦出來的,跟剛剛學會說話的小孩子一樣。

但BERT模型就不同了,它會考慮每一個單詞與前后文的關系,如果未來能成功訓練出來(注意這個前提),所有的文字應該是一起出來,它會把所有的話想好了,再一口氣輸出。

很明顯,BERT 模型的訓練要求更高,實現難度更大,這就是為什么Google在人工智能的研究方面此前一直遙遙領先,會忽然間被積累不如它的微軟超越。

雖然大家已經覺得GPT很神奇了,但如果真的大規(guī)模投入應用,在那些非生成內容為主的應用上,它還是有缺陷的。

比如你對AI助理說:“幫我在陸家嘴附近訂一個粵菜餐館,人均消費在500元左右,時間是明天晚上。”

對于這個句子,GPT模型的“理解”是從過去的語料訓練中,判斷“陸家嘴、粵菜、明天晚上、人均消費、500元”這些詞的組合而不是詞本身的意義,由此來判斷自己應該輸出什么樣的內容,它對于語言的最小理解單位是句子,而不是詞匯,會導致“模型產生幻覺,編造訓練中從未有過的數據”。所以我們有時看到GPT推薦必勝客等成都小吃的離譜結果,因為它并不理解“必勝客”的屬性,它還會把數學計算中的1995當成年代。

雖然GPT4中,這些現象已經大大減少,但由于底層邏輯仍然是一個“文科生”,未來很難說在遇到更復雜的問題時,會不會出錯,很可能最后給你預訂了一個經常與粵菜館一起出現的咖啡館。

而BERT模型的最小理解單位就可以到詞匯級別,主要是因為模型在訓練中,強化了對實名詞匯的判斷,即槽位填充(Slot Filling)。槽位表示文本中的特定信息或實體,例如日期、時間、地點、人名等,這些都是理解一段話的關鍵信息,需要從文本中識別并填充預定義的槽位或信息。

通過訓練,它首先可以從這些詞匯的屬性,來判斷句子的類型是美食類,還是體育、政治、科技、娛樂(文本分類并不是GPT的訓練項),經過此項訓練,BERT模型可以理解到詞匯這個級別,可以判斷“陸家嘴、粵菜、明天晚上、人均消費、500元”這些詞的意義,從而給出更準確的推薦,以及下一步預訂的動作,而GPT的理解就不一定準確了。

由此看來,GPT模式不會是終點,AI代替人類的工作,文本類只是一個“開胃菜”。

可能有人會想,為什么Google不先做一個相對容易的文本生成模型,而要先做一個更難的呢?

3、模型的未來應用

原因很簡單,BERT模型未來的用途可能更廣闊。

GPT模型就像文科畢業(yè)生,由于其在生成文本方面的強大能力,畢業(yè)后最大的“就業(yè)去向”是自動生成文章類的“工作”、包括新聞、廣告文案、創(chuàng)意內容、法律文書、文秘、各類咨詢,等等;其次的“就業(yè)去向”是作為聊天機器人、虛擬助手、智能客服,等等,進行更加自然、流利的對話。

而BERT模型并不會局限在“文科領域”,它可以憑借自己執(zhí)行文本分類、命名實體識別、關系抽取等任務的能力,有更廣泛的用途,比如可以用于幫助搜索引擎更準確地理解用戶查詢意圖,從而提供更精準的搜索結果——這就是Google和百度一直在重點開發(fā)這個方向的原因。

更重要的是,BERT模型可以從非結構化的日常語言數據中,抽取結構化數據,就是我們前面說的訂餐館的例子,小到要求助理召集一場特定人員參加的有特定目的的會議,大到智能駕駛——

我問過ChatGPT一個問題:“你覺得智能駕駛更有可能通過哪一個模型實現?”

它很坦誠地承認,BERT模型可能更適合在復雜的駕駛場景中進行深度理解和決策,理由是:

“在智能駕駛中,理解交通標志、識別道路標線、理解交叉口的交通信號等,都需要對文本信息進行深入的理解和推斷。BERT模型作為一種能夠對文本信息進行深度理解的模型,可能在智能駕駛中具有更廣泛的應用潛力?!?/p>

然而,雙向語言模型訓練難度太大了,ChatGPT之前的GPT-2和GPT-3和BERT一樣,都是雙向模型,但效果一般,導致眾多企業(yè)在這方面的投入更猶豫,轉機出現在OpenAI將GPT變成單向語言模型后,忽然出現了GPT-3.5的質的突破,實現人工智能從猿到人的關鍵進化。

而且,未來即使BERT這一類雙向語言模型也實現了“涌現”,因為它的計算復雜度較高,算力成本也就更高,很可能從成本上限制了它的使用場景。

所以未來不會有大一統的模型,可能會是各種模型的融合,在實際應用中需要根據任務需求和計算資源進行選擇,以充分發(fā)揮各自的優(yōu)勢。

例如,一個智能客服對話系統,其工作內容可以分成兩類,一類是咨詢,只需要簡單判斷客戶的意圖,主要任務是生成內容,客戶也沒有很高的精度要求,用GPT這一類單向模型就夠了;

另一類客戶溝通類工作,比如消費者要求退換貨、賠償、投訴等涉及復雜判斷和反復溝通的需求,對理解能力要求很高,還要判斷客戶提供信息的真實性,甚至需要AI判斷客戶此時的情感類型和程度,就需要用BERT模型進行意圖識別和槽位填充,從而實現更加智能、靈活的對話交互。

對比了GPT和BERT的區(qū)別,可以看出,GPT并不像大家想象的那么萬能,它的訓練目標中,對判斷推理的要求沒有文本生成高,下游應用可能并不會那么多。

那么,這個題材現在是不是有點炒作過了呢?會不會像21年的元宇宙一樣雷聲大雨點小呢?

4、AI行情的投資策略

答案是“不會”,GPT模型的意義不在于“找到東方的黃金”,而是“發(fā)現新航線”。

人工智能的理論突破,基于Transformer架構的自然語言處理模型,實際上是發(fā)生在前幾年,只是之前沒有人能實現它,所以并不確定它行不行,加上費用都是以億為單位,就算是巨頭,在投入上都比較小心。

所以ChatGPT的重要意義在于形成了一個行業(yè)共識——只要基于海量的數據去喂這個模型,時間到了,就能“大力出奇跡”,最終實現超大神經網絡能力的涌現。

國內的AI大模型長期發(fā)展緩慢,但ChatGPT問世后,短短幾個月一下子冒出了多個能力相當于GPT-3的大模型,并不是這些巨頭在蹭熱點,而是新航線被確認了,必然會有多支“艦隊”出發(fā),之后也必然會出現更多的不同于GPT的“新航線”。

當然,越是星辰大海級別的投資機會,越需要合理的投資策略。

以應用方向為例,對應的行業(yè)都是傳媒影視游戲、各種互聯網應用和軟件,這一類行業(yè)之前因為商業(yè)模式的缺陷,估值普遍不高,所以AI應用行情的核心邏輯是用AI改造傳統的商業(yè)模式,出現業(yè)績與估值的戴維斯雙擊。

但行情是一波波走出來的,這一類產業(yè)大趨勢的行情通常包括三個階段:

第一階段:位置驅動和故事驅動

第二階段:邏輯驅動和業(yè)務驅動

第三階段:業(yè)績驅動和商業(yè)模式驅動

第一階段的核心原因是“估值低、機構持倉低、預期低”的“三低”,以AI應用為名義的估值修復行情。既然是估值修復,那就是“邏輯第三、故事第二、位置第一”,大部分公司不分好壞,只要有訴求,都能上漲。

可一旦估值修復完成,第一批信仰者已經滿倉,其他人還在觀望,市場冷靜下來,行情就要進入到邏輯驅動和業(yè)務驅動的第二階段。

這個階段,AI應用標的的投資方向,主要考慮業(yè)務是否成立,要考慮AI使用成本與客戶需求的匹配度,盡可能優(yōu)先考慮GPT3.5和4非常擅長的功能,其次是支持的功能,對年底可能推出的多模態(tài)的GPT5,還是要多一份謹慎。

我前面分析了一堆GPT模型的特點,正是為了從這個特點出發(fā),分析現有的投資炒作邏輯中,哪些邏輯后面可能被證實,哪些邏輯可能被證偽。

5、AI應用重點投資方向

一、文字輸出、圖像輸出類應用仍然是最需要關注的方向

人工智能首先在語言和圖像輸出方面實現質的飛躍,等于方向已經指明,這將鼓勵各大平臺加大在此方向上的投入。

首先是辦公應用,其次是游戲,再次是部分偏內容服務的廣告營銷、咨詢服務和法律服務等企業(yè)培訓服務,以及少數影視傳媒。

變好的不但有業(yè)務,還有商業(yè)模式。內容生成行業(yè)的成本項,從沒有規(guī)模效應、難以控制的人,變成有規(guī)模效應、控制性很好的AI,市值空間變大,理應獲得更高的估值。

但這里需要區(qū)別內容生成和創(chuàng)意生成,前者是指大量重復的、受眾低要求的創(chuàng)作,后者是少數內容精英的創(chuàng)作成果,觀眾要求高。以影視為例,僅依賴廣告、觀眾 不太挑剔的免費電視劇更偏向于前者,而電影、付費精品劇更偏向于后者。

AI對創(chuàng)意生成的替代作用非常小,創(chuàng)意行業(yè)的商業(yè)模式不會因此改變,仍然是沒有什么投資價值的行業(yè)。

二、側重于推理判斷和有后續(xù)動作的應用,要具體應用具體分析

前面我以客服機器人為例,分析了客服中兩種不同需求對AI的挑戰(zhàn)不同,客戶的預期不同,最終導致AI的效果與付費意愿也就不同,所以,需求中側重于推理判斷和有后續(xù)動作的應用,要具體應用具體分析,總體上有幾個原則:

1、需求有明確結果,但對結果要求高的應用要謹慎,比如AI智能駕駛和AI輔助診斷,有人認為AI只是輔助診斷,但他們一定忘了魏則西的悲劇,AI診斷的暗示性遠遠強于搜索結果;

2、可以直接低成本帶來新客戶的(游戲、圖片創(chuàng)作、法律心理管理等咨詢服務、部分黑產),最佳;可以提高付費意愿和單價的(辦公應用),其次;只能省成本或只能改善用戶體驗的(企業(yè)文書、網文創(chuàng)作、藥物研發(fā)),再次;價值感不明確導致付費比較猶豫的(目前大部分),最差;

3、效果可能一般,但非常剛需或者價值感很強(比如金融、教育);付費方與使用方分離的(禮品類硬件應用);

4、入口強制使用的(國民級APP、留存社交關系的App、手機電視電腦智能音箱等);

5、目前大量被炒作的應用方向(訂餐、旅游、購物),大多雖理論上可以提升用戶體驗,但并不能帶來明確的核心價值,或者不解決用戶痛點,而且結果也并不一定準確。這一類應用,可能用了很高的成本只創(chuàng)造了少量新需求和新收費,最終得不償失。

三、正確的方向和模糊的個股

雖然像游戲、辦公、金融、教育,都是前期炒得比較多的方向,但這些方向都非常確定,需要有一級市場的前瞻性思維,并不需要看到業(yè)績的落地。最怕的是一開始不信,看到業(yè)績落地后又相信了,業(yè)績落地、確定性很高時,估值可能已經非常離譜了。

也不要因為用過之后體驗不好,就覺得這個項目不行,只要方向正確,人工智能的進化速度遠遠超過人類的想象。

最大的風險是方向確定,但標的不確定,最好的辦法就是打包買,看好辦公,就多找?guī)讉€方向的相關標的,主做中國市場的,覆蓋全球市場的,A股的、美港股的,通通打包買。

6、大模型的商業(yè)價值存疑

從ChatGPT的輸出內容看,它有明顯的意識形態(tài),這是在訓練中有目的輸入的,這肯定會給各國政府一個啟發(fā)——利用人工智能訓練進行全民價值觀的灌輸或潛移默化。

至少在我國,大語言模型將兼具“宣傳陣地”(推理)和“教育陣地”(訓練)的作用,未來主要方向不是商業(yè)化,而是像現在的媒體和教育機構一樣被高度管控,以防止出現互聯網時代BAT那樣過于強勢的非官方控制的巨型平臺。

所以大模型的商業(yè)價值有相當的不確定性。正在做大模型的公司,如果能先于監(jiān)管“把孩子生下來”,算是安全上岸,日后無非是監(jiān)管成本問題。難的是開發(fā)進度落后的,很可能最后胎死腹中,投資打水漂。

回到前面對GPT模型定位的分析,大語言模型必然將遇到這個問題,言語就像氧氣、水源、糧食一樣,商業(yè)化必然面對各種政治的、道德的挑戰(zhàn),可能商業(yè)價值更大的,還是側重推理的非語言類大模型,以及在語言大模型基礎上訓練的專業(yè)模型。

編輯/jayden

標簽:

滾動