• <bdo id="0wauq"></bdo>
  • <tfoot id="0wauq"></tfoot>
    • <s id="0wauq"></s>
    • <sup id="0wauq"></sup>
    • <sup id="0wauq"></sup>
      深圳熱線

      ChatGPT迎重磅更新,降價25-75%!解析ChatGPT技術原理

      2023-06-15 08:12:27 來源:零壹財經

      作者 | 胡浩基 來源 | 數據經濟評論ChatGPT再次進化,迎來大更新和大降價。

      當地時間6月13日,OpenAI宣布對其大型語言模型API(包括GPT-4和GPT-3.5-turbo)進行重大更新,包括新增函數調用功能、降低使用成本等多項內容。更新后,嵌入式模型成本下降75%,同時為GPT-3.5-turbo增加了16000(此前為4000)的輸入長度。


      【資料圖】

      主要更新內容:

      ·在Chat Completions API中增加了新的函數調用能力;

      ·推出新版本GPT-4-0613和GPT-3.5-turbo-0613模型;

      ·GPT-3.5-Turbo上下文長度增長4倍,從4k增長到16k;

      ·GPT-3.5-Turbo輸入token降價25%;

      ·最先進embeddings model降價75%;

      ·公布GPT-3.5-Turbo-0301和GPT-4-0314模型的淘汰時間表。

      本次更新中,備受關注的是函數調用能力。據華爾街見聞報道,開發者現在可以向GPT-4-0613和GPT-3.5-turbo-0613兩個模型描述函數,并讓模型智能地選擇輸出一個包含參數的JSON(JavaScript Object Notation,一種數據交換的文本格式)對象,來調用這些函數。若將GPT功能與外部工具或API進行連接,這種方法更加可靠。

      也就是說,GPT不再需要開發者描述復雜的提示語,它自己能夠決定是否動用外部工具來解決問題,不僅顯著提高了反應速度,還大大降低了出錯的可能性。

      此外,OpenAI發布的降價消息也讓不少用戶為之歡呼。官網公告顯示,不同版本降價幅度不同,OpenAI最先進、用戶最多的嵌入模型Text-embedding-ada-002降價75%;用戶最多的聊天模型GPT-3.5-turbo降價25%。OpenAI首席執行官Sam Altman此前在新加坡管理大學演講時表示,OpenAI每三個月左右就能將推理成本降低90%,未來將繼續大幅削減成本。

      人工智能時代正在到來。ChatGPT作為一個窗口,讓我們得以提前窺見AI世界。本文對ChatGPT的基本技術原理進行了分析和解讀,可供讀者學習和參考,推薦閱讀。

      作者簡介:浙江大學信電學院副教授,2002年清華大學電子工程系專業本科畢業,2007年英國南安普敦大學電子與計算機工程系博士畢業,博士期間的研究方向是人臉識別和說話人識別的融合算法。2007-2009年在比利時魯汶大學通信與遙感實驗室從事博士后研究工作,研究方向為三維網格數字水印。2009年12月起為浙江大學信息與電子工程學院講師,2013年晉升副教授并擔任信息與通信工程系副系主任。目前主要研究方向為計算機視覺、機器學習、深度網絡模型壓縮和加速等。在國際頂級期刊和會議上發表論文70多篇,包括TIP,PR,AAAI,CVPR等,主持多項國家和省級科研項目。他的機器學習視頻課程在BILIBILI網站上獲得超過100萬點擊量。本文為胡浩基教授在全球數字金融中心(杭州)舉行的“科技向善:強AI時代的變革”人工智能與數字金融研討會發言。

      ?ChatGPT是由Open AI公司在2022年11月推出的大規模語言模型,它的發展歷史如下圖所示。ChatGPT的英文全稱叫Chat Generative Pre-trained Transformer,翻譯成中文就是--聊天的、生成的、預訓練的Transformer網絡。接下來,我們把chatGPT的這幾個詞,一個一個的詳細講解具體的意思是什么。01

      Transformer網絡首先講一下Transformer網絡,在2013年左右深度學習剛起來的時候,那個時候最主要的網絡結構叫做卷積神經網絡,Covolutional Neural Networks,或者叫做CNN。在2017年左右的時候,Google推出了Transformer網絡。

      由于CNN是一個過于層次化的結構,因此在CNN最開始的幾層只能看到數據的局部情況,而看不到整個數據的全局情況,所以Google推出了基于注意力機制(Attention Mechanism)的Transformer網絡,使網絡在最初的幾層也能看到這整個數據的全局信息。

      至于為什么叫Transformer網絡,據我考證,那時因為那個時候正好在放映電影變形金剛5(Transformer 5)。這張圖中分別給出了是CNN和Transformer的網絡結構,同時我們也給出了CNN和Transformer網絡特點之間的一些對比。“傳統的”卷積神經網絡(Convolutional Neural Networks,CNN)基本結構圖Transformer網絡基本結構圖

      CNN與Transformer特點對比參考文獻

      (1)LeCun Y.,Bottou L.,Bengio Y.,and Haffner P.,Gradient-based learning applied to document recognition,Proceedings of the IEEE,pp.1-7,1998(深度學習創始人之一Yann LeCun在1998年首次提出現在使用的卷積神經網結構).

      (2)A.Vaswani et al.,Attention is all you need,in NIPS2017,pp.1-11,2017(Google在人工智能頂級會議NIPS上發表的論文首次提出了Transformer網絡結構).

      在2019年左右,Google把Transformer應用在自然語言處理的各種任務上。例如,最早基于Transformer的BERT模型,將Transformer應用在自然語言處理上,獲得很大成功。因此,從2019年起,自然語言處理這個領域就基本上確定了Transformerer比CNN更好。

      在另外的領域,例如計算機視覺,什么時候我們才真正的覺得Transformer比CNN好呢?這個時間大概是在2021年,相對來說晚了兩年。這里是微軟亞洲研究院的一篇論文,它提出了Swin Transformer。人類的視覺是有層級的,而Transformer這種過于并行化的網絡結構打破了視覺的層級,因此Transformer在計算機視覺領域的效果不好。

      Swin Transformer對傳統的Transformer進行了改進,我個人的觀點是,Swin Transformer吸收了CNN中的分層結構并有效融入到傳統的Transformer當中,形成了一個“CNN+Transformer”的模型,使得Transformer在視覺任務中的效果有了明顯提升。所以說Transformer從2021年開始,逐漸取代了CNN成為人工智能領域的主流網絡。

      BERT是較早將Transformer用在自然語言處理的成功模型Swin Transformer是將Transformer用在計算機視覺領域的成功模型參考文獻

      (1)J.Devlin,M.–W.Chang,K.Lee and K.Toutanova,BERT:Pretraining of Deep Bidirectional Transformers for Language Understanding,in NAACL-HLT 2019,pp.4171–4186,2019.(BERT將Transformer網絡應用于自然語言理解中,在多個自然語言處理任務上獲得很好效果,這一研究成果推動了charGPT的出現).

      (2)Z.Liu,Y.Lin,Y.Cao,H.Hu,Y.Wei,Z.Zhang,S.Lin and B.Guo,Swin Transformer:Hierarchical Vision Transformer Using Shifted Windows,in ICCV 2021,pp.1-14,2021(Transformer在計算機視覺領域的表現不夠好,直到2021年微軟亞洲研究院的這篇Swin Transformer,將CNN的一些結構和Transformer結合,終于獲得了很好的效果,這一研究成果推動了Transformer在計算機視覺領域的普及).

      從2021年開始,我們實驗室也基于Transformer也做了一些工作,尤其是在醫學圖像處理領域。如下是我們基于Transformer對二維乳腺自動超聲腫瘤圖像和三維牙齒口掃圖像進行分割,獲得了很好的結果。(a)乳腺自動超聲腫瘤分割(b)三維牙齒口掃圖像的分割我們實驗室的工作將Transformer應用于醫學圖像處理的工作參考文獻:

      (1)Xiner Zhu,Haoji Hu,Hualiang Wang,Jincao Yao,Wei Li,Di Ou,Dong Xu,Region Aware Transformer for Automatic Breast Ultrasound Tumor Segmentation,in Medical Imaging with Deep Learning,MIDL2022,Zürich,Switzerland,pp.1-15,2022.

      (2)Zuozhu Liu,Xiaoxuan He,Hualiang Wang,Huimin Xiong,Yan Zhang,Gaoang Wang,Jin Hao,Yang Feng,Fudong Zhu,Haoji Hu,Hierarchical Self-supervised Learning for 3D Tooth Segmentation in Intra-oral Mesh Scans,IEEE Transactions on Medical Imaging,vol.42,no.2,pp.467-480,2023.02

      關于Pre-trained預訓練接下來我們講第二個詞--Pre-trained,即預訓練。預訓練是什么意思呢?一般來說計算機進行的是監督學習。例如這張圖中,以英文翻譯中文為例,輸入“I eat an apple”,輸出是“我吃蘋果”。接著輸入“You eat an orange”,輸出是“你吃橘子”。當有很多輸入時,我們可以設計算法,讓計算機自動發現“I”可能對應“我”;“You”對應“你”;“Apple”對應“蘋果”;“Orange”對應“橘子”。以上就是用監督學習的方式教計算機英文翻譯中文的例子。監督學習有一個很大的問題,就是它需要大量的人工標注,耗時耗力。有沒有可能讓計算機采用無監督、沒有標注的數據來做學習呢?這就是要說到預訓練技術了。以下是Open AI關于預訓練的第一篇論文。這里有一個花絮,我以前看過這篇論文,但在準備這次演講的PPT時忘掉昨天這篇論文的具體名字了,于是我就問chatGPT:“請告訴我Open AI關于預訓練的第一篇論文的名字”,然后它就直接給我找到了!所以我強烈建議大家好好用一下chatGPT,還是挺有意思的。

      Open AI做的預訓練大致是什么意思呢?首先它玩兩個游戲,一個叫做文字接龍,一個叫做填字游戲。文字接龍就是給計算機一段文字,讓計算機猜后面的一個字或者一個詞是什么,這樣的方式就不需要人工去標注這段文字了。第二個游戲就是填字游戲,比如我把中間的字隱去,讓計算機根據整個語句環境猜中間的一個字是什么,填字游戲也不需要人工去標注文字。

      因此,利用預訓練,就可以完全利用整個互聯網沒有標注的各種各樣的數據來做這樣的文字接龍和填字游戲。所以,可以用于預訓練的數據非常多。利用預訓練,我們可以獲得一個ChatGPT的“初步大腦”。接下來可以通過特定的任務來微調這個“初步大腦”,比如說在如下論文中,首先在104種語言的網站上進行預訓練。經過預訓練后,用一個相對少的有標注的數據進行微調,實驗表明,經過預訓練后,用這么少的數據進行微調就能夠得到非常好的結果。這就像我們人腦,經過了大量基礎知識的學習后,只要稍微用一點點專業知識來“微調”,就能學會那些專業知識了。

      接下來我們講預訓練帶來的兩個“魔法”。第一個叫做觸類旁通。例如,在我們用104種語言做預訓練后獲得了一個初步的模型。然后我們只用少量的英文數據做閱讀能力測驗訓練,前面說過,這個經過預訓練的模型很快就學會了做英文閱讀能力測驗。

      更令人吃驚的事情是,我們完全沒有用中文對模型進行微調,但這個模型在學會英文閱讀能力測試的同時,自動也就會了中文閱讀能力測試!換句話說,預訓練能夠將一種語言上的任務遷移到另外的語言上去。這是因為我們針對各種語言進行了預訓練,因此chatGPT學到了各種語言的隱含關系,所以它就能夠根據這樣的隱含關系,把在一個語言上的任務遷移到另外的語言上去。預訓練的魔力之二,就是剛才張巖老師講的涌現能力,隨著模型和數據增加到一定的地步了,整個模型的能力會快速的增長。由于張老師很詳細的講到了這一點,我就不再贅述了。

      除了預訓練之外,ChatGPT還用了一個關鍵技術,叫做強化學習。這是OpenAI描述ChatGPT中如何進行強化學習的論文--Reinforcement Learning with Human Feedback(RLHF)。翻譯過來就是,帶有人類反饋的強化學習。它大概說的是什么意思?

      當我們經過了預訓練,經過了具體任務的微調還是不夠的,我們要把人的價值觀展現給計算機。人對于什么文章是好的,什么文章是不好的,需要加以評判,并把這個評判結果告訴計算機,這樣計算機就能生成人類覺得好的文章。比如說,你問“世界上最高的山是哪一座?”,GPT有可能接下面一句話,“這是一個好問題”。這個答案雖然邏輯是通的,但是它的回答是不好的。因此我們需要有一個人類的老師來監督,對好的回答給個高分,對不好的回答給個低分。比如說,你問“世界上最高的山是哪一座?”如果回答是“珠穆朗瑪峰”,那么要給一個高分;而如果回答“這是一個好問題”,就要給個低分。OpenAI公司內部有一套詳細的實訓手冊,就是要統一告訴進行標注的人類老師什么答案是好的,什么答案是不好的。它要有一個非常統一的對于好和不好答案的認識,這樣才能讓訓練變得更加的統一,容易收斂。

      講完ChatGPT的基本原理后,接下來我們講一下對ChatGPT的評價。張巖老師的PPT里面講到很多好的評價,所以我要講一點點不好的評價。

      第一個評價來自深度學習創始人之一Yann LeCun?!癈hatGPT提供支持的大型語言模型并不是什么新鮮事,所用的技術在ChatGPT出現之前已經存在多年了”。這句話當然是對的,但是我覺得如果說能夠把已有的技術組合起來,達到現在的技術沒有達到的一個新高度,我個人認為就是“新鮮事”。下面這句話我覺得比較關鍵,“ChatGPT不知道世界的存在。它們對物理現實一無所知,它們沒有任何背景知識,它們找不到答案,它們經常產生令人信服的廢話”。

      另外一個不好的評價來自語言學家喬姆斯基,他對比了ChatGPT和人腦之間的區別說:“人腦不像ChatGPT及其同類產品那樣,是一個笨重的模式匹配統計引擎,狼吞虎咽地處理數百兆字節的數據,并推斷出最為可能的對話回應。人類的大腦是一個極為高效甚至優雅的系統,只需要少量的信息即可運作;它尋求的不是推斷數據點之間的粗暴關聯,而是創造解釋?!蹦壳暗纳疃葘W習,包括ChatGPT運用的這種基于統計的學習方式,在語言學家喬姆斯基看來與我們人類大腦的運作是背道而馳的。03

      相關思考最后講一些我對ChatGPT的思考。網上已經有了各種人的各種思考了,基本把能夠說的話都說完了,因此思考得有新意還是比較困難的。我想了三個相對有新意的點,分享給大家。

      第一個思考,世界的規律到底是簡單的還是復雜的?我們小時候學到牛頓力學和萬有引力定律,用幾個公式來總結和解釋世界的規律。但是從深度學習開始,以ChatGPT為代表的深度模型逐漸占據統治地位后,我們將那么多數據扔進一個那么多參數的大模型中,我們已經完全不能理解和把握這個大模型的內在規律了。

      這個世界的規律真的復雜到需要我們創造一個大模型去描述它嗎?還是說世界的規律仍然是簡單的,我們目前只是欠缺認識這種簡單規律的能力?未來人類的科學研究是否還可能回到以前那種尋找簡單規律的模式呢?下面的第一張圖說明,牛頓力學和萬有引力定律把太陽和行星的運動描繪得那么準確,而它用的只是幾個數學公式而已,這與現在以深度學習為代表的那種人工智能是完全背道而馳的。第二個思考,人類的語言是無限創造力和發展可能性的源泉,還是人工智能可以窮盡的符號的排列組合?在這里,我想起了高中語文的課文《最后一課》,語言是一個民族的驕傲,也是我們人類的創造力源泉。如果離開了語言,我們將沒有文學、藝術,詩歌和音樂,也沒有進行任何思考的工具。但是,現在ChatGPT用這種粗暴的統計手段,將語言變成了符號的排列組合問題,那么人作為一種主體,尊嚴何在?一個重要的問題是,ChatGPT所生成的那些文字,是否跟人類產生的文字有本質的區別呢?如果有區別,發現并找出這種區別,是有關人類生存尊嚴的重要問題。

      第三個思考是關于經濟和金融領域。今天是一個經濟和金融的論壇,我想和大家討論在公司創業過程中“利”和“義”的關系問題。Open AI這家公司自稱是一個非盈利機構,公司的目標是實現通用的人工智能以便造福人類社會。當然,他們這樣說,不見得會這樣做。這里我想到,在2019年我去參加一個人工智能大會NeurIPS的時候,大會請了一個美國開公司的女性CEO做報告,這個CEO明確的說,我們公司不追求利潤,也不追求上市,我們的目標是為了在全人類實現公平。這是一張她解釋平等和公平區別的圖,平等是給每一個人一個小板凳,而公平是給那些矮的人兩個小板凳,而對那些高的人就不要給他小板凳了。

      以上話題涉及到經濟和金融政策,也涉及到價值判斷,這些領域我都不是專家,因此我很想聽一下大家的見解,和大家一起共同學習進步。

      關鍵詞:

      熱門推薦

      欧美夫妻性生活网,免费一区二区三区久久,免费人成激情视频在线观看冫,欧美成人性色xxxx视频
    • <bdo id="0wauq"></bdo>
    • <tfoot id="0wauq"></tfoot>
      • <s id="0wauq"></s>
      • <sup id="0wauq"></sup>
      • <sup id="0wauq"></sup>
        主站蜘蛛池模板: 国产国语一级毛片| 成人av电影网站| 国产成人在线观看免费网站| 国产成人免费高清激情视频| 亚洲人成激情在线播放| 91精品国产高清| 波多洁野衣一二区三区| 天天干天天天天| 亚洲综合伊人久久大杳蕉| bestialityvideo另类骆驼| 狼群影院www| 大学生情侣酒店疯狂做| 人体内射精一区二区三区| JIZZJIZZ亚洲日本少妇| 波多野结衣一区二区三区在线观看 | 黑白禁区高清免费观看全集电视剧| 欧美俄罗斯乱妇| 奇米影视888欧美在线观看| 伊人久久大香线蕉亚洲| 久久久久亚洲AV无码专区桃色| 韩国伦理电影年轻的妈妈| 日本在线观看成人小视频| 国产一级做a爱免费视频| 中文亚洲欧美日韩无线码| 福利聚合app绿巨人入口| 在线播放第一页| 亚洲午夜一区二区电影院| 91秦先生在线| 无码av中文一区二区三区桃花岛 | 精品久久久久久国产| 天天躁天天狠天天透| 午夜无码国产理论在线| www亚洲视频| 欧美蜜桃臀在线观看一区| 国产精品99久久免费| 久久精品aⅴ无码中文字字幕重口| 蜜桃av无码免费看永久| 最新中文字幕在线播放| 国产中文在线视频| 一本到在线观看视频| 欧美片免费观看网址|