亚洲在线日韩伦理片,96精品国产AⅤ一区二区,青鸟影视网,yy黄色频道,国内精品久久久精品AV电影院

NPCon2023 AI 模型技術與應用峰會首站在北京成功舉辦

CSDN
2023-08-14 15:31 4502

北京2023年(nian)8月14日 /美通社/ -- 上世紀的(de)"廣告教(jiao)父"大衛·奧格威在世時(shi)一(yi)直(zhi)營(ying)銷著一(yi)個(ge)概念:"在現代商業世界,如果你不能將所創造的(de)東(dong)西賣出去,只(zhi)成為一(yi)個(ge)富有創意(yi)的(de)思想家是毫無用處的(de)。" 

回顧(gu)歷史上的每一次變遷,從(cong)學(xue)術(shu)(shu)創(chuang)意到(dao)切(qie)實(shi)部署的軌跡勾(gou)勒(le)出進步(bu)的藍圖,有如(ru)從(cong)概念到(dao)商(shang)業化的過程。隨著 GPT 等大模型(xing)技術(shu)(shu)的高速(su)成長和普及(ji),模型(xing)的開源(yuan)資源(yuan)、部署訓(xun)練架(jia)構、算力成本(ben)成為大模型(xing)應用落地和企業盈虧(kui) ROI 的關鍵分水(shui)嶺(ling),重(zhong)要性不低于模型(xing)精(jing)度。

繼今年 3 月的首屆 NPCon 大會探討了 ChatGPT 對技術社區的影響之后,8 月 12 日,CSDN、《新程序員》聯合主辦的"新程序員大會(NPCon):AI 模型技術與應用峰會" 于北京(jing)格蘭云天大酒(jiu)店再(zai)度揭(jie)幕(mu)。

本次峰會(hui)(hui)主(zhu)題圍(wei)繞(rao)「全(quan)鏈路搭(da)建(jian) AI 研(yan)發底座」展開,是 CSDN 今年推出的"AI 主(zhu)題季"系列活(huo)動(dong)之一。峰會(hui)(hui)活(huo)動(dong)分別會(hui)(hui)在北京、上(shang)海、深(shen)圳、成都四城(cheng)舉行,北京站(zhan)現(xian)場邀(yao)請(qing)到千芯科技董(dong)事長陳巍,Dify.AI 創始人張路宇,美團基(ji)礎(chu)研(yan)發平(ping)臺視覺智能部軟件(jian)開發工程師張旭,浪潮信息人工智能與高性能應用軟件(jian)部 AI 架構師Owen Zhu,CSDN 研(yan)發副(fu)總(zong)監梁灝,圍(wei)繞(rao)算力(li)資(zi)源運(yun)維、模型訓練(lian)部署(shu)、AI 能力(li)構建(jian)等方(fang)面,為不同規模階段的企(qi)業、團隊(dui)、個(ge)人開發者,提(ti)供(gong)如何構建(jian) AI 基(ji)礎(chu)設施、實(shi)現(xian)工程落(luo)地,提(ti)供(gong)全(quan)鏈路的建(jian)議和方(fang)案。

會議現場
會議現場

以下是本次(ci)"AI 模型技(ji)術與應(ying)用峰會"的(de)演(yan)講精華。

部署就是大模型的成敗關鍵

首(shou)先(xian),知乎科(ke)技(ji)領(ling)域答主@陳巍談芯、千芯科(ke)技(ji)董事長、人工(gong)智能算(suan)法-芯片協同設計專家陳巍帶來了(le)分享《大(da)模型(xing)涌現,如何(he)部(bu)署訓(xun)練架構與算(suan)力芯片》。他的核心(xin)觀點(dian)在于強調大(da)模型(xing)訓(xun)練和部(bu)署過程中的技(ji)術優化、隱私保護、成本效(xiao)益(yi)以及未來芯片發展的重要(yao)性。

知乎科技領域答主“陳巍談芯”、千芯科技董事長 陳巍
知乎(hu)科技(ji)領域答主(zhu)“陳巍(wei)(wei)談芯”、千(qian)芯科技(ji)董(dong)事長 陳巍(wei)(wei)

陳巍指出(chu),大(da)模(mo)型的(de)本(ben)質是(shi)對(dui)知識的(de)壓縮(suo)和(he)對(dui)輸入(ru)的(de)反饋,一個常見(jian)大(da)模(mo)型的(de)生存周期分為(wei)模(mo)型的(de)計劃(hua)、高質量數據(ju)的(de)收集、模(mo)型的(de)建模(mo)和(he)部(bu)署三個階段。其中(zhong),部(bu)署是(shi)大(da)模(mo)型成敗和(he)能否盈利的(de)關(guan)鍵。

他認為,在大(da)模(mo)型(xing)訓練和部署中,使(shi)用(yong)并(bing)(bing)行化技術(shu)(如數(shu)據并(bing)(bing)行、模(mo)型(xing)并(bing)(bing)行、張量并(bing)(bing)行)可(ke)以(yi)充分(fen)利用(yong)計(ji)算資(zi)源,提(ti)高效(xiao)率。他強調通(tong)過優(you)化通(tong)信,減少數(shu)據傳輸冗余,可(ke)以(yi)降低計(ji)算芯片之間的通(tong)信成本(ben),從而提(ti)升整體訓練效(xiao)率。

陳(chen)巍關注大(da)模型(xing)(xing)部(bu)(bu)署中(zhong)的(de)隱私(si)問題,特別是(shi)個性化數據和敏感(gan)信息(xi)的(de)保護(hu)。他介紹(shao)了(le)隱私(si)保護(hu)技(ji)術,如將個人數據合并以(yi)降(jiang)低隱私(si)風(feng)險,并限制(zhi)模型(xing)(xing)輸出中(zhong)的(de)敏感(gan)信息(xi)。陳(chen)巍強調,對于涉及(ji)個人隱私(si)和敏感(gan)信息(xi)的(de)部(bu)(bu)署,必須(xu)采取適(shi)當的(de)隱私(si)保護(hu)措施。

此(ci)外,陳巍(wei)提出了不(bu)同(tong)的方法來降(jiang)低大模型訓練(lian)和部署(shu)的成(cheng)本。他介紹了模型訓練(lian)成(cheng)本的評估方法,包(bao)括如何通過數據大小(xiao)和訓練(lian)條件來優化成(cheng)本。他還探討了不(bu)同(tong)算力(li)芯片(pian)(CPU、GPU、DSA、TPU)的應用,以及如何通過合理的策略來降(jiang)低成(cheng)本。

最(zui)后,陳巍強調未(wei)來芯(xin)片的(de)發展可能(neng)(neng)對大模型訓練和部署產生影(ying)響,特(te)別是在(zai)現有 GPU 生態(tai)受(shou)到限制(zhi)的(de)情況下。他認為在(zai)不同的(de)算(suan)力(li)芯(xin)片中,TPU 和 DSA 可能(neng)(neng)逐(zhu)漸代替傳統的(de) GPU 應用。陳巍呼吁(yu)采取合適的(de)技(ji)術(shu)策略(lve)和隱私保護措施,以降低成(cheng)本、提(ti)高效率,并關注未(wei)來芯(xin)片趨勢對于人工(gong)智能(neng)(neng)產業(ye)的(de)影(ying)響。

 Agent 是大模型未來最有想象力、最有前景的方向

"Agent 是 LLM(大語言模型)的(de)(de)最有(you)前景的(de)(de)方(fang)向。一旦技術成熟,短(duan)則幾(ji)個月(yue),長則更久,它可能(neng)就會(hui)創造出超級個體。這(zhe)解釋(shi)了我們(men)為何對開(kai)源模型和 Agent 興奮,即便投產性不高,但是我們(men)能(neng)想象自己(ji)有(you)了 Agent 之后就可以沒日沒夜地(di)以百倍效率做現(xian)在(zai)手上的(de)(de)工作(zuo)。未來(lai)(lai)可能(neng)會(hui)有(you) Agent 網(wang)絡,每家公司甚至(zhi)每個人(ren)都有(you)自己(ji)的(de)(de)Agent,互相(xiang)調用形成網(wang)絡效應,帶(dai)來(lai)(lai)繁榮的(de)(de)生(sheng)態。",Dify.AI 創始人(ren)張路宇在(zai)主題演講中如是說道。

張(zhang)路宇(yu)指出(chu),開(kai)發(fa)者在應用大模(mo)型(xing)時常(chang)常(chang)面臨(lin)向量(liang)數(shu)據庫、Agent編(bian)排等問題,并且許多開(kai)發(fa)者在初期都需要解決相(xiang)似的(de)難題,導致效率低(di)下。盡管有大量(liang)應用和模(mo)型(xing),實際(ji)投(tou)產的(de)應用比例只有 5% 左右。

由此,張路宇強(qiang)調(diao)了自(zi)動(dong)代理(Auto Agent)在推(tui)理模(mo)型、編程范式(shi)和(he)應(ying)用(yong)構建方面(mian)的(de)(de)重(zhong)要(yao)性和(he)挑(tiao)戰。他提出了"規(gui)劃、記(ji)憶(yi)、工(gong)(gong)具(ju)的(de)(de)使用(yong)和(he)總(zong)結與(yu)反思"這四個關(guan)鍵要(yao)素來解(jie)釋自(zi)動(dong)代理的(de)(de)推(tui)理過程。他強(qiang)調(diao)了規(gui)劃過程的(de)(de)重(zhong)要(yao)性,將任(ren)務分解(jie)為多個步驟,并(bing)介紹了長期(qi)記(ji)憶(yi)和(he)短期(qi)記(ji)憶(yi)的(de)(de)概念,探討如何適(shi)時調(diao)用(yong)工(gong)(gong)具(ju)、合理使用(yong)人類輸(shu)入(ru)、進行多輪對話(hua),并(bing)強(qiang)調(diao)推(tui)理性能(neng)、透明(ming)性和(he)成(cheng)本控(kong)制等方面(mian)的(de)(de)挑(tiao)戰。

張路宇(yu)提(ti)到 LangChain 作為(wei)一個學(xue)習(xi)大模(mo)型應用開(kai)發(fa)的教科(ke)書(shu),提(ti)供了(le)抽象概(gai)念和工(gong)具(ju)。但他也(ye)指出了(le) LangChain 的局限性,特(te)別(bie)是在工(gong)具(ju)和集成鍵方面的脆(cui)弱性,以(yi)及不適合非技術人員的參(can)與。他說道:"每個人都要學(xue)習(xi) LangChain,但最終(zhong)都會丟掉它。"

演講中,張路宇引入了 MetaPrompt 的(de)概念,將其描(miao)述為一種結構(gou)化的(de)提(ti)(ti)示方式,可(ke)引導模(mo)型進(jin)行復雜(za)的(de)推(tui)理(li)和行動。他(ta)指(zhi)出(chu),MetaPrompt 是引導大模(mo)型執行任務的(de)關鍵工具,將用戶問題、前期(qi)反思、工具調用和模(mo)式以特定(ding)格式描(miao)述成提(ti)(ti)示。

張路宇認為,面對(dui)大(da)模(mo)(mo)型(xing)(xing)(xing)的(de)開發(fa),傳統的(de)編程(cheng)范(fan)式已(yi)經(jing)不再(zai)適用(yong)(yong)。他提出了一種新(xin)的(de)編程(cheng)范(fan)式,即 "prompt first"。在(zai)大(da)模(mo)(mo)型(xing)(xing)(xing)應(ying)(ying)用(yong)(yong)開發(fa)中(zhong),傳統的(de)需求分析和(he) API 文檔設(she)計可能(neng)不再(zai)適用(yong)(yong)。相(xiang)反,他強(qiang)調在(zai)設(she)計應(ying)(ying)用(yong)(yong)之前應(ying)(ying)先考慮模(mo)(mo)型(xing)(xing)(xing)的(de)輸入提示(prompt),并用(yong)(yong)這種方式引導模(mo)(mo)型(xing)(xing)(xing)執行任(ren)務。

如何高效推理,

仍是大模型時代亟需解決的挑戰

緊接著(zhu),美團基礎(chu)研發(fa)(fa)平臺視(shi)覺智(zhi)能部(bu)(bu)軟件開(kai)發(fa)(fa)工程師張旭在(zai)發(fa)(fa)表《美團視(shi)覺 GPU 推理(li)服務部(bu)(bu)署(shu)架構優(you)化(hua)的實(shi)踐(jian)》主(zhu)題演講中表示,GPU 利用率低的問題正日益凸顯,其(qi)核心癥結在(zai)于模(mo)型(xing)服務存在(zai)性(xing)能瓶頸(jing)。通過拆(chai)分微服務、優(you)化(hua)部(bu)(bu)署(shu)架構以(yi)及綜合考慮多(duo)個優(you)化(hua)層面,將模(mo)型(xing) CPU 和 GPU 運(yun)算部(bu)(bu)分解(jie)耦,能實(shi)現模(mo)型(xing)部(bu)(bu)署(shu)工程的性(xing)能優(you)化(hua),讓服務性(xing)能成倍提升。

隨著技術應(ying)用(yong)在線服務推理資源不斷增加,GPU 推理資源的(de)使用(yong)比(bi)例逐年(nian)上升,但(dan) GPU 的(de)利(li)(li)用(yong)率卻一直在被(bei)浪費(fei)。張旭透(tou)露,業(ye)界的(de)真實 GPU 利(li)(li)用(yong)率哪怕樂觀估計也只有 20% 左右。造成服務 GPU 利(li)(li)用(yong)率低(di)下的(de)重要原(yuan)因(yin)之一是(shi)模型(xing)服務本身存(cun)在性能瓶頸,在極限壓力(li)情況下也無(wu)法充分利(li)(li)用(yong) GPU 資源。

乍一(yi)看,模(mo)型部署十分完(wan)善,事實上,當前(qian)的(de)(de)模(mo)型優化不徹底,部分算子無法優化加(jia)速,多模(mo)型的(de)(de)串聯部署也很(hen)困難。在 GPU 異構計算體系下(xia),模(mo)型中(zhong) CPU 和 GPU 運(yun)算之(zhi)間還存(cun)在相(xiang)互影響(xiang)的(de)(de)問題。張旭指(zhi)出,這種影響(xiang)會導致 CPU 和 GPU 無法同時充分利用,從而降低了推理服務的(de)(de)整體性(xing)能。

為此,張旭提出了解決(jue) CPU/GPU 互相影(ying)響問題(ti)的(de)(de)一(yi)種優化方法,即將模型中(zhong)的(de)(de) CPU 和 GPU 運算部分(fen)分(fen)別拆(chai)分(fen)為獨立的(de)(de)微服(fu)務。他通過實際案例演示,將預處理和后處理部分(fen)獨立到通用 CPU 服(fu)務,主(zhu)干網絡(luo)部分(fen)部署(shu)在 GPU 上,從而實現了更高(gao)的(de)(de) GPU 利用率和整體性能提升。

在(zai)復雜視覺(jue)場(chang)景下,多(duo)模(mo)型(xing)(xing)的(de)組合會(hui)引(yin)發更嚴重的(de) GPU/CPU 影響(xiang)問題。張(zhang)旭通過(guo)實例(li)說明了針對(dui)多(duo)模(mo)型(xing)(xing)組合的(de)場(chang)景,同樣可以采(cai)用(yong) CPU/GPU 拆分(fen)部署(shu)的(de)方式,將(jiang)不(bu)同模(mo)型(xing)(xing)部分(fen)分(fen)別部署(shu),以解決(jue)性能瓶頸問題。他強調不(bu)同優化層面之間的(de)相(xiang)互(hu)影響(xiang)和迭代(dai)優化的(de)重要性,以實現性能的(de)持續提升(sheng)。

算力是驅動大模型創新和進步的基石

在(zai)現(xian)(xian)代人工智能(neng)領(ling)域(yu),算力(li)(li)扮演(yan)著(zhu)推動(dong)創新、實(shi)現(xian)(xian)突破的核心驅動(dong)力(li)(li)。浪潮信(xin)息人工智能(neng)與高性(xing)能(neng)應用(yong)軟件部 AI 架(jia)構師Owen以《AI 大(da)(da)模型算力(li)(li)系統分析(xi)》為(wei)主題(ti),強(qiang)調了(le)算力(li)(li)、算法、數據(ju)和系統架(jia)構等多個方面的綜合優化對于大(da)(da)規模模型訓(xun)練的成功至關重要(yao)。

浪潮信息早在(zai)2020年就開始布局和(he)投入(ru)(ru)AI大模型(xing)(xing)技術的研(yan)發,Owen從"源"大模型(xing)(xing)的研(yan)發歷程切入(ru)(ru),講解了(le)(le)大模型(xing)(xing)研(yan)發過程中(zhong)的數據、算力(li)和(he)算法等各方(fang)面(mian)的挑戰。并指(zhi)出國內(nei)企業在(zai)上半年對算力(li)的需求增加(jia),尤其(qi)在(zai)大型(xing)(xing)模型(xing)(xing)訓(xun)練(lian)方(fang)面(mian)。他(ta)強調(diao)了(le)(le) GPT-3 和(he) GPT-4 等模型(xing)(xing)的重(zhong)要(yao)性(xing),同時提(ti)到了(le)(le)中(zhong)國企業在(zai)這一領域(yu)的競爭和(he)發展前景。強調(diao)了(le)(le)算力(li)投入(ru)(ru)是評估模型(xing)(xing)能力(li)一個重(zhong)要(yao)指(zhi)標。

隨后,Owen探討了大(da)模(mo)(mo)型研發(fa)(fa)過程(cheng)中(zhong)預訓練、微調和模(mo)(mo)型推理(li)等環節的(de)核(he)心(xin)關(guan)鍵因(yin)素和主要(yao)計算(suan)特征(zheng)。并強調,未(wei)來(lai)大(da)模(mo)(mo)型的(de)產(chan)業化發(fa)(fa)展是一套(tao)復(fu)雜的(de)系(xi)統(tong)工程(cheng),構建高效穩定(ding)的(de)算(suan)力平臺(tai)是核(he)心(xin)要(yao)義,成熟的(de)算(suan)法、數(shu)據產(chan)業鏈,配(pei)套(tao)工具鏈及豐富(fu)的(de)生態(tai)鏈是關(guan)鍵因(yin)素,我(wo)們亟需(xu)以(yi)系(xi)統(tong)的(de)方式尋找最優解。

用好工具,人人都是 AI 應用開發者

在閃電演講環節,CSDN 研發副總監梁灝先是介紹了自己的經歷:將開源 iView 從 0 做到 20,000 Star,最大的感受便是好的工具能讓開發更簡單。而他要介紹的 InsCode,正是這樣的平臺。

InsCode 是 CSDN 于 2023 年推出(chu)的(de)一站式應用開發(fa)(fa)工(gong)具和服務平臺。它在瀏覽器(qi)中(zhong)實(shi)現從編碼到部署的(de)完(wan)整過程(cheng)。僅(jin)僅(jin)在四(si)個多(duo)月內,InsCode 就吸引(yin)了(le)超過 5 萬(wan)注冊用戶,其(qi)中(zhong)一半以上為開發(fa)(fa)用戶。累(lei)計創建了(le) 4 萬(wan)多(duo)個項目,其(qi)中(zhong)許(xu)多(duo)項目已經公(gong)開發(fa)(fa)布(bu)或(huo)部署到社區。梁(liang)灝指出(chu),InsCode 徹底改變了(le)傳統(tong)的(de)開發(fa)(fa)流程(cheng),使用戶能夠(gou)在線上完(wan)成應用的(de)開發(fa)(fa)、部署、運(yun)維和運(yun)營,從而使應用開發(fa)(fa)變得更加(jia)簡單(dan)。

梁(liang)灝強調(diao)了 InsCode 在 AI 時代的(de)(de)地(di)位,尤其(qi)是其(qi)面向開(kai)發(fa)者的(de)(de) AI 服務。他提(ti)到,專業程(cheng)序員可以(yi)借助(zhu) InsCode 提(ti)高開(kai)發(fa)效(xiao)率和創造能(neng)力(li),普通程(cheng)序員可以(yi)通過(guo)生成(cheng)式 AI 工(gong)具減輕編碼工(gong)作,而泛開(kai)發(fa)者甚至可以(yi)利用模板和自然(ran)語言提(ti)交(jiao)需求,快速開(kai)發(fa)多樣化的(de)(de)應用。正(zheng)如 CSDN 的(de)(de) Slogan:人人都是開(kai)發(fa)者。

最(zui)后,InsCode 聯(lian)合創新工(gong)場盛大召開(kai) AI 應用編程大賽(sai),目(mu)前活動(dong)已處(chu)于啟動(dong)階(jie)段,歡迎讀(du)者們訪問 inscode.net 進行報名或者參(can)賽(sai),贏(ying)取豐厚獎金。

開談:AI 時代的研發新范式

與開發者能力演進

在本次論壇的《開談》環節,由 CSDN 人工智能技術編輯團隊主持,華為諾亞方舟實驗室技術專家董振華,投研機構 INP(Infra Native Partners)創始人丁寧,CodeGeeX 團隊算法專家沈磊,聆心智能創始人& CTO 鄭叔亮作為嘉賓(bin)的圓桌(zhuo)對(dui)話正式展開。

本次《開談》的主(zhu)題為"AI 時代的研(yan)發新范式與開發者(zhe)能力演進",五位(wei)技(ji)術(shu)專家聚(ju)焦于過去一年內 AI 技(ji)術(shu)和模(mo)(mo)型的快(kuai)速(su)發展(zhan),特別是大模(mo)(mo)型的涌現以(yi)及(ji)與模(mo)(mo)型開發相關的基礎設施和應用技(ji)術(shu)的突破(po),探討大模(mo)(mo)型的未來(lai)走向,未來(lai)編(bian)程語言和開發范式的影響,以(yi)及(ji)如何通過工具提高效率(lv)、學習 AI 知識(shi)和技(ji)能并在競(jing)爭(zheng)激烈的領(ling)域中保持(chi)競(jing)爭(zheng)力。

《開談》:AI時代的研發新范式與開發者能力演進
《開談》:AI時(shi)代的(de)研發新范式與開發者能力演進

"模型團隊應該更關注模型效果,也要努力做具體應用。擴大模型參數量至兩倍所產生的效果,遠高于對其做加倍預訓練所呈現的效果。夯實大模型 L0 層能力、對行業模型進行優化是我們的努力方向。",華為諾亞方舟實驗室技術專家董振華分享道。

董振華是(shi)(shi)研(yan)究(jiu)者(zhe)(zhe),也是(shi)(shi)《新程(cheng)序員》的(de)忠(zhong)實(shi)讀(du)者(zhe)(zhe)。他從研(yan)究(jiu)者(zhe)(zhe)的(de)角度強(qiang)調開(kai)(kai)源在追趕人工智(zhi)能技術方面(mian)的(de)重(zhong)要作用,認為開(kai)(kai)源可以(yi)幫助(zhu)解決人工智(zhi)能技術以(yi)及大模(mo)(mo)型的(de)問題,使其更(geng)(geng)好(hao)地(di)落地(di)和(he)應用。未來,不同規模(mo)(mo)階(jie)段的(de)企業、團隊和(he)開(kai)(kai)發(fa)者(zhe)(zhe)都應該擁抱開(kai)(kai)源,將先(xian)進(jin)的(de)技術借鑒于開(kai)(kai)源社區,從而形成更(geng)(geng)有條理(li)的(de)發(fa)展模(mo)(mo)式,不僅僅是(shi)(shi)商(shang)業公司的(de)行為。

當談及大模型生態的問題時,投研機構 INP(InfraNative Partners)創始人丁寧回答:"大模型(xing)生態(tai)(tai)從(cong)商(shang)(shang)業考(kao)慮,相(xiang)比面向(xiang)具體任務做模型(xing) Finetune,要更(geng)關注其通用能力;與過去模型(xing)參數內僅是特征(zheng)提(ti)取器(qi)不同,現在還包含意識(shi)形態(tai)(tai)、價值觀等(deng)要素給(gei)大模型(xing)生態(tai)(tai)商(shang)(shang)業化帶來更(geng)多不確定性。"

丁寧從不同類型的創業公司角度,分析了商業應用與研究階段的優先級問題。他將創業公司分為幾類,包括做 Foundation Model 的、做 Fine-Tuning 的以及使用平臺集成的。丁寧認為, Foundation Model 階段,重點在于搭建可擴展的算力集群、高性能網絡以及高性能數據存儲基礎設施,設計精巧的逼近實驗以求盡可能高的提高單次模型訓練ROI,力求用最小的成本換取最大的實驗進展。

Fine-Tuning階段,重點在于如何將大語言模型應用于特定領域,并解決訓練和數據管理等基礎設施問題,但更重要的是建立數據的內循環與業務的外循環。如(ru)果不去接觸模(mo)(mo)型訓練,他強調(diao)了(le)應(ying)用工(gong)具和服務的(de)重要(yao)性,如(ru)何將大語言模(mo)(mo)型與(yu)現(xian)有技術(shu)結(jie)合,提(ti)供工(gong)具的(de)同時(shi)也(ye)要(yao)提(ti)供持續的(de)服務,例(li)如(ru)合規(gui)、安全監控、線上業務持續性保障等實(shi)際(ji)應(ying)用價(jia)值。

CodeGeeX 團隊算法專家沈磊則強調(diao)了在使用大模(mo)型方面的(de)(de)(de)實踐(jian)建議和團(tuan)隊協作的(de)(de)(de)重要(yao)性:"我的(de)(de)(de)建議是要(yao)擁抱(bao)新(xin)的(de)(de)(de)工具和功能(neng)。對于(yu)個人開發者或者公司來說,使用輔助工具可(ke)以(yi)顯著提升編程效率,甚(shen)至提高 10% 的(de)(de)(de)效率對于(yu)一(yi)個人來說也(ye)是很可(ke)觀的(de)(de)(de)進步。當我們面對變(bian)化(hua)時,要(yao)勇于(yu)接受并嘗試新(xin)的(de)(de)(de)技能(neng)和工具,這(zhe)將對個人和團(tuan)隊都非(fei)常有幫助。"

沈磊為想要使用大模型的公司或個人給出建議,首先嘗試使用開源的模型和插件。這可以幫助他們在實際場景中試用模型和微調代碼,了解模型效果,從而在做出關于使用什么樣的模型、框架和機器配置的決定時更具有理性和經驗。

在開源領域的話題上,聆心智能創始人& CTO 鄭叔亮闡釋了自己的觀點:"開源模型讓創業者借助大平臺搭建原型、實現核心創新突破并快速交付產品,制造多贏的局面。但初創公司仍需厘清其中存在的安全性和價值觀風險,才能在開源的土壤生根發芽。"

對(dui)于未來可能會(hui)(hui)創(chuang)造的(de)(de)機遇,鄭叔亮(liang)表示(shi):"在(zai)(zai)我(wo)們(men)上學的(de)(de)時候,編(bian)譯原理課程需要花兩個學期來完成一個編(bian)譯器(qi),數據庫課程則要求編(bian)寫一個 DBMS 系統,本(ben)科階段的(de)(de)大(da)作(zuo)業(ye)基本(ben)都是這樣的(de)(de)。這種經歷(li)讓我(wo)們(men)在(zai)(zai)面對(dui)新技術時更(geng)加從容,不會(hui)(hui)對(dui)挑戰、威脅或恐慌(huang)過于擔(dan)憂,而是欣然接受新鮮事物(wu)。簡而言(yan)之,如果我(wo)們(men)不能成為(wei)創(chuang)造浪(lang)潮的(de)(de)人(ren)(ren),至(zhi)少應該成為(wei)在(zai)(zai)浪(lang)潮上跳舞(wu)的(de)(de)人(ren)(ren)。雖然只有少數人(ren)(ren)會(hui)(hui)創(chuang)造這波浪(lang)潮,但(dan)更(geng)多的(de)(de)人(ren)(ren)可以站在(zai)(zai)潮頭,享受其中的(de)(de)樂趣。"

大模型時代的新程序員

NPCon 中的"NP"是"New Programmer"(新程(cheng)序(xu)員(yuan))的縮寫,它承載著兩重含義。首先,它象(xiang)(xiang)征著《新程(cheng)序(xu)員(yuan)》雜志(zhi),這是 CSDN 延續近 20 年的《程(cheng)序(xu)員(yuan)》雜志(zhi)的全新篇章。其次,它象(xiang)(xiang)征著我們(men)站在(zai)人工智能(neng)紀元(yuan)的起點,或(huo)許(xu)將親(qin)歷(li)程(cheng)序(xu)員(yuan)職業范式的巨變(bian),成為新一代的程(cheng)序(xu)員(yuan)。

CSDN 這些年一直在持續關注人工智能技術這一賽道,與其他以 AI 為主題的垂直媒體不同的是,CSDN 擁有近五千萬開發者社區規模的平臺,除了關注科研突破和商業應用外,更著重關心人工智能應用的工程實現。當(dang)前,人工智能技術不(bu)斷刷(shua)新(xin)(xin)能力極限(xian),各(ge)種相關新(xin)(xin)聞層出(chu)不(bu)窮,然而實際情況(kuang)是,我們在(zai)基礎設施、工程實施、成本以及應(ying)用落地方面(mian)依然面(mian)臨著漫長的前行(xing)之路。

不論我(wo)(wo)們(men)是(shi)(shi)創新(xin)的(de)推動者(zhe)(zhe)還是(shi)(shi)變(bian)革(ge)的(de)見證(zheng)者(zhe)(zhe),我(wo)(wo)們(men)都(dou)應(ying)該邁出那一步,踏(ta)上旅程。若"新(xin)程序(xu)員"不能成(cheng)(cheng)為(wei)浪潮(chao)的(de)奠基者(zhe)(zhe),至少應(ying)當成(cheng)(cheng)為(wei)其中的(de)弄(nong)潮(chao)兒。新(xin)程序(xu)員們(men)會懷(huai)揣著創業(ye)的(de)精神,始終保持(chi)持(chi)續學習的(de)狀態。如(ru)此一來(lai),我(wo)(wo)們(men)的(de)努力(li)才會更具深遠(yuan)的(de)意義(yi)。

與此同時,CSDN 也將(jiang)持續更(geng)新 AIGC 和(he)(he)大模型技(ji)術的(de)發展(zhan)動態,為廣大技(ji)術愛好(hao)者提供最(zui)新的(de)技(ji)術資(zi)訊和(he)(he)最(zui)優質的(de)學習資(zi)源與工具,成就更(geng)多(duo)技(ji)術人與開發者,歡迎(ying)關注(zhu)。

消息來源:CSDN
全球TMT
微信公眾號“全球TMT”發布全球互聯網、科技、媒體、通訊企業的經營動態、財報信息、企業并購消息。掃描二維碼,立即訂閱!
collection