“超級有用”的AI,被百度做成了

2024-11-13 09:33:53 來(lái)源: 觀(guān)察者網(wǎng)

  大模型,怎么才叫成了?

  11月12日的2024百度世界大會(huì )上,李彥宏拋出這樣一個(gè)問(wèn)題。

  “沒(méi)有應用,基礎模型不值一提”,是李彥宏一貫的觀(guān)點(diǎn)。在他看來(lái),應用落地是衡量大模型的最佳標準,當一個(gè)大模型的API日均調用量達到20億,就可以說(shuō)它成了。

  而今年9月以來(lái),百度文心大模型的日均API調用量出現爆發(fā)式增長(cháng),已達到15億水平,短短半年增長(cháng)7.5倍。

  如此看來(lái),百度大模型真的快成了。

  百度在A(yíng)I大模型落地應用上的領(lǐng)先地位,也得到第三方數據支持。

  IDC報告顯示,2024年上半年,百度智能云以32.4%的市場(chǎng)份額,位居中國MaaS市場(chǎng)第一。與此同時(shí),2024年上半年中國AI大模型解決方案市場(chǎng),百度智能云營(yíng)收占比達17.0%,位居市場(chǎng)第一。

  談到大模型,外界往往有種誤解,認為基礎大模型、GPU硬件的研發(fā)才是硬科技,做應用只是跟隨;但深入到技術(shù)層面就會(huì )發(fā)現,想要實(shí)現大模型的落地應用,挑戰并不比大模型本身更小。

  “快成了”的百度大模型,做對了什么?

  “大模型已基本解決幻覺(jué)問(wèn)題”

  當兩年前ChatGPT-3橫空出世,盡管其能力已經(jīng)足夠讓人驚艷,但“一本正經(jīng)地胡說(shuō)八道”仍然時(shí)有出現。

  這種現象被稱(chēng)為“幻覺(jué)”,如果不能把“幻覺(jué)”概率降到足夠低,大模型就無(wú)法真正從一個(gè)好用的工具變成真正的智能伙伴。

  為了解決幻覺(jué)問(wèn)題,百度憑借搜索引擎的技術(shù)積累,較早引入了檢索增強機制。即通過(guò)搜索互聯(lián)網(wǎng)上已有的人類(lèi)知識,來(lái)幫助大模型給出更準確的回答。

  如今,檢索增強在文本生成領(lǐng)域的應用已經(jīng)較為成熟,而百度又將精力投向了文生圖。

  從下圖可以看出,普通AI大模型生成的物體(左側)相比于現實(shí)物體(右側),往往還會(huì )存在明顯幻覺(jué),將天壇的三層結構變成了四層。

  為此,百度開(kāi)發(fā)了檢索增強的文生圖技術(shù)iRAG(image based RAG),將百度搜索的億級圖片資源跟強大的基礎模型能力相結合,可以生成各種超真實(shí)的圖片,“整體效果遠遠超過(guò)文生圖原生系統,去除了機器味兒”。

  李彥宏現場(chǎng)展示了一幅由文心大模型生成的大眾攬巡汽車(chē)飛躍長(cháng)城的圖片。通過(guò)文心iRAG技術(shù),無(wú)論是這款特定型號汽車(chē)的車(chē)型車(chē)標、還是作為背景的長(cháng)城,均未出現錯誤或變形的幻覺(jué)問(wèn)題。同時(shí)展示的“愛(ài)因斯坦環(huán)游世界”圖片中,愛(ài)因斯坦和各個(gè)背景景點(diǎn)的結合也與真實(shí)世界高度相似,質(zhì)感接近照片。

  李彥宏指出:“過(guò)去24個(gè)月,AI行業(yè)的最大變化是什么?是大模型基本消除了幻覺(jué)。”

  解決幻覺(jué)問(wèn)題以后,AI大模型終于可以快速走向智能體,迎接AI原生應用的大爆發(fā)。

  例如百度文庫和百度網(wǎng)盤(pán)聯(lián)合打造的工具類(lèi)智能體“自由畫(huà)布”,讓用戶(hù)可以在一塊類(lèi)似“畫(huà)布”的界面上自由拖拽文檔、音視頻等富媒體素材,迅速生成多模態(tài)內容。

  更讓人驚艷的,是李彥宏提前劇透的無(wú)代碼編程工具“秒噠”,由大模型直接生成代碼,不需要人寫(xiě)一行代碼。

  “一個(gè)人通過(guò)自然語(yǔ)言交互,就可以完成一套系統的搭建,”李彥宏指出,這意味著(zhù)每個(gè)人自己就能指揮多個(gè)智能體來(lái)協(xié)同完成任務(wù),“只要有想法,你就可以心想事成,我們將迎來(lái)一個(gè)前所未有的,只靠想法就能賺錢(qián)的時(shí)代。”

  AI算力的另一場(chǎng)硬實(shí)力競爭

  AI幻覺(jué)的大幅降低,不僅讓百度自身的AI應用快速進(jìn)化,也能夠讓更多行業(yè)放心用上大模型。不過(guò)對于行業(yè)落地而言,便宜好用的算力同AI能力本身一樣重要。

  因此在談應用之前,我們不妨先談?wù)劵A設施。

  得算力者得天下,是大模型時(shí)代的共識。

  這樣的共識讓GPU企業(yè)一飛沖天,也讓單卡算力成為市場(chǎng)追逐的熱點(diǎn)。不過(guò)人們往往忽視了,整個(gè)算力集群的實(shí)際性能,并不簡(jiǎn)單等于單卡算力之和。

  如果說(shuō)CPU 是一個(gè)很復雜的大腦,GPU就是數量巨大的機械臂組合。GPU內的每一個(gè)計算核心所做的工作都很簡(jiǎn)單,但真正的難度在于如何同時(shí)指揮這么多“機械臂”。

  正如戰場(chǎng)上需要及時(shí)把指令傳達給每一個(gè)士兵,GPU核心之間的通信效率才是發(fā)揮性能的關(guān)鍵。

  單個(gè)GPU內的通信已經(jīng)會(huì )延緩計算速度,而在萬(wàn)卡集群之中,GPU之間的通信效率還會(huì )有數量級的下降,如果說(shuō)機內通信帶寬是50的話(huà),機間可能就只有2或3。

  顯卡加速一直都是GPU應用中不容忽視的部分,如果做不好加速,萬(wàn)卡集群的利用率甚至可能低至10%,90%的算力都被白白浪費。

  英偉達70%的人力都用于軟件開(kāi)發(fā),人們說(shuō),英偉達真正的壁壘是基于 CUDA的龐大加速庫。

  因此,除了單卡算力之外,集群效率也是中美之間圍繞算力的另一場(chǎng)硬實(shí)力競爭。

  在這場(chǎng)競爭中,百度已經(jīng)用百舸4.0平臺給出了萬(wàn)卡規模上的優(yōu)異答卷。

  百度集團執行副總裁沈抖在不久前的云智大會(huì )上曾表示,百舸4.0預置了主流的大模型訓練工具,能夠實(shí)現工具層面的秒級部署,并將萬(wàn)卡集群運行準備時(shí)間從幾周縮減至1小時(shí),極大地提升部署效率,縮短業(yè)務(wù)上線(xiàn)周期。

  穩定性方面,百舸4.0有效訓練時(shí)長(cháng)占比99.5%以上,業(yè)界領(lǐng)先,極大地節約了客戶(hù)算力與時(shí)間成本。此外,通過(guò)在集群設計、任務(wù)調度、并行策略、顯存優(yōu)化等一系列創(chuàng )新,百舸4.0大幅提升了集群的模型訓練效率,整體性能相比業(yè)界平均水平提升高達30%。

  而在美國的算力限制下,中國算力平臺還不得不面臨一個(gè)特殊難題——需要使用不同規格的顯卡搭建異構集群,進(jìn)行多芯混訓

  為此,百舸將不同地點(diǎn)、不同規模的異構算力進(jìn)行統一管理,構建起多芯資源池。當業(yè)務(wù)提交工作負載時(shí),可自動(dòng)進(jìn)行芯片選型,依據集群剩余的芯片資源,選擇性?xún)r(jià)比最高的芯片來(lái)運行任務(wù),從而最大化地利用集群的剩余資源。最終,可實(shí)現高達95%的萬(wàn)卡多芯混合訓練效能。

  做好國產(chǎn)大模型的基礎設施

  憑借高效的百舸AI異構算力平臺,百度不僅持續升級自己的文心大模型,也在為更多中國AI企業(yè)提供服務(wù)。

  教育無(wú)疑是AI應用最有意義的領(lǐng)域,但是對AI的準確率也提出了更高要求,這就需要深耕教育領(lǐng)域的企業(yè)基于垂直數據來(lái)訓練模型。

  對于好未來(lái)這樣的企業(yè)來(lái)說(shuō),自己去購買(mǎi)顯卡搭建算力集群的投入是難以承受的,而百度百舸為好未來(lái)自研“九章大模型(MathGPT)”早期高效低成本“跑起來(lái)”提供了關(guān)鍵支撐作用。

  基于百度百舸平臺,好未來(lái)可以快速、方便的創(chuàng )建出千卡級別的訓推任務(wù)集群。算力方面,集群最大可支撐 16000 GPU卡的規模;存儲方面,適用于大規模深度學(xué)習訓練場(chǎng)景,可提供亞毫秒級(300us)的時(shí)延,支持百萬(wàn)級 IOPS,服務(wù)可用性不低于99.95%。

  百舸還提供了強大的加速能力,LLaMA2系列、GLM系列等多尺寸模型都實(shí)現了訓練指標的最佳實(shí)踐,千卡任務(wù)加速比保持在90%,訓練吞吐與大模型訓練理論值相當。

  百度自身利用百舸訓練文心大模型的成熟經(jīng)驗,也能夠幫助其它大模型企業(yè)快速訓練。

  成立于2023年3月的生數科技,僅僅一年后就發(fā)布了被稱(chēng)為“國產(chǎn)Sora”的視頻生成大模型Vidu。

  在影響用戶(hù)體驗的推理速度層面,Vidu實(shí)現了業(yè)界最快的實(shí)測推理速度,生成一段4秒片段只需30秒。而市面上的主流 AI視頻工具在生成4秒左右的視頻片段時(shí),用戶(hù)通常需要等待1到5分鐘,甚至更長(cháng)。

  傳統行業(yè)的生產(chǎn)力飛升

  在大模型落地層面,直接由大模型催生的AI原生應用看上去酷炫,但是不要忽視了,AI對千行百業(yè)傳統生產(chǎn)流程的改造可能會(huì )創(chuàng )造更大價(jià)值。

  李彥宏曾舉例說(shuō),“Microsoft 365 Copilot 一年營(yíng)收 50 億美元,比 OpenAI 全年的收入都大很多倍。僅就對現有產(chǎn)品的改造而言,就已經(jīng)創(chuàng )造出來(lái)這么多新的價(jià)值。”

  因此在李彥宏看來(lái),“百度不是要推出一個(gè)‘超級應用’,而是要不斷地幫助更多人、更多企業(yè)打造出數百萬(wàn)‘超級有用’的應用。”

  在中國,典型的AI應用場(chǎng)景是智能客服,但是傳統的智能客服普遍需要人工提前準備好現成的FAQ,對用戶(hù)問(wèn)題的理解能力也非常有限。而在大模型的加持下,智能客服對自然語(yǔ)言的理解能力出現了質(zhì)的飛躍,無(wú)論是應用范圍還是部署成本都明顯改善,是大模型對于現有產(chǎn)品改造的絕佳案例。

  百勝中國是國內最大的餐飲公司,其基于文心大模型打造的AI智能客服系統,已經(jīng)在為旗下包括肯德基在內的多個(gè)品牌提供服務(wù)。

  目前,AI客服每天能夠為百勝中國處理超過(guò)15萬(wàn)次客服溝通任務(wù),問(wèn)題解決率高達90%;輔助人工客服快速總結溝通歷史,整理歸納訴求,提供建議回復話(huà)術(shù)、一鍵發(fā)送等功能,提升客服員工產(chǎn)能效率10%。

  杭州全診醫學(xué)基于千帆平臺和文心大模型打造了AI醫療助理應用,則能夠在導診、預診、診間、入院、手術(shù)、隨訪(fǎng)等全階段服務(wù)醫生患者。以輔助醫生撰寫(xiě)病歷為例,全診醫學(xué)通過(guò)使用20萬(wàn)份精標病歷數據對大模型進(jìn)行了精調,使AI醫療助理的醫學(xué)用語(yǔ)更準確、更規范,大幅提升病歷內容質(zhì)量。病歷生成的準確度提升了45%,醫生的接診量提高了20%,造福更多病患。

  大模型的應用不僅限于自然語(yǔ)言理解,也能夠深入改造傳統企業(yè)的生產(chǎn)環(huán)節。

  在能源電力行業(yè),國家電網(wǎng)正在圍繞文心大模型、千帆平臺,結合電力行業(yè)高質(zhì)量數據,聯(lián)合百度共創(chuàng )電力行業(yè)大模型基礎底座,并在調度、設備、營(yíng)銷(xiāo)等六大專(zhuān)業(yè)領(lǐng)域深入探索。目前,已經(jīng)在電力設備運檢、供電服務(wù)等電力行業(yè)核心場(chǎng)景成功完成應用落地。

  得益于在全棧AI技術(shù)、產(chǎn)品創(chuàng )新和產(chǎn)業(yè)落地方面的持續投入,百度智能云擁有中國最廣最深的大模型產(chǎn)業(yè)落地規模,超60%的央企正在使用百度智能云進(jìn)行AI創(chuàng )新。百度智能云千帆大模型平臺已經(jīng)幫助客戶(hù)精調了3.3萬(wàn)個(gè)模型、開(kāi)發(fā)了77萬(wàn)個(gè)企業(yè)應用、文心大模型日均調用量超過(guò)15億次。

  這就是李彥宏說(shuō)出“應用來(lái)了”的底氣:“我是軟件工程師出身,國外有一種說(shuō)法叫‘軟件吞噬世界’。但我認為,這個(gè)世界不應該被吞噬,而應該被創(chuàng )造。AI時(shí)代,應用創(chuàng )造世界。所以請大家和我一起見(jiàn)證,AI applications creating the world。”

關(guān)注同花順財經(jīng)(ths518),獲取更多機會(huì )

0

+1
  • 黑芝麻
  • 歐菲光
  • 君正集團
  • 晶方科技
  • 有研新材
  • 英洛華
  • 供銷(xiāo)大集
  • 天汽模
  • 代碼|股票名稱(chēng) 最新 漲跌幅