6月28日,在火山引擎主辦、英偉達合作舉辦的“V-Tech體驗創(chuàng)新科技峰會”上,火山引擎發(fā)布大模型服務平臺“火山方舟”,面向企業(yè)提供模型精調(diào)、評測、推理等全方位的平臺服務(MaaS,即Model-as-a-Service)。目前,“火山方舟”集成了百川智能、出門問問、復旦大學MOSS、IDEA研究院、瀾舟科技、MiniMax、智譜AI(以拼音首字母排序)等多家AI科技公司及科研院所的大模型,并已啟動邀測。
(資料圖)
“企業(yè)使用大模型,首先要解決安全與信任問題”,火山引擎總裁譚待表示,“火山方舟”實現(xiàn)了大模型安全互信計算,為企業(yè)客戶確保數(shù)據(jù)資產(chǎn)安全。基于“火山方舟”獨特的多模型架構,企業(yè)可同步試用多個大模型,選用更適合自身業(yè)務需要的模型組合。
首創(chuàng)安全互信計算
與小模型“自產(chǎn)自用”不同的是,大模型的生產(chǎn)門檻很高,數(shù)據(jù)安全成為大模型時代的新命題。譚待認為,企業(yè)使用大模型,最擔心的是數(shù)據(jù)泄露;如果將大模型私有化部署,企業(yè)將承擔更高的成本,模型生產(chǎn)方也會擔心知識資產(chǎn)安全。“火山方舟”的首要任務,就是做好大模型使用者、提供者和云平臺可以互相信任的安全保障。
火山引擎智能算法負責人吳迪介紹“安全互信計算”據(jù)火山引擎智能算法負責人吳迪介紹,“火山方舟”已上線了基于安全沙箱的大模型安全互信計算方案,利用計算隔離、存儲隔離、網(wǎng)絡隔離、流量審計等方式,實現(xiàn)了模型的機密性、完整性和可用性保證,適用于對訓練和推理延時要求較低的客戶。
吳迪表示,“火山方舟”還在探索基于NVIDIA新一代硬件支持的可信計算環(huán)境、基于聯(lián)邦學習的數(shù)據(jù)資產(chǎn)分離等多種方式的安全互信計算方案,更全面地滿足大模型在不同業(yè)務場景的數(shù)據(jù)安全要求。
會上,NVIDIA開發(fā)與技術部亞太區(qū)總經(jīng)理李曦鵬表示,NVIDIA與火山引擎過往合作成果豐碩,包括共同合作的 GPU推理庫 ByteTransformer在 IEEE國際并行和分布式處理大會(IPDPS2023)上獲得最佳論文獎,雙方還聯(lián)合開源了高性能圖像處理加速庫 CV-CUDA,并在大規(guī)模穩(wěn)定訓練、多模型混合部署等方面的技術合作上取得成效。
未來 NVIDIA和火山引擎團隊將繼續(xù)深化合作,包含在 NVIDIA Hopper架構進行適配與優(yōu)化、機密計算、重點模型合作優(yōu)化、共同為重點客戶提供支持,以及 NeMo Framework適配等,攜手助力大模型產(chǎn)業(yè)繁榮。
降低大模型使用成本
中國科學技術信息研究所等機構發(fā)布的《中國人工智能大模型地圖研究報告》顯示,截至今年5月,國內(nèi)已公開披露的大模型數(shù)量達到79個。
大模型密集涌現(xiàn),企業(yè)面臨“選擇困難”。在吳迪看來,技術發(fā)展日新月異,國內(nèi)大模型正在快速迭代,不同大模型在特定任務上各有千秋,企業(yè)不必急于綁定一家大模型,而是應該結(jié)合自身業(yè)務場景,綜合評估使用效果和成本,在不同場景選用更具性價比的模型。
吳迪稱,訓練大模型很昂貴,但是從長期來看,模型的推理開銷會超過訓練開銷。效果和成本的矛盾永遠存在,降低推理成本會是大模型應用落地的重要因素,“一個經(jīng)過良好精調(diào)的中小規(guī)格模型,在特定工作上的表現(xiàn)可能不亞于通用的、巨大的基座模型,而推理成本可以降低到原來的十分之一。”
資料顯示,微軟以醫(yī)學文章數(shù)據(jù)精調(diào)了生物領域的BioGPT-Large模型,僅有15億參數(shù),其在 PubMedQA基準測試中的準確率卻優(yōu)于有著上千億乃至數(shù)千億參數(shù)的大型通用語言模型。
“火山方舟”提供了豐富的模型精調(diào)和評測支持。吳迪介紹,企業(yè)可以用統(tǒng)一的工作流對接多家大模型,對于復雜需求可設置高級參數(shù)、驗證集、測試集等功能,再通過自動化和人工評估直觀對比模型精調(diào)效果,在不同業(yè)務場景里還可靈活切換不同的模型,實現(xiàn)最具性價比的模型組合。這些自定義指標和評估數(shù)據(jù)的積累,將成為企業(yè)在大模型時代寶貴的數(shù)據(jù)資產(chǎn)。
據(jù)吳迪透露,抖音集團內(nèi)部已有十多個業(yè)務團隊試用“火山方舟”,在代碼糾錯等研發(fā)提效場景,文本分類、總結(jié)摘要等知識管理場景,以及數(shù)據(jù)標注、歸因分析等方面探索,利用大模型能力促進降本增效。這些內(nèi)部實踐在快速打磨“火山方舟”,推動平臺能力的進一步完善。
“火山方舟”的首批邀測企業(yè),還包括金融、汽車、消費等眾多行業(yè)的客戶。北京銀行CIO龔偉華表示,大模型與客戶營銷、辦公協(xié)同、數(shù)據(jù)智能的結(jié)合,在金融應用場景有巨大潛力。北京銀行將與“火山方舟”合作,在算力優(yōu)化、模型精調(diào)等方面展開研究,共同推動金融風控、營銷等模型應用落地。
助力大模型“跑完最后一公里”
集成多個大模型,供客戶直接對比,“火山方舟”的多模型架構不僅為企業(yè)提供了豐富選擇,也得到眾多大模型生產(chǎn)方的積極響應。
ChatGLM是智譜AI推出的千億基座認知模型,其開源版本在大模型開源領域極具影響力,近期智譜AI還對ChatGLM做了新升級,大幅提升了模型能力。在“火山方舟”上,智譜AI提供具有競爭力的大模型,火山引擎提供高性價比資源、針對不同行業(yè)的精調(diào)能力及綜合解決方案,共建安全可靠的第三方MaaS服務,合力推動各行業(yè)的智能化發(fā)展。據(jù)智譜AI CEO張鵬介紹,智譜AI在火山引擎平臺上解決了千億模型訓練的穩(wěn)定性、性能優(yōu)化等挑戰(zhàn)。
baichuan-7B發(fā)布后在MMLU、C-Eval等中英文權威榜單中均表現(xiàn)優(yōu)異。百川智能聯(lián)合創(chuàng)始人焦可表示,作為一款授權后可免費商用的開源大模型,開發(fā)者們可以通過baichuan-7B低成本部署模型,并根據(jù)自身需求靈活拓展模型能力,而本次與“火山方舟”的合作也將有效降低企業(yè)用戶的大模型接入門檻和使用成本,幫助更多企業(yè)輕松獲取專業(yè)服務。
MiniMax等大模型企業(yè)代表也亮相參加“火山方舟”的發(fā)布儀式。此前,MiniMax聯(lián)合創(chuàng)始人楊斌公開分享了與火山引擎的合作成果:MiniMax在火山引擎上實現(xiàn)了從月至周級別的大模型迭代速度,和指數(shù)級的用戶交互增長,“或許是國內(nèi)第一家在公有云上實現(xiàn)數(shù)千卡并行訓練的公司”。MiniMax還自研了超大規(guī)模的推理平臺,穩(wěn)定支撐著每天上億次的大模型推理調(diào)用。MiniMax的文本、語音、視覺三個模態(tài)大模型登陸“火山方舟”,是雙方合作的進一步深化。
科研機構同樣是推動大模型技術發(fā)展的重要力量,復旦大學自然語言處理實驗室開發(fā)的MOSS大模型、IDEA研究院開發(fā)的姜子牙系列大模型,均是該領域的代表作。IDEA研究院認知計算與自然語言研究中心講席科學家張家興表示,大模型生產(chǎn)方會不斷提升基礎模型能力,為大模型應用完成90%-99%的工作,“火山方舟”為代表的云平臺要幫助客戶為不同場景精調(diào)模型,“跑完最后一公里”。張家興認為,“在技術驅(qū)動和需求拉動的作用下,大模型的世界必然百花齊放”。
譚待判斷,企業(yè)使用大模型,未來可能會呈現(xiàn)“1+N”的模式:“1”是通過自研或深度合作,形成1個主力模型;由于成本和場景復雜多元等原因,在這個主力模型之外,還會有N個模型同時應用。
“每一次技術的大變革,都會帶來體驗創(chuàng)新的新機會”,譚待坦言,“火山方舟”還在起步階段,工具鏈和下游應用插件需要持續(xù)完善。平臺還將接入更多大模型,并逐步擴大邀測范圍,與企業(yè)客戶共建開放合作的多模型生態(tài),加速大模型在各行各業(yè)的應用落地。
關鍵詞:
關于我們 廣告服務 手機版 投訴文章:435 226 40@qq.com
Copyright (C) 1999-2020 www.w4vfr.cn 愛好者日報網(wǎng) 版權所有 聯(lián)系網(wǎng)站:435 226 40@qq.com