欧美a√在线免费观看,久久久91精品国产一区72,欧美日韩旡码中文字幕,久久97精品久久久久久久不卡

  • <legend id="sy47f"></legend>

        <sub id="sy47f"></sub>
        <legend id="sy47f"><u id="sy47f"><thead id="sy47f"></thead></u></legend>
        <sup id="sy47f"><strike id="sy47f"></strike></sup>
        每日經濟新聞
        要聞

        每經網首頁 > 要聞 > 正文

        推理成本高制約大模型規(guī)?;瘧茫看髲S們的大模型價格“卷起來了”

        每日經濟新聞 2024-05-21 16:59:08

        ◎劉偉光認為,不管是開源模型還是商業(yè)化模型,公共云+API將成為企業(yè)使用大模型的主流方式,主要有三點原因。

        每經記者|葉曉丹    每經編輯|梁梟    

        今日(5月21日),阿里云方面宣布,通義千問GPT-4級主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當于5本《新華字典》的文字量。這款模型最高支持1000萬tokens長文本輸入,降價后約為GPT-4價格的1/400。

        而近期火山引擎官網更新了豆包大模型的定價詳情,全面展示豆包通用模型不同版本、不同規(guī)格的價格信息。火山引擎方面表示,豆包大模型為客戶提供了靈活、經濟的付費模式,“后付費”即可滿足絕大多數企業(yè)客戶的業(yè)務需求,助力企業(yè)以極低成本使用大模型、加速大模型的應用落地。

        2024年是大模型應用落地各行業(yè)的關鍵之年。業(yè)界普遍認為,隨著大模型性能逐漸提升,AI應用創(chuàng)新正進入密集探索期,但推理成本過高依然是制約大模型規(guī)模化應用的關鍵因素。降低大模型推理價格成了大廠們的競爭焦點,低成本應用大模型的價格戰(zhàn)在大廠之間悄然升溫。

        推理成本高制約大模型規(guī)?;瘧?/h2>

        2024年2月底,英偉達發(fā)布了2024財年第四季度財報,業(yè)績再次超出預期。據英偉達電話會議披露,公司全年數據中心里已經有40%的收入來自推理業(yè)務,超出大部分人的預期。

        訓練AI模型的芯片需求一舉推升英偉達成為“芯片新王”,而AI推理芯片則成為下一個芯片企業(yè)競爭的核心領域。業(yè)界普遍認為,隨著大模型性能逐漸提升,AI應用創(chuàng)新正進入密集探索期,但推理成本過高依然是制約大模型規(guī)?;瘧玫年P鍵因素。

        據新浪科技報道,5月21日,創(chuàng)新工場董事長兼首席執(zhí)行官李開復表示,在一定程度上,整個行業(yè)每年大幅降低推理成本,這是可以期待的,而且是必然也應該發(fā)生的。

        大模型廠商價格戰(zhàn)升溫

        近一個月,國內云廠商掀起了新一輪大模型降價潮。

        5月11日,智譜AI大模型開放平臺上線了新的價格體系,新注冊用戶獲得額度從500萬tokens提升至2500萬tokens,并且個人版GLM-3Turbo模型產品的調用價格從5元/百萬tokens降低至1元/百萬tokens。

        5月15日,火山引擎宣布,豆包Pro 32k模型定價是0.0008元/千tokens,這個價格比行業(yè)降低了99.3%。此外,豆包Pro 128k模型定價是0.005元/千tokens。

        5月21日,阿里云宣布,通義千問GPT-4級主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當于5本《新華字典》的文字量。這款模型最高支持1000萬tokens長文本輸入,降價后約為GPT-4價格的1/400。

        5月21日,阿里云智能集團資深副總裁、公共云事業(yè)部總裁劉偉光表示:“作為中國第一大云計算公司,阿里云這次大幅降低大模型推理價格,就是希望加速AI應用的爆發(fā)。我們預計未來大模型API的調用量會有成千上萬倍的增長。”

        劉偉光認為,不管是開源模型還是商業(yè)化模型,公共云+API將成為企業(yè)使用大模型的主流方式,主要有三點原因:一是公共云的技術紅利和規(guī)模效應,帶來成本和性能優(yōu)勢;二是云上更方便進行多模型調用,并提供企業(yè)級的數據安全保障;三是云廠商天然的開放性,能為開發(fā)者提供最豐富的模型和工具鏈。

        如需轉載請與《每日經濟新聞》報社聯系。
        未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

        讀者熱線:4008890008

        特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

        今日(5月21日),阿里云方面宣布,通義千問GPT-4級主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當于5本《新華字典》的文字量。這款模型最高支持1000萬tokens長文本輸入,降價后約為GPT-4價格的1/400。 而近期火山引擎官網更新了豆包大模型的定價詳情,全面展示豆包通用模型不同版本、不同規(guī)格的價格信息。火山引擎方面表示,豆包大模型為客戶提供了靈活、經濟的付費模式,“后付費”即可滿足絕大多數企業(yè)客戶的業(yè)務需求,助力企業(yè)以極低成本使用大模型、加速大模型的應用落地。 2024年是大模型應用落地各行業(yè)的關鍵之年。業(yè)界普遍認為,隨著大模型性能逐漸提升,AI應用創(chuàng)新正進入密集探索期,但推理成本過高依然是制約大模型規(guī)?;瘧玫年P鍵因素。降低大模型推理價格成了大廠們的競爭焦點,低成本應用大模型的價格戰(zhàn)在大廠之間悄然升溫。 推理成本高制約大模型規(guī)?;瘧? 2024年2月底,英偉達發(fā)布了2024財年第四季度財報,業(yè)績再次超出預期。據英偉達電話會議披露,公司全年數據中心里已經有40%的收入來自推理業(yè)務,超出大部分人的預期。 訓練AI模型的芯片需求一舉推升英偉達成為“芯片新王”,而AI推理芯片則成為下一個芯片企業(yè)競爭的核心領域。業(yè)界普遍認為,隨著大模型性能逐漸提升,AI應用創(chuàng)新正進入密集探索期,但推理成本過高依然是制約大模型規(guī)模化應用的關鍵因素。 據新浪科技報道,5月21日,創(chuàng)新工場董事長兼首席執(zhí)行官李開復表示,在一定程度上,整個行業(yè)每年大幅降低推理成本,這是可以期待的,而且是必然也應該發(fā)生的。 大模型廠商價格戰(zhàn)升溫 近一個月,國內云廠商掀起了新一輪大模型降價潮。 5月11日,智譜AI大模型開放平臺上線了新的價格體系,新注冊用戶獲得額度從500萬tokens提升至2500萬tokens,并且個人版GLM-3Turbo模型產品的調用價格從5元/百萬tokens降低至1元/百萬tokens。 5月15日,火山引擎宣布,豆包Pro 32k模型定價是0.0008元/千tokens,這個價格比行業(yè)降低了99.3%。此外,豆包Pro 128k模型定價是0.005元/千tokens。 5月21日,阿里云宣布,通義千問GPT-4級主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當于5本《新華字典》的文字量。這款模型最高支持1000萬tokens長文本輸入,降價后約為GPT-4價格的1/400。 5月21日,阿里云智能集團資深副總裁、公共云事業(yè)部總裁劉偉光表示:“作為中國第一大云計算公司,阿里云這次大幅降低大模型推理價格,就是希望加速AI應用的爆發(fā)。我們預計未來大模型API的調用量會有成千上萬倍的增長?!? 劉偉光認為,不管是開源模型還是商業(yè)化模型,公共云+API將成為企業(yè)使用大模型的主流方式,主要有三點原因:一是公共云的技術紅利和規(guī)模效應,帶來成本和性能優(yōu)勢;二是云上更方便進行多模型調用,并提供企業(yè)級的數據安全保障;三是云廠商天然的開放性,能為開發(fā)者提供最豐富的模型和工具鏈。
        大模型

        歡迎關注每日經濟新聞APP

        每經經濟新聞官方APP

        0

        0