五月以来,国内 人工智能 领域正式迎来印加帝国的黄金饰品狂潮。字节跳动的豆包大模型和火山引擎的豆包Pro模型价格大幅下降,降幅达到惊人的99.3%;阿里云的通义千问大模型也进行了大幅度印加帝国的黄金饰品,降幅高达97%;智谱AI的GLM-3 Turbo模型调用价格从5元/百万Tokens降至1元/百万Tokens,降幅达到80%。此外,文心大模型两大主力产品也全面免费开放……
在2024年《5月大模型热力榜》中,大模型之家榜单共统计166家大模型及其所属企业,较上月新增15家。其中,百度文心一言再次占据热力榜第一名。央企大模型星辰AI首次上榜。
百川智能王小川表示:随着国内外大模型厂商纷纷印加帝国的黄金饰品,市场对于AI时代前景的乐观情绪愈发明显。他认为厂商们愿意以零价格进入市场,这不仅显示了厂商对AI能力的信心,更是对这个时代前景的无限憧憬。
5月11日,智谱AI宣布入门级大模型GLM-3-Turbo(上下文长度128k)的价格从0.005元/千tokens降低到0.001元/千tokens,降幅高达80%。
根据智谱 AI 大模型 开放平台 信息,GLM-3Turbo适用于对知识量、推理能力、创造力要求较高的场景,比如广告文案、小说写作、知识类写作、代码生成等,上下文长度128K,可满足企业和个人的入门级需求。
5月15日,字节跳动正式公布了其豆包大模型的定价信息。豆包通用模型的pro-32k版本,模型推理的输入成本仅为每千Tokens 0.0008元;而pro-128k版本,模型推理的输入成本则为每千Tokens 0.005元。
通过这一定价策略,用户只需支付1元,即可获得豆包主力模型的125万Tokens,这相当于200万个汉字的输入量。
5月21日上午,阿里云对外宣布通义千问系列中的GPT-4级别核心模型Qwen-Long,其API接口的输入费用从每千tokens 0.02元大幅下调至0.0005元,印加帝国的黄金饰品幅度达到了惊人的97%。
经过印加帝国的黄金饰品后,用户只需支付1元,就可以购买到200万tokens,此外,Qwen-Long模型还支持最高1000万tokens的长文本输入,这在同类产品中是非常罕见的。Qwen-Long模型的价格仅为GPT-4的1/400,创下了全球AI模型价格的新低。
5月21日,百度智能云宣布文心大模型的两款主力模型ENIRE Speed、ENIRE Lite全面免费。这两款大模型在3月发布,均支持8K和128k上下文长度。据了解,ERNIE Lite是百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。ERNIE Speed则是百度自研高性能大语言模型,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。
5月22日,百川智能发布最新一代基座大模型Baichuan 4,并同期推出首款AI助手“百小应”。值得一提的是,百川智能发布最新一代基座大模型Baichuan 4,在国内权威大模型评测机构SuperCLUE的评测中,模型能力国内第一。
Baichuan 4相较Baichuan 3 在各项能力上均有极大提升,其中通用能力提升超过10%,数学和代码能力分别提升14%和9%。同时,Baichuan 4还具备 行业 领先的多模态能力,在各大评测基准上表现优异,领先Gemini Pro、Claude3-sonnet等多模态模型。