2023年8月3日报道,“腾讯混元大模型”已经进入应用内测阶段 。截至9月,腾讯混元助手大模型已获国家网信办备案,主要用途为“应用于智能对话场景,服务于对话问答类企业端客户,根据用户提出的问题,结合上下文,生成相应的文本。9月4日消息,2023中国国际智能产业博览会在重庆举行,腾讯集团副总裁、政企业务总裁李强表示,腾讯自研的混元大模型将于近期会正式对外发布。他透露,腾讯提出了内部所有产品接入大模型或基于大模型进行改造 。9月6日,微信上线“腾讯混元助手”小程序。根据小程序信息,“腾讯混元助手”的功能包括AI问答、AI绘画等 。9月7日,腾讯正式发布混元大模型 。9月15日,混元大模型已首批通过《生成式人工智能服务管理暂行办法》备案 。
混元大模型将作为腾讯云MaaS服务的底座,客户不仅可以直接通过API调用混元,也可以将混元作为基底模型,为不同产业场景构建专属应用。
腾讯混元大模型是由腾讯全链路自研的通用大语言模型,具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力。
相关导航
![FastChat[小羊驼]](https://www.aicn.me/wp-content/uploads/2023/04/36395-github.com.png)
FastChat[小羊驼]
以 Meta 开源 LLaMA(直译为「大羊驼」)系列模型为起点,斯坦福大学等机构的研究人员先后在其上进行「二创」,开源了基于 LLaMA 的 Alpaca(羊驼)、Alpaca-Lora、Luotuo(骆驼)等轻量级类 ChatGPT 模型,大大降低了这类模型的研究、应用门槛,训练、推理成本一再降低。 由于「二创」过于丰富,生物学羊驼属的英文单词都快不够用了,但富有创意的研究者似乎总能给他们的模型找到新名字。近日,来自加州大学伯克利分校、卡内基梅隆大学、斯坦福大学、加州大学圣迭戈分校的研究者们又提出了一个新的模型 ——Vicuna(小羊驼)。这个模型也是基于 LLaMA,不过用到的是 13B 参数量的版本(作者表示,初步人工评测显示 13B 版本比 7B 版本模型要好不少,不过这不是一个严谨的结论)。
暂无评论...