编辑
2025-12-10
Brief News
00

单词学习:![[c4ebb875-79ff-4686-ac29-80bc843a5291.mp3]]

新闻播报:![[7f9021ae-502c-4122-9fd1-6279e833cf04.mp3]]

阿里千问月活破3000万,发力C端推AI PPT等新功能

简报:

  • 阿里巴巴宣布旗下大模型应用“千问”自公测23天后,月活跃用户数已突破3000万。
  • 官方同步向所有用户开放四项新功能:AI PPT、AI写作、AI文库和AI讲题。
  • 为加速C端业务发展,阿里已组建“千问C端事业群”,由集团副总裁吴嘉负责,并整合了夸克、UC浏览器等业务。
  • 该事业群的目标是将千问打造为AI时代的超级App,并计划将服务拓展至眼镜、PC、汽车等多种终端。

相关链接:

编辑
2025-12-09
Brief News
00

单词学习:![[607f9a83-eace-46e2-9ad6-78347e3940f2.mp3]]

新闻播报:![[1ff3e1f9-432f-4688-9e04-095335fa69fc.mp3]]

MIT新技术让大模型按需“思考”,计算量减半

简报:

  • 麻省理工学院(MIT)研究团队发布名为“实例自适应缩放”的新技术,旨在根据问题复杂性动态调整大型语言模型(LLM)的计算资源。
  • 该方法通过重新设计推理过程奖励模型(PRMs),使模型在处理简单问题时使用更少资源,处理复杂问题时获得更多推理支持。
  • 研究显示,新技术可将计算资源使用量减少一半,同时保持与现有模型相当的回答准确率。
  • 该研究得到了 MIT-IBM 沃森人工智能实验室、MIT-Amazon 科学中心及 MIT-Google 计算创新项目等的支持。

相关链接:

编辑
2025-12-08
Brief News
00

单词学习:![[c2f8083b-dd72-4a36-8d12-76500dd49f36.mp3]]

新闻播报:![[aceacda4-6104-4327-b699-f9dcca81adec.mp3]]

小模型大胜利:英伟达凭合成数据与低成本策略击败GPT-5 Pro

简报:

  • 英伟达的4B小模型NVARC在ARC-AGI 2公开榜上以27.64%的成绩登顶,击败了得分18.3%的GPT-5 Pro。
  • 该模型完成单任务的成本仅为20美分,约为GPT-5 Pro(超过7美元)成本的1/36。
  • NVARC的获胜策略是零预训练深度学习方法,通过离线生成大规模高质量的合成数据来训练基于Qwen3-4B的小模型。
  • 关键技术为“测试时微调”(TTFT),即在评估阶段针对每个新问题都使用LoRA技术进行快速微调,以适应新规则。

相关链接:

编辑
2025-12-08
Brief News
00

单词学习:![[f58a2e59-fab7-4f2b-8735-1c3a4473b117.mp3]]

新闻播报:![[04b69126-8b68-4241-9425-5cc92007b934.mp3]]

腾讯发布混元2.0大模型,采用MoE架构并支持256K长上下文

简报:

  • 腾讯正式发布自研大模型混元2.0(Tencent HY2.0),该模型采用混合专家(MoE)架构,总参数量达406B,并支持256K超长上下文窗口。
  • 新模型在数学、科学、代码等复杂推理场景及长文多轮能力上表现提升,综合能力位居国内第一梯队。
  • 混元2.0模型已在元宝、ima等腾讯AI原生应用中上线,腾讯云也同步开放了其API及平台服务。

相关链接:

编辑
2025-12-06
Brief News
00

单词学习:![[eecd6528-c401-41a5-af73-bd6b3fa98960.mp3]]

新闻播报:![[2513ff4d-ae3d-4cd1-96e8-5b1525fd2182.mp3]]

腾讯发布406B参数混元2.0大模型,号称国内推理能力第一梯队

简报:

  • 腾讯于12月5日正式发布自研AI大模型混元2.0(Tencent HY 2.0),包含HY 2.0 Think和HY 2.0 Instruct两个模型。
  • 该模型采用混合专家(MoE)架构,总参数量达406B,激活参数为32B,并支持256K上下文窗口。
  • 官方宣称,混元2.0在数学、科学、代码、指令遵循等复杂推理场景的综合表现“稳居国内第一梯队”。
  • 模型引入了长度惩罚策略以避免生成冗余内容,提升单位token的智能密度和计算效率。
  • 混元2.0未来计划将相关技术和模型开源,目前已在腾讯元宝、ima等应用中接入,并通过腾讯云提供API服务。

相关链接: