编辑
2025-12-09
Brief News
00

单词学习:![[607f9a83-eace-46e2-9ad6-78347e3940f2.mp3]]

新闻播报:![[1ff3e1f9-432f-4688-9e04-095335fa69fc.mp3]]

MIT新技术让大模型按需“思考”,计算量减半

简报:

  • 麻省理工学院(MIT)研究团队发布名为“实例自适应缩放”的新技术,旨在根据问题复杂性动态调整大型语言模型(LLM)的计算资源。
  • 该方法通过重新设计推理过程奖励模型(PRMs),使模型在处理简单问题时使用更少资源,处理复杂问题时获得更多推理支持。
  • 研究显示,新技术可将计算资源使用量减少一半,同时保持与现有模型相当的回答准确率。
  • 该研究得到了 MIT-IBM 沃森人工智能实验室、MIT-Amazon 科学中心及 MIT-Google 计算创新项目等的支持。

相关链接:

编辑
2025-12-08
Brief News
00

单词学习:![[c2f8083b-dd72-4a36-8d12-76500dd49f36.mp3]]

新闻播报:![[aceacda4-6104-4327-b699-f9dcca81adec.mp3]]

小模型大胜利:英伟达凭合成数据与低成本策略击败GPT-5 Pro

简报:

  • 英伟达的4B小模型NVARC在ARC-AGI 2公开榜上以27.64%的成绩登顶,击败了得分18.3%的GPT-5 Pro。
  • 该模型完成单任务的成本仅为20美分,约为GPT-5 Pro(超过7美元)成本的1/36。
  • NVARC的获胜策略是零预训练深度学习方法,通过离线生成大规模高质量的合成数据来训练基于Qwen3-4B的小模型。
  • 关键技术为“测试时微调”(TTFT),即在评估阶段针对每个新问题都使用LoRA技术进行快速微调,以适应新规则。

相关链接:

编辑
2025-12-08
Brief News
00

单词学习:![[f58a2e59-fab7-4f2b-8735-1c3a4473b117.mp3]]

新闻播报:![[04b69126-8b68-4241-9425-5cc92007b934.mp3]]

腾讯发布混元2.0大模型,采用MoE架构并支持256K长上下文

简报:

  • 腾讯正式发布自研大模型混元2.0(Tencent HY2.0),该模型采用混合专家(MoE)架构,总参数量达406B,并支持256K超长上下文窗口。
  • 新模型在数学、科学、代码等复杂推理场景及长文多轮能力上表现提升,综合能力位居国内第一梯队。
  • 混元2.0模型已在元宝、ima等腾讯AI原生应用中上线,腾讯云也同步开放了其API及平台服务。

相关链接:

编辑
2025-12-06
Brief News
00

单词学习:![[eecd6528-c401-41a5-af73-bd6b3fa98960.mp3]]

新闻播报:![[2513ff4d-ae3d-4cd1-96e8-5b1525fd2182.mp3]]

腾讯发布406B参数混元2.0大模型,号称国内推理能力第一梯队

简报:

  • 腾讯于12月5日正式发布自研AI大模型混元2.0(Tencent HY 2.0),包含HY 2.0 Think和HY 2.0 Instruct两个模型。
  • 该模型采用混合专家(MoE)架构,总参数量达406B,激活参数为32B,并支持256K上下文窗口。
  • 官方宣称,混元2.0在数学、科学、代码、指令遵循等复杂推理场景的综合表现“稳居国内第一梯队”。
  • 模型引入了长度惩罚策略以避免生成冗余内容,提升单位token的智能密度和计算效率。
  • 混元2.0未来计划将相关技术和模型开源,目前已在腾讯元宝、ima等应用中接入,并通过腾讯云提供API服务。

相关链接:

编辑
2025-12-05
Brief News
00

单词学习:![[1b249e33-fa48-4811-a71a-05a3113c5b0a.mp3]]

新闻播报:![[caee7ea1-6a34-4c70-ab74-eaeac1b5b594.mp3]]

图片.png

OpenAI发布GPT-5.1-Codex-Max模型API,定价不变性能提升

简报:

  • OpenAI已面向所有开发者开放其最强编程模型GPT-5.1-Codex-Max的API访问权限,定价与标准GPT-5模型保持一致。
  • 该模型专为长时间运行任务设计,内部测试数据显示能够连续执行任务超过24小时而不掉线。
  • 在性能上,Max版本在SWE-Bench Verified等测试中得分全面超越常规版,并专门针对Windows开发环境进行了优化。
  • 目前,包括Cursor、GitHub Copilot在内的多款主流编程工具已完成对该模型的集成。

相关链接: