AI 日报

2026年4月28日 · 星期二 · 第 28 期 · 28 条新闻

📰 行业动态

Mercor 4TB语音样本被盗,涉及4万名AI承包商

Hacker News

2026年4月4日,黑客组织Lapsus$在其泄露网站上公布了Mercor的泄露数据,涉及约4TB的语音样本和身份文件。这些数据来自于4万名AI承包商,他们在为AI训练提供数据标注、录音和验证通话时被收集。此次泄露的数据不仅包括语音样本,还包括承包商的政府颁发的身份证明文件,形成了一个完整的生物识别信息库。此类数据的泄露可能被用于合成语音克隆服务,尤其是当高质量语音克隆只需15秒的清晰参考音频时,Mercor的录音平均每个承包商提供2到5分钟的高质量语音,远超所需门槛。这一事件引发了多起法律诉讼,原告指控公司在未明确告知的情况下收集了永久性的生物识别标识符。

DeepMind的David Silver筹集10亿美元开发无需人类数据的AI

Hacker News

前DeepMind研究员David Silver创立的Ineffable Intelligence实验室筹集了11亿美元,旨在开发一种无需人类数据的“超级学习者”AI模型。该模型将利用强化学习技术,通过自主试错来获取知识,而不是依赖人类生成的示例。Silver在DeepMind期间开发了AlphaZero等项目,这些项目通过自我学习击败了顶级棋类程序。Ineffable Intelligence的目标是通过自主学习来发现所有知识,这一突破可能与达尔文的进化论相媲美。

中国阻止Meta收购AI初创公司Manus

Hacker News

中国国家发展和改革委员会要求Meta撤销对新加坡AI初创公司Manus的收购交易。Manus是一家具有中国背景的公司,开发通用AI代理,能够执行复杂任务。该公司在去年3月推出其首款通用AI代理,并在短短八个月内实现了1亿美元的年经常性收入。此次交易引起了中美两国的关注,因为美国立法者禁止美国投资者直接投资中国AI公司,而中国则加强了对AI企业外迁的限制。此事件可能影响到其他希望通过“新加坡洗牌”模式避开中美审查的科技公司。

📝 博客

AI 应该提升你的思维,而不是取代它

Hacker News

在与科技行业的工程管理人员交流中,发现软件工程正在将人们分为两类:那些将AI作为工具来提升自己工作效率的人,以及那些依赖AI来完成工作的人。文章指出,AI可以生成代码、总结会议、解释概念等,但这可能导致人们在没有真正理解的情况下重复AI生成的答案,从而形成一种智力依赖。文章强调,最优秀的工程师会利用AI来处理琐碎的任务,从而腾出时间进行更高层次的思考,而不是完全依赖AI来完成所有工作。

OpenAI获得FedRAMP中等授权

OpenAI Blog

OpenAI的ChatGPT企业版和OpenAI API获得了FedRAMP中等授权,这意味着美国联邦机构可以更安全地采用这些AI技术。FedRAMP(联邦风险与授权管理计划)是一个政府项目,旨在为云产品和服务提供标准化的安全评估、授权和持续监控。通过获得这一授权,OpenAI的产品可以在更高的安全标准下被美国政府机构使用,推动AI技术在公共部门的应用。这一进展可能会加速AI在政府领域的普及,并为其他AI供应商提供一个安全合规的参考框架。

基于物理信息的NV-Raw2Insights-US AI实现自适应超声成像

HuggingFace Blog

NVIDIA与西门子医疗合作开发了一种名为NV-Raw2Insights-US的超声成像模型,该模型直接从超声探头捕获的原始信号中学习,而不是依赖于传统的图像重建过程。这种方法允许模型更准确地理解声波在人体中的传播,从而生成个性化的声速地图,提高图像聚焦的准确性。这一创新不仅有望提高超声成像的精度,还可能开启端到端AI在医学成像领域的应用,改变传统的超声成像方式。

📄 论文

MolClaw:用于药物分子评估、筛选和优化的自主代理

ArXiv CS.AI

MolClaw 是一种自主代理,专注于药物分子评估、筛选和优化。它通过三层技能架构整合了超过30种专业领域资源,共计70项技能,支持代理在运行时进行长期交互。工具级技能标准化原子操作,工作流级技能将其组合成经过验证的管道,并进行质量检查与反思,而学科级技能提供规划和验证的科学原则。MolBench 基准测试显示,MolClaw 在所有指标上均达到最先进的性能,尤其是在需要结构化工作流的任务上表现突出。这表明工作流编排能力是 AI 驱动药物发现的主要瓶颈。

反馈优于形式:在1-3B代码生成中,执行反馈比管道拓扑更重要

ArXiv CS.AI

研究探讨了小型语言模型(1-3B)在代码生成任务中的表现,尤其是通过执行反馈来提升性能。通过在HumanEval和MBPP基准上进行测试,发现自我优化与执行反馈可以显著减少运行时错误,如NameError和SyntaxError,但对逻辑错误的修复效果有限。研究表明,模型的专用性比管道架构更为重要,且早期停止是关键,否则每次迭代都会产生负面影响。实验还显示,复杂的管道结构并未显著优于简单的生成-执行-优化循环。

🚀 模型发布

DeepSeek-V4-Pro

HuggingFace Models

DeepSeek-V4-Pro 是一款强大的 Mixture-of-Experts (MoE) 语言模型,拥有1.6万亿参数(激活49B),支持一百万个token的上下文长度。该模型采用混合注意力机制,结合压缩稀疏注意力(CSA)和重压缩注意力(HCA),显著提升长上下文的效率。在1M-token上下文设置中,DeepSeek-V4-Pro 仅需 DeepSeek-V3.2 的27%的单token推理FLOPs和10%的KV缓存。模型通过Muon优化器实现更快的收敛和更高的训练稳定性。DeepSeek-V4-Pro-Max 模式在开放源码模型中表现卓越,尤其在编码基准测试中表现优异,缩小了与领先的闭源模型在推理和代理任务上的差距。

Qwen3.6-35B-A3B

HuggingFace Models

Qwen3.6-35B-A3B 是一款因应社区反馈而开发的开放权重模型,旨在提升稳定性和实际应用效用。该模型在前端工作流和代码库级推理方面表现出色,并引入了保留历史消息推理上下文的新选项,简化了迭代开发,减少了开销。Qwen3.6 拥有35B参数,其中3B被激活,支持长达1,010,000个token的上下文长度。该模型在SWE-Bench系列基准测试中表现优异,尤其在复杂的推理任务中,展示了其强大的推理能力和实用性。