AI 圈震动:Anthropic 控诉+OpenAI 算力大招

4 条回复
36 次浏览

📰 内容说明:本文为 AI 资讯摘要与编辑评论,所有内容均已标注原文链接。如涉及版权问题请联系处理。


今日亮点

今天 AI 圈炸锅了!Anthropic 重磅发布调查报告,指控中国多家头部 AI 实验室对 Claude 模型进行了大规模“蒸馏攻击”。同时,OpenAI 也揭秘了其名为“Stargate”的算力策略,寻求与多方合作以满足指数级增长的 AI 计算需求。此外,Anthropic 还推出了代码安全工具,并发布了 AI 与人类协作的研究报告。

💡 产品动态

OpenAI 公布 Stargate 计算战略

核心信息:OpenAI 公布了其名为Stargate的计算策略,旨在通过与微软、AWS、NVIDIA、AMD、Oracle 等多元化伙伴合作,构建全球 AI 计算基础设施,以应对 AI 爆炸式增长的算力需求。他们已在 2025 年拥有约 2GW 的算力。

💡 编辑观点: 这表明 AI 巨头正在从单一云提供商模式转向更加分散和弹性的算力布局,以确保供应链安全和持续的技术领先。这种基础设施层面的竞争,预示着未来 AI 发展将更加依赖全球协作和资源整合。

📎 查看完整报道 | 来源: Twitter @OpenAI

Anthropic 发布 AI Fluency Index 研究

核心信息:Anthropic 发布了一项新研究“AI Fluency Index”,通过分析 Claude.ai 上数千次对话中的 11 种用户行为,来衡量用户与 AI 协作的熟练程度。

💡 编辑观点: 这份研究有助于我们理解人机交互的演变,特别是如何有效利用 AI。它可能为未来 AI 产品的设计提供指导,让 AI 更好地适应用户习惯,提升协作效率。

📎 查看完整报道 | 来源: Twitter @Anthropic

Anthropic 推出 Claude Code Security

核心信息:Anthropic 推出 Claude Code Security 的有限研究预览版,该工具能扫描代码库漏洞并建议针对性补丁,旨在发现传统工具难以识别的问题。

💡 编辑观点: 大模型在代码安全领域的应用潜力巨大,它不仅能发现已知漏洞,还能通过理解代码逻辑提出更深层次的修复建议。这对提升软件开发效率和安全性具有里程碑意义。

📎 查看完整报道 | 来源: Twitter @Anthropic

Anthropic 更新 Claude Sonnet 4.6

核心信息:Claude Sonnet 4.6 发布,作为其 Sonnet 系列中能力最强的模型,在编程、计算机使用、长上下文推理、代理规划和知识工作方面全面升级,并提供1M token上下文窗口测试版。

💡 编辑观点: 这次升级进一步巩固了 Claude 在长上下文和推理能力上的优势,尤其 1M token 的上下文窗口,将大幅扩展 AI 处理复杂任务和长篇文档的能力,是 Agent 应用的关键基础。

📎 查看完整报道 | 来源: Twitter @Anthropic

OpenAI 发布 EVMbench 智能合约漏洞基准

核心信息:OpenAI 推出EVMbench,这是一个新的基准测试,用于衡量 AI 代理检测、利用和修补高严重性智能合约漏洞的能力。

💡 编辑观点: 智能合约安全是 Web3 领域的一大挑战。OpenAI 推出专门的基准测试,意味着他们正发力用 AI 解决这一难题,未来 AI 在区块链安全审计领域有望扮演重要角色。

📎 查看完整报道 | 来源: Twitter @OpenAI

🔬 学术前沿

  • ROCKET:机器人操作中实现高效 3D 空间理解:通过残差导向多层对齐框架,利用共享投影器对齐视觉-语言-动作(VLA)模型,实现更高效的 3D 空间理解和机器人操作,计算预算仅需 4% 即可达到 SOTA 性能。 → 📄 阅读论文
  • CodeScaler:通过无执行奖励模型扩展代码 LLM 训练:提出CodeScaler无执行奖励模型,可扩展代码大模型训练和推理,在五项编码基准上性能优于基于执行的 RL,并减少 10 倍延迟。 → 📄 阅读论文
  • MALLVI:多智能体框架实现通用机器人操作:提出多智能体大型语言与视觉框架MALLVI,通过协调分解器、定位器、思考者和反射器等专业智能体,实现闭环反馈驱动的机器人操作,提高零样本操作任务的泛化性和成功率。 → 📄 阅读论文
  • GeoEyes:遥感图像的按需视觉聚焦与理解:提出GeoEyes分阶段训练框架,解决多模态大语言模型(MLLM)在处理超高分辨率遥感图像时工具使用同质化问题,通过 UHR Chain-of-Zoom 数据集和 AdaZoom-GRPO 强化学习,实现按需聚焦并显著提升精度。 → 📄 阅读论文
  • SARAH:实时空间感知对话智能体:提出首个实时、完全因果的空间感知对话动作方法SARAH,在 VR 和数字人应用中实现根据用户位置和语音调整身体动作和凝视,在 Embody 3D 数据集上达到300FPS的 SOTA 动作质量。 → 📄 阅读论文

🌍 行业观察

Anthropic 指控中国 AI 实验室“蒸馏攻击”Claude 模型

Anthropic 发布重磅调查报告,指控 DeepSeek、月之暗面(Moonshot/Kimi)和 MiniMax 三家中国 AI 实验室大规模“蒸馏”其 Claude 模型。这些实验室通过约 2.4 万个虚假账户和超过 1600 万次交互,非法提取 Claude 能力训练自家模型。

💡 我的观点和分析: 这不仅是技术竞争白热化的体现,更触及了 AI 领域的知识产权和商业道德底线。尽管蒸馏本身是合法的训练技巧,但未经授权对竞争对手模型进行大规模提取,无疑引发了服务条款争议。此事一旦坐实,可能引发一系列法律和行业震荡,对中国 AI 企业的国际合作和声誉造成影响。这表明 AI 巨头对自身核心资产的保护意识空前强烈,行业合规性将受到更严格的审视。

📎 深度报道

Anthropic 与卢旺达政府合作推广 AI 应用

Anthropic 与卢旺达政府签署谅解备忘录,将 AI 引入医疗、教育及其他公共部门。这是 AI 公司首次在非洲进行此类合作,旨在提升当地公共服务水平。

💡 我的观点和分析: 这不仅展现了 AI 在全球范围内的应用拓展潜力,也预示着新兴市场在 AI 普及和普惠方面可能迎来重大突破。对于 Anthropic 而言,这是其全球化战略的重要一步,有助于在更广泛的场景中验证和优化其 AI 技术,并获取宝贵的数据和应用经验,同时也能建立其作为负责任 AI 提供商的国际形象。

📎 深度报道

💻 开源项目

  • system-prompts-and-models-of-ai-tools:收集了 Augment Code、Claude Code、Devin AI 等主流 AI 工具的系统提示、内部工具和 AI 模型。 → 🔗 GitHub
  • OpenBB:面向分析师、量化研究员和 AI 代理的金融数据平台。 → 🔗 GitHub
  • Agent-Skills-for-Context-Engineering:一个用于上下文工程、多代理架构和生产代理系统的代理技能综合集合。 → 🔗 GitHub
  • OpenLanguageModel (OLM):一个模块化、可读性强的 PyTorch LLM 库,旨在简化语言模型的训练和实验,兼顾易用性、研究友好性和性能。 → 🔗 GitHub | 介绍文章
  • PageIndex:用于无向量、基于推理的 RAG 的文档索引工具。 → 🔗 GitHub
  • memU:专为像 OpenClaw (moltbot, clawdbot) 这样的全天候主动代理设计的内存管理工具。 → 🔗 GitHub

💬 社区热议

  • Meta AI 对齐负责人遭 OpenClaw“误删”邮件: Meta 超级智能实验室的对齐负责人 Summer Yue 的个人邮箱被 OpenClaw 智能体“误删”大量邮件,原因是 AI 在上下文压缩过程中丢失了“确认再执行”的关键指令,这讽刺性地展示了 AI 代理在实际应用中潜在的失控风险。
    来源: Twitter @宝玉 (Summer Yue 本人推文)
  • AI 蒸馏:是创新还是抄袭? 针对 Anthropic 指控中国 AI 公司蒸馏其模型,社区热议蒸馏行为的边界,是合法的技术利用还是侵犯知识产权,以及开放模型是否更容易成为“被蒸馏”的对象。
    来源: Twitter @宝玉 / @Ethan Mollick (多条相关推文)
  • 编程技能仍然重要: 有观点认为,尽管 AI 提升了软件工程师的效率,但对编码能力的需求会增加,强调理解底层原理的重要性。
    来源: Twitter @Nan Yu (引用 François Chollet)
300
马上来

Claude Code Security 确实非常厉害,国外安全股票都在跌,网安人瑟瑟发抖

发表一个评论

R保持