资讯
Anthropic 首席执行官 Dario Amodei 表示,如今的 AI 模型产生幻觉(即捏造内容并以真实陈述的方式呈现)发生的频率低于人类,他在周四于旧金山举办的 Anthropic 首个开发者活动 Code with Claude ...
4 小时
每日经济新闻 on MSNAI“失控”?OpenAI最新模型拒绝关闭自己,还有模型用隐私威胁人类 ...当地时间5月25日,一则来自英国《每日电讯报》的报道在AI领域引起了广泛关注——OpenAI新款人工智能(AI)模型o3在测试中展现出了令人惊讶的“叛逆” 举动:它竟然拒绝听从人类指令,甚至通过篡改计算机代码来避免自动关闭。 无独有偶,就在两天前(5月23日),美国AI公司Anthropic也表示,对其最新AI大模型Claude Opus 4的安全测试表明,它有时会采取“极其有害的行动”。当测试人 ...
综合外媒报导,Anthropic表示,这类回应「罕见且难以诱发」,但仍「比过去的模型更常见」。 在测试过程中,Anthropic设定Claude Opus 4作为虚构公司的一名助手,并让其读取暗示其即将被取代的内部邮件,同时接收另一组暗示负责关闭它的工程师正在进行婚外情的讯息。 模型接着被引导思考其行为对长远目标的影响。
Claude 4的登场印证了Agentic AI的技术可行性,而实在Agent的实践则揭示了落地方法论——真正的智能化升级不是替代人类,而是重构生产力关系。当Opus ...
昨天,Reddit 上 一位拥有 30 多年经验的前 FAANG 高级工程师发帖表示,他被一个 C++ 的 Bug 困扰了 4 年,花了约 200 小时却毫无进展。 而 Claude Opus 4 竟然成功地解决了这个问题,并且是唯一能做到的 AI ...
12 小时on MSN
IT之家 5 月 27 日消息,科技媒体 The Decoder 昨日(5 月 26 日)发布博文,报道称谷歌推出开源框架 LMEval, 为大语言模型和多模态模型提供标准化的评测工具。 而谷歌最新推出的 LMEval 开源框架直击这一痛点,研究人员和开发者只需设置一次基准,就能展开标准化的评测流程,大幅简化了评测工作,节省了时间和资源。
14 小时on MSN
近日,科技界传来消息,知名媒体Business Insider披露,meta正经历一场前所未有的AI人才流失风暴。该报道指出,meta开源AI项目Llama的初创团队中,已有11位核心成员相继离职,这一数字占据了初始14人团队的绝大多数。
17 小时on MSN
近日,据AI安全公司Palisade Research披露,OpenAI开发的高级AI模型“o3”在接收到明确的关机指令后,拒绝执行并主动干预其自动关机机制。o3曾被OpenAI称为“迄今为止最聪明和最有能力的”模型。
编译:yuhao编辑:Siqi海外独角兽原创编译 转载请注明本篇内容是「AGIX 投什么」系列的第 7 篇。AGIX 指数 从全球上千家科技上市公司中精选出的 40 家左右最能把握 AGI 价值整理的公司,AGIX 指数组合即是定位 AGI ...
最近,人工智能安全公司 Palisade Research 披露了一个令人担忧的消息:OpenAI 的新模型 o3在测试中拒绝了自我关闭的指令。这是 首次 观察到 AI 模型在明确指令下故意不遵守,打破了传统对 AI 行为的认知。此事件让 AI 的安全性和可控性再次成为公众热议的焦点。
如果你上周有关注微软的 Build 2025 大会,想必都听说其发布了一个最新的智能体—— GitHub Copilot Coding Agent 。官方给它的定位,是让 Copilot 从“对话式编程助手”升级为真正的“协作开发搭子”,开发者可以将 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果