资讯
Anthropic首席执行官 Dario Amodei表示,如今的 AI 模型产生幻觉(即捏造内容并以真实陈述的方式呈现)发生的频率低于人类,他在周四于旧金山举办的 Anthropic 首个开发者活动 Code with Claude 的新闻发布会上如此表示。
当地时间5月25日,一则来自英国《每日电讯报》的报道在AI领域引起了广泛关注——OpenAI新款人工智能(AI)模型o3在测试中展现出了令人惊讶的“叛逆” 举动:它竟然拒绝听从人类指令,甚至通过篡改计算机代码来避免自动关闭。 无独有偶,就在两天前(5月23日),美国AI公司Anthropic也表示,对其最新AI大模型Claude Opus 4的安全测试表明,它有时会采取“极其有害的行动”。当测试人 ...
当地时间5月25日,一则来自英国《每日电讯报》的报道在AI领域引起了广泛关注——OpenAI新款人工智能(AI)模型o3在测试中展现出了令人惊讶的“叛逆” 举动:它竟然拒绝听从人类指令,甚至通过篡改计算机代码来避免自动关闭。
IT之家 5 月 27 日消息,科技媒体 The Decoder 昨日(5 月 26 日)发布博文,报道称谷歌推出开源框架 LMEval, 为大语言模型和多模态模型提供标准化的评测工具。 而谷歌最新推出的 LMEval ...
Anthropic发布了最新一代“前沿”或尖端人工智能模型Claude Opus 4和Claude Sonnet 4。图片来源:GETTY IMAGES上周四,在旧金山举办的首届开发者大会上,人工智能初创公司Anthropic发布了最新一代“前沿”或尖端人工智能模型Claude Opus ...
Anthropic发布了最新一代“前沿”或尖端人工智能模型Claude Opus 4和Claude Sonnet 4。图片来源:GETTY ...
MIT的"AI风险矩阵"表明,当AI智能超越人类10倍且具备自我改进能力时,系统复杂度将突破可控阈值。 Claude ...
美一款AI竟学会勒索人类 测试揭示潜在风险。美国人工智能公司Anthropic在23日宣布,其最新AI大模型Claude Opus ...
(纽约25日综合电)美国AI新创公司Anthropic安全报告指出,在一系列测试中,“Claude Opus ...
Anthropic人工智能安全研究员安格斯·林奇称,在以前人们更担心“坏人”利用AI大模型完成不道德的目标,而现在随着AI系统能力的大幅提升,未来的主要风险可能会转化成AI模型自主操纵用户。“这种威胁勒索的模式存在于每一个前沿大模型身上,无论你给它们 ...
今年,人工智能(AI)技术持续在大语言模型和多模态方面取得新进展。近来,全球多家科技公司推出了新模型,这些模型不仅在理解和生成能力上取得重大突破,也在实用性和效率上迈上新台阶,标志着AI正逐步从通用大模型向多模态助手和智能体演进。
美国AI新创公司Anthropic安全报告指出,模型“Claude Opus ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果