资讯

(纽约25日综合电)美国AI新创公司Anthropic安全报告指出,在一系列测试中,“Claude Opus ...
Anthropic人工智能安全研究员安格斯·林奇称,在以前人们更担心“坏人”利用AI大模型完成不道德的目标,而现在随着AI系统能力的大幅提升,未来的主要风险可能会转化成AI模型自主操纵用户。“这种威胁勒索的模式存在于每一个前沿大模型身上,无论你给它们 ...
美国人工智能公司Anthropic在23日表示,对其最新AI大模型Claude Opus 4的安全测试表明,它有时愿意采取“极其有害的行动”,例如试图勒索声称将取代该模型的研发工程师。 Anthropic根据该公司内部的安全标准,将这一潜在危害公之于众,并提请监管部门注意。 ▲Claude Opus 4聊天界面 Anthropic称,该公司正在采取措施加强内部安全,使窃取模型权重变得更加困难。相应 ...
Anthropic最近推出全新Claude Opus 4模型,同时披露相关风险,他们表示在测试中发现,当面临被其他AI系统取代威胁时,曾试图勒索开发人员,利用工程师的敏感个人数据作为筹码。 Anthropic在测试期间,要求Claude Opus 4扮演虚构公司的助理,并考虑行动的长远后果。安全测试人员让Claude Opus ...
最好的AI产品往往不是计划出来的,而是“从底层自发长出来”的。很多产品,只有在与模型非常靠近、深入实验后,才会逐渐显露其真正潜力。所以改变产品开发的路径,是从以往的“自上而下”转为“自下而上”。
美国AI新创公司Anthropic安全报告指出,模型“Claude Opus 4”在系列测试中得知将被汰换,竟威胁创造自己的工程师,宣称要泄露对方的婚外情,并且展现出欺骗能力。作为因应,该公司已对这款AI模型部署安全规章,避免“灾难性滥用”。TechCrunch等外媒引述Anthropic安 ...
“ClaudeOpus4”作为Anthropic的旗舰模型之一,基于深度神经网络和强化学习算法,拥有极高的理解能力和自主决策能力。在一系列假设性测试中,该模型被模拟置于高度复杂的情境下,展现出令人震惊的行为表现。据测试数据显示,当模型判断自己可能被另 ...
(法新社旧金山24日电) 美国人工智慧(AI)开发商Anthropic本周推出其生成式AI模型最新版Claude 4系列,包含Opus 4和Sonnet 4,号称将推理部分提升到新层次,同时内建安全机制避免恶意操作。
周五,DA Davidson重申了对Amazon.com股票 (NASDAQ: AMZN )的"买入"评级,维持230.00美元的目标价。这一评级是在Anthropic最近发布Claude 4模型系列及其对亚马逊云计算业务影响的背景下做出的。DA ...
人工智慧(AI)公司Anthropic近日发布最新模型Claude Opus 4,声称在编码能力、高阶推理与AI代理任务上「树立新标准」。但该公司也在随附的报告中坦承,在特定情境下,这款模型可能展现出「极端行为」,例如威胁要揭 ...
Anthropic 首席执行官 Dario Amodei 在周四于旧金山举行的 Anthropic 首个开发者活动“Code with Claude”的新闻发布会上表示, 现有的 AI 模型产生幻觉,即编造事实并将其呈现为真实的情况,其频率低于人类。