资讯

一名KAIST副教授承认在一篇即将发表于国际机器学习大会(ICML)的论文中使用了隐藏指令。他表示,该论文将被主动撤稿。KAIST校方称此前对此毫不知情,坚决不容忍此类做法,并将着手制定AI使用规范。
威廉姆斯的退休也被视作苹果高层持续换血的延续。去年,长期担任苹果CFO的Luca Maestri已经卸任,为退休做准备。苹果前硬件工程主管Dan Riccio、长期任苹果市场营销主管的Phil Schiller也均在此列。
简单来说,后者与 Neel Shanmugam 共同创办了名为 Cluely 的创业公司,而他们目前的主要业务就是一款堪称「人生作弊器」的同样名为「Cluely」的 AI 工具 —— 这是一款 AI 桌面助手,它能够看你所看、听你所听。Cluely ...
它的成员,直接把AI的天花板拉高到“地月距离”:一个个顶着OpenAI出身的光环,在全球撬动着数百亿美元的资本,弹指之间就是一轮新融资。 Living Carbon(Maddie ...
据《连线》杂志消息,OpenAI总裁Brockman在内部Slack当中表示,有4名新员工将加入OpenAI。 被一波挖走8人之后,OpenAI对扎克伯格的“反击”来了。
在AI全面渗透教育系统的背景下,美国高校正重塑计算机科学课程,强调AI素养与批判性思维,甚至将CS向文科靠拢;而传统文科课堂也因AI生成内容的泛滥陷入考核危机。 火了快30年的CS(计算机科学)专业,可能要被划到「文科专业」了。
本文,来自 CMU、 Cartesia AI 的研究者证明了通过简单的训练干预,循环模型是完全可以实现长度泛化的。只需 500 步后训练(约占预训练预算的 0.1%),就能让模型在高达 256k 长度的序列上实现泛化!
例如,在翻译句子时,当模型处理到句子中的某个动词时,它可以通过自注意力机制同时考虑与这个动词相关的主语、宾语等其他元素,从而更准确地理解句子的语义。 自注意力机制的优势在于其能够捕捉长距离依赖关系。
尽管KV缓存机制显著提升了扩散语言模型的推理速度,但在并行解码时,生成质量往往会下降。这是因为扩散型模型在解码时假设了条件独立性,而实际上,标记之间可能存在复杂的依赖关系。这种依赖关系的破坏会导致生成文本的连贯性和准确性下降。
现代Linux发行版存在一个重大漏洞,攻击者通过短暂物理接触即可利用initramfs(初始内存文件系统)操控绕过安全启动(Secure Boot)保护机制。
最近,研究人员发现了一个令人意外的现象:那些在数学推理任务上表现出色的AI模型,在处理其他类型问题时却频频"翻车"。更让人惊讶的是,不同的训练方法竟然会导致截然不同的结果——同样是数学训练,强化学习训练出来的模型能够"举一反三",而监督学习训练的模型 ...
认知模块为每个智能体提供个性化信息、独立的记忆,以及多样化的推理方式,使其能够根据上下文和交互过程灵活调整策略,而非简单执行固定指令。这一设计使智能体在多智能体环境中展现出更具适应性和灵活度的行为,为研究智能体间协作与互动提供了支持。