据称,苹果除了在关税大幅增加成本之前紧急进口iPhone外,还将大量 Mac 空运到美国。随着对中国的额外关税生效,苹果目前需要在进口成本的基础上额外支付104%的关税。即使在此次加征关税之前,甚至在特朗普宣布首次加征关税之前,苹果就已采取措施,将预计可能面临的 冲击降至最低。  据说,这包括囤积iPhone,在特朗普设定的最后期限前,有五个货运航班满载iPhone飞往美国。据《日经亚洲》报道,苹果并非唯一一家这样做的科技公司——而且它不仅仅是进口iPhone。 虽然细节尚不清楚,但该报道声称,苹果、戴尔、微软和联想均已将其最高端的设备运往美国。具体来说,据称这些货物中包括售价超过 3000 美元的电脑。 “我们接到客户的电话,要求我们尽可能多地生产消费电子产品,并尽可能多地通过空运发货,”一位苹果、微软和Google的供应商表示。“但最大的挑战是,我们的零部件和材料库存已经所剩无几。在新关税生效前不到一周的时间里,我们能发货的数量非常有限。” 因此,在 2025 年 4 月 8 日午夜截止日期之前,能够进口和通关的Mac 电脑(或 iPhone 和iPad )数量是有限的。据报道,包括苹果在内的制造商现在正在寻找方法来缓解关税的影响,无论是通过回流还是停止向美国发货。 例如,华硕已停止向美国发货。宏碁已告知其供应商,其产品将专注于欧洲和亚太地区的销售,而非美国市场。 一位为苹果、Google和微软提供服务的供应商的不愿透露姓名的高管表示,大约 75% 到 80% 的消费电子产品市场在美国以外,企业可以专注于这些市场。 这位高管告诉该刊物:“即使对于像苹果这样的美国公司来说,美国市场也并非其全部市场。多年来,科技供应链一直在印度、东南亚和墨西哥建立网络,这些努力不会白费。这些网络对于世界其他地区来说仍然很有用。” **苹果的库存还能维持多久** 对于美国消费者来说,除非在苹果库存耗尽之前调整关税,否则价格上涨是不可避免的。目前尚不清楚苹果在关税生效前进口了多少设备,但如果前五架航班确实主要搭载的是iPhone,那么可以进行一些估算。 2015年,美国航空货运公司Flexport表示,一架波音747飞机可以装载30万部iPhone。因此,五架满载的飞机可以装载150万部iPhone。 根据营销公司Backlinko的 iPhone全球销量等统计数据,苹果估计在美国每天售出约 32 万部 iPhone。 这些都是基于估算的。根据苹果以往的粗略估计,他们可能已经囤积了足够在该国现有库存基础上至少维持四天多的 iPhone。此外,还要考虑苹果供应商的库存。 苹果以“即时发货”的营销策略而闻名,据说其库存随时都不足一个月。周三之前,该公司通常会直接从中国发货给消费者。目前尚不清楚这种情况是否会持续下去。 此外,以上数据只是估算值,实际数字可能更高,因为苹果大幅缩小了 iPhone 的包装尺寸。因此,至少理论上,假设 747 的运力足够,一次空运可以装下比以前更多的 iPhone——但这也假设了苹果已经生产了足够多的设备。 它还排除了 Mac,因为无法确定所涉及的设备组合。 归根结底,无论是苹果还是其他任何企业,都没有预料到关税会如此之高,甚至达到毁灭性的程度。这也意味着,自关税宣布以来,消费者一直在恐慌性抢购iPhone 。 [查看评论](https://m.cnbeta.com.tw/comment/1491718.htm)
凭借此次发布的“灵羽”处理器,睿思芯科真正在国产服务器处理器领域打破了高性能、CPU核心研发、SoC芯片研发三者难以兼得的“不可能三角”,首次将一款具备实用能力的高性能、高独立性国产服务器处理器推向市场。
Manus 的出现将智能体推入当下 AI 格局的前列,使得这个过去略抽象的概念变得具体可感知。然而行业中也不乏对 Manus 的争议,认为 Manus 没有底层技术创新力,更多的是将现有技术融合从而在工程上创新,即所谓的“套壳”。 虽说工程创新也是一种护城河,但“套壳”的说法也并非完全没道理。近几年的时间里,学界和业界关于 Agent 的技术和实践成果颇丰。在 AI 智能体推理与决策研讨会(AIR 2025)上,来自伦敦大学学院、新加坡南洋理工大学、Weco AI、Google DeepMind、Meta、华为、阿里等多位学术界和工业界的研究人员围绕强化学习、推理决策、AI 智能体展开讨论。 新加坡南洋理工大学的安波教授揭示了从基于强化学习的智能体到由大型语言模型驱动的智能体的演变,分享了团队多项关于 Agent 的工作进展,其中 Q* 算法以多步骤推理作为审慎规划,在学习 Q 值模型的过程中,需要经历离线强化学习以交替更新 Q 值标签并拟合 QVM、使用表现最佳的回滚轨迹的奖励、使用与更强大 LLM 一起完成的轨迹的奖励三个关键步骤。 初创公司 Weco Al 的 CTO Yuxiang 阐述了在解空间中寻找智能的一些时间,介绍了由人工智能驱动的 Agent—— AIDE,能够处理完整的机器和工程任务。如果将机器学习和工程视为一个代码优化问题,那么它就会将整个搜索或代码优化的过程形式化为在解空间中的树搜索。在这个被形式化的解空间中,AIDE 是一个任何大语言模型都可以编写的代码空间。 来自伦敦大学学院的宋研从 DeepSeek 切入,讨论了强化学习在大型语言模型推理中的作用,并指出 DS 又一个“Aha时刻”,即在强化学习阶段,大型语言模型学会了自我纠正,这可能是由于其基础模型已经具备自我纠正的能力。基于此进一步发现,当 Agent 使用某些关键词时,它们会进行各种回溯、自我报告和复杂推理。 谷歌 Deepmind 研究员冯熙栋初步阐述了将强化学习的组成部分用自然语言描述出来的理念,将会把所有强化学习的概念重新定义为自然语言表示的内容,尝试将策略、值函数、贝尔曼方程、蒙特卡洛采样、时间差分学习以及策略改进操作符等,映射到它们的自然语言对应中。 AIR2025 由伦敦大学学院汪军、Meta GenAI 田渊栋等教授联合主办,致力于推动智能系统的发展,使其能够自主、适应性强且负责任地运行(会议详情及注册可访问官网:https://ai-agent-reasoning.com)。本次会议特别鸣谢来自加州大学伯克利分校的博士后研究员顾尚定。 AI 科技评论截取会议部分精彩内进行编译,以下为核心内容的演讲实录: **一、Agent 驱动力变革:从 RL 到 LLM** 新加坡南洋理工大学的安波教授做了主题为《From RL-based to LLM-powered Agents》的演讲,揭示了近年来从基于强化学习的智能体到由大型语言模型驱动的智能体的演变,分享了多项关于 Agent 的工作进展。  去年,我们做了一些工作,结合了一个临时模型,以提高其在某些基准问题中的性能。我们的方法是尝试从与环境的交互中学习策略,因此它具有很强的落地能力,所以我想我们在这里尝试结合先验知识的优势,从模型和落地能力中汲取优势,以提高性能。 因为对于这项工作,我们发现利用知识模型可以提高其在某些实际工作场景中的性能。 推理和推断非常重要,尤其是在 OpenAI-o1 和 DeepSeek R1 发布之后,我们有一个纯粹基于自己研究的版本,这确实非常困难。 但事实上,我们在 OpenAI 发布相关模型之前就发布了关于 Q* 的第一篇论文。我们需要一个 G 函数,用于估算从初始状态到当前节点的成本。在我们的工作中,我们使用的 G 函数是通过利用文献中的数据来训练模型的。对于启发式函数(h 值),我们实际上是自己进行了修正。 所以,基于我们的数据,训练这样一个强大的模型有很多方法。最终,我们将这两者结合起来,并应用 A* 搜索算法,以提升大型语言模型的推理能力。 所以,我们早期做了些实验。你可以降低那些数值,因为那时候基础模型还不够强大。我想关键点是,如果你应用这种推理方法,它可以提升基础模型的性能。 然后我们以某种方式训练它们的 Q 值函数。所以,我们还在考虑是否能够克服困难,例如,将这种方法应用于改进最近的 DeepSeek 模型以及其他模型。 所以,我们在比较控制方面也做了一些关于 Synapse 的工作,是我们去年年初发表的成果之一。这些工作涉及一些想法,比如状态抽象训练、从演示中学习,以及使用记忆等方法,来改进计算机控制任务。 我们还提供了一个用于构建通用虚拟Agent的开发者工具包。我们提供了更好的界面,还提供了更强大的前端支持,并且提供了大量的基准测试,用于设计适用于PC控制、计算机控制等场景的通用虚拟Agent,也适用于移动设备的控制。 接下来的这项工作涉及利用语言模型驱动的智能体来玩具有挑战性的电子游戏。 因此,我们构建了一个智能体架构,包括不同的组件,例如我们需要理解环境。它包含一个反思模型、记忆模型、检索模型等,用于应对许多具有挑战性的电子游戏和不同的软件。这个项目是开源的,对于感兴趣的人非常有吸引力。 我们最近做了一些尚未发表的工作,是关于使用强化学习(RL)对语言模型进行微调的。 我想这在某种程度上与一些早期工作有所不同,在我们过去看到的大多数工作中,强化学习并没有涉及智能体。你知道的,人们只是构建不同的组件,使用语言模型作为大脑,并结合其他组件来处理复杂任务。 但在这里,我认为在未来,对于许多现实世界的问题,我们需要强化学习的能力。然而,如果我们想将强化学习应用于这些场景,会面临许多挑战,其中最显著的是探索空间的指数级增长。因为开放和实际动作技能的采样空间会随着矩形的大小和厚度呈指数级增长,因为探索空间是在token级别上的,所以token空间非常庞大。因此,我们需要解决探索问题。同时,我们注意到并非所有token在最终决策动作中都发挥有意义的作用。 所以,我认为我们在这里得到的启示是,我们必须设计一些机制来决定如何进行更有效的探索,以便提高强化学习微调的效率,从而提升语言模型的性能。因此,我们设计了一个名为“CoSo”的方法,它包含几个关键思想。首先,我们使用事实推理来识别对动作至关重要的token。 不是每个token都对智能体最终采取的动作产生影响,或者产生相同的影响。因此,我们使用因果推理来找出这些token,然后利用这些信息来决定如何进行探索。其次,我们可以中断优化过程,将我们的探索集中在那些有影响的token上。 这是利用我们在第一步中学到的结果。然后我们尝试进行了许多实验,可以看到这种方法显著提高了视觉语言模型(VLM)在一些非常具有挑战性的任务中的性能。我认为这还是一项正在进行的工作,例如我刚才提到的创造性工作。 **二、在解空间中寻找智能** 初创公司 Weco Al 的 CTO Yuxiang 做了题为《AlDE: Searching Intelligence in the Space of Solutions》的分享,阐述在解空间中寻找智能的新思考,介绍了一种由人工智能驱动的强大的 Agent—— AIDE。 我们之所以称之为 AIDE 是因为,它就像一种由人工智能驱动的强大的 Agent,能够处理完整的机器和工程任务。所以,如果将机器学习和工程视为一个代码优化问题,那么它就会将整个搜索或代码优化的过程形式化为在解空间中的树搜索。在这个被形式化的解空间中,它只是一个任何大语言模型都可以编写的代码空间。 你可能见过其他更具体的Agent,比如那些提示 APIAgent 或反应式 Agent,它们将所有历史解决方案组织成树状结构。然后,将所有这些历史解决方案纳入上下文中,但这个过程实际上是递增的。因此,它会迅速积累上下文信息,所以在长期的代码优化过程中,它可能不会表现得很好。  所以,这个问题被重新定义为一个优化问题。机器学习可以在机器中完成,然后我们可以定义所有相关的评估指标。这与我们提出的机器学习工程 Agent 非常契合,其定义的奖励或优化目标也非常简单。我们只是在这个代码空间中进行搜索,目标是优化机器学习代码和机器学习工程任务中的目标函数。这个目标函数可以是验证精度、损失,或者是任何与你的机器学习成本相关的指标。 而代码空间在本例中被非常具体地定义为用于解决该问题的Python脚本空间。好处是我们现在可以在一个公平的指标上比较解决方案,并且使这些依赖于单一标准已知评估的研究方法更加统一,整个搜索过程也会更加稳健。 因此,我们开发了这种算法,它本质上是一个树搜索问题。你从一棵空树开始,首先会生成一个初始节点,实际上是一组基础解决方案。然后,它通过查看现有的代码和现有的解决方案,迭代地提出新的解决方案。这些解决方案已经生成了,然后它会提出你的解决方案,并且基于这个想法,它会生成那段代码,然后运行代码以评估解决方案,并记录新的节点。 这里的评估指标是滚动(scroll),通常在机器学习任务中,这个指标可以是精度(accuracy)、损失(loss)或者随便你怎么称呼它。然后它会根据这个指标选择下一个节点,以便进一步优化。所以,它涉及了所有这些搜索策略、总结操作符以及编码操作符。这些操作符不再完全由算法定义,而是部分由大型语言模型定义。 所以,为了更直观地展示,我们从 S0 开始,这是一个初始的空解决方案,也就是我们的数据状态。我们还没有任何现有的机器学习任务的解决方案,然后它开始起草三个。例如,起草三个方向不同的解决方案。所以在提示中,有一个技巧是我们会明确要求它探索不同的方向,以确保 S01、 S2 和 S3 之间有足够的多样性。然后在下一步,它会选择一个节点开始优化。 例如,尝试不同的步骤来修复问题,如果成功修复了,它就成为一个有效的解决方案。然后这个解决方案就被存储为一个有效的解决方案,此时你有了一个当前最佳节点,比如 S5,然后它开始探索下一个要优化的节点。它会保证每个草拟的解决方案至少被探索一次,并且会从 S2 等节点分别生成另一个改进方案,然后评估为解决方案6或7,这个过程会不断持续,直到用尽所有的优化步骤。 所以最终,选择最优解其实相当简单,因为所有这些解决方案都是用相同的评估指标来评估的。所以,基于评估指标,你就能得到那个最优解。 是什么定义了整个过程呢?有几个关键组件。首先是搜索策略。在这个案例中,我们实际上采用了一个非常简单的热编码策略。 在起草阶段,当它起草多个解决方案时,由于它还没有一棵树,也就是说我们还没有分配初始解决方案,它会创建多个解决方案来探索不同的方法。而在调试阶段,当它进入调试阶段后,它会有一个最大调试步数限制,它会在那个节点停留,直到达到允许的最大调试步数。 通常我们会将这个最大调试步数设置为10到20步,以避免这个Agent花费过多时间在调试上,从而陷入几乎无限循环,浪费大量时间和计算资源。当然,最重要也最有趣的部分并不是什么时候选择一个节点来进行改进。 所以当它完成调试或起草后,就会进入一个阶段,来改进一个桶节点。这只是一个贪婪算法,它会选择树中当前表现最好的解决方案,然后决定进一步优化树中表现最高的那个节点。 所以在编码操作符中,我们也会根据不同的阶段采用不同的提示策略。比如在起草阶段,我们会鼓励它为模型架构和特征工程制定一个计划,并要求它生成一个单文件Python程序来实现这个计划。在底层阶段,Agent会收到错误日志和堆栈跟踪,以识别问题所在。 然后,它会通过保留整体先前的方法来纠正问题。因此,我们确保调试实际上不会改变解决方案本身。在改进模式或改进阶段,我们会提示Agent提出一个原子级别的改变。这是另一个我们希望纳入这个框架的观察结果,即每一步实际上都是可解释的。行动本身是可解释的,并且是原子性的。 因此,我们不允许Agent或大型语言模型一次提出多个改进。相反,我们会提示它逐步、增量地进行改进。在这个过程中,我们不会跳过任何中间步骤的优化想法,这使得它能够进行更细致的探索,并且在整体上更具可解释性。 也就是说,它能够更好地展示出达到最优解的最佳路径是什么。例如,切换优化器、添加一层、使网络变得更深,或者从一种架构转换到另一种架构、添加正则化等。如果你检查它最终生成的树轨迹或树结构,你会发现很多这样的原子优化步骤,而且很多时候这些步骤是非常有洞察力的。 最后,因为一个最大的问题是你需要管理上下文,比如可能需要运行8个步骤。例如,OpenAI运行了500个步骤,即使是Gemini,也没有办法真正处理那么长的上下文。所以,必须有一种方法来管理上下文。这就是我们所说的总结操作符,它会提取相关信息,以避免上下文过载。 总结操作符会包含性能指标,比如当前的准确率、高参数设置和调试阶段的信息。这是非常重要的,尤其是在调试阶段。好处是我们可以截断它之前可以处理的节点数量。 我们可以将总结后的信息放入大型语言模型的上下文中,以生成调试节点或改进节点。这将保持一个几乎恒定的窗口大小,供Agent使用,这使我们能够真正扩展到很长的时间范围,比如对比步骤。 而且,因为我们将其定义为逐步改进,这也使得整个优化操作符变得无状态。它不再依赖于整个轨迹,而是无状态的,不会像提示或上下文大小那样呈爆炸式增长。 **三、聚焦通用型 GUI Agent** 来自 Huawei London 的邵坤做了主题为《Towards generalist GUl Agents: model and optimization》的演讲,介绍了面向通用型 GUI Agent 的模型和优化。 以下是GUI Agent的演示,他们有不同的任务,比如我们有三个不同的平台。第一个是获取关于美元的研究结果,我们可以从主用户界面页面开始。然后,我们可以执行一些步骤前往麦当劳,进入麦当劳餐厅并搜索那里的薯条,我们还可以设置多个步骤并提高目标。这就是GUI Agent可以帮助我们的地方。 在另一个网站上,GUI Agent 也许可以找到一些更好的解决方案,帮助人类完成这类任务。这就是 GUI Agent 的意义。  从2023年到2025年,你可以看到 GUI Agent 已经广泛流行起来。它重新引发了对Agent研究的关注,无论是学术界还是大型科技公司都在关注GUI Agent。这种关注不仅局限于移动设备,还涵盖了网站和计算领域。 我们还将这些主题引入到 GUI Agent 中,例如第一个是关于生成的。实际上,使用这种模型来指导行动并不好。因此,当我们为GUI Agent提供当前模型能力时,我们有不同类型的改进方法来实现更好的模型。但你必须理解,如何实现,如何为UI设计Pythonian,以及如何设计分层架构。 第二个是关于Agent系统。在我们有了项目模型之后,我们还需要一些其他自动化的模型来提高GUI Agent的性能和效率。为了实现这一点,我们有不同的解决方案,我们可以有数据库规划、反射机制、也可以使用记忆和检索器。 我还想强调的另一个重点是,我们还想做很多关于微调的工作,因为可以说强化学习对于Agent的微调是非常重要的,我们需要某种目的。例如,如何利用当前模型作为评判。如何发挥生成角色模型的作用,以及如何为角色模型进行更好的微调。同时,我们需要找到更好的方法来实现我们高效、可靠且稳健的强化学习训练,并且我们需要找到最适合GUI Agent的算法。 最后一个问题是关于评估的。当设计不同的基准任务时,对于两个Agent来说评估非常重要,我们需要设计评估指标。 同样,我们也提出一些研究问题。 第一个问题是,我们需要找到并提出一个基准测试。因为目前我们可以看到很多关于GUI Agent的论文。所以我们需要设计一个全面的基准测试,它可以用于不同的应用程序,以及不同的Agent。因此,当你找到一个用于评估Agent的流程时,它不仅仅依赖人工干预。 第二部分是,我们需要设计一个行动模型。众所周知,如果我们仅仅使用当前的基础模型来执行Agent任务,那么我们需要找到一些方法来训练出性能良好且高效的模型。 最后一个问题是关于如何为GUI Agent进行高效的强化学习微调。我们必须让Agent能够充分利用有限的数据,并逐步提高性能。对于GUI Agent来说,进行微调并不是一件容易的事,因此我们还需要找到一些方法来解决这个问题。**四、DeepSeek 强化学习的“Aha时刻”** 来自 UCL 的宋研 ,做了主题为《The Power of Reinforcement Learning in LLM Reasoning》的演讲,讨论了强化学习在大型语言模型推理中的作用。 这是R1-zero的结果,它的基准测试结果非常好,甚至比OpenAI的o1还要出色。更令人印象深刻的是,它的训练过程非常稳定。而且它在扩展性方面表现出色。对于R1-zero来说,它在过去的准确率方面并不比最新的原始版本更好。但当你尝试生成内容时,它显然能够产生更好的结果。 还有他们在论文中提到的一个“Aha时刻”。在强化学习阶段,语言模型学会了增加思考预算。这可能是因为你需要更多的token来进行思考,从而解决一些难题。这一观点得到了一些支持。他们发现,当Agent使用某些关键词时,它们会进行各种回溯、自我报告和复杂推理。但对此也有另一种可能的解释。首先,基础模型本身已经具备自我纠正的能力。所以,从技术角度来看,这并不是一个非常“Aha”的时刻,而是表明强化学习确实可以在简单的设置下发挥作用。我认为这才是最重要的。  对于R1版本,他们使用初始数据开始训练,然后在强化学习(RL)的场景中进行训练。结论是,大型语言模型(LLM)具有强大的能力,能够进行稳定的强化学习,而小型语言模型则采用知识蒸馏的方式进行训练。 在R1发布之后,我们在后续的训练和增量更新中推出了TinyZero,这是一个30亿参数的大型模型。此外,SimpleRL是在70亿参数的LLM上实现的Zero-RL。所以,所有这些工作都使用了Zero-RL。至少基本的想法是,你需要有一个强大的基础模型,以便能够学会推理。下一步是它们可以学会探索,然后它们可以学会自我纠正。 最近也有一些多模态的Zero-RL工作。这些工作基于Open-R1代码库、OpenRLHF代码库或Verl代码库。 我们也在小规模上进行了一些实验。基本设置是我们尝试在数学问题上进行训练,选择的难度等级为三到五,这与SimpleRL之前的代码库设置相同,我们发现这相当重要。我们需要进行筛选,而我们是在Qwen2.5-Math-7B上进行的。其性能表现良好,如图所示。蓝色线条表示从基础模型开始的强化学习,它能够推广到AIME2024,这非常难以解决。 但它仅在数学问题上进行训练,通过使用监督微调数据,它可以在GSM8k上获得更好的性能。但在AIME2024上,它给出的结果非常糟糕。这意味着,监督微调数据可能会损害强化学习带来的泛化能力。我们还在LLaMA上进行了实验,但结果并不理想。 接下来,Yan Song 也分享一些最近工作中的前瞻见解。 **五、自然语言强化学习新范式** 来自 UCL、Google Deepmind 的冯熙栋探讨了《Natural Language Reinforcement Learning》,介绍了把强化学习的组成部分用自然语言描述出来的理念。 如果我们有了新的强化学习范式,那会怎样?如果我们不学习已经确定的值函数,而是学习语言值函数呢?也就是说,我们尝试用自然语言来描述状态的值、描述状态-动作对。为什么不干脆把所有强化学习的组成部分都用语言表达出来呢?这正是我们最近努力的方向。 我们是从传统的强化学习概念中汲取灵感,但我们正在将所有这些强化学习的概念重新定义为自然语言表示空间中的内容。我们尝试将策略、值函数、贝尔曼方程、蒙特卡洛采样、时间差分学习以及策略改进操作符等,映射到它们的自然语言对应中。 这里我展示了一个这样的例子。在强化学习中,你有一个策略,它是分布式的。但在自然语言强化学习中,你可能会有一个语言策略。也就是说,你不一定需要直接将你的状态和动作映射过去。相反,你可以尝试说:“我先对状态进行一些分析,然后再采取行动。”所以,让我们用语言策略来响应。 在传统的强化学习中,你有标量奖励,即即时奖励。但在自然语言强化学习中,你可能会有语言反馈,比如“你达到了目标”,这不仅仅像传统强化学习中的+1奖励,它可以包含更丰富的信息。 在状态方面,你不需要是一个高维状态,你也可以用语言来描述状态。例如,你可以这样说“你正在滚动……”之类的内容。对于值函数,在强化学习中,我们过去习惯于使用预期的累积奖励。但现在,我们可以有一个更自然的语言表示。我们可以尝试用语言描述符来总结未来的轨迹,最终,还有贝尔曼方程。 传统的贝尔曼方程试图衡量当前状态与其后续状态之间的关系。我们也可以在自然语言评估中做类似的事情。如果你试图评估当前的状态,那么你的当前状态评估不可能与后续状态评估相差甚远。因此,你的自然语言评估必须在连续状态之间具有一致性、自我一致性。所以,这也是贝尔曼方程,但它发生在自然语言空间中。  同样地,我们可以尝试将传统的蒙特卡洛采样和时间差分学习方法映射到自然语言中。假设我们有两种语言聚合器 G1 和 G2 。在传统的蒙特卡洛方法中,我们通过采样大量的轨迹来估计其折扣奖励的累积和,并试图通过计算这些轨迹的平均奖励来估计我们的轨迹。 在自然语言中,我们也可以做类似的事情。我们从时间步 (t+1) 开始采样,直到无穷大。我们有很多基于语言的几何采样结果,并且假设我们有一些语言信息聚合器,因为当然,我们不能对语言进行求平均或求和操作,因为它们不是数字。但如果有一个语言聚合器,我们可以要求它从这些不同的采样语言轨迹中总结和聚合信息。 G1 可以负责从多个轨迹中聚合评估结果,并将所有步骤聚合到一个项目中。这在物理上是完全相同的事情,只是发生在不同的空间中。因此,我们需要在传统强化学习中实现不同的聚合操作符。在传统强化学习中,它是平均值;在基于语言的案例中,它只是一个语言聚合器。 对于时间差分学习也是如此。时间差分学习的理念是,如果你试图评估当前状态的值,你可以向前迈出一步,并将即时奖励与未来状态评估结果结合起来,以形成你对当前状态的评估。 在自然语言强化学习中,我们也可以做完全相同的事情。假设我们有 G1 和 G2 这两个语言聚合器, G2负责将即时奖励和未来评估结果合并。我们可以让 G2 接收即时转换的描述和未来状态评估结果,并让 G1 负责从多个轨迹中聚合评估结果。虽然在传统强化学习和自然语言强化学习中,它们的实现方式不同,但理念是相似的。你可以通过不同的聚合器看到我们的新语言时间差分学习是如何响应传统时间差分学习的。 阐述完概念之后,Xidong Feng 也谈了这种方法的具体实现,给出了如何利用大型语言模型(LLMs)实现自然语言强化学习(NLRL)的几条路径。 **六、Qwen长文本能力:更快速度、更低成本** 阿里通义千问的林俊旸做了题为《Qwen: Towards Generalist Models》的演讲,系统介绍了通义千问在技术、工程化方面的进展,以下是关于通义千问大模型在数据量方面的细节。 在Qwen2.5版本中,数据量扩展到18T。但现在我们正在考虑用更多的token进行训练,比如30万亿到40万亿个token。这只是一个很大的数量,但对于训练大型模型来说很重要,不仅需要高质量的数据,还需要大量的数据。这就是为什么我们在进行多阶段预训练,因为你需要训练大量的数据。但数据中有脏数据,在第一阶段,然后是更高质量的,再到不同阶段的更高质量。 在模型规模方面,我们开源了7种不同规模的模型,范围从0.5B到72B。因此,你可以通过这些不同规模的模型来研究扩展规律。但目前我们讨论的是密集型模型,我们现在正在考虑MoE(Mixture of Experts)模型,它与密集型模型有些相似,但在训练和内存模型方面有更多的技术细节,但总体上它仍然遵循扩展规律。 在扩展模型规模方面,不仅仅是模型本身的规模,还有激活参数的规模。还有一种扫描方式,但模型规模门控实际上已被证明是非常有效的。我们的开源模型中有许多细节,你可以去查看这些细节。 在上下文长度扩展方面,这也是我们之前非常关注的一个问题。人们之前训练的模型上下文长度为 32K tokens 然后扩展到 128k tokens token。真的有这么长吗?但你甚至可以将其扩展到甚至1000万,这也是有可能的。现在人们正在考虑转向无限长度,所以他们希望使用类似传统的多头注意力机制来实现。也许线性注意力是未来的发展方向,但在这一领域我们还没有取得重大突破。 但我们有一些技术可以将其进一步扩展,而无需进一步训练。这是一种无需训练的技术,称为 Trunk Attention(截断注意力),你可以查看 Trunk Attention 的技术报告。 我们团队在ICML上发表了一篇相关论文,还有另一个技术问题是在部署方面。拥有100万上下文token的模型,部署起来非常困难。因此,你需要使用一些技术来引入稀疏性,从而加快推理速度。你可以看到,之前首次生成一个token需要5分钟,而现在只需要1分钟,这也意味着它会更便宜,因为注意力机制中存在稀疏性,但我们发现性能并没有下降,或者在100万token的上下文中,我们得到了一个性价比很高的预期性能。  除了理解长上下文之外,还有另一种扩展,那就是生成长上下文的能力。以前我们能够生成 8k tokens,但你会发现这还不够。因为现在我们有长链式推理(Long Chain of Thought),所以,它之前还不足以生成非常、非常长的文本,但如今情况已经大不相同了。也许现在它能够生成像 12.8k 个 token 的文本,这实际上是可以实现的。对于目前的Qwen来说,它实际上能够生成大约 32k 的 token。 雷峰网雷峰网雷峰网
许多用户,包括美国政府效率部 (DOGE) 的工作人员可能认为磁带存储已经严重过时了。尽管磁带技术已经存在了几十年,但它仍然得到广泛的应用,仍在不断发展,并且比光学和固态介质保留了某些优势。  DOGE 最近宣布,已将美国总务管理局 (USGSA) 使用的 1.4 万盘磁带替换为未指定的“现代”数字格式。该部门表示,此举每年将节省 100 万美元,但却招致了那些捍卫这项古老但仍然有用的技术的专家们的尖锐批评。 该公告可能指的是线性磁带开放 (LTO) 驱动器和磁带盒,这是一种于 1952 年发明的存储介质。尽管消费设备早已过渡到速度更快的硬盘和固态硬盘,但企业仍在定期使用 LTO。IBM[计划](https://research.ibm.com/blog/tape-density-record)在未来几十年继续使用这种格式。 美国地质调查局 (USGSA) 等公司和政府机构出于多种原因,将磁带用于长期存储和混合云解决方案。首先,它们能够以非常低的成本存储海量数据。70 年前,LTO 磁带只能存储几兆字节的数据,但 IBM 一直在不断发展这项技术,并于 2023 年推出了一款驱动器,每盒磁带的容量高达 150TB。 此外,LTO 比需要定期连接互联网的传统解决方案更安全。除了备份和恢复之外,磁带始终处于离线状态,从而有效抵御网络攻击。 LTO 格式推出 70 年后,为了应对勒索软件事件的激增, LTO 的销量在 2022 年达到了创纪录的水平。虽然维护离线备份并不能阻止网络犯罪分子窃取或公开数据,而且恢复过程也很耗时,但它们可以降低加密或删除的威胁。批评人士担心,DOGE 从 LTO 格式转换而来的数据可能会变得更加脆弱。 <picture><source type="image/webp" srcset="https://www.techspot.com/images2/news/bigimage/2024/05/2024-05-28-image-4-j_500.webp 500w, https://www.techspot.com/images2/news/bigimage/2024/05/2024-05-28-image-4-j_1100.webp 1100w, https://www.techspot.com/images2/news/bigimage/2024/05/2024-05-28-image-4-j.webp 2000w" sizes="(max-width: 960px) 100vw, 680px"/>  </picture> 磁带的使用寿命也比其他数字格式更长。Corodata 的数据显示,一些不到 20 年前的 DVD 开始出现光盘腐烂问题,而 LTO 磁带如果保养得当,可以[使用](https://corodata.com/tape-backups-still-used-today)30年。此外,磁带比传统驱动器能耗更低,因此对注重可持续发展的客户很有吸引力。 DOGE是由埃隆·马斯克在特朗普总统就职后为削减政府开支而成立的,该部门因仓促裁员数千人并削减机构规模而受到严厉批评。该部门还因指派极其年轻的成员处理敏感的政府数据而引发担忧,其中包括19岁的爱德华·“大个子”·科里斯汀,他曾[与一个网络犯罪团伙有关联](https://www.techspot.com/news/107297-report-19-year-old-doge-team-member-big.html)。 [查看评论](https://m.cnbeta.com.tw/comment/1491716.htm)
预测编码理论为理解大脑的信息处理机制提供了强有力的框架,其在神经科学、人工智能与脑机接口等领域的应用前景广阔。
商务部新闻发言人就中方在世贸组织追加起诉美升级对华关税措施答记者问。 问:据悉,中国在世贸组织就美国对华产品进一步加征50%关税追加提起诉讼。能否请您介绍具体情况?  答:美东时间4月8日,美方在原所谓“对等关税”措施基础上,宣布对中国有关产品再加征50%关税。中方在世贸组织争端解决机制下起诉美方最新加征关税措施。美方征税措施严重违反世贸组织规则,此次再加征50%关税,是错上加错,凸显美方措施的单边霸凌本质。中方将根据世贸组织规则,坚定捍卫自身合法权益,坚定维护多边贸易体制和国际经贸秩序。 [查看评论](https://m.cnbeta.com.tw/comment/1491714.htm)
刚刚,零跑汽车就网传C16因电磁辐射超标被乌兹别克斯坦警告一事进行回应,其表示:近日,网传乌兹别克斯坦技术监管局发布警告信,**称零跑C16未能通过其关于电磁兼容性的检测**。针对此事,零跑汽车经过核实:**警告信中提及的测试车辆非零跑送检,送检车辆的情况和具体的测试条件不明,我司对测试结果持保留意见**。 我司已与乌兹别克斯坦技术监管局积极沟通,双方正在推进重新检测,并将及时公布测试进展,希望通过透明、客观的检测,还原零跑产品的实际情况。 [](//img1.mydrivers.com/img/20250409/325b2fb6752f4798bb1e72117f84bf10.png) **事件回顾:** 近日网传一份来自乌兹别克斯坦的警告信,其中提到,乌兹别克斯坦海关的一次突击抽查中发现,**零跑C16的电磁辐射强度超过联合国R10标准(主要针对车辆电磁兼容性)的16倍,严重违反《轮式车辆安全通用技术法规》附录3第44条的强制性规定**。 信中称,这种不符合标准的情况可能会影响汽车电子设备和其他装置的运行,在某些情况下还会导致系统故障,为保护消费者权益,技术监管局已停止接受 Leapmotor M1 类车辆的认证申请,直至制造商纠正已发现的缺陷。 乌兹别克斯坦技术监管检查部门强调,**此次禁令旨在严格执行技术法规,确保进口汽车质量与安全合规**。 [](//img1.mydrivers.com/img/20250409/d4659d370ddf4c828d7f5e3a3fd86dbe.jpg) [查看评论](https://m.cnbeta.com.tw/comment/1491712.htm)
国务院关税税则委员会今天发布公告,2025年4月8日,美国政府宣布对中国输美商品征收“对等关税”的税率由34%提高至84%。美方升级对华关税的做法是错上加错,严重侵犯中国正当权益,严重损害以规则为基础的多边贸易体制。  根据《中华人民共和国关税法》、《中华人民共和国海关法》、《中华人民共和国对外贸易法》等法律法规和国际法基本原则,经国务院批准,自2025年4月10日12时01分起,调整对原产于美国的进口商品加征关税措施。有关事项如下: 一、调整《国务院关税税则委员会关于对原产于美国的进口商品加征关税的公告》(税委会公告2025年第4号)规定的加征关税税率,由34%提高至84%。 二、其他事项按照税委会公告2025年第4号文件执行。 [查看评论](https://m.cnbeta.com.tw/comment/1491710.htm)
<blockquote><p>在母婴品牌竞争激烈的市场中,贝思卡儿凭借精准的流量截取、素人投放策略和单品爆破战术,在小红书上实现单品奶瓶销量1.3w+的佳绩。本文将拆解其“非对称战术”,揭示小品牌如何以极低成本在巨头环伺中撕开市场缺口。</p> </blockquote>  2024年,小红书上母婴品牌数量突破400家,但光TOP5品牌就占据21%的笔记量和15%的互动量,中小母婴品牌的生存空间被极致压缩 在母婴这种地狱级赛道,依然有一个品牌,靠一些“不常规操作”实现破圈,单品奶瓶在站内卖出1.3w+,让销量直逼贝亲,本文将跟大家一起拆解这个品牌,说不定可以为大家提供更多新思路。 ## 一、合规“碰瓷”,评论区精准截流 母婴用户决策链路中,60%的消费者会主动搜索“贝亲”“Hegen”等头部品牌 小品牌预算低就别傻白甜式的烧钱砸广告硬刚行业头部了,可以尝试借力打力,学会蹭同行大牌流量 像母婴这种极其看重资质、品牌的行业,贝思卡儿能成功破圈就是靠“蹭”,“蹭”但不能“硬蹭”,相比很多品牌做竞品横测,被平台抓违规。 思卡儿很聪明的一点就是在笔记评论区合规“碰瓷”,用户在评论区多次提到头部品牌,不去刻意的贬低,但是用消费者的嘴表达出自己品牌的产品更好用,巧妙借用大品牌的声量对目标用户进行了品牌心智占领的同时,评论区消费者的反馈相对品牌自己“王婆卖瓜”,显得更真实也更安全  “就像在老虎嘴边捡肉吃,既要快又要轻。我们专门训练了5人‘游击队’,每人管理50个素人账号,保证每天触达2000+精准用户而不被平台盯上。”—贝思卡儿运营总监访谈片段 ## 二、素人投放的“二八定律” 贝思卡儿90%的预算用于千粉以下素人,仅10%分配给腰部达人,背后是母婴行业的特殊信任逻辑:数据显示,82%的宝妈认为“普通妈妈推荐”比“专家测评”更可信,尤其是备孕、育儿等私密话题相比完美的品牌人设和精美的产品摆拍让宝妈抗拒, 暴露“小缺点”反而更可信,贝思卡儿采用大量素人笔记进行铺量引流,用带有宝宝出镜的实拍图来真实反馈,直拉近品牌和消费者的距离,降低“硬广感”,让宝妈们更容易对品牌产生信赖 贝思卡儿还有一个很机智的点,就是不硬凹“完美”,舆情不做绝对化处理,保留了一些无关痛痒的小瑕疵,既不会影响用户度对品牌的印象,又显得很真实,毕竟任何东西“完美”了,也就离翻车不远了  除了在素材和笔记内容上下功夫,适当指出产品小瑕疵外,贝思卡儿在选择达人时也用了“重素人”策略: 1)人设标签精细化 选择的账号以宝妈宝爸为主,更新内容覆盖备孕、育儿、新房装修等生活场景,更容易引起母婴相关核心用户共鸣 2)粉丝量级:100~1000 选择的账号粉丝大多在百粉和千粉之间,小红书调研显示,82%的宝妈认为“千粉以下素人推荐”比“十万粉博主”更可信 3)选择互动强的“活人”KOC 宝妈本就是一个分享欲极强的群体,一篇笔记爆了,一定会有大量的宝妈活跃在评论区,这时候如果达人和用户互动、做引导,保证笔记种草的有效性 ## 三、主打优势单品,以品带牌 母婴相关的品类“繁杂且细碎”,大多数母婴品牌都是选择“多品齐推、广撒网”的策略,主打“产品”齐全,贝思卡儿却反其道而行之,站内营销主推“奶瓶”,把预算、精力都放在一个品,用“大单品”强势挤进小红书宝妈圈,只用“奶瓶”,让用户认识-记住这个品牌 与其让用户记住10个平庸产品,不如用1个有效单品入侵心智!以德佑为例,短短五年已经在湿厕纸品类占山为王,给用户种下“湿厕纸=德佑”的品类心智,进而最大化曝光品牌,辐射洗脸巾、一次性内裤等其他单品,实现品牌资产的几何级增长 贝思卡儿同样深谙此道,前期通过密集的内容种草矩阵——超3w+篇奶瓶相关笔记的系统铺陈,单品站内卖出了1.3w+的好成绩,实现了声量的积累 最近,贝思卡儿也开始铺设“辅食勺、奶瓶刷”等其他单品,以品带牌塑造品牌调性,精准收割奶瓶种下的人群流量  ## 写在最后 最后总结一下,在我们看来贝思卡儿做对了三件事情 1)小品牌无需自建流量池,而是寄生在竞品的优质内容中,低成本截流高意向用户 2)用户对过度包装的广告免疫,主动暴露小缺陷(如外观设计、包装简易)反而能建立信任,但要注意缺陷必须与核心功能无关(如安全性、材质),且提供解决方案 3)从“货架思维”到“专家思维”,放弃“大而全”的SKU,聚焦一个细分品类做到极致,成为用户心中的“唯一选择” 贝思卡儿的逆袭印证了一个真理:在高度内卷的市场中,小品牌无需正面硬刚巨头。通过精准截流、信任重塑、单品爆破的“非对称战术”,完全可能用极低成本撕开市场缺口 本文由人人都是产品经理作者【Vic的营销思考】,微信公众号:【Vic的营销思考】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
基业长青是大多数商业组织的共同追求,如今的游戏行业也来到一个越来越重视长线的时代。 过去几年,“游戏能否长青”成为各大厂商选取赛道、布局产品时的重要考量。去年网易CEO丁磊重回一线后,提出希望专注于“一种持久、大众化市场游戏”,言外之意便是要将优质的游戏项目打造成为长青游戏。而另一边的腾讯,前不久也在财报中重点强调了“游戏的长续运营”。 回顾网易过往的产品,已经有不少产品实现了这一目标:无论是《率土之滨》《梦幻西游》《大话西游》这样的国产自研游戏元老,还是代理发行的《魔兽世界》《炉石传说》等产品,都在十多年的长线运营过程中保持了持久的生命力。 当“长青游戏”成为行业焦点,那么具体落实到“如何做到长青”便成为了各大游戏厂商们研究的主要课题。 在一众常青树之中,有一款游戏即将在今年迎来运营十年的里程碑,那就是“率土like”SLG的开创者《率土之滨》。作为品类的先驱和定义者,网易凭借这款游戏开创了一条百亿赛道,并接连引来了阿里、B站等巨头先后入局。 随着后来者的涌入,“率土like”赛道的蛋糕持续扩大,而《率土之滨》能够保持十年长青的关键在于,它不仅作为开创者定义了品类的基本框架,同时还凭借持续迭代推动产品进化,不断地刷新用户体验,引领整个slg行业的前进。 2025年3月27日,《率土之滨》正式上线“青春服”。  率土青春服 “青春服”颠覆市面上SLG游戏的付费逻辑,以游戏内可以免费获取的铜钱经济体系替代氪金抽卡模式。所有武将、战法均通过游戏内货币获取,且每次抽取必得五星角色。这样的转变直击SLG长期痛点——新老玩家阵容鸿沟,将核心体验从“卡池强度”转向“战术组合研究”。 同时,还通过移除武将觉醒、兵种进阶、文臣系统、宝物系统等复杂机制,实现了玩法的恰当精简,回归纯粹的博弈体验。 不难看出,“青春服”的推出是《率土之滨》顺应新手玩家“低门槛”需求做出的重要尝试。而这也预示着,作为品类开创者的《率土之滨》,正是通过再一次的创新来回应不断变化的玩家需求,进一步抬高品类的上限,为游戏的长续运营带来参考和启示。 ## **“率土like”的进化** SLG品类一直以丰富的可玩性、优秀的商业变现能力和持久的生命力著称。如果将游戏的研运流程简单划分为“研发→拉新→留存→付费转化”,SLG 游戏在后两个阶段的表现极为优秀,具有长线留存能力强,付费转化效率高的特征。 伽马数据显示,2023年,中国自研移动游戏海外市场收入TOP 100的游戏中,策略类游戏(SLG)收入占比超过30%。根据点点数据,在全球收入排名TOP 85的SLG产品中,有超过90%的产品已经上线了1年以上的时间,长青效应显著。  数据来源:伽马数据 SLG大赛道下有两个最主流的品类:“率土like”和“COK-like”,其中,“率土like”正是由《率土之滨》所开创。游戏行业很少以具体游戏命名一个品类,像MOBA、第一人称射击、赛车竞速等都是以玩法为品类命名的依据。一款游戏能够成为“XX-like”的前缀,意味着这款产品不仅需要自身表现优异,还要具备定义品类的能力。 作为品类开创者,《率土之滨》迄今为止已经有了10年历史。2015年,《率土之滨》首次将赛季制、地缘战略玩法、抽卡付费模型等“率土like”的核心要素引入SLG赛道。游戏上线后大获成功,连续十几个季度维持用户和收入稳健增长,并在后面的10年间长期稳定在畅销榜前列。 《率土之滨》的成功来源于它解决了当时SLG游戏的两大痛点:道具付费导致的生态公平性缺失,以及数值积累引发的长线生态崩溃。 在《率土之滨》之前,传统SLG在商业化方面往往做得还不够成熟,以“COK-like”的先驱《战争游戏》(Game Of War)为例,这款由海外厂商Machine Zone开发的SLG游戏,没有过多限制数值、加速道具等付费资源的使用。玩家能玩多爽,基本取决于他氪了多少。不可否认,这种模式确实能在短期内迅速提升付费深度和ARPU,但代价却是牺牲了大量普通玩家的游戏体验。  《战争游戏》 这种竭泽而渔的方式,使《战争游戏》逐渐开始面临用户结构单一化的问题。由于付费道具和资源加速机制对普通玩家体验的挤压,非付费用户留存率持续下降;后期服务器中活跃玩家以高付费用户为主,大R玩家间的竞争因缺乏分层用户群体支撑而趋于同质化。为维持用户规模,《战争游戏》采取了持续高投入的买量策略,但随着移动广告市场竞价加剧,游戏最终因为买量价格攀升而走向衰落。 针对以上两个问题,《率土之滨》给出了一套全新的解决方案,根据中国玩家偏好策略和社交的特征,重构了一套更健康的SLG用户生态。具体设计上,率土相对弱化了城建养成过程,将玩法核心聚焦于大地图沙盘的战略动态博弈,并在赛季更迭中保证武将的持续价值。 赛季制的引入,为玩家���供了时间节点目标感,赛季匹配也帮助游戏保持了玩家生态的稳定循环。通过巧妙的赛季循环设计,还能够清除掉一部分积累带来的不平衡和乏味感,在营造公平竞技氛围的同时,为玩家带来持续的新鲜感。  图片来源:《率土之滨》 基于这些创新,《率土之滨》赋予了“率土like”比传统SLG更强的长线留存和更良性的持续盈利能力。但对于SLG游戏行业来说,依旧需要面临前期获客相对困难的问题。不过,不完美这也意味着赛道的天花板还未到来,通过创新优化游戏前期获客和留存能力,品类整体的市场规模还有很大的提升空间。 《率土之滨》奠定了品类的基础框架后,不时会有新的追随者出现,灵犀互娱的《三国志·战略版》和B站发行的《三国:谋定天下》都是非常有力的后来者。 不过据点点数据显示,去年《三国:谋定天下》上线后,《率土之滨》的收入不降反增,其iOS端年流水上升了5.3%。回顾历史,几乎每次竞品出现后,《率土之滨》的收入都处于攀升期,这说明开发团队顺应用户需求变化所做的持续创新,还在不断为游戏注入新的活力,而不是一味地延用旧有模式。 ## **大厂的“率土like”之战** 大厂之间的博弈往往是高举高打,通常只有上限极高的大赛道才值得大厂重点布局,“率土like”正是这样的赛道。 在网易通过《率土之滨》开创赛道后,阿里和B站先后入局。2019年,前者旗下的灵犀互娱开发并发行了《三国志·战略版》;去年,后者独家代理发行了《三国:谋定天下》,并在更早的时候投资了开发游戏的东风工作室。上述的两款“率土like”新作,也分别成为了两家公司在游戏领域营收中的重要组成部分。 新产品要在一个成熟赛道中脱颖而出,往往需要基于赛道痛点进行改良,推出新的打法。如前文所说,“率土like”长于长线留存和付费转化,但在前期的获客和留存上一直有着比较大的困难。原因在于此类游戏的策略难度较大、付费较高,新玩家的上手门槛较高,此外,重视PvP和GvG(团队对战)的玩法,会为负方带来较大的挫败感,容易导致新玩家的退坑。 以买量为主的《三国志·战略版》在过去两年采取了降本增效的方式,但在阿里集团“1+6+N”的背景下,作为“N”的灵犀互娱能够用于买量投入的预算已经不比当年。 去年上线的《三国:谋定天下》在保留“率土like”核心玩法的基础上,选择了“降肝减氪”的策略,但是在网上可以看到三谋玩家吐槽所谓“减氪”,每个赛季却都有一个版本答案,不氪很难有很好的体验。 有趣的是,虽然新游层出不穷,但在激烈的竞争环境下,《率土之滨》依然靠持续的优化创新,不断挖掘并满足玩家的各类需求,同时也吸引了很多喜欢策略型的新玩家。 《率土之滨》作为品类的开创者,不仅奠定了赛季制、地缘战略玩法等一系列“率土like”的核心框架,其多年的内容积累、大量粘性极高用户沉淀也构成了一定的先发优势。  图片来源:B站 自测试版上线后,青春服在B站上的热度一直很高 值得一提的是,从游戏品类的发展角度来看,很多品类都在过去几年迎来了创新,例如,FPS赛道便开始探索“搜打撤”的方向,一些数值卡牌游戏尝试融入更多内容……每一次创新都在进一步抬高赛道的天花板。 综观近几年游戏行业的发展趋势,大厂们先后推出SLG产品,都在押注于“率土like”赛道还远未到达的极高上限。毕竟,SLG所带来的脑力竞争和策略比拼,本身就是大量玩家长期追求的游戏体验,该品类游戏一定是大厂们不可缺位的战略高地。 《率土之滨》有着多年的用户量和口碑积累,以及对品类的深刻理解,现在正是抓住品类痛点,提出“不花钱抽卡”思路,通过产品革新进一步突破的好时机。 ## **《率土之滨》的长盛密码** 创新往往不是一蹴而就,对于持续运营的网络游戏而言尤其如此。想做到长青,必须根据玩家需求动态调整游戏策略——即使要推翻一部分曾经的经典游戏设定。 此次“青春服”的推出,便是《率土之滨》做出的一次大胆而又稳妥的尝试。 大胆的点在于,“青春服”顺应当下“降肝减氪”的潮流,不仅如此,《率土之滨》在这条路上比竞争者们走得更远——取消了“氪金抽卡”机制,改为铜钱免费获取武将和战法,即便是相对“佛系”玩家12天也能组建4队满级阵容;核心武将通过保底机制获取,大幅减少付费依赖,并极大降低入坑门槛,提升了策略体验。  图片来源:《率土之滨》 这些探索“轻付费、重策略”的方式,将有机会提升游戏的长线留存能力。 同时,“青春服”还移除了“宝物系统”“文臣政策”等复杂机制,聚焦武将搭配与战术博弈。例如移除战法拆解限制,玩家可自由组合技能,激发配将多样性。同时新增“百废待兴”政策,优化资源分配,减少了前期内卷,让玩家能够将更多精力用于探索策略搭配的乐趣。 稳妥之处在于,“青春服”的核心设计并非临时起意,而是深思熟虑和实践验证的产物,其核心机制——免费武将获取、玩法精简与年轻化定位均来源于此前上线过的玩法模式,其有效性建立于长期市场测试与用户反馈之上。 据业内人士透露,该模式经历了两年分阶段推进:2023年3月项目组提出概念框架,2024年2月推出以铜币经济体系为核心的“军争模式”进行玩法验证,同年7月通过“零氪策略联赛”完成用户接受度检验,最终形成完整形态。 去年7月,《率土之滨》基于“军争模式”,举办了以高校群体为目标的“校友策略挑战赛”,吸引全球6450所院校超12万人参赛。赛事数据揭示了一个关键趋势:年轻用户对“公平策略场域”的需求远超数值对抗,战术创新与社交协作成为核心驱动力。这也是如今推出“青春服”以吸引年轻群体的重要依据。  图片来源:《率土之滨》 类似的创新本质上来源于官方与用户的共创,开发组通过持续运营过程中推出的新模式来小步试错、快速迭代,不断从中提炼符合用户需求的有效部分,最终推出“青春服”这样开创行业先例的尝试。 作为SLG领域十年长线运营的标杆,《率土之滨》始终以创新驱动品类进化。2015年其首创的“真实沙盘博弈”模式,通过领土争夺、外交博弈、资源制衡等设计,将传统SLG的“数值对抗”升维至“战略推演”层级。此后十年间,游戏持续叠加“天气系统”“立体地形”、“AINPC”等模块——暴雨延缓行军、火攻焚毁要塞、水战改变攻防逻辑——构建出动态战争生态,推动“率土Like”成为SLG细分赛道通用范式。 在产品创新之余,《率土之滨》十年以来还一直努力经营的玩家粘性和社区生态,如今游戏的用户基本盘非常稳固,对于许多老玩家而言,这已经不仅仅是一款游戏,而是凝结了社交关系、共同记忆的文化产品。 据Sensor Tower预测,全球SLG市场规模将在2027年突破200亿美元,而以率土青春服代表的“公平策略”模式已经占据先机。这种转变也符合当下玩家对于游戏的期望——当流量红利消退,唯有回归内容乐趣本身的创新才能穿越周期。 当SLG赛道的竞争来到下半场,经历两年多轮测试终于正式上线的率土青春服,正在通过革新引发行业的连锁反应,众多竞品也很可能因此改变后续的运营策略。 而《率土之滨》的杀招在于,通过“轻付费、重策略”的全新体验,结合高校策略联赛等方式,吸引更多新老用户强化由官方和玩家共同组成的文化生态,或许这就是SLG长青的真正密码。 本文首发自[“36氪游戏”](https://mp.weixin.qq.com/s/F9JKdSy913lda5fusclBuw)。
据路透社报道,立讯精密董事长王来春在周三的电话会议上告诉分析师,公司正在与客户讨论应对美国关税的方法,其中包括将更多生产转移到美国等中国以外地区。  王来春(中)与库克 立讯精密为苹果公司组装iPhone,生产AirPods,该公司的表态可以让外界一窥全球企业如何应对美国总统特朗普的关税政策。美国的对等关税在周三生效。 根据路透社看到的电话会议记录,王来春表示,关税对立讯精密的利润和营收影响很小,因为立讯精密向美国出口的成品数量很少。不过,她在电话会议中提到,立讯精密需要考虑增加海外投资,并可能搁置一些在中国的投资计划。 美国生产 王来春谈到了在美国生产的可能性。“如果有商业上的保障,并且我们能够进行充分的评估,我们不排除将部分产品的生产本地化以满足美国市场的需求。”她表示。 她表示,有客户向公司询问,他们能否在北美为高度自动化生产的产品提供某些服务。立讯精密已告知一些客户,公司需要商业保障。 “但是到这一步时,我们还会权衡一些长期发展和安全方面的考量。”王来春称。 立讯精密是苹果的供应商,后者很可能会受到特朗普关税的冲击。王来春在电话会议中没有提及苹果或任何客户。 王来春还表示,立讯精密正在考虑加大在东南亚的投资,但并未透露具体的投资地点。 对于在印度制造的可能性,王来春表示,立讯精密并未考虑扩展到印度,但如果客户有特别要求,公司会考虑这样做。她还表示,公司在已有工厂的地方建立并启动一条新的生产线需要1到1.5年的时间。 [查看评论](https://m.cnbeta.com.tw/comment/1491708.htm)
商业内幕报道,据知情人士透露,**微软正考虑进行新一轮裁员,最早可能在5月开始。**消息人士称,微软一些团队的负责人正在专门讨论裁减**中层管理人员**,以及降低**非程序员**在项目中的比例。  微软CEO萨蒂亚·纳德拉 这些在公司担任高级职位的消息人士要求匿名,因为他们所讨论的敏感话题仍处于规划阶段。目前尚不清楚会裁减多少个工作岗位,但其中一位消息人士表示,**其所在团队的很大一部分将被裁掉**。微软的一位发言人拒绝置评。 在科技行业,对中层管理人员的裁减已经在进行中。**亚马逊一直在努力提高独立贡献者与管理人员的比例**。去年12 月,谷歌首席执行官桑达尔・皮查伊告诉员工,作为提高效率举措的一部分,**谷歌将副总裁和经理职位削减了10%**。 在微软内部,相关讨论的重点是降低一些团队的“PM比例”,也就是产品经理或项目经理与工程师的比例。例如,**微软安全部门目前工程师与产品经理的比例约为5.5:1,而裁员的目标是达到10:1**。 **大约一个月后可能进行的裁员也可能涉及表现不佳的员工**。 [查看评论](https://m.cnbeta.com.tw/comment/1491706.htm)
“在与美国的人形机器人角力中,中国占了上风,并表现得游刃有余。”4月8日,英国《金融时报》以此为题刊文指出,得益于成熟的供应链、快节奏的创新,以及来自政府的政策支持,中国在人形机器人领域已经占据优势,将复制中国在电动汽车领域的主导地位。 在文中,该报记者谈到了参观中国机器人先驱制造商宇树科技位于杭州总部的经历。当时,参观者被邀请推和踢人形机器人G1,以测试其平衡能力。 文章称,宇树科技正在展示其改造新兴行业、打造人形机器人努力。这些机器人由开源软件驱动,买家可以对它们进行编程,让它们奔跑、跳舞或表演功夫回旋踢。而宇树科技只是中国众多人形机器人初创企业之一。近几个月以来,宇树、优必选、傅利叶等企业在社交媒体吸引了众多关注。  宇树机器人亮相春晚 视频截图 “这是中国人形机器人硬件能力的有力例证,而该领域可能成为中美科技竞争的新前沿。”文章提到,投资银行分析师预测,该行业可能生产出继智能手机、电动汽车之后的,下一个广泛采用的设备。 宇树科技首席执行官兼创始人王兴兴认为,该行业将在五年内迎来突破性的“iPhone时刻”,即行业迎来出货量暴增节点、工业或服务业能真正有终端产品出现的时刻。 各机构均预测,人形机器人行业发展前景巨大。高盛预计,到2035年,全球人形机器人市场规模将高达2050亿美元。花旗银行预测,到2040年,人形机器人销量将达到6.48亿台。美国银行则预计,到2060年,人形机器人销量将达到30亿台。 在人形机器人领域,中国企业面临来自美国的竞争对手,包括特斯拉、Google和Meta等大型科技公司,以及波士顿动力、敏捷(Agility Robotics)在内的机器人初创公司。同时,来自日本和欧洲的机器人制造商专注于制造与人类一起工作的协作机器人。 不过,研究人员表示,尽管竞争激烈,但中企已凭借着深厚的供应链占据了领先地位。文章提到,人形机器人的许多部件已被用于电动汽车,包括将能量转化为运动的执行器、电池和激光雷达等视觉系统。 首先,中国制造的零部件价格比美国便宜得多。美国银行分析师估计,如果使用中国零部件,特斯拉第二代擎天柱机器人的成本将降低约三分之一。 据《金融时报》统计,有25家中国公司为人形机器人的手部提供零部件,而美国只有7家。在人形机器人的腿部线性执行器方面,中国有30家供应商,美国只有6家。此外,除人工智能(AI)芯片外的所有部件,中国供应商的数量都多过美国供应商。  按人形机器人各部件区分,中国、美国及其他供应商数量对比 《金融时报》制图 西方学者指出,中国制造的低价部件,有益于整个行业的迅速发展。英国曼彻斯特大学机器人学者布鲁诺·阿多诺表示:“人形机器人研究正在蓬勃兴起。在宇树出现之前,这是不可能的。” 阿多诺还说,他的团队已将采购可编程H1型号人形机器人的成本,从高达100万美元降低至约10万美元。宇树还向他们免费提供负责操纵和控制电机和传感器的代码,以便后续开发。 他表示:“我们正在开发新技术,通过接入宇树的(应用程序编程接口),来改善机器人的行为和解锁功能。” 同时,中国国内完善的产业政策引擎,助力了中企的迅速成长。除了中央政策和资金支持外,杭州、深圳等地方政府也加入其中,竞相吸引企业,提供补贴以建立产业供应链。此外,人形机器人已经出现在中国商店、街头、工厂和研究机构等各个角落。 文章提到,也有分析人士表示,美国在移动部件方面拥有领先技术,而英伟达AI处理器仍然是大多数人形机器人的大脑。杰富瑞投资银行工业分析师约翰逊·万(Johnson Wan)称:“中国在硬件方面非常擅长,但在创新和软件方面,美国仍然具有优势。” 但伯恩斯坦分析师却认为,中国在人形机器人领域取得的进展,与其在电动汽车市场的主导地位已经不相上下。该机构在最近的一份报告中表示:“中国在产品和用例的多样化方面行动非常迅速。美国企业似乎在追求终极解决方案,但中国采用‘自然选择’的方法,产品模式多种多样。” 当前,人形机器人领域仍有很大的发展空间。德国技术咨询公司Exxeta的机器人专家马库斯·菲舍尔表示,控制人形机器人所需的编程工作仍然很繁重。他说,他花了大约10天时间对G1进行编程,使其能够在办公室内自由行走,通过头部的激光雷达(一种使用光的传感器)进行导航,而不是通过遥控器。 菲舍尔预计,通过人形机器人盘点库存或在超市货架上摆放食品将成为可能,但同时挑战依然存在。 “人类抓取东西非常容易。”他举例说,“我们看到一个玻璃杯,可以轻易地抓住它。我们知道如果用力过猛,可能会把它打碎。但机器人必须学习,才能做到这一点。” [查看评论](https://m.cnbeta.com.tw/comment/1491704.htm)
本月即将发布的Ubuntu 25.04 版本将提供原生 JPEG-XL 支持。一段时间以来,Ubuntu 一直致力于将 JPEG-XL 图像格式支持集成到 Ubuntu 中。最终,随着 Ubuntu 25.04 下周发布,这一里程碑终于得以实现,Ubuntu 25.04 在最后一刻默认支持 JPEG-XL。  [在发布](https://launchpad.net/bugs/2099691)和[MIR](https://launchpad.net/bugs/2070882)团队最终通过最后一刻的功能冻结例外处理后,Ubuntu 25.04 桌面将默认支持 JPEG-XL。JPEG-XL 比 JPEG 有了显著的改进,压缩效率更高,并且比 AVIF 和 WebP 等其他现代替代方案更具竞争力。但由于Google Chrome 已放弃 JPEG-XL,并且这种图像格式的普及速度较慢,JPEG-XL 也面临一些挫折。  无论如何,正如 Canonical 的 Ubuntu 桌面工程师 Jeremy Bicha本周[宣布的](https://discourse.ubuntu.com/t/desktop-team-integration-squad-updates-monday-7th-april-2025/58671/3)那样,得益于最后一刻的努力,JPEG-XL 现已成为 Ubuntu 25.04 桌面的默认支持。它终于来了。在之前的 Ubuntu Linux 版本中,JPEG-XL 可以通过“jpeg-xl”软件包在 Ubuntu Universe 存档中找到,供那些想要手动启用 JPEG-XL 图像支持的用户使用。 [查看评论](https://m.cnbeta.com.tw/comment/1491702.htm)
随着美国正式实施对等关税,对各行各业的影响正在凸显,PC领域自然也无法逃脱。消息称,**由于美国对台湾课以32%关税,包括宏碁、华硕、戴尔、惠普、联想在内的各大PC厂商,已经通知供应链,暂时停止出货两周,观察形势再定。** 对此,宏碁表示,不对谣言或臆测进行回应,但将与客户及供应链密切合作,充分评估市场需求、竞争环境与产品组合,采取必要措施。 值得一提的是,宏碁董事长陈俊圣 2月份就曾透露,**受关税影响的产品将会涨价10%**,并针对市场与产品采取必要措施。 华硕同样拒绝回应,不过强调正密切关注政策变化,将动态调整库存管理、供应链配置与定价策略。 华硕还称,美国市场在华硕的收入中占比约为11- 16%,**已提前进行合理范围内的策略性备货。** 另外,微星笔记本原本主要在昆山生产,特朗普上次执政时就已经将销往美国的产品注意到台湾桃园工厂,近期又在印度设立工厂生产主流型号。 技嘉笔记本也是类似的情况,先前将部分产品产能迁到台湾,如今又得外迁。 受这一轮关税冲击,华硕、宏碁、微星、技嘉股价已连续3天跌停。 根据2月出口数据,台湾**对美国出口额117.7亿美元,计算机及附属单元就有68.38亿美元,占比高达58.1%,计算机零附件也有6.49亿美元,占比5.5%。**  [查看评论](https://m.cnbeta.com.tw/comment/1491698.htm)
今日,科大讯飞高级副总裁于继栋在上海“AI无界·智营全球”2025科大讯飞全球智能营销产品发布会上透露,讯飞星火X1将于近期再次升级。升级后的讯飞星火X1在保持原有数学任务国内领先优势的基础上,**推理能力、文本生成和语言理解等通用任务方面的效果将对标业界领先的OpenAI o1和DeepSeek R1模型。** 此前在2025年1月15日,**科大讯飞推出首个使用全国产算力训练的深度推理模型星火X1。** 星火X1仅用**1万张910B**国产算力卡,就取得一系列研发成果,背后是科大讯飞在国产算力平台大量无人区适配和效率优化工作,真正将国产算力发挥到极致效率,为后续国产大模型适配国产算力开辟了道路。 后在2025年2月中旬的一次机构调研中,科大讯飞曾透露了其最新的研发进展:**公司正在全力训练的纯国产算力平台“星火X1”新版本,预计将在未来三个月内完成**。 当时,科大讯飞曾宣称:这一新版本的发布,预期就可以实现数学答题和过程思维链能力全面对标甚至超过OpenAI o1。 [](//img1.mydrivers.com/img/20250409/c71440bf511846bf903358d21644e793.jpg) [查看评论](https://m.cnbeta.com.tw/comment/1491696.htm)
2nm GAA 工艺进展被传顺利,但三星的目标是通过推出自己的 1nm 工艺来突破芯片开发的技术限制。一份新报告指出,该公司已经成立了一个团队来启动这一工艺。然而,由于量产目标定于 2029 年,我们可能还需要一段时间才能看到这种光刻技术的应用。 1nm 晶圆的开发需要“高 NA EUV 曝光设备”,但目前尚不清楚三星是否已订购这些机器。 另一方面,台积电也正在推出 2 纳米以下芯片,据报道,这家台湾半导体巨头已于 4 月初开始接受 2 纳米晶圆订单。至于三星,在其 2 纳米 GAA 技术的试产过程中,据报道其良率达到了 30%,这比 3 纳米 GAA 工艺有所提升,但仍有很大提升空间。据称,台积电也已开始开发 1.4 纳米节点,因此三星在 1 纳米工艺上的突破将使其取得一些领先优势。 根据爆料人[@Jukanlosreve](https://x.com/Jukanlosreve/status/1909873817151062292)披露的细节,该公司的 1nm 工艺被称为“梦想中的半导体工艺”,而要实现这一目标,需要使用高数值孔径 EUV 曝光设备,而三星尚未购置此类设备。报道还提到,一些参与开发这一尖端工艺的研究人员已被调入团队。 这篇报道的有趣之处在于,此前有消息称三星已取消其1.4纳米制程,这可能是因为三星正将资源和人力集中用于2纳米技术,尽管三星并未透露采取这一举措的具体原因。假设三星成功生产出首颗1纳米晶圆,该公司也需要一段时间才能实现量产,因为其目标是在2029年,也就是四年后,在此期间,这家韩国巨头会有很大可能遇到一些生产障碍。 [查看评论](https://m.cnbeta.com.tw/comment/1491694.htm)
美国白宫当地时间周二(4月8日)宣布,将来自中国内地和香港的小额包裹关税,从货值的30%增至90%,5月2日生效。美国总统特朗普上周签署行政命令,终止来自中国内地和香港的低价值进口产品(800美元或以下)的免税待遇,自5月2日起生效。 白宫当时称,商务部长将于90日内提交报告,评估有关行政命令的影响,并考虑是否把有关规则扩展到来自澳门的包裹。 [](https://n.sinaimg.cn/sinakd20250208s/264/w640h424/20250208/96fd-2d747bad6fef353992fdf203a687839e.jpg) 美国目前对货值低于800美元的外地寄来邮包,提供免征关税的“低额豁免价值”安排。今年2月,特朗普撤销涉及来自中国内地及香港地区的邮包豁免。不过,美国如要落实该等征税安排,可能造成整个邮政物流操作受到延误,造成货品积压,华府其后暂缓执行征税决定,直至确定美国海关有能力处理上述邮包的课税程序为止。 [查看评论](https://m.cnbeta.com.tw/comment/1491690.htm)
<blockquote> <p>“走出老的框框,放下过去、放下身段,向前看。”</p> </blockquote> 3月19日,易居(中国)控股有限公司董事局主席周忻刚刚在自己公司主办的大会上发表了一篇主题为《放下、学习、向前看,中国房地产大有可为》的演讲,两周之后,就赶在清明节前发布了“**中国房地产首个AI Agent(智能体)**” 克而瑞AI。 周忻说,“我有过打算叫它‘AI克而瑞’,觉得我们要颠覆自己,用AI把克而瑞(易居集团旗下的研究院)的东西做一遍。” 这款智能体目前只有网页版,并且只在小范围内进行内测。它的主要功能模块包括:**搜索、文章、报告、知识库**四部分,并且只聚焦于房地产垂直领域。  克而瑞AI Agent内测页面 第一次通过线上直播发布这款产品之后,4月8日,周忻又从上海飞到北京,专门在线下面向媒体去演示这款智能体。 在搜索模块,用户提问之后,克而瑞AI Agent结合外部网络公开信息和易居内部数据库,将搜索到的资料进行阅读分析,进行结果的总结提炼,并以分别归纳要点、列示图表的形式呈现。 在分析回答部分的前面,会展示搜索的信息来源。  克而瑞AI Agent内测页面 在回答结果的后面,还有相关的追问问题。这一点和豆包等AI产品的设计比较相像。  克而瑞AI Agent内测页面 在“文章”模块,克而瑞AI Agent的写作流程为:分析写作思路(类似DS的展示过程)、采集写作素材、整理素材分析、搭建素材脑图、生成文章初稿、校对、完成文章写作7个步骤。 在“素材脑图”部分,可以在思维导图中对结构和素材进行替换、调改写作思路,终版文章也可以直接在线上界面进行修改,体验类似于线上文档。 文章创作完成后,会发手机短信提醒,文稿可以直接导出。  生成文章的过程 据介绍,克而瑞AI Agent按照创新设计的不动产行业写作工作流(Workflow)自主执行,并会自主判断调用克而瑞数据库及RAG知识库,以确保文章专业度及准确度。文章创作类型包含了楼市测评、地块解读、政策分析等,覆盖住宅、购物中心、二手房、家居建材等多个细分领域。 不过,36氪作者在测试中看到:图片素材部分抓取的并非最新素材,而是混合了2017年、2020年等历史素材。  生成文章 对此,周忻回应称:AI Agent更重要的角色定位,应该是一个工具,在使用写作文章功能完成任务之后,需要使用者去做一些主动性的修改、确认工作。 “报告”模块,是克而瑞AI Agent的最核心部分,它的数据来源主要来自克而瑞研究院的内部数据库,包含了住宅、土地、办公、商业、租赁、康养、产城、文旅、企业、宏观政策等各个细分领域。 周忻透露,为了适应AI的调用逻辑,克而瑞把往年的数据、报告全部梳理、重构,这一部分工作耗费的精力和成本比较高。 根据介绍,克而瑞AI Agent可根据报告类型生成撰写大纲及逐页分析内容,并可自动在克而瑞数据库中调用所需数据,无论是区域市场月报、全国年度报告还是做项目研判、土地投资测算都能智能高效完成。  克而瑞AI Agent内测页面 36氪在测试中看到,对于市场月报、城市月报等克而瑞积累了庞大数据库,并实时更新的细分领域,克而瑞AI 的测试表现更优秀,且生成报告的用时较短。 但在“法拍房评估报告”等比较冷门的细分领域,还是出现了使用数据的滞后性问题。  克而瑞AI Agent内测页面 “知识库”模块分为两个主要功能,一是对克而瑞过去20多年沉淀的数据库中各类文献、稿件、报告的调用;另一个功能是用户创建自己的知识库。  克而瑞AI Agent内测页面 “我们不会做其他领域的东西,我们的项目负责人一再跟我说要‘聚焦、聚焦’”,周忻说,克而瑞 AI的目标用户是房地产行业的从业人员,例如营销人员、研究员、规划设计、投拓等岗位员工,它不同于Manus等通用型AI智能体,“原来谁在用克而瑞的东西,现在我们希望降低他们的工作时间、成本,提高效率,在房地产这个领域做到更准确。” 周忻把克而瑞AI Agent能起到的理想作用总结为三个能力:整合工程创新力、行业认知力、数据沉淀力。 - 工程力:克而瑞AI Agent在不动产领域all-in-one Agent以及提供行业特定场景任务完成两个方面,做了诸多创新。如基于底层大模型进行适用房地产行业的微调,生成结果过程中接受用户进行反馈及指令等。 - 行业力:克而瑞AI Agent与房地产行业深度绑定,通过近30年经验沉淀的“房地产思维框架”,结合克而瑞20年积累的数据库和知识库,采用行业RAG LLM模式有效提升调用信息的准确性,同时,通过RAG对信息来源的执行与验证,对于模型所输出的结果极大降低了产生AI幻觉的可能性。 - 数据力:克而瑞覆盖全国400个城市、10余细分领域的实时数据(土地成交、项目去化、政策解读等)赋予克而瑞AI Agent强大的数据力。大数据在AI赋能下,用严谨的地产思维,以几何倍速的算力被挖掘、被激活,被合理的引用到各类工作成果中。  克而瑞AI Agent内测页面 “我们一直在强调要‘精做’”,周忻说,克而瑞AI Agent的计划在5月份正式上线,并推出APP版本。 但还有一个现实的问题周忻没有明确的回答和计划,即:正式发布之后的算力支持,以及收费模式和成本上升问题。 值得注意的是,目前克而瑞AI Agent并不支持大规模的同时使用,一旦出现并发问题,解决成本会快速上升。而对于多数AI公司,目前仍是一个烧钱的生意。 另外,克而瑞AI Agent的广义目标用户规模约为数百万,其中作为个体的人付费意愿并不强,而公司行为的采买则需要衡量使用AI带来的收益,或者用AI替代员工成本的方式来衡量是否值得。 还有一个问题周忻也没有回答,就是:如何解决后续的数据污染问题,并不是聚焦垂直领域就能避免数据、文本的污染,尤其是在房地产领域的项目层面,现实中存在这大量公开的商务型内容,对这些内容的抓取和使用将会影响到AI分析结果的专业性。 目前克而瑞AI Agent的团队人数不到20人,主要由行业分析师和技术人员组成,相当于一个初创公司的规模,如果用户数量增长,团队可能需要更多的人和更多的专业岗位。 还有一个房地产行业的现实问题:经过4年下行期之后,没有任何一家公司还愿意再烧钱做事,目前行业内的AI应用主要偏向于实用领域,如:设计、安防、商户管理等,克瑞瑞AI在市场数据中淘金,而房地产市场自身则越来越以央国企为主流,市场开放性下降,走向金融和资源主导,这意味着市场研究本身的价值会随之下降,这个领域还是否能通过AI做出更高性价比? “2020年到2030年是中国房地产行业一个折叠的时代,从大开发到大资管的折叠阶段,我们正处于这样一个阶段当中,感觉会有点冷、有点痛。”周忻在近期的演讲中说。 最终,只有市场能给出结果。
<blockquote><p>在互联网产品开发和运营中,如何高效评估需求优先级是关键挑战之一。ICE评分模型(Impact, Confidence, Ease)作为一种简单而有效的工具,通过量化影响、信心和实施难度三个维度,帮助团队快速筛选高价值方案。本文将详细介绍ICE模型的定义、应用场景及实际案例,助力产品经理和创业者提升决策效率,优化资源配置。</p> </blockquote>  在互联网产品开发和运营过程中,如何高效地评估和优先处理需求、功能或创意,是产品经理面临的核心挑战之一。 ICE评分模型(Impact, Confidence, Ease)作为一种简单而有效的优先级评估工具,被广泛应用于产品管理、增长实验和敏捷开发中。 下面我们将详细介绍ICE评分模型的定义、应用场景及实际案例。 以帮助产品经理、运营人员及创业者更好地理解并运用这一模型提升决策效率。 ## 01ICE评分模型的定义 ICE评分模型由增长黑客专家Sean Ellis提出,主要用于评估不同创意或实验的优先级。 其核心思想是通过三个关键维度进行量化评分,从而帮助团队选择最具潜力的方案进行落地。 ### 1、ICE的组成要素 ICE模型由三个关键指标构成,每个指标按1-10分进行评分(10分最高): Impact(影响):衡量该方案对核心业务指标(如用户增长、收入、留存率等)的潜在影响程度。 1-3分:影响较小,可能仅影响边缘用户或次要指标。 4-7分:中等影响,可能对部分核心用户或业务指标产生作用。 8-10分:重大影响,可能显著提升核心业务指标。 Confidence(信心):评估团队对该方案成功可能性的信心程度。 1-3分:低信心,缺乏数据或经验支持,更多是猜测。 4-7分:中等信心,有一定数据或逻辑支持,但仍存在不确定性。 8-10分:高信心,有充分的数据、案例或专家意见支持。 Ease(实施难度):衡量该方案的实施成本(时间、资源、技术难度等)。 1-3分:高难度,需要大量资源或长期开发周期。 4-7分:中等难度,需要一定资源但可接受。 8-10分:低难度,可快速实施,成本极低。 ### 2、ICE得分的计算方式 ICE总分 = Impact(影响) × Confidence(信心) × Ease(实施难度) 最终,团队可以根据ICE总分对所有待评估方案进行排序,优先选择得分最高的方案执行。 ## 02ICE模型的应用场景 ICE评分模型适用于多种业务场景,尤其在资源有限的情况下,帮助团队聚焦高价值、高可行性的方案。 以下是几个典型应用场景: ### 1、产品功能优先级排序 在产品迭代过程中,产品经理通常会收到来自用户、业务方、技术团队等多个渠道的需求。 如何决定哪些功能先做? ICE模型可以帮助团队量化评估: 【示例】 功能A(个性化推荐):Impact=8, Confidence=7, Ease=5 → ICE=280 功能B(社交分享):Impact=6, Confidence=6, Ease=8 → ICE=288 功能C(会员积分体系):Impact=9, Confidence=5, Ease=4 → ICE=180 尽管功能A的影响较高,但功能B的实施难度更低,因此可能优先开发。 ### 2、增长实验(A/B测试)优先级 在增长黑客策略中,团队通常会提出多个实验假设(如优化注册流程、调整定价策略等)。 ICE模型可以帮助筛选出最具潜力的实验: 【示例】 实验1(优化注册按钮颜色):Impact=5, Confidence=8, Ease=9 → ICE=360 实验2(增加社交登录选项):Impact=7, Confidence=6, Ease=6 → ICE=252 实验3(简化注册表单字段):Impact=8, Confidence=7, Ease=7 → ICE=392 实验3的ICE得分最高,因此优先测试。 ### 3、市场营销活动优化 在制定营销策略时,市场团队可能面临多个推广方案的选择(如SEO优化、社交媒体投放、KOL合作等)。 ICE模型可帮助评估不同方案的ROI(投资回报率): 【示例】 方案1(SEO优化):Impact=7, Confidence=6, Ease=5 → ICE=210 方案2(短视频KOL合作):Impact=9, Confidence=7, Ease=6 → ICE=378 方案3(社交媒体广告):Impact=8, Confidence=5, Ease=7 → ICE=280 短视频KOL合作的ICE得分最高,可优先执行。 ### 4、创业项目或新业务方向评估 创业者或企业内部创新团队在评估新业务方向时,也可使用ICE模型进行初步筛选: 【示例】 方向A(跨境电商):Impact=8, Confidence=6, Ease=4 → ICE=192 方向B(人工智能):Impact=7, Confidence=7, Ease=6 → ICE=294 方向C(SaaS工具):Impact=9, Confidence=5, Ease=3 → ICE=135 人工智能的ICE得分最高,可能更适合作为初期切入点。 ## 03ICE模型的案例分析 案例1:Airbnb的“专业摄影”服务 Airbnb早期发现房源照片质量影响用户预订决策,于是团队评估了几个优化方案: 方案A(提供摄影指南给房东):Impact=5, Confidence=6, Ease=8 → ICE=240 方案B(雇佣专业摄影师上门拍摄):Impact=9, Confidence=7, Ease=5 → ICE=315 尽管方案B实施难度较高,但其潜在影响更大,最终被采纳并显著提升了房源转化率。 案例2:电商公司的“购物车优化”实验 某电商团队希望降低购物车放弃率,提出了以下优化方案: 实验1(优化结账流程):Impact=8, Confidence=7, Ease=6 → ICE=336 实验2(增加倒计时优惠):Impact=7, Confidence=6, Ease=5 → ICE=210 实验3(发送购物车提醒消息):Impact=6, Confidence=8, Ease=9 → ICE=432 尽管实验3的影响不是最高,但由于其实施简单且信心高,最终被优先执行,并成功降低了15%的弃购率。 ## 最后 ICE评分模型是一种简单而有效的优先级评估工具,适用于产品管理、增长实验、市场营销等多个场景。 其核心优势在于: 量化决策:避免主观偏好,通过数据驱动优先级排序。 快速评估:适用于敏捷开发,帮助团队快速筛选高价值方案。 灵活调整:可根据业务变化动态调整评分。 对于产品经理和创业者而言,掌握ICE模型能够提升资源分配效率,确保团队始终聚焦于最具潜力的方向。 本文由人人都是产品经理作者【伍德安思壮】,微信公众号:【时间之上】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。