Meta 正在路易斯安那州建设一个规模庞大的全新人工智能数据中心,当地公用事业公司计划新建三座燃气发电厂,以提供充足的电力。目前,环保人士和立法者正在敦促 Meta 就如何清理数据中心能源消耗产生的污染做出回应。  罗德岛州民主党参议员、参议院环境与公共工程委员会资深成员谢尔登·怀特豪斯(Sheldon Whitehouse)周三致信Meta 首席执行官马克·扎克伯格,要求其说明该数据中心的能源消耗量以及产生的温室气体排放量。信中称,使用天然气为新数据中心供电“违背了 Meta 的气候承诺”。 科技公司纷纷兴建数据中心,用于训练和运行新的人工智能工具,从而推高了电力需求。在这种情况下,电力公司 Entergy 希望通过新的天然气基础设施来满足这一需求,这引发了人们对 Meta 数据中心可能对环境和当地居民造成影响的担忧。 参议员怀特豪斯在声明中表示:“在我们迫切需要企业承担责任的时候,Meta 违背自己的气候承诺可能会引发更广泛的经济损害。” 2020年,Meta承诺到2020年实现其运营、供应链和产品消费者使用的净零排放。但根据其最新的可持续发展报告,随着公司加倍投入人工智能,其碳足迹现在比设定该目标时更大。 该公司试图通过与其用电量相匹配地购买等量的可再生能源来减少排放。这是 Meta 和其他大公司经常采取的策略:出资支持新的清洁能源项目,试图抵消其设施接入使用污染能源的电网对环境的影响。环保人士越来越担心,这种策略仍然会给社区带来当地污染的负担,而且为了满足人工智能日益增长的电力需求,反而会促进化石燃料的使用,而不是可再生能源。 这场争斗在路易斯安那州里奇兰县上演,Meta 计划在此建造其迄今为止最大的数据中心。该公司去年 12 月宣布,将投资 100 亿美元用于该项目。完工后该园区将占地 400 万平方英尺,大约相当于70 个足球场。但除非 Meta 能确保为所有这些服务器提供足够的电力,否则该项目毫无意义。Meta 正在与 Entergy 合作解决这个问题。Entergy提议建造三个全新的天然气发电厂,总容量为 2260 兆瓦,以支持该数据中心,但这必须首先获得监管部门的批准。 一些倡导者认为,Meta 的数据中心计划缺乏足够的透明度,无法帮助公众了解其对当地电网的潜在影响。总部位于新奥尔良的平价能源联盟和忧思科学家联盟于今年 3 月提交了一份动议,要求路易斯安那州公共服务委员会将 Meta 列为是否批准建设新天然气工厂的诉讼程序的正式当事人。此举将迫使该公司披露更多信息,该委员会计划于周一审议该动议。 平价能源联盟执行董事洛根·伯克 (Logan Burke) 表示:“如果不了解对电力系统、账单和水资源可能产生的影响,你就很难弄清楚这样的设施对你的社区是好是坏。” 已有预测称,数据中心电力需求的快速增长可能会推高美国的电费。Meta公司去年12月表示,将每年向Entergy公司的项目捐赠100万美元,帮助老年人和残疾人支付电费。数据中心也是出了名的耗水大户,尽管Meta公司表示将投资一些项目,使水资源恢复到其消耗量以上。 与此同时,参议员怀特豪斯在信中要求Meta公司在5月28日之前回答一系列问题。除了数据中心的用电量和温室气体排放问题外,怀特豪斯还想知道建设燃气发电厂而非可再生能源发电厂的理由是什么。此外,他还敦促Meta公司解释该提案如何与其2030年的气候目标保持一致。 Meta 坚持表示,将继续根据自身用电量匹配可再生能源,包括承诺资助路易斯安那州新增 1500 兆瓦太阳能和电池资源。该公司还表示,将资助至少一座发电厂增加二氧化碳排放捕获技术的成本。Whitehouse 希望了解其将提供多少资金以及将捕获多少碳。碳捕获技术的部署成本高昂,通常可以通过一种名为“强化采油”的工艺利用捕获的二氧化碳生产更多化石燃料来抵消成本。 Meta 发言人 Ashley Settle 表示:“我们收到了这封信,期待做出回应。我们认为,多样化的能源解决方案对于推动我们的 AI 雄心壮志至关重要——我们将继续探索创新的技术解决方案。” 安特吉电力公司的目标是到2030年确保其50%的发电能力实现零碳污染。但该公司在给《 Fast Company》的一份声明中表示,天然气“是目前成本最低的合理选择,能够满足像Meta这样的大型数据中心全天候的电力需求”。 [查看评论](https://m.cnbeta.com.tw/comment/1500264.htm)
[据彭博社报道](https://finance.yahoo.com/news/openai-help-uae-develop-one-182637051.html),OpenAI 准备帮助在阿布扎比开发一个容量高达 5 千兆瓦的数据中心园区,该公司将成为该项目的主要租户,该园区可能成为全球最大的人工智能基础设施项目之一。 [](https://static.cnbetacdn.com/article/2025/0426/28278f98dcc375e.jpg) 据报道,该设施占地面积高达 10 平方英里,耗电量相当于五座核反应堆,远超 OpenAI 及其竞争对手宣布的任何现有 AI 基础设施。 阿联酋项目是与总部位于阿布扎比的科技集团 G42 合作开发的,是 OpenAI 雄心勃勃的星际之门(Stargate)项目的一部分,该项目于 1 月宣布成立合资企业,OpenAI、软银和甲骨文可能会在全球范围内建立配备强大计算机芯片的大型数据中心,以支持人工智能发展。 OpenAI 在美国的第一座星际之门园区(已在德克萨斯州阿比林开发)预计将达到 1.2 千兆瓦,而这家位于中东的园区的容量将是该园区的四倍以上。 该项目正值美国和阿联酋之间更广泛的人工智能合作不断推进之际,这让一些立法者感到不安。 OpenAI 与阿联酋的关系可以追溯到[2023 年](https://www.reuters.com/technology/chatgpt-creator-openai-partners-with-abu-dhabis-g42-uae-scales-up-ai-adoption-2023-10-18/)与 G42 建立的合作伙伴关系,旨在推动中东地区人工智能的普及。同年早些时候,OpenAI 首席执行官 Sam Altman 在阿布扎比的一次演讲中盛赞阿联酋,称其“[早在人工智能兴起之前就一直在谈论它](https://www.thenationalnews.com/business/future/2023/06/06/sam-altman-abu-dhabi-was-talking-about-ai-before-it-was-cool/)”。 与人工智能领域的许多领域一样,这些关系……错综复杂。G42成立于2018年,由阿联酋国家安全顾问、阿联酋酋长之弟谢赫·塔赫农·本·扎耶德·阿勒纳哈扬担任主席。OpenAI对G42的接纳在2023年末引发了美国官员的担忧,他们担心G42可能使中国政府获得[美国先进技术](https://www.nytimes.com/2023/11/27/us/politics/ai-us-uae-china-security-g42.html)。 这些担忧主要集中在 G42 与华为和中国科学院北京基因组研究所(国家生物信息中心)等已被列入黑名单实体的“[积极关系](https://www.computerworld.com/article/1611457/us-lawmaker-wants-probe-of-uae-firm-with-ties-to-openai-microsoft.html)”,以及与中国情报工作有关的个人的联系。 在美国立法者的压力下,G42 的首席执行官于 2024 年初[向彭博社透露](https://www.bloomberg.com/news/articles/2024-02-12/abu-dhabi-ai-firm-g42-to-pare-back-china-presence-in-pivot-to-us),公司正在调整战略,并表示:“我们之前在中国的所有投资都已撤离,因此,我们当然不再需要在中国设立任何实体机构。” 不久之后,微软——OpenAI 的主要股东,在该地区拥有更广泛的利益——宣布向 G42投资 15 亿美元,其总裁布拉德·史密斯 (Brad Smith) 加入了 G42 董事会。 [查看评论](https://m.cnbeta.com.tw/comment/1500260.htm)
苹果首款可折叠 iPhone预计将于2026 年末 或 2027 年首次亮相,今天来自韩国的一则新传闻泄露了工程原型的当前状态。根据知情人士基于工程测试设备的数据,iPhone Fold 的屏幕尺寸比之前的原型略小,但分辨率和长宽比相同。 据称 iPhone Fold 的正面显示屏上会有一个打孔摄像头,内部折叠屏幕则首次配备屏下摄像头,这样一来它将类似于三星的 Galaxy Z Fold系列。  该原型显示屏的配置如下: <blockquote><p>外壳显示屏的长宽比为 14.6:1,并配有打孔相机。</p><p>内部主显示屏的宽高比为 14.1:1,并配有显示屏摄像头(与 Z Fold 类似)。</p><p>它的侧面还配备了 Touch ID 传感器,但未安装 Face ID。</p></blockquote> 苹果仍有大量时间来确定 iPhone Fold 的具体规格,因此很多方面未来都可能(而且很可能会)发生变化,无论如何,苹果选择屏下摄像头路线仍然值得关注。 此前有传言称,苹果正致力于最大限度地减少折叠屏幕的折痕,并为 iPhone Fold 配备比任何竞争对手都要高品质的铰链。 [查看评论](https://m.cnbeta.com.tw/comment/1500258.htm)
本月13日,北京经历了一场强对流天气,多个区出现冰雹。然而当晚在冰雹降落期间,东三环主路发生了一件意外的事:从网络上流传的视频看,意识到下冰雹后,**不少车辆挤在了一辆高架桥下方躲避,直接停在了当场,如此致使后方大拥堵,数百甚至上千辆车只能原地驻停**。任凭后方车辆不断摁喇叭,排头的车辆依旧不为所动,甚至驾驶员还有心情下车看地面上的冰雹。  如此一幕让大多数网友愤怒非常,纷纷要求严惩桥下躲避的司机,**不过也有人认为这是在“紧急避险”,他们没有任何错误**,那么这事到底该如何界定? 近日,央视网依据相关法律给出了解释: 根据《中华人民共和国道路交通安全法》第五十六条规定,机动车应当在规定地点停放,禁止在人行道上停放机动车。 但是,依照本法第三十三条规定施划的停车泊位除外,在道路上临时停车的,不得妨碍其他车辆和行人通行。 **这些停车避险的车主已经妨碍了通行,违法了交通法规**。 此外,根据《民法典》第一百八十二条规定,因紧急避险造成损害的,由引起险情发生的人承担民事责任。 危险由自然原因引起的,紧急避险人不承担民事责任,可以给予适当补偿。 **紧急避险采取措施不当或者超过必要的限度,造成不应有的损害的,紧急避险人应当承担适当的民事责任**。 躲在桥底下躲避冰雹的行为,**是为了让自己避免被砸,但可能导致更多车辆受损,显然并不适用“紧急避险”**,若造成了交通拥堵或事故,可能会面临相应的行政处罚和相应的民事责任。  [查看评论](https://m.cnbeta.com.tw/comment/1500254.htm)
近日,字节跳动在多地工区推行了一系列新的管理规定,涵盖餐食外带与午休政策,引发广泛关注。在餐食管理方面,有内部员工透露,**公司已发布内部通知,明确规定职场提供的三餐、随餐饮品、水果以及茶水间零食等福利,**员工需现场即取即用,严禁带离职场。 [](//img1.mydrivers.com/img/20250517/9563ac1ea34b4d95adf5cecb3a604756.png) 通知强调,餐食外带行为违反了公司的餐饮管理规定,对于情节严重的侵占情况,违规者将面临退赔、警告甚至辞退等不同程度的处罚。 与此同时,午休政策也做出了相应调整。**以往深圳工区作为唯一允许关灯午休的办公区域,如今也宣布午睡时不得关灯。** 此外,鉴于办公室空间较为拥挤,北京及深圳工区开始对折叠床的使用加以限制,规定折叠床不能放置在公共区域用于午休。 针对这些调整,字节跳动一位内部知情人士解释称:“餐食方面的调整,主要是为了治理多拿多占现象,比如个人外带大量餐食;职场内用餐不受任何影响。而午休方面,**不存在不让午休的说法,员工可以根据个人需求在工位午休;**主要是避免个人物品占用消防安全通道、公共区域。 [查看评论](https://m.cnbeta.com.tw/comment/1500252.htm)
对于小米来说,能够设计出自己的芯片,一直都是雷军的梦想,同时也是公司发展的需要,特别是他们进军汽车领域后,这个情况就变得尤为迫切和重要了。本周雷军公开宣布,小米自主研发设计的手机SoC芯片,名字叫玄戒O1,即将在5月下旬发布。 按照雷军的说法:“十年饮冰,难凉热血!” **对于此举,有博主表示,十年造芯计划终于开花结果了,至此小米成为苹果、三星、华为后,全球唯四,国产唯二拥有核心自研芯片的手机品牌,正式跻身T0级科技品牌。** 现在,有供应链曝光了所谓玄戒O1芯片的细节,看起来真实性还是挺高的,采用“1+3+4”八核三丛集设计,并且外挂5G基带。 曝光信息中显示,**小米玄戒O1芯片或采用的是“1+3+4”八核三丛集设计:采用1颗Cortex-X3超大核(主频3.2GHz)、3颗Cortex-A715中核(主频2.6GHz)、4颗Cortex-A510小核(主频2.0GHz)。** **至于基带方面,初期方案上,玄戒可能通过外挂联发科5G基带,以“SoC+基带分离”方案降低技术风险。** 如果是真的,这也可以理解,毕竟连苹果这样的大厂,也没完全搞定基带技术。 按照之前的报道,早在4月初,小米旗下芯片部门玄戒“Xring”已独立运营,团队规模达1000人,由高通前资深总监秦牧云领导;小米已完成首款3nm工艺SoC原型测试,进入设计定案(tape out),但该芯片将采用Arm现有的设计架构,而非使用任何小米自研核心。 [](//img1.mydrivers.com/img/20250516/86579a8fb50e4f72bf76f142427ee6e4.jpg) [查看评论](https://m.cnbeta.com.tw/comment/1500250.htm)
一位接近京东的人士透露,刘强东在公司内部向来亲力亲为,尤其重视一线业务。在2024一年,刘强东已为京东管理层开展1800人次的培训,每周至少4天,亲自为各部门进行战略设计、业务规划、团队建设及用户体验细节等方面的指导,甚至因过度投入一度声带撕裂、声音嘶哑。 在具体管理层面,多位京东内部人士回忆,刘强东每周都会亲自参与零售、物流等多个板块的日会,现场解决大部分方向性问题。 谈及入局外卖的目标,刘强东表示希望解决餐饮行业外卖员生存与消费者食品安全难题。他提出,要牺牲部分利润,“我们少赚一部分钱,不要让餐饮人卷得太厉害,导致食品不安全;也不要让外卖小哥卷得太厉害,导致他们未来得不到保障,更不要过度卷消费者。” 刘强东还严格要求:“我希望京东外卖都是我们可以每天自己订着吃的,可以放心给父母订着吃,放心给孩子吃。所有做外卖的员工,包括达达和京东所有高管,都要尊重这个原则,每个业务负责人要经常点外卖给自己孩子吃。” [](//img1.mydrivers.com/img/20250517/74e347464b7b424ebfc3c2605b85aaea.png) [查看评论](https://m.cnbeta.com.tw/comment/1500248.htm)
华为在2023年底发布了首款耳夹耳机华为FreeClip,至今依然是这个品类的体验天花板。不过FreeClip更偏向于日常佩戴,走的时尚搭配路线,**最新的华为FreeArc则是一款专注于运动的开放式耳挂耳机。**  **华为FreeArc此前已经在海外市场率先发布,目前国行版已经官宣,将于5月19日正式发布。** 华为终端官微放出了一波官方图展示外观,**华为FreeArc与传统的耳挂式耳机造型类似,采用开放式耳挂结构。**  耳挂部分选用0.7mm高性能镍钛记忆合金,兼具灵活性与韧性,**能根据不同用户的耳型进行自适应调节。** S形贴耳曲线设计和重心天秤均压设计,使耳机自然贴合耳部轮廓,优化重心分布,佩戴更稳定,适合运动佩戴。  **单个耳机重量为8.9g,充电盒重量67g,耳机内置55mAh电池,配合充电盒续航约28小时,支持IP57防尘抗水。** 耳机内置17x12mm动圈,支持定向音频传导及通话降噪、动态低音算法和自适应算法等。       [查看评论](https://m.cnbeta.com.tw/comment/1500244.htm)
当前围绕辅助驾驶基本分为两条路线,**第一种就是视觉,典型如特斯拉,甚至砍去了除摄像头之外的其他所有传感器**,且目前已有跟随者。而另一种则是以华为、理想等为代表的大多数,坚持使用以激光雷达为核心的融合感知方案。  有趣的是,**小鹏汽车经历了从激光雷达到视觉的转变,那么为何它要弃用激光雷达?**近日,小鹏汽车自动驾驶产品高级总监袁婷婷进行了回应。 **她直接表示:激光雷达看得远是个伪命题。** 以下是她关于该论点的介绍: 首先激光雷达是主动传感器,依赖于向外发射近红外光以及反射回波来计算 ToF(time of flight),来计算障碍物,这样会带来几个缺点。 随着距离增加,激光束发散角扩大,导致能量密度呈平方反比衰减,**在远距离测量时,回波信号强度和点云密度都大幅降低**。 以当前行业领先水平192线激光雷达为例,200m外的物体,激光雷达可获取信息和800万像素摄像头可获取信息可以用下图做一个对比。 而车辆需要足够的信息来区分200m外是一个轻飘飘的塑料袋,还是一个横行的电瓶车。 所以对于大模型方案来说,检测远距离目标最好的传感器不是激光雷达,而是高分辨率摄像头。 此外她还表示,**激光雷达会有多径效应并且帧率远低于摄像头**。 作为一种主动传感器,激光雷达在测量远距离的复杂地形或障碍物可能发生多次反射,导致回波信号混叠,使得原来的信号失真,或者产生错误,难以准确识别甚至误识别真实目标。 同时业界主流激光雷达的处理帧率,不及我们摄像头帧率的一半,低频的帧率会让远距离且高速移动物体的识别误差进一步加剧。 200m开外的外卖小哥,小鹏lofic摄像头拍摄 同时,激光雷达其实对于天气状况非常敏感,穿透雨雾主要依靠的是毫米波雷达。 近红外光的波长短,根据波粒二象性,波长越短粒子属性越强,衍射性越差,遇到雨雪雾等极端天气就会在传感器附近几米内形成一团噪点,并且不能穿透这些透明障碍物看到雾气后面的目标,从而“致盲,**而毫米波雷达波长更长,衍射性好,雨雾特性好。** 最后她总结称,**激光雷达是一个信息密度低,且容易受干扰的传感器,并不适合作为强大大脑的眼睛**。 [查看评论](https://m.cnbeta.com.tw/comment/1500242.htm)
昨夜,OpenAI推出一款基于云的**软件工程Agent(智能体)——Codex**的预览版。Codex可并行处理多项任务,例如**编程、解答代码库相关问题、修复错误以及提交拉取请求以供审核**等,在云上运行并预加载用户代码库。  Codex由**codex-1模型**提供支持。codex-1是OpenAI o3针对软件工程优化后的版本。目前,Codex已面向ChatGPT Pro、Team和Enterprise用户上线,即将面向Plus用户上线。 OpenAI同步推出codex-1的精简版本,基于o4-mini专为轻量级开源编码Agent“Codex CLI”而打造,API定价为**1.5美元/100万 tokens输入, 6美元/100万tokens输出**,即时缓存打七五折。 体验地址: [https://chatgpt.com/codex](https://chatgpt.com/codex) **01****.** **自己写代码提交更改** **跑一次1-30分钟** 现在,用户可以通过ChatGPT的侧边栏访问Codex,通过输入提示并点击“代码(Code)”按钮下达编程任务,也可以点击“Ask(提问)”向Codex询问有关代码库的问题。每个任务都在预加载了用户代码库的独立隔离环境中独立处理。 Codex可以读取和编辑文件,以及运行包括测试工具、类型检查器等在内的命令。任务完成通常需要1-30分钟,具体取决于复杂程度,用户可以实时监控Codex的进度。  Codex完成任务后,会在其环境中提交更改。通过引用终端日志和测试输出,Codex来提供其操作的可验证证据,让用户可以追踪任务完成过程中的每个步骤。 用户可以查看结果、请求进一步修订、提交GitHub拉取请求,或直接将更改集成到本地环境中。在产品中,用户可以配置Codex环境,使其尽可能与实际开发环境匹配。 Codex可以通过放置在用户代码库中的AGENTS.md文件进行引导。这些文本文件类似于README.md,用户可以在其中告知Codex如何导航代码库、运行哪些命令进行测试以及如何最好地遵循项目的标准实践。与人类开发人员一样,Codex在配置好开发环境、可靠的测试设置和清晰的文档后,性能最佳。 在编码评估和内部基准测试中,即使没有AGENTS.md文件或自定义代码生成器,codex-1也表现出强劲的性能。  23个无法在OpenAI内部基础架构上运行的SWE-Bench Verified样本被排除在外。codex-1的测试设置最大上下文长度为192k tokens,推理难度为中等,这也是目前产品中可用的设置。 **02****.** **报错自动告知用户,过程可检测** 在安全和透明度方面,用户可以通过引用、终端日志和测试结果来检查Codex的工作。 当不确定或面临测试失败时,Codex会明确地告知这些问题,使用户能够就如何继续进行做出正确决策。  训练codex-1的主要目标,是让它的输出与人类的编程偏好和标准更接近。 如下图所示,与OpenAI o3模型相比,codex-1始终能够生成更清晰的补丁,可供立即进行人工审核并集成到标准工作流程中。   为了平衡安全性和实用性,Codex经过了训练,能够识别并精准拒绝旨在开发恶意软件的请求,同时清晰区分并支持合法任务;还增强了政策框架,并纳入了严格的安全评估。 Codex完全在云端安全隔离的容器中运行。 在任务执行期间,互联网访问被禁用,Agent的交互仅限于通过GitHub代码库明确提供的代码以及用户通过安装脚本配置的预安装项。Agent无法访问外部网站、API或其他服务。 **03****.** **Pro用户可免费体验** **API收费1.5美元/100万 tokens输入** 上个月,我们推出了Codex CLI,一款在终端中运行的轻量级开源编码Agent。它将o3和o4-mini等模型功能引入到用户的本地工作流程中。 今天,OpenAI还发布了codex-1的精简版本,这是专为Codex CLI使用而设计的o4-mini版本。 这个新模型支持CLI中更快的工作流程,并针对低延迟代码问答和编辑进行了优化,同时保留了指令遵循和样式方面的相同优势。它现在是Codex CLI中的默认模型,并在API中以codex-mini-latest的形式提供。 使用ChatGPT登录Codex CLI的Plus和Pro用户,今天晚些时候即可开始兑换价值5美元和50美元的免费API积分,有效期为30天。 对于使用codex-mini-latest构建的开发人员,该模型可在Responses API上使用,价格为1.5美元/100万 tokens(输入), 6美元/100万 tokens(输出),享受75%的即时缓存折扣。 OpenAI的技术团队已开始将Codex纳入其日常工具包。 工程师们最常使用它来卸载那些重复且范围明确的任务,例如重构、重命名和编写测试。它同样适用于构建新功能、连接组件、修复错误以及起草文档。 在发布之前,OpenAI还与一小群外部测试人员合作。 比如,思科正在探索Codex如何帮助其工程团队更快地将想法付诸实践,并向OpenAI团队提供反馈;Temporal使用Codex加速功能开发、调试问题、编写和执行测试以及重构大型代码库等。 根据早期经验,OpenAI建议同时将范围明确的任务分配给多个Agent,并尝试不同类型的任务和提示,以有效地探索模型的功能。 **04****.** **结语:Codex仍处早期阶段** **未来或成主流** OpenAI坦言,Codex的开发仍处于早期阶段。作为研究预览版,它目前缺少一些功能,例如用于前端工作的图像输入,以及在Agent工作时对其进行方向修正的功能。此外委托给远程Agent比交互式编辑耗时更长,都需要时间改进。 这仅仅是一个开始,可以预测,Codex在ChatGPT中引入的异步多Agent工作流将成为工程师编写高质量代码的主流方式,实时配对和任务委托两种交互模式将逐渐融合。 [查看评论](https://m.cnbeta.com.tw/comment/1500232.htm)
5月17日,据《商业内幕》报道,Google公司CEO桑达尔·皮查伊(Sundar Pichai)在接受采访时爆料称,Google曾经“非常认真”地考虑收购流媒体视频公司Netflix。  在周五播出的新一期播客节目《All-In Podcast》中,皮查伊谈到了许多话题。在访谈的最后,主持人、前Google员工大卫·弗里德伯格(David Friedberg)向皮查伊提问:他最引以为傲的时刻是什么?最大的遗憾又是什么? 皮查伊透露,Google曾考虑收购Netflix。“我们曾就收购Netflix一事进行过非常激烈的内部讨论。”他说。 他表示,像Netflix这样的收购案曾在公司内部“被激烈讨论过”,而且Google当时“差点”就达成了这笔交易。不过他随后澄清说,放弃收购的决定并不算是一个“遗憾”。 2014年,英国科技研究公司CCS Insight曾预测Google将在2015年收购Netflix,但当时并没有多少关于这一收购谈判的公开报道。 自2016年启动全球扩张以来,Netflix一直引领娱乐行业发展,订阅用户已突破3亿。尽管Google通过其智能电视平台Google TV以及互联网直播服务YouTube TV进入了电视领域,但它从未像Netflix那样成功打入传统流媒体市场。 长期以来,Google一直喜欢通过高调收购交易来吞并竞争对手,但Netflix是该科技巨头公开承认曾考虑收购的最大牌公司之一。多年来,Google成功收购了多家如今已成为其核心产品线一部分的公司,包括Waze、Wiz、Nest、Fitbit、Android 以及YouTube。 对于自己的自豪时刻,皮查伊指出,他为Google在技术领域所取得的突破感到自豪。他指出,能够获得诺贝尔奖并开展研发工作从而催生新业务的公司并不多。 2024年,GoogleDeepMind CEO德米斯·哈萨比斯(Demis Hassabis)和研究主管约翰·贾姆珀(John Jumper)因开发出预测蛋白质三维结构的人工智能系统AlphaFold,获得诺贝尔化学奖。这家科技巨头还设有Google Research等研究部门,对广泛课题进行投资,并将研究成果转化为现实产品,例如山火监测和洪水预警技术。 皮查伊在播客中表示:“我认为我们在这方面做得非常出色,求饥似渴。”他补充说,这正是Google的一个独特之处。 [查看评论](https://m.cnbeta.com.tw/comment/1500230.htm)
<blockquote><p>AI如何从“婴儿”成长为“全能大师”?本篇文章将通过生活中的真实案例,深入解析 DeepSeek/GPT 的底层原理,揭示 AI 认知能力的养成过程,帮助你理解 AI 学习与进化的核心逻辑。</p> </blockquote>  或许这是一篇初中知识就能看懂的文章-从零拼装Transformer:像搭乐高一样理解大模型技术的核心。 大模型底层原理有两个较难理解的地方:分别是“神经网络”和“Q K V”向量矩阵。不过,本文尽量避免了数学公式,基本都是以通俗易懂的比喻来描述大模型是如何被训练成掌握人类语言的。 我们日常使用的Deepseek,GPT,Llama,Qwen,元宝等大部分应用的大模型训练原理基本类似-都是基于Transformer(一个名称而已,忽略)。AI之所有有时候会产生所谓“幻觉”(看似比较有逻辑的胡说八道),就是因为其训练原理所决定的。看完本文,你应该能理解“幻觉”的原因,也应该能想到降低“幻觉”的方法。除此以外,也能理解为什么大模型应用在回答问题时全都是一个字一个字往外蹦。也能理解大模型哪些问题大模型回答不了,需要调插件或API才能回答,也能理解为什么光有大模型还不够,还要有Agent,Rag,工作流等等。 由于把一个复杂的技术原理用一些生活例子去讲明白本身难度很大,所以本文难免存在少数部分细节描述不严谨的情况,但不影响咱们对原理的理解。 我们所接触到的大模型,大部分都是指语言大模型(LLM),即掌握了人类语言的大模型,如GPT、DeepSeek等等。我们给待训练的大模型起个名字,就叫”小模”吧。 ## 小模的成长之旅:从识字到理解人类语言 训练阶段(Pretrain),我们都对小模做了什么? - 小模要不停地阅读海量的人类文字资料 - 一字一句地学习人类如何使用文字 - 目标是掌握最多的人类知识和文字表达方式 ## 一、简述训练流程  让我们用”人”字为例,看看小模是如何学习的: (实际训练过程并不是一个字一个字的训练,为了描述方便我们以单字为例,不影响对原理的理解) - 科学家给小模看汉字”人”-> - 小模将”人”转化成一串数字(因为机器人只认识数字)-> - 再将数字转化成向量(计算字与字之间的”关系”)-> - 给向量标记位置(标记字在句子中的位置,也是用于计算”关系”)-> - 带位置标记的”人”的向量进入有很多神经网络(想象为太上老君的炼丹炉)的车间,从车间出来的”字”向量带了很多丰富的特征信息(药材炼成仙丹的过程)-> - 用这个带有丰富信息的”人”向量与所有的字分别计算相似度,得出与每个字的相似度概率大小,概率最大的那个即为最终的结果,假设是”工” - 和”正确答案”对比,如果正确,则将”人工”作为输入,继续上述流程;如果错误,则调整相关参数继续学习,直到正确; 通过上述步骤,经过大量反复训练,小模就逐渐掌握了人类语言。 实际训练过程中,科学家会把能找到的所有资料都给小模,比如假设所有汉字资料加起来共有7.5万亿个,训练时会将这7.5万亿个汉字按每20000(假设)字为单位,共切成3.75亿个段落。每个段落按同样的流程进行训练。 段落首次进入训练系统时,会让小模看到第1个字(假设是”人”),遮住剩下的19999个字,看小模能否正确地输出第2个字(假设是”类”),如果输出正确,然后让小模看到前两个字即”人类”,以此类推。遮住后面字的这种方式称为掩码自注意力机制(掩-即遮掩,自注意力下文描述)。如果不遮住后面的字,就是自注意力,下面我们主要说明自注意力这种方式,理解了自注意力,掩码自注意力也自然能理解。 ## 二、详述训练流程  ### 2.1 小模识字 小模作为一个机器人,不认识人类文字,只认识数字,所以我们需要将文字转成数字。 **2.1.1 将”字”数字化** 【参考图中Token化方框1】  科学家们给每个汉字(包括标点符号等) 配发一个身份证号,即每个字都会有一串唯一的号码。(这一过程称为文字Token化,一个字可能对应一个或多个Token。本文我们约定一个字对应一个Token,不影响对原理的理解) GPT3总共规定了50257个Token(不同大模型定义Token的方式不同,但不重要),称其为Token字典把。 现在小模有了Token字典,就认识每个字了,但是它还不知道每个字各自间的关系,比如哪些字在哪些场合下可以出现在一起(即字与字之间的相关度大小,相关度越大,出现在一起的概率越大),为了解决这个问题:需要将字向量化。 **2.1.2 将”字”向量化** 【参考图中向量化方框1】 科学家们给每个身份证号配发一个向量(将Token向量化–即词嵌入Embedding),因为两个向量的余弦夹角即表示两向量的相似度,因为向量对应身份证号,身份证号对应文字,所以就解决后续流程中计算字与字之间的相似度关系问题。 配发的向量每个坐标的参数值是多少呢?小模不知道,科学家们也不知道,所以在这里放了一个**神经网络–**可先理解为一个魔盒,把向量放进去,经过盒子里的一些处理后再出来的时候向量的各维度的值就确定了。初始时随机赋值,这些初始值毫无意义,纯粹作为训练的起点。向量维度的数量由人工设定。更高的维度能容纳的信息更多,但同时也会增加计算量。然后通过大量文本中学习词语的上下文分布模式等不断调参(好比换药材改比例重新炼丹),最终确定向量的参数坐标值。比如若“猫”和“狗”经常出现在相似的上下文中,它们的词向量在训练过程中便会逐渐接近。向量每个维度的值可能对应着某种潜在语义或语法特征(比如“性别”、“时态”、“褒贬义”等等),但这些特征是模型训练过程中自动发现的规律,而非定义出来的。 **如何理解向量能衡量相似度?**(这块很简单,如果理解则可以跳过这段解释) 想象有两个箭头(向量),它们相乘(点积)就像看它们指向的方向有多像。具体是这样算的: - 如果两个箭头指向几乎同一个方向(很相似),它们的乘积会很大 - 如果两个箭头互相垂直(完全不相关),乘积就是零 - 如果两个箭头完全相反方向,乘积就是负数 所以简单来说:两个箭头的乘积越大,说明它们的方向越接近,关系越紧密。 用在词语上的话,如果两个词在语义空间中的箭头乘积很大,就说明这两个词的意思很相近或相关。就像”手机”和”电话”这两个词的箭头方向会很接近,而”手机”和”香蕉”的箭头方向就会差很远。 **以汉字”猫”,”狗”,”鸟”的向量表示相似度为例:** 为简化问题,我们用3维向量表示,每个维度特征如下: - 维度1: 体型大小(0~1,0最小,1最大) - 维度2: 是否适合作为宠物(0~1,0不适合,1很适合) - 维度3: 食性(0=纯肉食,0.5=杂食,1=纯素食)  计算相似度(余弦相似度) 猫 vs 狗: ≈ 0.95 **结论**: 猫和狗相似度 95%(极高) 猫 vs 鸟: ≈ 0.62 **结论**: 猫和鸟相似度 62%(较低) 为什么猫和狗更相似? - 宠物属性接近(猫 0.9 vs 狗 0.95) - 食性更接近(猫 0.1 vs 狗 0.4,鸟 0.8) - 体型差距较小(猫 0.3 vs 狗 0.6,鸟 0.1) **2.1.3 将”字”装上定位器** 【参考图中位置编码向量方框1】 科学家们给每个向量配发一个座位号,因为一段文字内容里的每个字都是有先后顺序的,顺序变了,可能整个内容的意思就变了(比如”猫追老鼠”和”老鼠追猫”),所以需要座位号。同理,座位号也要参与相似度计算,所以座位号也是向量,称为位置编码向量(Positional Embedding)。位置编码向量像另一组可调整的密码锁,初始随机设置,后期随机除自动化化(类似词向量),最终与词向量相加组成一个新的**向量A**(GPT3的向量A有12288维)。 (说明:为了简化描述,本文提到的所有向量A,向量B,向量C,向量D(除了进入Linear车间的向量D之外,文章最后有描述),实际都可能对应多个字的向量,即当前输入的是几个字就代表有几个向量。比如输入了两个字”人类”,那向量A就表示这里有一个”人”的向量A和一个”类”的向量A) 此时,向量A就已经包含了一些特征信息和位置信息了。比如”猫追狗”这句话中的猫向量[体型,宠物,食性,群居,可训练,**位置**] ### 2.2 小模学句子 **将”字”放入炼丹炉** 【参考图中Heard1方框2】  这时,科学家们把向量A输入到一个包含很多神经网络的车间(Transformer的核心环节),把这个车间想象成一个炼丹炉,神经网络就是炼丹炉里的三昧真火,可以将向量A隐藏的丰富的重要的信息提炼显现出来。 **炼丹过程:** 假设我们现在向炼丹炉里放入了100个字(这100个字组成了一段话),炼丹的过程就是让小模理解这段话的意思的过程。 我们知道,字会被转化成向量,所以这段话的信息全部包含在这100个向量及每个向量彼此之间的关系里,也即包含在这100个向量的每个向量的坐标里。GPT3规定每个向量为12288个维度。这么高维度的向量,能容纳非常丰富的信息。这段话的每个字都与其他每个字存在或多或少的关系。每个字从自身出发**(自注意力)**来看整段话,都会有一个对于这段话的理解。当每个字都理解了其他每个字在这段话里的意思,并将每个字在这段话里代表的意思融合到自己的字向量里后,那么,这段话的每个字都能折射这段话的意思,只是从点不同(都是从自身出发去理解),即”以自身为中心,将注意力集中到自己认为重要的地方-“自注意力机制”。 所以,我们就可以把问题转化成:这段话里的每个字都要想尽一切办法去”获取”其他的每个字在这段话里所代表的意思,然后融合到自己的字向量里。我们可以想象成好比这里每个字都有一个疑问,现在都想得到答案,怎么办呢? 举个例子,当我们遇到不懂的问题想要解决时,有很多方法,比如去搜索引擎搜索,分三步: - 输入问题 - 搜索引擎返回一些和”输入问题”相关的”答案”概述 - 我们从这些”答案”中按相关性高低查看详情 通过上述步骤,我们大概就能理解这个问题了。 **2.2.1 自注意力火焰层(以自身为中心到处找“关系”)** “字”也一样(炼丹的过程也一样): 【参考图中Heard1方框中的QKV向量部分】 每个进入炼丹炉的字都会被炼制三个向量矩阵(QKV): - Q向量矩阵:负责发起提问(可理解为Q记录了所有问题本身) - K向量矩阵:负责对外展示,我能回答哪些问题(问题大纲),每个问题我能回答到什么程度(和问题的相关度,但并不回答问题) - V向量矩阵:记录了问题的答案明细,向外提供答案 我们以”人类简”3个字为例: - 人的Q向量Q人:向所有K向量发起提问,包括自己。说:“你和我有啥关系?”(即它在了解别人和它的相关度,也就是它把**注意力**放在了这里,所以**可以把相关度理解为注意力**) - 类的K向量K类:看看自己的问题大纲,计算和当前问题的相关度大小;(同理“人”和“简”的K向量也做类似处理) - 类的V向量V类:准备好问题的答案 “人”向量开始收听记录答案:根据每个字的K向量计算的相关度大小(向量之间的点积大小就表示相关度大小,开头部分有说明)和对应的V向量进行加权求和,即根据相关度度权重大小从对应字的V向量坐标里“提取”答案明细,组成新的“人”向量; 这样,新的”人”向量就理解了其他字在句子里的意思。同理,类向量和简向量也一样。 例1:麻香四溢水煮鱼 我们再用一个**美食**的例子来解释注意力机制中Q和K: 假设这句话进入炼丹炉了:”**这家开在巷子里的川菜馆,招牌是麻香四溢的水煮鱼,辣度刚好适合本地人口味。**” 注意力机制如何理解句子呢? 假设模型正在处理 **“水煮鱼”** 这个词(为方便说明,我们假设“水”“煮”“鱼”三个字彼此单字之间的关系已经被炼丹炉掌握了,用“分词器”这种火焰准确识别了这三字是一伙的,掌握的原理和本例子的描述过程是一样的),它需要理解这个词和其他词(如 **“麻香四溢”、”川菜馆”、”辣度”**)之间的关系。炼丹炉此时并不知道这些词在语义上的关联,所以它会通过 **Q**和 **K** 的交互来学习这些联系。 1)”水煮鱼” 向其他词发出 Query(询问) - **“水煮鱼” **–>**“麻香四溢”**(Q):”你是形容我的风味吗?” - **“麻香四溢”**(K回应):”是的,我描述你的香气特征。” - **“水煮鱼” **–>** “川菜馆”**(Q):”你是我的所属菜系吗?” - **“川菜馆”**(K回应):”对,我是你所在的餐厅类型。” - **“水煮鱼” **–>** “辣度”**(Q):”你和我的口味强度有关吗?” - **“辣度”**(K回应):”是的,我在量化你的辛辣程度。” 2)每个词都会参与这种交互 实际上,**每个词**(如 **“巷子里”、”招牌”、”本地人”**)都会: - **发出自己的 Query**(向其他所有词提问) - **接收其他词的 Key 回应**(提供语义关联信息) 这种 **Q-K 交互** 让模型能够动态地计算词与词之间的**相关性**,将这种相关性给到**V(可理解为K只知道问题的类型或大纲,而V知道问题的明细,但V被锁住了,而相关性是V的钥匙)**从而理解句子的深层含义。 但你或许会产生新的疑问:“水煮鱼”为什么问的是这个问题?怎么不问别的问题?怎么知道问的是对的? 你的疑问没错,一开始“水煮鱼”也不知道问什么,只是随便问的(大模型训练时刚开始都是给每个参数随机赋值的),先问,再根据**损失函数**和**反向传播**不断纠正问题。(损失函数和反向传播在文章最后部分Softmax模块有解释) **再用向量来解释下:损失函数和反向传播会修正Q、K、V的来源,其来源是Wq、Wk、Wv三个权重矩阵。** **Q、K、V**是通过**Wq、Wk、Wv**和Embedding过的**向量A**(即进入炼丹炉的字向量A),相乘得来。而**Wq、Wk、Wv**它们在**X**刚进入炼丹炉时,矩阵里的所有坐标参数被随机赋值。(大模型训练,训练的就是每个环节的参数,起初都是先随机辅助,然后再调参逐步迭代修正) - Q=Wq*A - K=Wk*A - V=Wv*A 可以理解为“X”被“**Wq、Wk、Wv**”这种火焰(神经网络)分别炼成出了三个分身:Q、K、V,每个分身分别继承了A身上的一种特性: - Wq是动态特征查询火焰,将X炼成了Q,Q继承X的:性格喜欢到处向人打听消息–逢人就问“你是谁,你从哪来,要到哪去,你认识我吗,我们什么关系,叭叭叭……”) - Wk是构建特征关系编码器火焰,将A炼成了K,K继承A的:首先K身上记录了当前字的特别喜欢向人炫耀–我知道很多消息,只要听到有人在打听消息,就抓过来看看自己对这个问题了解多少-相关度) - Wv是记录语义信息本体火焰,将A炼成了V,V继承A的:消息库,也特别爱炫耀,但是自己被锁在一个盒子里,需要钥匙-K,所以一旦发现了钥匙k,就抓过来,打开盒子,然后把信息告诉X) **Wq、Wk、Wv火焰炼制期有**三个阶段: **1、初现:**Wq、Wk、Wv被随机初始化 此时也不知道用什么材料能把A炼成具有上述特性的三个分身,所以就随机拿材料开始烧,比如用木材,或者汽油,或者煤炭,或者水,或者砖头,或者铁锅等等,反正睁大眼睛瞎扔。 而随机的Wq炼制出了随机的Q,于是,Q也继承了随机特性,随机的叭叭叭瞎问,自己都不知道自己在说啥(阿拉希咔咔咔的,连个句子都不会说),同理,Wk炼制的K也乱回。比如: - **“水煮鱼” **–>**“麻香四溢”**(Q):阿拉希咔咔咔 - **“麻香四溢”**(K回应):哇呱呱啦12122fjjf 丹品鉴定师(损失函数):哇喔,毁灭吧,重生吧~ **2、雏形:**初步学到语法特征 通过上个阶段,已经搞清楚什么是燃料什么不是,哪些燃料好烧哪些不好烧了。Wq、Wk、Wv通过不断尝试,掌握了语法特征火焰提炼配方,其炼制的分身QKV也不再阿巴巴瞎说了。比如: - **“水煮鱼” **–>**“麻香四溢”(Q)**:“你是谁?为什么挨我这么近,还站我前面,你和我有什么关系吗?” - **“麻香四溢”(K回应)**:“我是用来形容一种味道的,不过我也不知道和你有什么关系,我的位置编码告诉我我只能站在这里” **3、初成:**丹初步成型 Wq、Wk、Wv已具备相对精细化炼制的能力(提炼精细化的语义特征),所以: - **“水煮鱼” **–>**“麻香四溢”(Q)**:“我是一道川菜名,我一般需要一个形容词来散发我的味道,你是我要找的那个形容词吗?” - **“麻香四溢”(K回应)**:“我是” QK交互后,A就拿到了和矩阵里其他字向量的相关度大小(即拿到了从其他字向量V获取信息的钥匙),然后找所有V去加权求和变成了新的向量B,于是,B就掌握了本来训练内容里所有字和自己的关系信息,即B能代表本轮内容的含义(从X角度出发的含义)。 然而,小模实际的训练过程,会比上面更复杂,老师会让小模想尽各种办法,从各种**不择手段**的角度按上述方法不断的去训练。举个如下例子: **例2 分身学AI** 假设我们把一段包含100个字的文本想象成同一个班级里的100个人,每个人都想从其他人身上学到自己想要学习的相关知识;而每个人身上掌握的知识不同,掌握的知识的水平也不同(好比不同的向量它们各个纬度坐标的参数不同)。每个人手上都有三个魔法向量,Q(提问向量:能同时向所有人发起提问),K(知识大纲向量:告诉别人我有哪些知识),V(知识详情向量:记录了知识的明细) 比如,张三想要从其他99人身上学习知识,他问他的同桌李四: <blockquote><p>张三:你能教我A知识吗?//动用自己的提问向量Q;</p> <p>李四:好啊。我知道一些”机器学习”的知识。//亮出自己的知识大纲向量K</p> <p>张三:我看看我对机器学习敢不敢兴趣。//因为可能张同学自己也会,他要把注意力放在更重要的知识上。于是他把自己的Q向量与李四的K向量合并交叉计算出相关度(感兴趣程度)为0.56(满分为1)。嗯,还不错,可以学学。</p> <p>李四:叭叭叭叭叭……//拿出自己的V向量。</p> <p>张三:懂啦。我记录一下。</p></blockquote>  - 可乐向量(颜色,甜度,气泡):[0.8, 0.7, 0.9] - 雪碧向量(颜色,甜度,气泡):[0.1, 0.6, 0.8] 可乐和雪碧通过余弦相似度计算后的值为0.88(非常相似)。即使颜色差异大,3维相似度仍高达0.88,因为:甜度和气泡强度过于接近。 另外: - 若出现”黑色雪碧”(如限量版),颜色维度可能失效(雪碧颜色值从0.1变为0.8)。 - 所以,模型需要更本质的特征(如成分差异等)来应对边缘情况。 - 所以,三维向量不能区分二者。 **升维后的5维向量:** 新增2个维度: - 咖啡因 (可乐=0.9,雪碧=0.0) - 柠檬味 (可乐=0.1,雪碧=0.8)  相似度0.61(明显下降)。这就像区分两个人: - 仅看衣服颜色(低维)→ 换件衣服就认错。 - 结合声音、步态(高维)→ 即使穿马甲也能认出。 新的问题又来了,小模怎么知道升维要增加的维度是”咖啡因和柠檬味”的,为啥不增加”口音和职业”? 这个问题涉及到机器学习的核心逻辑:模型如何从数据中自动发现有用特征。 没关系,我们还是用比喻的方式来解释。 **a. 破案类比:如何锁定关键线索?** **例5 侦探破案** 假设你是一个侦探,要区分”可乐和雪碧”两种饮料(不要觉得简单,没有实物,只能通过数据来区分)。 初始线索(低维):颜色值、甜度值、气泡值(容易混淆,如果色雪碧,前面有解释过)。 发现一些新的候选线索: - 咖啡因检测 - 柠檬味测试 - 生产工人口音 - 车间主任职业 **请问,你会优先选择哪些线索呢?** 可能大多会选咖啡因/柠檬味吧:直接关联饮料配方,稳定可靠。口音/职业:与饮料本质无关,纯属随机噪声。 **小模和侦探一样**:通过”观察大量案例数据”,排除无效线索,聚焦关键证据。 **b、小模的学习机制:数据是唯一的老师** **步骤1:随机生成候选维度** 初始时,小模会”随机”生成大量维度(比如口音、职业、咖啡因、柠檬味、包装反光度…),类似侦探先列出所有可能的线索。 **步骤2:用数据来筛选有效维度** 通过训练数据(比如百万条饮料描述文本)统计发现: - “咖啡因”一词在可乐文本中出现概率:很大 - “柠檬”一词在雪碧文本中出现概率:很大 - “工人口音”在可乐/雪碧文本中均随机出现(50% vs 50% 假设) - “车间职业”与饮料类型无相关性 于是,小模将”咖啡因和柠檬味”标为有效维度,将”口音和职业”标为无效维度。 **步骤3:强化有效维度,弱化无效维度** - 咖啡因/柠檬味维度:因能显著降低预测误差,权重逐渐增大。 - 口音/职业维度:因无法提升准确率,权重被梯度下降算法归零。 相当于升维后激活函数将”咖啡因和柠檬味”两个维度激活(更准确的描述是模型通过权重调整突出重要特征),将”口音和职业”两个维度抑制。好比人脑的某些神经元被激活或抑制,所以上面第5点最后一句话说升维和降维都是由神经网络完成。 最终,降到3维向量时,保留了想到有效的维度”颜色、咖啡因、柠檬味”,过滤了无效维度”甜度、气泡、口音、职业”,虽然又降回到3维向量,但是维度的有效性远高于之前的3维向量 所以,小模起初并不知道要增加咖啡因或柠檬味,而是通过: - 随机初始化 大量候选维度(包括口音、职业等噪声)。 - 数据筛选:保留能降低预测误差的维度(如成分),丢弃无关维度(如口音)。 - 数学优化:梯度下降自动调整权重,好比”适者生存”。 **6、**经过组织多轮这样的会议(多层Transformer-GPT3有96层。这里的96层和上边的96头没有直接关系,二者相等纯属巧合),每层会议讨论的内容逐步深入,最终每个人都能形成综合了全场所有人观点的见解。 【对应图中96个Decoder方框】 主持人将多轮会议后的最终结论整理成**向量D**,并将D提交给Linear火焰层。 这里,为什么要进行多层? 得说明下,是96层,不是96轮,层是指的训练深度,而不是轮次。而这里的多轮会议可理解为每一轮会议都比前一轮讨论的更深入。 **例6 快递分拣中心** 我们用一个**“快递分拣中心”的比喻**来解释 96层Transformer 的设计逻辑。 想象下,一个超大型快递分拣中心(GPT-3),现在要分拣很多包裹(字向量),分拣目标是准确派送(生成文本-输出下一个字)。这个分拣中心有96个(层) 分拣站(96个Decoder),分别处理不同方向的任务:  为什么需要96个分拣站? **(1) 站点太大,任务复杂** **小快递站(好比浅层模型)**:只能处理同城快递(简单句子),遇到跨国包裹(如:”虽然巴黎下雨,但伦敦万里无云”)直接蒙圈。 **96层分拣中心:** - 前几层:区分”巴黎”和”伦敦”是城市。 - 中间层:理解”虽然…但…”的转折关系。 - 深层:结合地理常识判断出两地天气并没有关系。 **(2) 效率优化** **分层流水线:**包裹(字向量)每经过一个分拣站,就被贴上更精细的标签(向量维度的一个坐标参数被赋上一个新的值,Gpt3的每个字向量被设计了12288维,即每个字向量有12288个参数,训练的过程就是逐步调参的过程),最终目的是为了在派送(生成下一个字)时准确率有所提升。 比如第50层标记”伦敦是英国的城市”,第80层关联”英国常用万里无云形容天气”。 **(3) 容错能力** **残差连接 = 紧急通道**:如果某分拣站出错(如第40层误判”巴黎”为食品),包裹可通过紧急通道直接携带原始信息(残差连接)绕过该站,由后续层级进行纠正。这就使快递员发现分拣错误时,能快速调用包裹最初的照片核对信息。因为每层处理后会保留原始输入(如复印机保留原稿),防止信息在深层传递中丢失。 **2.2.3 Linear火焰层 (匹配向量相似度)** 【对应图中Linear模块】  回到上文,向量D(这里的向量D仅指当前所有字的**最后一个字的向量D**,因为每个字都是按顺序依次输出的,后面的字包含了前面所有字的信息,所以只需保留最后一个字的信息即可)来到了Linear火焰层,这个车间很简单,作用是拿着向量C和最开始的那个50257个向量矩阵的每个向量计算相似度,然后输出50257个相似度值,然后将50257个相似度值转给最后一个Softmax火焰层。 **2.2.4 Softmax火焰层 (根据相似度计算概率分布)** 【对应图中Softmax模块】 这个车间也很简单,将50257个相似度值归一化成50257个概率,然后输出概率最大的那个所对应的字,假设刚开始输入的是”我最近在读一本书,书名叫《人类简”,那么这里输出的就应该是”史”,然后小模将”我最近在读一本书,书名叫《人类简史”这句话又走一遍以上所有流程,以此类推。 你看,小模”炼丹”炼的这么艰难,最终输出的是50257个概率,所以模型的本质就是一个输出概率分布的机器,训练的过程就是不断调整的过程,终极目的是增大正确输出下一个字的概率。 如果哪一次输出的字不对,比如刚才如果输出的不是”史”字,系统会启动”错题本”机制: - 计算错误程度(损失函数):好比考试扣分。从最后一层反向逐层微调参数(类似老师从错题推导学生薄弱知识点)。错误程度好比解题思路正确只是某些细节出错,或者胡言乱语完全不对等等 - 沿着96层分拣站逆向检查(反向传播):从第96层开始,逐层追问”哪一步处理导致了错误” - 微调各层参数(梯度下降):就像调整分拣站的传送带角度,让包裹下次能正确滑向目标区域 **解释下损失函数,反向传播和梯度下降:** **例7 考试阅卷** 1. 损失函数(错误打分器) 就像考试改卷的老师,负责告诉模型:“你的预测和正确答案差多远?” - **分数高** = 错得离谱 - **分数低** = 预测得准 2. 梯度下降(调整学习策略) 模型拿到错误分数后,不能瞎改,得有个科学的调整方法,那就是**梯度下降**。 **作用**:告诉模型“**往哪个方向改**,**改多少**”才能让错误(损失)降得更快。 **比喻**: - 你在山上蒙着眼找最低点(最小错误),梯度下降就像你的脚感觉坡度,告诉你:“往左下方走,能更快下山(降低错误)。” - 每次迈的步子大小就是**学习率**(太大可能跨过头,太小又走得太慢)。 3. 反向传播(找错并改进) 光知道“往哪走”还不够,模型还得知道“**具体哪一步做错了**”,这就是反向传播: **从错误倒推**:从最终的错误分数开始,一层层往回算,找出每层神经网络参数的“责任”(比如:“第二层的权重对错误影响最大”)。 **结合梯度下降调整:** - 梯度下降说:“往左下方走能减少错误。” - 反向传播说:“第二层的权重A要调大,第三层的偏置B要调小。” **更新参数**:模型按照这些建议调整自己,下次预测更准。 **三者的合作流程:** **1)考试答题**(模型预测):你写了一份答案(预测结果)。 **2)老师批改**(损失函数):告诉你得了60分(错误程度)。 **3)分析错题**(反向传播): 你发现选择题错最多(第二层权重问题),计算题公式用错了(第三层偏置问题)。 **4)制定复习计划**(梯度下降): 老师说:“重点练选择题(调整方向),每天做10题(学习率)。” **5)改进学习**(参数更新):你按计划练习,下次考试分数提高(模型优化)。 它们仨配合,让模型像学生一样,通过不断“考试–>找错–>调整–>进步”,使模型输出的概率分布逼近真实数据分布。 以上,就是小模**训练时**的大概原理,也是Transformer框架的大概原理。 当我们使用封装好的大模型应用时,其生成**回答时**的过程又是怎样的呢?比如使用DeepSeek时(其他大模型应用都同理),当前版本的Deepseek所调用的大模型(以R1为例)的所有参数已经训练好并且参数已固定了。我们使用Deepseek的过程并不会改变R1的参数。它回答我们问题的过程和训练过程类似,它将用户问题向量化后输入丹炉,再根据对问题的理解(此时的R1已经能理解人类语言了)判断输出回答里的第一个字(其实在R1眼里永远是一堆有概率的数字,以高维向量的形式存储,只不过为了让人类能看懂,又将数字转化成文字而已,R1本身是不认识文字的),再将这个字和用户的问题一起再重复刚才的流程,输出第2个字,以此类推,直到输出最后一个字,整个回答就完成了。所以我们使用任何大模型应用时,输出时都是一个字一个字的往外蹦。如果我们在当前会话窗口内继续提问,R1会把当前的用户问题和上一个问题以及完整的回答一起打包进行处理,这也是为什么在同一个会话窗口内大模型可以结合上下文语义进行回答的原因;也是每个窗口都有限定最大上下文长度限制的原因,同一个窗口内的每一次提问,R1都会把当前窗口内的历史所有内容全部打包进行处理,这样文本长度会不断增加,直到触发R1最大上下文长度阈值,当前窗口就不可用了。再思考一个问题,当我们向大模型应用询问今天天气时,大模型给出的回答内容里的天气日期,地点,以及具体天气情况,这些是大模型完成的吗? 如果理解了大模型的本质是一个概率输出机器,那就能理解这些都不是大模型完成的,而是大模型调用了日期,地点,天气等插件或API,大模型只是将这些插件或API返回的结果进行里重新整理而已。 所以,Deepseek本身是一个封装了R1(深度思考时)和V3(非深度思考时)以及各种插件或API的应用,而R1,V3才是大模型。大模型本身是回答不了类似日期天气等问题的,因为它是基于训练数据“理解”的人类语言,它眼里只有概率,没有意识,它无法知道今天是哪天,无法知道你当前在哪里,除非我们或者插件告诉它。 也正因为这样,大模型才会有所谓“幻觉”,当它面对陌生(训练时欠缺这方面训练)问题时,会看似比较有逻辑的“胡说八道”,因为它一定能基于对问题的理解然后不断的输出下一个它认为的最大概率的那个字,但仅限于“它认为”的范围内,而“它认为”的是错的,它身上并没有“正确”的数据集-但它并不知道,所以就“胡说八道”了。 可以在提问时加一些指令限制,比如命令它必须基于事实,如果用到了假设必须告知等,这样在一定程度上能降低它胡说的概率,当然这也跟大模型本身的指令遵循能力有关。 正因为这些原因(大模型目前能力有限),所以才应生出了Agent,Rag,工作流等来补充大模型能力短板。随着大模型能力逐渐增强,这些是否会成为过渡产品?可能吧~不太确定。但能肯定的是:AI是大趋之势。同时,不要高估对AI的短期预期,更不要低估对AI的长期预期。 我们使用大模型应用时,经常感觉它像很有“情商”一样,这背后的原因后续再聊聊。 ## 三、神经网络 因为神经网络不属于大模型训练过程中的某个环节,几乎每个环节都有它。同时,它也不太影响咱们对大模型训练过程的理解。所以,把它单独拿出来进行说明。如果感兴趣可以继续看看。 首先我们先明确什么是“模型”: 所谓模型,有三个关键要素:“输入,输出,以及中间的处理机制(一般是个黑盒)”。给模型输入原材料,经过它的加工处理,给你输出“结果”。和函数一样,给“x”一个值,它给你输出一个“y”值。模型的难点在于中间的黑盒如何设计。没错,就是函数。 那么,我们从函数角度来描述什么是神经网络。请记住并相信:你所接触的所有逻辑和知识都可以用一个函数来表示。  比如:输入物体移动的路程s和移动时间t,根据力学公式“v=s/t”,就能输出物体的速度v。 这个问题也太简单了,别急,上难度: 既然是“一切问题”,那我的问题是“随便输入一张写有数字的图片,你(函数)能识别(输出)是几吗?如果能,那这个函数长啥样?” 额…~翻车了,不知道长啥样。那先收回刚才说的那句话~ 人类无法知道这个函数长啥样,不代表没有这样一个函数。只是我们还太菜了~既然不知道,那就猜,不停的猜,亿万次的猜,从一次次猜的过程中寻找规律,最终必能找出这个函数。神经网络,就是这个思路。遇到当前科技解决不了的问题,就猜,不停地猜,直到几乎每次都猜中,函数就找到了。所以,神经网络又被称为万金油公式。 所以,大模型训练的各环节里,一旦遇到人类现有数学公式解决不了的问题,就放个神经网络。比如,词向量各维度值的确定,位置编码向量的确定,QKV向量矩阵的确定,向量升维降维等等。放个神经网络,开始猜(初始时所有参数随机赋值)。 因为我们知道真实答案(知道每张照片分别是数字几),让神经网络去猜,每猜一次,我们给它一个反馈:猜错/对了,以及如果猜错,则把错的离谱程度也告诉它(损失函数),它就根据反馈总结规律,下次就会猜到更准一点点……500年过去了,终于可以几乎每次都猜对了,神经网络的所有参数就固定下来了(类比大模型训练的所有参数就固定下来了) 所以,神经网络本质就是一个函数,比如**最小单元的神经网络:y=ax+b**(注意,它是线性的,是个一次函数) 再其基础上进行非线性变换后(变成非一次函数了),如:y=(ax+b)²,y=cos(ax+b)…… 观察上面线性和非线性的特点:非线性是在线性的基础上“套娃”而来。最里面一层是“ax+b”,穿个马甲就变成非线性了,那我们把马甲抽离出来,用“g( )”表示,y用f(x)表示,就变成: f(x)=**g(**ax+b**)** 这个“**g( )**”就是激活函数。从名称看,说明它能激活什么东西。没错,它将原本呆板的“线性关系”给盘活了(即激活函数赋予了神经网络“ax+b”**非线性能力**),可以把原本的一条直线做各种多维度弯曲了(时刻记住,万物皆可向量化,即任何东西都能能投射成一个空间上的一个坐标,而多维度弯曲的线上的每个点都是空间上的的某个坐标值,所以函数和向量就关联起来了),激活可理解为“通过非线性变换将向量中隐含的重要信息给显现出来了”理论上,可以表示前面说的那个“一切问题”了。激活函数的公式看起来虽简单,但非常好用(说明下,实际常用的激活函数如ReLU(z)=max(0,z)等,只是换了种表示方式而已,忽略) 不好理解?举个栗子: **1、去过火星的纸(想了很多例子,最终觉得这个相对更好理解)**: 原始空间:像平坦的纸张(线性),二维平面 假设纸的正面有个小块泛黄了,而反面有很多信息,比如写有纸的名字,背面有颜色,写有这张纸去过火星…这些都是这张纸的特征,被记录在其向量各个维度参数里) 由于原始空间是个二维平面,所以无论怎么做线性变换,我们永远也看不到纸的背面特征。翻过来?二维平面没有高度无法翻转。 激活函数:**做非线性变换**– 将纸张揉成球体,这时,就可以看到背面特征了,同时,揉成的球体使得正面那个泛黄的点被遮挡(抑制不重要的特征,反映到向量上是该维度的参数值被赋为0),而反面的一些重要信息被显现出来,比如去过火星非常重要,露出来了80%,颜色有一点点重要,露出来5%。 多层叠加(套娃):折叠出折纸作品(复杂特征) 还是那张纸,但已不是原来的纸了。 上述,是仅包含了一个“x”的情况,而现实世界是往往会输入多个“x”,假设输入两个“x”(n个也同理),每个“x”都有一个对应的“a”,那么函数就变成: f(x1,x2)=g(a1x1+a2x2+b**)** 这是一层激活函数,有时候问题太复杂,一层激活函数不够用(即呆板的直线虽然被激弯了,但弯的太呆板),那就再套一层激活函数:把“g(a1x1+a2x2+b)”看成一个整体(一层套娃),再做一次线性变换:**a3**g(a1x1+a2x2+b)+**b2**,然后再套一层激活函数,变成: f(x1,x2)=**g(**a3g(a1x1+a2x2+b)+b2**)** **就这样,遇到解决不了的问题就套一层**,理论上,神经网络“y=ax+b”就可以被激活函数以任意精度逼近任何连续函数(解决任何问题)。 如果看到这你觉得有点懵,神经网络和激活函数既然都是函数,那它俩是啥关系? **1、没有激活函数的神经网络本质是线性回归** 只能解决“y=ax+b”类问题 解释:开头我们说,“y=ax+b”是最小单元的神经网络,不具备非线性能力。无论做多次线性变换,比如变成:a₃(a₂(a₁X+b₁)+b₂)+b₃,也仍然不具备非线性能力,看似元素很多很唬人的样子,但通过矩阵乘法分配律,最终都会坍缩为:ax+b。这好比:用10个放大镜叠在一起观察物体,最终效果和用一个放大镜毫无区别。 **2、套上激活函数的神经网络可逼近任何复杂函数(越复杂的问题需要越复杂的函数来解决)结论就是:神经网络是“ax+b”,激活函数是前面公式里蓝色套娃部分即“g( )”。我们可以把带有激活函数的神经网络看成一个整体–这个整体才是实际上的神经网络。** 激活函数像积木块之间的“旋转卡扣”,没有它,搭不出复杂的城堡。而神经网络就是大脑,没有它,额…脑子都没有还能干啥。说了半天,都是在说激活函数,不是解释神经网络的吗?好吧,来个图帮忙解释下:  神经网络包含三部分:输入层,隐含层,输出层(和开头提到的“模型”类似,隐含层类比模型中间的那个黑盒处理机制)。深度神经网络是指中间的隐含层>=2层。每1个隐含层即表示一次线性变换,且每一次线性变换伴随一个配套的激活函数做非线性处理**用以对输入对象(即词向量)提取重要特征**。随着层数的增加,网络能够学习到的数据表示也越加抽象和复杂,同时,能提取到的向量特征信息也更准确。(别忘了给大模型输入的是词向量-或者前文所有提到的字向量,神经网络通过提取分析词向量的特征,从而逐渐理解其含义,理解词向量–理解句子–理解段落,最终学会人类语言)输出层通常也会嵌入一个激活函数。 上图中: **举栗:还是拿火星纸** 说明:图中神经网络里的每个圆圈都表示一个神经元,也表示大模型里的一个参数,**大模型训练的最终目的就是将这些参数都训练出来**,初始时给每个参数随机赋值,模型训练出来后,参数值就确定了,同时,每个字向量的各维度上的值也确定了。 **1、输入层:纸向量X** 一张**二维空间里的纸**,正面有泛黄斑点,背面写着”去过火星”和颜色标记等特征信息。向量X=[x1,x2,…,xi,xm],每个维度记录纸的某个特征: - x1=泛黄程度; - x2=正面一个铅笔划痕的亮度; - x3=纸张厚度 - … - xi=火星土壤残留量 - xn=去过火星 输入层神经元的作用:输入层的每个神经元像**扫描仪**,只负责读取纸的某一个特征值,如:第1个神经元读取x1=泛黄值0.7,第2个神经元读取x2=划痕亮度0.3… **关键**:输入层不做计算,仅将原始数据提取(线性变换)传递给隐藏层。 **2、第一个隐藏层:揉纸成球(初级特征提取)** 工人A(本层神经元1)将纸**沿对角线揉捏(非线性变换):纸开始从2D平面变为3D球体,背面文字部分显露。** **工人B(本层神经元2)横向揉捏,泛黄点被压在球体内部,几乎不可见。** 数学含义:每个隐藏层的神经元对输入做“线性变换 + 激活函数”:神经元对输入做线性变换,然后由激活函数的非线性能力增强重要特征。 神经元作用:每个隐藏层神经元是**一个揉纸工人**,按照自己的方式(权重参数)揉捏纸张(扭曲空间)。而激活函数像工人的**力度控制器**:负值完全丢弃(不揉),正值保留。 **第二个隐藏层:折叠纸球(高级特征组合)** 工人C(本层神经元1)将显露的文字痕迹用化学试剂(激活函数)鉴别(非线性变换)其成份,发现含有一部分是火星元素(增强重要特征) 工人D(本层神经元2)**压平底部:泛黄点已被褶皱遮挡,但纸的蓝色标记部分隐约可见。** 神经元作用:**组合初级特征**(如将“文字痕迹”和“成份”关联) **3、输出层是决策者** 经过隐藏层的多次处理,这张”去过火星的纸”现在变成了一个珍贵的文物。被送到拍卖会上,两位专家(输出神经元)正在评估它的价值: **外星专家(输出层神经元1)**:看到文字里**有一部分是火星成份**,判断其大概率来自火星,举起牌子报价:**70万元**(对应概率70%) **地球专家(输出层神经元2)**:注意到底部的**蓝色标记**,举起牌子报价:**30万元**(对应概率30%) 最终决策:Softmax(文末有描述,此处可忽略)就像拍卖行的**价格归一化规则**,确保各方报价总和为100%(即概率为1)。 拍卖师(输出层)宣布(输出结果):这张纸被归类为“火星纸”类别,置信度70%! 如果判断错误即不是火星纸(判断由损失函数赋值),大模型则会通过反向传播一层层定位哪个地方出现了错误(哪些参数错误),然后调整参数重新训练。好比学生根据考试分数,反推错误知识点,巩固复习。 以上,是对神经网络的描述。 ## 四、大模型训练总参数的计算 最后,我们看看GPT3大模型的1750亿参数是怎么计算出来的?(其他大模型基本类似) **1、Embedding向量化阶段:**GPT3定义了50257个Token,每个Token的向量维度是12288 所以:50257*12288约6.2亿 **2、Positional Encoding位置编码向量阶段 :**GPT3定义了2048个位置向量,每个向量维度12288 所以:2048*12288约2500万 **3、Decoder阶段:96层** 多头:Q K V3个128维向量,96个Head(头),对多头的96个128维的信息做融 所以:(12288+1)*128*3*96=约4.5亿 (“+1”是指神经网络公式里的常数b: y=ax+b) Wo的神经网络:(12288+1)*12288约1.5亿 Feed forward 前馈神经网络阶段:升维到12288*4,再降维到12288 所以:(12288+1)*(12288*4) +【(12288*4)+1)】*12288=12.08亿 总共:(4.5亿+1.5亿+12.08亿)约为1736亿 **6、Linear阶段使用的开头的Embedding的参数:** 所以:50257*12288=6.2亿 总共约1750亿。 本文由 @弋十三 原创发布于人人都是产品经理,未经许可,禁止转载。 题图来自 Unsplash,基于 CC0 协议。 该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。
前脚,5 月 12 日中美关于 “ 对等关税 ” 的贸易战暂时停火( 传送门 ),紧接着,5 月 13 日,特朗普在跨境电商卖家们最关心的关税问题上又做出了一点 “ 让步 ”。 5 月 13 日,白宫发布总统特朗普修正行政命令,对 5 月 2 日起生效的 “ 正式取消中国大陆、中国香港地区商品的小额免税待遇 ” 的行政命令进行调整,将该类包裹的关税税率从 120% 降低至 54%,同时,保留自 5 月 2 日起生效的每件小额邮递物品 100 美元的从量关税,并撤销原计划于 6 月 1 日将从量关税提高至 200 美元的规定 。( 5 月 14 日,外媒消息称美方会进一步降低小包裹关税至 30% ) 至此,相关小包裹的税率政策完成了 0 → 120% → 54% 的过山车。此前,在 4 月 25 日,Temu 和 Shein 曾同步发出涨价预警:因贸易规则与关税变化导致运营成本激增,即日起调整价格。 过去,大量跨境电商卖家高度依赖于小额包裹免税政策,Temu 和 Shein 也因此在美区获得爆发式增长,而美区消费者们也受惠于此政策才网购到来自中国的低价好物。根据美国海关和边境保护局的数据,仅在 2024 财年( 注:美国联邦政府的 2024 财年指自然年 2023 年 10 月 1 日到次年 9 月 30 日 ),就约有 13.6 亿件包裹以这一方式进入美国,其中大部分来自中国跨境电商平台。 然而,面对不断变化的政策,一位跨境电商从业者对知危表示:“ T86 的时代基本宣告结束了( T86 即指美国海关针对 800 美元以下小包裹免税政策下的快速清关模式 )。” 简单来说,此次 “ 让步 ” 算是利好 Temu 和 Shein 这样的电商平台,至少关税不会到 120% 那么夸张了,但和原先爽快的 0 关税相比,依旧是成本上升并且多了审查清关等烦琐的流程。 平台的战略只能跟着变幻莫测的关税政策做出响应。 4 月底,有不少美区全托管卖家反应表示,他们的商品被集中下架,大多数全托管店铺页面显示 “ 本店正在休息 ”。4 月 28 日,Temu 正式下架美国全托管的在售商品,流量全部扶持到半托管模式和 Y2( 国内自发货 )模式。 全托管指的是 “ 卖家仅需完成商品生产、备货至 Temu 国内仓,后续的店铺运营、定价、物流、售后等环节均由平台负责 ” 的运营模式,最初 Temu 以这种简单易操作的方案为商家提供服务,短时间吸引了大量无出海经验商家的入驻。 而 Temu 的半托管是 2024 年 3 月在美国最先上线,指的是商家需要自己管理海外仓库存、订单履约及末端配送,但平台仍掌握定价权和流量分配权。 至于 Y2 模式,卖家不用备货至海外仓,可以直接从中国境内发货,通过国际物流将商品送达美国消费者。 Temu 商家阿门告诉知危:“ Y2 的本质还是半托模式的延展,在平台依然掌握着核价权和前端定价权的情况下,商家需要做的事情比全托管模式要多很多,且要承担更高的成本( 头程尾程以及关税等等 )。” 和一般半托管的最大区别在于,Y2 不需要提前备货至海外仓,是有订单后从国内发货,平台给了较长的发货时效( 9 个工作日内发货 )。  在高额关税的背景下 Temu 推出 Y2 模式,很大部分原因是为了用 “ 一件直发 ” 的模式来缓解 “ 提前备货 ” 的关税成本压力。 Temu 商家阿门告诉知危:“ Y2 模式本身也带来了一些机会:这种模式本身比较适合有强大供应链的大卖。因为和一般半托管不同,Y2 不需要提前备货至海外仓,反而是有订单后再发货,且平台给了较长的发货时效( 9 个工作日内发货 )。所以,大卖家可以把它当做一个很好的 ‘ 测品 ’ 的方式,同时去占据因 ‘ 美国站点全托产品下线 ’ 而产生的真空。” 然而,Temu 本身走的就是一个 “ Shop like a billionaire ” 的超低价电商战略,即使是 Y2 模式,也无法忽视掉现在 54% 的关税成本。阿门也提到,对于很多原本在做全托管的小卖家,这确实充满了风险和挑战。一方面是这个模式本身复杂度的上升,另一方面是在政策、物流、关税不确定性下,可能产生的各种罚款( 比如履约超时等 )。而且小卖家因为单量小,其实很难把各个环节的成本都降下去,这导致利润率很难提升。 目前看来,无论是关税的变动还是新模式的推出,Temu 美区的商家们都需要紧急调整战略。一位出海做水晶摆件的商家告诉知危,水晶这个品类主要是美国的市场大,别的区和美国没法比,但目前关税升上去之后货代都不发美国了,导致美国的生意直接停摆了一段时间。 他表示,“ 最近在研究 Temu 的 Y2 模式,但目前看来效果不太行。本来就是低价平台,单价升上去就没人买了。” 不仅 Temu 的商家们很焦灼,平台也在经历调整的阵痛期。一位从事美区货代业务的人士李达( 化名 )表示,虽然 TEMU 去年逐渐开辟新区业务,但美区全托管业务大概仍占其总体业务的 25% 左右。李达估计 Y2 模式这只能承接原有美区全托业务的 5% 左右。 但从更为积极的角度来看,跨境电商整个大行业的变化一直都不少,而 Temu 也是在浪潮中不断迭代。北美市场品牌出海从业者 Bob 对知危表示:“ 从一开始只做全托管,到现在的半托管,延展出 Y2,Temu 一直在完善它的模式,至于未来如何确实有待观察。” 与此同时,美区极大市场需求和消费能力是客观存在的,是平台和商家们不能放弃的一块市场。风险和机遇大部分时候是并存的,重点是到底能用什么策略来抵抗风险。 不同规模的卖家,在面对政策变化时喜忧参半。阿门举了个例子:“ 当时 TK 美区政策波动的时候,我们就赶紧销货跑了,但当时也有硬着头皮往里进货的商家。商家们都会受限于资金量、货、仓储物流、技术手段、策略玩法等自己的资源,所以大家很难一概而论。不过在跨境电商这个领域,大家还是有一个长期共识的,就是要做 ‘ 品牌 ’,把竞争力打上去。” 不过,无论政策后续如何变动,只要小包裹免税政策不恢复,对那些主要客户在美区的跨境电商商家门来讲,一个红利时代彻底终结了。 [查看评论](https://m.cnbeta.com.tw/comment/1500228.htm)
据彭博社报道,在埃隆·马斯克(Elon Musk)的天价薪酬被股东诉讼推翻后,特斯拉公司正采取措施防止未来再次出现此类情况。特斯拉在周五晚间披露,已修改公司章程,规定股东必须持**有至少3%的公司股份**,才能“发起或维持一项衍生诉讼”。衍生诉讼指的是股东代表公司对相关责任人发起的诉讼。根据监管文件,**特斯拉是在5月15日修改的章程。**  马斯克 就在几天前,得州州长格雷格·阿博特(Greg Abbott)签署立法对该州公司法进行一系列修改,包括允许公司设定股东发起衍生诉讼所需的持股门槛。阿博特以及该州其他共和党领导人宣称,此举旨在吸引更多企业在得州注册成立。 正是股东诉讼导致马斯克的天价薪酬泡汤。特斯拉授予马斯克的薪酬协议在2018年获得股东批准,最初价值为26亿美元,但是在2024年初被裁定无效时已飙升至560亿美元(约合4036亿元人民币)。在特斯拉股价飙涨时,其价值一度超过1000亿美元。 然而,该薪酬方案遭到了一位股东的质疑。该股东认为特斯拉董事会未能适当披露薪酬方案的具体条款及绩效考核标准。特拉华州衡平法院首席法官凯瑟琳·圣约翰·麦考密克(Kathaleen St. J. McCormick)表示认同,她裁定马斯克在薪酬制定过程中拥有过度影响力,而特斯拉董事会成员中有多人是马斯克的长期好友和亲密合作伙伴,存在严重利益冲突,因此判定薪酬方案无效。 在马斯克薪酬被推翻后,特斯拉把注册地从特拉华州迁至得州。目前,特斯拉已就该裁决向特拉华州最高法院提起上诉,这一过程可能耗时数月时间。去年,特斯拉股东们投票重新批准了此前的薪酬方案,这在一定程度上是为了象征性地支持马斯克的法律诉讼。特斯拉在上个月的一份监管文件中披露,董事会已成立特别委员会,专门审议涉及CEO薪酬的相关事项。 截至发稿,特斯拉尚未就此置评。 [查看评论](https://m.cnbeta.com.tw/comment/1500226.htm)
当地时间5月16日,美国财政部公布的数据显示,2025年3月,美债前三大海外债主中,日本、英国增持美国国债,中国减持。中国由美国第二大债主变为第三大债主,英国变为第二大债主。3月正值本轮美债市场动荡前夕。 [](https://static.cnbetacdn.com/article/2024/0413/2ca358368d9f6a5.jpg) 美国财政部2025年3月国际资本流动报告(TIC)显示,日本3月增持49亿美元美国国债,持仓规模为11308亿美元,依然是美国第一大债主。 中国3月减持189亿美元美国国债至7654亿美元,为今年首次减持。减持后,中国对美国国债的持仓规模由第二下降至第三。 从2022年4月起,中国的美债持仓一直低于1万亿美元,且总体呈减持趋势。2025年1月,中国增持18亿美元美国国债,2月则增持235亿美元。2022年、2023年、2024年,中国分别减持1732亿美元、508亿美元、573亿美元美国国债。 英国3月增持290亿美元美国国债至7793亿美元,持仓规模由第三上升至第二。 美国财政部报告显示,3月所有海外对长期、短期美国证券和银行现金流(banking flows)的净流入总额为2543亿美元。其中,海外私人资金净流入为2592亿美元,海外官方资金净流出为49亿美元。 同时,3月海外净买入美国长期证券的资金规模为1832亿美元,此前2月净买入1427亿美元。其中,海外私人投资者净买入1460亿美元,海外官方机构净买入373亿美元。包括海外投资组合通过股票互换购入的美股在内,进行一些调整后,海外3月总体净买入美国长期证券1618亿美元,此前2月为净买入1120亿美元。 [查看评论](https://m.cnbeta.com.tw/comment/1500224.htm)
穆迪资信评级公司将美国主权信用评级从 Aaa 下调至 Aa11。在此之前,标普早于 2011 年时就将美国长期主权信用评级由 “AAA” 降至 “AA +”,惠誉则在 2023 年 8 月取消了美国的 AAA 评级,将其调降至 AA +。 [](https://n.sinaimg.cn/spider20250506/400/w720h480/20250506/3cc7-74c1f9eb37f7c8684a3d210fd8fc15bd.jpg) 穆迪表示,预计美国联邦赤字将扩大,主要原因是债务利息支出增加、福利支出上升以及财政收入相对较低。 美国联邦债务总额不断攀升,截至2024年底,债务占GDP比重达124%,已突破36万亿美元。近年来,美国每年财政赤字接近2万亿美元,占GDP的比例超过6%。穆迪预计到2035年,美国联邦债务负担将达到GDP的134%,联邦财政赤字将达到GDP的近9%。 美债债务增长原因是结构性的,一方面是持续性的财政赤字,政府开支持续上涨,而减税政策则削弱了财政收入。二是利率上升,进一步推高了政府的利息支出。未来十年,社保和医保等福利支出的上升,而财政收入保持相对平稳,美国政府将面临更大的预算赤字压力。 尽管美国债务问题严峻且信用评级被下调,但美债依然受到一定市场需求支持。这主要得益于美国经济规模庞大、具有韧性和活力,以及美元作为全球储备货币的地位,使政府得以以较为温和和可预测的成本融资大规模赤字并再融资庞大的债务。美元依然是全球主导储备货币,且美国的制度和治理能力虽可能面临考验,但整体不会出现“实质性弱化”。 穆迪的消息发布之际,共和党人正在就唐纳德·特朗普总统提出的“伟大而美好的法案”展开辩论,该法案旨在延长2017年的减税政策,部分强硬保守派人士正努力限制联邦支出赤字的增加。但即便在这种条件下,赤字仍可能会上升。众议院预算委员会周五投票反对推进该方案。 穆迪指出:“就扭转年度巨额财政赤字和利息成本不断上升趋势的措施,美国历届政府和国会均未能达成一致。我们认为,当前正在审议的财政提案不会带来强制性支出和赤字的实质性削减。” 这一消息增加了投资者可能要求美国为其债务支付更高收益率的风险。 白宫将责任归咎于前总统乔·拜登和国会民主党人,称他们推行的“支出提升了我们的国债,助长了失控的通胀,并迫使美联储加息”。 白宫发言人库什·德赛在一份声明中表示:“特朗普政府和共和党人正专注于通过削减政府中的浪费、欺诈和滥用行为,以及通过《统一的、伟大而美好的法案》来整顿我们的财政,以修复拜登留下的烂摊子。如果穆迪还有任何公信力,就不会在过去四年的财政灾难展开时保持沉默。” 美国两党在财政政策上存在分歧,未能就削减赤字达成共识。例如,共和党的减税政策与福利支出增长等因素加剧了财政失衡,导致强制性支出占比不断上升,挤压了财政灵活性。如耶鲁预算实验室估计,共和党起草的新税收法案将在未来十年内增加3.4万亿美元政府债务;若法案中原定逐步失效的临时条款全部延长至2035年,则可能造成高达5万亿美元的政府债务。 参议院少数党领袖查克·舒默表示,穆迪的行动“应该给特朗普和国会共和党人敲响警钟,让他们停止对破坏赤字的减税政策的鲁莽追求”。 他在一份声明中称:“遗憾的是,我不抱希望——如今的共和党根本不在乎赤字或我们国家的财政健康。共和党人一心要为超级富豪实施数万亿美元的减税,结果只会导致物价上涨、债务增加和就业减少。” 穆迪还表示,预计到2035年,美国赤字将达到GDP的近9%,高于2024年的6.4%——这一数字已经异乎寻常地高。财政部长斯科特·贝森特曾表示,他希望将赤字占GDP的比例降至3%。 穆迪是三大信用评级机构中最后一个宣布美国不再符合最高信用等级的机构。惠誉于2023年下调了美国政府债务评级,而标普早在十多年前就因提高债务上限问题的最后一刻对峙而下调了美国评级。 [查看评论](https://m.cnbeta.com.tw/comment/1500222.htm)
 ## **不显眼的城区** 北京很大,大到每块城区都能拥有自己独特的“气质”和生活氛围。 绕着四环看,位于东四环的朝阳区大望路,**与附近的国贸CBD、亮马河、三里屯共同形成一道闪闪发光的金线,这里的夜晚让人兴奋又迷茫**——有钱人在SKP的爱马仕门口排着队,而从超甲级写字楼出来的精致打工人则钻进快餐店,算计着自己的日常支出。 南边的丰台顶着“最土四环”的帽子,这里出名的地标应该是可以批发车厘子和榴莲的新发地,丰台少了些北京的秩序感,有不少正在施工的工地,夜幕降临时,夜市摊主们支起塑料棚、亮起灯泡,卖着经济实惠的小吃和日用百货。让丰台经常被看作北京的城乡结合部。 **北四环,偏海淀方向,被称作宇宙中心的“五道口”弥漫着浓厚的学术氛围。**与你擦肩而过的年轻人可能是某个省市的高考状元,“枣糕王”的排队人群里,可能有科学院的研究员,或刚从清华上完课的老师。在五道口的饭店,如果不聊点科研项目或鸡娃心得,基本属于“区外人”。 **同样是四环,没什么存在感的就是西边的石景山了。**甚至很多人不知道这是城六区之一,以为它是与门头沟、房山等并列的近郊区,远在六环之外。但实际上,人家在长安街沿线,半小时到天安门。 这样的误解也并非没有缘由——**相较于其他城区,这里有着与北京这座城市并不相称的慢节奏。** 工作日晚上八点,当朝阳、海淀人还在加班的时候,石景山人民已经在首钢园区遛完了弯儿; 这里的大马路也极少拥堵,当然,除了早晚高峰和“胖永辉”开业后的一段时间。  夜晚首钢大跳台(作者拍摄) 但除了超市比较拥挤,石景山其他时候看起来比较“空旷”。这里2024年的常住人口只有56.1万人①,只占全北京市常住人口的2.5%,**却拥有全市第一的城市公园绿地500米服务半径覆盖率,高达99.32%②,以及城六区最高的森林覆盖率,号称“一半山水一半城”。** 经济发展也慢一拍,2024年石景山总GDP是1300亿元,在城六区里处于末位,甚至昌平、顺义等郊区的GDP都超过了石景山,海淀、朝阳的GDP分别是其9.9倍和7.1倍。 直到2010年,首钢才彻底迁出石景山,这个过去以重工业产业为主的地方,还在逐步寻找自身的发展节奏。 ## **“这里是北京,又不是北京”** 在不了解石景山的“外人”眼里,这里有很多个标签:首钢大跳台、1号线的尽头、远、相对便宜的房租和物价、全北京排倒数的学区……以及最不起眼的城六区。 橙子、小张都是定居在石景山的北漂,住到石景山之前,她们对石景山的印象也大概如此,**不会特意来一次,但每去一次,都有种莫名的松弛感。** 地铁1号线坐到最西头,终点站是苹果园,改造了好几年,这期间古城就成了临时的终点站。20世纪五六十年代,首钢在古城村附近建宿舍区,后来这附近就建起了古城地铁站。  如今的首钢宿舍区 (图片来源:小红书@橙子解忧杂货铺) 橙子就住在古城地铁站附近的老破小,在国贸上班,始发站上车,1号线直达,对橙子来说,每天早高峰都有座位,是生活在北京比较幸运的事了。 与东边的城区不一样,**出了古城站,没有满眼的高楼大厦和人挤人,如果下班早,一抬眼就能望见西山的群落和盘旋在空中的鸽群。**人们的步履不再匆匆,反而更添了一分慵懒。 橙子说,“国贸就是一线城市的样子,夜晚更加灯红酒绿,但进入地铁站之后,周围大部分都还是普通人,从国贸流向北京的各个角落。**地铁上,越往西,越能感觉到大家逐渐泄了口气,放松下来。”** “在北京,住进石景山,基本就不想搬走了。”橙子说,出了地铁站回家的路上全都是各种小吃店,同样一份煎饼,价格基本是国贸的一半。家门口的盒马奥莱,大部分面包也才几块钱,物价和二三线城市基本持平。 这种生活感氛围,不仅让生活在石景山的人相对更放松,也让来到这里打卡的人感到惬意。石景山的首钢大桥是自行车骑友的知名“刷街”聚集点,沿长安街而来,不需要特意记路线,非机动车道也非常宽敞,一路笔直向西,距离越远,越可以体验“速度与激情”,大约20公里,就是首钢大桥了,如果正好赶上日落时间,这里就是北京的最佳打卡机位之一。  图片来源:小红书@橙子解忧杂货铺 小红书博主@老廉和小张号称石景山野生代言人,自2021年搬到石景山后,小张对这个地方越来越喜欢。“总觉得这里是北京,又不是北京。” **她在这里生活的松弛而饱满,随便洗把脸套个卫衣就能出门吃脏摊儿,不像她之前在朝阳,潮男靓女比比皆是,就算打工人也得是“精致”的,自己不撸个妆都不好意思出门。**在石景山,人和人之间,没有那种互相比着的劲,出门没那么多人看你,只需要关注好自己就够了。 住进石景山,一辆小电驴就能承载起她的整个生活轨迹——上下班、晚上吃完饭去首钢园、遛弯,去山姆超市购物都靠它。最重要的是,这种工作与生活的平衡感完全不像在北京。 **石景山很少有要被精心修饰的氛围感,更多地方散发着的是一股自在的“县城感”。** 比如这里的商场,有种既野生又硬核的气质。“胖永辉”超市所在的喜隆多商场,能免费看鲨鱼;而京西大悦城,因为担心客人找不到入口,商场物业在地铁站附近立了各种手写指示牌,在夜晚看起来尤其诡异。  图片来源:网络(小红书评论区) 饭店也是,在别的区域被追捧的连锁品牌,进了石景山到未必火热,这里人更认的是开了小20年的干锅鸭头,吃炸糕要去法海寺,吃蛋糕会去幸福蛋糕坊,按照小张的说法,那些热衷于追风的‘排队王’来到石景山总会‘水土不服’,**因为“每个石景山人民都练就了一身在丑丑的牌匾中发现惊艳美食的本领。”**  法海寺炸糕,图片来源:小红书@老廉和小张 而这些老店的价格也普遍和二三线小城市差不多,只不过这边老店的服务员都是石景山本地人,“态度可能会不好,主打'自己服务自己'”但却透着实在,小张觉得,就连山姆会员店给的试吃量给得都比其他地方多。 ## **熟人氛围中的洋气** 当然,石景山也有极为洋气和先人一步的地方。 2003年,北京第一家山姆就开在了石景山。但据老一辈的首钢员工回忆,那时候石景山附近有小白羊连锁超市、有物美,大家都不太“认”山姆。而且首钢的福利也很好,自制的“纯牛奶冰棍”、香肠,都是外面人买不到的。所以在当时,首钢员工根本没有把这家外国超市“放在眼里”。 所以,也有人猜测山姆的试吃量多或许是因为它的主要消费群体多数由首钢员工及周边社区居民构成,**在与福利足够好的首钢争夺消费者,自然要多付出些成本。** 去年,石景山的喜隆多永辉超市,成为了北京第一家被胖东来“嫁接”的超市,在经过胖东来调试后,这里迅速成为京西消费热点,据报道,在恢复开业后,短短5天时间超市销售额达770万元,进店客流量达20万人次,大客流还带火了永辉超市所在的喜隆多,商场客流量翻倍,销售额激增近50%。 那几天的石景山实在太热闹了,四方车辆把通往“胖永辉”的那条路都堵成了一串红,而里面的人更是多到让小张觉得喘不上来气,但即便如此,**她的语气里也还是透着一股骄傲,因为首个“胖永辉”选择了石景山。**  排队进入“胖永辉”的车流(后浪研究所拍摄) 5个月过去了,石景山人民对作为胖永辉首选地的骄傲已经消失殆尽了,这里的人流也更多集中在了周末,但对拥堵的烦恼还是不可比慢的多了起来,小张甚至已经开始绕路了。 喧哗与热闹多是短暂的一时,小张依然享受这里的生活。之前在海淀生活的时候,小张只觉得自己是在北京打工,漂泊感很重,**但是搬来石景山后,这里非常像家里的小县城,使她感到更加亲切与安宁。** 小张平时会和邻居“以物换物”。邻居会把吃的放她家门口,她从老家回来,也会把特产往对方门口一扔,彼此基本不打声招呼。 这种熟人氛围,在吴波开的咖啡馆里也体现的淋漓尽致。在星巴克还没有开到三环外的时候,吴波在石景山开了第一家咖啡店,取名为“笑看百合之老山咖啡馆”,这名字,在这个互联网时代看着都有点穿越。 老山咖啡馆快12年了。每天中午十一点会准时出炉现烤饼干。除此之外,吴波还研制了一款“中式意大利面”,因为认为西式意大利面客人应该吃不饱,老山咖啡馆在面上加了一根大香肠。 吴波说:“这十几年,他见证了不下十对夫妻,在店里相亲、到求婚、再到领着孩子进店,要一份意大利面。”  老山咖啡馆 ## **佛系青年的聚拢** 这份友好与松弛也吸引了越来越多想在北京安定下来的北漂们,当然,也是因为这里有着能满足他们需求的选择。 **比如买房,北漂们倾尽所有能在北京买下的低总价房子就多出自石景山。** 2024年5月,河北姑娘橙子在距离古城地铁站500米的地方购入了一套不到30平米的一居室,始建于1958年——是真正意义上的老破小。橙子以总价105万、首付35万的价格拿下,每月还贷3400元。  橙子的家 2021年,因为不想离父母太远,30岁的她放弃了南方稳定的体制内工作,裸辞来京。买这套房对她而言算是跟裸辞一样的脱轨行为——在别人不敢买房的时候买了不被市场看好的老��小。 虽然房龄老,但离地铁近、又在城六区、周边环境也比较舒适,橙子对这套一居室动了心,看房后,因为房东急售,总价降了20万,橙子非常爽快了交了首付。 橙子之前一直住在海淀,机缘巧合地与室友搬到了石景山,生活了一段时间后,她说了,**“看哪里都是开阔的,不再是满眼极繁。”**她说,在偌大的城市,这是完成自洽的过程。橙子把自己买房的经历发到了网上,没想到还帮助不少像她这样的单身独居女性突破了信息差,也选择到石景山买房。 很多住进石景山的北漂,再也不想搬回朝阳、海淀了;以及越来越多的佛系青年,开始不约而同地向石景山聚拢。在他们看来,这里的环境和人,都有种不管不顾的松弛,**“有一种人在北京但生活在老家的感觉,有点像北京尚未广为人知的‘养老福地’。”** 社交媒体上,几乎所有夸石景山的帖子下面,都会有人回复,“别宣传石景山啊,别让他们知道这些好地方。” 数据来源: ①:石景山人民政府 ②:首都园林绿化局 本文来自微信公众号[“后浪研究所”](https://mp.weixin.qq.com/s/WznfxIPoFShvQcR0wPQ_Ig),作者:宋虹姗、巴芮,36氪经授权发布。
        电影《玩具总动员3》中,草莓熊是一个让人又爱又恨的角色。草莓熊原本是一个被小女孩黛西深爱的玩具,身上带着草莓的香味,是她最贴心的伙伴。然而,一次意外的遗失,草莓熊经历千辛万苦回到黛西身边后,却发现她已经有了一个新伙伴。那一刻,抱抱熊的心碎了,他从一个软萌可爱的玩具变成了一个内心扭曲的反派。 **而现在,成年人对毛绒玩具们却有着比孩子更高的忠诚度了。**他们会温柔地对待每一只「草莓熊」,告诉它:「在我这里,你是独一无二的。」毛绒绒不只是孩子们的玩具,现在它们重新被年轻人需要。 心理学家温尼科特曾提出「过渡物件」一词,用来描述儿童如何借助毛绒玩具,从对父母的依赖过渡到独立个体。其实,成长并不意味着我们失去了这种需求。对远离家人、独自在大城市的年轻人来说,它们起到了更强力的抚慰作用。在年轻人的世界里,毛绒玩具拥有名字、性格,有的甚至还有专属社交账号。有人给它们搭配衣服,有人带它们拍Vlog,还有人带着它们四处旅游打卡…… **对许多人来说,这样的相处是一种「低风险亲密」。在亲密关系日益稀缺的当下,毛绒玩具也成了一种低门槛的情感替代。**它们不需要回应,也不会制造冲突。它们安静、柔软、一直在你身边。这份默默在场的支持,是年轻人越来越渴望的东西。 本文来自微信公众号[“后浪研究所”](https://mp.weixin.qq.com/s/5-eNtFT5O56L1o7pzJOKvA),作者:嘉婧、茵茵、曲枚,36氪经授权发布。
 ## 雷军最新内部演讲曝光:小米不再是行业新人,公众的期待和要求远超想象 5 月 16 日消息,一份雷军在小米价值观大赛后对内部员工发表演讲的视频曝光,罕见谈及了近期小米遭遇的舆论危机。  雷军表示,三月底的一场突如其来的交通事故,给小米带来了狂风暴雨般的质疑、批评和指责。我和同事们一样,一下子都懵了,一位熟悉汽车行业的朋友告诉我:造车,遭遇交通事故在所难免。』但是谁也没有想到,这一场事故的影响如此之大,对我们小米的打击也如此之大。 雷军称,四年前决定造车的时候,一直特别担心安全问题,所以对汽车的质量和安全无比的重视。经过汽车团队这么多同事们三、四年的努力,我们 SU7 在上市的一年多的时间里面,质量一直是我们引以为傲的东西,在参与的所有权威机构的评测里面都拿到了最高分,但万万没有想到,这场交通事故,让我们意识到,公众对我们的期待和要求远超了想象。 他表示,我们一直觉得我们是汽车行业的新人,我们是一家创业的公司。但这一次的事件让我深深的理解,小米今天的规模、影响力、社会关注度都到了非常高的地方,社会和公众要求我们去承担一家真正的大公司行业领导者的责任。我们深刻的意识到,这是 15 年的小米无可回避的责任。15 岁的小米,不再是行业的新人,我们在任何一个产业里面都没有了新手保护期,我们要有更高的标准和目标。(来源: TechWeb)  ## 马斯克 4000 亿薪酬被推翻,特斯拉修改公司章程打压股东诉讼 5 月 17 日,据彭博社报道,在埃隆・马斯克 (Elon Musk) 的天价薪酬被股东诉讼推翻后,特斯拉公司正采取措施防止未来再次出现此类情况。特斯拉在周五晚间披露,已修改公司章程,规定股东必须持有至少 3% 的公司股份,才能「发起或维持一项衍生诉讼」。衍生诉讼指的是股东代表公司对相关责任人发起的诉讼。根据监管文件,特斯拉是在 5 月 15 日修改的章程。  就在几天前,得州州长格雷格・阿博特 (Greg Abbott) 签署立法对该州公司法进行一系列修改,包括允许公司设定股东发起衍生诉讼所需的持股门槛。阿博特以及该州其他共和党领导人宣称,此举旨在吸引更多企业在得州注册成立。 正是股东诉讼导致马斯克的天价薪酬泡汤。特斯拉授予马斯克的薪酬协议在 2018 年获得股东批准,最初价值为 26 亿美元,但是在 2024 年初被裁定无效时已飙升至 560 亿美元 (约合 4036 亿元人民币)。在特斯拉股价飙涨时,其价值一度超过 1000 亿美元。然而,该薪酬方案遭到了一位股东的质疑。 在马斯克薪酬被推翻后,特斯拉把注册地从特拉华州迁至得州。目前,特斯拉已就该裁决向特拉华州最高法院提起上诉,这一过程可能耗时数月时间。 截至发稿,特斯拉尚未就此置评。(来源:凤凰科技) ## 消息称英伟达计划在上海设立研发中心 5 月 16 日消息,英国《金融时报》援引两位知情人士消息称,英伟达计划在上海设立研发中心,力图在其中国市场销售受挫的背景下维持在 AI 芯片领域的领先地位。 知情人士透露,英伟达 CEO 黄仁勋上月与上海市长龚正会面时提出了这一设想。公司目前正租用新的办公场地,以安置现有员工并为后续扩编预留空间。 知情人士表示,新设立的研发中心将专注于满足中国客户的特定需求。上海团队将参与全球研发工作,包括芯片设计验证、产品优化,以及自动驾驶等特定领域的研究。 黄仁勋希望吸引中国本土顶尖 AI 人才。目前,英伟达正为上海团队招聘多个岗位,包括开发下一代深度学习软硬件的工程师,以及设计和优化面向全球市场的 ASIC 芯片开发者。 有知情人士透露,上海市已对上述规划表达初步支持。(来源: IT 之家) ## Meta 推迟发布旗舰 AI 模型 Behemoth,因能力提升遇到困难 5 月 16 日消息,据外媒报道,知情人士称,Meta 工程师难以大幅提升旗舰 AI 模型「Behemoth」(巨头)的能力,将推迟发布模型。 Meta 在 4 月发布了 Llama 4 模型系列中的两个小型模型 Scout 和 Maverick,但更大的 Behemoth 版本发布被推迟至 6 月。 现在,据报道,Behemoth 模型发布时间又被推迟到秋季甚至更晚,因能力提升并不明显。这也引发了公司内部对耗费巨资打造 AI 这一投资方向的担忧。 不过,外媒也提到,其他试图发布下一代重磅模型的顶尖 AI 公司也纷纷遇挫,比如说 OpenAI。去年 12 月,就有外媒报道,OpenAI 开发其下一个主要模型 GPT-5 的努力正落后于计划,其结果还不能证明巨大的成本是合理的。 值得一提的是,Llama 4 发布后,还因作弊刷榜、代码能力拉垮、伪开源等备受争议。(来源: TechWeb)  ## OpenAI 的 AI 程序员上线,人类仅需点按钮 5 月 17 日报道,昨夜,OpenAI 推出一款基于云的软件工程 Agent(智能体)——Codex的预览版。 Codex 可并行处理多项任务,例如编程、解答代码库相关问题、修复错误以及提交拉取请求以供审核等,在云上运行并预加载用户代码库。 Codex 由codex-1 模型提供支持。codex-1 是 OpenAI o3 针对软件工程优化后的版本。目前,Codex 已面向 ChatGPT Pro、Team 和 Enterprise 用户上线,即将面向 Plus 用户上线。 OpenAI 同步推出 codex-1 的精简版本,基于 o4-mini 专为轻量级开源编码 Agent「Codex CLI」而打造,API 定价为1.5 美元/100 万 tokens 输入,6 美元/100 万 tokens 输出,即时缓存打七五折。(来源:智东西) ## 美团外卖推出「堂食店」标签:是否堂食并非检验品质的唯一标准 5 月 16 日消息,美团外卖官宣,为更好地帮助商家还原真实经营场景,面向消费者提供更加多元可信的参考信息,美团外卖近期对「明厨计划」进行了全面升级,推出「堂食店」标签功能,开放商家认证流程,并将在首页推荐位、专属标签等多个核心位置展示。 同时,自 4 月以来,美团外卖加大对「明厨亮灶」的补贴力度,面向夫妻店、社区小店等中小餐饮商户提供覆盖硬件设备购置、安装等费用的全额补贴,首期补贴总额达 5000 万元。 IT 之家注意到,美团外卖还称:「是否堂食并非检验品质的唯一标准,消费者更需要看得见的食品安全。我们期望,让每一份外卖都承载着安心与诚意,让每一家规范经营的商家都获得更多关注。」(来源:IT 之家) ## 腾讯混元图像 2.0 模型发布:毫秒级响应,一边打字一边出图 5 月 16 日消息,腾讯混元图像 2.0 模型(Hunyuan Image2.0)正式发布,在腾讯混元官方网站上线,并对外开放注册体验。 腾讯混元图像 2.0 模型主要有两大特点:实时生图、超写实画质。 相比前代模型,腾讯混元图像 2.0 模型参数量提升了一个数量级,得益于超高压缩倍率的图像编解码器以及全新扩散架构,其生图速度「显著快于行业领先模型」,在同类商业产品每张图推理速度需要 5 到 10 秒的情况下,腾讯混元号称可实现毫秒级响应,支持用户可以一边打字或者一边说话一边出图,改变了传统「抽卡—等待—抽卡」的方式。 除了速度快以外,腾讯混元图像 2.0 模型图像生成质量提升明显,通过强化学习等算法以及引入大量人类美学知识对齐,生成的图像号称可避免 AIGC 图像中的「AI 味」。(来源:IT 之家) ## 魔法原子再获数亿融资,推动千行百业落地 近日,具身智能机器人公司魔法原子宣布完成数亿元新一轮战略融资。本轮投资方包括战略产业资本禾创致远、芯联资本,财务投资人华映资本、晓池资本、元禾厚望,老股东追创创投和翼朴基金持续追加投资,新资金将用于具身智能核心技术迭代研发,VLA 模型搭建,加速推动机器人在工业、商业场景落地。 短短半年内,魔法原子连续完成了两轮超亿元级融资。在此期间,魔法原子已逐步完成「全栈自研技术+全链路布局+场景化应用」闭环生态的搭建,为商业化进程提供根本保障。 魔法原子成立于 2024 年 1 月,专注于通用机器人和具身智能技术研发与落地应用,产品涵盖通用人形机器人与四足机器人,覆盖工业、商业及家庭等多元场景。(来源:极客公园)  ## 三星首秀 Sensor OLED 技术:全屏识别指纹,支持心率检测 5 月 16 日消息,科技媒体 SamMobile 发布博文,报道称在 2025 年 SID Display Week 博览会上,三星显示(Samsung Display)公司展示 Sensor OLED 技术,内置传感器,能在屏幕任意位置检测指纹,甚至还能测量心率、血压和压力水平。  在传统 OLED 屏幕上,屏下指纹传感器只能在特定区域识别指纹;而 Sensor OLED 技术直接在制造过程中嵌入了有机光电二极管(OPD)层,实现全屏检测用户指纹。 更值得关注的是,Sensor OLED 技术不仅支持全屏识别指纹,还能像智能手表和健身追踪器一样,检测心率、血压和压力水平。其原理是利用 OLED 光线根据血管收缩和扩张的不同反射特性,通过 OPD 层将数据转化为健康信息。(来源:IT 之家) ## 荣耀 400 Pro 真机首曝:首发流光织锦工艺,最美荣耀手机 日前荣耀官方宣布,将在本月推出全新的荣耀 400 系列,包含荣耀 400 和荣耀 400 Pro 两款机型,目前该系列已在各大平台上架开启预约,受到了不少用户的关注。现在有最新消息,近日有数码博主进一步晒出了其中荣耀 400 Pro 的真机谍照。  据知名数码博主 @ 旺仔百事通 最新晒出的真机照显示,与此前曝光的消息基本一致,全新的荣耀 400 Pro 将至少提供幻夜黑、揽月银和海风蓝两款配色,其中海风蓝配色首发流光织锦工艺,将真丝感纤维与贝母珠粉等材料,在真空环境中层层压制融合,让每一块背板设计都与众不同,就像每一缕海风、每一捧流沙,都是独一无二,堪称是最美荣耀手机。除此之外,该机的后置相机模组将采用全新的「旷野舷窗」设计,通过背板至镜头的流畅过渡展现出与众不同的美感。 据悉,全新的荣耀 400 Pro 将在本月正式发布,由肖战代言。(来源: TechWeb)  ## 全球首部全程 IMAX 胶片拍摄电影:诺兰新片《奥德赛》明年夏季上映 5 月 16 日消息,据外媒《好莱坞报道者》报道,克里斯托弗・诺兰执导的新片《奥德赛》将在明年夏季上映,这部改编自希腊史诗的作品不仅内容宏大,其制作方式也将开创历史:全球首部全程使用 IMAX 胶片拍摄的电影。  此前,《复仇者联盟 3:无限战争》就已经使用 IMAX 设备完成全片拍摄。但与前者不同,《奥德赛》则是首部全程采用 IMAX 胶片拍摄的电影,而非数字设备。IMAX CEO 里奇・盖尔方德在戛纳电影节期间的一场媒体午宴上宣布了这一消息,并透露这是诺兰率先提出的挑战。 据悉,升级后的摄影机更轻便、运作时的噪音也降低了三成。IMAX 还开发出全新的胶片扫描与处理技术,让拍摄时可以更快速地回看素材。当前这些摄影机仅供诺兰使用,《奥德赛》制作完毕后才会对其他导演开放。 自 2008 年《黑暗骑士》以来,诺兰就一直是 IMAX 技术的坚定拥护者,当时他首次用 IMAX 摄影机拍摄动作戏。从那以后,他的每部作品都采用 IMAX 拍摄。(来源:IT 之家)
<blockquote><p>今天,我们就来聊一聊在这场激烈的 AI 搜索大战中,知乎直答是如何凭借 5000 万文献库构建起坚固的知识壁垒的,同时也深入探讨一下知识类产品的专业度量化体系。</p> </blockquote>  在当今这个信息爆炸的时代,知识类产品如雨后春笋般涌现。它们宛如一个个知识的宝库,为我们提供着无尽的信息。然而,如何在众多的知识类产品中脱颖而出,构建起属于自己的独特壁垒,成为了每个产品开发者都在思考的问题。 ## 一、知识类产品竞争的大背景 不知道大家有没有这样的体验,当我们在互联网上搜索一个专业知识时,面对海量的信息,却常常难以找到真正精准、专业且有深度的内容。如今,各类知识类产品纷纷登场,都试图在这个巨大的市场中分得一杯羹。从综合性的搜索引擎到专注于特定领域的知识平台,竞争可谓异常激烈。 比如说,在医学领域,丁香园等平台以专业的医学知识和医生资源吸引了大量用户;而在学术研究方面,知网等凭借丰富的学术文献资源占据着重要地位。这些平台都有自己的优势和特色,但也都面临着来自其他竞争对手的挑战。在这样的大背景下,知乎直答带着它的 5000 万文献库加入了这场 AI 搜索大战,它又将如何突出重围呢? ## 二、知乎直答 5000 万文献库的独特价值 知乎直答的 5000 万文献库就像是一座知识的宝藏。想象一下,当你在寻求某个专业领域的答案时,有 5000 万篇文献作为支撑,这背后所蕴含的知识量是何等的庞大。 举例来说,如果你是一名科研人员,正在研究某一种罕见疾病的治疗方法。在知乎直答上搜索相关内容,它可以参考这 5000 万文献库中的大量研究报告、临床案例等。这些文献可能来自国内外顶尖的学术期刊、专业研究机构,它们为科研人员提供了丰富的研究思路和数据支持。据相关统计,在一些专业领域的搜索中,知乎直答凭借其文献库提供的有效信息,帮助科研人员缩短研究周期平均达到 20%左右。 对于普通的知识爱好者来说,这个文献库同样具有很大的价值。比如,当你对历史事件感兴趣,想了解某一场战争的详细背景和影响时,知乎直答可以从众多的历史文献中提取精华,为你提供全面、准确的信息。它不仅仅是简单地罗列知识点,而是通过对文献的整合和分析,以一种通俗易懂的方式呈现给用户。 ## 三、知识类产品的专业度量化体系 那么,像知乎直答这样的知识类产品,如何衡量其专业度呢?这就涉及到知识类产品的专业度量化体系。一个完善的专业度量化体系就像是产品的质量检测标准,它可以从多个方面来评估产品的专业性。 ### 1. 文献资源的质量和数量 文献资源是知识类产品的基础。就像知乎直答的 5000 万文献库,数量上已经占据了一定的优势。但更重要的是文献的质量。这些文献是否来自权威的出版物、是否经过严格的审核和筛选,都直接影响着产品的专业度。例如,在学术领域,SCI、EI 等索引的文献往往具有较高的质量和权威性。如果知识类产品能够收录大量这样的文献,那么它在专业度上就更有保障。 ### 2. 知识的准确性和深度 专业的知识类产品应该提供准确无误的信息。以医学知识为例,每一个诊断和治疗建议都关系到患者的健康和生命安全。因此,在提供医学知识时,必须确保其准确性。同时,知识还需要有一定的深度。不能只是表面的泛泛而谈,而应该深入到专业的细节中。比如,对于一种疾病,不仅仅要介绍症状和治疗方法,还应该讲解其发病机制、病理生理过程等。 ### 3. 专家的参与度和认可度 专家的参与和认可也是衡量专业度的重要指标。如果一个知识类产品能够邀请到各个领域的知名专家参与内容的审核、创作和答疑,那么它的专业度自然会得到提升。例如,在一些法律知识类产品中,邀请资深的律师对法律条文进行解读和案例分析,这会让用户更加信任产品提供的信息。据调查,有专家参与的知识类产品,用户满意度平均提高了 15%左右。 ## 四、知乎直答如何通过专业度量化体系构建壁垒 ### 1. 严格筛选文献资源 知乎直答为了保证文献资源的质量,建立了一套严格的筛选机制。它与众多权威的学术机构、出版社合作,引入高质量的文献。同时,对每一篇进入文献库的文献进行审核,确保其来源可靠、内容准确。例如,在医学文献方面,只收录来自知名医学期刊和专业研究机构的报告,避免低质量、虚假的信息混入。 ### 2. 提升知识的准确性和深度 知乎直答利用先进的 AI 技术对文献进行分析和整合。它能够从众多的文献中提取关键信息,并且进行深度挖掘和解读。在回答用户的问题时,不仅仅是简单地摘抄文献内容,而是结合多方面的信息,提供全面、准确且有深度的答案。比如,在回答关于某一种药物的问题时,会详细介绍药物的成分、作用机制、适用人群、不良反应等方面的内容。 ### 3. 邀请专家参与 为了进一步提升专业度,知乎直答积极邀请各个领域的专家加入。这些专家会对平台上的内容进行审核和指导,确保知识的准确性。同时,专家还会在平台上分享自己的专业见解和经验,与用户进行互动。例如,在科技领域,会邀请知名的科学家、工程师对前沿技术进行解读和分析,让用户能够接触到最专业的知识。 ## 五、知识类产品专业度量化体系的未来发展 随着科技的不断进步和用户需求的不断提高,知识类产品的专业度量化体系也将不断发展和完善。 ### 1. 更加精准的评估指标 未来,专业度量化体系的评估指标将更加细化和精准。除了现有的文献资源质量、知识准确性和专家参与度等指标外,还可能会考虑到知识的时效性、用户反馈等因素。例如,对于一些实时性较强的领域,如金融、科技等,知识的更新速度将成为评估专业度的重要指标。 ### 2. 与新技术的融合 随着人工智能、大数据、区块链等新技术的发展,专业度量化体系将与这些技术深度融合。人工智能可以通过对用户行为数据的分析,更精准地评估用户对知识的需求和满意度;大数据可以为专业度评估提供更全面的数据支持;区块链技术可以保证知识来源的可追溯性和真实性。 ### 3. 跨领域的专业度评估 未来的知识类产品可能会涉及多个领域的知识。因此,专业度量化体系也需要进行跨领域的评估。例如,一个综合性的知识平台,既涉及到科学技术知识,又涉及到人文社科知识,那么如何综合评估其在不同领域的专业度,将是一个新的挑战和发展方向。 亲爱的朋友们,在这场激烈的 AI 搜索大战中,知乎直答凭借其 5000 万文献库和完善的专业度量化体系,构建起了坚固的壁垒。而知识类产品的专业度量化体系也将不断发展和完善,为我们提供更加专业、准确、优质的知识服务。希望大家在这个知识爆炸的时代,能够借助这些优秀的知识类产品,不断提升自己的知识水平。如果你对知识类产品的专业度量化体系还有其他的想法和见解,欢迎和我一起交流讨论。下次见啦! 本文由人人都是产品经理作者【北沐而川】,微信公众号:【健彬的产品Live】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。 题图来自Unsplash,基于 CC0 协议。
26 岁的埃里克·康瑟尔 (Eric Council Jr.) 因参与入侵美国证券交易委员会官方 X 账户,于周五被判处 14 个月监禁和 3 年监督释放。美国司法部在[一份新闻稿](https://www.justice.gov/opa/pr/alabama-man-sentenced-14-months-connection-securities-and-exchange-commission-x-hack-spiked)中宣布了这一判决。 Council 和其他黑客于 2024 年接管了 SEC 的 X 账户,并错误地宣布该机构已批准比特币交易所交易基金 (ETF),这导致加密货币价格飙升,随后又下跌。  2024 年 1 月 9 日,控制了 @SECGov X 账户的黑客发布的虚假 SEC 帖子截图 据美国司法部称,Council及其同伙对一名有权访问SEC X账户的人员的手机账户进行了SIM卡交换攻击,从而使黑客控制了该人员的电话号码。之后,黑客重置了SEC X账户的密码,从而获得了该账户的控制权。 [查看评论](https://m.cnbeta.com.tw/comment/1500220.htm)
微软悄然发布了一款类似 macOS Spotlight 的 Windows 启动器应用,该应用可快速访问命令、应用和开发工具。微软最初于近五年前为 Windows 10推出了PowerToys Run 启动器,而更新后的版本[Command Palette](https://learn.microsoft.com/en-us/windows/powertoys/command-palette/overview)现在包含应用、文件夹和文件的搜索、计算、系统命令等功能。  所有 Windows 用户均可通过[PowerToys 应用](https://learn.microsoft.com/en-us/windows/powertoys/install)调用Command Palette ,但微软似乎正在将此特定实用程序的目标客户定位为高级用户和开发人员。您可以使用 Command Palette 访问 Windows 命令或启动命令提示符和 Shell 快捷方式。Command Palette 还可以快速打开网站、进行网页搜索以及搜索文件夹和文件,就像您在类似 Spotlight 或 Alfred 的界面中看到的那样。 [](https://static.cnbetacdn.com/article/2025/05/c9c7ad8508b00c1.webp) 命令面板的工作方式与 macOS 上的 Spotlight 或 Alfred 非常相似 微软还将之前的 Window Walker PowerToy 迁移到了命令面板 (Command Palette),方便用户轻松切换打开的窗口。命令面板最有趣的地方在于,微软通过扩展支持使其完全可自定义,用户可以添加默认命令和功能以外的其他命令和功能。 PowerToys 命令面板 (Command Palette) 自 4 月初上线,安装后即可使用 Win+Alt+Space 快捷键激活。微软表示,“命令面板旨在成为 PowerToys Run 的继任者”,但目前两者仍然可用。微软本周在 5 月 19 日的 Build 开发者大会前对命令面板进行了一些调整和更改。 [查看评论](https://m.cnbeta.com.tw/comment/1500218.htm)
InventWood 正准备将首批超级木材推向市场,这证明了科学创新与企业家决心的结合将带来怎样的成果。如果成功,超级木材将标志着人们在追求更环保、更坚固、更美观的建筑道路上迈出新的一步。  最初在马里兰大学实验室进行的一项实验,如今已有望对建筑实践产生重大影响。InventWood 是一家从该大学衍生出来的初创公司,正准备推出一种名为“超级木材”(Superwood)的新材料——一种强度重量比几乎是钢材十倍的木质产品,同时重量更轻,更具可持续性。 故事始于2018年,当时马里兰大学材料科学家胡良兵博士开发了一项专利技术,可以将普通木材转化为比原来强度高12倍、韧性高10倍的材料。  胡博士没有让这一发现在学术界默默无闻,而是进一步改进了他的技术,将生产时间从一周多缩短到仅仅几个小时。他意识到其商业潜力,将这项技术授权给InventWood公司,该公司目前由首席执行官Alex Lau领导。InventWood公司最近完成了1500万美元的A轮融资(迄今为止已筹集超过5000万美元),目前正准备在马里兰州弗雷德里克市开设其首家商业化生产工厂。Superwood预计将于2025年第三季度开始发货。 Superwood 的创新之处在于其分子工程技术。该工艺从普通木材开始,其主要由纤维素和木质素组成。通过选择性地去除某些成分并应用“食品工业”化学品,InventWood 增强了纤维素纤维,然后压缩材料以增加分子之间的氢键。 这种新材料不仅坚固耐用,而且功能强大。超级木材防火、防水、防腐、防虫。它保留了木材的自然温暖、纹理和美感,经过一些聚合物处理后,可以用于户外应用,例如墙板、露台和屋顶。 InventWood最初将专注于生产商业和高端住宅建筑的外墙材料。但该公司的雄心远不止于此,设想未来结构梁和其他建筑构件将由超级木材制成,为建筑师和建筑商提供一种不仅性能卓越,而且环保的材料。 建筑行业是全球碳排放的主要贡献者,这很大程度上是由于其对混凝土和钢材的依赖。通过提供本土采购的可持续替代方案,InventWood 旨在减少该行业的碳足迹,同时支持美国制造业和地方经济,其环境效益显著。 该公司还与领先的建筑材料分销商 Intectural 建立了战略合作伙伴关系,以加速 Superwood 在北美的普及。 InventWood 的进展吸引了公共和私营部门的支持,包括美国能源部、国防部以及一些关注气候的投资集团。环保主义者兼企业家保罗·霍肯称超级木是“一项非凡的突破,颂扬了自然界的智慧”,并预测它将在未来全球建筑业中发挥关键作用。 [查看评论](https://m.cnbeta.com.tw/comment/1500216.htm)
本月早些时候,《华盛顿邮报》披露美国国务卿马尔科·卢比奥已指示美国国务院帮助星链项目扩张,以抵御中国的技术影响。周四,ProPublica 发表了一篇长文,深入探讨了这些行动在基层的具体情况。根据美国国务院与美国驻非洲四个发展中国家(冈比亚、吉布提、喀麦隆和莱索托)大使馆之间的电报,外交官一直在安排与星链项目高管和外国监管机构会面,敦促他们加快与这家卫星互联网公司签署许可协议,以此作为与美国“友好”关系的象征。 [](https://static.cnbetacdn.com/article/2024/0927/39e74e3030eb02b.jpg) 这些外交官警告说,如果这些国家拒绝加快行动,负责大规模削减政府工作岗位和预算的马斯克领导下的政府效率部(DOGE)可能会突然将原本拨给这些国家的项目和资金作为打击目标。 特朗普就职后不久,美国驻冈比亚大使莎伦·克罗默与冈比亚通信部部长拉明·贾比举行会谈,商讨加快星链项目(Starlink)的监管审批事宜。据ProPublica报道,会谈期间,克罗默提到几项关键举措,例如一项“耗资2500万美元的电力系统改善项目”正在接受审查——冈比亚官员认为这是一种含蓄的威胁。“这意味着他们之间有关联,”贾比的副手哈桑·贾洛说道。 3月份,美国国务院安排贾比在华盛顿参加世界银行峰会期间与星链项目会面,但最终贾比拒绝让步,施压行动进一步升级: 在接下来的几个小时里,星链项目和美国政府的攻势愈演愈烈,凸显了双方的协调程度。该公司告知贾比,将取消他原定在华盛顿特区与国务院官员的会面,因为“已经没有必要了”,贾洛说。 国务院的会面最终未能举行。相反,在4000英里外的冈比亚首都,克罗默试图采取更为激进的策略。 同一天,克罗默已经与冈比亚相当于商务部长的官员会面,游说他为星链项目铺平道路。随后,根据国务院的记录,她得知星链在华盛顿特区举行的那场令人失望的会面。当天晚上,克罗默致信总统。 信的开头是“我写信是为了寻求您的支持,允许星链在冈比亚运营。”这位大使用三页纸的篇幅阐述了她对贾比机构的担忧,并列举了冈比亚人可以从星链项目中受益的方式。她还表示,该公司已经满足了贾比前任提出的条件。 “我谨恳请您协助星链项目在冈比亚获得必要的审批,”克罗默总结道。“我期待您的积极回应。” 其他三个国家也采取了类似的举措,尽管每个国家都尝试以不同的方式处理星链项目与国务院的关系。例如,在莱索托,就在特朗普征收50%关税之际,一项星链项目交易被快速推进,超过了一家大型跨国竞争对手,而美国大使馆则“吹嘘”自己促成了这一交易。在内部电报中,高级外交官表示,他们需要在未来18个月内为马斯克获得这些许可,以确保星链项目在外国竞争中保持领先地位,从而获得“先发优势”。 几位前美国外交官告诉ProPublica,美国国务院的行动史无前例,令人震惊,正如前美国驻哈萨克斯坦大使肯尼斯·费尔法克斯所说,近乎“裙带资本主义”。曾在小布什政府时期担任国务院高级官员的克里斯托弗·哈里森也表示赞同:“如果是其他国家干的这种事,我们绝对会称之为腐败。因为这就是腐败。” [查看评论](https://m.cnbeta.com.tw/comment/1500214.htm)
美国东部时间 5 月 16 日,特斯拉宣布任命快餐连锁品牌奇波雷(Chipotle)资深高管杰克・哈通(Jack Hartung)为公司董事会成员,任命将于 6 月 1 日正式生效。  **新成员背景与职责** 哈通自 2002 年加入奇波雷,历任首席财务官、总裁兼首席战略官,以在新冠疫情期间对企业财务的严谨管理著称。根据特斯拉向美国证监会(SEC)提交的文件,他将加入董事会审计委员会,协助应对当前电动汽车销量下滑、利润缩水的挑战。 **特斯拉的现实困境与人事调整** 此次任命正值特斯拉面临多重压力: - **业绩承压**:公司股价年内累计下跌 14%,电动汽车市场竞争加剧导致销量和利润率双降; - **管理层精力分散**:首席执行官埃隆・马斯克同时兼任特朗普政府 “政府效率部” 部长,尽管他在上月财报会上承诺 5 月底前大幅减少政府事务投入,但仍需每周花费 1-2 天处理相关工作。 哈通的加入使特斯拉董事会扩容至 9 人,上一位新成员是 2022 年加入的爱彼迎联合创始人乔・杰比亚。值得注意的是,哈通的女婿为特斯拉服务技术人员,其与马斯克弟弟金博尔・马斯克(特斯拉董事,2013-2019 年任奇波雷董事)的交集未被公司进一步披露。 **职业履历与跨界影响** 在奇波雷任职期间,哈通见证了品牌从 2006 年上市到股价增长超百倍的历程。奇波雷 5 月 6 日已宣布他将于 6 月 1 日卸任总裁兼战略官,转为高级顾问至 2026 年 3 月。此外,他还担任芝加哥餐饮品牌波蒂略(Portillo‘s)、诚实公司(The Honest Company)及医疗预约平台 ZocDoc 的董事。 特斯拉在马斯克旗下社交平台 X 上发文欢迎哈通加入,市场分析认为,其财务管控经验或为特斯拉推进洛杉矶 “复古未来主义” 主题餐厅(筹备 7 年)等新业务提供支持。 [查看评论](https://m.cnbeta.com.tw/comment/1500212.htm)
据《金融时报》(FT)的一篇新闻报道,美国政府工业和安全局(BIS)正在考虑增加“出口黑名单”条目。大约两个月前,一项重大更新影响了约80家中国企业“实体”的出口贸易。尽管近期与关税相关的活动有所“降温”,但这两个强国之间仍然存在严重的政治紧张局势。 据《金融时报》五位不愿透露姓名的内部人士透露,长鑫存储技术有限公司(CXMT)有可能面临制裁,此前中芯国际和长江存储科技股份有限公司(据称)已被列入黑名单。 这几家中国最著名的芯片制造商和存储器模块生产商通过分支渠道成功规避了限制,《金融时报》认为,美国政府正在积极调查其中几家子公司。  长鑫存储专注于商用 DDR5 和 DDR4 产品,但其日益增长的知名度已引起国际社会的关注。2024 年 3 月左右,彭博社报道称美国商务部商务与安全局 (BIS) 正在“考虑”制裁它,这家相对年轻的 DRAM 制造商(成立于 2016 年)在技术进步方面仍落后于韩国和西方竞争对手,但其在 DDR5 领域的初步努力已给评估人员和早期采用者留下了深刻印象。  [查看评论](https://m.cnbeta.com.tw/comment/1500208.htm)
据知情人士透露,波音公司接近与美国检方就两起737 MAX致命空难引发的欺诈案达成暂定不起诉协议。这两起空难事故共造成346人遇难。根据协议,这家飞机制造商将避免面临原定6月23日的庭审。波音被指控在其最畅销机型737 MAX的关键飞行控制系统问题上误导美国监管机构。该协议仍需法官批准。  若获批准,这份协议将对遇难者家属造成打击。这些家属一直敦促检方对波音提起公诉。检方周五在与遇难者家属的会议中表示,波音已不再同意认罪。消息人士称,此前法官在12月拒绝了双方早前的认罪协议,导致波音改变了立场。 一位司法部官员在会上表示,检方仍在权衡是推进不起诉协议还是对波音提起公诉。该官员告知家属,目前尚未做出最终决定,波音与司法部也尚未就协议最终细节展开正式谈判。 波音与司法部均拒绝置评。 “我认为这是个糟糕的安排,”遇难者家属律师保罗·卡塞尔在会上表示。2019年波音空难中失去女儿的纳迪亚·米勒隆向路透社表示,她质疑司法部及司法部长帕姆·邦迪如何能为与屡犯者达成协议辩护。 去年12月,得克萨斯州联邦法官里德·奥康纳曾驳回双方早前的认罪协议,指其中关于独立监督员选任的多元化条款存在问题。这项裁决使案件延续至特朗普政府上任,后者对司法部进行了全面改革。波音最初认罪协议是在拜登政府任期最后数月达成的。 在2018至2019年印度尼西亚和埃塞俄比亚两起737 MAX空难后,波音于去年7月同意就刑事欺诈共谋指控认罪,并支付最高4.872亿美元罚款。 [查看评论](https://m.cnbeta.com.tw/comment/1500206.htm)
**比亚迪日前在匈牙利布达佩斯举行欧洲总部官宣仪式**,比亚迪董事长兼总裁王传福出席仪式,见证这一重要里程碑。据了解,比亚迪欧洲总部选址布达佩斯第11区,毗邻多瑙河,坐拥交通枢纽与产业集群优势。 欧洲总部将承载销售与售后、车辆认证及测试、车型本地化设计与功能开发三大核心职能,并将创造上千个就业岗位。 [](//img1.mydrivers.com/img/20250516/479c0ac0-8b28-4f01-908d-2f7c2f16b6d7.jpg) 比亚迪欧洲总部大楼 在研发领域,**比亚迪欧洲总部将首先聚焦智能辅助驾驶技术与下一代汽车电气化技术的深入研究。** 未来,比亚迪将与至少三所匈牙利高校开展联合科研,并携手当地供应商及企业,推动新能源汽车产业链升级。 王传福表示:“比亚迪欧洲总部的设立,标志着比亚迪与匈牙利本地汽车产业的深度融合。这不仅是比亚迪国际化发展的重要里程碑,更让世界见证了中匈合作的无限潜力,**也更坚定了我们在欧洲长期发展的决心。**” 截至目前,比亚迪已进入超20个欧洲国家。比亚迪去年就曾表示,目标到2030年成为欧洲市场最大的电动汽车销售商。 [查看评论](https://m.cnbeta.com.tw/comment/1500200.htm)