详析500起融资&BD交易、200余条国家政策及近百条热点领域管线。
新年伊始,标准普尔全球移动出行(S&P Global Mobility)就2025年全球汽车市场走势进行预测,指出,2025年全球新车销量预计将同比增长1.7%,达到8960万辆(据测算,2024年全球汽车销量预计达到8820万辆),全球轻型汽车产量将下降0.4%,至8870万辆。 S&P Global Mobility的预测展望综合考虑多种因素,包括供应改善、关税影响、仍然高企的利率、可负担性挑战、新车价格上升、消费者信心参差不齐、能源价格和供应担忧、汽车贷款风险以及电气化挑战。在美国,新一届政府可能会立即着手实施一系列政策优先事项,包括普遍关税、放松管制以及对电动汽车支持态度的摇摆不定。 虽然2025年全球新车销量上涨预示着汽车行业谨慎的复苏增长态势,但事实上,2025年全球汽车市场销量预测已被下调,这与充满不确定性的美国新任政府政策变动有关。这些政策将从利率、贸易走向、新车采购和电动汽车采用率方面对汽车需求产生显著影响。  S&P Global Mobility全球轻型汽车预测执行总监科林·库奇曼(Colin Couchman)表示:2025年对汽车行业来说将是极具挑战性的一年,因为关键区域消费需求限制了增长潜力,而新一届美国政府从第一天起就带来了新的不确定性。随着政府重新考虑支持政策(特别是激励措施和补贴、产业政策、关税以及快速演变的原始设备制造商目标设定),无法预测接下来电动汽车需求会如何表现。 **▍ 欧洲市场:销量与2024年基本持平,同比仅增0.1%** 具体到各关键区域,欧洲市场,受消费者谨慎态度和汽车制造商不断调整动力总成战略等影响,2024年西欧和中欧市场汽车销量预计略低于1,500万辆,同比增长1.1%。进入2025年,严格的排放法规将进一步影响市场组合和整体销量,同时,受欧洲经济衰退风险、高企的汽车价格、电动汽车补贴减少、电动汽车关税以及德国和法国的政治不确定性等因素影响,预计2025年欧洲市场销量与2024年基本持平,维持在1,500万辆,同比仅增长0.1%。 Colin Couchman认为,欧洲市场面临的关键挑战,包括电动化转型速度、欧盟对中国产电动汽车征收关税、美国新政府增加关税风险、消费者对电动汽车产品犹豫不决、新一届欧盟委员会政策走向,以及围绕欧盟排放目标的激烈游说活动等。  **▍ 美国市场:销量同比增长1.2%,可负担性问题仍是困扰** S&P Global Mobility认为,2025年美国汽车销量将达到1,620万辆,比预计的2024年销量(1,600万辆)增长约1.2%。随着新政府上台和新政策提议的实施,2025年美国汽车市场将融合机会和不确定性风险。 S&P Global Mobility北美轻型汽车销量预测经理克里斯·霍普森(Chris Hopson)认为,2024年制约汽车需求增长的新车可负担性问题在2025年不会迅速得到解决,虽然新车定价有所下降,但仍处于高位;虽然利率将进一步下调,但通胀水平会维持;预计新车库存会有所增加,但仍需谨慎对待。这些因素塑造美国汽车市场2025年销量的温和增长前景。 **▍ 中国市场:销量同比增长3.0%,新能源汽车热潮延续** 得益于新能源汽车激励政策以及以旧换新补贴政策,S&P Global Mobility预测2024年,中国市场汽车销量2,580万辆,同比增长1.4%。2025年,除了已有激励补贴政策继续发挥作用,地方政府汽车激励措施,更广泛的政府刺激措施和汽车价格战的影响,将使2025年中国汽车销量达到2,660万辆,同比增长3.0%。  此外,中国汽车市场的新能源汽车热潮有望延续至2025年,更便宜的电池成本将有助于汽车制造商降低电动汽车价格,从而刺激新车需求,加之持续到2025年底的新能源汽车免征购置税政策,预计2025年,该地区新能源汽车渗透率(占乘用车的比例)将增至58%。 **▍ 日本市场:销量同比涨幅5.4%,重回增长轨道** 2024年大发汽车违规排放丑闻影响了汽车产品的发货,导致2024年日本汽车市场表现不佳,预测全年销量低于440万辆,展望2025年,日本轻型汽车销量将有望重回增长轨道,预计全年销量将达到460万辆,同比增幅约5.4%。但作为重要的汽车出口国,2025年,美国进口汽车产品关税调整,以及全球经济疲软问题将会对日本出口产生影响。 **▍ 2025全球轻型汽车产量下降,全球风险加剧** 据预测,2024年全球轻型汽车产量将达到8,910万辆,与2023年相比下降1.6%,除中国和南美洲外,所有地区均出现下滑。 随着美国新一届政府将实施广泛的新关税制度,对不同国家进口的商品将征收不同的关税,S&P Global Mobility给予关税假设:对加拿大和墨西哥之外的、进入美国的商品征收10%的普遍关税,对中国大陆的商品征收30%的关税。基于这一关税假设,S&P Global Mobility认为,2025年全球轻型汽车产量可能为8,870万辆,同比微降0.4%。  S&P Global Mobility全球轻型汽车预测执行董事马克·富尔索普(Mark Fulthorpe)表示,2025年全球汽车行业将继续在不确定的环境中前行,随着全球贸易放缓,以及美国新关税政策可能引发的报复性措施,汽车行业的生产格局将发生巨大变化。 具体到各个汽车市场,预计中国轻型汽车产量将得到旺盛的国内新能源汽车需求和强劲的出口支持,2025年产量将保持稳定达到2,960万辆,微增0.1%,北美地区,新政府的上台标志着政策将再次变得难以预测,而这些新政策又将影响整体需求和车辆组合战略,预计2025年总产量1,510万辆,同比下降2.4%。而欧洲2025年产量将达到1,660万辆,较2024年估计的1,700万辆下降2.6%。 **▍ 电动汽车仍是重要增长板块** 2024年,众多汽车制造商调整了未来五至十五年的电动化转型目标。在中国之外,汽车制造商面临双重挑战:扩大可销售的电动汽车产量,以及找到愿意购买这些汽车的客户。 尽管欧美电动化转型前景黯淡,但电动汽车仍然是汽车领域的一个重要增长板块。S&P Global Mobility预测,2025年全球纯电动乘用车销量将达到1,510万辆,同比增长30%,约占全球轻型汽车销量的16.7%。作为参考,2024年全球纯电动汽车销量预计为1,160万辆,市场份额为13.2%。2025年各地区表现如下:  2025年之后,全球电动化转型的速度仍存在诸多不确定性,尤其是在充电基础设施建设、电网电力支持、电池供应链、全球采用趋势、关税贸易壁垒、技术进步速度,以及各国政策制定者的支持力度等方面。 [查看评论](https://m.cnbeta.com.tw/comment/1467904.htm)
全国首个要出台制度规范员工结婚要彩礼的公司诞生了,而它就是胖东来。**近日,胖东来创始人于东来直播中提到将出台更多制度,“胖东来慢慢地去出台更多制度,辅助员工能美好地生活,引导他们更加理性科学地生活。”**  “我们如何去对待我们的爱情,对待我们的婚姻,让大家都明白怎样的去打理我的家庭,所以说可能在包括彩礼的方面,包括婚礼的浪费的方面,可能也会出台更多的标准,让员工明白要活自己喜欢的状态,而非是为了面子。”于东来说道。 之前人民网发布评论谈胖东来“彩礼事件”称,作为“网红企业家”,于东来们的一言一行都格外引人关注。在此过程中,没必要“捧杀”,也不应该“棒杀”,与其上纲上线,不如将答案交给时间。 评论称,从某种角度来看,胖东来的成功不是偶然的,首先源于价值观的成功,于东来因此成为很多人心目中的“理想老板”。 今年初,于东来表示,胖东来新增10天“不开心假”,由此收获了一片掌声。从“不开心假”到“胖东来人结婚不允许要彩礼或付彩礼”,虽然外界舆论有赞有弹,但于东来传递的信号始终是明确的:企业在追求经济效益的同时,始终重视员工的心理感受。 **“天价彩礼”饱受诟病,不仅给年轻人婚恋带来巨大压力,而且制造了一系列社会问题。胖东来涉及彩礼的要求,本意在倡导文明嫁娶新风尚,也呼应了移风易俗上的一些痛点,其导向意义值得关注,在具体方法上可以商榷。** [查看评论](https://m.cnbeta.com.tw/comment/1467902.htm)
微软又把OpenAI的机密泄露了??在论文中明晃晃写着:**o1-preview**约300B参数,**GPT-4o**约200B,**GPT-4o-mini**约8B……英伟达2024年初发布B200时,就摊牌了**GPT-4**是1.8T MoE也就是1800B,这里微软的数字更精确,为**1.76T**。   除此之外,论文中给OpenAI的mini系列,Claude3.5 Sonnet也都附上了参数,总结如下: o1-preview约300B;o1-mini约100B GPT-4o约200B;GPT-4o-mini约8B Claude 3.5 Sonnet 2024-10-22版本约175B 微软自己的Phi-3-7B,这个不用约了就是7B 虽然论文中后面也有免责声明: 确切数据尚未公开,这里大部分数字是估计的。  但还是有不少人觉得事情没这么简单。 比如为什么唯独没有放GoogleGemini模型的参数估计?或许他们对放出来的数字还是有信心的。  也有人认为,大多数模型都是在英伟达GPU上运行的,所以可以通过token生成速度来估计。 只有Google模型是在TPU上运行的,所以不好估计。  **而且微软也不是第一次干这事了。** 23年10月,微软就在一篇论文里“意外”曝出GPT-3.5-Turbo模型的20B参数,在后续论文版本中又删除了这一信息。  就说你是故意的还是不小心的? **微软这篇论文说了什么** 实际上,原论文介绍了一项**与医学相关**的benchmark——MEDEC。 12月26日就已经发布,不过是比较垂直领域的论文,可能非相关方向的人都不会看,年后才被列文虎克网友们发现。  研究起因是,据美国医疗机构调查显示,有1/5的患者在阅读临床笔记时报告发现了错误,而40%的患者认为这些错误可能影响他们的治疗。 而且另一方面,LLMs(大语言模型)被越来越多的用于医学文档任务(如生成诊疗方法)。 因此,MEDEC此番有两个任务。一是识别并发现临床笔记中的错误;二是还能予以改正。 为了进行研究,MEDEC数据集包含3848份临床文本,其中包括来自三个美国医院系统的488份临床笔记,这些笔记之前未被任何LLM见过。 它涵盖五种类型的错误(诊断、管理、治疗、药物治疗和致病因子),这些错误类型是通过分析医学委员会考试中最常见的问题类型选择的,并由8位医疗人员参与错误标注。  而参数泄露即发生在**实验环节**。 按照实验设计,研究者将选取近期主流的大模型和小模型来参与笔记识别和纠错。 而就在介绍最终选定的模型时,模型参数、发布时间一下子都被公开了。  对了,省去中间过程,这项研究得出的结论是:Claude 3.5 Sonnet在错误标志检测方面优于其他LLM方法,得分为70.16,第二名是o1-mini。  网友:按价格算合理 每一次,ChatGPT相关模型架构和参数泄露,都会引起轩然大波,这次也不例外。 23年10月,微软论文声称GPT-3.5-Turbo只有20B参数的时候,就有人感叹:难怪OpenAI对开源模型这么紧张。 24年3月,英伟达确认GPT-4是1.8T MoE,而2000张B200可以在90天内完成训练的时候,大家觉得MoE已经且仍将是大模型架构趋势。  这一次,基于微软估计的数据,网友们主要有几个关注点: 如果Claude 3.5 Sonnet真的比GPT-4o还小, 那Anthropic团队就拥有技术优势。  以及不相信GPT-4o-mini只有8B这么小。  不过此前也有人根据推理成本来算,4o-mini的价格是3.5-turbo的40%,如果3.5-turbo的20B数字准确,那么4o-mini刚好是8B左右。 不过这里的8B也是指MoE模型的激活参数。  总之,OpenAI大概是不会公布确切数字了。 此前奥特曼征集2024年新年愿望,最后公布的清单中还有“开源”。2025年的最新版本里,开源已经被去掉了。  论文地址: [https://arxiv.org/pdf/2412.19260](https://arxiv.org/pdf/2412.19260) [查看评论](https://m.cnbeta.com.tw/comment/1467900.htm)
刚刚过去的 2024 年是生成式 AI 大发展的一年,我们见证了 OpenAI Sora 的崛起,大模型服务价格的飞速下降,以及国内开源大模型的奋起直追。这全方位的快速发展让我们对下一波 AI 的新技术大规模应用充满了信心。对于身在 AI 领域的工程师和学者们来说,他们看待这一年的观点会有不同吗?新年伊始,就有人对过去一年里大模型技术的发展进行了详尽的总结。本文的作者 Simon Willison 是英国知名独立研究员和开放源代码创建者。  让我们看看他是怎么说的。 2024 年,大型语言模型领域发生了很多事情。以下是过去 12 个月我们对该领域的研究成果的回顾,以及我尝试确定的关键主题和关键时刻。 2023 年的总结在这里:https://simonwillison.net/2023/Dec/31/ai-in-2023/ 在 2024 年,我们可以看到: GPT-4 垄断被全面打破 一些 GPT-4 级模型可以在笔记本电脑上运行 由于竞争和优化,大模型服务的价格崩盘 多模态视觉已经变得常见,音频和视频模型开始出现 语音和实时摄像头模式正从科幻小说变成现实 一个提示词做出一个 APP,已经很普遍了 对最佳模型的普遍访问仅持续了短短几个月 AI “智能体”可能还有点远 评估真的很重要 Apple Intelligence 很糟糕,但 MLX 库很出色 正在崛起的“推理”模型 目前最好的 LLM 来自中国,训练成本不到 600 万美元? 环境影响变好了,但也在变得越来越严重 合成训练数据效果很好 LLM 不知何故变得更难用了 知识分布不均匀 LLM 需要更好的批评 **GPT-4 垄断被全面打破** 在 2023 年 12 月的评论中,我写了关于我们还不知道如何构建 GPT-4——OpenAI 提出的领先大模型当时已经有近一年的历史了,但没有其他人工智能实验室能做出更好的模型。OpenAI 的做法里面有什么过人之处吗? 令人欣慰的是,这种情况在过去十二个月里完全改变了。现在有 18 个公司、机构在 Chatbot Arena 排行榜上的模型排名高于 2023 年 3 月的原始 GPT-4(排行榜上的 GPT-4-0314)—— 总共有 70 个模型。  其中最早的是Google于 2 月发布的 Gemini 1.5 Pro。除了产生 GPT-4 级别的输出外,它还为该领域引入了几项全新的功能 —— 最值得注意的是其 100 万(后来是 200 万)个 token 输入上下文长度,以及接收视频的能力。 我当时在《The killer app of Gemini Pro 1.5 is video》中写到了这一点,这让我在 5 月的Google I/O 开幕主题演讲中作为主持人短暂露面。 Gemini 1.5 Pro 还展示了 2024 年的一个关键主题:增加上下文长度。去年,大多数模型接收 4096 或 8192 个 token,但 Claude 2.1 是个值得注意的例外,它能接收 20 万个 token。如今,每个严肃的提供商都有一个 10 万以上的 token 模型,而Google的 Gemini 系列最多可以接受 200 万个 token。 更长的输入极大地增加了使用 LLM 可以解决的问题范围:你现在可以投入一整本书并询问有关其内容的问题。但更重要的是,你可以输入大量示例代码来帮助模型正确解决编码问题。涉及长输入的 LLM 用例对我来说比纯粹依赖模型权重中已经嵌入的信息的短提示更有趣。我的许多工具都是使用这种模式构建的。 回到击败 GPT-4 的模型:Anthropic 的 Claude 3 系列于 3 月推出,Claude 3 Opus 很快成为我最喜欢的日常大模型。他们在 6 月进一步提高了赌注,推出了 Claude 3.5 Sonnet—— 六个月后,这个模型仍然是我的最爱(尽管它在 10 月 22 日进行了重大升级,令人困惑的是保留了相同的 3.5 版本号。Anthropic 粉丝从那时起就喜欢称它为 Claude 3.6)。 然后是其余的大模型。如果你今天浏览 Chatbot Arena 排行榜(仍然是获得基于情绪的模型评估的最有用的地方),你会发现 GPT-4-0314 已经跌至第 70 位左右。拥有得分较高的模型的 18 家组织分别是 Google、OpenAI、阿里、Anthropic、Meta、Reka AI、01 AI、亚马逊、Cohere、DeepSeek、英伟达、Mistral、NexusFlow、Zhipu AI、xAI、AI21 Labs、普林斯顿和腾讯。 **一些 GPT-4 级模型可以在笔记本电脑上运行** 我的个人笔记本电脑是 2023 年的 64GB M2 MacBook Pro。这是一台功能强大的机器,但它也已经有近两年的历史了 —— 而且至关重要的是,我自 2023 年 3 月第一次在电脑本地上运行 LLM 以来,一直在使用的是同一台笔记本电脑。 去年 3 月,同一台笔记本电脑几乎可以运行 GPT-3 类模型,现在已经运行了多个 GPT-4 类模型!我对此的一些注释: Qwen2.5-Coder-32B 是一款可以很好地编码的 LLM,可在我的 Mac 上运行,11 月份,我谈到了 Qwen2.5-Coder-32B——Apache 2.0 许可模型。 我现在可以在我的笔记本电脑上运行 GPT-4 类模型,运行 Meta 的 Llama 3.3 70B(12 月发布)。 这对我来说仍然很令人惊讶。我们原本会想当然地认为具有 GPT-4 功能和输出质量的模型需要一台数据中心级服务器,该服务器具有一个或多个价值 4 万美元以上的 GPU。 事实上,这些模型占用了我 64GB 的内存空间,所以我不经常运行它们 —— 运行的时候就不能干其他的事了。 它们能够运行的事实证明了 AI 领域在过去一年中取得了令人难以置信的训练和推理性能提升。事实证明,在模型效率方面,还有很多唾手可得的成果。我预计未来还会有更多。 Meta 的 Llama 3.2 模型值得特别提及。它们可能不是 GPT-4 级别,但在 1B 和 3B 大小下,它们的性能远远超出了参数量的水平。我使用免费的 MLC Chat iOS 应用程序在 iPhone 上运行 Llama 3.2 3B,对于其微小(<2GB)的参数量来说,这是一个功能惊人的模型。尝试启动它并要求它提供“Netflix 圣诞电影的情节大纲,其中一位数据记者爱上了一位当地的陶瓷师”。这是我得到的结果,每秒 20 个 token 的速度相当可观:  它平淡而普通,但我的手机现在可以向 Netflix 推荐平淡而普通的圣诞电影了! **由于竞争和优化** **大模型服务的价格崩盘** 在过去的 12 个月中,通过顶级托管服务的 LLM 运行 token 的成本急剧下降。 2023 年 12 月(这是 OpenAI 定价页面的互联网快照),OpenAI 对 GPT-4 收取 30 美元 / 百万输入 token,对当时新推出的 GPT-4 Turbo 收取 10 美元 /mTok,对 GPT-3.5 Turbo 收取 1 美元 /mTok。 今天 30 美元 /mTok 可以让你获得 OpenAI 最昂贵的模型 o1。GPT-4o 售价 2.50 美元(比 GPT-4 便宜 12 倍),GPT-4o mini 售价 0.15 美元 /mTok—— 比 GPT-3.5 便宜近 7 倍,功能强大得多。 其他模型提供商的收费甚至更低。Anthropic 的 Claude 3 Haiku(从 3 月开始,但仍然是他们最便宜的型号)为 0.25 美元 /mTok。Google 的 Gemini 1.5 Flash 为 0.075 美元 /mTok,而他们的 Gemini 1.5 Flash 8B 为 0.0375 美元 /mTok—— 比去年的 GPT-3.5 Turbo 便宜 27 倍。 我一直在我的 llm 定价标签下跟踪这些价格变化。 这些价格下降是由两个因素驱动的:竞争加剧和效率提高。对于每个关心 LLM 对环境影响的人来说,效率真的很重要。这些价格下降与运行提示所消耗的能源量直接相关。 关于大型 AI 数据中心建设对环境的影响,仍然有很多值得担心的地方,但许多对单个提示的能源成本的担忧已不再可信。 这里有一个有趣的简单计算:使用 Google 最便宜的型号 Gemini 1.5 Flash 8B(10 月发布)为我个人照片库中的每 6.8 万张照片生成简短描述需要花费多少钱? 每张照片需要 260 个输入 token 和大约 100 个输出 token。 260×68,000 = 17,680,000 个输入 token 17,680,000×0.0375 美元 / 百万 = 0.66 美元 100×68,000 = 6,800,000 个输出 token 6,800,000×0.15 美元 / 百万 = 1.02 美元 处理 68,000 张图片的总成本为 1.68 美元。这太便宜了,我不得不计算了三次才能确认我做对了。 这些描述有多美好?这是我从一行命令中得到的结果: <code>llm -m gemini-1.5-flash-8b-latest describe -a IMG_1825.jpeg</code> 处理在加州科学院照的这张蝴蝶照片:  输出内容: 一个浅盘,可能是蜂鸟或蝴蝶喂食器,是红色的。盘内可见橙色水果片。喂食器中有两只蝴蝶,一只深棕色/黑色蝴蝶,带有白色/奶油色斑纹。另一只大号棕色蝴蝶,带有浅棕色、米色和黑色斑纹,包括明显的眼斑。较大的棕色蝴蝶似乎正在吃水果。 260 个输入 token,92 个输出 token。成本约为 0.0024 美分(不到 400 分之一美分)。效率的提高和价格的降低是我最喜欢的 2024 年趋势。我希望以极低的能源成本获得 LLM 的效用,看起来这就是我们得到的。 **多模态视觉已经变得常见** **音频和视频模型开始出现** 上面的蝴蝶示例说明了 2024 年的另一个关键趋势:多模态 LLM 正在兴起。 一年前,其中最引人注目的例子是 GPT-4 Vision,于 2023 年 11 月在 OpenAI 的 DevDay 上发布。Google的多模态 Gemini 1.0 于 2023 年 12 月 7 日发布,因此它也(刚好)进入了 2023 年的窗口。 2024 年,几乎每个重要的模型供应商都发布了多模态模型。我们在 3 月看到了 Anthropic 的 Claude 3 系列,4 月看到了 Gemini 1.5 Pro(图像、音频和视频),然后 9 月各家带来了 Qwen2-VL 和 Mistral 的 Pixtral 12B 以及 Meta 的 Llama 3.2 11B 和 90B 视觉模型。 10 月份,我们从 OpenAI 获得了音频输入和输出,11 月份,我们从 Hugging Face 获得了 SmolVLM,12 月份,我们从 Amazon Nova 获得了图像和视频模型。 10 月份,我也升级了我的 LLM CLI 工具,以通过附件支持多模态模型。它现在拥有一系列不同视觉模型的插件。 我认为,抱怨 LLM 改进速度放缓的人往往忽略了这些多模态模型的巨大进步。能够针对图像(以及音频和视频)运行提示是一种应用这些模型的迷人新方法。 **语音和实时摄像头模式** **正从科幻小说变成现实** 新兴的音频和实时视频模式值得特别关注。 与 ChatGPT 对话的功能首次出现在 2023 年 9 月,但当时还没真正实现:OpenAI 要用旗下的 Whisper 语音转文本模型和一个新的文本转语音模型(名为:tts-1)来实现与 ChatGPT 对话,但实际的模型还只能看到文本。 5 月 13 日,OpenAI 春季发布会推出了 GPT-4o。多模态模型 GPT-4o(o 代表“omni”,是全能的意思)能直接“听懂”你说的每一句话 —— 接受音频输入并输出令人难以置信的逼真语音,也不再需要 TTS 或 STT 模型在其中转化。 这个演示中的声音与斯嘉丽・约翰逊惊人地相似...... 在斯嘉丽投诉之后,这个声音 Skye 从未在任何正式产品中亮相。 不过,发布会上那个让人眼前一亮的 GPT-4o 高级语音功能在产品端上线的计划一再推迟,这引起了不少讨论。 当 2024 年 8 月至 9 月期间,ChatGPT 高级语音模式最终上线时,效果真的惊艳到我了。 我经常在遛狗时使用它,更拟人的语调,让 AI 生成的内容听起来更生动。试验 OpenAI 的音频 API 也很有趣。 更有趣的是:高级语音模式可以模仿口音!比如,我让它“假装你是一只带着浓重俄罗斯口音的加利福尼亚棕鹈鹕,但只用西班牙语和我交谈”: OpenAI 不是唯一一家在搞多模态音频模型的公司,Google 的 Gemini 也能接收语音输入,而且 Gemini 应用现在也能像 ChatGPT 一样说话了。亚马逊也提前宣布了他们的 Amazon Nova 会有语音模式,不过得等到 2025 年第一季度才能用上。 Google 在 9 月份发布的 NotebookLM 把音频输出玩出了新花样 —— 它能生成超级逼真的“播客主持人”对话,不管你给它什么内容都行。后来他们还加入了自定义指令功能,我当然二话不说就把主持人都变成了鹈鹕: 最新的转折出现在 12 月(这个月可真是热闹),就是实时视频功能。ChatGPT 的语音模式现在让你可以直接和模型分享摄像头画面,实时聊聊你看到的东西。Google Gemini 也推出了类似的预览功能,这次终于抢在 ChatGPT 前一天发布了。 <video src="https://mp.weixin.qq.com/mp/readtemplate?t=pages/video_player_tmpl&action=mpvideo&auto=0&vid=wxv_3794897196290654209"></video> 这些功能才刚出来几个星期,我觉得它们的影响力还没完全显现出来。如果你还没试过,真的要体验一下! Gemini 和 OpenAI 都提供这些功能的 API 接口。OpenAI 最开始用的是比较难搞的 WebSocket API,不过在 12 月他们推出了新的 WebRTC API,用起来简单多了。现在,要开发一个能和用户语音对话的网页应用已经变得超级容易了。 **一个提示词做出一个 APP** **已经很普遍了** 这在 2023 年就可以通过 GPT-4 实现了,但直到 2024 年它的价值才真正凸显。 我们早就知道大语言模型在写代码方面有着惊人的能力。如果你给出恰当的提示词,它们能用 HTML、CSS 和 JavaScript(如果配置好相关环境,还能用上 React 这样的工具)为你构建一个完整的交互式应用程序 —— 通常只需要一个提示词就够了。 Anthropic 在发布 Claude 3.5 Sonnet 的公告中,顺带介绍了一个突破性的新功能:Claude Artifacts。这个功能起初并没有引起太大关注,因为它只是在公告中写了一下。 有了 Artifacts,Claude 可以为你写一个即时交互式应用,然后让你直接在 Claude 界面中使用它。 这就是我用 Claude 生成的一个提取网页 URL 的应用:  现在 Claude Artifacts 已经成为了我的依靠。很多其他团队也开发了类似的系统,例如,GitHub 在 10 月份推出了他们的版本:GitHub Spark。Mistral Chat 在 11 月份添加了一个叫 Canvas 的类似功能。 来自 Val Town 的 Steve Krause 基于 Cerebras 构建了一个版本,展示了一个每秒处理 2000 个 token 的大语言模型如何能在不到一秒的时间内对应用进行迭代更新。 到了 12 月,Chatbot Arena 团队为此类功能推出了一个全新的排行榜,用户可以用两个不同的模型构建相同的交互式应用,然后对结果进行投票。  排行榜前六位 很难找到比这更有说服力的证据,这项功能现在已经成为能在所有主流模型上有效实现的通用功能了。 我自己也在为 Datasette 项目开发类似的功能,目标是让用户能够通过提示来构建和迭代针对自己数据的自定义小部件和数据可视化。我还通过 uv 找到了一种编写一次性 Python 程序的类似模式。 这种提示驱动的自定义界面功能非常强大,而且构建起来也很容易(只要你搞定了浏览器沙箱的那些棘手细节),我预计在 2025 年会有一大波产品都会推出类似功能。 **对最佳模型的普遍访问仅持续了短短几个月** 今年有几个月的时间,三个最好的可用模型:GPT-4o、Claude 3.5 Sonnet 和 Gemini 1.5 Pro,都可以被世界上大多数人免费使用。 OpenAI 在 5 月份向所有用户开放了 GPT-4o 的免费使用权限,而 Claude 3.5 Sonnet 从 6 月份发布起就是免费的。 这是一个重大的改变,因为在之前的一年里,免费用户主要只能使用 GPT-3.5 级别的模型,这导致新用户对大语言模型的实际能力形成了很不准确的认识。 不过,这个时代似乎已经结束了,而且很可能是永久性的,标志是 OpenAI 推出了 ChatGPT Pro。这项每月 200 美元的订阅服务是访问他们最强大的新模型(o1 Pro)的唯一途径。 由于 o1 系列(以及“o 系列”未来的模型)背后的诀窍是投入更多的计算时间来获得更好的结果,我认为那些能免费就能访问到最顶级的模型的日子,应该不会再回来了。 **AI “智能体”可能还有点远** 说实话,AI Agents 这个词让我很头疼。它没有一个统一、清晰且被广泛认可的定义。更糟的是,用这个词的人似乎从来不承认这一点。 如果你告诉我你在开发 AI Agents,这基本上等于什么都没说。除非我能读心,否则我根本不知道,AI Agents 定义有几十种,你到底在造哪一种? 我看到的 AI Agents 开发者主要有两类:一类认为 AI Agents 显然就是替你做事的东西,就像旅行社那样;另一类人则在想象为大语言模型配备各种工具,让大模型能够自主驱动,执行任务。 人们还经常提到“autonomy”这个词,但同样也没说清楚是什么意思。 (几个月前我在Twitter上收集了 211 个定义,我还让 gemini-exp-1206 试着总结了一下这些定义。) 文档链接:https://lite.datasette.io/?json=https://gist.github.com/simonw/bdc7b894eedcfd54f0a2422ea8feaa80#/data/raw 不管这个词到底是什么意思,AI Agents 总会给人一种“即将成真”的感觉。 撇开术语不谈,我对它们的实用性持怀疑态度,原因还是一个老问题:大语言模型很容易“轻信”,它会照单全收你告诉它的一切。 这就暴露出一个关键问题:如果一个决策辅助系统连真假都分不清,它还能发挥多大作用?无论是旅行顾问、生活助手,还是研究工具,都会因为这个缺陷而大打折扣。 最近就有一个现成的例子:就在前几天,Google搜索闹了个大乌龙。它把粉丝创作网站上一个虚构的《魔法满屋 2》剧情,当成了真实电影来介绍。 提示注入就是这种“轻信”的必然结果。自 2022 年 9 月以来我们一直在讨论这个问题,但 2024 年在解决这个问题上,几乎没有什么进展。 我开始觉得,最流行的 AI Agents 概念其实依赖于通用人工智能的实现。要让一个模型能够抵抗“轻信”,这真是个艰巨的任务。 **评估真的很重要** Anthropic 的 Amanda Askell(负责 Claude 性格塑造的主要工作者)说: 系统提示背后那个无聊但至关重要的秘密就是用测试驱动开发。你不是先写一个系统提示,然后再想办法测试它,而是先写好测试,然后找到一个能通过这些测试的系统提示。 2024 年的经验告诉我们:在大语言模型应用领域,最重要的核心竞争力是什么?是一套完善的自动化评估系统。 为什么这么说?因为有了它,你就能:抢占先机,快人一步采用新模型,加速迭代,不断优化产品,确保功能既可靠又实用。 Vercel 的 Malte Ubl 说: 当 @v0 刚推出时,我们非常担心要用各种预处理和后处理的复杂操作来保护提示。 于是我们彻底转变思路,给了它充分的发挥空间。但很快就发现:没有评估标准、没有模型指导、更没有用户体验的提示,就像拿到一台没说明书的 ASML 机器 —— 就算再先进,也无从下手。 我还在探索最适合自己的工作模式。评估的重要性已是共识,但“如何做好评估”这个问题却仍然缺乏系统性的指导。我一直在通过评估标签追踪这方面的进展。我现在用的“鹈鹕骑自行车”SVG 基准测试,与那些成熟的评估套件相比,还有很长的路要走。 **Apple Intelligence 很糟糕** **但 MLX 库很出色** 去年,因为没有配备 NVIDIA GPU 的 Linux/Windows 机器,我在尝试新模型的时候遇到了不少阻碍。 从配置上看,64GB 的 Mac 本应该是运行 AI 模型的理想之选 —— CPU 和 GPU 共享内存的设计堪称完美。 但现实很残酷:当下的 AI 模型在发布时,基本都是以模型权重和开发库的形式推出,而这些几乎只适配 NVIDIA 的 CUDA 平台。 llama.cpp 生态系统在这方面帮了大忙,但真正的突破是苹果的 MLX 库,这是一个“专为 Apple Silicon 设计的数组框架”。它真的很棒。 苹果的 mlx-lm Python 支持在我的 Mac 上运行各种 MLX 兼容的模型,性能非常出色。Hugging Face 上的 mlx-community 提供了超过 1000 个已转换为必要格式的模型。 Prince Canuma 开发的优秀且发展迅速的 mlx-vlm 项目也把视觉大语言模型带到了 Apple Silicon 上。我最近用它运行了 Qwen 的 QvQ。 虽然 MLX 是个改变游戏规则的东西,但苹果自己的 Apple Intelligence 功能大多令人失望。我本来非常期待 Apple Intelligence,在我的预测中,我认为苹果绘专注于做能保护用户隐私,打造让用户清晰明了、不会误解的大语言模型应用。 现在这些功能已经推出,效果相当差。作为一个大语言模型的重度用户,我知道这些模型能做什么,而苹果的大语言模型功能只是提供了一个苍白的模仿。我们得到的是曲解新闻标题的通知摘要,以及完全没用的写作助手工具,不过 emoji 生成器还是挺有意思的。 **正在崛起的“推理”模型** 2024 年最后一个季度最有趣的进展是一种新型 LLM 的出现,以 OpenAI 的 o1 模型为代表。 要理解这些模型,可以把它们看作是“思维链提示”技巧的延伸。这个技巧最早出现在 2022 年 5 月的论文《Large Language Models are Zero-Shot Reasoners》中。 这个技巧主要在说,如果你让模型在解决问题时“大声思考”,它往往能得到一些原本想不到的结果。 o1 把这个过程进一步融入到了模型本身。具体细节有点模糊:o1 模型会花费一些“推理 token”来思考问题(用户看不到这个过程,不过 ChatGPT 界面会显示一个总结),然后给出最终答案。 这里最大的创新在于,它开创了一种新的扩展模型的方式:不单纯地通过增加训练时的计算量来提升模型性能,而是让模型在推理时投入更多计算资源来解决更难的问题。 o1 的续作 o3 在 12 月 20 日发布,o3 在 ARC-AGI 基准测试上取得了惊人成绩。不过,从 o3 的巨额推理成本来看,它可能花掉了超过 100 万美元的计算成本! o3 预计将在 1 月份推出。但我觉得很少有人的实际问题需要这么大的计算开销,o3 也标志着 LLM 架构在处理复杂问题时迈出了实质性的一步。 OpenAI 并不是这个领域的“独角戏”。Google在 12 月 19 日也推出了他们的第一个类似产品:gemini-2.0-flash-thinking-exp。 阿里巴巴的 Qwen 团队在 11 月 28 日发布了他们的 QwQ 模型,我在自己电脑上就能跑。他们在 12 月 24 日又推出了一个叫 QvQ 的视觉推理模型,我也在本地运行过。 DeepSeek 在 11 月 20 日通过他们的聊天界面提供了 DeepSeek-R1-Lite-Preview 模型试用。 要深入了解推理扩展,我推荐看看 Arvind Narayanan 和 Sayash Kapoor 写的《Is AI progress slowing down?》这篇文章。 Anthropic 和 Meta 还没什么动静,不过我赌他们肯定也在开发自己的推理扩展模型。Meta 在 12 月发表了一篇相关论文《Training Large Language Models to Reason in a Continuous Latent Space》。 **目前最好的 LLM 来自中国** **训练成本不到 600 万美元?** 不完全是,但差不多是。这的确是个吸引眼球的好标题。 今年年底的大新闻是 DeepSeek v3 的发布,它在圣诞节当天连 README 文件都没有就被放到了 Hugging Face 上,第二天就发布了文档和论文。 DeepSeek v3 是一个庞大的 685B 参数模型,是目前最大的公开授权模型之一,比 Meta 公司最大的 Llama 系列模型 Llama 3.1 405B 还要大得多。 基准测试结果表明,它与 Claude 3.5 Sonnet 不相上下。Vibe 基准测试(又称聊天机器人竞技场)目前将其排在第 7 位,仅次于 Gemini 2.0 和 OpenAI 4o/o1 型号。这是迄今为止排名最高的公开授权模型。 DeepSeek v3 真正令人印象深刻的是其训练成本。该模型在 2,788,000 个 H800 GPU 时内完成了训练,估计成本为 5,576,000 美元。Llama 3.1 405B 训练了 30,840,000 个 GPU 小时,是 DeepSeek v3 的 11 倍,但模型的基准性能却略逊一筹。 美国对中国出口 GPU 的规定似乎激发了一些非常有效的训练优化。 **环境影响得到改善** 模型(包括托管模型和我可以在本地运行的模型)效率的提高带来了一个可喜的结果,那就是在过去几年中,运行 Prompt 的能耗和对环境的影响大大降低了。 与 GPT-3 时代相比,OpenAI 自己的提示词器收费也降低了 100 倍。我有可靠消息称,Google Gemini 和 Amazon Nova(两家最便宜的模型提供商)都没有亏本运行提示词器。 我认为这意味着,作为个人用户,我们完全不必为绝大多数提示词消耗的能源感到内疚。与在街上开车,甚至在 YouTube 上看视频相比,其影响可能微乎其微。 同样,训练也是如此。DeepSeek v3 的训练费用不到 600 万美元,这是一个非常好的迹象,表明训练成本可以而且应该继续下降。 对于效率较低的模型,我认为将其能源使用量与商业航班进行比较是非常有用的。最大的 Llama 3 模型的成本约等于从纽约到伦敦的一位数满载乘客航班。这当然不是一无是处,但一旦经过训练,该模型就可以供数百万人使用,而无需额外的训练成本。 **环境影响也变得越来越严重** 更大的问题在于,未来这些模式所需的基础设施建设将面临巨大的竞争压力。 Google、Meta、微软和亚马逊等公司都在斥资数十亿美元建设新的数据中心,这对电网和环境造成了巨大影响。甚至还有人说要建立新的核电站,但这需要几十年的时间。 这些基础设施有必要吗?DeepSeek v3 的 600 万美元训练成本和 LLM 价格的持续暴跌可能暗示了这一点。但是,你是否希望自己成为一名大型科技公司的高管,在几年后证明自己的观点是错误的情况下,仍然坚持不建设这些基础设施呢? 一个有趣的比较点是,19 世纪铁路在世界各地的铺设方式。修建这些铁路需要巨额投资,并对环境造成巨大影响,而且修建的许多线路被证明是不必要的,有时不同公司的多条线路服务于完全相同的路线。 由此产生的泡沫导致了数次金融崩溃,参见维基百科中的 1873 年恐慌、1893 年恐慌、1901 年恐慌和英国的铁路狂热。它们给我们留下了大量有用的基础设施,也造成了大量破产和环境破坏。 **“泔水”之年** 2024 年是“泔水”一词成为艺术术语的一年。我在 5 月份写过一篇文章,对 @deepfates 的这条推文进行了扩展: 实时观察“泔水”如何成为一个艺术术语。就像“垃圾邮件”成为不受欢迎电子邮件的专有名词一样,“泔水”也将作为人工智能生成的不受欢迎内容的专有名词被载入字典。 我把这个定义稍微扩展了一下: “泔水”指的是人工智能生成的未经请求和审查的内容。 最后,《卫报》和《纽约时报》都引用了我关于泔水的论述。 以下是我在《纽约时报》上说的话: 社会需要简明扼要的方式来谈论现代人工智能,无论是正面的还是负面的。“忽略那封邮件,它是垃圾邮件 ”和“忽略那篇文章,它是泔水”都是有用的教训。 我喜欢“泔水”这个词,因为它简明扼要地概括了我们不应该使用生成式 AI 的一种方式。 “泔水”甚至还入选了 2024 年牛津年度词汇,但最终输给了“脑腐”。 **合成训练数据很有效** “模型崩溃”的概念,似乎出人意料地在公众意识中根深蒂固。2023 年 5 月,《The Curse of Recursion: Training on Generated Data Makes Models Forget》一文首次描述了这一现象。2024 年 7 月,《自然》杂志以更醒目的标题重复了这一现象:在递归生成的数据上进行训练时,人工智能模型会崩溃。 这个想法很有诱惑力:随着人工智能生成的“泔水”充斥互联网,模型本身也会退化,将以一种导致其不可避免灭亡的方式吸收自己的输出。 这显然没有发生。相反,我们看到人工智能实验室越来越多地在合成内容上进行训练 — 有意识地创建人工数据,以帮助引导他们的模型走向正确的道路。 我所见过的对此最好的描述之一来自 Phi-4 技术报告,其中包括以下内容: 合成数据作为预训练的重要组成部分正变得越来越普遍,Phi 系列模型也一直强调合成数据的重要性。与其说合成数据是有机数据的廉价替代品,不如说合成数据与有机数据相比有几个直接优势。 结构化学习和逐步学习。在有机数据集中,token 之间的关系往往复杂而间接。可能需要许多推理步骤才能将当前标记与下一个 token 联系起来,这使得模型很难有效地学习下一个 token 的预测。相比之下,语言模型生成的每个 token 顾名思义都是由前面的标记预测的,这使得模型更容易遵循由此产生的推理模式。 另一种常见的技术是使用较大的模型为较小、较便宜的模型创建训练数据,越来越多的实验室都在使用这种技巧。DeepSeek v3 使用了 DeepSeek-R1 创建的“推理”数据。Meta 的 Llama 3.3 70B 微调使用了超过 2500 万个合成生成的示例。 精心设计进入 LLM 的训练数据似乎是创建这些模型的关键所在。从网络上抓取全部数据并不加区分地将其投入训练运行的时代已经一去不复返了。 **LLM 不知何故变得更难用了** 我一直在强调,LLM 是强大的用户工具,它们是伪装成菜刀的电锯。它们看起来简单易用,给聊天机器人输入信息能有多难?但实际上,要充分利用它们并避免它们的许多陷阱,你需要有深厚的理解力和丰富的经验。 如果说在 2024 年,这个问题变得更加严重的话,好消息是我们已经建立了可以用人类语言与之对话的计算机系统,它们会回答你的问题,而且通常都能答对。这取决于问题的内容、提问的方式,以及问题是否准确地反映在未记录的秘密训练集中。 可用系统的数量激增。不同的系统有不同的工具,它们可以用来解决你的问题,比如 Python、JavaScript、网络搜索、图像生成,甚至数据库查询。所以你最好了解这些工具是什么,它们能做什么,以及如何判断 LLM 是否使用了它们。 你知道 ChatGPT 现在有两种完全不同的 Python 运行方式吗? 想要构建一个与外部 API 对话的 Claude 工件?你最好先了解一下 CSP 和 CORS HTTP 标头。 模型可能变得更强大了,但大多数限制却没有改变。OpenAI 的 o1 也许终于能大部分计算“Strawberry”中的 R,但它的能力仍然受限于其作为 LLM 的性质,以及它所运行的线束对它的限制。O1 不能进行网络搜索,也不能使用 Code Interpreter,但 GPT-4o 却可以 —— 两者都在同一个 ChatGPT UI 中。(如果你要求,o1 会假装做这些事,这是 2023 年初 URL 幻觉 bug 的回归)。 我们对此有何对策?几乎没有。 大多数用户都被扔进了深水区。默认的 LLM 聊天 UI 就像是把全新的电脑用户扔进 Linux 终端,然后指望他们自己能搞定一切。 与此同时,终端用户对这些设备的工作原理和功能所形成的不准确的心理模型也越来越常见。我见过很多这样的例子:有人试图用 ChatGPT 的截图来赢得争论 — 这本来就是一个可笑的命题,因为这些模型本来就不可靠,再加上只要你正确提示,就能让它们说任何话。 这也有一个反面:很多见多识广的人已经完全放弃了 LLM,因为他们不明白怎么会有人能从一个有如此多缺陷的工具中获益。要想最大限度地利用 LLM,关键在于学会如何使用这种既不可靠又强大无比的技术。这是一项绝对不显而易见的技能! 在这里,有用的教育内容大有可为,但我们需要做得更好,而不是将其全部外包给那些在Twitter上狂轰滥炸的人工智能骗子。 **知识分布不均匀** 现在,大多数人都听说过 ChatGPT。有多少人听说过 Claude? 积极关注这些内容的人与 99% 不关注这些内容的人之间存在着巨大的知识鸿沟。 变革的速度也无济于事。就在上个月,我们看到实时界面的普及,你可以将手机摄像头对准某样东西,然后用声音谈论它...... 还可以选择让它假装成圣诞老人。大多数自我认证的 nerd 甚至还没试过这个。 鉴于这项技术对社会的持续及潜在影响,我不认为这种差距的存在是健康的。我希望看到更多的努力来改善这种状况。 **LLM 需要更好的批评** 很多人都非常讨厌这种东西。在我混迹的一些地方(Mastodon、Bluesky、Lobste.rs,甚至偶尔在 Hacker News),即使提出“LLM 很有用”,也足以引发一场大战。 我明白不喜欢这项技术的理由有很多:环境影响、训练数据(缺乏)道德、缺乏可靠性、负面应用、对人们工作的潜在影响。 LLM 绝对值得批评。我们需要对这些问题进行讨论,找到缓解这些问题的方法,帮助人们学会如何负责任地使用这些工具,使其正面应用大于负面影响。 我喜欢对这些东西持怀疑态度的人。两年多来,炒作的声音震耳欲聋,大量的“假冒伪劣商品”和错误信息充斥其中。很多错误的决定都是在这种炒作的基础上做出的。敢于批评是一种美德。 如果我们想让有决策权的人在如何应用这些工具方面做出正确的决定,我们首先需要承认确实有好的应用,然后帮助解释如何将这些应用付诸实践,同时避免许多非实用性的陷阱。 (如果你仍然认为根本没有什么好的应用,那我就不知道你为什么能读完这篇文章了!)。 我认为,告诉人们整个领域都是环境灾难性的剽窃机器,不断地胡编乱造,无论这代表了多少真理,都是对这些人的伤害。这里有真正的价值,但实现这种价值并不直观,需要指导。我们这些了解这些东西的人有责任帮助其他人弄明白。 [查看评论](https://m.cnbeta.com.tw/comment/1467898.htm)
1月2日,第一款国产BMW M性能轿车——全新BMW M235L携全新BMW 2系四门轿跑车全系车型正式上市,搭载了BMW最新的智能辅助驾驶系统,可实现主动巡航、变道辅助、宝马首创的循迹倒车等功能。即日起在沈阳开启生产,新车共推出3款车型,售价区间为25.99-36.39万元。  全新BMW M235L四门轿跑车周身随处可见的M专属元素:红色M专属运动四活塞卡钳、M专属双边四出排气管。新车搭载由BMW M调校的“BMW 2.0T四缸机”,最大输出功率达221kW (300马力),百公里加速需5秒。同时搭载M自适应悬架,配备Torsen差速器。全新BMW M235L四门轿跑车可实现弹射起步,拥有BOOST功能,让车辆在限定时间内全力输出。  全新BMW 2系四门轿跑车全系标配最新一代BMW 2.0T 四缸发动机,最大输出功率 150kW,匹配7速双离合式变速箱,百公里加速7.3秒。采用前麦弗逊、后多连杆悬架。标配HRS液压回弹减震技术、更强的前轴刚性、更宽的后轮距,同时主销后倾角增加20%。  全新BMW 2系四门轿跑车首次加长轴距,相较标轴版增加110毫米,且全部应用于后排。搭配下方宽大的进气口,全新2系四门轿跑车呈现低趴俯冲的车身姿态。国产宝马车型首次应用了无框车门。 车内,一体式悬浮曲面屏搭载第9代(BMW)操作系统,搭载爱奇艺、腾讯视频、哔哩哔哩、QQ音乐、网易云音乐等音视频平台。 [查看评论](https://m.cnbeta.com.tw/comment/1467896.htm)
一位在台积电拥有近二十年丰富经验的芯片领域资深专家Jing-Cheng Lin,于两年前转投三星半导体研究中心系统封装实验室,担任副总裁一职,近期宣布离职。Jing-Cheng Lin自1999年起在台积电深耕至2017年,积累了深厚的行业底蕴。 2022年,他选择加入三星,专注于芯片封装技术的革新与发展,这一决定正值三星加大对先进封装技术投资力度之际,希望构建一支业界领先的团队。 [](https://static.cnbetacdn.com/article/2024/0913/6375222cb43d304.jpg) 随着摩尔定律逐渐逼近物理极限,封装技术的突破成为推动下一代芯片发展的关键。Jing-Cheng Lin的加入,无疑为三星在封装领域的拓展注入了强劲动力。 在三星任职期间,Jing-Cheng Lin在HBM4内存封装技术的研发上取得了显著成就。鉴于三星在HBM3E市场上的竞争劣势,公司将战略重心转向了HBM4,以期在人工智能领域的激烈竞争中占据先机。因此,HBM4项目的成功与否对三星具有举足轻重的意义。 Jing-Cheng Lin已在领英上确认了其从三星离职的消息,并表示其为期两年的合同已经到期。他还强调了自己在三星期间为先进封装技术做出的贡献,包括用于3D IC的混合铜键合技术以及HBM-16H的研发。 [查看评论](https://m.cnbeta.com.tw/comment/1467894.htm)
特斯拉(TSLA.US)预计将于1月2日发布其第四季度和全年的交付和生产报告。市场普遍预计,第四季度交付数据将超过该公司上年同期484507辆的历史新高。分析师估计,特斯拉将在第四季度交付约506763辆汽车。其中,Model 3/Model Y的交付量为476398辆,其他所有车型的交付量为30365辆。 [](https://static.cnbetacdn.com/article/2024/1118/32773200c8efb95.jpg) 主要市场(尤其是中国)需求的改善,为特斯拉强劲的交付渠道做出了贡献。特斯拉还在美国和国际市场提供了激励措施,包括为购买新款Model 3和Model Y提供零息购车金融政策。 不过,为了超过2023年全年逾180万辆的总交付量,特斯拉需要在第四季度交付至少约51.5万辆汽车。因此,市场预期的506763辆意味着,特斯拉2024年全球汽车交付量将达到1801709辆,低于2023年的1808581辆,该公司在最新财报提供的全年“小幅增长”预期将落空。  但展望未来,分析师仍对特斯拉2025年的交付量增长充满信心,并预计这家电动汽车巨头今年的交付量将超过200万辆,这一数字是马斯克首次为2023年设定的目标。特斯拉通常不会在其第四季度交付报告中为来年提供具体的交付指导,但1月晚些时候的财报电话会议可能会包括一些预测。 截至周二收盘,特斯拉股价下跌3.25%,2024年全年累计上涨逾62%。 交付报告影响不大 尽管交付最终数字可能低于上年,但在分析师看来,这份报告对特斯拉股价的影响可能不大。 瑞银在一份报告中表示,预计特斯拉第四季度交付量约为51万辆,同比增长5%,环比增长10%。 瑞银分析师指出:“鉴于人工智能驱动的股票叙事,我们认为交付结果不会像过去那样有意义。”他们强调,与早期相比,交付数据对特斯拉股票表现的影响有所减弱。 特斯拉的储能业务也值得关注,瑞银本季度储能部署将达到9.1 GWh,环比增长32%。该行指出,这一估计与普遍预期的9.6 GWh预测非常接近。然而,瑞银警告称,“储能部署不稳定”,这使得预测不那么精确。 在交付报告之后,焦点将转移到特斯拉1月底的财报电话会议上。 瑞银强调,投资者的注意力可能会集中在马斯克的评论上,特别是关于2025年的指引和人工智能发展,而不是纯粹的财务指标。 到2025年,特斯拉的目标是将销量增长20%至30%,达到220万至240万辆,超过了瑞银和市场普遍预测的190万辆和200万辆。 该行表示,新车型,包括预计在今年年初推出的廉价车型和新款Model Y,可能会推动这些数字的增长。 瑞银表示,各地区的趋势表现各异:中国在促销活动的推动下稳步增长,欧洲因出口放缓而疲软,而美国的出货量持平。 巴克莱分析师预计,特斯拉第四季度交付量将达到51.5万辆,从而推动年交付量实现同比增长。 尽管这一潜在里程碑值得注意,但巴克莱指出,特斯拉的交付数据可能对该股的整体乐观前景影响不大。相反,受市场对自动驾驶汽车、人工智能的兴奋以及大选后的乐观情绪的推动,该行强调,特斯拉的基本面在其目前的股价攀升中发挥的作用较小。 [查看评论](https://m.cnbeta.com.tw/comment/1467892.htm)
一位顶级技术策略师发出警告,比特币在大选后的涨势已经减弱,这种加密货币可能很快就会出现持续数周的抛售。独立研究提供商Fairlead Strategies创始人凯蒂•斯托克顿(Katie Stockton)认为,比特币可能会再跌10%,因为一些技术指标显示,比特币近期将出现看跌势头。 [](https://n.sinaimg.cn/finance/transform/59/w550h309/20241230/9c59-c1d96c4825b117ac39786d005942c49f.png) 斯托克顿进一步解释称,未来几周,比特币可能会跌至84,500美元左右的支撑位,这意味着比特币将从目前的水平下跌超10%。她还补充说,如果比特币价格继续下跌,下一个支撑位可能在73,800美元左右,这意味着金价将较当前水平下跌约22%。 斯托克顿指出,比特币上周跌破了50天移动平均线。她在最新给客户的报告中写道,这证实了中期超买和卖出信号,支持2025年第一季度的价格回调。 “按日每日MACD(指数平滑移动平均线)和20日移动均线来看,短期动能目前为负,支持短期看跌倾向,” 斯托克顿表示。她指的是日移动均线趋同/背离和20日移动均线,这是反映短期定价趋势的另外两个指标。 尽管短期内可能出现疲软,但斯托克顿仍然看好比特币的长期前景,并指出了几个积极的月度指标。 她补充说:“月度随机指标和MACD指标都继续支持进入新年的看涨长期前景,因此我将把回调视为增加比特币敞口的机会。” 事实是,看好比特币新一年前景的也不止斯托克顿一个。例如,专注于加密货币的资产管理公司CoinShares的研究主管James Butterfill称,他认为2025年比特币的价格将在8万美元至15万美元的区间内。 专注于加密货币的资产管理公司Galaxy Digital的研究主管Alex Thorn则预计,比特币将在今年上半年突破15万美元,并在第四季度达到18.5万美元。更有甚者,加密借贷平台Nexo的首席产品官Elitsa Taskova预测,“比特币将在一年内翻一番以上,达到25万美元”。 她甚至认为,从长远来看,比如在未来十年,她认为整个加密市场的市值将超过黄金。 此外,今年迄今为止,Coinbase和Robinhood等与加密货币相关的股票也分别飙升了45%和204%。 [查看评论](https://m.cnbeta.com.tw/comment/1467890.htm)
2025年1月2日,截止收盘,沪指跌2.66%,报收3262.56点;深成指跌3.14%,报收10088.06点;创业板指跌3.79%,报收2060.44点,两市成交额较上一交易日增加507.69亿元,合计成交13965.32亿元。
As the NEV industry enters its second decade, we may witness the same transformative cycle experienced by Germany’s automotive sector in the 1960s—through consolidation and mergers, China’s NEV market could emerge stronger and more efficient, paving the way for a new era of innovation and growth.
TMTPost CEO's seven predictions and recommendations for 2025: Striving not for perfection, but for acting freely as you want.
据美国《纽约时报》、美国有线电视新闻网(CNN)等媒体1月2日最新消息,汽车租赁平台Turo在电子邮件声明中证实,美国新奥尔良汽车冲撞人群事件中使用的车辆和拉斯维加斯汽车爆炸事件中的特斯拉赛博皮卡都是通过该平台租用的。  “我们对发生在新奥尔良和拉斯维加斯的暴力犯罪事件感到心碎,我们为受害者及其家属祈祷。”Turo在声明中写道。  “我们正在积极配合执法部门调查这两起事件。”Turo补充说,“我们认为,参与拉斯维加斯和新奥尔良袭击事件的两名客户都没有犯罪背景,(因此)当时不足以将他们视为安全威胁。” 当地时间1月1日,美国接连发生两起恶性事件。1日凌晨,路易斯安那州新奥尔良发生汽车“蓄意”冲撞人群事件,已造成15人死亡。当天上午8时40分许,位于内华达州拉斯维加斯的特朗普酒店门前又发生一起电动汽车爆炸事件,导致1人死亡、7人受伤。据美国多名执法人士消息,美国拉斯维加斯市特朗普国际酒店门前爆炸的特斯拉赛博皮卡是在一款名为Turo的应用程序上租用的,而且该应用程序也是租用路易斯安那州新奥尔良市新年夜袭击事件中肇事皮卡的应用程序。 对于上述两起事件,美国总统拜登1月1日表示,司法部门正在调查新奥尔良汽车撞人事件和拉斯维加斯特朗普酒店门前汽车爆炸事件是否存在关联。 [查看评论](https://m.cnbeta.com.tw/comment/1467888.htm)
**据马来西亚互联网监管机构称,根据周三生效的马来西亚新法律,埃隆·马斯克旗下社交平台X、以及运营视频流媒体平台YouTube的Google尚未申请社交媒体运营许可证。**马来西亚通信与多媒体委员会(MCMC)表示,X称其在马来西亚的用户数量没有达到获得许可证所需的800万门槛。该委员会正在努力核实该平台的说法。 [](https://n.sinaimg.cn/finance/transform/116/w550h366/20240906/cceb-8ddd0fc8a228e4c00f22b4164bcc674d.jpg) 与此同时,Google正在与MCMC进行谈判,以解决其对该平台的视频共享功能和许可分类的担忧。该委员会表示,它讨论了提出的问题,并将确保YouTube和相关平台了解他们的责任。 MCMC还表示,微信与字节旗下TikTok领先其他科技巨头签署了新规则,Telegram正处于流程的最后阶段。 去年7月,MCMC曾发布公告,明确要求任何在马来西亚拥有超过800万用户的社交媒体平台必须在2025年1月1日之前获得在该国的运营许可。这一举措旨在进一步规范社交媒体平台的运营,保障用户权益及网络安全。这也是马来西亚当局让大型科技公司对非法内容负责的一部分。MCMC表示,违反许可证要求的平台可能会受到调查或监督。 [查看评论](https://m.cnbeta.com.tw/comment/1467886.htm)
韩国电池制造商LG新能源公司(LG Energy Solution)周四表示,将重新调整投资计划,削减额外成本,以应对电动汽车销售长期放缓。LG新能源首席执行官金东明在给员工的新年致辞中表示:“在电动汽车市场上,我们将采取措施,应对前所未有的挑战。”他没有提供进一步的细节。 [](https://static.cnbetacdn.com/article/2021/0827/425b5498e2221d3.jpg) 近年来,来自中国竞争对手的挑战及其成本竞争力已成为韩国汽车电池制造商面临的主要威胁。 此外,电动汽车电池成本、续航里程、充电基础设施缺乏以及对锂离子电池火灾的担忧,都加剧了电池公司面临的困境。 金东明预计,一旦市场对这些因素的担忧得到缓解或解决,电动汽车的销售将在2026年之后回升。 2024年前三个季度,LG新能源的净利润从上年同期的1.44万亿韩元降至7496.2亿韩元(合5.11亿美元),几乎减半。 为了弥补电池需求的减少,该公司计划扩大能源存储系统(ESS)等非电动汽车事业,并开发全固态和干电极工艺等下一代电池技术。 该公司表示,将把全球工厂的部分电池生产线改为生产需求正在上升的能源存储系统。 [查看评论](https://m.cnbeta.com.tw/comment/1467884.htm)
在马斯克将其X账号的昵称改回本名“Elon Musk”后,昨日一度暴涨100多倍的表情包代币Kekius M的价格随即转跌,十分钟内暴跌了90%。尽管如此,在过去24小时内,这种加密代币的价格仍然上涨了惊人的232%。其交易量过去24小时激增1310%,达到990万美元。 [](https://n.sinaimg.cn/spider20250102/368/w677h491/20250102/66c2-2fc3e19d2ef0b96ece0e48ab2cdd8062.jpg)[](https://n.sinaimg.cn/spider20250102/526/w663h663/20250102/11e1-146acb0a11af3ccdbc6168e31be7c432.jpg) 此外,以太坊链上以“青蛙佩佩”为主题的表情包代币Pepe的价格在过去24小时内也下跌了2.70%,抹去了最近几天的涨幅。 [查看评论](https://m.cnbeta.com.tw/comment/1467882.htm)
美国《纽约邮报》当地时间1月2日援引消息人士和纽约市警察局的话称,纽约市皇后区一家夜总会外当地时间周三(1月1日)晚发生一起大规模枪击事件,造成至少10人受伤。美国全国广播公司下属网站“abc7ny”也报道了相关消息。  《纽约邮报》称,当地警方和消息人士称,枪声于当地时间周三晚11时20分前响起。消息人士称,伤者已被送往当地医院。 报道还称,从现场视频可以看到有大批警察和救护车在事发现场附近。 另据美国《纽约每日新闻》报道,目前嫌疑人尚未被逮捕,调查正在进行中。 [查看评论](https://m.cnbeta.com.tw/comment/1467880.htm)
沙特当局宣布,2025年1月1日起采用统一的电子设备充电标准的第一阶段要求,在各种电子设备上强制使用 USB Type-C 端口。上述决定由沙特通信和空间技术委员会(CST)与沙特标准、计量和质量组织联合( SASO)联合做出,并于2023年8月首次对外宣布。  此次统一充电标准的目标是简化整个沙特的充电和数据传输技术,确保更高质量的技术产品并提高消费者的便利性。 CST 和 SASO 估计,新政策每年将减少当地对各类充电端口的需求 220 多万个,每年为消费者节省 1.7 亿多里亚尔(4520 万美元),同时还能每年减少近15吨电子垃圾。 这项规定分两阶段落实,第一阶段强制要求的电子产品包括手机、平板电脑、数码相机、电子阅读器、便携式视频游戏机、耳机、耳塞、扬声器、键盘、电脑鼠标、便携式导航系统和无线路由器等。第二阶段将于2026年4月1日开始,强制范围将扩大到笔记本电脑。 无独有偶,欧盟自2024年12月28日起落实统一充电标准的规定,强制使用USB Type-C 端口,适用于大部分电子设备,2026年4月28日起,笔记本电脑也将纳入强制充电标准的范围。 [查看评论](https://m.cnbeta.com.tw/comment/1467878.htm)
企查查APP显示,近日,成长奋斗者网络科技(北京)有限公司发生工商变更,注册资本从1万元增加到50万元;经营范围新增“鞋帽零售;皮革制品销售;箱包销售;服装服饰零售等”业务;同时,公司的主要人员亦发生变更。 企查查显示,成长奋斗者网络科技(北京)有限公司成立于2024年6月,法定代表人为张书芳,由张莘鑫、陈涛共同持股。 资料显示,成长吧奋斗者由Faraday Future(FF)创始人贾跃亭创建,旨在将其个人IP商业化。贾跃亭希望通过此平台解决FF的沟通问题,并期望赚取资金以偿还债务、支持公司运营。据悉,成长吧奋斗者的核心业务是围绕视频及直播电商商业化、相关品牌衍生品的商业化、知识赋能等开展业务。目前,该账号共有2.3万粉丝。(罗宁)  [查看评论](https://m.cnbeta.com.tw/comment/1467876.htm)
胖东来创始人于东来1月1日在抖音平台公布胖东来2024年销售数据。2024年,胖东来集团累计销售额(许昌新乡两地)约为169.64亿元。2024年许昌超市累计销售约59.45亿元,新乡超市累计销售约21.49亿元。 资料显示,百货、电器、茶叶等品类是胖东来最受欢迎的产品品类,许昌百货销售额约15.1亿元,新乡百货销售额约8.3亿元。 许昌电器销售额约14.31亿元,新乡电器销售额约6.71亿元。许昌茶叶销售额约4.58亿元,新乡茶叶销售约1.62亿元。  [查看评论](https://m.cnbeta.com.tw/comment/1467874.htm)
茶饮企业唯有回归产品本质,注重提升产品力和品牌价值,才能在激烈的市场竞争中站稳脚跟,只有在价格与价值之间找到平衡,才有可能长久生存下去。