备受期待的 Google I/O 主题演讲刚刚落下帷幕,不出所料,人工智能及其在商店中取得的技术进步依然是本次大会的焦点。此次大会详细介绍了 Astra 项目、Starline 项目和 Mariner 项目的最新进展。Astra 项目带来的重大飞跃令人着迷,尤其是作为人工智能助手,而该公司刚刚公布了这项尖端技术将带来的更多代理功能。 Project Astra 本质上是 Gemini Live 相机和屏幕共享功能背后的技术,但在今天的Google I/O 开发者大会上,这家科技巨头分享了其为提高这款 AI 助手的效率而采取的下一步重大举措。Google使用 Pixel 9 Pro 进行了一次现场演示,展示了其功能。演示中,一位用户在修理自行车时使用该工具,并要求其查找相关手册。 Astra 不仅能够快速找到手册,还能通过自主与屏幕交互,帮助用户突出显示相关部分。这表明 Astra 能够无缝理解上下文,即使在控制设备方面,它的表现也令人印象深刻。它甚至可以更进一步,拨打电话,甚至代表用户进行对话。  Project Astra 的功能远不止屏幕控制和代您执行任务。它甚至可以通过提供实时空间感知来帮助视障人士识别障碍物、检测房间内的物体,并真正地为您解读房间。 Google将这些人工智能的进步称为“行动智能”,因为该工具可以主动代表您执行任务,包括控制应用程序、参与对话、帮助您购物以及进行更自然的对话。借助独立的 Astra 应用,Google将能够测试这些功能,最终将其扩展到 Gemini Live,并最终作为通用人工智能助手,更广泛地普及。 [查看评论](https://m.cnbeta.com.tw/comment/1501194.htm)
随着 2025 年台北国际电脑展 (Computex) 的如火如荼地举行,我们获悉 NVIDIA 的下一个“SUPER”更新可能即将到来:可靠爆料人 kopite7kimi 发布了有关即将推出的 GeForce RTX 5080 SUPER 的最新传闻。  在 X 平台的最新帖子中,爆料人表示这款新卡将继续使用 203 GB 的 GPU,与现有 RTX 5080 的 10752 个 CUDA 核心的容量相同。SUPER 的唯一改进在于显存容量和速度。 与基础型号 16 GB 的 30 Gbps GDDR7 显存不同,SUPER 版本配备 24 GB 的 32 Gbps GDDR7 显存,理论带宽达 1 TB/s。显存的提升可能会在高分辨率游戏和需要大量帧缓冲区的专业工作负载中带来显著的优势。初步带宽估算表明,与标准版 RTX 5080 的 960 GB/s 相比,其吞吐量提升了 6%。  同时,更高的内存密度需要更高密度的 3 GB 模块,类似于 RTX PRO 6000 中已经使用的模块。功耗要求也会相应增加。据传,SUPER 型号的功耗将超过 400 W,比普通 RTX 5080 的 360 W 高出约 40 W。现在,只有 NVIDIA 的旗舰 RTX 5090(拥有 21760 个核心和 32 GB GDDR7 显存,512 位总线)在计算和内存资源方面超过 5080 SUPER,这还不包括上一代顶级 RTX 4090。 确切的发布日期尚未确定,虽然早先的传言指向 2025 年第四季度发布,但根据新的时间表,NVIDIA 可能会在 2026 年初在 CES 等大型贸易展会上首次亮相这款新卡。定价同样充满不确定性。建议零售价可能在 1000 美元到 1500 美元之间,其定位将避免与 NVIDIA 入门级专业 Blackwell GPU 直接竞争。 [查看评论](https://m.cnbeta.com.tw/comment/1501192.htm)
在2025 年 Google I/O 开发者大会上,这家科技巨头发布了其基于 AI 的笔记和研究助手 NotebookLM 的新功能。最引人注目的是其中新加入的视频概览功能。Google表示,用户很快就能将原始笔记、PDF 和图像等密集的多媒体转换为易于理解的视觉演示。  自推出以来,NotebookLM 一直致力于帮助用户理解和处理复杂的文档。凭借这项新功能,NotebookLM 将采用更直观的方式,帮助用户理解不同的主题和想法。 NotebookLM 已经可以采用音频方式帮助用户通过音频概览理解材料,该功能使用户能够根据他们与 NotebookLM 共享的文档(例如课程阅读材料或法律摘要)生成具有 AI 虚拟主机的播客。 现在,Google 为音频概览带来了更大的灵活性,允许用户选择理想的音频概览长度。例如,可以选择默认长度的音频概览,也可以选择更长或更短的音频概览。 今天宣布的新功能是在Google正式发布适用于Android 和 iOS 系统的 NotebookLM 应用的第二天 。此前,NotebookLM 仅支持桌面端访问。Google现已推出移动端服务。 这些应用支持后台播放、音频概览的离线播放以及暗黑模式。应用还允许用户创建新笔记本并查看已创建的笔记本。此外,当您在设备上浏览网站、PDF 或 YouTube 视频时,您可以点击分享图标并选择 NotebookLM 将其添加为新来源。用户还可以查看已在每个笔记本中上传的来源。 [查看评论](https://m.cnbeta.com.tw/comment/1501190.htm)
Google在其 I/O 2025 年度开发者大会上发布了大量新品,其中一些是关于其名为 AI Overviews 的生成式 AI 摘要工具。在官方主题演讲中,Google首席执行官桑达尔·皮查伊 (Sundar Pichai) 向观众表示,AI Overviews 的月活跃用户已达 15 亿。 AI Overviews 是Google搜索的一部分,旨在解释复杂的用户查询。该功能让用户能够轻松快速地在网络上查找信息,并解答常规Google搜索无法解答的更详细的问题。 人工智能生成的摘要出现在许多 Google 搜索结果的顶部,在从多个来源提取数据后提供快速简洁的答案。AI 概览于去年的 Google I/O 大会上推出,并在几个月内进行了多次更新。然而,AI 概览因向用户提供有争议的答案而陷入困境。例如,该 AI 工具建议使用胶水将奶酪粘在披萨上。 Google在开发者大会上[宣布](https://blog.google/products/search/ai-overview-expansion-may-2025-update/),AI Overviews 现已覆盖 200 多个国家/地区。该 AI 工具支持 40 多种语言,新增了对中文、阿拉伯语、马来语、乌尔都语等语言的支持。 美国和印度是 AI Overviews 的最大市场,它“推动了Google在 AI Overviews 查询类型的使用量增长了 10% 以上”。Google表示,一旦用户开始使用该功能,他们大多会成为重复用户,并表示美国的 AI Overviews 现在使用 Gemini 2.5 的定制版本来解决更棘手的问题。 Google过去也曾推出过 AI 模式,它建立在 AI 概览之上,在对话体验中提供高级推理和更深入的探索。该功能最初作为搜索实验室的一部分进行测试,但Google宣布已在美国全面上线。 未来几周内,AI 搜索模式将出现在桌面版和 Google 应用的搜索栏中。该模式也由 Gemini 2.5 的定制版本提供支持,类似于 AI 概览。  [查看评论](https://m.cnbeta.com.tw/comment/1501188.htm)
Google I/O是这家搜索巨头每年举办的技术大会,旨在展示公司最新的创新成果。与往常一样,大会内容很多都与人工智能有关,其中一些内容也适用于 iOS。iOS版 Gemini 应用程序正在进行更新,增加了额外的 AI 智能功能,包括性能更好的 Gemini 2.5 Flash 和新的 Gemini Live 相机。  该应用程序的更新将于周二开始向用户推出。 第一个[主要变化](https://blog.google/products/gemini/gemini-app-updates-io-2025/#gemini-live)是 Gemini 2.5 Flash,这是一个 AI 模型,与 Google 目录中的其他模型相比,它速度更快,占用的资源更少。对于新发布的 iOS 版本,2.5 Flash 的性能得到了显著提升。 根据使用情况,Gemini 2.5 Flash 现在使用的查询词元比之前的 Gemini 应用版本减少了约 25%。这意味着与早期版本相比,它将使用更少的查询资源,或者提供更好的响应或更低的延迟。 除了常规性能外,Gemini Live 还配备了 Gemini Live 摄像头,这是一个用于 Gemini 查询的可视化界面。该摄像头和屏幕共享功能基于 Project Astra,采用全屏界面,用户可以根据视图中的内容进行查询。 例如,用户可以将iPhone的摄像头对准某个物体并询问它是什么。 Google 还计划通过与其他 Google 应用集成,为 Gemini Live 增添更多功能。Google 日历活动链接和 Google 地图导航是未来几周内可能推出的两项功能。 [查看评论](https://m.cnbeta.com.tw/comment/1501186.htm)
Google周二在其年度I/O 开发者大会上发布了Google Starline技术的升级版 Beam 。Google已与惠普合作,将该系统商业化。 Google Beam 是一个人工智能驱动的视频通信平台,旨在让视频聊天感觉就像面对面见面一样。  Google Beam 采用六摄像头阵列,从不同角度捕捉拍摄对象。AI 视频模型实时拼接这些视角,创建 3D 人物。Google表示,该系统拥有近乎完美的头部追踪能力,精度可达毫米级,视频帧率为每秒 60 帧。 这一想法让人联想到《星球大战》和《星际迷航》等电影中出现的各种全息通信系统。与《新希望》中微小、低质量的莱娅公主全息图不同,Beam 的设计与真人大小相仿,栩栩如生。Google曾将这项技术[描述](https://blog.google/technology/research/google-project-starline-hp-partnership/)为“魔法之窗”。  Google 的 Starline 技术平台正在成长并获得了一个新名称:Google Beam。 该平台采用光场显示器,无需佩戴任何特殊设备。Google 还表示,语音翻译是Google为 Google Meet 提供的一项新增功能,未来也可能应用于 Beam。 Google 于 2021 年将 Starline 作为一项研究项目推出,并一直在测试和改进原型。今天的公告意味着这项技术即将迎来黄金时段。 视频通话长期以来一直饱受挑战。例如,难以解读表情和手势。传统的视频聊天缺乏眼神交流。在新冠疫情高峰期,Zoom 疲劳问题成为热门话题。Beam 希望通过更沉浸、更逼真的体验来解决这些问题。 Google表示,惠普将在6月份的InfoComm视听技术展会上分享更多关于该平台的信息。Google还在与Zoom和其他视听公司合作。Beam很可能首先在那些希望革新视频会议处理方式的大型组织中站稳脚跟。 首批 Beam 设备将于 2025 年晚些时候面向早期采用者推出。 <picture><source media="(max-width: 767px)" srcset="https://www.cnet.com/a/img/resize/f52d163fd313999b7c0fb797cd363e70bdd99707/hub/2024/05/17/84ddf688-3d7b-4ac0-ab1c-0cd35e59d94f/screenshot-2024-05-17-at-2-01-42pm.png?auto=webp&width=768" alt="两人使用 Project Starline 聊天"/><source media="(max-width: 1023px)" srcset="https://www.cnet.com/a/img/resize/99d3237ccfdaca851d5acd1f9a04db749fb90469/hub/2024/05/17/84ddf688-3d7b-4ac0-ab1c-0cd35e59d94f/screenshot-2024-05-17-at-2-01-42pm.png?auto=webp&width=1024" alt="两人使用 Project Starline 聊天"/><source media="(max-width: 1440px)" srcset="https://www.cnet.com/a/img/resize/9ae27178c1bd91674109ead6d36eb5bc21ecd6df/hub/2024/05/17/84ddf688-3d7b-4ac0-ab1c-0cd35e59d94f/screenshot-2024-05-17-at-2-01-42pm.png?auto=webp&width=1200" alt="两人使用 Project Starline 聊天"/></picture> [查看评论](https://m.cnbeta.com.tw/comment/1501184.htm)
AI 新功能扎堆发布,会诞生真正的杀手锏吗 #欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。 [爱范儿](https://www.ifanr.com) |[原文链接](https://www.ifanr.com/1624376) ·[查看评论](https://www.ifanr.com/1624376#comments) ·[新浪微博](https://weibo.com/ifanr)
Google周二在 Google I/O 大会上宣布,将在 Chrome 中添加其 Gemini AI 助手。[根据Google实验室和 Gemini 副总裁 Josh Woodward 在一篇博客文章](https://blog.google/products/gemini/gemini-app-updates-io-2025)中的说法,Gemini 最初将能够“阐明您正在阅读的任何网页上的复杂信息或总结信息” 。Google设想 Chrome 中的 Gemini 未来将能够“跨多个标签页工作,并代表您浏览网站”。 在 Chrome 浏览器中,你会在右上角看到一个闪闪发光的小图标。点击它,Gemini 聊天机器人窗口就会打开——它是一个浮动的 UI,你可以移动它并调整其大小。在那里,你可以询问关于网站的问题。  在演示中,Chrome 团队的产品管理总监 Charmaine D'Silva 打开了 REI 的一款睡袋页面,然后点击了 Gemini 的提示,列出了这款睡袋的主要功能。Gemini 会阅读整个页面,并简要介绍一下这款睡袋。D'Silva 随后询问这款睡袋是否适合在缅因州露营,Chrome 中的 Gemini 会从 REI 页面和网络上提取信息进行回复。 之后,D'Silva 访问了另一家零售商网站的购物页面,购买了另一款睡袋,并要求 Gemini 比较这两款睡袋。Gemini 照做了,并附上了一个比较表格。 该工具最初只能在两个标签页中使用。但“今年晚些时候”,Chrome 中的 Gemini 将能够跨多个标签页运行。 D'Silva 还演示了一项未来即将推出的功能:使用 Gemini 浏览网站。在演示中,D'Silva 在 Chrome 浏览器中打开 Gemini Live,帮助浏览一个食谱网站。D'Silva 要求 Gemini 滚动到配料部分,AI 便会快速跳转到该页面。当 D'Silva 请求 Gemini 帮助将所需的糖量从杯转换为克时,Gemini 也做出了响应。 在Google选定的演示中,Chrome 中的 Gemini 似乎偶尔会派上用场,尤其是在比较表格或即时成分换算方面 Chrome 版 Gemini 将于周三上线。它最初将在 Windows 和 macOS 平台上线,面向 18 岁及以上使用英语的用户开放抢先体验。Google副总裁兼 Chrome 总经理 Parisa Tabriz 在发布会上表示,Google AI Pro 和 Ultra 订阅用户,以及 Chrome Beta 版、Canary 版和 Dev 版用户均可使用 Gemini。 至于将 Gemini 引入移动版 Chrome,“这是我们会考虑的一个领域,”Tabriz 表示,但目前,该公司“非常专注于桌面端”。 [查看评论](https://m.cnbeta.com.tw/comment/1501182.htm)
Google即将推出一款全新的生成式人工智能工具,帮助开发者快速将粗略的 UI 创意转化为功能齐全、可直接应用于应用的设计。据Google I/O 开发者大会期间的公告,由Gemini 2.5 Pro提供支持的“Stitch”实验现已在Google实验室上线,能够将文本提示和参考图像“在几分钟内”转换为复杂的 UI 设计和前端代码,从而让开发者无需手动创建设计元素,也无需围绕这些元素进行编程。  Stitch 根据选定的主题和自然语言描述生成可视化界面,目前支持英语。开发者可以提供他们希望在最终设计中看到的细节,例如调色板或用户体验。此外,还可以上传视觉参考资料来指导 Stitch 的生成,包括线框图、草图和其他 UI 设计的截图。 据Google称,Stitch 允许用户生成界面的“多种变体”,从而更轻松地尝试不同的风格和布局。UI 资源与功能齐全的前端代码一起生成,这些代码可以直接添加到应用程序中或导出到 Figma,以优化设计元素、与现有系统集成以及与设计师协作。 鉴于 Figma 已经是一个成熟的产品设计平台,并且能够更好地促进特定视觉元素的更改,导出选项的出现并不令人意外。然而,Stitch 的自动编程功能侵犯了Figma本月早些时候发布的Make UI构建应用的权限。Google或许希望 Stitch 能够成为解决方案,防止那些使用Gemini Code Assist工具的设计师彻底放弃使用。 [查看评论](https://m.cnbeta.com.tw/comment/1501180.htm)
周二,在Google I/O 2025 开发者大会上,Google发布了 Veo 3。该公司声称,这款产品可以生成音效、背景噪音,甚至对话,为其制作的视频增添配乐。Google表示,Veo 3 在生成的视频质量方面也比上一代Veo 2有所提升。  Veo 3 从周二开始在Google的 Gemini 聊天机器人应用程序中推出,供Google每月 249.99 美元的 AI Ultra 计划订阅者使用,可以通过文本或图像进行提示。 Google人工智能研发部门 DeepMind 的首席执行官 Demis Hassabis 在新闻发布会上表示:“我们首次摆脱了视频生成的无声时代。你可以给 Veo 3 一个描述人物和环境的提示,并根据你希望的声音效果提出对话建议。” 视频生成器工具的广泛普及,导致供应商数量激增,该领域已趋于饱和。包括 Runway、 Lightricks、Genmo、 Pika、 Higgsfield、Kling 和 Luma在内的初创公司,以及 OpenAI和阿里巴巴等科技巨头,都在快速发布各种模型。在很多情况下,不同模型之间几乎没有什么区别。 如果Google能够兑现其承诺,音频输出将成为 Veo 3 的一大差异化优势。人工智能声音生成工具并不新鲜,用于创建视频 音效 的模型也并非新鲜事物。但据Google称,Veo 3 的独特之处在于它能够理解视频中的原始像素,并自动将生成的声音与视频片段同步。 以下是该模型的一个示例剪辑: Veo 3 的诞生很可能得益于DeepMind 早期在“视频转音频”人工智能领域的研究。去年 6 月,DeepMind 透露,他们正在开发一种人工智能技术,通过结合声音、对话记录和视频片段来训练模型,从而为视频生成配乐。 DeepMind 不愿透露 Veo 3 训练内容的具体来源,但 YouTube 的可能性很大。YouTube 是Google旗下的子公司,DeepMind 此前曾透露,像 Veo 这样的Google模型“可能”会使用一些 YouTube 内容进行训练。 为了降低深度伪造的风险,DeepMind 表示正在使用其专有水印技术 SynthID 将隐形标记嵌入到 Veo 3 生成的帧中。 尽管像Google这样的公司将 Veo 3 宣传为强大的创意工具,但许多艺术家对它们仍抱有警惕,这可以理解——它们可能会颠覆整个行业。代表好莱坞动画师和漫画家的工会——美国动画协会 (Animation Guild) 委托进行的一项 2024 年 研究 估计,到 2026 年,美国将有超过 10 万个电影、电视和动画工作岗位被人工智能取代。 Google今天还推出了 Veo 2 的新功能,其中包括一项功能,允许用户为模型提供人物、场景、物体和风格的图像,以提高一致性。最新的 Veo 2 可以理解摄像机的旋转、推拉和缩放等运动,并允许用户在视频中添加或删除对象,或扩展视频片段的帧率,例如将视频从纵向转换为横向。 Google表示,所有这些新的 Veo 2 功能将在未来几周内登陆其 Vertex AI API 平台。 <path fill="#fff" d="M0 0v6.452h7.097V20h7.097V6.452h6.451V0zM27.742 13.548V6.452h-7.097V20h20v-6.452zM40.645 0H27.742v6.452h12.903z"></path> [查看评论](https://m.cnbeta.com.tw/comment/1501178.htm)
Google的“开放”人工智能模型家族 Gemma 正在不断壮大。在周二的Google I/O 2025开发者大会上,Google发布了 Gemma 3n,这款产品旨在在手机、笔记本电脑和平板电脑上“流畅”运行。据Google称,Gemma 3n 将于周二开始预览,可以处理音频、文本、图像和视频。  近年来,高效到可以离线运行且无需云端计算的模型在人工智能领域日益受到青睐。它们不仅比大型模型更便宜,而且无需将数据传输到远程数据中心,从而保护了隐私。 除了 Gemma 3n,Google还通过其健康 AI 开发者基金会计划发布了 MedGemma。据该公司称,MedGemma 是其在分析健康相关文本和图像方面功能最强大的开放模型。 此外,即将推出的还有 SignGemma,这是一个将手语翻译成口语文本的开放模型。Google表示,SignGemma 将使开发者能够为聋哑和听力障碍用户创建新的应用程序和集成。 值得注意的是,Gemma 因其定制的非标准许可条款而受到批评, 一些开发者表示,这 使得商业化使用这些模型变得危险。然而,这并没有阻止开发者下载 Gemma 模型,下载量高达数千万次。 [查看评论](https://m.cnbeta.com.tw/comment/1501176.htm)
Google 在2025 年 Google I/O 大会上宣布与 Gentle Monster 和 Warby Parker 建立新的合作伙伴关系,共同打造基于 Android XR 的智能眼镜,以此与 Meta 的 Ray-Ban Meta 眼镜展开竞争。  Google去年与高通和三星合作推出了Android XR平台。虽然当时Google没有透露具体的设备,但最新的公告表明,该公司希望与不同的合作伙伴共同打造多款眼镜和头显。 周二,该公司还表示将把与三星的合作扩展到XR眼镜。该公司补充说,两家公司正在开发一个软件和硬件参考平台,供开发人员构建解决方案。  三星、高通和Google于 2023 年宣布了一项混合现实项目。三星随后于 2024 年底发布了一款名为 Project Moohan 的头显。Google表示,该产品将于今年晚些时候首次亮相。 在 I/O 大会上,Google还展示了基于 Android XR 平台、并由其 Gemini AI 增强功能的概念眼镜。这款眼镜配备了摄像头、麦克风和扬声器,与雷朋 Meta 眼镜类似。此外,它还可选配一个显示屏,用于查看通知,该显示屏固定在眼镜镜片上。   Google演示了几种不同的用例,例如消息传递、逐向导航、安排约会、实时语言翻译和拍照。这家搜索巨头表示,他们正在组建测试小组,挑选测试人员收集反馈。  [查看评论](https://m.cnbeta.com.tw/comment/1501174.htm)
Google正在推出一项名为 Google AI Ultra 的新订阅计划,以将更多的人工智能产品整合到一个套餐下。这家科技巨头于周二在Google I/O 2025 大会上宣布了这项新计划,旨在为用户提供Google AI 应用和服务的“最高级别访问权限”。 AI Ultra 每月售价 249.99 美元,包含Google Veo 3 视频生成器、该公司全新的 Flow 视频编辑应用,以及名为Gemini 2.5 Pro Deep Think 模式的强大 AI 功能(该模式尚未发布)。 Google实验室和 Gemini 副总裁 Josh Woodward 在新闻发布会上表示:“Ultra 适合那些想要站在Google人工智能最前沿的人。” AI Ultra 目前仅限美国市场,它加入了日益壮大的超高端 AI 订阅市场。去年年底,OpenAI 推出了ChatGPT Pro,这是一个每月 200 美元的套餐,提高了 ChatGPT 的速率限制并包含某些专属功能。几个月后,Anthropic 也推出了Claude Max,其每月费用也高达 200 美元。 Google希望通过提供大量额外内容来增加吸引力。 除了 Flow、Veo 3 和 Gemini 2.5 Pro Deep Think 之外,AI Ultra 还支持Google NotebookLM 平台和该公司的图像合成应用Whisk 的更高容量。AI Ultra 的订阅用户还可以使用 Chrome 中的Google Gemini 聊天机器人、由该公司Project Mariner技术支持的某些“代理”工具、YouTube Premium,以及 Google Drive、Google Photos 和 Gmail 的 30TB 存储空间。 这些代理工具之一是代理模式,它将很快登陆桌面。Google表示,代理模式将能够浏览网页、进行研究,并与Google应用程序集成以处理特定任务。 值此 AI Ultra 正式发布之际,Google将以 Google AI Pro 取代原有的 Google One AI Premium 计划。AI Pro 将包含 Flow、NotebookLM 以及 Gemini 应用(原名Gemini Advanced)等产品,所有产品均具有特殊功能和更高的用量限制。  AI Pro 订阅用户还可以获得 Flow 和 Chrome 中 Gemini 的抢先体验,以及 Google Meet 中英语和西班牙语的实时语音翻译(即将推出更多语言)。Google Meet 中的语音翻译功能也适用于 AI Ultra 用户,它可以将语音翻译成听众的首选语言,同时保留语音、语调和表情。 <path fill="#fff" d="M0 0v6.452h7.097V20h7.097V6.452h6.451V0zM27.742 13.548V6.452h-7.097V20h20v-6.452zM40.645 0H27.742v6.452h12.903z"></path> [查看评论](https://m.cnbeta.com.tw/comment/1501172.htm)
Google正在推出一种新的图像生成 AI 模型 Imagen 4,该公司声称该模型比其之前的图像生成器Imagen 3提供更高质量的结果。Imagen 4 于周二在Google I/O 2025大会上亮相,Google表示,它能够渲染织物、水滴和动物毛发等“精细细节”。该模型既能处理照片级写实风格,也能处理抽象风格,能够创建各种宽高比、分辨率达 2K 的图像。 “Imagen 4 在质量上迈出了一大步,”Google实验室负责人 Josh Woodward 在新闻发布会上表示。“我们还投入了大量精力,并针对其生成文本和地形的方式进行了改进,因此它非常适合制作幻灯片、邀请函,或者任何其他需要融合图像和文字的内容。” Google Deepmind 产品副总裁 Eli Collins[在一篇博文中表示](https://blog.google/technology/ai/generative-media-models-io-2025):“我们最新的 Imagen 模型将速度与精度完美结合,创造出令人惊叹的图像。Imagen 4 在精细细节方面拥有非凡的清晰度,例如复杂的织物、水滴和动物毛发,并且在照片级写实风格和抽象风格方面都表现出色。” Google提供的样图确实展现出了一些令人印象深刻的逼真细节,例如一张显示鲸鱼跃出水面,另一张显示变色龙。  Imagen 4 的一个样本。图片来源:Google 从ChatGPT 的热门工具到Midjourney 的 V7 ,市面上 AI 图像生成器琳琅满目。它们都相对复杂、可定制,并且能够创作高质量的 AI 艺术作品。  另一个 Imagen 4 样本。图片来源:Google 而 Imagen 4 的卖点在于速度很快——比 Imagen 3 还要快,而且它很快就会变得更快。在不久的将来,Google计划发布 Imagen 4 的一个变体,其速度将比 Imagen 3 快 10 倍。  从今天早上开始,Imagen 4 可以在 Gemini 应用程序、Google 的 Whisk 和 Vertex AI 平台以及 Google Workspace 中的 Google Slides、Vids、Docs 等应用中使用。 [查看评论](https://m.cnbeta.com.tw/comment/1501170.htm)
Google正在升级其功能最强大的 Gemini AI 模型。周二,在Google I/O 2025 开发者大会上,该公司宣布推出 Deep Think,这是其旗舰产品 Gemini 2.5 Pro 型号的“增强型”推理模式。Deep Think 允许模型在回答问题之前考虑多个答案,从而提升其在某些基准测试中的表现。  Google人工智能研发部门 DeepMind 负责人 Demis Hassabis 在新闻发布会上表示:“Deep Think 将模型性能推向了极限。它运用了我们在思维和推理方面最新的前沿研究成果,包括并行技术。” Google对 Deep Think 的内部工作原理含糊其辞,但该技术可能类似于 OpenAI 的o1-pro和即将推出的 o3-pro 模型,它们可能使用引擎来搜索和合成给定问题的最佳解决方案。 Google表示,Deep Think 助力 Gemini 2.5 Pro 在 LiveCodeBench(一项颇具挑战性的编程评估)中脱颖而出。此外,Gemini 2.5 Pro Deep Think 还在 MMMU(一项针对感知和推理等技能的测试)中击败了 OpenAI 的 o3。 自本周起,“可信测试人员”可以通过 Gemini API 使用 Deep Think。Google表示,在广泛推广 Deep Think 之前,还需要更多时间进行安全评估。 除了 Deep Think 之外,Google还对其预算导向的 Gemini 2.5 Flash 模型进行了更新,使其在涉及编码、多模态、推理和长上下文的任务上表现更佳。新的 2.5 Flash 模型也比其取代的版本更高效,目前已在Google的 AI Studio 和 Vertex AI 平台以及 Gemini 应用程序中提供预览。 Google表示,改进后的 Gemini 2.5 Flash 将于 6 月份某个时候向开发人员全面开放。 最后,Google推出了一款名为 Gemini Diffusion 的模型,该公司声称该模型“速度非常快”——输出速度比同类模型快 4-5 倍,性能堪比其两倍大小的模型。Gemini Diffusion 现已面向“值得信赖的测试人员”开放。 [查看评论](https://m.cnbeta.com.tw/comment/1501168.htm)
Google正在推出一种方法,可以快速检查图像、视频、音频文件或文本片段是否是使用其某种人工智能工具创建的。SynthID Detector 于周二在Google I/O 2025 大会上发布,它是一个验证门户,利用 Google 的 SynthID 水印技术来帮助识别 AI 生成的内容。  用户可以上传文件,SynthID Detector 将判断整个样本(或其中一部分)是否由 AI 创建。 SynthID Detector 的首次亮相正值 AI 生成的媒体充斥网络之际。据估计,仅深度伪造视频的数量就从 2019 年到 2024 年飙升了 550% 。 据《泰晤士报》报道,去年秋季美国 Facebook 上浏览量最高的 20 个帖子中,有 4 个“显然是由 AI 制作的”。 [](https://static.cnbetacdn.com/article/2025/05/9805cecef9671a8.webp) 图片来源: DeepMind 当然,SynthID Detector 也有其局限性。它只能检测使用 Google SynthID 规范的工具(主要是 Google 产品)创建的媒体。微软、 Meta和 OpenAI都有自己的内容水印技术。 SynthID 并非一项完美的技术。Google承认,它可以被绕过,尤其是在处理文本的场景下。 Google辩称其 SynthID 标准已经得到大规模应用。据这家科技巨头称,自 2023 年推出 SynthID 以来,已有超过 100 亿份媒体被加了水印。 [查看评论](https://m.cnbeta.com.tw/comment/1501166.htm)
Google正在为其 iOS 和 Android 版 Gemini 应用引入一项全新的实时视图功能,让用户可以将周围环境实时传输到 Gemini,并获得对所见事物的反馈。该集成功能将于今日正式推出。  在演示中,Gemini 识别了用户正在查看的物体,纠正了用户对物体的错误假设,并通过回答问题提供背景信息。Gemini 的实时视图可以实时识别物体,为 DIY 或家居装修项目提供帮助,帮助整理空间,协助购物等等。 您还可以与 Gemini 共享您的iPhone或iPad屏幕,以获取您在线看到的内容的反馈。 Gemini 的 Live 功能可能对盲人或视力低下的用户有所帮助,因为它可以提供周围环境的实时语音反馈。Live 功能基于 Project Astra 构建,Google在去年的 I/O 开发者大会上曾预览过该项目,并且此前已在 Pixel 设备上推出。 今年夏天,Google还计划为 Gemini 添加个人背景信息,以实现 Gmail 的智能回复等功能。Gemini 将能够利用Google各应用的相关信息,提供更加个性化的体验。例如,Gmail 中的 AI 回复功能可以发出类似于您本人的声音,而不是千篇一律的普通声音。它能够扫描过往邮件,匹配语气、风格和措辞,还能查找笔记、Google Drive 中的文档等,为邮件添加背景信息。 [查看评论](https://m.cnbeta.com.tw/comment/1501164.htm)
Google在2025 年 Google I/O开发者大会上宣布,将向更多用户和开发者推出其实验性的 AI 代理项目 Mariner,该项目旨在浏览和使用网站。Google还表示,该项目 Mariner 的工作方式已得到显著升级,使该代理能够同时执行近十几项任务。  Google新推出的AI Ultra 套餐(每月 249.99 美元)的美国用户将可以访问 Project Mariner,该公司表示,更多国家/地区的支持即将推出。Google还表示,将把 Project Mariner 的功能引入 Gemini API 和 Vertex AI,让开发者能够构建由该代理驱动的应用程序。 Mariner 项目于 2024 年底首次亮相,代表了Google迄今为止最大胆的尝试,旨在通过人工智能代理改变用户与互联网的互动方式。在项目发布时,Google搜索负责人表示,他们将 Mariner 项目视为用户体验根本性转变的一部分,届时人们将把更多任务委托给人工智能代理,而不是自己访问网站并完成这些任务。 例如,Project Mariner 用户无需访问第三方网站即可在线购买棒球比赛门票或购买杂货——他们只需与 Google 的 AI 代理聊天,它就会访问网站并为他们采取行动。 [](https://static.cnbetacdn.com/article/2025/05/7993731ec7d4c57.webp) Mariner 项目与其他网页浏览 AI 代理竞争,例如OpenAI 的 Operator、亚马逊的 Nova Act和Anthropic 的 Computer Use。这些工具都处于实验阶段,TechCrunch 的经验证明,这些原型速度慢且容易出错。 Google表示,他们已经听取了早期测试人员的反馈,以改进 Project Mariner 的功能。一位Google发言人告诉 TechCrunch,公司已将 Project Mariner 更新为在云端虚拟机上运行,类似于 OpenAI 和亚马逊的代理。这意味着用户可以在 Project Mariner 在后台完成任务的同时处理其他项目——Google表示,新的 Project Mariner 最多可以同时处理 10 个任务。 此次更新使 Project Mariner 比其在用户浏览器上运行的前代产品更加实用。Project Mariner 的早期设计意味着用户在 AI 代理工作时无法使用桌面上的其他标签页或应用程序。这在某种程度上违背了 AI 代理的初衷——它可以为你工作,但你在它工作时却无法做任何其他事情。 Google表示,未来几个月,用户将能够以 AI 模式访问 Project Mariner,这是该公司基于 AI 的Google搜索体验。该功能上线后,将仅限于搜索实验室(Google的搜索功能可选测试平台)使用。Google表示,它正在与 Ticketmaster、StubHub、Resy 和 Vagaro 合作,为部分代理流程提供支持。 今天,Google还发布了另一项名为“代理模式”的代理体验的早期演示。该公司表示,该功能将网页浏览与搜索功能和集成以及其他Google应用相结合。Google表示,Ultra 订阅用户很快将在桌面端体验“代理模式”。 在今年的 I/O 开发者大会上,Google似乎终于准备推出它多年来一直在谈论的代理体验。Project Mariner、Agent Mode 和 AI Mode 似乎都准备改变用户的网页浏览方式,以及供应商与客户在线互动的方式。网页浏览代理对互联网经济有着重大影响,但Google似乎已经准备好将这些代理全部推向世界。 <path fill="#fff" d="M0 0v6.452h7.097V20h7.097V6.452h6.451V0zM27.742 13.548V6.452h-7.097V20h20v-6.452zM40.645 0H27.742v6.452h12.903z"></path> [查看评论](https://m.cnbeta.com.tw/comment/1501162.htm)
Google公司周二在其年度开发者大会 Google I/O 2025上宣布,Google的 AI 模式将于本周开始向美国所有人推出,该模式是Google搜索的一项实验性功能,允许用户通过 AI 界面提出复杂的多部分问题。  该功能基于Google现有的人工智能搜索体验“AI Overviews”,该功能会在搜索结果页面顶部显示人工智能生成的摘要。“AI Overviews”于去年推出,但由于Google的人工智能提供的答案和建议存在问题,例如建议在披萨上涂胶水等,其结果好坏参半。  然而,Google声称,AI Overviews 在采用率方面取得了成功,即使准确性方面并非如此,因为每月已有超过 15 亿用户使用过该 AI 功能。现在,该功能将退出实验室。该公司表示,该功能将扩展到 200 多个国家和地区,并提供 40 多种语言版本。 与此同时,AI 模式允许用户提出复杂的问题并进行后续跟进。该功能最初在Google搜索实验室进行测试,随着 Perplexity 和 OpenAI 等其他 AI 公司也纷纷将自己的网络搜索功能扩展到Google领域,该功能也应运而生。由于担心搜索市场份额可能被竞争对手蚕食,AI 模式代表了Google对未来搜索格局的定位。  随着人工智能模式的广泛推广,Google正在大力宣传其一些新功能,包括深度搜索。人工智能模式会将问题分解成不同的子主题来回答你的查询,而深度搜索则能够进行大规模搜索。它可以发出数十甚至数百个查询来提供答案,其中还会包含链接,方便你自行深入研究。  Google表示,结果是在几分钟内生成一份完整引用的报告,可能会节省您数小时的研究时间。 该公司建议使用深度搜索功能进行比较购物,无论是购买大件家用电器还是儿童夏令营。  AI 模式即将推出的另一项AI 购物功能是虚拟服装“试穿”选项,该功能使用用户上传的照片生成用户穿着该商品的图像。Google指出,该功能将能够识别 3D 形状、面料类型和弹性,并将于今日在搜索实验室中推出。 Google表示,未来几个月将为美国用户推出一款购物工具,当商品达到特定价格后,该工具将代您购买商品。(不过,您仍然需要点击“代买”才能启动该代理。) AI Overviews 和 AI Mode 现在都将使用 Gemini 2.5 的定制版本,Google表示 AI Mode 的功能将随着时间的推移逐步推广到 AI Overviews。 AI 模式还将支持在体育和金融查询中使用复杂数据,该功能即将通过 Labs 推出。用户可以提出一些复杂的问题,例如“比较费城人队和白袜队过去五个赛季的主场胜率”。AI 会搜索多个来源的数据,将这些数据汇总成一个答案,甚至可以即时创建可视化效果,帮助你更好地理解数据。  另一项功能利用了Google的代理 Project Mariner,它可以与网络互动,代表您采取行动。AI 模式最初可用于查询餐厅、活动和其他本地服务,它将节省您搜索多个网站价格和库存情况的时间,从而找到最佳选择——例如,价格实惠的音乐会门票。 Search Live 将于今年夏末推出,它能让你根据手机摄像头的实时画面提问。这超越了 Google Lens 的视觉搜索功能,因为你可以通过视频和音频与 AI 进行互动对话,类似于Google的多模态 AI 系统Project Astra。  搜索结果还将根据您过去的搜索记录进行个性化设置,如果您选择使用今年夏天推出的一项功能连接您的 Google Apps,搜索结果也将进行个性化设置。例如,如果您连接了 Gmail,Google 可以从预订确认邮件中了解您的旅行日期,然后根据这些信息推荐您所访问城市中即将举办的活动。(由于担心隐私问题会引发一些争议,Google 指出,您可以随时连接或断开您的应用。) 该公司指出,Gmail 是第一款支持个性化内容的应用程序。 <path fill="#fff" d="M0 0v6.452h7.097V20h7.097V6.452h6.451V0zM27.742 13.548V6.452h-7.097V20h20v-6.452zM40.645 0H27.742v6.452h12.903z"></path> [查看评论](https://m.cnbeta.com.tw/comment/1501160.htm)
Google首席执行官 Sundar Pichai 在 2025 年 Google I/O 开发者大会上宣布,Google将为 Gemini 应用程序引入“代理模式”,并对其 Project Mariner 工具进行一些更新。  皮查伊表示,Google的人工智能代理工具 Project Mariner 可以帮用户搜索网络,现在可以同时监督多达 10 个任务。 Pichai 还分享了一项名为“Teach and Repeat”的功能的细节。“你可以用此功能展示一次你的任务,它会学习未来类似任务的计划。”他表示,Project Mariner 将于今年夏天“更广泛地”推出。 使用 Gemini 应用程序中的代理模式,您可以给它指定一个任务,然后该工具就会像其他 AI 代理一样代表您完成。Pichai 举了一个例子,两个人正在德克萨斯州奥斯汀寻找公寓。他说,代理可以从 Zillow 等网站上查找房源,并在需要时使用 Project Mariner 调整特定的筛选条件。 皮查伊表示,代理模式的“实验”版本将“很快”向订阅用户推出。 [查看评论](https://m.cnbeta.com.tw/comment/1501158.htm)
第三方开发人员将能够在iOS 19中将 Apple Intelligence 模型整合到他们的应用程序中,此举可能会显著促进苹果人工智能的采用。苹果现有的基于人工智能的产品都归属于“Apple Intelligence”旗下。虽然该平台的功能推出速度缓慢,但在不久的将来,它可能会变得更加实用。  据彭博社周二[报道](https://www.bloomberg.com/news/articles/2025-05-20/apple-to-open-ai-models-to-developers-betting-that-it-will-spur-new-apps),苹果公司正在研究如何让外部开发者利用其人工智能模型。第三方应用程序将能够将依赖于苹果公司开发和实现的模型的功能整合到其Apple Intelligence功能中。 最初的举措将使开发人员能够使用苹果的技术进行文本编辑、图像创建和通知等。 这项服务最初并不能访问苹果所有的 AI 模型。它最初将包含使用设备端处理的特性和功能,而不是使用基于云端的 AI 模型的元素。 消息人士补充说,向开发人员提供 AI 模型访问权限的计划可能会在6 月 9 日的WWDC 2025 上宣布。 苹果向开发者开放AI的做法延续了该公司在行业变革中惯用的模式。这种先建立一个封闭的、仅限苹果的生态系统,然后再向第三方开放的做法,过去在App Store和Apple Watch应用中都曾出现过。 开放其 AI 模型的访问权限极有可能不仅能提升 Apple Intelligence 在应用生态系统中的地位,还能带来其他好处。例如,开发者可以利用苹果的技术为其应用开发新功能,甚至打造出其他平台无法提供的全新应用类别。它还可能帮助苹果进一步开发其人工智能模型,以满足第三方开发者的需求。 虽然苹果在以消费者为中心的人工智能领域还有很长的路要走,但它在开发者方面也取得了相当大的进展。 今年 5 月,有消息称苹果正与 Anthropic 合作,将 Claude Sonnet 集成到升级版Xcode中,供内部使用,协助苹果工程师编写、编辑和测试代码。 长期以来,一直有传言称苹果正在为第三方开发者准备在 Xcode 中使用的 AI 工具。其自家的 AI 编码助手 Swift Assist 因出现幻觉和性能缓慢而受到内部投诉,这阻碍了它的发布。 在帮助开发者方面,苹果正在追赶该领域的其他公司。GitHub Copilot和 ChatGPT 都可以与 Xcode 配合使用。 [查看评论](https://m.cnbeta.com.tw/comment/1501154.htm)
Gmail 的智能回复功能可以为您的电子邮件提供潜在的回复,它将能够从 Gmail 收件箱和 Google Drive 中提取信息,并更好地匹配语气和风格,所有这些都借助 Gemini 实现,该公司在 I/O 大会上宣布了这一消息。 此次改进基于Google去年推出的智能回复“上下文”升级。这项改进允许回复比以前更长,这意味着智能回复不再只是一句简短的“听起来不错!”,但它们仍然只能从你所在的 Gmail 邮件主题中提取信息。随着今天宣布的改进,智能回复理论上将能够比以前包含更多上下文。  Google Workspace 产品副总裁 Blake Barnes 表示,其理念是“Gemini 可以了解你需要响应的情况”,并接管“挖掘所有其他文件”的任务,并重新阅读长线程以确保响应包含所有正确的信息。 智能回复现在还可以根据你正在交谈的人的语气和风格来解释,这意味着如果你正在向经理发送电子邮件,它可能会建议更正式的回复;如果你正在与朋友来回发送邮件,它可能会建议更随意的回复。 巴恩斯说:“我们正在从人工智能广泛发挥作用的领域转向人工智能对你有帮助的领域。” Barnes 拒绝透露使用智能回复的具体人数,但他表示“确实有很多人用”。不过,就像所有 AI 生成的文本一样,在实际点击发送之前,你得仔细检查一下它是否真的产生了幻觉。毕竟,如果智能回复弄错了你发给老板的邮件中的重要信息,那很显然会很尴尬。 智能回复功能将首先在网页、iOS 和 Android 平台上提供英文版本,并将于 7 月在 Google 实验室推出 Alpha 测试版。该功能预计将于今年第三季度全面上线。不过,这些更高级的智能回复功能需要付费,因为它们将作为 Workspace 付费套餐和 Google One AI Premium 的一部分推出。Barnes 表示,随着时间的推移,该功能“有可能”会面向 Workspace 免费用户推出。 在 I/O 大会上,Google还宣布了 Gmail 的其他一些功能。Gemini 将能够帮助您管理收件箱,例如,您可以使用名为“收件箱清理”的功能,让人工智能助手删除特定发件人的未读邮件。该工具将于第三季度正式发布。当您尝试与某人预约会议时,Gmail 还会使用 Gemini 提示您从日历中推荐会议时间。该功能也将于第三季度正式发布。 Google还宣布了 Workspace 产品的其他功能,包括 Google Meet 中的语音翻译、Google Vids 中的 AI 头像,以及 Gemini 在提供写作帮助时仅从 Google Doc 中的链接文档中提取信息的功能。 [查看评论](https://m.cnbeta.com.tw/comment/1501152.htm)
Google将为 Meet 带来语音翻译功能。在周二的 I/O 开发者大会上,Google发布了一项由 Gemini 驱动的新功能,可以将你所说的话翻译成对话对象的首选语言。  Google表示,AI 生成的翻译将保留原有的声音、语调和表情。在Google展示的演示中,一位英语使用者与一位讲西班牙语的同事通话。一旦这位同事打开 Gemini 的语音翻译功能,Meet 就会开始用 AI 生成的英语翻译为他们正在说的内容配音,其中包含他们所有的语调变化——反之亦然。 Microsoft Teams同样在今年早些时候的预览版中推出了 AI 翻译功能。 目前,Meet 仅支持英语和西班牙语之间的翻译,但Google计划在“未来几周”内增加对意大利语、德语和葡萄牙语的支持。该功能现已向订阅用户推出,Google还将于今年晚些时候将该功能推广到企业。 [查看评论](https://m.cnbeta.com.tw/comment/1501150.htm)
在 2025 年台北国际电脑展上,CHERRY 展示了四款全新轴体,首先是首次亮相的 IK 电感式轴体系列以及三款基于 MX 平台的全新机械轴体:MX Honey、MX Blossom 和 MX Falcon。**CHERRY IK 模拟轴体使用电磁感应来检测按键,而无需部件之间进行物理接触。**   这种非接触式设计消除了磨损,同时比磁性轴体节省 50% 的功耗,比霍尔效应轴体节省 95%。IK 轴体将于今年秋季上市。  接下来是 CHERRY 的 MX Honey,这是他们的首款静音触觉 MX 轴体,基于升级的 MX2A 平台打造。由于采用了重新设计的弹簧和工厂润滑,它提供了明显的触觉反馈,而没有通常会产生的噪音。该轴体的额定按键次数超过 1 亿次,将于 2025 年 6 月开始上市,随后将推出 36 轴的消费者套装。  MX Blossom 是 CHERRY 最轻的线性轴体,仅需 35 cN 的触发力即可提供流畅的打字体验和极致的阻力。这种设计不仅提升了速度,也提升了舒适度,非常适合那些追求快速响应和极致打字体验的用户。MX Blossom 将于 2025 年 6 月上市,消费者版轴体套装也即将推出。  对于追求更强反馈力的用户,CHERRY MX Falcon 轴体采用厚重触感设计,搭配长杆设计,带来更明显的按键手感和独特的音效。CHERRY 表示,这款轴体的设计灵感源自社区,拥有更灵敏的触底体验,令人回想起经典打字机的响应速度,同时保持了现代性能标准和 MX 键帽兼容性。CHERRY MX Falcon 轴体将于 6 月初上市。面向消费者的 36 轴套装也将很快上市。    [查看评论](https://m.cnbeta.com.tw/comment/1501148.htm)
 5月17日和18日,任天堂在香港举办了NS2线下试玩体验会,我们的两位朋友 杰克 和 重也 非常幸运,参加了这次体验会。今天我们就邀请他们来聊一聊亲手拿到NS2,以及试玩的NS2游戏的感受~ 因为录音仓促,两位朋友没来得及准备好设备,所以音质和音量的听感可能比较差,还请大家见谅。后续的节目中我们也会继续改进~
美国食品药品监督管理局(FDA)周二发布新版新冠疫苗加强针监管指南,对健康人群设定了更严格的审批标准。根据发表在《新英格兰医学杂志》的指导文件,FDA将依据患者重症风险实施分级证据标准。该文件由FDA局长马蒂·马卡里(Marty Makary)与疫苗监管负责人维奈·普拉萨德(Vinay Prasad)共同撰写,后者是以批评制药业著称的学者。 [](https://static.cnbetacdn.com/thumb/article/2021/0524/969b52798c08cc9.jpg) 这一政策调整正值卫生与公众服务部部长小罗伯特·F·肯尼迪(Robert F. Kennedy Jr.)——著名的疫苗怀疑论者——全面改革国家卫生机构之际。 对于65岁及以上老年人,以及6个月以上存在特定基础疾病的患者,FDA表示可接受免疫原性数据(证明疫苗能激发足够抗体反应)作为获益大于风险的判定依据。但对6个月至64岁无风险因素的健康人群,该机构要求必须提供随机对照试验的临床终点证据,包括降低感染率或住院率等实际疗效数据方可获批。 高风险人群疫苗获批时,FDA将要求药企承诺开展健康成人随机对照试验作为上市后研究。此前FDA主要依赖免疫原性数据审批针对新流行毒株的年度加强针,这种模式与流感疫苗审批机制类似。 “新政策体现了监管灵活性与科学严谨性的平衡,”FDA在文件中表示,“既确保高风险人群及时获得疫苗,又要求提供健康人群的黄金标准数据。”马卡里与普拉萨德将于美东时间周二下午1点通过线上会议阐释新框架。 [查看评论](https://m.cnbeta.com.tw/comment/1501146.htm)
三星似乎正为 Galaxy Z Fold 7 和 Z Flip 7 的发布做准备。随着发布日期临近,各种传闻似乎也愈演愈烈。最有趣的猜测是,Z Fold 7 最终可能会成为史上最薄的可折叠手机。虽然外界对这一传言持怀疑态度,但[SamMobile](https://www.sammobile.com/news/samsung-galaxy-z-fold-7-flip-7-thinness-dimensions/)最新泄露的 CAD 文件似乎为即将推出的机型带来了更多细节。 根据最近出现的渲染图,我们可以看到三星大幅减少其手机的厚度,尤其是折叠时的厚度,Z Fold 7 展开时的厚度介于 9 毫米和 4.54 毫米之间,这是迄今为止最光滑的外形,尤其是考虑到 Oppo Find N5 保持的当前记录,该记录比 Z Fold 7 厚 0.1 毫米。这可能会改变公司的游戏规则,并可能有助于其在来自中国对手的激烈竞争中重新获得地位。  然而,纤薄外形的重点似乎更多地放在了Fold机型上,因为Galaxy Z Flip 7的厚度并没有太大变化。图片显示,Flip机型展开时厚度为6.94毫米,折叠时厚度与前代产品相同。如果将摄像头凸起也考虑进去,手机厚度将降至9.17毫米。  Galaxy Z Fold 7 的官方尺寸为 158.43 x 143.14 x 4.54 毫米,Z Flip 7 的官方尺寸为 166.61 x 75.23 x 6.94 毫米。三星今年似乎将重点放在 Z Fold 7 的外形上,并不断优化其设计,Z Flip 7 的改进也只是循序渐进。虽然尺寸信息确实有助于更清晰地了解预期,但随着发布日期的临近,更多细节将会浮出水面。 [查看评论](https://m.cnbeta.com.tw/comment/1501144.htm)
除了 AMD 与红帽合作开发面向[Gen AI 的全新 llm-d 开源项目](https://www.phoronix.com/news/Red-Hat-llm-d-AI-LLM-Project)外,AMD 和红帽今日还宣布,双方将进一步合作,为 AI 工作负载提供开源 GPU/加速器支持。AMDInstinct 加速器现已在红帽 OpenShift AI 上全面启用。 AMD Instinct MI300X GPU 也可与红帽企业 Linux AI 配合使用,同时双方还致力于与上游 vLLM 社区进一步合作,以进一步增强开源 AI 推理能力。 Red Hat 和 AMD 将在以下领域开展合作: <blockquote>AMD <strong>GPU 性能提升</strong>:通过上游 AMD 内核库并优化 Triton 内核和 FP8 等各种组件,Red Hat 和 AMD 正在提升密集模型和量化模型的推理性能,从而能够在 AMD Instinct MI300X 加速器上更快、更高效地执行 vLLM。<p><strong>增强的多 GPU 支持</strong>:改进集体通信和优化多 GPU 工作负载为更具可扩展性和节能性的 AI 部署打开了大门,这对于需要跨多个 GPU 进行分布式计算的工作负载尤其有益,可减少瓶颈并提高整体吞吐量。</p><p><strong>扩展 vLLM 生态系统参与</strong>:Red Hat、AMD 以及 IBM 等其他行业领导者之间的交叉合作有助于加速上游开发,推动 vLLM 项目和 AMD GPU 优化的持续改进,进一步使依赖 AMD 硬件进行 AI 推理和训练的 vLLM 用户受益。</p></blockquote>  AMD Instinct 也将获得 Red Hat AI 推理服务器的支持。 如果您对 AMD 和 Red Hat 的最新合作感兴趣,请关注[今天的新闻稿](https://www.redhat.com/en/about/press-releases/red-hat-and-amd-strengthen-strategic-collaboration-expand-customer-choice-ai-and-virtualization-across-hybrid-cloud),了解更多详情。 [查看评论](https://m.cnbeta.com.tw/comment/1501142.htm)