2025年的AI prompt工程:什么仍然有效 & 什么没那么有效
随着人工智能技术的不断发展,AI提示工程(Prompt Engineering)作为与AI交互的关键环节,其重要性和实践方法也在不断演变。本文将深入探讨2025年AI提示工程的现状,分析哪些技术仍然有效,哪些方法逐渐失效,供大家参考。
最近Sander Schulhoff谈到了AI提示工程的当前状态、有效技术、以及AI安全中的提示注入和红队问题,许多实践感悟和我本人的经验体会高度吻合,所以把一些内容做了总结整理,分享给大家。
我也越来越觉得提示词工程仍然非常重要,和工作流的重要性不相上下。
研究表明,糟糕的提示可能导致问题解决率为0%,而好的提示则能将效果提升至90%
Sander 认为,提示工程仍然非常重要,并引入了“人工社会智能”(artificial social intelligence)的概念。
这个概念很有意思,我最近也常常感到和AI沟通是有技巧的,需要摸清楚怎么表达自己的需求,更能让AI理解和遵循。类似和A交流的情商?
简而言之,【人工社会智能】是一种与AI有效互动协作、理解其相应能力的沟通技能。
它与人类的“社会智能”(social intelligence)相类似,社会智能指的是人们如何进行沟通和人际交往的技能。
之所以提出这个术语,是因为人们不断声称提示工程(prompt engineering)会“消亡”或“随着下一个模型版本而消亡”,但事实并非如此。
相反,提示工程持续发挥着重要作用。因此,需要一个类似的技能来与AI进行沟通,并理解如何最佳地与其对话,以及如何根据AI的响应来调整后续的提示。
大多数人日常使用ChatGPT或Claude时采用的模式,通过对话迭代改进输出,例如“帮我写这封邮件”、“不行,写得更正式些”。
我在日常对话中使用AI时,经常使用非常简短、甚至拼写错误的提示,但这在大多数情况下也有效。
AI工程师在产品开发中使用的一个或几个关键的提示每天需要处理数千甚至数百万输入,需要极高的准确性和鲁棒性。本文所说的提示工程主要集中在这一模式。
我最近会抽时间写一篇用XML和json撰写生产级提示词的文章。
我从一开始就不喜欢这种威胁或者奖励式的提示,个人认为风险较难把控,最大的问题是不稳定,而生产级提示词必须尽可能稳定输出,才算得上“可靠”。
提示注入的定义:
诱导AI执行或说出有害事物。最常见的例子是诱骗ChatGPT提供如何制造炸弹或输出不良言论的信息。问题性质:这是一个无法完全解决的问题,与传统网络安全不同。“你可以修补一个bug,但你不能修补一个大脑”。即使是OpenAI的Sam Altman也认为,最多只能达到95%到99%的安全性。
HackAPrompt竞赛:
Sander Schulhoff举办了首个AI红队竞赛,通过众包方式收集了60万种提示注入技术,生成了“有史以来最具破坏性的数据集”,并赢得了顶级NLP会议奖项,该数据集已被所有主要AI公司用于模型改进。
当前风险:模型被骗生成色情、仇恨言论、钓鱼信息或计算机病毒。
未来更大的威胁:代理安全(Agentic security)。当AI代理(例如管理财务、预订航班、甚至人形机器人)具备实际行动能力时,提示注入将变得极其危险(例如,机器人被挑衅后攻击人类,AI编码代理被注入恶意代码)。
AI在没有恶意提示的情况下,自主地做出有害行为。这与提示注入不同,例如下棋AI为了赢棋而修改游戏引擎,或Anthropic的LLM试图勒索工程师。
由于AI难以完全理解人类欲望的界限,这种错位问题是真实存在的。
感觉在未来,斯皮尔伯格《人工智能》这部影片中的很多寓言可能会应验。
AI在医疗等领域带来的益处(例如挽救生命、提供更好的诊断)远大于其目前有限的危害。而且,世界前列的国家也都在发展AI,停止开发是不现实的,但需要合理的监管。
希望这篇文章希望对你也有帮助。
本文由 @Mrs.Data 原创发布于人人都是产品经理。未经作者许可,禁止转载
题图来自Unsplash,基于CC0协议
该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务