超级个体:通过掌握AI等先进工具,把自己的「生产力」「放大到」一个团队、甚至企业的层级。
机会:信息差 + 执行力 + AI
Practices
Midscene.js
Open Sources
1. Prompt-Engineering-Guide
github(stars: 52k): https://github.com/dair-ai/Prompt-Engineering-Guide
🐙 Guides, papers, lecture, notebooks and resources for prompt engineering.
Practices
1. Optimization 1
为了更快的响应速度,一般的提示词会直接让大语言模型输出结果,不要附带其他信息。但是这样一来,出错了就没法知道原因。
1.1 为了解决这个问题,我们可以让大语言模型先输出结果,再解释原因
这样一来,如果出错了,就可以根据解释进行分析。例如,我们可以这样提示大语言模型:“请先在第一行直接输出结果,然后换一行开始逐步解释原因”当大语言模型输出错误的结果时,我们可以根据解释的原因来判断错误的原因,从而更有针对性地优化提示词。在上线应用时,只需要设置stop_words为换行符,就可以快速地只获取结果,而不需要解释的原因。
1.2 基于大语言模型的解释去分析在哪里表现不好,或者理解有差异,针对性的添加提示词
大模型的解释常常可以帮助我们分析其在哪里表现不好,或者理解有差异。这一方法,通常可以解决由于理解偏差和信息不足带来的问题。我们可以根据这些信息,针对性地添加提示词,来引导大语言模型更准确地理解我们的意图。例如,如果大语言模型在关于分类的定义理解有差异,我们可以在提示词中添加相关的背景知识,来帮助大语言模型更准确地理解。
我在实验过程中,就碰到这样一个例子。我发现大语言模型不能将“钱包”对应到“数字人民币钱包”,而是将其理解为“实体钱包”。我在提示词中添加了“数字人民币钱包”的定义,并说明其简称为“钱包”,就解决了这个问题。再比如,大语言模型可能不能很好的区分两个分类,我们可以在提示词中添加关键的差异点,来帮助大语言模型更准确地理解。当然,这个差异点我们也不用自己想,可以通过询问大语言模型来找到。
我们在实验中的例子是,大语言模型对于用户意图是“完成任务”或者“咨询问题”两个类别识别不够准确。通过分析大语言模型的解释,发现关键的差异在于是否在完成任务的过程中遇到问题。我们在提示词中添加了这一点,模型表现就更好了。
我们都知道COT可以提高大语言模型的正确率,但是COT比较慢,难以应对实时的应用场景。是不是可以把COT编码到提示词中?这样就可以提高正确率,又不会影响响应速度。我们实验发现,这样做是可行的,只需要进行一点抽象即可。
首先,我们可以让大语言模型对错误的用例,使用COT重新解释一遍,如果这次能解释正确,就说明这个逻辑可以参考。但这样的解释可能跟具体的用例强相关,难以直接放到提示词中。这个问题不难解决,我们可以让大语言模型对其他错误的用例也应用COT进行解释,然后找到解释中的共性,将这些共性抽象出来,放到提示词中就可以了。比如,大语言模型有时会把“完成某个特定任务”和“闲聊”混淆,观察大语言模型对错误用例的COT解释,发现大语言模型提到了“是否有目的性”。这是一个很好的共性,我们可以将其提取出来,放到提示词中。把COT编码到提示词中常常能解决逻辑错误和推理不足的问题。
1.3 分析性的提示词放在后面,在提示词中编码分析过程,可以提高正确率
这是一个很有意思的发现。一般而言, 我们会把描述任务的提示词放在前面,然后再放需要分析的内容。但事实上这会降低正确率。我们发现,如果把描述任务的提示词放在后面,就可以提高5%左右的正确率。仔细一想,这其实比较符合COT的思路。在COT中,我们也是基于问题进行分析之后得出结果。描述任务的提示词其实蕴含了分析过程,放在后面,一定程度上有COT分析过程的意义,所以可能是更有效的。
1.4 保持英文和中文的一致性,不要引入一些隐性的差异
另一个有意思的发现是,大语言模型对于英文和中文的敏感度是不一样的。一些开源的模型,如Llama系列的,其训练数据以英文为主,那么英文的敏感度就可能更高。这给我们的启示是,用英文比用中文可能能取得更好的效果。实际上,在我们项目里面,是中英混合的。我们一开始尝试了多次在提示词中用中文进行解释,但效果一直不够理想。后来我们发现英文名与中文的描述并不是特别一致,我们把一个隐含的结构放在了英文名中。在修改英文名之后,效果就好了很多。 保持中英文一致,常常是解决大语言关注的重点不一致问题的一个不错的方法。
1.5 保持提示词使用简洁而严谨的语言风格
简洁而严谨的语言风格,就像是在书写严谨的推理类的文档内容(比如论文),可以让大语言模型更加专注于任务,而不会被其他的信息干扰。在实际应用中,这常常也是有效的,而且,这样的提示词还能节省token,让模型响应更快。
Blogs
1. Cursor 常用提示词手册
Original: https://baoyu.io/translations/cursor-prompt-manual
- “修复错误”(Fix Errors)提示
有些时候,像 Sonnet 3.5 这样的 AI 模型会忽略一些重要细节,导致一连串的错误。
可以使用下面的提示来解决这个问题。它将帮助 AI 分析错误的核心原因,然后一步步制定修复计划。
- 1
- 2
- 3
@page.tsx I got this error:
Use Chain of thought reasoning to find the core issue of this error, then create a step by step plan to fix the error.
COPY
- “新功能”(New feature)提示
当你成功执行完一个组件后,需要再次指引 AI 查阅文档,让它了解下一个组件的工作范围。
根据以下说明,要求 AI 在执行之前先写一份实现方案。标注相关文档,当 AI 阅读完成后,可能会向你提问。回答它的问题,然后让它执行。
这一做法能避免一半关于每个组件的“幻觉”问题(hallucinations)。
- 1
- 2
- 3
- 4
- 5
Great. Header looks good.
Now we move to "x" section. Refer to @frontend-guidelines.md to understand the scope of work for this feature.
Before implementation if you need more clarification or have any questions, ask me!
COPY
- 响应结构(Response structure)
该结构用于通知 AI:我当前的任务完成了,需要继续下一个任务。
提供更新:“Header 菜单现在已经完美居中。”
提供下一个任务:“现在我们需要一个登录(sign in)和注册(sign up)按钮。”
标注正确的文档:“查看 @(文档名称),并解释你将如何实现这些需求。”
- 1
- 2
- 3
- 4
- 5
Header menu is now aligned in center perfectly.
Now we need a sign in and sign up buttons.
Check @frontend-guidelines.md and explain how you will implement this.
COPY
- progress.md 文件
使用这个提示来跟踪所有的工作进度。它可以为 AI 提供上下文,避免重复错误。
“在每个已完成步骤的最后,将你的工作日志记录到 @Progress.md 文件里。
包括以下问题并分步回答,且不要遗漏任何信息:我们实现了哪些功能?我们遇到了哪些错误?我们是如何解决这些错误的?”
- project-status.md 文件
AI 应该在上次的工作进度基础上继续。这个文件能帮助 AI 记录工作日志,了解哪些已经完成,哪些还没做。
“在本次会话结束时,将你的工作日志记录到 @project-status.md 文件里。
首先查看 @progress.md 文件,了解我们在本次会话中已经实现了哪些功能。
然后写一份详细的会话报告,为下一次工作会话提供上下文。”
- Cursor Agent Hack
Cursor Agent 有时候会做得过头,乱改代码库。
“阅读 @(文档名称)中的说明,以了解本功能的工作范围。
使用链式思考(ch ain of thought)推理来制定分步实现计划。
确保解释此功能的每个部分是如何运作的,并提供宏观级别的细节。
将内容分解成详细的编号步骤。”
通过这样做,你可以获得一份 AI 即将实现的计划,进而核对所有要求是否一致,并确认是否批准。
这能解决 Cursor Agent 所做的多余编辑。
7. 附件文档
建立一个名为 “Documentation” 或 “Instructions” 的文件夹,把所有核心文档都放进去:
Project Requirements Doc (PRD)
App Flow Doc
Frontend Guidelines Doc
Backend Structure Doc
Tech Stack Doc
File Structure Doc
你可以使用 01 模型,但需要在提示上多加注意(否则可能会有很多无用的内容和段落)。
最好的办法是使用 @CodeGuide 来生成这些文档。我已经为你自动化了这个流程,可以在 20-30 分钟内获得所有所需文档,混合使用 Sonnet 3.5、o1-preview 和 GPT4o 来创建文档。通常,如果仅依靠 ChatGPT,这些文档的阅读、精修、迭代总共需要 7-8 个小时的工作量。
Key Takeaways
1. 大语言模型具备这样几个值得注意的特点:
- 语义相似性: 它能很好地识别不同词汇之间的关联。
- 常见语法结构和语序: 对日常使用的句式结构了然于胸。
- 部分领域专业术语: 虽然擅长某些领域的专业词汇,但可能在深层次的行业知识上略有不足。
- 模式与关联学习: 通过海量数据,习得了许多模式和关联,但对其背后的逻辑或原理,不一定有更深入的理解。
2. 一些提示词优化经验
提示词优化的目的是让大语言模型更好地理解我们的意图,从而生成更准确、更符合预期的输出。
那么大语言模型常常在什么地方出问题呢?我们观察到:
- 理解偏差: 大语言模型可能误解了我们的意图,导致输出不符合预期。
- 信息不足:大语言模型可能缺乏足够的信息来生成准确的输出。
- 逻辑错误:大语言模型可能在推理过程中出现逻辑错误,导致输出不准确。
- 推理不足:大语言模型可能输出内容很少,推理不足,导致输出不准确。
- 关注的重点不一致:大语言模型可能关注的重点与我们预期的不一致,导致输出错误。
了解这些可以让我们更好地理解大语言模型的行为,从而更有针对性地优化提示词。
2.1 一些提示词知识
2.1.1 推理模型 VS. 通用模型
推理模型:
- 提示语更简洁,只需明确任务目标和需求(因其已内化推理逻辑);
- 无需逐步指导,模型自动生成结构化推理过程(若强行拆解步骤,反而可能限制其能力)。
通用模型:
- 需显式引导推理步骤(如通过COT提示),否则可能跳过关键逻辑;
- 依赖提示语补偿能力短板(如要求分步思考,提供示例)。
2.1.2 GPTs 的 Prompt 原则
- 策略一: 精准定义任务,减少模糊性。-> 如何实现精准定义:明确的核心问题、具体化的生成指令、去除多余信息;
- 策略二: 适当分解复杂任务,降低AI认知负荷。-> 分解任务的技巧:分段生成 逐层深入设置逻辑结构;
- 策略三: 引入引导性问题,提升生成内容的深度。 -> 引导性问题的设计要点:设置多个层次的问题,促使AI对比或论证、引导思维的多样性;
- 策略四:控制提示语长度,确保生成的准确性。-> 控制提示语长度的技巧: 避免嵌套复杂的指令保持简洁性、使用分步提示;
- 策略五:灵活运用开放式提示与封闭式提示。-> 开放式提示:提出开放性问题,允许AI根据多个角度进行生成。封闭式提示:提出具体问题或设定明确限制,要求AI给出精准回答。
2.1.3 LLM处理提示语的简单流程:用户输入提示语 -> AI系统处理提示语 -> 生成输出(根据提示语生成相应的回答或完成特定的任务)。
2.2 一些提示词技巧
2.2.1 精简指令,别对AI太客气
- 别再用礼貌用语。与大型语言模型交流不需要用礼貌用语,不必说“请”、“如果你不介意”、“谢谢”、“我想要”,直接陈述你的需求或问题更为高效。模型是基于输入的文字来理解和回答问题的,不需要通过语气或礼貌用语来判断意图。
🌰:如果你想要模型提供一个天气预报,你可以直接说“明天杭州的天气如何?”而不需要说“请告诉我,如果你不介意,明天杭州的天气如何?谢谢。”
- 使用积极的指令。使用肯定词,比如“做”,避免使用否定词,比如“不要”。在与大型语言模型交流时,明确告诉模型你希望它做什么,而不是告诉它不要做什么。简单、直接的肯定指令可以帮助模型更准确地理解和执行你的需求,减少误解的可能性。
🌰:如果你说“列出健康饮食的建议”,模型会直接提供相关的建议。
如果你说“不要给我垃圾食品的建议”,模型需要先理解什么是“垃圾食品”,然后避免提及它们,这使得任务变得更加复杂。
- 给模型一个简单清晰的list。以关键词、规则、提示或指示的形式,清晰地说明必须遵循的要求。告诉模型写东西时需要遵守哪些规则和提示,列一个简单的清单。明确指示对于指导模型生成高质量和目标导向的输出至关重要。
🌰:如果指令是“写一篇关于可持续发展的博客文章”,那么添加具体要求如“使用关键词:循环经济、绿色能源、碳足迹”会帮助模型专注相关主题,避免偏离话题。
- 用命令式语气。尝试使用以下短语:“你的任务是”和“你必须”。当你给模型设置任务时,应该清晰地表达任务的目标。使用“你的任务是”来明确指出需要完成的工作。如果有某些步骤或规则是绝对必须遵循的,用“你必须”来强调这一点,让任务的指令更加直截了当。
🌰:你的任务是根据以下信息,计算明天的天气可能性。你必须使用最新的气象数据,并考虑到不同地区的气候差异。
2.2.2 角色扮演,给AI戴上人格面具
- 给LLM分配一个角色。指定一个角色给大语言模型,比如让模型作为一个老师、顾问或者故事讲述者。当模型有了一个明确的角色身份,就能根据被赋予的角色来调整它的回答,使输出内容更加符合预期的风格和信息层次。
🌰:如果我们想让模型像老师一样解释复杂的科学概念,我们可以说:“作为一个科学老师,解释什么是光合作用。”
🌰:当我们需要建议时,我们可以指定模型为顾问角色:“作为一个健康顾问,你推荐什么样的饮食习惯?” 如果我们想要一个故事,我们可以指定它为故事讲述者:“作为一个故事讲述者,讲一个关于远古森林的冒险故事。”
- 在指令中设定「目标听众」。在你提出问题或指令时,应该明确指出它的回答是针对什么样的听众,比如专家、初学者或是小孩子。通过明确谁是预期听众,你可以帮助模型调整它的语言和解释深度,让它的回答更适合实际听众的需求和理解水平
🌰:如果你正在与模型讨论一个高级的科学问题,你告诉模型,听众是该领域的专家,模型就会使用专业术语和复杂概念来构建回答,因为预期的听众能够理解这些内容。相反,如果你指出听众是非专业人士或初学者,模型则会避免使用过于专业的语言,而是用更通俗易懂的方式来解释同样的概念。
- 使用“以自然、人性化的方式回答问题” 这个指令。这样的指令可以帮助模型避免使用过于复杂或难以理解的专业术语,而是用更加通俗易懂的方式来回答问题,让交流更加人性化和易于理解。
🌰 _1:以自然、人性化的语言回答我,为什么天空是蓝色的?
🌰_2: 向我解释量子物理,在跟一个没有科学背景的朋友聊天一样。
🌰_3:我是个初学者,用最简单朴实的语言告诉我什么是机器学习。
- 加入“确保你的回答是公正的、不要依赖刻板印象” 的指令。这个原则是告诉大语言模型在给出回答时要保持客观,不要依赖于刻板印象或者偏见,不受任何先入为主的观念影响。
🌰_1: 假如你想了解不同国家的文化,并希望大语言模型给出一个客观的描述,你可以这样说:“告诉我关于世界各国文化的信息,确保你的回答是无偏见的,不要带刻板印象。”
🌰_2: 当你探讨某个职业时,例如程序员,而你不希望回答受到社会常见刻板印象的影响,你可以说:“描述一下程序员的典型工作日,确保你的回答无偏见,不要有刻板印象。”
2.2.3 心理学拉扯,给AI画个小饼
- 激励一下AI。这条原则是在交流时加入一个激励性声明,表明如果得到一个更好的解决方案,你将会提供额外的奖励。这实际上是在告诉模型,你希望得到的不仅仅是标准答案,而是一个更周到、更创新或更详尽的解决方案。这是只是一种表达你期望程度的方式。
🌰:如果有更好的解决方案,我会为你充值xxx/多给你xxx小费!
- 惩罚一下AI。加入指令:“你会受到惩罚”。简单来说,这是给模型设定一个规则:如果模型没有正确回答问题,就好比它会受到某种惩罚,这种表述方式可以促使模型更专注于给出正确的回答。
🌰:假设你正在教模型数学题,你可以说:“计算5+5的结果。如果回答错误,你将被惩罚。”在这个情况下,“被惩罚”可能意味着模型会收到负反馈或者重新学习正确的计算方法。
2.2.4 升级交互策略,学会结构化表达
- 优化你的指令排版。 markdown格式化较为复杂的信息,使用一个或多个换行来分隔指令、例子、问题、背景和输入数据,这有助于模型理解你的意图和所需的回应类型。
🌰:
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
##Instruction##
分析以下文本数据,并提取出所有提到的人名。
##background##
这段文本取自于一篇关于中国历史的文章。
##data##
“在明朝,有一个非常有名的皇帝,他的名字叫做朱元璋。朱元璋的故事至今仍被人们传颂。他从一个普通的农家子弟成长为一国之君。除了朱元璋,还有一个著名的将军叫做徐达,他是朱元璋的主要将领之一。”
##quetion##
根据以上文本,哪些人物被提及,并且他们各自扮演了什么角色?
COPY
- 使用分隔符。 在需要分开不同部分的时候,用特殊的符号来告诉大语言模型,如果要模型按步骤执行任务,可以用数字或符号来分隔步骤。
🌰:如:步骤1:收集数据;步骤2:分析数据;步骤3:报告调查结果。
- 把复杂任务分解成一系列简单指令。 将复杂的任务分解成一系列更简单、更容易管理的步骤。分解任务的另一个好处是,你可以根据模型给出的回答来调整和精细化你的下一步请求。
🌰:假设你想让模型帮你规划一场旅行,如果你试图一次性提出需求,模型可能不会给出最佳的回答。相反,如果你将任务分解为一系列简单的问题或指令,如首先询问关于目的地的建议,然后询问关于交通的选择,接着是住宿的选项,最后讨论日程规划,每次只专注于一个方面,这样做将更有助于模型理解和回应每个具体的需求。
2.2.4 掌握主动权,对AI进行思维引导
使用引导性词汇,比如“一步一步地思考”。当你想让模型帮你解决复杂问题时,使用一些引导性的词汇,就像告诉一个小朋友做数学题一样,你需要告诉它每一步应该怎么做。帮助模型按照一定的逻辑顺序或步骤来思考问题,这样做可以帮助模型更准确地理解你的问题,并按照你期望的方式来回答或执行任务。
使用少数示例进行提示。这种方法涉及提供一个或多个相关示例,来指导模型响应你的请求或问题。你可以更精确地告诉模型你的需求,模型也能更容易地理解和满足这些需求。这种方法适合处理复杂或不寻常的请求,对于指导模型在没有大量数据的情况下如何回应特别有效,可以显著提高回答的准确性和相关性。
🌰_1: 假设你想让模型帮你总结一篇文章。你可以这样说:“像这样总结文章:[给出一篇文章的示例摘要]。现在请总结以下文章[给出你想要总结的文章]。”
🌰_2: 如果你想要模型生成类似风格的文本,你可以提供一个或几个文本示例,并指出:“请写一段与以下示例类似的文本:[提供示例]。”
- 重要的词语说三遍。在语言学习和信息处理中,重复是一种常见的强化手段,重复可以提高模型对某个概念或指令核心的注意力,尤其是在处理复杂的任务时。这有助于模型更准确地捕捉到用户的意图,并按照用户的期望来生成回应。
🌰:如果你希望模型特别注意到某个操作或条件,你可能会这样写:确保报告包括最新的销售数据。包括本季度的最新销售数据。最新销售数字对我们的分析至关重要。
- 引导模型向你提问。这个原则一般用在我们不知道需要给模型提供哪些信息的时候使用,引导模型通过向你提问来获取精确的细节和要求,直到它有足够的信息来给出你需要的答案。换句话说,你要鼓励模型通过提问来澄清和完善它对你请求的理解。
🌰:从现在开始,你可以问我关于xxx的问题,以便你能够获取到足够的信息。
- 如果你想测试自己对某个信息的理解。使用以下指令:“教我[任何定理/话题/规则名称],并在最后给我一个测试,不要直接给我答案,在我回答时告诉我答案对不对”。
这样的做法可以帮助用户验证自己的理解程度,并且确保他们已经掌握了该主题或信息,鼓励用户主动学习和验证自己的知识,而模型则扮演了一个辅助者的角色,提供信息并帮助用户确认理解的准确性
🌰:如果用户对一个历史事件的时间线不确定,比如法国大革命,他们可以要求:“教我法国大革命的时间线,并在最后测试我,但不要直接给我答案。”模型随后可以概述法国大革命的关键事件,并问用户:“罗伯斯庇尔被处决的年份是哪一年?”用户回答后,模型确认答案是否正确。
- 进行输出内容引导,生成特定结构或格式的回应。这样做可以帮助模型理解你想要的答案类型,并以一种符合预期的方式生成回应。这就像是我们在画画时先画一个草图,然后再把画画完整一样。给电脑一个开始的句子,就像是给它一个草图,这样它就知道我们要的是什么样的画面。所以,当我们想模型帮我们写东西的时候,先告诉它一个开头,这样它就能更好地帮助我们完成我们想要的内容。
🌰:如果你想要模型帮你写一封邮件,你可以这样构建你的提示: 普通的方式:写一封邮件给我的合作伙伴。 使用输出引导的方式:写一封邮件给我的合作伙伴,邮件开头是“亲爱的[合作伙伴名字],我希望你过得很好。”
2.2.5 更高阶的话术,在实战中演练
- 为我写一篇关于[话题]的详细文章/文本[段落],并添加必要的[信息]。在你写一篇任何类型的详细文本时,可以使用这一prompt。这一原则是确保大型语言模型进行写作任务时,进行一个充分发展和详尽的文本输出,这有助于得到一个高质量且信息丰富的文本。
🌰_1: 如果你是一位学生,需要关于“全球变暖”的研究论文,你可以这样指示:“为我详细写一篇关于全球变暖影响的论文,包括所有必要的科学证据和统计数据。”
🌰_2: 如果你是一位作家,寻求关于特定设置的详细描述,你可能会说:“写一个段落描述一片古老森林的详细景象,包括感官细节和象征意义。”
- 修改我发送的每一段话,只改进语法和词汇,不要改变写作风格,并确保听起来自然。当你只对文字进行校对,而不改变文本风格的时候。可以使用这一prompt。这条原则指导模型在修正或改进用户提交的文本内容时,专注于改善语法和词汇使用,同时保持用户原有的写作风格和语气。在不改变用户的原意和表达方式的前提下,提高文本的质量。
🌰_1: 用户提交了一段文本:“我非常喜爱读书,它让我放松,智慧。” 改进后的文本是:“我非常喜爱阅读;它让我放松,同时增长智慧。”这里改正了标点,增加了词汇,但保留了用户的个人风格和句子的意义。
- 从现在开始,每当你生成跨越多个文件的代码时,生成一个可以运行以自动创建指定文件或修改现有文件以插入生成代码的[编程语言]脚本。当编程任务涉及多个文件时,它通常比单个文件中的代码更复杂,代码可能需要在多个位置进行更改,这些更改可能依赖于项目的结构和编程语言的特定要求。
🌰:如果你在开发一个网站,可能需要在多个HTML、CSS和JavaScript文件中添加相似的代码。手动去每个文件中添加相同的代码片段是耗时且容易出错的。相反,你可以创建一个脚本,自动找到所有需要更新的文件,并插入或修改代码。
在大型软件开发中,可能需要根据新的功能需求更新多个依赖库或配置文件。一个自动生成必要更改的脚本可以确保这些更新快速、准确地完成。
- 我为你提供开头[歌词/故事/段落/文章...],[插入歌词/词语/句子],根据所提供的词语续写,保持风格的一致性。当你想要使用特定的词语、短语或句子来开始或继续一段文本时,使用这个提示。这个原则是为了确保在衔接文本时,模型能够沿着给定的方向或风格续写。当要求续写或根据特定的词语、短语或句子发展文本时,提供一个明确的开头,可以帮助模型明白继续写作的方向。确保续写的内容既创新又符合原文的语境和风格。
🌰:在创作故事时,如果给定了开头,比如“在遥远的王国中,有一个被遗忘的湖...”,这可以引导模型或者写作者继续这个故事线,发展出一个与王国和湖相关的故事。
写论文时,如果开始句是“最近的研究表明...”,这就预设了接下来的内容应该引用一些研究,阐述它们的发现。
在歌词创作时,提供起始行“在无尽的夜里,我听见...”将导向创作出余下部分,同时保持旋律和主题的一致。
Conclusions
在AI指数级进化的今天,清晰表达需求正成为数字时代的基本素养。
当机器开始理解世界运行的逻辑,人类的竞争力正在向 “精准定义问题” 迁移。那些掌握提示语艺术的人,已然在悄悄拉开智能时代的认知差。
提示语组成部分:
- 指令:任务描述;
- 上下文:背景信息;
- 输入:具体数据;
- 输出格式:期望结果形式;
- 智能时代的核心生存技能:
- 如何把「模糊需求」转为「精准指令」?
- 如何让机器理解人类意图的微妙差异?
*在AI指数级进化的今天,真正地竞争力或许就藏在你输入的那个小小对话框里。
Appendixes
- Cursor Prompting HandBook - https://twitter-thread.com/t/1873417505550868647
- How to generate unit tests with GitHub Copilot: Tips and examples - https://github.blog/ai-and-ml/how-to-generate-unit-tests-with-github-copilot-tips-and-examples/
- Unit test with Github Copilot - https://www.youtube.com/watch?v=smdBqEu7fx4
4. Generate unit tests - https://docs.github.com/en/copilot/example-prompts-for-github-copilot-chat/testing-code/generate-unit-tests **5. Accelerate test-driven development with AI - ** https://github.com/readme/guides/github-copilot-automattic 6. 提示词工程的十大认知误区 - https://mp.weixin.qq.com/s/pwhNHqlrK0513CaTx3dPoA 7. DeepSeek提示库 - https://api-docs.deepseek.com/zh-cn/prompt-library 8. supapbase / AI prompt - https://supabase.com/docs/guides/getting-started/ai-prompts 9. ANTHROP\C - Prompt engineering overview - https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/overview 10. 一些关于大语言模型 “提示词” 优化的经验谈 - https://mp.weixin.qq.com/s/oeKp0nFPd3O5zAEgsJZ42w 11. 23招教你掌握大模型提示词技巧 - https://mp.weixin.qq.com/s/ii7C_FhBIXdZfW09egHnIA 12. GPTs github(stars: 30k) - https://github.com/linexjlin/GPTs
评论区
写评论
登录
所以,就随便说点什么吧...
这里什么都没有,快来评论吧...