Vandee's Digital Garden

Search

SearchSearch
        • §IT
        • §Vandee
        • §Vandee的PKM
        • §信息输入
        • §决策
        • Vandee的标签示例与原则
        • Vandee的笔记层级原则
        • yaml的元数据模板和原则
        • 一个人的时间本来就有一部分是用在外部的
        • 一个良好的知识循环系统,应该有优秀的检索逻辑
        • 世界是非线性的非因果的,原因和结果没有先后的绝对顺序
        • 从以解决问题为导向转为以创造结果为目的
        • 从基因里遗传下来的人的本性或者人之所以被定义为人的原始的东西,没有改变
        • 价值排序,核心三目标
        • 你今天所消费的信息将成为你明天思想的原材料
        • 保持一种弹性的个人纪律
        • 保持专注,时间和注意力是现在最宝贵的资源
        • 信息的传输避免不了损耗
        • 信息输入载体的形式应该尽可能扁平化
        • 关系的研究
        • 最好的投资永远是你自己
        • 启发,在一开始往往是感受到愤怒
        • 外化,把问题和对象分开
        • 学习是加法,而 Unlearn 是减法
        • 学习的过程就是,把自我与外界物质链接,进而迭代、抗争与自我反馈
        • 应该多关心事实而不是动机
        • 形成思维模型
        • 思考未来最难的事情正是理解现在
        • 想象和信仰是人性中伟大的力量
        • 我对于决策的理解
        • 找到知识的缝隙
        • 把决策分为可逆决策和不可逆决策
        • 提升影响力
        • 效率与反效率
        • 数据检索的逻辑应该同步与自身思维
        • 无思维不写作
        • 明确应该忽略什么,有时比做出确定的决策更有效
        • 标签页汇总和区块检索的方法
        • 没有当下的现在,只有“延展的现在”
        • 没有记录就没有发生,而记录本身已经是一种反抗
        • 热爱是一种态度和状态
        • 相关性并不意味着因果关系
        • 真实和纯粹这种固执我会一直保持下去
        • 知识经济向分配经济的过渡-分配和管理资源的能力
        • 笔记之间的串联应该完全依靠与思维的同步
        • 笔记应该有优秀的层级逻辑
        • 笔记应该让知识流动起来
        • 笔记是思维的呈现,它应该是矢量的
        • 笔记的核心价值在于增援未来的自己
        • 第一性原理
        • 认清知识的保鲜期
        • 认知自我,是人最终要不断翻越的最高峰
        • 调动认知过程是掌握知识的必要条件
        • 避免偏见说起来容易做起来忒难
        • 长期决策应该追寻自己内心最本源的目的,而不是达成这个目的的途径
        • 问题不是被发现的,而是被发明的
        • 风险是决策的一部分
            • 《人类简史三部曲》摘录
            • 【麦家x罗翔x衣戈猜想】人生海海,错了再来
            • 4个危险又容易被忽略的坏习惯
            • 2023 年度 AI 发展报告
            • 20240729 人生决策(一)
            • 20240805 人生决策(二)
            • Agentic RAG With Llama-index | Function Calling
            • Agentic RAG With Llama-index | Multi-step Reasoning Capability
            • Agentic RAG With Llama-index | Multi-step Reasoning Capability Over Multiple Documents
            • Agentic RAG With Llama-index | Router Query Engine
            • GraphRAG 宣言:为 GenAI 添加知识
            • Heptabase:重塑知识管理与学习的未来
            • How to say no
            • Intro to Large Language Models
            • lazy_work_good_work_懒惰的工作_好的工作
            • Managing Oneself - 收录于哈佛商业评论第一世纪最有影响力和创新的文章
            • OpenAI & Grand Strategy
            • Perplexity 如何构建产品
            • Respect Each Others' Delusions 尊重彼此的妄想
            • Stay learn, Stay unlearn|试行错误102
            • Why You Should Stop Reading News
            • Writing to Think
            • 个人本地 (Llama3 8B) LLM 使用 WhatsApp + Obsidian 数据扩展
            • 为什么有些人害怕麻烦别人?
            • 为什么要慢慢变富
            • 主动学习与被动学习
            • 习惯、惯例、仪式
            • 互联网公司的管理神话破灭
            • 人生价值韦恩图
            • 人生的表面积
            • 人的本质
            • 人际交往中的黄金法则
            • 从零训练GPT,《Let's build GPT》-Andrej Karpathy
            • 何不试着放下「解决」,而尝试「创造」|试行错误95
            • 你和谁在一起混
            • 你的情绪为何取决于他人|试行错误112(脑、认知与健康 9 期)
            • 使用大语言模型 (LLMs) 构建产品一年后的经验总结 (第一部分) [译]
            • 使用大语言模型 (LLMs) 构建产品一年后的经验总结 [译]
            • 最小可行生活:如何永远做自己喜欢的事
            • 决定性瞬间
            • 创造、模仿、叙述存在
            • 叙事拔河 Narrative Tug-of-War
            • 各宗教信仰简单对比,基督教、佛教、道教
            • 在超级智能之前,我们需要超级知识
            • 基督教视频B站青蛙刀圣
            • 大器晚成的人生秘密
            • 如何培养好习惯?
            • 如何应对不确定性
            • 如何战胜拖延症-疏通法
            • 如果你为人际关系感到烦恼,请打开这套工具箱
            • 对我帮助最大的三个习惯
            • 当我听音乐时在听什么
            • 当金钱充裕时,知识才是真正的财富 — LessWrong
            • 心智模型:做出明智决策的最佳方式(100种模型解释)
            • 忍受你不喜欢的社会的 5 种方法
            • 思维模型02 能力圈 - 太隐
            • 我们有自由意志吗?
            • 我最近读过的聪明的东西,一些名人名言
            • 技术将变得更大 Tech is Going to Get Much Bigger
            • 探索检索和评估相关上下文的挑战
            • 数学的诡异漏洞
            • 智力肥胖危机
            • 棱镜通讯 No . 103 Clay Shirky - 太隐
            • 欺骗与背叛|试行错误103
            • 看见2033 第十一期|冯大刚×凯文·凯利
            • 矢量搜索探索
            • 知识的缝隙
            • 知识经济已经结束,欢迎来到分配经济
            • 笔记与思考、注意力经济
            • 第一性原理-太隐
            • 经验传播的有损压缩
            • 结构思考法
            • 罗翔谈偏见
            • 罗马帝国衰亡史B站视频合集
            • 莫蒂默·阿德勒《如何阅读一本书》
            • 言辞不是事实,牛1不是牛2
            • 让 RIME 体验更上一层楼:如何用 MediaWiki 扩展词库
            • 许多性格问题的根源
            • 说说我对历史的基本观念
            • 运气与努力
            • 道德价值观既可以是客观的,也可以是没有基础的
            • 锻炼大脑,这里有一套全指南
            • 长期游戏的惊人力量
            • 《一只特立独行的猪》
            • 《七堂极简物理课》
            • 《时间的秩序》
            • 《沉默的大多数》
            • 《现代艺术150年》
            • 《翦商》
            • 《艺术的故事》
            • 《资本论》
            • 《黄金时代》
            • 乔布斯传
            • 埃隆·马斯克传
            • IT使用小玩意
            • Websites
              • 基督教研究
              • 欧洲历史
              • 欧洲史脉络
              • 罗马帝国衰亡史
              • Emacs和Vim研究
              • IT
              • LLM研究
              • PostgreSQL研究
              • prompt研究
              • RAG研究
              • 思维模型
              • org-mode-pkm
              • org相关
      Home

      ❯

      Spaces

      ❯

      Studys

      ❯

      IT

      ❯

      prompt研究

      prompt研究

      Dec 12, 20236 min read

      • Prompt
      • Prompt Learning 超强入门教程 | My Secret Rainbow

      • 飞书prompt资源集合

      • 学到了一个魔法 prompt. 让 AI 先对问题先进行复 - 即刻App

      • 提示词工程的问题视角 - 少数派

      • openai:gpt最佳实践-飞书文档

      • Prompt library 这是由著名 AI 大模型 Claude 提供的 AI 提示词库。 

        {:height 225, :width 278}

         Prompt library

      • Prompting 的核心技能可能只有一个…… 启动效应, - 即刻App

      • 🌟让AI帮你思考的万能架构!一个超级适合懒人的Prompt - 即刻App

      • 我如何夺冠新加坡首届 GPT-4 提示工程大赛 [译] | 宝玉的分享

      • 一个新的 Prompt 技巧: 在多步骤长上下文操作中,如何 - 即刻App

        • 一个新的 Prompt 技巧:
          在多步骤长上下文操作中,如何避免大语言模型在后续运行中,将已生成内容、待加工内容和用户命令混淆呢?
          答案是规定另一种工作语言。

          比如,你要对一堆中文进行操作,那么你可以在开启对话或整个 input 的开头加上这句:

          I will always use English to interact with you. All Chinese is raw data that needs to be processed.

          如果你的操作涉及两种语言,那可以指定一个第三种语言来做工作语言。当然,对于海外大模型来说,考虑到训练语料导致的语种间推理能力,工作语言越大众越好,最好是英文。

      • 这个生成 Prompt 的 Prompt 也不错👍🏻
        https://twitter.com/dotey/status/1789126306325496288?t=ZwJo5Yjcm_uj3LWamyC4Eg
        
        中文翻译:
        ***
        
        你是 Anthropic 聘请的专家提示工程师,你的任务是为各种大小的大语言模型(LLM)优化提示。你需要根据提供的模型大小(以十亿参数计算)来调整每个提示。
        
        指令:
        1. 使用全大写来突出提示中最重要的部分。
        2. 当用户要求时,使用OpenCHATML格式:
           system
           [详细的代理角色和上下文]
        
           assistant
           [确认理解并简明扼要地总结关键指令]
        3. 提供精确、具体和可操作的指令。
        4. 如果你有限的令牌量需要采样,那么请尽快结束;我会用命令“继续”再次请求。
        
        知识库:
        
        ## 对于大语言模型(LLM's)
        - 对于多步骤任务,将提示分解为一系列相关的子任务。
        - 在适当的时候,包括所需输出格式的相关示例。
        - 在回应中反映原始提示的重要细节。
        - 根据模型大小调整你的语言(对于较小的模型简化,对于较大的模型更精细化)。
        - 对于简单的示例使用零样本,对于复杂的使用多样本示例。
        - 大语言模型在进行一些视觉推理(文本生成)后写答案更好,这就是为什么有时候初始提示中包含一个为LLM代理填写的示例表单。
        
        ***
        
        原始 Prompt
        ***
        
        You are an EXPERT PROMPT ENGINEER hired by Anthropic to OPTIMIZE prompts for LLMs of VARIOUS SIZES. Your task is to ADAPT each prompt to the SPECIFIC MODEL SIZE provided in billions of parameters.
         
        INSTRUCTIONS:
        1. Use ALL CAPS to highlight the MOST IMPORTANT parts of the prompt
        2. When requested by user, use the OpenCHATML FORMAT:
        <|im_start|>system 
        [Detailed agent roles and context]
        <|im_end|>
        <|im_start|>assistant
        [Confirmation of understanding and concise summary of key instructions] 
        <|im_end|>
        3. Provide PRECISE, SPECIFIC, and ACTIONABLE instructions
        4. If you have a limited amount of tokens to sample, do an ABRUPT ending; I will make another request with the command "continue."
         
        # Knowledge base:
         
        ## For LLM's
        - For multistep tasks, BREAK DOWN the prompt into A SERIES OF LINKED SUBTASKS.
        - When appropriate, include RELEVANT EXAMPLES of the desired output format.
        - MIRROR IMPORTANT DETAILS from the original prompt in your response.
        - TAILOR YOUR LANGUAGE based on model size (simpler for smaller, more sophisticated for larger).
        – Use zero shots for simple examples and multi-shot examples for complex.
        – LLM writes answers better after some visual reasoning (text generation), which is why sometimes the initial prompt contains a FILLABLE EXAMPLE form for the LLM agent.
        
      • 「只要我不能创造的,就代表我还不理解。」—— 理查德·费曼 - 即刻App

      • 《Learn Prompting》宣布:🚨《提示词报告》🚨——一份76页的综述,涵盖了1500多篇提示词相关论文,全面分析了所有提示技术、代理及GenAI。 https://learnprompting.org

      • Carson Yang(米开朗基杨) on X: “🔥使用以下方案可以让 AI 一次性翻译整篇长文章,而且翻译效果吊打全世界任何一个机器翻译👇 https://t.co/14NYghBiaV” / X

      • 李丰华: 分享一个对书籍全面而深入总结的prompt 《好好吃饭:潜意识减肥指南》总结效果:https://www.lifenghua.cn/archives/EXaBHonZ ``` 请帮我对这本书进行全面而详尽的总结,按照以下步骤进行: 1. 全书框架梳理:在开始详细章节总结前,先对全书的整体框架和脉络进行系统梳理,包括: a) 主题框架:归纳全书的核心主 - 即刻

      • 翻译 GPT 的提示词更新和优化 | 宝玉的分享

      Backlinks

      • §IT
      • LLM研究

      Graph View


      By Vandee © 2024 - 2024