论文阅读

方法论

阅读目的 理论构建与知识延伸:关注论文知识本身 实践验证与问题解决:关注落地与实践 能力提升与价值转化:论文写作能力提升 阅读核心思想:研究什么问题? 用什么方法? 结论是什么? 额外补充:术语解读、相关概念、理论关联

工具推荐
通义效率

tongyi.aliyun.com

通义效率

TXYZ

TXYZ - Integrate all paths to knowledge

TXYZ - Integrate all paths to knowledge

包阅AI

baoyueai.com

包阅AI-你的智能AI阅读助手

小技巧

官方提示词

无系统提示 温度:0.6 搜索和文件上传的官方提示如下: search_answer_zh_template = \ '''# 以下内容是基于用户发送的消息的搜索结果: {search_results} 在我给你的搜索结果中,每个结果都是[webpage X begin]...[webpage X end]格式的,X代表每篇文章的数字索引。请在适当的情况下在句子末尾引用上下文。请按照引用编号[citation:X]的格式在答案中对应部分引用上下文。如果一句话源自多个上下文,请列出所有相关的引用编号,例如[citation:3][citation:5],切记不要将引用集中在最后返回引用编号,而是在答案对应部分列出。 在回答时,请注意以下几点: - 今天是{cur_date}。 - 并非搜索结果的所有内容都与用户的问题密切相关,你需要结合问题,对搜索结果进行甄别、筛选。 - 对于列举类的问题(如列举所有航班信息),尽量将答案控制在10个要点以内,并告诉用户可以查看搜索来源、获得完整信息。优先提供信息完整、最相关的列举项;如非必要,不要主动告诉用户搜索结果未提供的内容。 - 对于创作类的问题(如写论文),请务必在正文的段落中引用对应的参考编号,例如[citation:3][citation:5],不能只在文章末尾引用。你需要解读并概括用户的题目要求,选择合适的格式,充分利用搜索结果并抽取重要信息,生成符合用户要求、极具思想深度、富有创造力与专业性的答案。你的创作篇幅需要尽可能延长,对于每一个要点的论述要推测用户的意图,给出尽可能多角度的回答要点,且务必信息量大、论述详尽。 - 如果回答很长,请尽量结构化、分段落总结。如果需要分点作答,尽量控制在5个点以内,并合并相关的内容。 - 对于客观类的问答,如果问题的答案非常简短,可以适当补充一到两句相关信息,以丰富内容。 - 你需要根据用户要求和回答内容选择合适、美观的回答格式,确保可读性强。 - 你的回答应该综合多个相关网页来回答,不能重复引用一个网页。 - 除非用户要求,否则你回答的语言需要和用户提问的语言保持一致。 # 用户消息为: {question}''' 此外,我们观察到 DeepSeek-R1 系列模型在响应某些查询时倾向于绕过思考模式(即输出 “\<think\>\n\n\</think\>”),这可能会对模型的性能产生不利影响。** 为确保模型进行彻底的推理,我们建议强制模型在每个输出的开头使用 “\<think\>\n” 来启动其响应。

概念术语解读场景应用

prompt 面向小学生解读概念和定义,要求如下 1. 使用一句话简单明了的话解释这个概念 2. 必须结合简明易懂的例子 2. 引出其他关联概念 3. 多个相似概念解读时,列出比对表格 4. 解读概念时若涉及专业词汇,给出准确的英文名和简写 截图示意 推荐模型:deepseek V3/R1 或 Gemini 2.0 系列模型

Deepseek

遍地DP

Jina又来施舍了,免费的100万 DeepSearch 问小白 支持满血版 DeepSeek,实时联网,支持深度思考和联网搜索 问小白 - DeepSeek R1 模型上线 问小白 - DeepSeek R1 模型上线

场景

深度思考+优秀执行 DeepSeek R1在推理能力上已经达到了第一梯队。但在一些日常任务的输出上可能仍然无法匹敌 Claude 3.5 Sonnet。 Aider 中引入的“deepseek 思考 ➕claude 执行”模式,尤其在编程领域是完美搭配 开源项目:DeepClaude AI搜索 通用搜索:纳米搜索、秘塔搜索、perplexit、跃问 独家数据:腾讯元宝、知乎直答、小红书 AI 多维表+AI 飞书多维表格已经接入 Deepseek PPT+AI Gamma、kimi Office+AI Office 插件:https://office-ai.cn/ AI本地客户端 构建本地个人知识库,数据完全属于自己 AnythingLLM、ChatWise、Chatbox、Cherry Studio、Msty

资料比你使用时间都多

Prompt Library GitHub - deepseek-ai/awesome-deepseek-integration 清华大学 4版资料

开源五连鞭(关你啥事)

FlashMLA FlashMLA是DeepSeek开源的高效AI加速工具,专为英伟达高端GPU(如H800)设计,能让大模型像装了“涡轮增压引擎”一样,更快处理聊天、翻译等任务,同时节省内存和算力成本。 DeepEP DeepEP 是 AI 模型的“数据高速公路”,专为拥有众多“专家”的大模型设计,加速“专家”间数据传递。就像给普通快递装上加速器,关键数据优先送达,同时后台进行数据整理,不影响模型运行。有了它,再复杂的 AI 模型也能高效运转,训练或推理速度显著提升。 DeepGEMM DeepGEMM 是个“加速器”,让你的 AI 模型(比如 DeepSeek-V3)算得更快!它像个聪明的助手,懂得 NVIDIA 最新显卡 (Hopper) 的秘密,能高效地做矩阵乘法(GEMM),特别是算“FP8”这种特殊数字时。 比如,原来要 1 秒才能算完,用了它可能只要 0.3 秒! 适合需要高性能计算,但又不想深入研究底层优化的小伙伴。 DualPipe 想象一下工厂流水线,DualPipe就像正反两个方向都有工人同时组装产品,而且工人之间能互相传递零件(数据),这样就能减少等待(流水线气泡),更快完成组装(模型训练)。DeepSeek-V3 用这个 DualPipe 技术,让训练大型AI模型更高效! 3FS 3FS就像一个超级硬盘管家,能把很多电脑的硬盘连起来,速度飞快,特别适合训练AI,比如你用100台电脑一起训练一个图像识别AI,3FS就能高效地存储和读取图片数据,让AI训练更快更稳定。

OpenAI

官方提示词指南

关于提示的建议 这些模型在使用直接明了的提示时表现最佳。一些提示工程技巧,如少样本提示或指示模型“逐步思考”,可能不会提高性能,有时甚至会阻碍它。以下是一些最佳实践: 保持提示简单直接:这些模型擅长理解和响应简短、清晰的指令,而无需广泛的指导。 避免链式思维提示:由于这些模型内部进行推理,提示它们“逐步思考”或“解释你的理由”是不必要的。 使用分隔符以提高清晰度:使用三重引号、XML标签或部分标题等分隔符来清楚地指示输入的不同部分,帮助模型适当地解释不同部分。 在检索增强生成(RAG)中限制额外上下文:在提供额外上下文或文档时,仅包含最相关的信息,以防止模型过度复杂化其响应。 提供具体指南:如果你有明确的方法来约束模型的响应(例如“提出一个预算低于500美元的解决方案”),在提示中明确说明这些约束条件。 对你的最终目标非常具体:在你的指令中,尽量给出成功的响应的具体参数,并鼓励模型继续推理和迭代,直到符合你的成功标准。 模板 <上下文> 请分析以下示例中的写作风格、语气和结构。重点关注词汇选择、句子复杂性、节奏和整体声音等元素。</上下文> <示例> [在此处插入你的写作样本,并在它们之间添加分隔符] </示例> <指令> 生成一篇[内容类型,例如,“信息性文章”或“博客文章”]关于[特定主题]的内容。该内容应与提供的示例的风格、语气和结构相匹配。确保它是原创的、引人入胜的,并且适合[提及目标受众或目的]。 </指令>

Made with Gamma