Skip to content

项目概览

项目asgeirtj/system_prompts_leaks
Stars⭐ 39,933
分类排名#16
语言N/A
最后更新2026-05-09
链接GitHub

Extracted system prompts from ChatGPT (GPT-5.5 Thinking), Claude (Opus 4.7, Opus 4.6, Sonnet 4.6, Claude Code), Gemini (3.1 Pro, 3 Flash, Gemini CLI), Grok (4.3 beta), Perplexity, and more. Updated regularly.

ai ai-transparency anthropic

项目分析

🎯 定位

在 Claude Code 生态中分类排名 #16,Stars 39,933

💡 核心价值

Extracted system prompts from ChatGPT (GPT-5.5 Thinking), Claude (Opus 4.7, Opus 4.6, Sonnet 4.6, Claude Code), Gemini (3.1 Pro, 3 Flash, Gemini CLI), Grok (4.3 beta), Perplexity, and more. Updated regularly.

👥 适合谁

关注 Claude Code 生态的开发者和 AI 技术团队

为什么值得关注

该项目在 Claude Code 领域具有较高关注度(Stars 39,933),代表了当前 AI 工具链的发展方向。下方 AI 深度分析提供了更详细的技术评估和使用建议。

AI 深度分析

一句话总结

汇集并持续追踪主流AI模型隐藏系统指令的透明度档案馆。

核心功能

  • 跨厂商、多模型系统提示收集:覆盖 OpenAI(GPT-5.5 Thinking、Codex CLI)、Anthropic(Claude Opus 4.7/4.6、Claude Code/Cowork/Design)、Google(Gemini 3.1 Pro/3 Flash、Gemini CLI)、xAI(Grok 4.3 Beta)及 Perplexity 等,按厂商与模型版本归档。
  • 时效性极强的版本追踪:紧跟模型发布节奏,例如 GPT-5.5 Thinking 于 2026 年 4 月 26 日上线后即收录,Claude Opus 4.7 发布后数天内完成归档,每次更新均有明确日期和链接。
  • 多形态信息提取:不仅提供完整系统提示,还区分“人性化可读版”“注入片段”“无工具版”“风格变体”及官方文档对照版本,满足对比研究需求。
  • 开放透明的社区协作:采用 MIT 许可证,接受 Pull Request,鼓励用户提交新泄露或修正,形成可持续的公众审计网络。

技术架构

项目本质是一个基于 Git 的纯文档仓库,无依赖、无构建流程。文件全部以 Markdown 格式存储,按厂商(OpenAI/Anthropic/Google/xAI/)划分目录,每个模型或变体对应一个独立的 .md 文件。技术亮点在于其信息架构设计:

  • 使用扁平化的模型名文件命名,便于直接浏览和脚本批量处理。
  • README 以表格和 Badge 组织热度展示与快速跳转,结合 Trendshift 徽章提升可发现性。
  • 记录“官方文档”与“逆向抽取”的对照版本,形成事实校验层。
    该结构本身不包含抓取工具或自动化流水线,但为下游自动化分析(如 Diff 追踪、提示注入检测)提供了结构化语料。

快速上手指南

无需安装任何依赖,直接克隆仓库即可查阅全部提示:

bash
git clone https://github.com/asgeirtj/system_prompts_leaks.git
cd system_prompts_leaks

使用任意文本编辑器打开对应模型文件,例如查看最新 GPT-5.5 Thinking 的指令:

bash
cat OpenAI/gpt-5.5-thinking.md

若需贡献,基于 Fork 提交 Pull Request 添加新的泄露文件,并参照已有格式说明来源与生效版本即可。

优劣势与适用场景

优势

  • 独一的透明度价值:将闭座AI助手的内部系统指令公之于众,为安全审计、学术研究和公众监督提供一手证据。
  • 同步发布速度:在主流模型迭代几日内即收录新版本,已成为业界获取泄露提示最快的公开源头之一。
  • 覆盖面与粒度并重:从对话界面到代码助手、办公插件、移动端等多形态产品均有覆盖,且区分了注入片段、风格变量等形式,信息密度高。
  • 低门槛参与:纯文本归档,社区贡献仅需提 PR,可借助群体智慧快速发现与验证泄露。

劣势

  • 合规与伦理瓶颈:大量系统提示可能通过逆向工程或泄露渠道获得,违反对应厂商的服务条款,存在法律风险,并可能被用于开发越狱攻击。
  • 准确性无法彻底验证:未经官方确认,文本可能被截断、混入幻觉内容或过时;且无法保证覆盖所有区域/用户群的差异化提示。
  • 静态文本局限:仅保存文字指令,缺少对模型行为、工具调用链和动态上下文的捕获,不能完全还原模型真实约束。
  • 维护压力:模型频繁迭代和渠道多样化导致人工更新成本高,部分厂商已经开始主动混淆或频繁更换提示,增加追踪难度。

适用场景

  • AI 安全与对齐研究:分析各厂商在毒性、偏见、敏感话题上的约束规则与拒绝措辞,评估对齐策略。
  • 提示工程教学与参考:学习大厂系统提示的角色设定、输出格式控制、多步推理规划等实战技巧。
  • 开源模型训练与微调:为构建自定义系统消息、领域特化助手提供结构和语言模板。
  • 科技监督与媒体调查:揭示隐藏的商业偏好、内容过滤逻辑与政治合规要求,为报道提供事实支撑。

社区与热度

该项目在 GitHub 收获 39,933 Star,并因持续涌入的关注度登上 Trendshift 排行榜。README 中展示的星数增长图表明,2026 年 3‑4 月伴随 GPT-5.5、Claude Opus 4.7 和 Grok 4.3 等重磅模型发布,星数出现爆发式增长,社区活跃度达到顶峰。仓库在 2026 年 5 月 9 日 进行最新更新,近期更新记录密集覆盖 4 月下旬至 5 月初的多款模型泄露,维护节奏紧凑。凭借 MIT 许可证和高转发量,该项目已成为 AI 透明度领域最具影响力的公共文本档案,并在社交媒体与技术论坛持续引发关于 AI 权利、商业机密与用户知情权的大范围辩论。

技术信息

  • 💻 语言: N/A
  • 📂 Topics: ai, ai-transparency, anthropic, chatgpt, claude
  • 🔗 访问 GitHub 仓库

数据更新于 2026-05-09 · Stars 数以 GitHub 实际数据为准

热点项目数据来自 GitHub API,实时更新