项目概览
| 项目 | asgeirtj/system_prompts_leaks |
| Stars | ⭐ 39,933 |
| 分类排名 | #16 |
| 语言 | N/A |
| 最后更新 | 2026-05-09 |
| 链接 | GitHub |
Extracted system prompts from ChatGPT (GPT-5.5 Thinking), Claude (Opus 4.7, Opus 4.6, Sonnet 4.6, Claude Code), Gemini (3.1 Pro, 3 Flash, Gemini CLI), Grok (4.3 beta), Perplexity, and more. Updated regularly.
ai ai-transparency anthropic
项目分析
🎯 定位
在 Claude Code 生态中分类排名 #16,Stars 39,933
💡 核心价值
Extracted system prompts from ChatGPT (GPT-5.5 Thinking), Claude (Opus 4.7, Opus 4.6, Sonnet 4.6, Claude Code), Gemini (3.1 Pro, 3 Flash, Gemini CLI), Grok (4.3 beta), Perplexity, and more. Updated regularly.
👥 适合谁
关注 Claude Code 生态的开发者和 AI 技术团队
为什么值得关注
该项目在 Claude Code 领域具有较高关注度(Stars 39,933),代表了当前 AI 工具链的发展方向。下方 AI 深度分析提供了更详细的技术评估和使用建议。
AI 深度分析
一句话总结
汇集并持续追踪主流AI模型隐藏系统指令的透明度档案馆。
核心功能
- 跨厂商、多模型系统提示收集:覆盖 OpenAI(GPT-5.5 Thinking、Codex CLI)、Anthropic(Claude Opus 4.7/4.6、Claude Code/Cowork/Design)、Google(Gemini 3.1 Pro/3 Flash、Gemini CLI)、xAI(Grok 4.3 Beta)及 Perplexity 等,按厂商与模型版本归档。
- 时效性极强的版本追踪:紧跟模型发布节奏,例如 GPT-5.5 Thinking 于 2026 年 4 月 26 日上线后即收录,Claude Opus 4.7 发布后数天内完成归档,每次更新均有明确日期和链接。
- 多形态信息提取:不仅提供完整系统提示,还区分“人性化可读版”“注入片段”“无工具版”“风格变体”及官方文档对照版本,满足对比研究需求。
- 开放透明的社区协作:采用 MIT 许可证,接受 Pull Request,鼓励用户提交新泄露或修正,形成可持续的公众审计网络。
技术架构
项目本质是一个基于 Git 的纯文档仓库,无依赖、无构建流程。文件全部以 Markdown 格式存储,按厂商(OpenAI/、Anthropic/、Google/、xAI/)划分目录,每个模型或变体对应一个独立的 .md 文件。技术亮点在于其信息架构设计:
- 使用扁平化的模型名文件命名,便于直接浏览和脚本批量处理。
- README 以表格和 Badge 组织热度展示与快速跳转,结合 Trendshift 徽章提升可发现性。
- 记录“官方文档”与“逆向抽取”的对照版本,形成事实校验层。
该结构本身不包含抓取工具或自动化流水线,但为下游自动化分析(如 Diff 追踪、提示注入检测)提供了结构化语料。
快速上手指南
无需安装任何依赖,直接克隆仓库即可查阅全部提示:
git clone https://github.com/asgeirtj/system_prompts_leaks.git
cd system_prompts_leaks使用任意文本编辑器打开对应模型文件,例如查看最新 GPT-5.5 Thinking 的指令:
cat OpenAI/gpt-5.5-thinking.md若需贡献,基于 Fork 提交 Pull Request 添加新的泄露文件,并参照已有格式说明来源与生效版本即可。
优劣势与适用场景
优势
- 独一的透明度价值:将闭座AI助手的内部系统指令公之于众,为安全审计、学术研究和公众监督提供一手证据。
- 同步发布速度:在主流模型迭代几日内即收录新版本,已成为业界获取泄露提示最快的公开源头之一。
- 覆盖面与粒度并重:从对话界面到代码助手、办公插件、移动端等多形态产品均有覆盖,且区分了注入片段、风格变量等形式,信息密度高。
- 低门槛参与:纯文本归档,社区贡献仅需提 PR,可借助群体智慧快速发现与验证泄露。
劣势
- 合规与伦理瓶颈:大量系统提示可能通过逆向工程或泄露渠道获得,违反对应厂商的服务条款,存在法律风险,并可能被用于开发越狱攻击。
- 准确性无法彻底验证:未经官方确认,文本可能被截断、混入幻觉内容或过时;且无法保证覆盖所有区域/用户群的差异化提示。
- 静态文本局限:仅保存文字指令,缺少对模型行为、工具调用链和动态上下文的捕获,不能完全还原模型真实约束。
- 维护压力:模型频繁迭代和渠道多样化导致人工更新成本高,部分厂商已经开始主动混淆或频繁更换提示,增加追踪难度。
适用场景
- AI 安全与对齐研究:分析各厂商在毒性、偏见、敏感话题上的约束规则与拒绝措辞,评估对齐策略。
- 提示工程教学与参考:学习大厂系统提示的角色设定、输出格式控制、多步推理规划等实战技巧。
- 开源模型训练与微调:为构建自定义系统消息、领域特化助手提供结构和语言模板。
- 科技监督与媒体调查:揭示隐藏的商业偏好、内容过滤逻辑与政治合规要求,为报道提供事实支撑。
社区与热度
该项目在 GitHub 收获 39,933 Star,并因持续涌入的关注度登上 Trendshift 排行榜。README 中展示的星数增长图表明,2026 年 3‑4 月伴随 GPT-5.5、Claude Opus 4.7 和 Grok 4.3 等重磅模型发布,星数出现爆发式增长,社区活跃度达到顶峰。仓库在 2026 年 5 月 9 日 进行最新更新,近期更新记录密集覆盖 4 月下旬至 5 月初的多款模型泄露,维护节奏紧凑。凭借 MIT 许可证和高转发量,该项目已成为 AI 透明度领域最具影响力的公共文本档案,并在社交媒体与技术论坛持续引发关于 AI 权利、商业机密与用户知情权的大范围辩论。
技术信息
- 💻 语言: N/A
- 📂 Topics: ai, ai-transparency, anthropic, chatgpt, claude
- 🔗 访问 GitHub 仓库
数据更新于 2026-05-09 · Stars 数以 GitHub 实际数据为准