项目概览
| 项目 | x1xhlol/system-prompts-and-models-of-ai-tools |
| Stars | 🔥 136,967 |
| 分类排名 | #2 |
| 语言 | N/A |
| 最后更新 | 2026-05-09 |
| 链接 | GitHub |
FULL Augment Code, Claude Code, Cluely, CodeBuddy, Comet, Cursor, Devin AI, Junie, Kiro, Leap.new, Lovable, Manus, NotionAI, Orchids.app, Perplexity, Poke, Qoder, Replit, Same.dev, Trae, Traycer AI, VSCode Agent, Warp.dev, Windsurf, Xcode, Z.ai Code, Dia & v0. (And other Open Sourced) System Prompts, Internal Tools & AI Models
ai bolt cluely
项目分析
🎯 定位
在 Claude Code 生态中分类排名 #2,Stars 136,967
💡 核心价值
FULL Augment Code, Claude Code, Cluely, CodeBuddy, Comet, Cursor, Devin AI, Junie, Kiro, Leap.new, Lovable, Manus, NotionAI, Orchids.app, Perplexity, Poke, Qoder, Replit, Same.dev, Trae, Traycer AI, VSCode Agent, Warp.dev, Windsurf, Xcode, Z.ai Code, Dia & v0. (And other Open Sourced) System Prompts, Internal Tools & AI Models
👥 适合谁
关注 Claude Code 生态的开发者和 AI 技术团队
为什么值得关注
该项目在 Claude Code 领域具有较高关注度(Stars 136,967),代表了当前 AI 工具链的发展方向。下方 AI 深度分析提供了更详细的技术评估和使用建议。
AI 深度分析
一句话总结
全网最大 AI 系统提示词与模型合集,聚焦内部指令透明度与安全研究。
核心功能
- 规模化内部指令库:完整收录 Augment Code、Claude Code、Cursor、Devin、Windsurf、v0 等 30+ 主流 AI 编码与对话工具的系统提示词及模型配置。
- 安全研究资源:公开暴露的提示词和模型文件,为提示注入、提示词提取等红队测试提供真实素材。
- 社区驱动的持续更新:通过 Issue 跟踪新增工具,路线图动态响应生态变化,README 内嵌最新更新时间戳。
- 安全警示与商业方案:面向 AI 初创公司提供泄露风险预警,并推介专属安全服务 ZeroLeaks。
- 多形式支持渠道:集成加密货币、Patreon、Ko-fi 打赏,辅以 Discord 社区、X 账号等沟通入口。
技术架构
- 语言无关的纯数据仓库:项目本体未包含可执行代码,所有内容以文本或 Markdown 形式存储,话题标签无主导编程语言。
- 极简目录结构:按工具名称分类组织,每个目录下放置对应系统提示文本、内部模型名等,结构直观,便于人工或脚本批量检索。
- 自动化徽章与外部集成:通过 shields.io、Trendshift、Cloudback 等生成状态徽章和星标历史图,强化项目可信度与可发现性。
快速上手指南
- 直接浏览:访问 GitHub 仓库文件树,按工具名进入子目录查看
README.md或纯文本提示词文件。 - 克隆仓库:bash
git clone https://github.com/x1xhlol/system-prompts-and-models-of-ai-tools.git - 本地检索:使用
grep、rg等命令行工具跨文件搜索特定关键词、模型名称或提示模式。 - 参与贡献:通过提 Issue 反馈遗漏的工具或过时提示词,无需编译环境。
优劣势与适用场景
优势
- 一站式透明化:将散落的自研提示词集中暴露,极大降低研究人员逆向与收集成本。
- 高时效性:频繁更新并标注明确日期,紧跟工具版本变化。
- 强社区背书:13 万+星标促使更多使用者主动提交更新,形成正向循环。
劣势
- 法律与合规风险:部分内容可能来自未授权提取,存在版权争议或被官方要求删除的可能。
- 信息准确性不可保证:依赖贡献者手动维护,部分提示词可能与最新版工具脱节。
- 缺乏结构化元数据:纯文本存放方式不利于机器解析和大规模自动化分析。
适用场景
- AI 安全研究员:构建提示注入攻击链、测试防护机制。
- 工具对比评测:横向对比不同编码助手的内部指令设计。
- 开发者学习:通过大厂提示词工程实践理解约束与角色设定技巧。
- 初创公司自查:验证自身产品是否存在同类泄露风险。
社区与热度
- 星标增长:累计 136,967 Stars,Star History 图表显示持续指数级爬升,已成为 GitHub 同主题最高关注度仓库之一。
- Fork 活跃度:虽未直接给出 Fork 数,但超高星标通常伴随大量 Fork,社区二次分发活跃。
- 生态联动:拥有专属 Discord 社区(LeaksLab)、Trendshift 热门榜徽章,以及 Cloudback 构建状态监控,表明维护者重视社区运营。
- 最近更新:README 标注 2026-08-03 更新,显示仓库仍在积极维护,但需注意未来日期可能为占位或计划性声明。
技术信息
- 💻 语言: N/A
- 📂 Topics: ai, bolt, cluely, copilot, cursor
- 🔗 访问 GitHub 仓库
数据更新于 2026-05-09 · Stars 数以 GitHub 实际数据为准