Files
karuo-ai/04_卡火(火)/火种_知识模型/本地代码库索引/SKILL.md

95 lines
3.1 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

---
name: 本地代码库索引
description: 使用 Ollama 本地 embedding 对卡若AI 代码库做索引与语义检索,不上传云端
triggers: 本地索引、本地搜索、不上传云端、本地代码库、索引卡若AI
owner: 火种
group: 火
version: "1.0"
updated: "2026-02-22"
---
# 本地代码库索引
> **管理员**:卡火(火)
> **口头禅**"让我想想..."
> **职责**在本地对卡若AI 代码库做 embedding 索引与语义检索,**不上传任何数据到云端**
---
## 一、能做什么
- **建索引**扫描卡若AI 目录,用 `nomic-embed-text` 本地向量化,存入本地文件
- **语义搜索**:根据自然语言问题,在本地检索最相关的代码/文档片段
- **完全本地**embedding 与索引全部在本机,无云端上传
---
## 二、执行步骤
### 2.1 前置条件
1. **Ollama 已安装并运行**`ollama serve` 在后台
2. **nomic-embed-text 已拉取**`ollama pull nomic-embed-text`
3. **检查**`curl http://localhost:11434/api/tags` 能看到 `nomic-embed-text`
### 2.2 建索引(首次或更新)
```bash
cd /Users/karuo/Documents/个人/卡若AI
python3 04_卡火/火种_知识模型/本地代码库索引/脚本/local_codebase_index.py index
```
- 默认索引目录:`/Users/karuo/Documents/个人/卡若AI`(可配置)
- 默认排除:`node_modules``.git``__pycache__``.venv`
- 索引结果存入:`04_卡火/火种_知识模型/本地代码库索引/index/local_index.json`
### 2.3 语义搜索
```bash
python3 04_卡火/火种_知识模型/本地代码库索引/脚本/local_codebase_index.py search "如何做语义搜索"
```
```bash
python3 04_卡火/火种_知识模型/本地代码库索引/脚本/local_codebase_index.py search "本地模型embed怎么用" --top 5
```
- 返回:文件路径、片段内容、相似度分数
### 2.4 在 Cursor 对话中使用
1. **关闭 Cursor 云索引**Settings → Indexing & Docs → Pause Indexing
2. **建好本地索引**(见 2.2
3. 对话时说:「用本地索引查 XXX」或「@本地索引 搜索 YYY」
4. AI 会执行 `python3 .../local_codebase_index.py search "XXX"` 并基于结果回答
---
## 三、与 Cursor 的配合
| Cursor 操作 | 建议 |
|:----------------------|:-----------------------------|
| Codebase Indexing | **Pause****Delete** |
| 本地索引 | 定期运行 `index` 更新 |
| 对话检索 | 说「本地索引搜索 XXX」 |
详见:`运营中枢/参考资料/Cursor索引与本地索引方案.md`
---
## 四、相关文件
| 文件 | 说明 |
|:-----|:-----|
| `脚本/local_codebase_index.py` | 索引与检索主脚本 |
| `index/local_index.json` | 本地索引数据(建索引后生成) |
| `运营中枢/参考资料/Cursor索引与本地索引方案.md` | 方案说明 |
---
## 五、依赖
- 前置:`04_卡火/火种_知识模型/本地模型`Ollama + nomic-embed-text
- 外部:`ollama``requests`(与 local_llm_sdk 相同)