让 JetBrains IDE 也能用上 llms.txt

JetBrains IDE 支持 MCP,但不能直接读取 llms.txt。mcpdoc 可以把 llms.txt 接到 IDE 里。

让 JetBrains IDE 也能用上 llms.txt

我平时主要用 JetBrains。它对 MCP 的支持已经有了,但碰到 llms.txt 还是差一截:IDE 不能直接把这类文档索引当成可用的数据源。

mcpdoc 刚好补上这块。它把 llms.txt 包成一个 MCP 服务器,这样 IDE 里的 AI 助手就能按 MCP 的方式去查文档,而不是靠模型自己猜。

它是怎么工作的

llms.txt 本质上是一份给 AI 用的文档索引。问题不在格式本身,而在很多工具链还没把它接进去。

mcpdoc 做的事情很直接:

  • 管理你提供的 llms.txt 列表
  • 暴露 fetch_docs 之类的 MCP 工具来读取对应文档

这样一来,JetBrains IDE 只需要连上这个 MCP 服务,就能访问 llms.txt 里的内容。整个调用链也比较清楚,至少你知道它查了什么、从哪查的。

快速上手

配置不复杂,三步就够。

1. 安装

curl -LsSf https://astral.sh/uv/install.sh | sh

2. 配置 MCP 服务器

在 JetBrains IDE 的 MCP 配置文件里加上:

{
  "mcpServers": {
    "langgraph-docs": {
      "command": "uvx",
      "args": [
        "--from",
        "mcpdoc",
        "mcpdoc",
        "--urls",
        "LangGraph:https://langchain-ai.github.io/langgraph/llms.txt",
        "--transport",
        "stdio"
      ]
    }
  }
}

3. 给 AI 助手加使用规则

比如可以写成:

关于 LangGraph 的问题,必须使用 langgraph-docs 服务器:
- 调用 list_doc_sources 获取可用文档
- 调用 fetch_docs 读取相关内容
- 先看 llms.txt 中列出的 URL
- 再根据问题选择合适的 URL 调用 fetch_docs

实际效果

配好之后,你在 IDE 里问一句“LangGraph 有哪些 memory 类型?”,AI 助手就会先走 MCP 工具,再去拿对应的官方文档内容。

这和直接把问题丢给模型的区别很明显:答案是不是靠谱,至少有迹可循。

安全控制

mcpdoc 对访问范围做了限制。

  • 远程 llms.txt 默认只能访问对应域名下的资源
  • 本地文件如果要放开别的域名,需要显式配置

这不算多高级,但很实用。尤其是把文档能力接进 IDE 之后,边界清楚一点总是更放心。

如果你本来就在 JetBrains 里用 AI 助手,又正好维护了一些 llms.txt 文档入口,那 mcpdoc 基本就是最省事的接法。