日韩欧美人妻无码精品白浆,www.大香蕉久久网,狠狠的日狠狠的操,日本好好热在线观看

LOGO OA教程 ERP教程 模切知識交流 PMS教程 CRM教程 開發(fā)文檔 其他文檔  
 
網(wǎng)站管理員

一文看懂:MCP(大模型上下文協(xié)議)

liguoquan
2025年6月27日 17:50 本文熱度 66
:一文看懂:MCP(大模型上下文協(xié)議)


?

MCP逐漸被接受,是因為MCP是開放標準。在AI項目開發(fā)中可以發(fā)現(xiàn),集成AI模型復雜,現(xiàn)有框架如LangChain Tools、LlamaIndex和Vercel AI SDK存在問題。LangChain和LlamaIndex代碼抽象高,商業(yè)化過重;Vercel AI SDK與Nextjs綁定過深。

MCP的優(yōu)勢:一是開放標準利于服務商開發(fā)API,二是避免重復造輪子,可利用現(xiàn)有MCP服務增強Agent。

本文部分轉自 guangzhengli.com/blog/z

一、什么是MCP(Model Context Protocol)

定義

MCP(Model Context Protocol,模型上下文協(xié)議) ,2024年11月底,由 Anthropic 推出的一種開放標準,旨在統(tǒng)一大模型與外部數(shù)據(jù)源和工具之間的通信協(xié)議。MCP 的主要目的在于解決當前 AI 模型因數(shù)據(jù)孤島限制而無法充分發(fā)揮潛力的難題,MCP 使得 AI 應用能夠安全地訪問和操作本地及遠程數(shù)據(jù),為 AI 應用提供了連接萬物的接口。

Function Calling是AI模型調(diào)用函數(shù)的機制,MCP是一個標準協(xié)議,使大模型與API無縫交互,而AI Agent是一個自主運行的智能系統(tǒng),利用Function Calling和MCP來分析和執(zhí)行任務,實現(xiàn)特定目標。

MCP 的價值

舉個栗子,在過去,為了讓大模型等 AI 應用使用數(shù)據(jù),要么復制粘貼,要么上傳知識庫,非常局限。

即使是最強大模型也會受到數(shù)據(jù)隔離的限制,形成信息孤島,要做出更強的大模型,每個新數(shù)據(jù)源都需要自己重新定制實現(xiàn),使真正互聯(lián)的系統(tǒng)難以擴展,存在很多的局限性。

現(xiàn)在,MCP 可以直接在 AI 與數(shù)據(jù)(包括本地數(shù)據(jù)和互聯(lián)網(wǎng)數(shù)據(jù))之間架起一座橋梁,通過 MCP 服務器和 MCP 客戶端,大家只要都遵循這套協(xié)議,就能實現(xiàn)“萬物互聯(lián)”。

有了MCP,可以和數(shù)據(jù)和文件系統(tǒng)、開發(fā)工具、Web 和瀏覽器自動化、生產(chǎn)力和通信、各種社區(qū)生態(tài)能力全部集成,實現(xiàn)強大的協(xié)作工作能力,它的價值遠不可估量。




MCP 與 Function Calling 的區(qū)別

  • MCP(Model Context Protocol),模型上下文協(xié)議

  • Function Calling,函數(shù)調(diào)用

這兩種技術都旨在增強 AI 模型與外部數(shù)據(jù)的交互能力,但 MCP 不止可以增強 AI 模型,還可以是其他的應用系統(tǒng)。



數(shù)據(jù)安全性

這樣一個理想的“萬物互聯(lián)”生態(tài)系統(tǒng)看著很讓人著迷。

但是大家是不是擔心通過 MCP Server 暴露出來的數(shù)據(jù)會泄露或被非法訪問,這個頭疼的問題 MCP 也考慮到了。

MCP 通過標準化的數(shù)據(jù)訪問接口,大大減少了直接接觸敏感數(shù)據(jù)的環(huán)節(jié),降低了數(shù)據(jù)泄露的風險。

還有,MCP 內(nèi)置了安全機制,確保只有經(jīng)過驗證的請求才能訪問特定資源,相當于在數(shù)據(jù)安全又加上了一道防線。同時,MCP協(xié)議還支持多種加密算法,以確保數(shù)據(jù)在傳輸過程中的安全性。

例如,MCP 服務器自己控制資源,不需要將 API 密鑰等敏感信息提供給 LLM 提供商。這樣一來,即使 LLM 提供商受到攻擊,攻擊者也無法獲取到這些敏感信息。

不過,MCP 這套協(xié)議/標準,需要大家一起來共建,這個生態(tài)才會繁榮,現(xiàn)在,只是測試階段,一切才剛剛開始,當然,還會涌現(xiàn)出更多的問題。

工作原理

MCP 協(xié)議采用了一種獨特的架構設計,它將 LLM 與資源之間的通信劃分為三個主要部分:客戶端、服務器和資源。

客戶端負責發(fā)送請求給 MCP 服務器,服務器則將這些請求轉發(fā)給相應的資源。這種分層的設計使得 MCP 協(xié)議能夠更好地控制訪問權限,確保只有經(jīng)過授權的用戶才能訪問特定的資源。

以下是 MCP 的基本工作流程:

  • 初始化連接:客戶端向服務器發(fā)送連接請求,建立通信通道。

  • 發(fā)送請求:客戶端根據(jù)需求構建請求消息,并發(fā)送給服務器。

  • 處理請求:服務器接收到請求后,解析請求內(nèi)容,執(zhí)行相應的操作(如查詢數(shù)據(jù)庫、讀取文件等)。

  • 返回結果:服務器將處理結果封裝成響應消息,發(fā)送回客戶端。

  • 斷開連接:任務完成后,客戶端可以主動關閉連接或等待服務器超時關閉。



MCP 核心架構

MCP 遵循客戶端-服務器架構(client-server),其中包含以下幾個核心概念:

  • MCP 主機(MCP Hosts):發(fā)起請求的 LLM 應用程序(例如 Claude Desktop、IDE 或 AI 工具)。

  • MCP 客戶端(MCP Clients):在主機程序內(nèi)部,與 MCP server 保持 1:1 的連接。

  • MCP 服務器(MCP Servers):為 MCP client 提供上下文、工具和 prompt 信息。

  • 本地資源(Local Resources):本地計算機中可供 MCP server 安全訪問的資源(例如文件、數(shù)據(jù)庫)。

  • 遠程資源(Remote Resources):MCP server 可以連接到的遠程資源(例如通過 API)。



MCP Client

MCP client 充當 LLM 和 MCP server 之間的橋梁,MCP client 的工作流程如下:

  • MCP client 首先從 MCP server 獲取可用的工具列表。

  • 將用戶的查詢連同工具描述通過 function calling 一起發(fā)送給 LLM。

  • LLM 決定是否需要使用工具以及使用哪些工具。

  • 如果需要使用工具,MCP client 會通過 MCP server 執(zhí)行相應的工具調(diào)用。

  • 工具調(diào)用的結果會被發(fā)送回 LLM。

  • LLM 基于所有信息生成自然語言響應。

  • 最后將響應展示給用戶。

Claude Desktop 和Cursor都支持了MCP Server接入能力,它們就是作為 MCP client來連接某個MCP Server感知和實現(xiàn)調(diào)用。


MCP Server

MCP server 是 MCP 架構中的關鍵組件,它可以提供 3 種主要類型的功能:

  • 資源(Resources):類似文件的數(shù)據(jù),可以被客戶端讀取,如 API 響應或文件內(nèi)容。

  • 工具(Tools):可以被 LLM 調(diào)用的函數(shù)(需要用戶批準)。

  • 提示(Prompts):預先編寫的模板,幫助用戶完成特定任務。

這些功能使 MCP server 能夠為 AI 應用提供豐富的上下文信息和操作能力,從而增強 LLM 的實用性和靈活性。

你可以在 MCP Servers Repository 和 Awesome MCP Servers 這兩個 repo 中找到許多由社區(qū)實現(xiàn)的 MCP server。使用 TypeScript 編寫的 MCP server 可以通過 npx 命令來運行,使用 Python 編寫的 MCP server 可以通過 uvx 命令來運行。


通信機制

MCP 協(xié)議支持兩種主要的通信機制:基于標準輸入輸出的本地通信和基于SSEServer-Sent Events)的遠程通信。

這兩種機制都使用 JSON-RPC 2.0 格式進行消息傳輸,確保了通信的標準化和可擴展性。

  • 本地通信通過 stdio 傳輸數(shù)據(jù),適用于在同一臺機器上運行的客戶端和服務器之間的通信。

  • 遠程通信利用 SSE 與 HTTP 結合,實現(xiàn)跨網(wǎng)絡的實時數(shù)據(jù)傳輸,適用于需要訪問遠程資源或分布式部署的場景。

二、MCP的功能與應用:

如何使用 MCP

如果你還沒有嘗試過如何使用 MCP 的話,我們可以考慮用 Cursor(本人只嘗試過 Cursor),Claude Desktop 或者 Cline 來體驗一下。

當然,我們并不需要自己開發(fā) MCP Servers,MCP 的好處就是通用、標準,所以開發(fā)者并不需要重復造輪子(但是學習可以重復造輪子)。

首先推薦的是官方組織的一些 Server:官方的 MCP Server 列表。

目前社區(qū)的 MCP Server 還是比較混亂,有很多缺少教程和文檔,很多的代碼功能也有問題,我們可以自行嘗試一下 Cursor Directory 的一些例子,具體的配置和實戰(zhàn)筆者就不細講了,大家可以參考官方文檔。

MCP的功能

MCP通過引入多樣化的MCP Server能力,顯著增強了AI工具的功能,例如我們常用的Cursor和Claude。以下是一些官方參考服務器,展示了MCP的核心功能和SDK的應用:

數(shù)據(jù)與文件系統(tǒng):

文件系統(tǒng):提供安全文件操作,帶可配置的訪問控制。

PostgreSQL:提供只讀數(shù)據(jù)庫訪問,具備架構檢查功能。

SQLite:支持數(shù)據(jù)庫交互和商業(yè)智能功能。

Google Drive:實現(xiàn)Google Drive的文件訪問和搜索功能。

開發(fā)工具:

Git:工具用于讀取、搜索和操作Git倉庫。

GitHub:集成倉庫管理、文件操作和GitHub API。

GitLab:支持項目管理的GitLab API集成。

Sentry:從Sentry.io獲取并分析問題。

網(wǎng)絡與瀏覽器自動化:

Brave Search:利用Brave的搜索API進行網(wǎng)絡和本地搜索。

Fetch:為LLM優(yōu)化的網(wǎng)絡內(nèi)容獲取和轉換。

Puppeteer:提供瀏覽器自動化和網(wǎng)頁抓取功能。

生產(chǎn)力和通信:

Slack:支持頻道管理和消息功能。

Google Maps:提供位置服務、路線和地點詳情。

Memory:基于知識圖譜的持久記憶系統(tǒng)。

AI與專業(yè)工具:

EverArt:使用多種模型進行AI圖像生成。

Sequential Thinking:通過思維序列進行動態(tài)問題解決。

AWS KB Retrieval:使用Bedrock Agent Runtime從AWS知識庫檢索。

官方集成工具:

這些MCP服務器由公司維護,用于其平臺:

Axiom:使用自然語言查詢和分析日志、跟蹤和事件數(shù)據(jù)。

Browserbase:云端自動化瀏覽器交互。

Cloudflare:在Cloudflare開發(fā)者平臺上部署和管理資源。

E2B:在安全的云沙箱中執(zhí)行代碼。

Neon:與Neon無服務器Postgres平臺交互。

Obsidian Markdown Notes:讀取和搜索Obsidian知識庫中的Markdown筆記。

Qdrant:使用Qdrant向量搜索引擎實現(xiàn)語義記憶。

Raygun:訪問崩潰報告和監(jiān)控數(shù)據(jù)。

Search1API:統(tǒng)一的API用于搜索、爬蟲和網(wǎng)站地圖。

Tinybird:與Tinybird無服務器ClickHouse平臺交互。

集成工具:

Docker:管理容器、鏡像、卷和網(wǎng)絡。

Kubernetes:管理pod、部署和服務。

Linear:項目管理和問題跟蹤。

Snowflake:與Snowflake數(shù)據(jù)庫交互。

Spotify:控制Spotify播放和管理播放列表。

Todoist:任務管理集成。


三、怎么使用和開發(fā)MCP Server

使用

目前支持的部分工具列表(更多見這里):


客戶端資源提示工具采樣根目錄備注
Claude 桌面應用?????所有MCP 功能
Zed?????提示以斜杠命令形式出現(xiàn)
Sourcegraph Cody?????通過OpenCTX 支持資源
Firebase Genkit??????支持資源列表和查找
Continue?????支持所有MCP功能
GenAIScript?????支持工具
Cursor?????支持工具


Claude Desktop 使用示例

以 Claude Desktop 為例,配置 MCP 客戶端的步驟如下:

  1. 安裝 Claude Desktop: 確保已在 macOS 或 Windows 系統(tǒng)上安裝最新版本的 Claude Desktop。

  2. 配置 MCP 服務器: 在 Claude Desktop 的配置文件中,配置入口Claude Desktop—>菜單—>Settings—>Developer—>Edit Config:


添加所需的 MCP 服務器信息,例如:

{
  "mcpServers": {
    "filesystem": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-filesystem", "/path/to/allowed/files"]
    },
    "git": {
      "command": "uvx",
      "args": ["mcp-server-git", "--repository", "path/to/git/repo"]
    }
  }
}

這里的@modelcontextprotocol/server-filesystem、mcp-server-git是對應的一些MCP Server,可以是開源找來的,也可以是你自己開發(fā)的。

配置完后,在主界面對話題右下角就有個錘子出現(xiàn)了,有幾個錘子就是配置幾個,然后對話中如果涉及使用該工具的,claude就會自動調(diào)用




Cursor中 使用示例

Cursor工具中集成mcp server功能對開發(fā)增加效率非常明顯,配置入口在:文件—>首選項—>Cursor Settings—>Features—>MCP Server—>Add new MCP Server



配置完后,你需要畫圖的地方給它提要求就行了,它會自動感知,按上下文生成prompt并調(diào)用工具生成圖片:



生成的圖片質(zhì)量還不錯,符合開發(fā)需要的圖片



MCP 如何工作

那我們來介紹一下 MCP 的工作原理。首先我們看一下官方的 MCP 架構圖。



總共分為了下面五個部分:

  • MCP Hosts: Hosts 是指 LLM 啟動連接的應用程序,像 Cursor, Claude Desktop、Cline 這樣的應用程序。

  • MCP Clients: 客戶端是用來在 Hosts 應用程序內(nèi)維護與 Server 之間 1:1 連接。

  • MCP Servers: 通過標準化的協(xié)議,為 Client 端提供上下文、工具和提示。

  • Local Data Sources: 本地的文件、數(shù)據(jù)庫和 API。

  • Remote Services: 外部的文件、數(shù)據(jù)庫和 API。

整個 MCP 協(xié)議核心的在于 Server,因為 Host 和 Client 相信熟悉計算機網(wǎng)絡的都不會陌生,非常好理解,但是 Server 如何理解呢?

看看 Cursor 的 AI Agent 發(fā)展過程,我們會發(fā)現(xiàn)整個 AI 自動化的過程發(fā)展會是從 Chat 到 Composer 再進化到完整的 AI Agent。

AI Chat 只是提供建議,如何將 AI 的 response 轉化為行為和最終的結果,全部依靠人類,例如手動復制粘貼,或者進行某些修改。

AI Composer 是可以自動修改代碼,但是需要人類參與和確認,并且無法做到除了修改代碼之外的其它操作。

AI Agent 是一個完全的自動化程序,未來完全可以做到自動讀取 Figma 的圖片,自動生產(chǎn)代碼,自動讀取日志,自動調(diào)試代碼,自動 push 代碼到 GitHub。

而 MCP Server 就是為了實現(xiàn) AI Agent 的自動化而存在的,它是一個中間層,告訴 AI Agent 目前存在哪些服務,哪些 API,哪些數(shù)據(jù)源,AI Agent 可以根據(jù) Server 提供的信息來決定是否調(diào)用某個服務,然后通過 Function Calling 來執(zhí)行函數(shù)。

MCP Server 的工作原理

我們先來看一個簡單的例子,假設我們想讓 AI Agent 完成自動搜索 GitHub Repository,接著搜索 Issue,然后再判斷是否是一個已知的 bug,最后決定是否需要提交一個新的 Issue 的功能。

那么我們就需要創(chuàng)建一個 Github MCP Server,這個 Server 需要提供查找 Repository、搜索 Issues 和創(chuàng)建 Issue 三種能力。

我們直接來看看代碼:

const server = new Server(
  {
    name: "github-mcp-server",
    version: VERSION,
  },
  {
    capabilities: {
      tools: {},
    },
  }
);
server.setRequestHandler(ListToolsRequestSchema, async () => {
  return {
    tools: [
      {
        name: "search_repositories",
        description: "Search for GitHub repositories",
        inputSchema: zodToJsonSchema(repository.SearchRepositoriesSchema),
      },
      {
        name: "create_issue",
        description: "Create a new issue in a GitHub repository",
        inputSchema: zodToJsonSchema(issues.CreateIssueSchema),
      },
      {
        name: "search_issues",
        description: "Search for issues and pull requests across GitHub repositories",
        inputSchema: zodToJsonSchema(search.SearchIssuesSchema),
      }
    ],
  };
});
server.setRequestHandler(CallToolRequestSchema, async (request) => {
  try {
    if (!request.params.arguments) {
      throw new Error("Arguments are required");
    }
    switch (request.params.name) {
      case "search_repositories": {
        const args = repository.SearchRepositoriesSchema.parse(request.params.arguments);
        const results = await repository.searchRepositories(
          args.query,
          args.page,
          args.perPage
        );
        return {
          content: [{ type: "text", text: JSON.stringify(results, null, 2) }],
        };
      }
      case "create_issue": {
        const args = issues.CreateIssueSchema.parse(request.params.arguments);
        const { owner, repo, ...options } = args;
        const issue = await issues.createIssue(owner, repo, options);
        return {
          content: [{ type: "text", text: JSON.stringify(issue, null, 2) }],
        };
      }
      case "search_issues": {
        const args = search.SearchIssuesSchema.parse(request.params.arguments);
        const results = await search.searchIssues(args);
        return {
          content: [{ type: "text", text: JSON.stringify(results, null, 2) }],
        };
      }
      default:
        throw new Error(`Unknown tool: ${request.params.name}`);
    }
  } catch (error) {}
});
async function runServer() {
  const transport = new StdioServerTransport();
  await server.connect(transport);
  console.error("GitHub MCP Server running on stdio");
}
runServer().catch((error) => {
  console.error("Fatal error in main():", error);
  process.exit(1);
});

上面的代碼中,我們通過 server.setRequestHandler 來告訴 Client 端我們提供了哪些能力,通過 description 字段來描述這個能力的作用,通過 inputSchema 來描述完成這個能力需要的輸入?yún)?shù)。

我們再來看看具體的實現(xiàn)代碼:

export const SearchOptions = z.object({
  q: z.string(),
  order: z.enum(["asc", "desc"]).optional(),
  page: z.number().min(1).optional(),
  per_page: z.number().min(1).max(100).optional(),
});
export const SearchIssuesOptions = SearchOptions.extend({
  sort: z.enum([
    "comments",
    ...
  ]).optional(),
});
export async function searchUsers(params: z.infer<typeof SearchUsersSchema>) {
  return githubRequest(buildUrl("https://api.github.com/search/users", params));
}
export const SearchRepositoriesSchema = z.object({
  query: z.string().describe("Search query (see GitHub search syntax)"),
  page: z.number().optional().describe("Page number for pagination (default: 1)"),
  perPage: z.number().optional().describe("Number of results per page (default: 30, max: 100)"),
});
export async function searchRepositories(
  query: string,
  page: number = 1,
  perPage: number = 30
) {
  const url = new URL("https://api.github.com/search/repositories");
  url.searchParams.append("q", query);
  url.searchParams.append("page", page.toString());
  url.searchParams.append("per_page", perPage.toString());
  const response = await githubRequest(url.toString());
  return GitHubSearchResponseSchema.parse(response);
}

可以很清晰的看到,我們最終實現(xiàn)是通過了 https://api.github.com 的 API 來實現(xiàn)和 Github 交互的,我們通過 githubRequest 函數(shù)來調(diào)用 GitHub 的 API,最后返回結果。

在調(diào)用 Github 官方的 API 之前,MCP 的主要工作是描述 Server 提供了哪些能力(給 LLM 提供),需要哪些參數(shù)(參數(shù)具體的功能是什么),最后返回的結果是什么。

所以 MCP Server 并不是一個新穎的、高深的東西,它只是一個具有共識的協(xié)議。

如果我們想要實現(xiàn)一個更強大的 AI Agent,例如我們想讓 AI Agent 自動的根據(jù)本地錯誤日志,自動搜索相關的 GitHub Repository,然后搜索 Issue,最后將結果發(fā)送到 Slack。

那么我們可能需要創(chuàng)建三個不同的 MCP Server,一個是 Local Log Server,用來查詢本地日志;一個是 GitHub Server,用來搜索 Issue;還有一個是 Slack Server,用來發(fā)送消息。

AI Agent 在用戶輸入 我需要查詢本地錯誤日志,將相關的 Issue 發(fā)送到 Slack 指令后,自行判斷需要調(diào)用哪些 MCP Server,并決定調(diào)用順序,最終根據(jù)不同 MCP Server 的返回結果來決定是否需要調(diào)用下一個 Server,以此來完成整個任務。

參考資源

下面是個人推薦的一些 MCP 的資源,大家可以參考一下。

MCP 官方資源

社區(qū)的 MCP Server 的列表


該文章在 2025/6/27 17:50:40 編輯過
關鍵字查詢
相關文章
正在查詢...
點晴ERP是一款針對中小制造業(yè)的專業(yè)生產(chǎn)管理軟件系統(tǒng),系統(tǒng)成熟度和易用性得到了國內(nèi)大量中小企業(yè)的青睞。
點晴PMS碼頭管理系統(tǒng)主要針對港口碼頭集裝箱與散貨日常運作、調(diào)度、堆場、車隊、財務費用、相關報表等業(yè)務管理,結合碼頭的業(yè)務特點,圍繞調(diào)度、堆場作業(yè)而開發(fā)的。集技術的先進性、管理的有效性于一體,是物流碼頭及其他港口類企業(yè)的高效ERP管理信息系統(tǒng)。
點晴WMS倉儲管理系統(tǒng)提供了貨物產(chǎn)品管理,銷售管理,采購管理,倉儲管理,倉庫管理,保質(zhì)期管理,貨位管理,庫位管理,生產(chǎn)管理,WMS管理系統(tǒng),標簽打印,條形碼,二維碼管理,批號管理軟件。
點晴免費OA是一款軟件和通用服務都免費,不限功能、不限時間、不限用戶的免費OA協(xié)同辦公管理系統(tǒng)。
Copyright 2010-2025 ClickSun All Rights Reserved

国产日韩欧美高清一级成人精品| 日韩一区。com| 国产一区二区三区打屁股高潮| 综合国产在线淑女| 无码人妻激情一区二区| 国产freesex麻豆人又粗又大| a片网站有吗乱伦| 02精品一区二区| 韩无码一区二区三区四区| 尤物网站视频在线| 美女视频C区| 国产高清四区| 成人综合伦理网| 日韩精品级品视频在线观看草| 欧美日本精彩一区二区| 亚洲女同啪啪啪一区二区| 黄平县| 欧美成人第一页码| 韩国一级片久久久久久久久| 无码日韩91久久| 欧美亚洲日韩一本| 91人妻免费视频| 精品一区二区三区四s| 亚洲重口味插女人逼洞视频播放| 超碰综合成人在线| 一区二区无限免费啪啪啪| 法国成人综合综合在线| 无码视频一区二区豆花| 激情婷婷色网| 大香蕉aV高清在线| 夜夜 3p 日韩 17c| 加勒比色综合久久久竹菊视频| 亚洲无吗兔费| 欧美亚洲一区二区视频胖女孩| 伊人久久成人大香蕉| 免费中文日韩欧美| 激情欧美69| 高潮喷水无码| 亚州青青草| 亚洲日韩欧美高清一区| 人妻一区日韩|