개발자를 위한 Model Context Protocol (MCP) 가이드


AI 개발 환경은 독립적인 대화형 모델에서 세상과 상호작용할 수 있는 정교한 에이전트 시스템으로 빠르게 진화하고 있습니다. 이러한 진화의 중요한 병목 현상은 AI가 외부 데이터, 도구 및 서비스에 접근할 수 있는 표준화된 방법이 없다는 것이었습니다. Model Context Protocol (MCP)은 바로 이 문제를 해결하기 위해 설계된 오픈 소스 표준으로, 대규모 언어 모델(LLM)이 복잡한 다단계 작업을 수행하는 데 필요한 컨텍스트에 연결할 수 있는 보편적인 언어를 제공합니다.

개발자에게 MCP는 패러다임의 전환을 의미합니다. 이는 맞춤형, 일회성 통합을 넘어 강력한 AI 애플리케이션을 구축하기 위한 재사용 가능하고 확장 가능하며 안전한 아키텍처로 나아갑니다. 이 가이드는 MCP의 핵심 아키텍처, 고급 개념, 보안 고려 사항, 성능 최적화 및 더 넓은 AI 생태계에서의 위치를 다루는 포괄적인 기술 심층 분석을 제공합니다.

호스트, 클라이언트, 서버가 통신하는 Model Context Protocol의 아키텍처를 보여주는 다이어그램.

MCP란 무엇인가? "AI를 위한 USB-C"

핵심적으로 Model Context Protocol은 AI 애플리케이션이 외부 시스템과 안전하고 안정적으로 통신하는 방법을 정의하는 개방형 표준입니다. 이는 Anthropic이 AI 도구의 파편화를 해결하기 위해 도입했습니다. MCP 이전에는 LLM을 GitHub 리포지토리나 프로젝트 관리 도구와 같은 새로운 데이터 소스에 연결하려면 각 특정 애플리케이션에 대한 맞춤형 커넥터 코드를 작성해야 했습니다. 이 접근 방식은 비효율적이고 안전하지 않으며 확장되지 않습니다.

IDE 세계에서 Language Server Protocol (LSP)의 성공에 영감을 받은 MCP는 통합된 인터페이스를 만듭니다. 개발자는 서비스(예: Jira)를 위한 단일 "MCP 서버"를 구축할 수 있으며, MCP와 호환되는 모든 "호스트"(AI 기반 IDE 또는 채팅 애플리케이션 등)는 즉시 이를 사용할 수 있습니다. 이러한 "한 번 구축하고 어디서나 사용하는" 철학 때문에 종종 "AI를 위한 USB-C"라고 불립니다.

핵심 아키텍처: 호스트, 클라이언트, 서버

MCP를 이해하는 것은 세 가지 주요 구성 요소에서 시작됩니다. 이 프로토콜은 JSON-RPC 2.0 위에 표준화된 메시지 기반 통신 계층을 정의하여 상호 작용이 구조화되고 모호하지 않도록 보장합니다.

  • MCP 호스트: 최종 사용자가 상호 작용하는 기본 AI 애플리케이션입니다. 예로는 Visual Studio Code, Claude for Desktop 또는 맞춤형으로 구축된 AI 에이전트가 있습니다. 호스트의 역할은 사용자 인터페이스를 관리하고, LLM을 실행하며, MCP 클라이언트가 작동할 수 있는 샌드박스 환경을 제공하는 것입니다.
  • MCP 클라이언트: 클라이언트는 호스트 내에 상주하는 커넥터 또는 중개자 역할을 합니다. 하나 이상의 MCP 서버를 검색, 연결 및 통신하는 역할을 담당합니다. 클라이언트는 기능 협상을 처리하고 호스트와 서버 간의 요청 및 응답을 라우팅합니다.
  • MCP 서버: 이것이 프로토콜의 핵심입니다. MCP 서버는 외부 데이터와 기능을 MCP 호스트에 노출하는 독립 실행형 프로세스 또는 서비스입니다. 예를 들어, 이슈 생성을 위한 도구를 노출하는 GitHub MCP 서버, 리소스(파일)를 제공하는 Google Drive 서버 또는 회사의 내부 데이터베이스에 연결하는 맞춤형 서버가 있을 수 있습니다.

이 아키텍처는 명확한 시스템 경계를 만듭니다. 호스트는 서버와 직접 통신하지 않으며, 모든 상호 작용은 보안 및 동의를 위한 게이트키퍼 역할을 할 수 있는 클라이언트를 통해 중개됩니다.

심층 분석: MCP 서버 기능

공식 MCP 사양에 정의된 대로 MCP 서버는 클라이언트에 여러 유형의 기능을 제공할 수 있습니다. 이러한 모듈성을 통해 개발자는 필요한 기능을 정확하게 노출할 수 있습니다.

1. 도구 (Tools)

도구는 AI 모델이 작업을 수행하기 위해 호출할 수 있는 실행 가능한 함수입니다. 이는 에이전트 워크플로를 만드는 가장 강력한 기능입니다. 도구는 이름, 사람이 읽을 수 있는 설명 및 입력 매개변수에 대한 JSON 스키마로 정의됩니다.

  • 작동 방식: 호스트의 LLM은 도구 설명을 사용하여 사용자 요청을 이행하기 위해 어떤 함수를 호출할지 추론합니다. 예를 들어, 사용자가 "로그인 실패에 대한 버그 보고서를 우리 트래커에 생성해 줘"라고 말하면 LLM은 Jira MCP 서버에서 create_issue 도구를 식별하고 필요한 매개변수(title, description)를 추출하여 실행을 요청할 수 있습니다.
  • 보안: 사용자 동의는 핵심 원칙입니다. 호스트는 도구를 실행하기 전에, 특히 쓰기 작업을 수행하거나 민감한 데이터를 처리하는 도구의 경우 명시적인 사용자 승인을 받아야 합니다.

2. 리소스 (Resources)

리소스는 LLM에 제공될 수 있는 파일과 유사한 데이터 또는 컨텍스트를 나타냅니다. 로컬 디스크의 파일 내용, Google Drive의 문서, 데이터베이스 스키마 또는 API 호출의 출력 등 무엇이든 될 수 있습니다.

  • 작동 방식: 리소스를 통해 LLM은 다른 방법으로는 접근할 수 없는 데이터를 "볼" 수 있습니다. 개발자는 file_system MCP 서버를 사용하여 특정 소스 코드 파일의 내용을 모델에 제공하고 코드 리팩토링을 요청할 수 있습니다. 리소스는 컨텍스트로 제공되어 사용자가 수동으로 복사하여 붙여넣을 필요 없이 프롬프트를 풍부하게 합니다.

3. 프롬프트 (Prompts)

프롬프트는 사용자가 슬래시 명령어(예: /generateApiRoute)를 통해 호출할 수 있는 사전 정의되고 재사용 가능한 템플릿입니다. 상호 작용을 위한 구조화된 시작점을 제공하여 일반적인 작업을 간소화합니다.

  • 작동 방식: 서버는 filePath를 매개변수로 받는 performSecurityReview와 같은 프롬프트를 등록할 수 있습니다. 사용자가 이를 호출하면 호스트는 템플릿을 사용하여 사용자의 입력과 사전 정의된 지침을 결합하여 LLM에 상세한 요청을 구성할 수 있습니다.

4. 고급: 샘플링 (Sampling)

샘플링은 MCP 서버가 클라이언트로부터 모델 완성을 요청할 수 있게 하는 고급 기능입니다. 이는 일반적인 흐름을 역전시켜 서버가 자체 내부 로직을 위해 호스트의 LLM을 활용하여 강력하고 협력적인 다중 에이전트 워크플로를 만들 수 있도록 합니다. 예를 들어, 서버는 큰 문서를 가져와 샘플링을 사용하여 LLM에 요약을 요청한 다음 간결한 요약을 최종 결과로 반환할 수 있습니다.

첫 MCP 서버 구축하기: 실제 예제

MCP를 이해하는 가장 좋은 방법은 서버를 구축하는 것입니다. 공식 문서에서는 TypeScript, Python, C#을 포함한 여러 언어용 SDK를 제공합니다. Python SDK를 사용하여 도구를 노출하는 간단한 서버를 구축하는 과정을 간략하게 설명하겠습니다.

공식 퀵스타트 가이드는 날씨 서버를 만드는 과정을 안내하며, 이는 훌륭한 출발점입니다. 핵심 단계는 다음과 같습니다.

  1. 환경 설정: 필요한 SDK를 설치합니다. Python의 경우 일반적으로 패키지 관리자를 통해 수행됩니다.

    bash
    # 공식 문서에서 권장하는 uv 사용 uv pip install "mcp[cli]"
  2. 서버 초기화: SDK에서 서버 클래스를 인스턴스화합니다. Python SDK의 FastMCP 클래스는 타입 힌트와 독스트링을 사용하여 도구 정의를 자동으로 생성합니다.

    python
    from mcp.server.fastmcp import FastMCP # FastMCP 서버 초기화 mcp = FastMCP("my_awesome_server")
  3. 도구 정의: 함수를 만들고 @mcp.tool()로 데코레이트합니다. 함수의 독스트링은 LLM이 도구의 기능을 이해하는 데 사용하는 설명이 되므로 매우 중요합니다. 함수 시그니처와 타입 힌트는 도구의 매개변수를 정의합니다.

    python
    @mcp.tool() async def get_github_issue(repo: str, issue_number: int) -> str: """ GitHub 리포지토리에서 특정 이슈의 세부 정보를 가져옵니다. Args: repo: 'owner/repo' 형식의 리포지토리 이름. issue_number: 가져올 이슈의 번호. """ # GitHub API를 호출하는 로직은 여기에 들어갑니다. # 이 예제에서는 모의 응답을 반환합니다. if repo == "owner/repo" and issue_number == 123: return "이슈 123: 로그인 버튼이 작동하지 않음. 상태: 열림." return f"{repo}에서 이슈 {issue_number}를 찾을 수 없습니다."
  4. 서버 실행: 서버 프로세스를 시작하기 위한 진입점을 추가합니다. MCP 서버는 로컬 실행을 위해 표준 I/O(stdio)를 통해 통신하거나 원격 액세스를 위해 HTTP를 통해 통신할 수 있습니다.

    python
    if __name__ == "__main__": # 표준 입출력을 통해 통신하는 서버 실행 mcp.run(transport='stdio')

이 서버가 실행되면 VS Code나 Claude for Desktop과 같은 MCP 호스트를 구성하여 연결할 수 있습니다. 그런 다음 AI에게 "owner/repo의 이슈 123 상태가 뭐야?"라고 물으면 get_github_issue 도구를 지능적으로 호출하기로 결정할 수 있습니다.

개발자를 위한 중요한 보안 고려 사항

MCP는 안전한 상호 작용을 위한 프레임워크를 제공하지만 구현 책임은 개발자에게 있습니다. 프로토콜 자체가 만병통치약은 아닙니다. 공식 보안 모범 사례에 자세히 설명된 대로 개발자는 몇 가지 주요 위험에 대해 경계해야 합니다.

  • 과도한 권한: 일반적인 실수는 MCP 서버에 백엔드 서비스에 대한 지나치게 광범위한 액세스 권한을 부여하는 것입니다. 판매 데이터를 읽도록 설계된 서버가 전체 기업 데이터 저장소에 대한 쓰기 액세스 권한을 가져서는 안 됩니다. 항상 최소 권한 원칙을 준수하고 서버의 의도된 기능에 필요한 최소한의 권한으로 범위를 지정하십시오.
  • 간접 프롬프트 주입: 공격자는 MCP 서버가 나중에 검색하는 데이터 소스(예: 문서 또는 데이터베이스 항목)를 오염시킬 수 있습니다. 이 데이터에 악의적인 지침이 포함되어 있으면 LLM에 전달되어 의도하지 않은 작업을 실행하게 할 수 있습니다. 입력 살균 및 출력 인코딩은 중요한 완화 제어 수단입니다.
  • 세션 하이재킹: 상태 저장 HTTP 구현에서 공격자는 잠재적으로 세션 ID를 획득하여 합법적인 사용자를 사칭하는 데 사용할 수 있습니다. 사양에서는 서버가 인증에 세션을 사용해서는 안 되며 세션 ID를 보안 토큰에서 파생된 사용자별 정보에 바인딩해야 한다고 규정합니다.
  • 혼동된 대리인 문제(Confused Deputy Problem): 이 고전적인 취약점은 MCP 서버가 다른 서비스에 대한 프록시 역할을 할 때 발생할 수 있습니다. 공격자는 서버를 속여 승격된 권한을 사용하여 무단 작업을 수행하도록 할 수 있습니다. 적절한 유효성 검사 및 사용자 동의 흐름이 필수적입니다.

MCP 서버의 성능 최적화

MCP 서버는 기존 웹 API와는 다른 성능 제약 하에서 작동합니다. 주로 대량의 병렬 요청을 생성할 수 있는 AI 모델을 지원합니다. 이 독특한 프로필에 대한 최적화는 반응성이 뛰어나고 비용 효율적인 애플리케이션을 구축하는 데 중요합니다.

  • 토큰 효율성이 가장 중요합니다: 서버에서 반환되는 모든 문자는 LLM의 소중한 컨텍스트 창을 소비합니다. 불필요한 필드, 긴 설명 및 메타데이터가 포함된 장황한 JSON 응답은 컨텍스트를 빠르게 소진하여 모델의 추론 능력을 저하시킬 수 있습니다.
    • 모범 사례: JSON 페이로드를 필수 요소로 줄이십시오. AI가 현재 작업에 필요한 것만 반환하십시오. 대규모 데이터 세트의 경우 오버헤드를 제거하기 위해 JSON 대신 구조화된 일반 텍스트를 반환하는 것을 고려하십시오.
  • 도구 정의 오버헤드 최소화: 사용 가능한 모든 도구에 대한 정의는 세션 시작 시 모델의 컨텍스트에 로드됩니다. 장황한 설명이 포함된 복잡한 스키마는 사용자가 프롬프트를 입력하기도 전에 수천 개의 토큰을 소비할 수 있습니다.
    • 모범 사례: 간결하지만 명확한 도구 설명을 작성하십시오. 스키마 자체에 긴 설명을 포함하는 대신 외부 문서에 대한 참조를 사용하십시오.
  • 지리적 근접성이 중요합니다: 네트워크 대기 시간은 MCP의 전형적인 대화형, 다중 턴 상호 작용에서 증폭됩니다. AI 제공업체의 인프라에서 지리적으로 멀리 호스팅된 서버는 상당한 지연을 유발합니다.
    • 모범 사례: 대상 AI 모델의 기본 인프라(예: Anthropic의 Claude를 위한 미국 데이터 센터)와 지리적으로 가까운 데이터 센터에서 MCP 서버를 호스팅하십시오.

개발자의 워크플로에 MCP 도구가 어떻게 통합되는지 보여주는 사용 가능한 MCP 도구 목록을 표시하는 코드 편집기 이미지.

에이전트 클라이언트와의 통합: Jenova

서버를 구축하는 것이 전투의 절반이지만, 개발자와 사용자는 이를 소비할 강력한 클라이언트가 필요합니다. **Jenova**는 MCP 생태계를 위해 처음부터 구축된 최초의 AI 에이전트입니다. 원격 MCP 서버에 매우 쉽게 연결하고 대규모로 활용할 수 있는 에이전트 클라이언트 역할을 합니다.

MCP 서버를 구축하는 개발자에게 Jenova는 완벽한 테스트 및 배포 대상을 제공합니다. 최종 사용자에게는 프로토콜의 모든 잠재력을 열어줍니다. Jenova는 몇 가지 주요 영역에서 뛰어납니다.

  • 원활한 서버 통합: Jenova를 원격 MCP 서버에 연결하기만 하면 해당 도구를 복잡한 워크플로에서 즉시 사용할 수 있습니다.
  • 다단계 에이전트 워크플로: Jenova는 높은 수준의 목표를 이해하고 다른 MCP 서버의 도구를 연결하여 다단계 작업을 계획하고 실행할 수 있습니다. 예를 들어, GitHub 서버를 사용하여 새로운 제품 기능을 찾고, 보고 서버를 사용하여 요약을 생성하고, Slack 서버를 사용하여 제품 팀에 메시지를 보낼 수 있습니다.
  • 확장 가능하고 신뢰할 수 있는 도구: 다중 에이전트 아키텍처를 기반으로 구축된 Jenova는 성능 저하 없이 방대한 수의 도구를 지원하도록 설계되었습니다. 이는 Cursor의 50개 도구 제한과 같이 도구 용량에 엄격한 제한이 있는 클라이언트에 비해 상당한 이점을 제공하여 Jenova를 대규모로 안정적으로 도구를 통합할 수 있는 가장 유능한 에이전트로 만듭니다.
  • 다중 모델 인텔리전스: Jenova는 모델에 구애받지 않으며 GPT-4, Claude 3, Gemini와 같은 주요 LLM과 협력하여 사용자가 항상 작업에 대해 최상의 결과를 얻을 수 있도록 보장합니다.
  • 일반인을 위해 설계됨: Jenova는 비기술적인 사용자도 캘린더 초대 보내기나 문서 편집과 같은 작업을 위해 MCP 생태계의 이점을 누릴 수 있도록 구축되었습니다. 또한 모바일(iOS 및 Android)에서 MCP를 완벽하게 지원합니다.

더 넓은 생태계에서의 MCP: vs. A2A 및 프레임워크

MCP는 진공 상태에 존재하지 않습니다. 다른 새로운 표준 및 프레임워크와 어떻게 관련되는지 이해하는 것이 중요합니다.

  • MCP vs. A2A (Agent-to-Agent Protocol): 이 프로토콜들은 경쟁 관계가 아니라 상호 보완적입니다. 이 Logto 블로그 게시물에서 설명했듯이, MCP는 "수직적" 통합(에이전트가 도구에 연결하는 방법)을 처리하는 반면, Google의 A2A 프로토콜은 "수평적" 통합(다른 에이전트가 서로 통신하는 방법)을 처리합니다. 시스템은 에이전트가 작업을 위임하기 위해 A2A를 사용할 수 있으며, 해당 개별 에이전트는 작업을 완료하는 데 필요한 도구에 액세스하기 위해 MCP를 사용합니다.
  • MCP vs. 프레임워크 (LangChain, Semantic Kernel): LangChain 및 Microsoft의 Semantic Kernel과 같은 프레임워크는 에이전트 로직을 구축하기 위한 것입니다. 이를 사용하여 MCP 호스트 또는 클라이언트를 만들 수 있습니다. 이러한 프레임워크는 생태계 내에서 MCP 서버를 도구로 소비하여 프레임워크의 오케스트레이션 능력과 MCP의 표준화된 연결성을 결합할 수 있습니다.

미래는 구성 가능합니다

Model Context Protocol은 또 다른 API 표준 그 이상입니다. 차세대 AI 소프트웨어를 위한 기본 계층입니다. AI 모델을 사용하는 도구와 분리함으로써 MCP는 개발자가 강력한 기능을 구축하고 공유할 수 있는 활기차고 상호 운용 가능한 생태계를 조성합니다. Jenova와 같은 클라이언트 및 서버를 포함한 더 많은 호스트가 프로토콜을 채택함에 따라 진정으로 구성 가능하고 컨텍스트를 인식하는 AI의 비전이 현실에 가까워집니다. 개발자에게는 지금이 이 흥미로운 새로운 개척지에서 구축을 시작할 때입니다.


출처

  1. Model Context Protocol 공식 웹사이트: https://modelcontextprotocol.io/
  2. MCP 보안 모범 사례: https://modelcontextprotocol.io/specification/draft/basic/security_best_practices
  3. Protect AI - MCP Security 101: https://protectai.com/blog/mcp-security-101