다음을 통해 공유


패브릭 RTI MCP 서버(미리 보기)란?

MCP(모델 컨텍스트 프로토콜)를 RTI(Real-Time Intelligence)와 통합하면 AI 기반 인사이트 및 작업을 실시간으로 얻을 수 있습니다. MCP 서버를 사용하면 AI 에이전트 또는 AI 애플리케이션이 MCP 인터페이스를 통해 도구를 제공하여 패브릭 RTI 또는 ADX(Azure Data Explorer)와 상호 작용하여 데이터를 쉽게 쿼리하고 분석할 수 있습니다.

RTI 및 ADX에 대한 MCP 지원은 Microsoft Fabric RTI(Real-Time Intelligence)에 대한 전체 오픈 소스 MCP 서버 구현입니다.

중요합니다

이 기능은 프리뷰 상태입니다.

MCP(모델 컨텍스트 프로토콜) 소개

MCP(모델 컨텍스트 프로토콜)는 Azure OpenAI 모델과 같은 AI 모델이 외부 도구 및 리소스와 상호 작용할 수 있도록 하는 프로토콜입니다. MCP를 사용하면 에이전트가 엔터프라이즈 데이터를 더 쉽게 찾고, 연결하고, 사용할 수 있습니다.

시나리오

RTI MCP 서버를 사용하는 가장 일반적인 시나리오는 Cline, Claude 및 GitHub Copilot과 같은 기존 AI 클라이언트에서 연결하는 것입니다. 그런 다음 클라이언트는 사용 가능한 모든 도구를 사용하여 자연어를 사용하여 RTI 또는 ADX 리소스에 액세스하고 상호 작용할 수 있습니다. 예를 들어 RTI MCP 서버와 함께 GitHub Copilot 에이전트 모드를 사용하여 KQL 데이터베이스 또는 ADX 클러스터를 나열하거나 RTI Eventhouses에서 자연어 쿼리를 실행할 수 있습니다.

건축학

RTI MCP 서버는 시스템의 핵심이며 AI 에이전트와 데이터 원본 간의 브리지 역할을 합니다. 에이전트는 MCP 서버에 요청을 전송하여 Eventhouse 쿼리로 변환합니다.

MCP 아키텍처를 보여 주는 다이어그램

이 아키텍처를 사용하면 실시간 신호에 응답하는 모듈식, 확장성 및 보안 지능형 애플리케이션을 빌드할 수 있습니다. MCP는 클라이언트-서버 아키텍처를 사용하므로 AI 애플리케이션이 외부 도구와 효율적으로 상호 작용할 수 있습니다. 아키텍처에는 다음 구성 요소가 포함됩니다.

  • MCP 호스트: AI 모델(예: GPT-4, Claude 또는 Gemini)이 실행되는 환경입니다.
  • MCP 클라이언트: 중간 서비스는 GItHub Copilot, Cline 또는 Claude Desktop과 같은 MCP 서버에 AI 모델의 요청을 전달합니다.
  • MCP 서버: 자연어 API, 데이터베이스에 의해 특정 기능을 노출하는 간단한 애플리케이션입니다. 예를 들어 Fabric RTI MCP 서버는 KQL 데이터베이스에서 실시간 데이터 검색을 위해 KQL 쿼리를 실행할 수 있습니다.

주요 기능

Real-Time 데이터 액세스: KQL 데이터베이스에서 몇 초 만에 데이터를 검색합니다.

자연어 인터페이스: 일반 영어 또는 다른 언어로 질문을 하고 시스템은 이를 최적화된 쿼리(NL2KQL)로 바꿉니다.

스키마 검색: 스키마 및 메타데이터를 검색하여 데이터 구조를 동적으로 학습할 수 있습니다.

플러그 앤 플레이 통합: 표준화된 API 및 검색 메커니즘으로 인해 최소한의 설정으로 GitHub Copilot, Claude 및 Cline과 같은 MCP 클라이언트를 RTI에 연결합니다.

로컬 언어 유추: 원하는 언어로 데이터를 사용합니다.

지원되는 RTI 구성 요소

Eventhouse - Eventhouse 백 엔드의 KQL 데이터베이스에 대해 KQL 쿼리를 실행합니다. 이 통합 인터페이스를 사용하면 AI 에이전트가 실시간 데이터를 쿼리, 이유 및 작업할 수 있습니다.

비고

패브릭 RTI MCP 서버를 사용하여 Azure Data Explorer 백 엔드의 클러스터에 대해 KQL 쿼리를 실행할 수도 있습니다.