이 저장소는 대규모 언어 모델(LLM)이 Azure AI Foundry, Cosmos DB 및 Data Explorer를 포함한 Microsoft Azure의 도구 및 데이터 소스에 안전하게 액세스하고 상호 작용할 수 있도록 설계된 다양한 모델 컨텍스트 프로토콜(MCP) 서버를 보여줍니다. 데이터의 효율적이고 안전한 활용을 촉진합니다.
이 저장소는 대규모 언어 모델(LLM)이 Azure AI Foundry, Cosmos DB 및 Data Explorer를 포함한 Microsoft Azure의 도구 및 데이터 소스에 안전하게 액세스하고 상호 작용할 수 있도록 설계된 다양한 모델 컨텍스트 프로토콜(MCP) 서버를 보여줍니다. 데이터의 효율적이고 안전한 활용을 촉진합니다.
Azure 커뮤니티 MCP 서버는 LLM이 Azure 기반 도구 및 데이터베이스에 안전하게 연결할 수 있도록 표준화된 MCP 구현을 제공합니다. 이 서버는 Azure Cosmos DB 쿼리, Azure Data Explorer 분석 및 Azure AI Foundry와의 통합과 같은 기능을 지원하여 실시간 데이터 액세스를 통해 AI 기능을 향상시킵니다. 개발자와 AI 엔지니어는 안전하고 확장 가능하며 효율적인 LLM 통합을 배포하고 데이터 작업을 최적화하며 데이터 분석, AI 에이전트 개발 및 기업 데이터 관리를 위한 다양한 Azure의 AI 서비스를 활용할 수 있습니다.
Azure Community MCP Servers을 사용할 사람은?
AI 개발자
데이터 엔지니어
Azure 클라우드 아키텍트
연구 과학자
AI 애플리케이션 통합자
Azure Community MCP Servers 사용 방법은?
1단계: GitHub에서 리포지토리를 클론합니다.
2단계: Cosmos DB 또는 Data Explorer와 같이 사용 사례와 관련된 특정 MCP 서버를 선택합니다.
3단계: Azure 환경에서 MCP 서버를 배포하기 위한 설정 지침을 따릅니다.
4단계: 제공된 API 또는 엔드포인트를 사용하여 LLM 또는 AI 애플리케이션을 MCP 서버에 연결하도록 구성합니다.
5단계: MCP 서버를 통해 Azure 데이터 소스에 안전하게 쿼리하거나 상호 작용을 시작합니다.