다음을 통해 공유


GitHub 모델에서 Azure AI 파운드리 모델로 업그레이드

이 문서에서는 GitHub 모델에서 시작하여 생성 AI 애플리케이션을 개발한 다음, Azure AI Foundry 모델을 사용하여 Azure AI Services 리소스를 배포하여 환경을 업그레이드하는 방법을 알아봅니다.

GitHub 모델은 생성 AI 애플리케이션을 개발할 때 무료로 AI 모델을 찾아 실험하려는 경우에 유용합니다. 애플리케이션을 프로덕션으로 전환할 준비가 되면 Azure 구독에 Azure AI Services 리소스를 배포하여 환경을 업그레이드하고 Foundry 모델 사용을 시작합니다. 코드에서 다른 항목은 변경할 필요가 없습니다.

GitHub 모델의 플레이그라운드 및 무료 API 사용량은 분당 요청, 일별 요청, 요청당 토큰 및 동시 요청에 의해 제한 됩니다. 속도가 제한되는 경우 더 많은 요청을 하기 전에 적중한 속도 제한이 재설정될 때까지 기다려야 합니다.

필수 조건

이 자습서를 완료하려면 다음이 필요합니다.

Azure AI Foundry 모델로 업그레이드

플레이그라운드 및 무료 API 사용량에 대한 속도 제한은 모델을 실험하고 AI 애플리케이션을 개발하는 데 도움이 됩니다. 애플리케이션을 프로덕션으로 가져올 준비가 되면 유료 Azure 계정의 키와 엔드포인트를 사용합니다. 코드에서 다른 항목은 변경할 필요가 없습니다.

키 및 엔드포인트를 얻으려면 다음을 수행합니다.

  1. GitHub 모델로 이동하여 해당 플레이그라운드에 착륙할 모델을 선택합니다. 이 문서에서는 Mistral Large 24.11을 사용합니다.

  2. 일부 프롬프트를 입력하거나 제안된 프롬프트 중 일부를 사용하여 플레이그라운드의 모델과 상호 작용합니다.

  3. 플레이그라운드에서 이 모델을 사용을 선택하세요. 이 작업을 수행하면 "코드베이스에서 모델 시작" 창이 열립니다.

  4. "인증 구성" 단계의 " Azure AI" 섹션에서 Azure AI 키 가져오기 를 선택합니다.

    GitHub 모델의 플레이그라운드에서 Azure AI 프로덕션 키를 가져오는 방법을 보여 주는 스크린샷.

  5. Azure 계정에 이미 로그인한 경우 이 단계를 건너뜁니다. 그러나 Azure 계정이 없거나 계정에 로그인하지 않은 경우 다음 단계를 수행합니다.

    1. Azure 계정이 없는 경우 내 계정 만들기 를 선택하고 단계에 따라 계정을 만듭니다.

    2. 또는 Azure 계정이 있는 경우 다시 로그인을 선택합니다. 기존 계정이 무료 계정인 경우 먼저 표준 플랜으로 업그레이드해야 합니다.

    3. 모델의 플레이그라운드로 돌아가 서 Azure AI 키 가져오기 를 다시 선택합니다.

    4. Azure 계정에 로그인합니다.

  6. Azure AI Foundry > GitHub로 이동하면, 페이지가 로드되어 모델의 세부 정보가 표시됩니다. Azure AI Foundry에서 모델 세부 정보를 로드하는 데 1~2분 정도 걸릴 수 있습니다.

  7. 파트너 및 커뮤니티의 Foundry 모델의 경우 Azure Marketplace를 구독해야 합니다. 예를 들어 이 요구 사항은 Mistral-Large-2411에 적용됩니다. 동의를 선택하고 계속하여 약관에 동의합니다.

  8. 배포 단추를 선택하여 계정에 모델을 배포합니다.

  9. 배포가 준비되면 프로젝트의 개요 페이지로 이동하여 Azure AI Foundry 프로젝트의 엔드포인트를 볼 수 있습니다.

  10. 특정 모델의 엔드포인트 URL 및 API 키를 가져오려면 Azure AI Foundry 포털의 왼쪽 창에 있는 모델 + 엔드포인트 탭으로 이동하여 배포된 모델을 선택합니다. 엔드포인트의 대상 URI 및 API 키는 배포의 세부 정보 페이지에 표시됩니다. 코드에서 이러한 값을 사용하여 프로덕션 환경에서 모델을 사용합니다.

    배포와 연결된 URL 및 키를 가져오는 방법을 보여 주는 스크린샷

새 엔드포인트 사용

배포된 모델을 코드와 함께 사용하려면 이전 섹션에서 본 모델의 엔드포인트 URL 및 키가 필요합니다. 지원되는 SDK를 사용하여 엔드포인트에서 예측을 가져올 수 있습니다. 공식적으로 지원되는 SDK는 다음과 같습니다.

  • OpenAI SDK
  • Azure OpenAI SDK
  • Azure AI 유추 SDK

자세한 내용 및 예제는 지원되는 언어 및 SDK를 참조하세요. 다음 예제에서는 새로 배포된 모델에서 Azure AI 유추 SDK를 사용하는 방법을 보여줍니다.

pip와 같은 패키지 관리 시스템을 사용하여 azure-ai-inference 패키지를 설치합니다.

pip install azure-ai-inference

그런 다음 패키지를 사용하여 모델을 활용할 수 있습니다. 다음 예는 채팅 완성을 활용하는 클라이언트를 생성하는 방법을 보여 줍니다.

import os
from azure.ai.inference import ChatCompletionsClient
from azure.core.credentials import AzureKeyCredential

client = ChatCompletionsClient(
    endpoint="https://<resource>.services.ai.azure.com/models",
    credential=AzureKeyCredential(os.environ["AZURE_INFERENCE_CREDENTIAL"]),
)

시작하려면 샘플을 살펴보고 API 참조 설명서를 참조하세요.

첫 번째 채팅 완료를 만들어보세요.

from azure.ai.inference.models import SystemMessage, UserMessage

response = client.complete(
    messages=[
        SystemMessage(content="You are a helpful assistant."),
        UserMessage(content="Explain Riemann's conjecture in 1 paragraph"),
    ],
    model="mistral-large"
)

print(response.choices[0].message.content)

매개 변수 model="<deployment-name> 를 사용하여 요청을 이 배포로 라우팅합니다. 배포는 특정 구성에서 지정된 모델의 별칭으로 작동합니다.

중요합니다

모든 모델이 이미 구성된 GitHub 모델과 달리 Azure AI Services 리소스를 사용하면 엔드포인트 및 구성에서 사용할 수 있는 모델을 제어할 수 있습니다. model 매개 변수에서 모델을 표시하기 전에 사용할 모델 수만큼 추가합니다. 리소스에 더 많은 모델을 추가하는 방법을 알아봅니다.

추가 기능 살펴보기

Azure AI Foundry 모델은 다음을 포함하여 GitHub 모델에서 사용할 수 없는 추가 기능을 지원합니다.

Troubleshooting

자세한 도움말은 FAQ 섹션을 참조하세요.