다음을 통해 공유


빠른 시작: Azure AI Foundry 시작

이 빠른 시작에서는 Azure AI Foundry SDK를 사용하여 로컬 개발 환경을 설정하는 단계를 안내합니다. 프롬프트를 작성하고 이를 앱 코드의 일부로 실행하며 진행 중인 LLM 호출을 추적하고 LLM 출력에 대한 기본 평가를 실행합니다.

Tip

이 문서의 나머지 부분에는 허브 기반 프로젝트를 사용하는 방법이 표시됩니다. Foundry 프로젝트를 대신 사용하려면 이 문서의 맨 위에 있는 Foundry 프로젝트를 선택합니다. 어떤 유형의 프로젝트가 필요한가요?

Prerequisites

  • Azure 구독. Azure 구독이 아직 없는 경우 시작하기 전에 체험 계정을 만듭니다.
  • 허브 기반 프로젝트입니다. Azure AI Foundry를 익숙하지 않고 허브 기반 프로젝트가 없는 경우 이 문서의 맨 위에 있는 Foundry 프로젝트를 선택하여 Foundry 프로젝트를 대신 사용합니다.

개발 환경 설정

  1. 개발 환경을 설정하세요

  2. 이러한 패키지를 설치합니다.

    pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
    

    Note

    프로젝트 유형에 따라 azure-ai-projects 패키지의 버전이 다릅니다. 충돌을 방지하려면 별도의 Python 환경을 만듭니다. 허브 기반 프로젝트의 경우 버전 1.0.0b10 및 Foundry 프로젝트의 최신 버전을 사용합니다.

모델 배포

Tip

Azure AI Foundry 포털에서 왼쪽 창을 사용자 지정할 수 있으므로 이러한 단계에 표시된 것과 다른 항목이 표시될 수 있습니다. 원하는 항목이 표시되지 않으면 왼쪽 창 아래쪽에 있는 ... 더 보기를 선택하십시오.

  1. Azure AI Foundry에 로그인합니다.

  2. 허브 기반 프로젝트를 선택합니다. 허브 기반 프로젝트가 없는 경우 이 문서의 맨 위에 있는 Foundry 프로젝트를 선택하여 Foundry 프로젝트를 대신 사용합니다.

  3. 왼쪽 창에서 모델 카탈로그 를 선택합니다.

  4. 모델 목록에서 gpt-4o-mini 모델을 선택합니다. 검색 창을 사용하여 찾을 수 있습니다.

  5. 모델 세부 정보 페이지에서 배포를 선택합니다.

    모델을 배포하는 단추가 있는 모델 세부 정보 페이지의 스크린샷

  6. 기본 배포 이름을 그대로 둡니다. Select Deploy.

  7. 모델이 배포되면 플레이그라운드에서 열기를 선택하여 모델을 테스트합니다.

채팅 앱 빌드

chat.py라는 이름의 파일을 만듭니다. 다음 코드를 복사하여 붙여넣습니다.

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

연결 문자열 삽입

코드에서 Azure AI Foundry 모델에서 Azure OpenAI를 호출하려면 프로젝트 연결 문자열이 필요합니다.

Azure AI 파운드리 플레이그라운드 빠른 시작에서 만든 Azure AI 파운드리 프로젝트에서 연결 문자열을 찾습니다. 프로젝트를 연 다음 개요 페이지에서 연결 문자열 찾습니다.

스크린샷은 프로젝트의 개요 페이지와 연결 문자열 위치를 보여줍니다.

연결 문자열을 복사하여 <your-connection-string-goes-here> 파일에서 를 바꿉니다.

채팅 스크립트 실행

스크립트를 실행하여 모델의 응답을 확인합니다.

python chat.py

사용자 입력과 프롬프트 템플릿에서 프롬프트 생성

스크립트는 하드 코드된 입력 및 출력 메시지를 사용합니다. 실제 앱에서는 클라이언트 애플리케이션에서 입력을 받고, 모델에 대한 내부 지침이 포함된 시스템 메시지를 생성한 다음, 모든 메시지와 함께 LLM을 호출합니다.

클라이언트 애플리케이션에서 입력을 받고 프롬프트 템플릿을 사용하여 시스템 메시지를 생성하도록 스크립트를 변경해 보겠습니다.

  1. 응답을 출력하는 스크립트의 마지막 줄을 제거합니다.

  2. 이제 메시지와 컨텍스트를 받고, 프롬프트 템플릿을 사용하여 시스템 메시지를 생성하고, 모델을 호출하는 get_chat_response 함수를 정의합니다. 기존 chat.py 파일에 다음 코드를 추가합니다.

    from azure.ai.inference.prompts import PromptTemplate
    
    
    def get_chat_response(messages, context):
        # create a prompt template from an inline string (using mustache syntax)
        prompt_template = PromptTemplate.from_string(
            prompt_template="""
            system:
            You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig? Refer to the user by their first name, try to work their last name into a pun.
    
            The user's first name is {{first_name}} and their last name is {{last_name}}.
            """
        )
    
        # generate system message from the template, passing in the context as variables
        system_message = prompt_template.create_messages(data=context)
    
        # add the prompt messages to the user messages
        return chat.complete(
            model="gpt-4o-mini",
            messages=system_message + messages,
            temperature=1,
            frequency_penalty=0.5,
            presence_penalty=0.5,
        )
    

    Note

    프롬프트 템플릿은 콧수염 형식을 사용합니다.

    get_chat_response 함수는 FastAPI 또는 Flask 앱에 대한 경로로 쉽게 추가되어 프런트 엔드 웹 애플리케이션에서 이 함수를 호출할 수 있습니다.

  3. 이제 프런트 엔드 애플리케이션에서 이 함수로 정보를 전달하는 과정을 시뮬레이션해 보겠습니다. chat.py 파일의 끝에 다음 코드를 추가합니다. 자유롭게 메시지를 편집하고 고유의 이름을 추가해 보세요.

    if __name__ == "__main__":
        response = get_chat_response(
            messages=[{"role": "user", "content": "what city has the best food in the world?"}],
            context={"first_name": "Jessie", "last_name": "Irwin"},
        )
        print(response.choices[0].message.content)
    

이 새로운 입력에 대한 모델의 응답을 확인하려면 수정된 스크립트를 실행합니다.

python chat.py

자원을 정리하세요

만든 리소스가 더 이상 필요하지 않은 경우 프로젝트와 연결된 리소스 그룹을 삭제합니다.

Azure AI Foundry 포털의 오른쪽 위 모서리에서 프로젝트 이름을 선택합니다. 그런 다음, 리소스 그룹에 대한 링크를 선택하여 Azure Portal에서 엽니다. 리소스 그룹을 선택한 다음 삭제를 선택합니다. 리소스 그룹을 삭제할지 확인합니다.

Next step

이 빠른 시작에서는 Azure AI Foundry 를 사용하여 다음을 수행합니다.

  • 프로젝트 만들기
  • 모델 배포
  • 채팅 완료 실행
  • 에이전트 만들기 및 실행
  • 에이전트에 파일 업로드

Azure AI Foundry SDK는 Python, Java, JavaScript 및 C#을 비롯한 여러 언어로 제공됩니다. 이 빠른 시작에서는 이러한 각 언어에 대한 지침을 제공합니다.

Tip

이 문서의 나머지 부분에는 Foundry 프로젝트를 만들고 사용하는 방법이 설명되어 있습니다. 허브 기반 프로젝트를 대신 사용하려면 이 문서의 맨 위에 있는 허브 기반 프로젝트를 선택합니다. 어떤 유형의 프로젝트가 필요한가요?

Prerequisites

  • Azure 구독. Azure 구독이 아직 없는 경우 시작하기 전에 체험 계정을 만듭니다.
  • 프로젝트를 사용하는 데 필요한 적절한 액세스 제어를 받으려면 구독의 소유자 여야 합니다.

Important

이 문서에 표시된 항목(미리 보기)은 현재 퍼블릭 미리 보기에서 확인할 수 있습니다. 이 미리 보기는 서비스 수준 계약 없이 제공되며, 프로덕션 워크로드에는 권장되지 않습니다. 특정 기능이 지원되지 않거나 기능이 제한될 수 있습니다. 자세한 내용은 Microsoft Azure Preview에 대한 추가 사용 약관을 참조하세요.

프로젝트 및 모델 시작

  1. Azure AI 파운드리 포털에 로그인합니다.

  2. 포털에서 Microsoft, OpenAI, DeepSeek, Hugging Face, Meta 등의 다양한 최첨단 모델 카탈로그를 탐색할 수 있습니다. 이 자습서에서는 gpt-4o 모델을 검색한 다음 선택합니다.

    Azure AI Foundry 포털에서 에이전트 빌드를 시작하는 방법을 보여 주는 스크린샷

  3. 모델 세부 정보 페이지에서 이 모델 사용을 선택합니다.

  4. 프로젝트에 사용할 이름을 입력하고 만들기를 선택합니다.

  5. 배포 정보를 검토한 다음 , 배포를 선택합니다.

  6. 리소스가 만들어지면 채팅 플레이그라운드에 있습니다.

환경 설정

Azure AI Foundry 포털을 사용하기 위해 설치할 필요가 없습니다.

채팅 완료 실행

채팅 완성은 AI 애플리케이션의 기본 구성 요소입니다. 채팅 완료를 사용하여 메시지 목록을 보내고 모델에서 응답을 받을 수 있습니다.

  1. 채팅 플레이그라운드에서 프롬프트를 입력하고 보내기 단추를 선택합니다.
  2. 모델은 응답 창에서 응답을 반환합니다.

에이전트와 채팅

에이전트는 도구를 사용하여 강력한 기능을 제공합니다. 먼저 에이전트와 채팅합니다.

에이전트를 사용해 볼 준비가 되면 기본 에이전트가 만들어집니다. 이 에이전트와 채팅하려면 다음을 수행합니다.

  1. 왼쪽 창에서 플레이그라운드를 선택합니다.
  2. 에이전트 플레이그라운드 카드에서 시작하기를 선택합니다.
  3. "유용한 쓰기 도우미입니다."와 같은 지침을 추가합니다.
  4. 에이전트와 채팅을 시작합니다(예: "꽃에 대한 시를 적어 주세요.").

에이전트에 파일 추가

이제 지식 검색을 수행할 수 있는 파일 검색 도구를 추가해 보겠습니다.

  1. 에이전트의 설정 창에서 필요한 경우 아래로 스크롤하여 지식을 찾습니다.
  2. Select Add.
  3. 파일을 선택하여 product_info_1.md 파일을 업로드합니다.
  4. 파일 추가에서 로컬 파일 선택을 선택합니다.
  5. 업로드를 선택하고 저장합니다.
  6. "유용한 도우미이며 업로드된 파일에서 정보를 검색할 수 있습니다."와 같은 에이전트 지침을 변경합니다.
  7. "안녕하세요, Contoso 제품을 알고 계십니까?"와 같은 질문을 합니다.
  8. 더 많은 파일을 추가하려면 AgentVectorStore에서 ... 를 선택한 다음, 관리를 선택합니다.

자원을 정리하세요

만든 리소스가 더 이상 필요하지 않은 경우 프로젝트와 연결된 리소스 그룹을 삭제합니다.

Azure AI Foundry 포털의 오른쪽 위 모서리에서 프로젝트 이름을 선택합니다. 그런 다음, 리소스 그룹에 대한 링크를 선택하여 Azure Portal에서 엽니다. 리소스 그룹을 선택한 다음 삭제를 선택합니다. 리소스 그룹을 삭제할지 확인합니다.

Next step