이 섹션의 자습서에서는 핵심 기능을 소개하고 Azure Databricks 플랫폼 작업의 기본 사항을 안내합니다.
온라인 교육 리소스에 대한 자세한 내용은 무료 Databricks 교육 받기를 참조하세요.
Azure Databricks 계정이 없는 경우 평가판에 등록합니다.
| 튜토리얼 | 세부 정보 |
|---|---|
| 데이터 쿼리 및 시각화 | Databricks Notebook을 사용하여 SQL, Python, Scala 및 R을 사용하여 Unity 카탈로그에 저장된 샘플 데이터를 쿼리한 다음 Notebook에서 쿼리 결과를 시각화합니다. |
| Notebook에서 CSV 데이터 가져오기 및 시각화 | Databricks Notebook을 사용하여 Python, Scala 및 R을 사용하여 아기 이름 데이터가 포함된 CSV 파일에서 https://health.data.ny.gov Unity 카탈로그 볼륨으로 데이터를 가져옵니다. 열 이름을 수정하고, 데이터를 시각화하고, 테이블에 저장하는 방법도 알아봅니다. |
| 테이블 만들기 | Unity 카탈로그 데이터 거버넌스 모델을 사용하여 테이블을 만들고 Databricks에서 권한을 부여합니다. |
| Lakeflow 선언적 파이프라인을 사용하여 ETL 파이프라인 빌드 | Lakeflow 선언적 파이프라인 및 자동 로더를 사용하여 데이터 오케스트레이션을 위한 ETL(추출, 변환 및 로드) 파이프라인을 만들고 배포합니다. |
| Apache Spark를 사용하여 ETL 파이프라인 빌드 | Apache Spark™를 사용하여 데이터 오케스트레이션을 위한 첫 번째 ETL(추출, 변환 및 로드) 파이프라인을 개발하고 배포합니다. |
| ML 모델 학습 및 배포 | Databricks의 scikit-learn 라이브러리를 사용하여 기계 학습 분류 모델을 빌드하여 와인이 "고품질"로 간주되는지 여부를 예측합니다. 또한 이 자습서에서는 MLflow를 사용하여 모델 개발 프로세스를 추적하고 Hyperopt를 사용하여 하이퍼 매개 변수 튜닝을 자동화하는 방법을 보여 줍니다. |
| 코드가 없는 LLM 및 프로토타입 AI 에이전트 쿼리 | AI Playground를 사용하여 LLM(대규모 언어 모델)을 쿼리하고 결과를 나란히 비교하고, 도구 호출 AI 에이전트를 프로토타입으로 만들고, 에이전트를 코드로 내보냅니다. |
| Azure Data Lake Storage에 연결 | Microsoft Entra ID 서비스 주체와 함께 OAuth 2.0을 사용하여 Azure Databricks에서 Azure Data Lake Storage로 연결합니다. |
도움말 보기
- Azure Databricks 설정에 대한 질문이 있고 라이브 도움말이 필요한 경우 이메일을 보내 onboarding-help@databricks.com주세요.
- 조직에 Azure Databricks 지원 구독이 없거나 회사의 지원 구독에 대한 권한 있는 연락처가 아닌 경우 Databricks 커뮤니티에서 답변을 얻을 수 있습니다.