중요합니다
영어가 아닌 번역은 편의를 위해서만 제공됩니다. 바인딩 버전을 위해 이 문서의 EN-US
버전을 참조하세요.
Microsoft는 요약 기능을 책임 있는 방식으로 사용하는 솔루션을 개발하고 배포하는 데 도움을 주고자 합니다. Microsoft는 AI 시스템의 공정성, 안정성 및 안전, 개인 정보 보호 및 보안, 포용성, 투명성 및 인간의 책임과 같은 측면을 고려하여 개인 기관 및 존엄성을 유지하기 위한 원칙적인 접근 방식을 취합니다. 이러한 고려 사항은 책임 있는 AI 개발에 대한 우리의 노력을 반영합니다.
일반 지침
AI 기반 제품 또는 기능을 통합하고 책임감 있게 사용할 준비가 되면 다음 활동을 통해 성공을 설정할 수 있습니다. 각 지침이 모든 시나리오에 적용되지는 않지만 가능한 위험을 완화하기 위한 시작점으로 간주합니다.
무엇을 할 수 있는지, 그리고 어떻게 오용될 수 있는지 이해합니다. 사용 중인 AI 시스템의 기능을 완전히 평가하여 해당 기능과 제한 사항을 이해합니다. Microsoft가 수행하는 특정 테스트는 시나리오를 반영하지 않을 수 있습니다. 컨텍스트를 반영하는 실제 조건 및 다양한 데이터로 철저히 테스트하여 특정 시나리오에서 수행되는 방식을 이해합니다. 공정성 고려 사항을 포함합니다.
실제, 다양한 데이터로 테스트합니다. 시나리오에서 시스템이 어떻게 수행되는지 이해합니다. 실제 조건 및 사용자, 지리 및 배포 컨텍스트의 다양성을 반영하는 데이터를 사용하여 철저히 테스트합니다. 작은 데이터 세트, 가상 데이터 및 엔드 투 엔드 시나리오를 반영하지 않는 테스트는 프로덕션 성능을 충분히 나타낼 가능성이 낮습니다.
시스템을 평가합니다. 신뢰할 수 있는 테스터가 시스템 오류, 성능 저하 또는 바람직하지 않은 동작을 찾으려고 시도하는 악의적인 테스트를 사용하는 것이 좋습니다. 이 정보는 위험을 이해하고 위험을 완화하는 방법을 이해하는 데 도움이 됩니다. 관련자에게 기능 및 제한 사항을 전달합니다. 시스템을 평가하는 데 도움이 되도록 다음과 같은 자료들이 유용할 수 있습니다: GitHub의 검사 목록, 노르웨이 연어에 대한 고정관념: 공정성 벤치마크 데이터 세트에서의 함정 목록 (Blodgett et al., 2021) 및 확률론적 앵무새의 위험성: 언어 모델은 너무 클 수 있는가? (Bender et al., 2021).
공정성에 대해 알아봅니다. AI 시스템은 다양한 이유로 부당하게 동작할 수 있습니다. 일부는 사회적, 일부는 기술, 그리고 일부는 두 가지의 조합. 명확한 솔루션은 거의 없습니다. 완화 메서드는 일반적으로 컨텍스트에 따라 다릅니다. 공정성에 대해 배우는 것은 무엇을 기대해야 하는지, 그리고 잠재적인 피해를 완화하는 방법을 배우는 데 도움이 될 수 있습니다. Microsoft에서 사용하는 접근 방식에 대한 자세한 내용은 Microsoft Research의 책임 있는 AI 리소스, AI 공정성 검사 목록 및 리소스를 참조하세요.
개인 정보 보호에 대한 개인의 권리를 존중합니다. 합법적이고 정당한 목적을 위해서만 개인으로부터 데이터와 정보를 수집합니다. 이 용도로 사용하는 데 동의한 데이터 및 정보만 사용합니다.
개발 중에 사용자 테스트를 수행하고 배포 후 피드백을 요청합니다. 가치 중요한 디자인을 사용하여 관련자를 식별하는 것이 좋습니다. 이러한 값을 지원하는 시스템을 디자인하기 위해 해당 값을 식별하기 위해 함께 작업합니다. 개발 및 평가 프로세스 중에 다양한 사용자 그룹의 피드백을 구합니다. 커뮤니티 배심원과 같은 전략을 사용합니다.
다양한 관련자와 함께 사용자 테스트를 수행합니다. 그런 다음 관련자 그룹에 의해 세분화된 결과를 분석합니다. 다른 인구 통계 그룹의 이해 관계자를 포함합니다. 배포 컨텍스트에서 온라인 실험, 링 테스트, 도그푸딩, 현장 테스트 또는 파일럿을 실시하는 것이 좋습니다.
입력 및 출력의 길이, 구조체, 속도 및 원본을 제한합니다. 입력 및 출력 길이를 제한하면 위험 가능성을 줄일 수 있습니다. 이러한 위험에는 바람직하지 않은 콘텐츠 생성, 의도한 애플리케이션 사용 사례 이외의 지나치게 범용에 대한 오용 또는 기타 유해하거나 허용되지 않거나 의도하지 않은 시나리오가 포함됩니다.
프롬프트를 특정 방식으로 구성하도록 요구하는 것이 좋습니다. 특정 토픽에 국한되거나 드롭다운 필드와 같은 유효성이 검사된 원본에서 그릴 수 있습니다. 지나치게 개방형이 아니도록 출력을 구조화하는 것이 좋습니다. 인터넷에 연결하는 대신 유효성이 검사되고 신뢰할 수 있는 원본 자료(예: 기존 지원 문서)에서 출력을 반환하는 것이 좋습니다. 이 제한은 애플리케이션이 작업을 계속 수행하고 불공정하거나 신뢰할 수 없거나 공격적인 동작을 완화하는 데 도움이 될 수 있습니다. 속도 제한을 적용하면 오용을 더욱 줄일 수 있습니다.
차단 목록 및 콘텐츠 조정을 구현합니다. 귀하의 애플리케이션을 주제에 맞추세요. 차단 목록 및 콘텐츠 조정 전략을 고려하여 바람직하지 않은 콘텐츠에 대한 입력 및 출력을 확인합니다. 원치 않는 콘텐츠의 정의는 시나리오에 따라 달라지고 시간이 지남에 따라 변경될 수 있습니다. 여기에는 증오 발언, 욕설이나 문구가 포함된 텍스트, 잘못된 정보 및 민감하거나 감정적으로 충전된 주제와 관련된 텍스트가 포함될 수 있습니다. 입력을 확인하면 악의적인 사용자가 원치 않는 콘텐츠를 생성하려고 하더라도 애플리케이션을 토픽에 유지하는 데 도움이 될 수 있습니다. API 출력을 확인하면 시스템에서 생성되는 원치 않는 콘텐츠를 검색할 수 있습니다. 그런 다음, 대체하거나, 보고하거나, 사용자에게 다른 입력을 입력하도록 요청하거나, 입력 예제를 제공할 수 있습니다.
사용자를 인증합니다. 오용을 더 어렵게 만들려면 고객이 로그인하고 적절한 경우 유효한 결제 방법을 연결하도록 요구하는 것이 좋습니다. 개발 초기 단계에서 알려진 신뢰할 수 있는 고객과만 작업하는 것이 좋습니다.
인간의 감독을 보장합니다. 특히 더 높은 지분 시나리오에서 의사 결정에서 인간의 역할을 유지합니다. AI가 수행한 작업과 인간이 수행한 작업을 공개합니다.
시나리오에 따라 수명 주기에는 인간 감독을 추가할 수 있는 다양한 단계가 있습니다. 피해를 방지하기 위해 솔루션에 실시간 인간의 개입을 할 수 있는지 확인합니다. 예를 들어 요약을 생성할 때 편집기에서는 게시 전에 요약을 검토해야 합니다. 이상적으로는 배포 전, 사용자 테스트 및 배포 후에 사용자 감독의 효과를 평가하는 것이 좋습니다.
고객 피드백 루프가 있습니다. 사용자와 개인이 배포 후 서비스와 관련된 문제를 보고할 수 있도록 하는 피드백 채널을 제공합니다. 문제에는 불공정하거나 바람직하지 않은 동작이 포함될 수 있습니다. AI 기반 제품 또는 기능을 배포한 후에는 지속적인 모니터링과 개선이 필요합니다. 직원, 방문자 및 일반 대중과 같이 시스템에 의해 직간접적으로 영향을 받을 수 있는 이해 관계자로부터 질문과 우려를 수집하는 채널을 설정합니다. 예를 들면 다음과 같습니다.
- 앱 환경에 기본 제공되는 피드백 기능입니다.
- 피드백을 위해 기억하기 쉬운 전자 메일 주소입니다.
법적 검토를 수행합니다. 특히 민감하거나 위험 수준이 높은 애플리케이션에서 솔루션을 사용하는 경우 적절한 법률 자문을 받아 솔루션을 검토하세요. 작업 시 고려해야 할 제한 사항을 파악합니다. 향후 발생할 수 있는 문제를 해결해야 하는 책임을 이해합니다. 데이터 세트의 적절한 사용을 확인합니다.
시스템 검토를 수행합니다. AI 기반 제품 또는 기능을 기존 소프트웨어, 고객 및 조직 프로세스 시스템에 통합하고 책임감 있게 사용할 수 있습니다. 그렇다면 시스템의 각 부분이 어떻게 영향을 받는지 이해하는 데 시간이 걸릴 수 있습니다. AI 솔루션이 Microsoft에서 사용하는 책임 있는 AI의 원칙에 어떻게 부합하는지 고려합니다.
보안. 솔루션이 안전하고 콘텐츠의 무결성을 유지하고 무단 액세스를 방지하기 위한 적절한 컨트롤이 있는지 확인합니다.
권장 콘텐츠
책임 있는 AI 원칙에 맞게 애플리케이션을 평가합니다.
Microsoft HAX 도구 키트를 사용합니다. 도구 키트는 AI 시스템이 초기 상호 작용, 정기적인 상호 작용 중, 필연적으로 잘못된 경우 및 시간이 지남에 따라 동작하는 방법에 대한 모범 사례를 권장합니다.
대화형 AI 시스템의 책임 있는 개발을 위한 Microsoft 지침을 따릅니다. 챗봇 또는 기타 대화형 AI 시스템을 구동하는 언어 모델을 개발하고 배포할 때 지침을 사용합니다.
Microsoft 포용적 디자인 지침을 사용하여 포괄 솔루션을 빌드합니다.