Crie soluções de IA generativas responsáveis

Concluído

As orientações da Microsoft para IA generativa responsável foram concebidas para serem práticas e acionáveis. Define um processo de quatro etapas para desenvolver e implementar um plano de IA responsável ao usar modelos generativos. As quatro fases do processo são:

  1. Identifique danos potenciais que sejam relevantes para a solução planejada.
  2. Meça a presença desses danos nas saídas geradas pela sua solução.
  3. Reduza os danos em várias camadas em sua solução para minimizar sua presença e impacto e garantir uma comunicação transparente sobre riscos potenciais para os usuários.
  4. Operar a solução de forma responsável, definindo e seguindo um plano de implantação e prontidão operacional.

Estas fases devem basear-se em princípios de IA responsáveis. A Microsoft categorizou esses princípios em seis grupos.

Princípios de IA responsável

É importante que os engenheiros de software considerem o impacto do seu software nos utilizadores e na sociedade em geral; incluindo considerações para a sua utilização responsável. Quando a aplicação está imbuída de inteligência artificial, estas considerações são particularmente importantes devido à natureza de como os sistemas de IA funcionam e informam as decisões; muitas vezes baseados em modelos probabilísticos, que por sua vez dependem dos dados com os quais foram treinados.

A natureza humana das soluções de IA é um benefício significativo em tornar os aplicativos fáceis de usar, mas também pode levar os usuários a depositar muita confiança na capacidade do aplicativo de tomar decisões corretas. O potencial de danos para indivíduos ou grupos através de previsões incorretas ou uso indevido de recursos de IA é uma grande preocupação, e os engenheiros de software que criam soluções habilitadas para IA devem aplicar a devida consideração para mitigar riscos e garantir justiça, confiabilidade e proteção adequada contra danos ou discriminação.

Vamos discutir alguns princípios fundamentais para IA responsável que foram adotados na Microsoft.

Justiça

Um diagrama de escalas.

Os sistemas de IA devem tratar todas as pessoas de forma justa. Por exemplo, suponha que você crie um modelo de aprendizado de máquina para dar suporte a um pedido de aprovação de empréstimo para um banco. O modelo deve fazer previsões sobre se o empréstimo deve ou não ser aprovado sem incorporar qualquer preconceito com base no género, etnia ou outros fatores que possam resultar numa vantagem ou desvantagem injusta para grupos específicos de candidatos.

A equidade dos sistemas de aprendizado de máquina é uma área altamente ativa de pesquisa contínua, e algumas soluções de software existem para avaliar, quantificar e mitigar injustiças em modelos de aprendizado de máquina. No entanto, o ferramental por si só não é suficiente para garantir a equidade. Considerar a equidade desde o início do processo de desenvolvimento de aplicações; Revisar cuidadosamente os dados de treinamento para garantir que sejam representativos de todos os assuntos potencialmente afetados e avaliar o desempenho preditivo para subseções de sua população de usuários ao longo do ciclo de vida de desenvolvimento.

Fiabilidade e segurança

Um diagrama de um escudo.

Os sistemas de IA devem funcionar de forma fiável e segura. Por exemplo, considere um sistema de software baseado em IA para um veículo autônomo; ou um modelo de aprendizagem automática que diagnostica os sintomas do paciente e recomenda prescrições. A falta de fiabilidade nestes tipos de sistemas pode resultar num risco substancial para a vida humana.

Como acontece com qualquer software, o desenvolvimento de aplicativos de software baseados em IA deve ser submetido a rigorosos testes e processos de gerenciamento de implantação para garantir que eles funcionem conforme o esperado antes do lançamento. Além disso, os engenheiros de software precisam levar em conta a natureza probabilística dos modelos de aprendizado de máquina e aplicar limites apropriados ao avaliar pontuações de confiança para previsões.

Privacidade e segurança

Um diagrama de um cadeado.

Os sistemas de IA devem ser seguros e respeitar a privacidade. Os modelos de aprendizado de máquina nos quais os sistemas de IA se baseiam dependem de grandes volumes de dados, que podem conter detalhes pessoais que devem ser mantidos privados. Mesmo depois que os modelos são treinados e o sistema está em produção, eles usam novos dados para fazer previsões ou tomar medidas que podem estar sujeitas a preocupações de privacidade ou segurança; Por conseguinte, devem ser implementadas salvaguardas adequadas para proteger os dados e o conteúdo dos clientes.

Inclusividade

Um diagrama de um grupo diversificado de pessoas.

Os sistemas de IA devem capacitar todos e envolver as pessoas. A IA deve trazer benefícios para todos os setores da sociedade, independentemente da capacidade física, género, orientação sexual, etnia ou outros fatores.

Uma maneira de otimizar para a inclusão é garantir que o design, o desenvolvimento e o teste do seu aplicativo incluam informações de um grupo de pessoas tão diverso quanto possível.

Transparência

Um diagrama de um olho.

Os sistemas de IA devem ser compreensíveis. Os usuários devem estar plenamente cientes da finalidade do sistema, como ele funciona e quais limitações podem ser esperadas.

Por exemplo, quando um sistema de IA é baseado em um modelo de aprendizado de máquina, você geralmente deve conscientizar os usuários sobre fatores que podem afetar a precisão de suas previsões, como o número de casos usados para treinar o modelo ou os recursos específicos que têm mais influência sobre suas previsões. Você também deve compartilhar informações sobre a pontuação de confiança para previsões.

Quando um aplicativo de IA depende de dados pessoais, como um sistema de reconhecimento facial que tira imagens de pessoas para reconhecê-las; Deve deixar claro ao utilizador como os seus dados são utilizados e conservados, e quem tem acesso aos mesmos.

Prestação de contas

Um diagrama de um aperto de mão.

As pessoas devem ser responsáveis pelos sistemas de IA. Embora muitos sistemas de IA pareçam operar de forma autônoma, em última análise, é responsabilidade dos desenvolvedores que treinaram e validaram os modelos que usam e definiram a lógica que baseia as decisões em previsões de modelos para garantir que o sistema geral atenda aos requisitos de responsabilidade. Para ajudar a atingir esse objetivo, os designers e desenvolvedores de soluções baseadas em IA devem trabalhar dentro de uma estrutura de governança e princípios organizacionais que garantam que a solução atenda aos padrões responsáveis e legais claramente definidos.

Sugestão

Para obter mais informações sobre os princípios da Microsoft para IA responsável, consulte o site de IA responsável da Microsoft.