Inteligência Artificial responsável
Os principais pontos para entender sobre IA responsável incluem:
- Equidade: os modelos de IA são treinados usando dados, que geralmente são obtidos e selecionados por humanos. Há um risco substancial de que os critérios de seleção de dados, ou os próprios dados, reflitam viés inconsciente que pode fazer com que um modelo produza resultados discriminatórios. Os desenvolvedores de IA precisam tomar cuidado para minimizar o viés nos dados de treinamento e testar os sistemas de IA para garantir equidade.
- Fiabilidade e segurança: a IA baseia-se em modelos probabilísticos, não é infalível. Os aplicativos alimentados por IA precisam levar isso em conta e mitigar os riscos de acordo.
- Privacidade e segurança: Os modelos são treinados usando dados, que podem incluir informações pessoais. Os desenvolvedores de IA têm a responsabilidade de garantir que os dados de treinamento sejam mantidos seguros e que os próprios modelos treinados não possam ser usados para revelar detalhes pessoais ou organizacionais privados.
- Inclusão: O potencial da IA para melhorar vidas e impulsionar o sucesso deve estar aberto a todos. Os desenvolvedores de IA devem se esforçar para garantir que suas soluções não excluam alguns usuários.
- Transparência: A IA às vezes pode parecer "mágica", mas é importante conscientizar os usuários sobre como o sistema funciona e quaisquer limitações potenciais que ele possa ter.
- Responsabilização: Em última análise, as pessoas e organizações que desenvolvem e distribuem soluções de IA são responsáveis pelas suas ações. É importante que as organizações que desenvolvem modelos e aplicativos de IA definam e apliquem uma estrutura de governança para ajudar a garantir que aplicam princípios de IA responsáveis ao seu trabalho.
Exemplos de IA responsável
Alguns exemplos de cenários em que as práticas responsáveis de IA devem ser aplicadas incluem:
- Um sistema de admissão em universidades baseado em IA deve ser testado para garantir que avalia todas as candidaturas de forma justa, tendo em conta os critérios académicos relevantes, mas evitando a discriminação infundada com base em fatores demográficos irrelevantes.
- Uma solução robótica alimentada por IA que usa visão computacional para detetar objetos deve evitar danos ou danos não intencionais. Uma maneira de atingir esse objetivo é usar valores de probabilidade para determinar a "confiança" na identificação de objetos antes de interagir com objetos físicos e evitar qualquer ação se o nível de confiança estiver abaixo de um limite específico.
- Um sistema de identificação facial utilizado num aeroporto ou noutra área segura deve eliminar as imagens pessoais que são utilizadas para acesso temporário assim que deixem de ser necessárias. Além disso, as salvaguardas devem impedir que as imagens sejam tornadas acessíveis aos operadores ou utilizadores que não têm necessidade de as visualizar.
- Um chatbot baseado na web que oferece interação baseada em fala também deve gerar legendas de texto para evitar tornar o sistema inutilizável para usuários com deficiência auditiva.
- Um banco que usa um pedido de aprovação de empréstimo baseado em IA deve divulgar o uso de IA e descrever características dos dados sobre os quais foi treinado (sem revelar informações confidenciais).