Compartilhar via


Visão geral da IA Gerativa para JavaScript

Descubra o poder da IA generativa com JavaScript. Saiba como integrar perfeitamente a IA em seus aplicativos Web, móveis ou desktop.

JavaScript com IA?

Embora seja verdade que o Python é ótimo para criar e treinar modelos de IA, criar aplicativos com esses modelos é diferente. A maioria dos modelos de IA funciona por meio de APIs Web, portanto, qualquer idioma que possa fazer chamadas HTTP pode usar IA. O JavaScript é multiplataforma e conecta navegadores e servidores facilmente, tornando-o uma opção forte para aplicativos de IA.

Curso interativo e divertido

Junte-se a nós para uma experiência de aprendizado imersiva, incluindo vídeos, projetos de código e uma implementação completa para usar e aprender sobre IA generativa.

Este curso é uma ótima maneira para alunos e novos desenvolvedores aprenderem sobre IA de maneira divertida e interativa. Para desenvolvedores de carreira, aprofunde-se mais na sua evolução para IA.

Neste curso:

  • Aprenda IA enquanto você traz figuras históricas à vida com IA generativa
  • Aplicar acessibilidade com as APIs internas do navegador
  • Usar a geração de texto e imagem para integrar a IA à experiência do aplicativo
  • Aprender padrões de arquitetura para aplicativos de IA

Uma imagem gerada por IA de Leonardo Da Vinci usada no aplicativo complementar para conversar com personagens históricos.

Usar o aplicativo complementar para falar com caracteres históricos

O que você precisa saber sobre LLMs?

Os LLMs (Modelos de Linguagem Grandes) são redes neurais profundas treinadas em muitos dados para entender e criar texto. O treinamento começa com conjuntos de dados grandes e diversos para criar um modelo base e, em seguida, usa dados especiais para ajustar para obter melhores resultados. As LLMs funcionam como ferramentas inteligentes de preenchimento automático em editores de código ou aplicativos de chat. Os modelos têm limites, como janelas de contexto (geralmente alguns milhares de tokens, embora modelos mais recentes suportem mais) e podem mostrar viés a partir dos dados de treinamento. É por isso que a IA responsável importa : concentre-se na imparcialidade, confiabilidade, privacidade e responsabilidade, como a Microsoft recomenda.

Saiba mais na sessão LLM do curso:

Técnicas essenciais de engenharia de prompt

Engenharia de prompt significa criar prompts para obter melhores resultados de IA. Você pode usar o aprendizado sem exemplos (zero-shot learning) ou o aprendizado com poucos exemplos (few-shot learning) para orientar o modelo. Adicionar indicações como instruções passo a passo, contexto claro e formatos de saída ajuda o modelo a dar melhores respostas. Você também pode ajustar o tom e personalizar as respostas. Essas noções básicas configuram você para técnicas avançadas como RAG.

Saiba mais na sessão de engenharia de prompt do curso:

Melhorar a precisão e a confiabilidade da IA com o RAG

Use o RAG (Recuperação de Geração Aumentada) para tornar a IA mais precisa e confiável. O RAG combina um recuperador que encontra documentos atualizados com um gerador que usa esses documentos para responder a perguntas. Essa abordagem fornece respostas claras e factuais baseadas em fontes confiáveis, tornando os resultados fáceis de verificar e econômicos. Por exemplo, o suporte imobiliário da Contoso usa o RAG para dar respostas detalhadas apoiadas por documentos da empresa.

Saiba mais na sessão RAG do curso:

Acelerar o desenvolvimento de IA com LangChain.js

Acelere seus projetos de IA com LangChain.js. Essa biblioteca JavaScript facilita o trabalho com modelos de linguagem grandes. Use LangChain.js para criar modelos de prompt, conectar modelos e bancos de dados de vetor e criar fluxos de trabalho complexos. Prototipagem rápida de aplicativos, como uma API que extrai e responde a perguntas de transcrições do YouTube. Quando estiver pronto para produção, troque modelos locais e repositórios de vetores para serviços do Azure sem alterar seu código.

Saiba mais na sessãoLangChain.js do curso:

Executar modelos de IA em seu computador local com o Ollama

Baixe e use modelos de IA locais com o Ollama, uma ferramenta de software livre baseada em llama.cpp, para executar com eficiência modelos de linguagem pequenos, como o Phi-3. Os modelos locais eliminam a dependência da infraestrutura de nuvem, permitem o desenvolvimento rápido com funcionalidades offline e oferecem testes econômicos por meio de um loop de desenvolvimento interno rápido. O Phi-3, conhecido por seu alto desempenho e segurança responsável de IA, pode ser executado mesmo em dispositivos de especificação moderada e pode ser acessado por meio de uma API compatível com OpenAI, facilitando a integração com seu fluxo de trabalho de desenvolvimento.

Saiba mais na sessão Ollama do curso:

Introdução à IA gratuitamente usando o Phi-3

Experimente modelos de IA com a ferramenta Ollama e o modelo Phi-3 em seu navegador usando um playground online. Crie um Codespace do GitHub para usar o VS Code em seu navegador, execute comandos como "Ollama run phi3" para conversar com o modelo e use um notebook Jupyter para testar a engenharia de prompt, o aprendizado com poucos exemplos e o RAG. Você pode criar e explorar projetos de IA online, sem necessidade de uma GPU rápida ou configuração local.

Saiba mais na sessão Phi-3 do curso:

Introdução ao Azure AI Foundry

Use o Azure AI Foundry para começar a criar aplicativos de IA geradores com JavaScript. Organize recursos com hubs e projetos, procure milhares de modelos e implante um modelo para testar em um playground. Se você escolher APIs de computação gerenciada ou sem servidor, siga as mesmas etapas para selecionar, implantar e usar seu modelo em seu fluxo de trabalho.

Saiba mais na sessão do Azure AI Foundry do curso:

Criando aplicativos de IA gerativa com o Azure Cosmos DB

Saiba mais na sessão do curso sobre o Azure Cosmos DB:

Ferramentas e serviços do Azure para hospedar e armazenar aplicativos de IA

Descubra as principais ferramentas e serviços do Azure para hospedar e armazenar seus aplicativos de IA. Crie diferentes tipos de aplicativos de IA, como aplicativos de chat, RAG e agentes autônomos. Use uma CLI de Desenvolvedor do Azure (AZD) para facilmente implantar. Compare as opções baseadas em contêiner e sem servidor e saiba como manter suas APIs seguras, escalonáveis e monitoradas para uso real.

Saiba mais na sessão de ferramentas e serviços do Azure do curso:

Saída de IA de Geração de Streaming com o Protocolo de Chat de IA

Transmitir saída de IA gerativa com o Protocolo de Chat de IA. Essa ferramenta facilita a comunicação em tempo real entre o serviço de IA e os aplicativos cliente. Experimente dois métodos de streaming: executar inferência no navegador ou usar um servidor de inferência de IA. Cuidado com a exposição da chave de API, a segurança dos dados e a escolha do protocolo certo. O cliente simples do Protocolo de Chat de IA permite adicionar streaming seguro e eficiente ao seu aplicativo usando métodos getCompletion e getStreamedCompletion, conforme mostrado em nosso RAG sem servidor com LangChain.js exemplo.

Saiba mais na sessão streaming do curso: