Microsoft Aperfeiçoa IA: Ferramenta Promete Eliminar Informações Falsas

Quase ninguém sabe, mas a Microsoft lançou uma ferramenta impressionante para melhorar o uso da IA. Eles criaram uma ferramenta chamada "Correction" que faz algo incrível: não só encontra erros nas saídas de IA, mas os corrige automaticamente. Funciona assim: antes que você veja qualquer conteúdo gerado por IA, essa ferramenta já entrou em ação. Ela escaneia o texto, compara com fontes confiáveis, identifica imprecisões, explica o que está errado e reescreve o conteúdo. Tudo isso em um piscar de olhos. Disponível no Azure AI Studio, essa novidade promete tornar a IA muito mais confiável. Mas aqui está o twist: a própria Microsoft admite que o sistema não é perfeito. Afinal, até as ferramentas que corrigem IA podem cometer erros. A questão é: estamos prontos para confiar em uma IA que corrige outra IA?
October 5, 2024

Microsoft Aprimora Confiabilidade de Chatbots com Nova Ferramenta de IA

A Microsoft está lançando um novo recurso chamado "correção" que se baseia nos esforços da empresa para combater imprecisões de IA. Clientes que usam o Microsoft Azure para alimentar seus sistemas de IA agora podem usar o recurso para detectar e reescrever automaticamente conteúdo incorreto em saídas de IA.

O recurso de correção está disponível em prévia como parte do Azure AI Studio — um conjunto de ferramentas de segurança projetado para detectar vulnerabilidades, encontrar "alucinações" e bloquear prompts maliciosos. Uma vez ativado, o sistema de correção irá escanear e identificar imprecisões na saída da IA, comparando-a com o material fonte de um cliente.

A partir daí, ele destacará o erro, fornecerá informações sobre por que está incorreto e reescreverá o conteúdo em questão — tudo "antes que o usuário possa ver" a imprecisão. Embora isso pareça uma maneira útil de abordar as bobagens frequentemente proferidas por modelos de IA, pode não ser uma solução totalmente confiável.

Em uma declaração à TechCrunch, um porta-voz da Microsoft disse que o sistema de "correção" usa "modelos de linguagem pequenos e grandes para alinhar as saídas com documentos de referência", o que significa que não está imune a cometer erros também. "É importante notar que a detecção de fundamentação não resolve a 'precisão', mas ajuda a alinhar as saídas de IA generativa com documentos de referência", disse a Microsoft à TechCrunch.

#InteligenciaArtificial #Chatbots #Microsoft #IA #Tecnologia #Inovacao #AtendimentoAoCliente #Educacao #ML #NLP

Newsletter semanal de IA
Filtro TODAS as notícias sobre IA e testo novas ferramentas toda semana pra você receber APENAS o que precisa saber direto no seu Email!
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
News