Microsoft Aperfeiçoa IA: Ferramenta Promete Eliminar Informações Falsas
Microsoft Aprimora Confiabilidade de Chatbots com Nova Ferramenta de IA
A Microsoft está lançando um novo recurso chamado "correção" que se baseia nos esforços da empresa para combater imprecisões de IA. Clientes que usam o Microsoft Azure para alimentar seus sistemas de IA agora podem usar o recurso para detectar e reescrever automaticamente conteúdo incorreto em saídas de IA.
O recurso de correção está disponível em prévia como parte do Azure AI Studio — um conjunto de ferramentas de segurança projetado para detectar vulnerabilidades, encontrar "alucinações" e bloquear prompts maliciosos. Uma vez ativado, o sistema de correção irá escanear e identificar imprecisões na saída da IA, comparando-a com o material fonte de um cliente.
A partir daí, ele destacará o erro, fornecerá informações sobre por que está incorreto e reescreverá o conteúdo em questão — tudo "antes que o usuário possa ver" a imprecisão. Embora isso pareça uma maneira útil de abordar as bobagens frequentemente proferidas por modelos de IA, pode não ser uma solução totalmente confiável.
Em uma declaração à TechCrunch, um porta-voz da Microsoft disse que o sistema de "correção" usa "modelos de linguagem pequenos e grandes para alinhar as saídas com documentos de referência", o que significa que não está imune a cometer erros também. "É importante notar que a detecção de fundamentação não resolve a 'precisão', mas ajuda a alinhar as saídas de IA generativa com documentos de referência", disse a Microsoft à TechCrunch.
#InteligenciaArtificial #Chatbots #Microsoft #IA #Tecnologia #Inovacao #AtendimentoAoCliente #Educacao #ML #NLP