Durante a apresentação do Bard, chatbot de inteligência artificial do Google, ocorrido no início de 2023, a ferramenta cometeu uma gafe dando uma resposta errônea à pergunta “Que novas descobertas do Telescópio Espacial James Webb posso contar ao meu filho de 9 anos?”. Esse tipo de situação vem sendo chamada de alucinação de IA.
Na ocasião, o Bard afirmou que o referido telescópio espacial tirou as primeiras fotos de um planeta fora do nosso sistema solar.
No entanto, ainda que o James Webb tenha mesmo fotografado um exoplaneta, essas imagens não foram as primeiras a serem obtidas, o que na verdade ocorreu em 2004.
O resultado deste erro foi a queda significativa nas ações da empresa devido à insegurança quanto à confiabilidade da ferramenta.
A notícia sobre o Bard levou muitos gestores a questionarem se o mesmo tipo de erro pode ocorrer em suas empresas após a implementação de recursos como o ChatGPT, que vem sendo amplamente utilizado.
A resposta é sim. A alucinação de IA não é incomum e pode gerar prejuízos para os negócios, sobretudo porque essas ferramentas criam textos muito coerentes e convincentes.
Em algumas situações, é fácil identificar que uma informação está incorreta. Mas em outras, o usuário pode tomar uma mentira como verdade e ter toda a sua experiência prejudicada.
Isso sem falar na possível contribuição para a propagação de fake news, já que o sucesso do ChatGPT em diversos contextos é inegável.
É claro que a ferramenta não “mente” propositalmente. Existem explicações para essas falhas e você vai compreendê-las melhor com a leitura deste artigo.
Nos próximos tópicos, vamos destrinchar o conceito de alucinação de IA e explicar como você pode reduzir as possibilidades de obtenção de informações falsas com o uso da plataforma.
Boa leitura!
O que é alucinação de IA?
A expressão “alucinação de IA” vem sendo utilizada para descrever as situações em que uma ferramenta de inteligência artificial mente ou inventa dados inverídicos.
Por mais que esses erros não sejam considerados na adoção das ferramentas, a verdade é que os recursos de inteligência artificial, ainda que muito convincentes, não são totalmente confiáveis.
Ou seja, a alucinação de IA acontece quando, diante de uma solicitação, um sistema como o ChatGPT fornece uma resposta aparentemente precisa e totalmente plausível, mas que não corresponde à realidade.
Normalmente, antes de serem lançados, esses sistemas são alimentados com uma grande quantidade de dados provenientes de diversas fontes.
Isso pode incluir sites de agências de informações, órgãos governamentais, estudos acadêmicos, veículos noticiosos, revistas científicas, livros, filmes, entre diversas outras possibilidades.
No entanto, as ferramentas de inteligência artificial não se baseiam somente em dados precisos para estabelecerem suas interações com os usuários.
Como são ferramentas de processamento de linguagem, elas podem formular respostas que contém informações que não fazem parte dos dados com que foram alimentadas.
Além disso, quando se pensa no ChatGPT, ferramenta de IA que mais tem ganhado destaque nos últimos meses, é importante lembrar que ele conta com informações obtidas somente até o ano de 2021.
Isso significa que ele pode “alucinar” com maior frequência quando são elaboradas questões sobre assuntos ou acontecimentos mais recentes.
Embora a plataforma forneça majoritariamente informações verdadeiras quando se compara aos índices de alucinação de IA, é inegável que ela pode “mentir sem querer”.
Isso pode acontecer por vários motivos, que incluem a falta de compreensão contextual, as limitações na base de dados e os bugs de software.
O termo “alucinação de IA” passou a ser utilizado dentro de estudos especializados em inteligência artificial para fazer uma referência às alucinações humanas.
A principal motivação é a compreensão de que as ferramentas não estão conscientes de seus erros e não os cometem de forma proposital, assim como ocorre com uma pessoa que percebe como reais situações que na verdade não ocorreram.
No entanto, a expressão não é aprovada unanimemente pelos pesquisadores, já que alguns deles não recomendam a antropomorfização da máquina.
Contudo, as ideias de “erros” ou “mentiras” não são tão precisas em relação à caracterização das falhas cometidas nas respostas dadas por recursos tecnológicos como o ChatGPT.
Sendo assim, a alucinação de IA é o conceito que melhor reflete as falhas ou bugs percebidos nas respostas obtidas.
Como reduzir a taxa de alucinação de IA?
No contexto empresarial, são muitas as possíveis consequências de uma alta taxa de alucinação de IA.
Pense, por exemplo, no fornecimento de uma informação inverídica a um cliente, que pode levá-lo a romper as relações com a sua empresa e prejudicar a reputação do negócio como um todo.
Para evitar esse tipo de situação, é preciso pensar primeiramente nas principais causas da alucinação de IA.
Nesse sentido, destaca-se o treinamento a partir de um conjunto limitado de dados. Suponhamos, por exemplo, que a inteligência artificial seja treinada para identificar objetos.
Se o treinamento for realizado tendo como base apenas as imagens de objetos presentes em um escritório — como blocos de papel, computadores e canetas —, é muito provável que a alucinação de IA aconteça quando a ferramenta precisar identificar objetos mais comuns no contexto doméstico, como um liquidificador ou um ferro de passar.
Muitos casos de alucinação de IA podem ocorrer em razão da interpretação errada do contexto, de informações desatualizadas e de erros já presentes nos dados de origem.
Mas existem estratégias relativamente simples que você pode utilizar para evitar essas situações. Veja algumas delas em seguida:
Prefira a linguagem simples e direta
Quando a sua solicitação é feita de forma simplificada e direta, os riscos de que a inteligência artificial interprete inadequadamente o seu pedido são menores.
Procure ter certeza de que suas instruções são suficientemente claras, priorizando os detalhes relevantes e eliminando aqueles que forem desnecessários.
Releia o texto elaborado para iniciar a interação com a ferramenta e reelabore tudo o que parecer dúbio ou obscuro para evitar uma alucinação de IA.
Forneça contexto à ferramenta
Ao contextualizar suas solicitações, você ajuda a inteligência artificial a seguir de modo satisfatório as instruções na elaboração de uma resposta.
Além disso, você também incentiva a ferramenta a abordar de forma mais específica o assunto tratado, fornecendo uma resposta útil à sua pergunta.
No caso, por exemplo, da utilização do ChatGPT no atendimento ao cliente, é importante fornecer dados sobre o perfil dos consumidores que formam o público-alvo do seu negócio.
Fique atento aos parâmetros customizáveis
O ChatGPT conta com um parâmetro chamado de “temperatura”, que serve para regular o nível de “criatividade” da ferramenta.
Assim, um valor mais alto para a temperatura indica que a plataforma fornecerá respostas mais criativas e potencialmente menos precisas, enquanto um valor mais baixo potencializa as respostas mais precisas.
Se o que você precisa é de respostas baseadas em fatos, a temperatura mais baixa vai ajudar a evitar a alucinação de IA.
Treine a ferramenta com dados diversos e qualificados
Certifique-se de que o modelo de inteligência artificial utilizado em sua empresa seja treinado com um conjunto de dados de alta qualidade e bem selecionados.
Dados ruins ou imprecisos podem inviabilizar o atingimento dos objetivos que você busca ao utilizar a IA.
Além disso, é importante contar com uma ampla variedade de dados aos quais a plataforma possa recorrer para elaborar as respostas.
Assim, ela poderá lidar com uma grande diversidade de situações e nuances, fornecendo mais respostas realmente válidas.
Concluindo
Plataformas como a Desk Manager, que possui integração com o ChatGPT, facilitam a seleção e armazenamento dos dados que formarão a sua base de conhecimento.
Isso ajuda na compreensão e contenção das taxas de alucinação e também nos treinamentos dos modelos de IA.
Com a utilização das ferramentas certas você fornece os insumos adequados à inteligência artificial para a elaboração das respostas esperadas, sobretudo quando se pensa em um contexto de implementação de uma estratégia ESM, focada na prestação de serviços por diversos departamentos de uma empresa.
Dessa forma, a IA conquista maior confiabilidade para cuidar dos contatos iniciais enquanto a sua equipe de colaboradores humanos cuida das frentes mais complexas. Para promover um treinamento eficiente de inteligência artificial e evitar a alucinação de IA, conheça a Desk Manager e todas as funcionalidades que podem ser empregadas em benefício do seu negócio.