Por Pedro Garcia, Repórter de Tecnologia
Muito antes do ChatGPT surgir, os governos estavam interessados em usar chatbots para automatizar seus serviços e aconselhamento.
Esses primeiros chatbots “tendiam a ser mais simples, com habilidades de conversação limitadas”, diz Colin van Noordt, pesquisador sobre o uso de IA no governo, baseado na Holanda.
Mas o surgimento da IA generativa nos últimos dois anos reviveu uma visão de serviço público mais eficiente, onde consultores semelhantes a humanos podem trabalhar 24 horas por dia, respondendo a perguntas sobre benefícios, impostos e outras áreas em que o governo interage com o público.
A IA generativa é sofisticada o suficiente para dar respostas semelhantes às humanas e, se treinada com dados de qualidade suficientes, em teoria poderia lidar com todos os tipos de perguntas sobre serviços governamentais.
Mas a IA generativa se tornou bem conhecida por cometer erros ou até mesmo respostas sem sentido — as chamadas alucinações.
No Reino Unido, o Government Digital Service (GDS) realizou testes em um chatbot baseado no ChatGPT chamado GOV.UK Chat, que responderia a perguntas dos cidadãos sobre uma série de questões relacionadas aos serviços governamentais.
Em uma postagem de blog sobre suas primeiras descobertasa agência observou que quase 70% dos envolvidos no estudo acharam as respostas úteis.
No entanto, houve problemas com “alguns” casos em que o sistema gerou informações incorretas e as apresentou como fatos.
O blog também levantou preocupações de que pode haver confiança equivocada em um sistema que pode estar errado algumas vezes.
“No geral, as respostas não atingiram o mais alto nível de precisão exigido para um site como o GOV.UK, onde a precisão dos fatos é crucial. Estamos iterando rapidamente este experimento para abordar as questões de precisão e confiabilidade.”
Outros países também estão experimentando sistemas baseados em IA generativa.
Portugal lançou o Guia Prático de Justiça em 2023, um chatbot concebido para responder a perguntas básicas sobre assuntos simples como casamento e divórcio. O chatbot foi desenvolvido com fundos do Mecanismo de Recuperação e Resiliência (RRF) da União Europeia.
O projeto de € 1,3 milhões (US$ 1,4 milhões; £ 1,1 milhões) é baseado no modelo de linguagem GPT 4.0 da OpenAI. Além de cobrir casamento e divórcio, ele também fornece informações sobre como abrir uma empresa.
Segundo dados do Ministério da Justiça português, 28.608 questões foram colocadas através do guia nos primeiros 14 meses do projeto.
Quando fiz a pergunta básica: “Como posso montar uma empresa”, ele teve um bom desempenho.
Mas quando perguntei algo mais complicado: “Posso abrir uma empresa se tiver menos de 18 anos, mas for casado?”, ele se desculpou por não ter as informações para responder a essa pergunta.
Uma fonte do ministério admite que eles ainda carecem de confiabilidade, embora respostas erradas sejam raras.
“Esperamos que essas limitações sejam superadas com um aumento decisivo no nível de confiança das respostas”, me diz a fonte.
Tais falhas significam que muitos especialistas estão aconselhando cautela – incluindo Colin van Noordt. “Dá errado quando o chatbot é implantado como uma forma de substituir pessoas e reduzir custos.”
Seria uma abordagem mais sensata, ele acrescenta, se eles fossem vistos como “um serviço adicional, uma maneira rápida de encontrar informações”.
Sven Nyholm, professor de ética da inteligência artificial na Universidade Ludwig Maximilians de Munique, destaca o problema da responsabilização.
“Um chatbot não é intercambiável com um funcionário público”, ele diz. “Um ser humano pode ser responsabilizado e moralmente responsável por suas ações.
“Os chatbots de IA não podem ser responsabilizados pelo que fazem. A administração pública requer responsabilização e, portanto, requer seres humanos.”
O Sr. Nyholm também destaca o problema da confiabilidade.
“Novos tipos de chatbots criam a ilusão de serem inteligentes e criativos de uma forma que os tipos mais antigos de chatbots não costumavam fazer.
“De vez em quando, essas novas e mais impressionantes formas de chatbots cometem erros bobos e estúpidos. Isso às vezes pode ser engraçado, mas também pode ser potencialmente perigoso, se as pessoas confiarem em suas recomendações.”
Se o ChatGPT e outros Large Language Models (LLMs) não estiverem prontos para dar conselhos importantes, então talvez pudéssemos olhar para a Estônia como uma alternativa.
Quando se trata de digitalização de serviços públicos, a Estônia tem sido uma das líderes. Desde o início dos anos 1990, ela vem construindo serviços digitais e, em 2002, introduziu um cartão de identificação digital que permite aos cidadãos acessar serviços estatais.
Portanto, não é surpresa que a Estônia esteja na vanguarda da introdução de chatbots.
Atualmente, o país está desenvolvendo um conjunto de chatbots para serviços estaduais sob o nome de Bürokratt.
No entanto, os chatbots da Estônia não são baseados em Large Language Models (LLM) como o ChatGPT ou o Gemini do Google.
Em vez disso, eles usam Processamento de Linguagem Natural (PLN), uma tecnologia que precedeu a última onda de IA.
Os algoritmos de PNL da Estônia dividem uma solicitação em pequenos segmentos, identificam palavras-chave e, a partir disso, inferem o que o usuário deseja.
Na Bürokratt, os departamentos usam seus dados para treinar chatbots e verificar suas respostas.
“Se Bürokratt não souber a resposta, o chat será entregue ao agente de suporte ao cliente, que assumirá o chat e responderá manualmente”, diz Kai Kallas, chefe do Departamento de Serviços Pessoais da Autoridade de Sistemas de Informação da Estônia.
É um sistema de potencial mais limitado do que aquele baseado no ChatGPT, pois os modelos de PNL são limitados em sua capacidade de imitar a fala humana e detectar indícios de nuances na linguagem.
No entanto, é improvável que eles dêem respostas erradas ou enganosas.
“Alguns chatbots iniciais forçavam os cidadãos a escolher opções para perguntas. Ao mesmo tempo, permitiam maior controle e transparência de como o chatbot opera e responde”, explica Colin van Noordt.
“Os chatbots baseados em LLM geralmente têm muito mais qualidade de conversação e podem fornecer respostas mais detalhadas.
“No entanto, isso tem o custo de menos controle do sistema e também pode fornecer respostas diferentes para a mesma pergunta”, acrescenta.