Sem governança, inteligência artificial fica quase inútil no serviço público

Redação Rádio Plug
9 min. de leitura
Foto: Divulgação / Foto: Fabio Barros Mande um e-mail

O crescimento da inteligência artificial no setor público demanda mais do que inovação tecnológica. É necessário estabelecer governança, garantir transparência, assegurar a rastreabilidade dos dados e promover a participação humana nas tomadas de decisão. Essas questões foram centrais no Painel 4 do Tech Gov Fórum ES, realizado em Vitória, cujo tema foi “IA Ética e Responsável: Aplicações práticas no setor público”.

O painel reuniu especialistas em tecnologia, ciência de dados, direito digital e inovação pública para examinar os desafios que cercam a implementação de soluções de inteligência artificial nas esferas governamentais, especialmente em um cenário de crescente automação de serviços e intensivo uso de dados da população.

A discussão foi mediada por André Ágil Sanches, fundador e CEO do Universo Ágil, que ressaltou a diversidade técnica dos profissionais presentes. “Temos aqui pessoas com expertise em dados, tecnologia, comunicação e questões jurídicas. Isso evidencia que o debate sobre inteligência artificial é multidisciplinar”, comentou Sanches.

Ellen Gera, diretor-presidente da ATI Piauí e vice-presidente de Tecnologia da ABEP-TIC, afirmou que a incorporação de inteligência artificial no setor público está intrinsecamente ligada à governança e à colaboração entre instituições. “O Brasil é uma nação extremamente complexa, constituída por estados, municípios e diversas secretarias, com diferentes estruturas de poder. A complexidade da República exige diálogo e integração”, declarou Gera.

De acordo com ele, apesar da intricada administração brasileira, há exemplos positivos de cooperação entre os governos. “Existem políticas públicas em nível nacional que operam em larga escala, como o Sistema Único de Saúde (SUS). Isso demonstra que podemos criar modelos colaborativos efetivos”, afirmou.

Gera reforçou a necessidade de avanço na criação de infraestrutura tecnológica própria e no desenvolvimento de modelos nacionais de inteligência artificial. “Estamos a caminho de estabelecer uma infraestrutura soberana no Brasil, e é essencial que desenvolvamos nossos próprios modelos de linguagem”, destacou.

Ele apresentou o projeto “Soberania”, uma LLM (Modelo de Linguagem de Grande Escala) totalmente em português, direcionada ao setor público brasileiro, como uma iniciativa pioneira. “Esse modelo não será restrito ao Piauí, ele pode se tornar um exemplo nacional”, afirmou.

Para Gera, cultivar uma cultura de dados na administração pública é um dos pilares fundamentais para a transformação. “Atualmente, o Piauí é o único estado do Brasil a contar com uma Secretaria Estadual de Inteligência Artificial e um Conselho de Transformação Digital presidido pelo governador”, enfatizou.

Entre os casos práticos mencionados, Gera citou a utilização de inteligência artificial para o registro de boletins de ocorrência via WhatsApp e a análise automatizada de exames médicos nas Unidades Básicas de Saúde. “Hoje, no Piauí, os cidadãos não precisam mais ir até a delegacia para registrar um BO; isso pode ser feito pelo WhatsApp, com o suporte de IA”, detalhou.

Ele também informou que os exames realizados nas unidades de saúde municipais são analisados em questão de minutos por sistemas inteligentes. “Um exame pode ser lido em aproximadamente quatro minutos”, disse.

Nivaldo Helmer, gerente de Dados do Prodest, discutiu os desafios relacionados aos vieses algorítmicos e à confiabilidade dos dados empregados pela inteligência artificial. “Antes de nos preocupamos com os vieses, é fundamental assegurar a rastreabilidade dos dados”, completou.

Helmer explicou que muitos dados já chegam aos sistemas possuindo distorções e inconsistências, o que requer processos rigorosos de catalogação, curadoria e supervisão. “Os modelos se deterioram ao longo do tempo à medida que novas informações são incorporadas. Embora não possamos eliminar completamente os vieses, podemos mitigá-los compreendendo as origens dos dados”, disse.

O professor da Universidade Federal do Espírito Santo (UFES), Alberto Ferreira de Souza, destacou os desafios técnicos para tornar os sistemas de inteligência artificial auditáveis e transparentes. “Muitas pessoas não têm consciência de que o poder da IA moderna reside em sua própria complexidade. Ela opera como uma rede neural com bilhões de conexões, que muitas vezes extrapolam nossa própria capacidade de entendimento”, afirmou.

De acordo com ele, empresas de tecnologia já estão desenvolvendo soluções que possibilitam que modelos de IA expliquem o funcionamento de outros modelos. “A Anthropic, por exemplo, criou um método em que uma IA busca entender como outra IA opera. Isso pode nos ajudar a decifrar o que ocorre nesses sistemas, embora ainda seja desafiador entender completamente as razões das respostas fornecidas”, elucidou.

Adriano Carpinetti, Head de Inovações da Montreal, enfatizou que a ética em sistemas de inteligência artificial deve ser incorporada desde a arquitetura tecnológica das soluções. “Em última instância, a IA sempre deve ter um humano responsável pela decisão”, afirmó. A empresa implementa mecanismos de segurança conhecidos como “guard rails”, que limitam ações automáticas e garantem supervisão humana. “Hoje dispomos de IAs que atuam como curadoras, e no final, há sempre um curador humano validando as decisões”, garantiu.

Jesse Fernandes Ferreira, Tech Lead de Ciência de Dados da Bravonix, destacou que a minimização de riscos reputacionais é diretamente proporcional à qualidade da arquitetura dos sistemas e à definição clara de regras. “A escolha do modelo de linguagem adequado é um desafio significativo, pois impacta diretamente no risco de alucinação da IA”, afirmou.

Ele acrescentou que quanto mais restrições e diretrizes forem aplicadas ao sistema, menor será o risco de respostas incorretas. “No setor público, muitas vezes é preferível que a IA responda ‘eu não sei’ a fornecer uma informação errada”, assegurou.

Ao tratar da soberania tecnológica, Gera defendeu que o Brasil deve diminuir sua dependência de soluções estrangeiras. “O Piauí optou por não ficar à mercê das tecnologias globais e investir em uma IA nacional”, disse, ressaltando que o projeto está sendo desenvolvido em parceria com empresas privadas e com o Serpro, com perspectiva de expansão em nível nacional.

Helmer complementou que iniciativas como essas são fundamentais para estabelecer uma cultura de transformação digital dentro do serviço público. “Quando o governo define essa estratégia, ele sinaliza para toda a estrutura que esse é um caminho sem retorno”, declarou, reforçando que a inteligência artificial pode liberar servidores para tarefas de maior importância e humanização. “Permitem que a IA gerencie processos repetitivos, enquanto os servidores podem se concentrar em demandas mais humanas”, concluiu.

O debate ainda abordou a atribuição de responsabilidade por eventuais erros cometidos por sistemas de IA. Carpinetti argumentou que decisões críticas devem continuar sob a responsabilidade de um ser humano. “No setor público, tudo se resume à definição de regras. Dependendo da decisão, é imprescindível que haja uma validação humana”, disse.

Por sua vez, Souza levantou questões maiores sobre o futuro da inteligência artificial e os limites éticos da tecnologia que avança rapidamente. “Já estamos vendo em conflitos, como na guerra da Ucrânia, o uso de drones autônomos. Há estudos que indicam que, em alguns contextos, a IA pode tomar decisões mais eficazes que seres humanos”, apontou.

Assim, o desenvolvimento ágil da inteligência artificial exigirá discussões jurídicas e sociais cada vez mais profundas. “Talvez precisemos, no futuro, começar a discutir a criação da figura da ‘pessoa de IA’, com direitos, deveres e responsabilidades”, finalizou.

Fonte:: convergenciadigital.com.br

Advertisements
Compartilhe este artigo