Pular para conteúdo

Alertas

Slides PDF Quiz

O tema desta seção é atual e altamente relevante para o trabalho dos servidores públicos: "Alertas para o uso de IA Generativa". O objetivo é compreender como utilizar essa tecnologia poderosa de forma segura, ética e responsável.

Responsabilidade no Uso da IA

Antes de abordar aspectos técnicos, é essencial tratar da responsabilidade do auditor ao utilizar ferramentas de inteligência artificial generativa. Esse ponto não pode ser negligenciado, pois envolve diretamente o papel e a postura profissional diante das novas tecnologias.

Ao utilizar IA generativa, a responsabilidade do auditor permanece inalterada. Todos os normativos que regem a atividade de auditoria e o serviço público continuam plenamente aplicáveis. Assim, a autoria e a responsabilidade sobre qualquer documento produzido permanecem com o auditor, independentemente de ter havido apoio de uma ferramenta de IA. Caso a IA gere um erro, isso não exime o auditor da obrigação de revisar o conteúdo e assumir a autoria plena e exclusiva do resultado final.

Pontos de Atenção no Uso da IA

Com a responsabilidade devidamente destacada, é possível avançar para os principais pontos de atenção que devem ser observados quando se opta por utilizar a IA generativa nas tarefas do dia a dia.

Um dos cuidados mais importantes envolve a citação de normas jurídicas. Ferramentas de IA podem apresentar informações inexistentes ou incorretas, fenômeno conhecido como alucinação. Isso é especialmente perigoso ao mencionar leis, artigos ou interpretações jurídicas, podendo gerar erros graves nos produtos da auditoria.

Outro ponto crítico é o uso de IA para acessar informações muito recentes. Muitos modelos são treinados com dados até uma determinada data e não têm acesso em tempo real à internet. Isso pode gerar respostas desatualizadas, como ao perguntar sobre o atual titular de um cargo público. Portanto, é essencial verificar a atualidade das respostas fornecidas pelas ferramentas.

A Importância da Revisão

Diante dos riscos apresentados, uma regra de ouro deve ser seguida: revisar sempre. A revisão humana cuidadosa é indispensável para garantir a qualidade, precisão e responsabilidade sobre qualquer conteúdo gerado com auxílio de IA.

Guias e Orientações

Diversos órgãos públicos já vêm publicando guias e orientações sobre o uso de IA. Entre os principais documentos estão os publicados pela Controladoria-Geral da União (CGU), pelo Tribunal de Contas da União (TCU), além do Ministério da Gestão e Inovação e do Conselho Nacional de Justiça (CNJ). Esses materiais oferecem diretrizes e boas práticas para o uso seguro da tecnologia no setor público.

Recomendações de Uso

A partir dessas diretrizes, é possível destacar algumas práticas essenciais:

  1. Utilizar a IA apenas como ferramenta auxiliar, e não como substituto da decisão profissional.
  2. Assegurar que o uso da IA seja ético, transparente e não discriminatório.
  3. Evitar o uso da IA com dados sigilosos, salvo se estes forem devidamente anonimizados.
  4. Revisar integralmente todo o conteúdo gerado por IA antes de utilizá-lo.

A Resolução do CNJ

Um dos principais marcos regulatórios sobre o tema é a Resolução nº 615/2025 do Conselho Nacional de Justiça (CNJ). Esta norma estabelece as diretrizes para o desenvolvimento, uso e governança de soluções de inteligência artificial no âmbito do Poder Judiciário.

A seguir, são apresentados os principais pontos da Resolução CNJ nº 615/2025:

O Art. 19 autoriza o uso da IA como ferramenta de apoio, desde que provida e monitorada pelos próprios tribunais.

Para ferramentas privadas, a resolução exige:

  • Capacitação dos usuários;
  • Responsabilidade final do magistrado;
  • Proibição do uso de dados sigilosos, salvo se anonimizados.

A norma recomenda:

  • Treinamento contínuo;
  • Registro obrigatório da utilização da IA nos sistemas internos, para fins de auditoria e controle.

Quanto à contratação de soluções de IA:

  • As empresas devem respeitar a legislação brasileira, em especial a Lei Geral de Proteção de Dados (LGPD);
  • Garantir o sigilo das informações;
  • Adotar práticas de privacidade desde a concepção (privacy by design).

O uso de dados sigilosos para treinar modelos de IA é proibido, salvo se forem anonimizados. Além disso, as ferramentas devem:

  • Indicar qual modelo e versão estão sendo usados;
  • Garantir que os produtos gerados sejam identificados nos registros do sistema.