Alertas
O tema desta seção é atual e altamente relevante para o trabalho dos servidores públicos: "Alertas para o uso de IA Generativa". O objetivo é compreender como utilizar essa tecnologia poderosa de forma segura, ética e responsável.
Responsabilidade no Uso da IA
Antes de abordar aspectos técnicos, é essencial tratar da responsabilidade do auditor ao utilizar ferramentas de inteligência artificial generativa. Esse ponto não pode ser negligenciado, pois envolve diretamente o papel e a postura profissional diante das novas tecnologias.
Ao utilizar IA generativa, a responsabilidade do auditor permanece inalterada. Todos os normativos que regem a atividade de auditoria e o serviço público continuam plenamente aplicáveis. Assim, a autoria e a responsabilidade sobre qualquer documento produzido permanecem com o auditor, independentemente de ter havido apoio de uma ferramenta de IA. Caso a IA gere um erro, isso não exime o auditor da obrigação de revisar o conteúdo e assumir a autoria plena e exclusiva do resultado final.
Pontos de Atenção no Uso da IA
Com a responsabilidade devidamente destacada, é possível avançar para os principais pontos de atenção que devem ser observados quando se opta por utilizar a IA generativa nas tarefas do dia a dia.
Um dos cuidados mais importantes envolve a citação de normas jurídicas. Ferramentas de IA podem apresentar informações inexistentes ou incorretas, fenômeno conhecido como alucinação. Isso é especialmente perigoso ao mencionar leis, artigos ou interpretações jurídicas, podendo gerar erros graves nos produtos da auditoria.
Outro ponto crítico é o uso de IA para acessar informações muito recentes. Muitos modelos são treinados com dados até uma determinada data e não têm acesso em tempo real à internet. Isso pode gerar respostas desatualizadas, como ao perguntar sobre o atual titular de um cargo público. Portanto, é essencial verificar a atualidade das respostas fornecidas pelas ferramentas.
A Importância da Revisão
Diante dos riscos apresentados, uma regra de ouro deve ser seguida: revisar sempre. A revisão humana cuidadosa é indispensável para garantir a qualidade, precisão e responsabilidade sobre qualquer conteúdo gerado com auxílio de IA.
Guias e Orientações
Diversos órgãos públicos já vêm publicando guias e orientações sobre o uso de IA. Entre os principais documentos estão os publicados pela Controladoria-Geral da União (CGU), pelo Tribunal de Contas da União (TCU), além do Ministério da Gestão e Inovação e do Conselho Nacional de Justiça (CNJ). Esses materiais oferecem diretrizes e boas práticas para o uso seguro da tecnologia no setor público.
- Guia da CGU
- Guia do TCU
- Guia do MGI
- Resolução do CNJ
- IIA - Aplicando a IA Generativa em Atividades de Auditoria Interna
Recomendações de Uso
A partir dessas diretrizes, é possível destacar algumas práticas essenciais:
- Utilizar a IA apenas como ferramenta auxiliar, e não como substituto da decisão profissional.
- Assegurar que o uso da IA seja ético, transparente e não discriminatório.
- Evitar o uso da IA com dados sigilosos, salvo se estes forem devidamente anonimizados.
- Revisar integralmente todo o conteúdo gerado por IA antes de utilizá-lo.
A Resolução do CNJ
Um dos principais marcos regulatórios sobre o tema é a Resolução nº 615/2025 do Conselho Nacional de Justiça (CNJ). Esta norma estabelece as diretrizes para o desenvolvimento, uso e governança de soluções de inteligência artificial no âmbito do Poder Judiciário.
A seguir, são apresentados os principais pontos da Resolução CNJ nº 615/2025:
O Art. 19 autoriza o uso da IA como ferramenta de apoio, desde que provida e monitorada pelos próprios tribunais.
Para ferramentas privadas, a resolução exige:
- Capacitação dos usuários;
- Responsabilidade final do magistrado;
- Proibição do uso de dados sigilosos, salvo se anonimizados.
A norma recomenda:
- Treinamento contínuo;
- Registro obrigatório da utilização da IA nos sistemas internos, para fins de auditoria e controle.
Quanto à contratação de soluções de IA:
- As empresas devem respeitar a legislação brasileira, em especial a Lei Geral de Proteção de Dados (LGPD);
- Garantir o sigilo das informações;
- Adotar práticas de privacidade desde a concepção (privacy by design).
O uso de dados sigilosos para treinar modelos de IA é proibido, salvo se forem anonimizados. Além disso, as ferramentas devem:
- Indicar qual modelo e versão estão sendo usados;
- Garantir que os produtos gerados sejam identificados nos registros do sistema.