Por
Kevin Ruffino
05/06/2025
O despontar das inteligências artificiais baseadas em modelos de linguagem de larga escala (Large Language Models – LLMs) tem ampliado sua presença quase inerente em atividades do cotidiano. Do uso pessoal, como edição de imagens e respostas bem estruturadas para e-mails, até implementações atreladas a modelos de negócios robustos que oferecem soluções para potencializar a produtividade e eficiência.
Entretanto, a ascensão acelerada dessa tecnologia deve vir acompanhada de obrigações e deveres de proteção. A utilização de I.A. em todos os setores da sociedade oferece benefícios contundentes, mas também gera riscos imprevisíveis em aspectos éticos, regulatórios e de segurança. Nesse sentido, a governança e o gerenciamento de riscos de I.A. têm se mostrado respostas plausíveis para a mitigação de riscos, conservação da confiança, accountability e conformidade com regulamentações que estão surgindo no cenário nacional e internacional.
Sistemas de I.A. são continuamente alimentados e treinados, apresentando volatilidade em seus resultados, conforme dados são apresentados e algoritmos sofrem modificações, gerando incertezas e riscos. Casos recentes, como a interrupção de treinamentos de I.A. pela Meta, em julho de 2024, e a suspensão do uso de biometria facial em estádios no Brasil pela ANPD, demonstram que, sem uma estrutura sólida de governança, a adoção de I.A. pode gerar impactos negativos graves, como violação de privacidade, viés algorítmico e uso indevido de dados pessoais e confidenciar.
A Governança como Pilar de Confiabilidade
A governança de I.A. deve ser entendida como o conjunto de práticas, princípios e políticas que orientam o ciclo de vida completo de um sistema de inteligência artificial, considerando sua concepção, operação e atualizações. Na mesma medida, tem por objetivo fomentar a inovação tecnológica enquanto possibilita a manutenção da segurança e previsibilidade, eliminando a difusão de vieses, o compartilhamento de dados confidenciais ou sensíveis e garantindo a preservação da dignidade e dos direitos humanos.
Diversos instrumentos internacionais e nacionais estão sendo desenvolvidos para apoiar e regular essa governança:
Princípios da OCDE para a I.A.
EU AI Act
PL 2338/2023 (Brasil)
Framework NIST (EUA)
ISO 42001
Estrutura de Funções para Gestão Responsável da I.A
Em consonância com os instrumentos regulatórios e institucionais para a governança de I.A., é imprescindível que funções sejam estabelecidas para construir uma estrutura contínua de gerenciamento de riscos. E, para uma estrutura robusta que ateste a confiabilidade no desenvolvimento de uma I.A., é necessária a adoção de quatro funções: governar, mapear, medir e gerenciar.
Governar
A função de governança está intimamente relacionada a aspectos gerais de todo o ciclo de vida de uma I.A., estabelecendo diretrizes e políticas que guiam e orientam como devem ser construídas, implementadas, verificadas ou alteradas.
Implementar políticas e procedimentos de desenvolvimento, adoção e uso seguro;
Difundir uma cultura organizacional responsável e diversa;
Estabelecer responsabilidades bem definidas;
Envolver atores relevantes nas decisões sobre o tema.
Mapear
A função de mapeamento exige a compreensão contextual da organização e a delimitação de escopo relacionados à identificação de riscos. Importa observar que a construção ou implementação de uma I.A. em diversos contextos exige o fracionamento de atividades que, apesar de dependentes, possuem autonomias que influenciam o desenvolvimento e o tratamento de riscos diversos.
Compreender o ambiente de aplicação;
Documentar as capacidades, objetivos e funcionamento da I.A.;
Compreender o uso pretendido, metas e benefícios da I.A.;
Mapear os riscos e benefícios;
Mapear os impactos potenciais em indivíduos e comunidades.
Medir
A função de medição tem por objetivo identificar métricas quantitativas, qualitativas ou mistas para mensurar riscos relativos à confiabilidade e aos potenciais impactos técnicos e sociais da I.A. a ser criada ou adotada.
Utilizar métodos quantitativos, qualitativos e mistos;
Avaliar os sistemas quanto à confiabilidade;
Adotar mecanismos para monitoramento dos riscos;
Medir a eficácia das métricas utilizadas.
Gerenciar
Por fim, os resultados obtidos nas etapas de mapeamento e medição serão tratados pela função de gerenciamento. É nesta função que recursos são alocados conforme o grau de prioridade para eliminação, mitigação ou aceitação dos riscos, segundo o contexto organizacional e legal.
Priorizar o gerenciamento dos riscos com base na gravidade e no impacto;
Implementar estratégias de mitigação, eliminação ou aceitação dos riscos;
Gerenciar riscos e benefícios da I.A. de terceiros;
Planejar a resposta a incidentes e a continuidade dos negócios.
Os riscos associados à inteligência artificial não devem ser considerados apenas nas linhas de código, mas em todo o seu ciclo de vida, abrangendo desenvolvimento, implementação, alteração e revisão. Tais riscos estão necessariamente atrelados à interação com o ambiente social, seja durante o processo contínuo de treinamento, seja na geração de outputs pelo sistema.
Assim, ao considerarmos todo o ciclo de funções da Governança e Gestão de Riscos de Inteligência Artificial — adotando as funções de Mapeamento, Medição, Gerenciamento e Governança —, as organizações estarão passos à frente para o compliance regulatório de I.A., garantindo sustentação na privacidade, segurança da informação e uso ético da tecnologia.
Sobre o autor
Kevin Rufino da Silva, Encarregado de Proteção de Dados (DPO) da Finch.