Rafael Zanatta, codiretor da Data Privacy Brasil, organização que atua na construção de políticas públicas e diretrizes legais para o uso ético de dados e IA no país, conversou com nosso time e trouxe insights e reflexões sobre risco de viés e apagamento de vozes na própria estrutura das ferramentas de IA, responsabilidade algorítmica e realidade brasileira. Vem ver!
1. A IA tem sido usada cada vez mais para automatizar processos de comunicação, inclusive por ONGs e movimentos sociais. Como garantir que essa automação não reproduza os mesmos padrões de exclusão que essas organizações combatem?
É crucial um letramento crítico sobre as IAs, especialmente os modelos de linguagem natural. É preciso lembrar que ChatGPT, Gemini e DeepSeek são modelos estatísticos e randômicos, altamente dependentes da precisão e clareza das instruções. Haverá sempre um viés estatístico e inferências que podem ser inapropriadas. A automação de uma comunicação pode pressupor um certo público-alvo padronizado, por exemplo, de alta probabilidade estatística, mas sem as nuances e saberes locais, que somente o trabalho de campo com uma comunidade poderia produzir. A comunicação produzida por IA não é uma comunicação dotada de experiência relacional. Isso é muito sensível quando falamos de populações indígenas, caiçaras ou quilombolas, que são sub-representadas em bancos de dados. O efeito que se pode produzir é uma ocidentalização padronizada pelas correlações entre dados, que ignora os sentidos e os valores de comunidades. Um antídoto a isso é o uso seletivo e ético das IAs e a permanente supervisão humana no trabalho da sociedade civil.
2. Muito se fala em “responsabilidade algorítmica”, mas pouco se traduz em diretrizes práticas para o campo da comunicação. Que caminhos você enxerga para tornar a curadoria ética e a transparência obrigatórias no uso de IA por empresas e organizações da sociedade civil?
Esse é um tema novo, mas algumas organizações já adotam práticas muito interessantes. No jornalismo, a equipe do Núcleo Jornalismo já adota avisos aos leitores e quadros informativos de como a IA foi usada. Um leitor irá gostar de saber que certos gráficos foram aprimorados com ChatGPT 4.0 e que a investigação e apuração foi conduzida por um repórter. Isso garante autenticidade e transparência. Portanto, a rotulagem de IA é um elemento básico: explicar como ela foi usada, preservando a lealdade e a boa-fé.
Outra recomendação é não incluir a integralidade de documentos sensíveis e informações estratégicas (políticas e financeiras) como inputs para produzir projetos de pesquisa ou relatórios. Essa já é uma realidade no Judiciário que foi contida com a Resolução 615/2025 do Conselho Nacional de Justiça. Na Data Privacy Brasil, usamos a IA para aprimorar textos finais de Newsletters, especialmente quando fazemos versões traduzidas e precisamos de maior fluidez na língua inglesa. Isso deve ser apresentado como disclaimer.
Até 2030, muitas organizações civis criarão seus códigos de conduta para uso ético de IAs. É crucial que esse esforço seja feito, com mapeamento das oportunidades e dos riscos envolvidos. Provavelmente, dada a altíssima evolução tecnológica em chatbots, IAs generativas e robótica, essas políticas precisarão ser permanentemente atualizadas.
3. Você acredita que a regulação da inteligência artificial no Brasil tem sido sensível à diversidade territorial, racial e cultural do país? O que ainda falta para que a governança da IA leve em conta o que é produzido e vivido fora dos grandes centros?
O processo de elaboração da regulação de IA no Brasil tem muito a melhorar, sem dúvidas. O país possui centenas de línguas e povos, bem como uma tremenda diversidade regional. Essa riqueza de visões, experiências e modos de vida teve pouca visibilidade no Congresso Nacional nos últimos três anos. No entanto, é crucial reconhecermos que as infraestruturas informacionais fazem parte de todos os movimentos, seja o movimento pela agricultura familiar, seja o movimento antirracista. A plataformização e a datificação estão nos territórios e os artefatos digitais estão imbricados nas nossas vidas. Por isso é fundamental o olhar atento dos movimentos sociais para o que se passa agora na Comissão Especial de Inteligência Artificial na Câmara dos Deputados. Este não deve ser tratado como um assunto “somente para técnicos” ou “somente para o futuro dos negócios”. Por isso que defendemos, na campanha “IA com Direitos”, uma frente ampla, democrática e diversa nessa conversa com o parlamento.O trabalho da Data Privacy Brasil nos inspira. Se ainda não conhece, vale a pena o clique!


