Da redação
As discussões sobre o uso da inteligência artificial (IA) tornaram-se urgentes diante das eleições de 2024, devido ao risco crescente de manipulação por meio de imagens e vídeos hiper-realistas criados com a tecnologia. A IA, já inserida no núcleo das redes sociais, gera conteúdos capazes de enganar até especialistas e advogados de Direito Digital, ampliando as ameaças à democracia em um ambiente brasileiro de regulação lenta e fiscalização inconsistente.
O incentivo econômico das big techs para não coibir golpes e fraudes é significativo. De acordo com investigações da Reuters, cerca de 10% do lucro anual da Meta, o equivalente a R$ 85 bilhões (US$ 16 bilhões), vem de anúncios fraudulentos. Mesmo alegando combater abusos, as plataformas lucram com o engajamento gerado por conteúdos falsos, profundando o problema com a proliferação dos chamados deepfakes.
O impacto político é evidente: segundo o DataSenado, em 2018 as redes sociais influenciaram o voto de 45% da população. Ainda que não existam dados consolidados sobre 2022, a influência cresceu e tende a atingir seu ápice nas eleições deste ano.
Em resposta, o Tribunal Superior Eleitoral (TSE) determinou para as eleições municipais de 2024 a rotulação obrigatória de conteúdos gerados por IA e proibiu a veiculação de material falso que simule candidatos ou autoridades. O TSE também exige a remoção ágil desse tipo de conteúdo, mas enfrenta uma disparidade entre a velocidade de propagação das fake news e a resposta institucional, o que compromete a integridade do pleito.
Apesar de leis como o Marco Civil da Internet e a Lei Geral de Proteção de Dados, a fiscalização ainda é insuficiente, com apenas 20 sanções aplicadas pela Agência Nacional de Proteção de Dados desde 2018. Sem legislação específica para IA e transparência no uso de dados, usuários seguem sem proteção adequada, tornando-se produto, matéria-prima e alvo das plataformas em um cenário cada vez mais automatizado e desinformativo.








