DEMOCRACIA EN PELIGRO: LA RESPONSABILIDAD CIVIL POR EL USO DE LA INTELIGENCIA ARTIFICIAL EN LA MANIPULACIÓN DE LAS ELECCIONES

Autores/as

  • Juliane Mayer Grigoleto Autor/a

DOI:

https://doi.org/10.56238/arev7n6-034

Palabras clave:

Responsabilidad civil, Inteligencia artificial, Elecciones, Marco Civil de Internet, Tribunal Superior Electoral

Resumen

El avance de la inteligencia artificial (IA) ha tenido un profundo impacto en la comunicación política y en los procesos electorales, especialmente en lo que se refiere a la manipulación de la opinión pública. Este artículo analiza la responsabilidad civil por el uso de la IA en la manipulación de las elecciones en Brasil, a la luz del Marco Civil de Internet y de las resoluciones del Tribunal Superior Electoral (TSE). Se investiga cómo se ha utilizado la tecnología para distorsionar el debate democrático, los fundamentos jurídicos de la responsabilidad civil aplicables al entorno digital y los mecanismos reguladores electorales vigentes. Se argumenta que, aunque el Marco Civil de Internet y las resoluciones del TSE proporcionan instrumentos relevantes para la responsabilización de candidatos, partidos, plataformas digitales y desarrolladores de tecnología, persisten los retos a la hora de identificar a los responsables y adaptar las normas a la complejidad de las nuevas herramientas tecnológicas. Se concluye que, para garantizar la integridad de las elecciones, es necesario fortalecer los regímenes de transparencia, perfeccionar los procedimientos de rendición de cuentas y promover ajustes legislativos que tengan en cuenta las especificidades de la inteligencia artificial.

Descargas

Los datos de descarga aún no están disponibles.

Publicado

2025-06-04

Número

Sección

Artigos

Cómo citar

GRIGOLETO, Juliane Mayer. DEMOCRACIA EN PELIGRO: LA RESPONSABILIDAD CIVIL POR EL USO DE LA INTELIGENCIA ARTIFICIAL EN LA MANIPULACIÓN DE LAS ELECCIONES. ARACÊ , [S. l.], v. 7, n. 6, p. 29606–29624, 2025. DOI: 10.56238/arev7n6-034. Disponível em: https://periodicos.newsciencepubl.com/arace/article/view/5634. Acesso em: 5 dec. 2025.