Magda Ceballos
Introducción
En el presente trabajo veremos lo que es la práctica del astroturfing político, utilizada para influir en resultados electorales, a través de ataques dirigidos a adversarios. Estos ataques pueden ser más penetrantes y efectivos si se utiliza la inteligencia artificial.
- ¿Qué es el astroturfing?
El astroturfing es una técnica comunicativa empleada por organizaciones que consiste en la creación de movimientos de base falsos, que se utilizan para manipular y difundir todo tipo de información, influyendo a los periodistas y la opinión pública (Confesiones de un bot ruso, 2022).
Otra definición es «campañas de desinformación para promover intereses de las entidades que lo promocionan acompañadas normalmente de ausencia de transparencia en la autoría y, en ocasiones, en la usurpación de identidades que aportan valor en la red (normalmente credibilidad) y en la democracia como ocurre con la ‘voz popular’» (García-Orosa, 2021) .
En cuanto al astroturfing político, se puede definir como la utilización de los medios de comunicación para la difusión de noticias o rumores falsos sobre adversarios políticos, con el objetivo de bajar la popularidad o restarle veracidad a los argumentos esgrimidos por cierto partido político (León, 2019).
En pocas palabras, el astroturfing es un sistema para manipular de forma engañosa a la opinión pública, incluyendo los periodistas, generalmente a través de medios digitales, cuyo objeto de ataque suelen ser los candidatos, partidos políticos y gobierno de turno. Su término se deriva de la marca de césped artificial «AstroTurf».
Es decir, no se actúa aisladamente; es un trabajo coordinado y cuyos actores deben tener características especiales, como nos habla un bot ruso (Confesiones de un bot ruso, 2022): en la agencia de astroturfing, además de la entrevista, se exigía conocimientos de marketing digital, big data y sociología, sumado a que debían tener interés en la actualidad, política o economía. Desde mi punto de vista, si se añade conocimientos sobre la psicología política y la neurociencia, el aumento de la efectividad en cuanto al daño sería explosivo.
Existen diversas tácticas para manipular la opinión pública como la creación de cuentas falsas, uso de comentarios y reseñas falsas, organización de protestas o eventos falsos y financiamiento de grupos aparentemente independientes (Arregui, 2024).
El astroturfing, junto con los filtros de burbujas, las cámaras de eco y la polarización digital son parte de la cuarta ola, la cual inició en el 2016 con los casos de Cambrigde Analytics y el Brexit.
- ¿Qué es la inteligencia artificial?
El término de inteligencia artificial, sin bien es fuertemente escuchado y repetido últimamente, tiene sus inicios en la década de los 60. A continuación, vamos a compartir algunas definiciones de inteligencia artificial, importantes en este tema.
Una definición es sistema basado en máquinas que, para objetivos implícitos o explícitos, infiere de la entrada recibida, como generar salidas como predicciones, contenidos, recomendaciones o decisiones que pueden influenciar en el entorno físico o virtual (Diaz, Osorio, & Amadeo, 2023) . (corregir Díaz)
Otra definición sería la capacidad de un sistema para interpretar datos externos; utilizar estos datos para lograr metas específicas y llevar a cabo acciones que maximizan las posibilidades de éxito en una tarea concreta (Caldeiro, 2024).
Para mi concepto, la inteligencia artificial es el uso de la tecnología y de algoritmos para imitar las capacidades y el comportamiento humano.
El uso de la inteligencia artificial no solo da mayor acceso a los ciudadanos en general, sino que también permite darle instrucciones o un buen prompt; incluso un niño podría diseñar un sistema de astroturfing para ir en contra de una persona o entidad. Recordemos que con las indicaciones adecuadas podría generar códigos de programación, utilizables hasta por un menor de edad.
- Big Data + inteligencia artificial = insight
Cuando hablamos de big data nos referimos a conjuntos de datos o combinaciones de conjuntos de datos cuyo tamaño (volumen), complejidad (variabilidad) y velocidad de crecimiento (velocidad) dificultan su captura, gestión, procesamiento o análisis mediante tecnologías y herramientas convencionales (Fantini, 2021) .
En ciencias de datos una frase muy común es gargabe in, garbage out, que significa “basura entra, basura sale”. Y el otro aspecto importante es el insight; es decir, la información clave que requiero obtener de los datos.
El utilizar datos errados va a llevar obligatoriamente a tener todo un trabajo y procesamiento realizado con datos errados; por lo tanto, el resultado del proceso, aunque sea perfecto, sería un error.
Los datos pueden ser estructurados y no estructurados. Los datos estructurados son aquellas organizados en filas y columnas. El resto son datos no estructurados que puede incluir imágenes, vídeos, entre otros. Estos datos deben transformarse en datos estructurados para ser procesados.
También se usa el término “gobierno de los datos”, el cual se refiere básicamente al procedimiento y reglas que se va a tener en el manejo de los datos.
Hay que tener presente que es muy difícil encontrar una base de datos sin valores nulos o con datos que a toda vista están equivocados. En esta situación se puede usar la media, la mediana y la moda, para reemplazar los espacios nulos o vacíos.
Usar el big data con inteligencia artificial para obtener los insight (información clave) puede proporcionar datos que darían en el blanco perfecto para hacer daño a los contrincantes. Los ejecutantes del astroturfing sabrían específicamente qué mentiras fabricar para tener mayor impacto y que, además, fueran más creíbles para su público objetivo.
- Deep fake, la inteligencia artificial y la alteración de la imagen
Los Deep fakes son medios sintéticos generados mediante técnicas de aprendizaje profundo (Deep learning), que utilizan redes neuronales profundas. Pueden ser, e incluyen imágenes, vídeos y grabaciones de audio manipulados para retratar a alguien diciendo o haciendo algo que en realidad nunca dijo ni hizo (Micucci, 2024).
Con la inteligencia artificial se puede cambiar, incluso, la pose de una persona en una foto. Para eso, muchas herramientas usan los puntos focales del cuerpo, alterando la realidad.
La estimación de pose es una de las áreas desarrolladas en la visión por computadora, dentro de la familia de la inteligencia artificial (Navarro, 2023) .
La inteligencia artificial permite perfeccionar la suplantación de identidad (Ali, 2024), con lo que, cada vez será más difícil identificar lo real de lo que no lo es.
Como estrategia de astroturfing, con la inteligencia artificial se podría fabricar un vídeo de actos que realmente nunca sucedieron sobre un candidato, partido u organismo para impactar negativamente la opinión de muchas personas rápidamente.
- Bots y trolls disfrazados
El bot se puede definir como un programa que realiza acciones repetitivas a través de Internet, como enviar mails, responder mensajes o tuitear, buscando simular el comportamiento humano. Un algoritmo lo hace funcionar y no directamente una persona, por eso viene de la palabra ro-bot (Aguilar, 2021).
Por su parte, el troll se puede definir como usuarios de internet que publican mensajes provocativos con el fin de molestar o llamar la atención (Encis, 2024).
Las personas o agencias que usan el astroturfing dirigido a una persona, partido o gobierno en concreto, no solamente afectan a los atacados, sino que también al ambiente social de forma negativa; es decir, al final, todos somos afectados.
Por supuesto, impiden conocer realmente a los candidatos, al dificultar la maniobra de separar lo cierto de lo falso y, además, pueden llevar a una sociedad a perder a los mejores candidatos, al no votar por estos, al ser presos de ataques constantes cargados de mentira.
- Protección de datos y astroturfing
Este gran monstruo tecnológico necesita información. Parte del problema es que dentro de la información personalizada entran los datos personales y protegidos por ser considerados confidenciales.
En este sentido, el artículo 11 de la Ley 81 de 2019 establece que los datos personales deben utilizarse para los fines determinados, explícitos y lícitos para los cuales hubieran sido autorizados al momento de su recolección y las excepciones solamente pueden estar expresamente en la Ley.
Aparece un gran reto referente a las fronteras de los países, puesto que la obtención se puede dar en una plataforma que se encuentra fuera de Panamá.
A mayor acceso a información de datos personales, mayor impacto del astroturfing, puesto que, para ser efectivo, tiene que manipular; para manipular, se requiere tener información de las personas, especialmente sobre los puntos que la pueden mover, mayormente, hacia el odio.
- Violencia política digital
Si el enfoque del astroturfing es el ataque, especialmente, para dañar la imagen de actores políticos, fácilmente se pueden tener conductas que involucre la violencia política digital.
Muchas veces las mujeres se quejan de la violencia de los ciudadanos, cuando realmente muchos de esos ataques se derivan de las agencias de astroturfing o son provocadas por ellas.
Es esencial poder identificar y separar las acciones de los ciudadanos de las actividades de astroturfing. Esto se logra solamente si se tienen los recursos tecnológicos adecuados.
- Retos a enfrentar
VIII.1 Educación de los electores
A medida que los electores estén preparados para advertir fácilmente cuando hay noticias falsas, cuando se trate de una estrategia de astroturfing o hay inteligencia artificial involucrada para manipular la verdad, estas prácticas engañosas serán menos efectivas y, por lo tanto, podrían llevar a disminuir su uso.
VIII. 2 Equipamiento tecnológico
Combatir ataques que se apoyan en tecnología sin contrarrestarlos con tecnologías más avanzadas, es como la competencia de una persona que camina y otra que va en auto.
Se requiere un personal técnico que conozca cómo buscar la información y la prueba digital que se requiere, y, además, conocer las situaciones o las habilidades de quienes realizan conductas indebidas para borrar o alterar la prueba.
Si no tenemos el conocimiento tecnológico mínimo, se nos escapará la liebre.
Con la facilidad de la suplantación de identidad, el personal especializado en tecnología debe tener la capacidad de detectar este tipo de delitos.
VIII. 3 Equipo de trabajo especializado
Con el pasar de los años, las técnicas para llegar y manipular al electorado se vuelven más especializadas, lo que conlleva que se requiera más conocimiento especializado y, en este punto, la lista es bastante larga: ciberseguridad, comunicación política, protección de datos, informáticos, marketing digital, redes sociales, bots, trolls, ciencia de datos, big data, astroturfing, metaverso, psicología política, deep fake, campañas electorales, criptomonedas, humor social, análisis de datos, realidad virtual, ingeniería de prompting, neurociencia, cámaras de eco o burbujas, mapeo de emociones, suplantación de la identidad, cadenas de custodia, inteligencia artificial, blockchain, docencia, espionaje, IoT, ubicación de IP, social listening, criptoactivos, por mencionar algunos.
En este sentido, se requiere una serie de especialidades para poder enfrentar los retos de la cuarta ola, así como de los nuevos, actuales y futuros de las elecciones y, por ende, de la democracia.
VIII. 4 Normativa electoral
Durante el periodo de las elecciones de 2024 se emitió el Decreto 7 de 2024, encaminado a tipificar algunas conductas reguladas en el artículo 539 del Código Electoral (manipulación de medios digitales de forma masiva, con el propósito de alterar o afectar la integridad de un proceso electoral), la cuales son:
- Crear perfiles o contenidos falsos a través de la tecnología generada por medio de la Inteligencia Artificial (IA), como las redes generativas adversarias, que utilizan “redes neuronales” de aprendizaje automático para crear imágenes o vídeos que simulan personas y comportamientos reales que no corresponden a la realidad.
- Crear y/o administrar cuentas falsas o utilizando «bots / robots» y otras formas de tecnologías automatizadas para amplificar la propaganda y otros contenidos dañinos en línea.
- Contratar redes de usuarios (tanto bots como humanos) que trabajan juntos para amplificar ciertos contenidos o narrativas engañosos.
- Utilizar grupos y páginas privadas en redes sociales para difundir noticias falsas lejos del escrutinio público.
- Contratar o influenciar a personas con muchos seguidores en redes sociales para difundir información engañosa.
- Crear y/o administrar sitios web de «noticias falsas» o granjas de contenido que, bajo la apariencia de un medio de comunicación, publican historias falsas, engañosas o inexactas, a veces falsificando sitios de organizaciones de noticias reales.
- Manipular la información a través de la edición de imágenes, audios o vídeos.
- Presentar información verdadera en un contexto engañoso, como el uso de imágenes auténticas pero descontextualizadas o citas fuera de contexto para dar una impresión errónea.
- Fomentar y difundir teorías de la conspiración que carecen de fundamento.
- Utilizar la publicidad en redes sociales para dirigir contenido falso o engañoso a audiencias específicas.
- Difundir desinformación.
- Piratear fuentes de información privada o confidencial y filtrando información al público de manera estratégica para socavar la confianza o la integridad del proceso electoral.
- Piratear las cuentas de personas reales para hacerse pasar por ellas o difundir información errónea o desinformación a grandes audiencias.
- Manipular los motores de búsqueda, utilizando herramientas de la publicidad.
- Usar plataformas publicitarias en línea para recopilar datos personales sobre los usuarios y dirigirse a ellos con mensajes políticos persuasivos.
- Bloqueando, redirigiendo o limitando el acceso a ciertos tipos de información electoral en línea.
- Usar algoritmos y análisis de datos para dirigir contenido falso o engañoso a grupos muy específicos (Microtargeting) basados en sus intereses, creencias o demografía.
- Desacreditar a individuos o grupos mediante la difusión de información falsa o engañosa sobre ellos y provocar una reacción emocional en el objetivo (Trolling). Esto incluye mujeres, personas con diversas identidades de género, minorías raciales o étnicas.
- Violar reiteradamente las normas de propaganda electoral, con ataques a partidos políticos o candidatos de forma directa o velada con la intención manifiesta de afectar la integridad del proceso electoral, socavando la democracia.
Además de estas conductas enumeradas, es necesario reforzar la normativa electoral que permite mejores herramientas de defensa, de desenmascarar el anonimato y aportación de pruebas.
Una buena normativa electoral debe tener la capacidad de prever y visualizar los problemas que se pueden generar en las siguientes elecciones y poner las reglas del juego de la forma más justa posible. Es claro que uno de los temas a regular adecuadamente es el astroturfing político.
VIII. 5 Prueba digital
Para poner una sanción se debe comprobar fehacientemente la falta o el hecho delictivo. Es necesario que haya una normativa que los respalde; es decir, que señale las condiciones que se deben cumplir para que una prueba sea considerada válida.
Cruzado con lo anterior, hay que establecer las reglas para el manejo inadecuado de la prueba por parte del funcionario, y que derive en el contagio de la evidencia digital.
En este sentido, dentro del Código Electoral existe una ventana abierta en el Artículo 609, que señala que, de forma supletoria, se puede aplicar el Código Judicial.
En este sentido, debemos tener presente que el procedimiento procesal civil ha sufrido una fuerte reforma y requiere evaluar cómo puede afectar la gestión de los operadores electorales, especialmente en cuanto a la prueba.
Manejar adecuadamente la cadena de custodia es necesario, tanto en la norma como el procedimiento que se debe cumplir. También establecer quién es responsable en caso de no seguir la cadena de custodia.
VIII. 6 Peritaje informático
Lo más importante es tener un perito informático debidamente capacitado, y que pueda dar la respuesta correcta en el tiempo oportuno.
Además de tener conocimiento de peritaje informático, es imprescindible que conozca la norma electoral; de lo contrario, se puede invalidar su actuación, cuando esté en contra de lo estipulado.
Adicional a lo anterior, no es solamente que la persona tenga el conocimiento, sino que también sepa redactar un informe adecuado, que sepa expresar lo que detectó y que pueda enfrentar las preguntas que le hagan en una audiencia o dentro de un expediente.
No sirve tener un perito informático que puede ser fácilmente tachado porque no tiene las habilidades comunicativas adecuadas.
Tanto el Tribunal Electoral como la Fiscalía General Electoral deberán tener personal especializado, y debe incluir su propio equipo de peritos informáticos, a fin de responder con la rapidez que amerita el caso.
- Recomendaciones
Está por iniciar una competencia feroz entre situaciones verdaderas y situaciones fabricadas; por lo que, para los ciudadanos será muy difícil distinguir una de la otra.
Es urgente preparar a los ciudadanos y preciudadanos, porque toda la población, incluyendo los niños, debe distinguir ambas.
Si no se toman las medidas preventivas, los candidatos, partidos, gobiernos y organismos electorales, y de forma indirecta los ciudadanos, pagarán las facturas.
- Conclusiones
El objetivo de una campaña política es determinar quiénes son los mejores candidatos, y el astroturfing nos desvía de este objetivo, al disfrazar con falsedad a los candidatos, en lo cual, la inteligencia artificial es un excelente auxiliar.
La normativa electoral y el equipo de especialistas deben estar preparados y contar con las herramientas para enfrentar el astroturfing político.
Bibliografía
Aguilar, P. (2021). Bots, granjas de bots y trolls. https://protege.la/blog-contenido/bots-granjas-de-bots-y-trolls/
Ali, C. (27 de junio de 2024). Las 5 maneras en las que el cibercrimen utiliza la Inteligencia Artificial. https://www.welivesecurity.com/es/cibercrimen/uso-inteligencia-artificial-cibercrimen/
Arregui, M. d. (27 de febrero de 2024). El astroturfing y la controversia de manipular la opinión pública. https://www.obsbusiness.school/blog/el-astroturfing-y-la-controversia-de-manipular-la-opinion-publica
Caldeiro, G. (2024). Inteligencia artificial generativa y educación: hacia un nuevo paradigma. https://revistaelfaro.uflo.edu.ar/elfaro/article/view/15
Confesiones de un bot ruso. (2022). Penguin.
Díaz, J., Osorio, M., & Amadeo, A. (Diciembre de 2023). Una mirada de Inteligencia Artificial, desde el impacto global a los efectos locales. https://sedici.unlp.edu.ar/bitstream/handle/10915/166743/Documento_completo.pdf?sequence=1&isAllowed=y
Encis, I. G. (11 de julio de 2024). Mito, ciencia, fake news y posverdad. https://revistas.ulima.edu.pe/index.php/enlineasgenerales/issue/view/440/175
Fantini, A. E. (2021). El “Big Data” y su presencia en la gestión y en la gestión y en la toma de decisiones. https://www.cielolaboral.com/wp-content/uploads/2021/11/2021_noticias_cielo_fantini.pdf
García-Orosa, B. (2021). Desinformación, redes sociales, bots y astroturfing: La cuarta ola de la democracia digital. https://www.scimagoepi.com/contenidos/2021/nov/garcia_es.pdf
Instituto de Medicina Legal. (2015). Cadena de custodia. https://www.imelcf.gob.pa/wp-content/uploads/2020/01/manual-de-cadena-de-custodia.pdf
León, G. (3 de marzo de 2019). El ‘Astroturfing’: la manipulación en las redes sociales, ¿castigada por el Código Penal? https://www.legaltoday.com/practica-juridica/derecho-penal/penal/el-astroturfing-la-manipulacion-en-las-redes-sociales-castigada-por-el-codigo-penal-2019-05-22/
López López, P., Madonado, A., & Ribeiro, V. (julio de 2023). La desinformación en las democracias. https://repositorio-aberto.up.pt/bitstream/10216/151298/2/635268.pdf
Micucci, M. (23 de agosto de 2024). Herramientas para detectar deepfakes y combatir la desinformación. https://www.welivesecurity.com/es/seguridad-digital/herramientas-para-detectar-deepfakes-combatir-desinformacion/
Navarro, H. (29 de noviembre de 2023). YOLOv8 Pose: la pose estimation que transforma la visión artificial. https://opensistemas.com/yolov8-transforma-la-vision-artificial/