Leyendo:
Cómo la inteligencia artificial puede interferir en las elecciones de los EEUU
Artículo Completo 7 minutos de lectura

Cómo la inteligencia artificial puede interferir en las elecciones de los EEUU

Por Nayeli García Ramírez, de Newsweek en Español

En un video, donde aparece vestido con un traje azul oscuro con una corbata del mismo tono, el presidente de Estados Unidos, Joe Biden, hace un anuncio estremecedor: “Para combatir a Rusia e Irán el camino a recorrer es invocar la Ley de Servicio Selectivo”. Y añade: “Los primeros en ser llamados serán los hombres y mujeres que cumplan 20 años durante el año calendario 2023”.

El desafío de regular la inteligencia artificial: 7 razones para tenerla bajo control

De cara a las votaciones de Estados Unidos, la propagación de desinformación y la facilidad para crear contenidos falsos de gran alcance son algunos de los mayores desafíos que enfrenta la seguridad electoral estadounidense respecto a la IA, pues las noticias falsas y los videos, audios e imágenes modificados digitalmente podrían impactar de forma grave en la confianza del electorado.

Según el Tecnológico de Monterrey, la inteligencia artificial generativa (IAG) es aquella que puede crear ideas y contenidos nuevos, como fotografías, gráficos, composiciones visuales, textos, conversaciones y música. Estas tratan de imitar algunas funciones cognitivas por medio de una combinación de bases de datos que les permite generar piezas que antes no existían.

VARIOS FRENTES 

Otro ejemplo de ultrafalso que tuvo un amplio alcance fue un video que mostraba a la senadora Elizabeth Warren sugiriendo que se prohibiera votar a los republicanos en 2024. Aunque la declaración fue desmentida, el material es evidencia de la capacidad de la IAG de incidir en la esfera pública.

Israel Gutiérrez, directivo de la firma especializada en ciberseguridad A3Sec, detalla que otro de los riesgos de la IA es el envenenamiento de datos, pues actualmente la mayoría de los motores de chat son utilizados para obtener información.

“Los modelos utilizan funciones estadísticas para crear información, y si muchas personas o un grupo se dedica a envenenar con información falsa la inteligencia artificial, cuando alguien haga una pregunta o investigue solo a través de estos chatbots obtendrá información falsa” explica.

En el aspecto electoral, como el que actualmente se vive en Estados Unidos, dicho envenenamiento afecta cuando los votantes usan la IA como única fuente de información sobre los candidatos, los partidos y las propuestas. Esta desinformación alimenta la polarización y se convierte en una herramienta poderosa para influir en la opinión pública, sobre todo entre audiencias vulnerables, con escasa experiencia digital y poca comprensión de los procesos electorales.

El Papa Francisco lanzó una advertencia sobre la Inteligencia Artificial

“Las redes sociales y sus algoritmos nos van presentando información que está más relacionada con nosotros, por lo que tenemos menos información diversa y más orientada a lo que pensamos”, detalla Gutiérrez sobre la creciente polarización. “Como consecuencia, surge el uso de la tecnología para generar ideas en contra de los otros grupos a los que no se es afín. Eso hace que las puntas se alejen cada vez más”.

SE DISTORSIONA EL DIÁLOGO POLÍTICO

Otro de los mayores peligros es el uso malintencionado de la IA para desarrollar deepfakes o ultrafalsos, entendidos como cualquier video, imagen o audio generado que imita la apariencia y voz de una persona. Estos pueden distorsionar el diálogo político al crear momentos virales sobre situaciones, posicionamientos y declaraciones inexistentes.

Para evitar caer en contenido falso y reducir su impacto en la esfera pública, es indispensable buscar más información de lo que se escucha y ver más allá de la tendencia.

“Si intencionalmente buscamos otro punto de vista diferente encontraremos que no nada más existe ahí, que puede haber otros colores que pudieran darnos otro tipo de opinión”, detalla el experto en ciberseguridad consultado.

“Para que el tema de la polarización pueda reducirse debemos encontrar puntos de vista diferentes que nos permitan enriquecer nuestro juicio”, añade Gutiérrez.

La Inteligencia Artificial inició su militarización: ¿puede convertirse en una de las armas más potentes del planeta?

Aunque las IA son cada vez más avanzadas, una particularidad de los deepfakes es su corta duración y su tendencia a la desproporción. Esto se explica, en palabras del experto, porque los modelos de inteligencia artificial que permiten violar los derechos de autor todavía no están tan desarrollados.

“Son modelos abiertos que no tienen la capacidad de crear proporciones adecuadas. Para identificarlos hay que buscar siempre la proporción”, añade. “Normalmente hay más manos o más dedos de los que debería. O existen posiciones de la mirada o la luz que son anormales. Por eso lo que más se está viendo en deepfakes son imágenes en blanco y negro o muy pixeleadas”.

IA PARA DIFAMAR O AFECTAR A OTRAS PERSONAS

Aunque hoy en día no existe una legislación específica referente a la creación de contenido falso con IA, existe otro tipo de legislación sobre el mal uso de la tecnología para difamar o afectar a otras personas. Reconocer el tipo de fake que es difundido es muy importante porque puede entrar en otro tipo de violencia en donde sí existan algunas tipificaciones de ley.

Sin embargo, si el contenido posee un tono o carácter muy amplio, como humorístico, actualmente se carece de respaldo legal que pudiera impactar al creador. Para llenar esos vacíos, la Unión Europea encabeza la creación de modelos de regulación.

La inteligencia artificial y sus riesgos para la reputación de las marcas, las empresas y sus CEO

También con este objetivo, en febrero una veintena de empresas de tecnología firmó el “Acuerdo tecnológico para combatir el uso engañoso de la inteligencia artificial (IA) en las elecciones de 2024”. Los programas o modelos que forman parte del convenio, entre ellos Google, Meta, OpenAI, Microsoft, TikTok y X, cuentan con controles que limitan la creación de ultrafalsos.

Esta es una muestra de que, bien instrumentalizada, la inteligencia artificial puede estar a favor de la democracia y el bienestar al reducir muchos procesos y analizar la demasiada información. Empero, debido a esta megacapacidad de la IA, se debe tener cuidado con la información con la que los usuarios alimentan los modelos.

“Si las instituciones electorales pueden alimentarlos con información verdadera y adecuada pueden servirles para generar modelos estadísticos y de comportamiento, identificar riesgos o potenciales de fraude e identificar diferentes tendencias de su uso”, detalla Israel Gutiérrez.

NO SOLO EN ESTADOS UNIDOS 

En ese sentido, también se ha disparado el intento de utilizar tecnología digital para realizar procesos de votaciones, por lo que alimentar adecuadamente la IA puede abrir la posibilidad de identificar patrones anómalos para detectar posibles impactos o ataques a los sistemas electorales y prever cuándo o en qué lugares habrá mayor cantidad de votantes a ciertas horas para atender mejor a los electores y tener resultados más certeros.

“Es una herramienta sumamente potente para el análisis de información, solo hay que cuidar los riesgos entre la información que ingresamos y para qué la estamos utilizando”, insiste el experto, quien también detalla que en el panorama latinoamericano habrá un incremento en la generación de noticias falsas viralizadas con el fin de aprovechar circunstancias coyunturales y provocar un eco negativo.

Si bien es posible que demore la generación de herramientas de legislación y detección para evitar este tipo de pandemias cibernéticas, las tecnologías asociadas a empresas o instituciones continuarán con campañas de concienciación para promover la ciberseguridad, la cual es indispensable para todos los usuarios.

La inteligencia artificial y sus riesgos para la reputación de las marcas, las empresas y sus CEO

Además de las noticias y las elecciones, el experto comenta que se verán más fraudes con la utilización de deepfakes e inteligencia artificial para generar mensajes más personalizados para simular voces o videos que imiten acciones en contra de su patrimonio y familia con el objetivo de estafar a las personas.

“Tenemos que estar enterados de que esto puede pasar para ser un poco más eficaces, estar prevenidos y evitar caer en este tipo de circunstancias, tanto en las noticias que pueden estar pasando como en la información que nos pueda llegar por los diferentes medios” concluye, Gutiérrez.

Publicado en cooperación con Newsweek en Español

Ingresa las palabras claves y pulsa enter.