Los peligros de la IA para las próximas elecciones: cómo se puede usar para «embarrar la cancha»

El uso, cada más extendido de la IA, puede generar nuevos peligros de cara a las elecciones de este año. Las técnicas de deepfake, imitación de voz y generación automática de textos son un nuevo desafío para las campañas políticas.

La inteligencia artificial tiene un lugar cada vez más predominante en lo que a nuevas tecnologías se refiere. Desde la salida de Chat-GPT al mercado masivo, la mayoría de las organizaciones está intentando subirse a esta innovación. La facilidad para implementar soluciones de inteligencia artificial está impulsando la adopción en la región.

Se estima que casi 1 de cada 3 (29%) de las empresas de la región tiene algún desarrollado relacionado con IA, mientras que el 43% está explorando el uso de la tecnología, según los datos de la encuesta de IBM sobre el tema que incluye entre otros a Brasil, México, Colombia, Argentina, Chile y Perú. En la Argentina, el 51% de las empresas afirman que están explorando el uso de la IA, mientras que el 19% afirma que ya la utiliza en sus operaciones.

Si bien la IA ofrece una miríada de incentivos para adoptar su uso, desde la automatización hasta los asistentes inteligentes, no es menos cierto que también plantea nuevos desafíos; en particular, en los países emergentes que están adoptando rápidamente su uso.

Sin embargo, la flexibilidad de la IA le permite usarse en una gran cantidad de asuntos. Por ejemplo, los últimos desarrollos en redes neuronales informáticas vuelven mucho más sencilla la tarea de crear material audiovisual. Herramientas como Chat-GPT o Stable Difusion permiten llevar tareas que podían llevar días o semanas a la escala industrial. En épocas electorales como la que hoy vive el país, ¿qué pasaría si esta tecnología se utilizase para crear noticias falsas y así embarrar la cancha en una campaña electoral?, ¿cómo podría impactar en la decisión del voto de los electores? Si bien la estrategia de «campaña sucia» no es nueva, la masificación de estas herramientas permite que casi cualquiera tenga al alcance de su mano la posibilidad de crear desde un spot publicitario fake hasta un audio comprometedor falso que se puede viralizar por WhatsApp.

Una de las diferenciales sustanciales con las campañas electorales de antaño es la facilidad que tienen hoy las personas que quieran usar esta tecnología para crear noticias falsas.

«Las campañas por medios tradicionales tienen un tratamiento mas institucional, la Cámara Electoral revisa los spots y demás, hay un control; pero si yo quiero mandar un flyer por WhatsApp no tengo que pedir permiso a nadie. Esa campaña por viralidad no está monitoreada por nadie», explica Ernesto Mislej, Co-founder & Chief Scientist de la empresa 7Puentes. El experto explica cómo usando imágenes preexistentes, sean en audio o video, se puede generar un mensaje nuevo completamente nuevo y verosímil. Se trata de una vieja táctica que viene exportada del phishing y el vishing. Adicionalmente,  Mislej considera que hoy la barrera de entrada para utilizar esta tecnología es muy baja. «Antes había que tener ganas, dinero y conocimientos, hoy es solo ganas. Casi cualquier persona en el cuarto de su casa puede generar un deep fake de audio o video que sea lo suficientemente creíble», explica.

Nuevas defensas para nuevos ataques

La nueva masividad que adquieren las campañas sucias, a través de herramientas de IA principalmente, no tienen todavía una línea de defensa sólida que les permita a ninguna de las víctimas protegerse eficientemente. «Todavía no hay herramientas para verificar si algo es una fake news, no al nivel que hay para crearlas al menos. Tampoco hay equipos especializados en esto en los órganos de control», desliza Mislej.

Si bien hay algunas tentativas, por ejemplo en la Unión Europea se debate que las plataformas proveedoras de servicios como Dall-e integren un indicador o marca de agua en sus productos, lo cierto es que no hay nada masivo aún en el mercado. Mislej especula con que, en el caso de WhatsApp, que tiene encriptación de punta a punta se usen algunos indicadores (como la localización por GPS, el modelo de teléfono o el sistema operativo) como autenticadores de los emisores del mensaje. Así, las personas públicas pueden corroborar técnicamente si han emitido o no un mensaje.

Fuente: Infotechnology

Diario Mendoza Sur

http://dialradio.tv

Publicaciones Similares