El mensaje de la ONU se produjo en los días en que dos gigantes tecnológicos, OpenAI y Meta, desmantelaron campañas de desinformación que utilizaban IA procedentes de Rusia, China, Irán y también de una empresa privada con sede en Israel.
Una progresión de episodios que aumenta la preocupación por una injerencia de cara a las elecciones -desde las inminentes europeas hasta las estadounidenses de noviembre- que llevarán a miles de millones de personas a las urnas en 2024.
"Dejar salir al genio de la botella, ahora que estamos en una carrera contra el tiempo, ahora tiene que ver fundamentalmente con hacer que la IA sea segura", dijo Doreen Bogdan-Martin, jefa de la Unión Internacional de Telecomunicaciones (UIT) de las Naciones Unidas en la inauguración de la Cumbre mundial "AI for Good" en Ginebra.
"Tenemos una oportunidad única de impulsarla en beneficio de todos los pueblos del mundo", subrayó, pues "el uso indebido amenaza la democracia, también pone en peligro la salud mental de los jóvenes y compromete la ciberseguridad".
Textos e imágenes falsos generados por inteligencia artificial y difundidos en múltiples plataformas digitales, perfiles sociales falsos, traducciones manipuladas: estas son algunas de las armas utilizadas con fines engañosos y ingeniosamente producidas con el uso de esta tecnología.
En las últimas horas fueron encontradas y bloqueadas por Meta y OpenAI, empresa símbolo de la inteligencia artificial, operaciones iniciadas desde China e Irán, pero también desde actores rusos e israelíes, los dos países implicados en los conflictos bélicos actuales.
En particular, se cerró una operación de origen ruso conocida como "Doppelganger" que utilizaba modelos OpenAI para generar comentarios en inglés, francés, alemán e italiano y convertir artículos de noticias en publicaciones en las redes sociales.
También fue desmantelada la operación de una empresa comercial en Israel llamada Stoic, que generaba comentarios y artículos publicados en múltiples plataformas.
Además, se bloqueó una red china conocida como Spamouflage, que utilizaba IA para generar textos en varios idiomas, y una operación iraní conocida como Unión Internacional de Medios Virtuales que generaba o traducía artículos que luego se publicaban en un sitio.
Tanto Meta como OpenAI enfatizaron que sus sistemas de defensa funcionaron para interceptar esos peligros, pero el futuro es una incógnita dada la rápida propagación de los deepfakes de video y audio.
"No sabemos cómo evolucionará la sociedad y esta tecnología", subrayó Doreen Bogdan-Martin de la UIT.
TODOS LOS DERECHOS RESERVADOS © Copyright ANSA