YpenAI ha identificado y desmantelado cinco operaciones de influencia encubiertas con sede en Rusia, China, Irán e Israel que utilizan sus herramientas de inteligencia artificial para manipular la opinión pública, dijo la agencia el jueves.

A Nuevo reporteOpenAI detalla cómo estos grupos, algunos vinculados a conocidas campañas de propaganda, utilizan las herramientas de la empresa para una variedad de «actividades fraudulentas». Esto incluye la creación de comentarios, artículos e imágenes en redes sociales en varios idiomas, la creación de nombres y biografías para cuentas falsas, la depuración de códigos y la traducción y corrección de textos. Centrarse en esta red Diversos temas, incluida la guerra en Gaza y la invasión rusa de Ucrania, criticando y comentando a los disidentes chinos. La política de la India, Europa y Estados Unidos en sus esfuerzos por influir en la opinión pública. Aunque estas actividades de influencia se dirigen a una amplia gama de plataformas en línea, incluidas X (anteriormente conocida como Twitter), Telegram, Facebook, Medium, Blogspot y otros sitios. «Según los analistas de OpenAI, ninguno ha logrado atraer a una audiencia sustancial.

El informe, el primero de este tipo publicado por la compañía, llega en medio de la preocupación global sobre el impacto potencial de las herramientas de inteligencia artificial en más de 64 elecciones en todo el mundo este año, incluidas las elecciones presidenciales de Estados Unidos en noviembre. En un ejemplo citado en el informe, una publicación de un grupo ruso en Telegram decía: «Estoy harto y cansado de que estos tontos con daño cerebral jueguen mientras los estadounidenses sufren. Washington necesita aclarar sus prioridades o sentirán el ¡Toda la fuerza de Texas!»

Los ejemplos enumerados por los analistas de OpenAI revelan cómo los actores extranjeros parecen haber estado utilizando herramientas de inteligencia artificial para operaciones similares de influencia en línea durante una década. Se centran en el uso de cuentas, comentarios y artículos falsos para moldear la opinión pública y manipular los resultados políticos. «Estas tendencias revelan un panorama de amenazas caracterizado por la evolución, no por la revolución», escribió en el informe Ben Nimmo, investigador principal del equipo de Inteligencia e Investigaciones de OpenAI. «Los actores de amenazas están utilizando nuestra plataforma para mejorar su contenido y operar de manera más eficiente».

Leer más: Los piratas informáticos pueden utilizar ChatGPT para apuntar a las elecciones de 2024

OpenAI, que fabrica ChatGPT, dice que ahora tiene más de 100 millones de usuarios activos semanales. Sus herramientas facilitan y agilizan la creación de grandes cantidades de contenido y pueden usarse para enmascarar errores de lenguaje y crear una interacción falsa.

Una de las campañas de influencia rusa cerradas por OpenAI, denominada «Mala Gramática» por la compañía, utilizó sus modelos de IA para depurar el código que ejecutaba un bot de Telegram que producía breves comentarios políticos en inglés y ruso. La operación tuvo como objetivo Ucrania, Moldavia, Estados Unidos y los Estados bálticos, dijo la agencia. Otra operación rusa conocida como «Doppelganger», que el Departamento del Tesoro de Estados Unidos ha vinculado con el Kremlin, utilizó los modelos de OpenAI para generar titulares y convertir artículos de noticias en publicaciones de Facebook y generar comentarios en inglés, francés, alemán, italiano y polaco. Una conocida red china, Spamauflage, utilizó las herramientas de OpenAI para investigar la actividad de las redes sociales y generar texto en chino, inglés, japonés y coreano que se publicó en múltiples plataformas, incluidas X, Medium y Blogspot.

OpenAI también detalló cómo una empresa de marketing político israelí con sede en Tel Aviv llamada Stoic utilizó sus herramientas para crear contenido proisraelí sobre la guerra de Gaza. Llamada «Zero Xeno», la campaña está dirigida a audiencias de Estados Unidos, Canadá e Israel. Miércoles, Meta, la empresa matriz de Facebook e Instagram, dijo que fue eliminado 510 cuentas de Facebook y 32 cuentas de Instagram están vinculadas a la misma firma. El grupo de cuentas falsas, que incluye cuentas que se hacen pasar por afroamericanos y estudiantes de Estados Unidos y Canadá, a menudo responden a figuras prominentes u organizaciones de medios en publicaciones que alaban a Israel, critican el antisemitismo en el campus y denuncian el «islam radical». Según OpenAI, parece no haber logrado ningún compromiso significativo. «Miren cómo estas ideas extremistas están afectando el pensamiento de nuestro país, no es nada bueno», se lee en una publicación sobre el informe.

OpenAI dijo que está utilizando sus propias herramientas impulsadas por IA para investigar e interrumpir de manera más eficiente estas operaciones de influencia extranjera. «Las investigaciones descritas en el informe adjunto tomaron días en lugar de semanas o meses, gracias a nuestras herramientas», dijo la compañía el jueves. También señalaron que, a pesar de la rápida evolución de las herramientas de inteligencia artificial, el error humano sigue siendo un factor. «La IA puede cambiar el conjunto de herramientas que utilizan los operadores humanos, pero no cambia a los operadores mismos», dice OpenAI. «Si bien es importante ser conscientes de las herramientas cambiantes utilizadas por los actores de amenazas, no debemos perder de vista las limitaciones humanas que pueden afectar sus acciones y toma de decisiones».

Más de TIEMPO

Source link