Este sitio web utiliza cookies propias y de terceros para su funcionamiento, mantener la sesión y personalizar la experiencia del usuario. Más información en nuestra política de Cookies

La IA generativa pone en riesgo la memoria del Holocausto (informe de la UNESCO)

​Un nuevo informe de la UNESCO alerta sobre el riesgo de que la inteligencia artificial distorsione la historia del Holocausto y alimente el antisemitismo, si no se adoptan medidas contundentes para asegurar que su funcionamiento se rija por principios éticos. El informe advierte que la IA generativa no solo facilita que personas malintencionadas difundan desinformación y discursos de odio, sino que también puede crear involuntariamente contenidos falsos o engañosos sobre el Holocausto.


18 de junio de 2024

​“Si permitimos que los horribles hechos del Holocausto se diluyan, distorsionen o falsifiquen mediante el uso irresponsable de la IA, corremos el riesgo de que el antisemitismo se extienda de forma explosiva y de que disminuya gradualmente nuestra comprensión de las causas y consecuencias de estas atrocidades. Es urgente aplicar la Recomendación de la UNESCO sobre la ética de la IA para que las generaciones más jóvenes crezcan con hechos, no con invenciones.”, señaló Audrey Azoulay, Directora General de la UNESCO.

El informe de la UNESCOSe abre en ventana nueva, publicado en colaboración con el Congreso Judío Mundial, explica que el aumento de la utilización de la IA generativa para realizar tareas y buscar información hace que los jóvenes corran el riesgo de exponerse a información distorsionada sobre el Holocausto, que ha encontrado nuevas vías de difusión a través de los contenidos generados por IA. Ahora que cuatro de cada cinco jóvenes de entre 10 y 24 años (el 80 %) utilizan la IA varias veces al día con fines educativos y de entretenimiento, entre otros, es necesario actuar con rapidez para establecer unos marcos éticos en esas tecnologías.


La IA puede reflejar y amplificar los prejuicios de la sociedad

La inteligencia artificial generativa debe entrenarse con grandes cantidades de datos que suelen extraerse de internet, los cuales pueden incluir contenidos erróneos o dañinos. Por este motivo, los sistemas de IA heredan los prejuicios humanos y pueden tergiversar la información sobre hechos concretos, reforzando estos prejuicios. Esto es especialmente cierto en el contexto del Holocausto, debido a la prevalencia de la desinformación sobre este suceso histórico en las redes. El informe señala que, debido a la falta de supervisión, orientación y moderación por parte de los desarrolladores, en algunos casos, las herramientas de IA podrían haberse entrenado con información procedente de sitios web que niegan el Holocausto.

Como ya se ha documentado, la IA permite que personas malintencionadas distorsionen contenidos relacionados con el Holocausto, creando falsos testimonios e incluso manipulando documentos históricos. Las imágenes y audios falsos creados con IA generativa que pueden encontrarse en las redes sociales resultan especialmente convincentes para los jóvenes. La aplicación Historical Figures permitía a los usuarios chatear con altos cargos nazis como Adolf Hitler y Joseph Goebbels, y afirmaba erróneamente que individuos como Goebbels no habían participado de forma intencionada en el Holocausto y habían intentado evitar la violencia contra los judíos.


Ante la falta de información, la IA se inventa la historia

Los modelos de IA generativa son propensos a inventar o “alucinar” sucesos, personajes e incluso acontecimientos históricos cuando carecen de información suficiente. El informe subraya que tanto Chat GPT como Bard, la IA de Google, han producido contenidos que detallan sucesos relacionados con el Holocausto que en realidad nunca sucedieron. Así, Chat GPT inventó por completo las campañas del “Holocausto por ahogamiento”, en las que los nazis ahogaban a los judíos en ríos y lagos, y Bard generó citas falsas de testigos para apoyar narraciones distorsionadas de las masacres del Holocausto.

Además del riesgo de que las manipulaciones y las “alucinaciones” socaven la confianza en los hechos probados y en los expertos, el informe también subraya que la IA tiende a simplificar en exceso la complejidad de la historia, priorizando una pequeña selección de fuentes y acontecimientos. De hecho, en los motores de búsqueda, que funcionan con IA, entre el 60 % y el 80 % de las primeras imágenes que aparecen del Holocausto son de un único lugar: Auschwitz-Birkenau.


Una solución: aplicar con decisión los principios éticos de la UNESCO

La UNESCO pide a los gobiernos que aceleren la aplicación de la Recomendación de la Organización sobre la Ética de la IASe abre en ventana nueva, la primera y única norma mundial en este ámbito, adoptada por unanimidad de sus Estados Miembros en 2021. Esta Recomendación ya se está integrando en la legislación de más de cincuenta países.

La UNESCO insta a las empresas tecnológicas a aplicar sus normas, asumir sus responsabilidades y velar por que principios éticos como la imparcialidad, la transparencia, los derechos humanos y la diligencia debida se tengan en cuenta en la fase de diseño de las aplicaciones. En febrero de 2024, ocho empresas tecnológicas firmaron un acuerdo pionero​Se abre en ventana nueva con la Directora General de la UNESCO para aplicar un enfoque ético en el desarrollo de nuevas herramientas de IA.

Estas empresas también deben colaborar estrechamente con la comunidad judía, los supervivientes del Holocausto y sus descendientes, los educadores, los expertos en antisemitismo y los historiadores a la hora de desarrollar nuevos sistemas de IA.

Por último, la UNESCO hace un llamamiento para que los sistemas educativos contribuyan a proteger los hechos probados del Holocausto dotando a los jóvenes de competencias digitales y pensamiento crítico, así como de una sólida comprensión de la historia de este genocidio.