Cristhian Guadarrama Martínez
En una respuesta enérgica a la creciente preocupación por el uso de inteligencia artificial (IA) para recrear de manera realista a menores fallecidos o víctimas de eventos violentos, YouTube ha anunciado medidas drásticas dentro de sus políticas de acoso y ciberacoso. A partir del 16 de enero, la plataforma propiedad de Google tomará medidas para eliminar contenido que “simula de manera realista” a menores en situaciones trágicas.
Contexto del Cambio de Política
Este cambio surge ante la utilización perturbadora de la inteligencia artificial por parte de algunos creadores de contenido de crímenes reales. Estos creadores han estado utilizando la IA para recrear la imagen de niños fallecidos o desaparecidos, dotándolos de una “voz” infantil para describir sus muertes en casos de alto perfil.
En estos meses recientes, se han narrado a través de la IA casos notorios como el secuestro y muerte del niño británico James Bulger de dos años, así como la desaparición de Madeleine McCann y el trágico destino de Gabriel Fernández, un niño de ocho años torturado y asesinado en California.
Nuevas Medidas y Consecuencias
YouTube tomará medidas contundentes al eliminar cualquier contenido que viole estas nuevas políticas. Los usuarios que reciban una advertencia no podrán subir videos, realizar transmisiones en vivo o utilizar la función de historias durante una semana. Después de tres advertencias, el canal del usuario será eliminado permanentemente de la plataforma.
Estos ajustes se presentan casi dos meses después de que YouTube introdujera políticas adicionales en torno a la divulgación responsable de contenido de IA, junto con herramientas para solicitar la eliminación de deepfakes. Una de las novedades requiere que los usuarios revelen cuando han creado contenido alterado o sintético que parezca realista. La omisión de esta revelación puede resultar en “eliminación de contenido, suspensión del Programa de socios de YouTube u otras sanciones”.
Adicionalmente, YouTube señaló que parte del contenido de IA puede eliminarse si se utiliza para mostrar “violencia realista”, incluso si está debidamente etiquetado.
Antecedentes y Comparación con Otras Plataformas
En septiembre de 2023, TikTok implementó una herramienta similar que permite a los creadores etiquetar su contenido generado por IA, después de actualizar sus pautas para exigir la revelación de medios sintéticos o manipulados que muestren escenas realistas. La política de TikTok permite eliminar imágenes realistas de IA que no se divulguen adecuadamente.
Estas medidas evidencian un claro compromiso de las plataformas de redes sociales en abordar de manera proactiva el uso inapropiado de la inteligencia artificial, protegiendo así la integridad y seguridad de sus usuarios y la sensibilidad ante situaciones trágicas, especialmente cuando involucran a menores. La evolución constante de las políticas demuestra la necesidad continua de adaptarse a los desafíos emergentes en el panorama digital.