El uso de inteligencia artificial (IA) para crear imágenes y videos pornográficos falsos desató varios delitos sexuales en Corea del Sur, ya que las autoridades del país reportaron 513 casos de este tipo de delitos desde agosto, según la agencia Yonhap. Esta cifra representa un incremento de 70 % en poco más de un mes, contrastando con los 297 casos que se reportaron en julio.
Tan solo en lo que va del año, 318 sospechosos fueron detenidos por delitos sexuales digitales, casi 79 % de ellos son adolescentes, mientras que 62 % de las víctimas también pertenecen a este rango de edad.
Te interesará leer: Protege la privacidad de tus hijos ante los peligros de la IA con estas recomendaciones
Después de que los medios locales expusieran la circulación del contenido sexual falso a través de la aplicación Telegram, el presidente Yoon Suk-yeol solicitó a las autoridades que intensificaran las investigaciones.
Tras las presiones del gobierno, la plataforma de mensajería comenzó a colaborar con la Comisión de Normas de Comunicación y retiraron 61 contenidos “deepfake”, además de comenzar a planear medidas para combatir la distribución de este material explícito de otras personas sin su consentimiento generado con IA.