Los fanáticos están muy preocupados.
Hace un tiempo ha sido que los ídolos K-Pop están involucrados en un pepino en relación con los cambios generados por IA y los videos de Deepfake en Internet, y el problema parece haber empeorado después de los últimos desarrollos.
En los últimos días, muchos fanáticos de K-pop han hecho una A.inquietanteNueva tendencia en las redes sociales que contienen un tipo diferente de contenido con contenido generado por IA. En lugar de fallas profundas que superponen los rostros de los ídolos a los cuerpos de otras personas, estos videos editados se crean a partir de imágenes fijas.
Por ejemplo, esta tecnología permite una selfie espejo de TXT‘S Yeonjun ser transformado en un video de él que besa a un usuario de Internet al azar.
Un video similar fue creado por un Bts Fan Use una imagen de Young Koook‘S Calvin Klein Campaña.
¡Esto es preocupante! pic.twitter.com/7ysrsagucy
-J⩜⃝zzy⁷ ‘s Sammie🍉 D-18 🏴☠️ (@Hobbitopia) 27 de enero de 2025
Y Niños callejeros ‘ Bangchan Tampoco se salvó.
Estos videos, que aparecieron entre sí en un período de tiempo muy corto, se han encargado de los fanáticos de que este tipo de contenido se convierte en una tendencia en las habitaciones en línea. Muchos asumieron su incomodidad con los efectos morales cuando violaron estos videos tan claros contra la dignidad personal de los ídolos.
21k puede lastimar a Chan como una persona doblándolo con AI de acuerdo con su voluntad. Hacer que AI bese a un ídolo es una mierda pic.twitter.com/mzwk9uqav7
– Libby ۶ৎ (@chanignab) 27 de enero de 2025
comentario
deU/Forcapprevernsive597 De la discusión
Enkpop_uncensored
comentario
deU/Forcapprevernsive597 De la discusión
Enkpop_uncensored
Es acoso sexual usar IA para ídolos y crear videos. Es acoso sexual usar IA para crear escenarios con ídolos u otra persona. Para evitar esto, los humanos necesitamos dar forma a las personas que hacen esto continuamente hasta que se detengan o hasta que haya leyes para detenerlo. https://t.co/pu70se3mve
– Taazie ☆ (@RaltxSoobin) 27 de enero de 2025
Esto tiene que ser detenido, reportado y criminalizado. Original.
Si se ocupa de los ídolos, póngase en contacto con sus empresas y déjelos ir a esta mierda porque empeora a partir de aquí.
Eso es repugnante.
Este es el acoso sexual. https://t.co/zllmgbisq7– más fuerte que las bombas⁷ 🍉🔻 (@AstroBoy_ltb) 28 de enero de 2025
Esta nueva tendencia de procesamiento de IA se ha agregado a los problemas de la industria K-Pop, que todavía se ocupa de la pornografía de Deepfake que se creó con las caras de los ídolos. Lea más sobre eso Aquí.