CIUDAD DE MÉXICO (apro) .- A través de sus redes sociales, la streamer e influencer Alana Flores, expuso que fue víctima de “deepfake” tras la difusión de una supuesta imagen íntima suya, creada con Inteligencia Artificial (IA), por lo que tomará acciones legales contra el responsable.
Los “deepfakes” son archivos de video, imagen o voz alterados con IA, de modo que parecen auténticos y reales. A menudo se utilizan para acosar y extorsionar a las víctimas, explica la Oficina Federal de Investigación de Estados Unidos (FBI).
En los últimos días ha circulado una imagen de Flores durante una supuesta situación íntima, misma que la influencer desmintió:
“Hay una imagen falsa de mí que está siendo difundida en redes sociales que ha sido alterada, sea por Inteligencia Artificial o sea por una persona. El caso es que es una imagen que no soy yo, es una imagen en la que utilizaron mi cara y no es real, nunca me la tomaron y nunca pasó”, sostuvo en un video publicado en X.
“No tengo fotos ni videos haciendo actos sexuales, no tengo fotos desnuda, ni tampoco tengo o he tenido OnlyFans o algo por el estilo”, agregó.
— AL4NITA (@alanafloresf) May 28, 2025
La también presidenta del Raniza FC –equipo de la Kings League Américas–, compartió que la situación le afectó física y emocionalmente, por lo que requirió atención médica y apoyo psiquiátrico:
“Ayer tuve una consulta en el hospital porque esto es algo que me ha empezado a repercutir en la salud hasta de manera física (…) (tengo) ya un tiempo con la psiquiatra y, aun así, a veces se siente imposible avanzar estando rodeada de tanta contaminación”.
Asimismo, expuso que ya había sido víctima de “deepfake” muchas veces, pero que “nunca había llegado a tal gravedad”:
“Me hace sentir mucho coraje e impotencia estar en esta situación porque ya no sé qué hacer”, dijo en el video.
ESTE VIDEO TAMBIÉN ES IA. Yo nunca dije esto. La entrevista completa de este video está en el canal de la mole, yo no tomo ni tomaba creatina.
Pero si quieren sigan cuestionándose que tan lejos puede llegar la gente con la IA solo para dañar o beneficiarse. Y si. La foto es… pic.twitter.com/aJpA873VrT
— AL4NITA (@alanafloresf) May 27, 2025
La influencer sostuvo con firmeza que tiene proyectos en los cuáles enfocarse, que cuenta con apoyo y que no se dejará derrumbar.
Además, anunció que tomará acciones legales contra el responsable, a quien supuestamente ya tiene identificado: “No es real. Y si voy a buscar demandar”, escribió en X.
“Para los que dicen que, si voy a demandar a una IA, tengo la persona que lo inició, y aunque haya borrado su cuenta @chainsant1, sé que fue él”, agregó en la publicación.
¿Qué son los “deepfakes” y sus riesgos?
Los “deepfakes” son imágenes, vídeos o audio editados o generados utilizando inteligencia artificial o software de edición audiovisual, y usan la apariencia de una persona para aparentar que realizó alguna actividad o que dijo algo utilizando su voz.
En internet se popularizado la edición de imágenes y audios para generar contenido erótico o pornográfico.
Al ser casi indistinguibles de la realidad, los “deepfakes” representan un problema para la población y, en el caso de Alana Flores, es un recordatorio sobre los riesgos del uso indebido de la IA y su impacto físico y emocional.
De acuerdo con el Instituto LISA y la Oficina de Seguridad del Internauta (OSI), además de pornografía, también se usa para:
- Propagar noticias falsas.
- Generar desinformación.
- Desacreditar a alguien.
- Fraudes y estafas financieras.
- Cometer delitos informáticos relacionados con el honor o la imagen.
- Influir en las votaciones, toma de decisiones o pensamiento grupal.
- Venganzas y extorsión.
- Desestabilizar las relaciones internacionales.
- Ciberacoso o acoso escolar.
- Viralización de contenido falso “que puede causar estragos en la reputación de una persona”.
- Pruebas “verídicas” en los tribunales.
¿Cómo detectar “deep fakes”?
El Instituto LISA recomienda poner atención a los siguientes elementos para detectar “deepfakes”:
- Fallas: Identificar diferencias en las expresiones faciales, la iluminación, bordes borrosos, movimientos entrecortados, etcétera.
- Parpadeo: En un “deepfake”, la persona parpadea menos veces de las que lo haría una persona en un video real.
- Cuello y la cara: Si las características del cuerpo no coinciden con las de la persona real, puede tratarse de un archivo falso.
- Corta duración: Todos los “deepfakes” tienen una duración muy corta, ya que el proceso de IA lleva mucho trabajo.
- Origen de la grabación: Indagar sobre quién compartió el archivo, en qué redes sociales, contexto en que se publicó y sus detalles originales, puede ayudar a detectarlos.
- Sonido: Es frecuente en estos videos no se ajusta correctamente el sonido a la imagen, por lo que no hay sincronización entre el movimiento de los labios y el sonido.
- Detalles: Se recomienda reproducir el video a velocidad reducida para ver modificaciones repentinas o cambios en el fondo.
Cortesía de Proceso.
Dejanos un comentario: