Ejecutómetro: 0
Dólar: 19.47 MXN
10°

La influencer Alana Flores denuncia haber sido víctima de “deepfakes”; tomará acciones legales

CIUDAD DE MÉXICO (apro) .- A través de sus redes sociales, la streamer e influencer Alana Flores, expuso que fue víctima de “deepfake” tras la difusión de una supuesta imagen íntima suya, creada con Inteligencia Artificial (IA), por lo que tomará acciones legales contra el responsable. 

Los “deepfakes” son archivos de video, imagen o voz alterados con IA, de modo que parecen auténticos y reales. A menudo se utilizan para acosar y extorsionar a las víctimas, explica la Oficina Federal de Investigación de Estados Unidos (FBI). 

 

En los últimos días ha circulado una imagen de Flores durante una supuesta situación íntima, misma que la influencer desmintió: 

“Hay una imagen falsa de mí que está siendo difundida en redes sociales que ha sido alterada, sea por Inteligencia Artificial o sea por una persona. El caso es que es una imagen que no soy yo, es una imagen en la que utilizaron mi cara y no es real, nunca me la tomaron y nunca pasó”, sostuvo en un video publicado en X.  

“No tengo fotos ni videos haciendo actos sexuales, no tengo fotos desnuda, ni tampoco tengo o he tenido OnlyFans o algo por el estilo”, agregó. 

 

La también presidenta del Raniza FC –equipo de la Kings League Américas–, compartió que la situación le afectó física y emocionalmente, por lo que requirió atención médica y apoyo psiquiátrico:  

“Ayer tuve una consulta en el hospital porque esto es algo que me ha empezado a repercutir en la salud hasta de manera física (...) (tengo) ya un tiempo con la psiquiatra y, aun así, a veces se siente imposible avanzar estando rodeada de tanta contaminación”. 

Asimismo, expuso que ya había sido víctima de “deepfake” muchas veces, pero que “nunca había llegado a tal gravedad”:  

“Me hace sentir mucho coraje e impotencia estar en esta situación porque ya no sé qué hacer”, dijo en el video.   

 

La influencer sostuvo con firmeza que tiene proyectos en los cuáles enfocarse, que cuenta con apoyo y que no se dejará derrumbar.  

Además, anunció que tomará acciones legales contra el responsable, a quien supuestamente ya tiene identificado: “No es real. Y si voy a buscar demandar”, escribió en X.  

“Para los que dicen que, si voy a demandar a una IA, tengo la persona que lo inició, y aunque haya borrado su cuenta @chainsant1, sé que fue él”, agregó en la publicación. 

 

¿Qué son los “deepfakes” y sus riesgos?  

Los “deepfakes” son imágenes, vídeos o audio editados o generados utilizando inteligencia artificial o software de edición audiovisual, y usan la apariencia de una persona para aparentar que realizó alguna actividad o que dijo algo utilizando su voz.  

En internet se popularizado la edición de imágenes y audios para generar contenido erótico o pornográfico.  

Al ser casi indistinguibles de la realidad, los “deepfakes” representan un problema para la población y, en el caso de Alana Flores, es un recordatorio sobre los riesgos del uso indebido de la IA y su impacto físico y emocional.  

De acuerdo con el Instituto LISA y la Oficina de Seguridad del Internauta (OSI), además de pornografía, también se usa para: 

  • Propagar noticias falsas. 
  • Generar desinformación. 
  • Desacreditar a alguien. 
  • Fraudes y estafas financieras.  
  • Cometer delitos informáticos relacionados con el honor o la imagen. 
  • Influir en las votaciones, toma de decisiones o pensamiento grupal. 
  • Venganzas y extorsión. 
  • Desestabilizar las relaciones internacionales. 
  • Ciberacoso o acoso escolar.  
  • Viralización de contenido falso "que puede causar estragos en la reputación de una persona”. 
  • Pruebas “verídicas” en los tribunales. 

 

¿Cómo detectar "deep fakes"? 

El Instituto LISA recomienda poner atención a los siguientes elementos para detectar “deepfakes”: 

  • Fallas: Identificar diferencias en las expresiones faciales, la iluminación, bordes borrosos, movimientos entrecortados, etcétera. 
  • Parpadeo: En un “deepfake”, la persona parpadea menos veces de las que lo haría una persona en un video real.  
  • Cuello y la cara: Si las características del cuerpo no coinciden con las de la persona real, puede tratarse de un archivo falso.  
  • Corta duración: Todos los “deepfakes” tienen una duración muy corta, ya que el proceso de IA lleva mucho trabajo. 
  • Origen de la grabación: Indagar sobre quién compartió el archivo, en qué redes sociales, contexto en que se publicó y sus detalles originales, puede ayudar a detectarlos. 
  • Sonido: Es frecuente en estos videos no se ajusta correctamente el sonido a la imagen, por lo que no hay sincronización entre el movimiento de los labios y el sonido. 
  • Detalles: Se recomienda reproducir el video a velocidad reducida para ver modificaciones repentinas o cambios en el fondo. 

 

 

Con información de: Proceso.

Tips al momento

El riesgo de ser policía en México: Causa en Común

La asociación Causa en Común dio a conocer que en el periodo del 2 al 8 de mayo del presente año,  7 policías fueron asesinados en los estados de Guanajuato Sinaloa y Oaxaca.

En lo que va del año 2025,  van al menos 160 asesinatos de policías, un promedio de 1 cada día, según la estimación de la organización de la sociedad civil.

En los datos de la asociación Causa en Común, se encuentra el registro de los homicidios del policía estatal, Víctor Hugo Sosa, asesinado el 10 de febrero del presente año; así como el del agente de la Policía Municipal de Casas Grandes, Alfredo R., quien perdió la vida el 3 de marzo pasado.

Esa cifras según lo publicó en sus redes sociales Causa en Común, representan un 40% más de la registradas en el mismo periodo de 2024. En México, ser policía es un riesgo constante, según lo señala.

Notas recientes