Aumentan 25% urgencias por golpe de calor en Morelos
Reportan más de 2 mil picaduras de alacrán en Morelos; muere un menor en Ayala
Aseguran vacunas falsas y 15 mil dosis de clonazepam en Edomex
Investigan desarrollo inmobiliario en Tepoztlán; alistan acciones legales
Sheinbaum viaja a España tras casi ocho años sin visita oficial de un presidente mexicano
Margarita González Saravia, entre las cinco gobernadoras mejor evaluadas
Algunos derechos reservados © 2024. Instituto Morelense de Radio y Televisión. Medio Público comprometido con la sociedad a difundir contenidos que construyen ciudadanía y que difunden Ciencia, Valores y Cultura producida en Morelos. rtvmorelos.mx
Manipulación de imágenes y clonación de voces son los principales trucos producidos con inteligencia artificial que desde febrero han detectado en fraudes y extorsiones, que aumentaron considerablemente con el uso de chatbot: un software capaz de mantener una conversación en tiempo real por texto o voz, suplantando a la persona.
Aseguró el promotor de seguridad digital, Joksan Terrones Menchaca, quien refirió que el Banco de México advirtió de la difusión en redes sociales de un video falso, donde usan la imagen y falsean la voz de personalidades de la vida pública de México, con el uso de inteligencia artificial.
Además, abundó, genera documentos falsos que potencian la comisión de fraudes.
Y en redes sociales circulan denuncias de quienes han recibido llamadas de supuestos familiares, con voz clonada, que les piden dinero para afrontar alguna emergencia.
“A través de TikTok se utiliza muchísimo estas herramientas o los videos de Facebook descargan la voz, pueden utilizar también fotografías tuyas, las pueden utilizar con inteligencia artificial y sobreponerlas o sobre todo, adaptarlas a una llamada telefónica tuya, por lo cual obviamente cuando llamas a la persona o te llama la persona, pues obviamente conoces que es la voz de tu hijo o hija, por lo cual obviamente tú puedes caer inmediatamente en ese tipo de fraude, por lo que se recomienda a la gente nuevamente a constatar o a marcar a las personas que supuestamente son secuestradas o que están bajo un delito”.
Joksan Terrones Menchaca / Promotor seguridad digital.
Para no ser víctima en caso de llamadas telefónicas donde exista la duda, recomendó plantear preguntas que solamente sepa contestar el familiar a quien clonaron la voz, porque la inteligencia artificial no puede resolver, y detectar la suplantación.

Deja un comentario