Justicia frena decreto de Milei que limitaba el derecho a huelga
Aprueban hasta 12 años de prisión por robo de productos agrícolas en Morelos
Llaman a magistrados del TSJ a lograr acuerdos para elegir presidencia
Anuncian actividades por el Día Mundial del Medio Ambiente en Morelos
Disminuyen casos de dengue en Morelos; reportan 56 contagios en lo que va del año
Algunos derechos reservados © 2024. Instituto Morelense de Radio y Televisión. Medio Público comprometido con la sociedad a difundir contenidos que construyen ciudadanía y que difunden Ciencia, Valores y Cultura producida en Morelos. rtvmorelos.mx
Manipulación de imágenes y clonación de voces son los principales trucos producidos con inteligencia artificial que desde febrero han detectado en fraudes y extorsiones, que aumentaron considerablemente con el uso de chatbot: un software capaz de mantener una conversación en tiempo real por texto o voz, suplantando a la persona.
Aseguró el promotor de seguridad digital, Joksan Terrones Menchaca, quien refirió que el Banco de México advirtió de la difusión en redes sociales de un video falso, donde usan la imagen y falsean la voz de personalidades de la vida pública de México, con el uso de inteligencia artificial.
Además, abundó, genera documentos falsos que potencian la comisión de fraudes.
Y en redes sociales circulan denuncias de quienes han recibido llamadas de supuestos familiares, con voz clonada, que les piden dinero para afrontar alguna emergencia.
“A través de TikTok se utiliza muchísimo estas herramientas o los videos de Facebook descargan la voz, pueden utilizar también fotografías tuyas, las pueden utilizar con inteligencia artificial y sobreponerlas o sobre todo, adaptarlas a una llamada telefónica tuya, por lo cual obviamente cuando llamas a la persona o te llama la persona, pues obviamente conoces que es la voz de tu hijo o hija, por lo cual obviamente tú puedes caer inmediatamente en ese tipo de fraude, por lo que se recomienda a la gente nuevamente a constatar o a marcar a las personas que supuestamente son secuestradas o que están bajo un delito”.
Joksan Terrones Menchaca / Promotor seguridad digital.
Para no ser víctima en caso de llamadas telefónicas donde exista la duda, recomendó plantear preguntas que solamente sepa contestar el familiar a quien clonaron la voz, porque la inteligencia artificial no puede resolver, y detectar la suplantación.
Deja un comentario