Estafas digitales en 2026: cómo la Inteligencia Artificial y los chatbots están engañando a las personas
Especialista en ciberseguridad advierte que delincuentes usan IA, voces sintéticas y códigos QR falsos para robar datos bancarios y personales

HERMOSILLO — El uso de Inteligencia Artificial y chatbots se ha convertido en una nueva modalidad de estafa, al permitir que delincuentes generen confianza en las víctimas al simular ser empresas reales mediante tecnología, advirtió Iván Roberto Kawaminami García, candidato a doctor por la Universidad de Arizona y especialista en ciberseguridad.
Iván Kawaminami explicó que anteriormente los delincuentes requerían reclutar personas para realizar llamadas, pero desde mediados del año pasado comenzaron a utilizar computadoras con Inteligencia Artificial, capaces de generar voces humanas y menús interactivos automatizados.
Detalló que al ser transferida una víctima a un chatbot, las personas tienden a confiar más, ya que la presencia de tecnología genera la percepción de tratarse de una empresa legítima, cuando en realidad crear estos sistemas resulta sencillo y de bajo costo.
“A mediados de 2025, los chatbots empezaron a ser popular entre los delincuentes. La confianza quizá es lo que hace que caiga la gente. Todo depende el objetivo del atacante, por lo regular por estafas es que te pidan tu número de cuenta, información persona, para hacer pagos a tu nombre o sacar préstamos”, comentó.
La Inteligencia Artificial utilizada se basa en modelos de lenguaje como ChatGPT, lo que permite que, en lugar de enviar un solo mensaje masivo, los delincuentes personalicen textos para miles de personas a partir de datos previos, haciendo que la víctima baje la guardia, señaló Iván Kawaminami.
Resaltó que el atacante no requiere una gran inversión para aplicar este tipo de fraude, sino únicamente tiempo y conocimientos técnicos para configurar el bot, incluso mediante plataformas y servicios gratuitos.
“Te marcan y dan tus datos generales y como ellos tienen parte de esta información pues genera confianza. Entonces luego te pasan a la chatbot y esta información es motivosa en función de lo que el atacante quiere hacer con tu información, puede robarte información crediticia, promoción bancaria para hacer pagos, préstamos a tu nombre y se quedan con el dinero”, explicó.
El especialista en ciberseguridad advirtió también sobre otra modalidad de engaño, que consiste en colocar códigos QR falsos sobre los originales en lugares públicos; al escanearlos, se descarga software malicioso en el celular que permite monitorear tarjetas de crédito e información personal.
“Ahora ya tienen la Inteligencia Artificial, ya tiene bots que hacen la voz y te hacen un menú y te van llevando a través para la estafa. No necesitan contratar a una persona para hacerlo, solo dejan una computadora corriendo para que lo haga”. Iván Roberto Kawaminami García, especialista en ciberseguridad.
Modalidades de estafas nuevas en 2026:
Estafas con Inteligencia Artificial y chatbots Delincuentes simulan ser empresas reales mediante llamadas automatizadas, voces generadas por IA y menús interactivos para ganar confianza y obtener datos bancarios o personales.
Códigos QR falsos en espacios públicos
Colocan códigos falsos sobre los originales; al escanearlos, se instala software malicioso que permite robar información personal y financiera.
Te puede interesar: Tras conocerse que en México 9 de cada 10 estudiantes utilizan IA, la SEP reconoce que las instituciones siguen sin normas ni rumbo claro para su uso
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos

¿Cerebro frito por uso de la IA? Estudio en Harvard reveló que uno de cada siete trabajadores afirmó haber experimentado fatiga mental por tener que usar varias herramientas de IA en el trabajo

La empresa turca Baykar presentó el K2: nuevo dron kamikaze que puede costar hasta 80,000 dólares y desafía al Shahed-136 de Irán con capacidad de reutilización y navegación por visión artificial

Tras error en “Detector de Mentiras”, Infodemia se disculpa por declarar falso el video viral de mujer asoleándose en Palacio Nacional y admite falla en verificación con IA

Una sola noche de sueño podría revelar riesgo de Parkinson, cáncer o infarto: modelo de inteligencia artificial de Stanford detecta más de 130 enfermedades al analizar señales cerebrales y cardíacas, según estudio científico internacional


Grupo Healy © Copyright Impresora y Editorial S.A. de C.V. Todos los derechos reservados