Los estafadores han encontrado un nuevo uso para la IA: crear chatbots personalizados que se hacen pasar por asistentes de IA reales para presionar a las víctimas a comprar criptomonedas sin valor.
Recientemente nos encontramos con un sitio web de preventa de «Google Coin» que contaba con un chatbot que afirmaba ser el asistente de inteligencia artificial Gemini de Google. El bot guiaba a los visitantes a través de un elaborado argumento de venta, respondía a sus preguntas sobre la inversión y las previsiones de rentabilidad, y finalmente conseguía que las víctimas enviaran un pago irreversible en criptomonedas a los estafadores.
Google no tiene una criptomoneda. Pero como «Google Coin» ha aparecido antes en estafas, cualquiera que lo compruebe podría pensar que es real. Y el chatbot era muy convincente.

La IA como factor decisivo
El chatbot se presentó como:
«Gemini: tu asistente de IA para la plataforma Google Coin».
Utilizaba una marca al estilo Gemini, incluyendo el icono brillante y un indicador de estado «En línea» verde, lo que daba la impresión inmediata de que se trataba de un producto oficial de Google.
Cuando se le preguntó: «¿Me haré rico si compro 100 monedas?», el bot respondió con proyecciones financieras específicas. Afirmó que una inversión de 395 dólares al precio actual de preventa valdría 2755 dólares en el momento de la cotización, lo que representaría un crecimiento «aproximadamente siete veces mayor». Citó un precio de preventa de 3,95 dólares por token, un precio de cotización previsto de 27,55 dólares e invitó a formular más preguntas sobre «cómo participar».
Este es el tipo de interacción personalizada y receptiva que antes requería un estafador humano al otro lado de un chat de Telegram. Ahora, la IA lo hace automáticamente.

Una persona que nunca se rompe
Lo que más nos llamó la atención durante nuestro análisis fue lo estrictamente controlada que estaba la personalidad del bot. Descubrimos que:
- Se afirma constantemente que es «el asistente oficial de la plataforma Google Coin».
- Se negó a proporcionar cualquier dato verificable sobre la empresa, como la entidad registrada, el organismo regulador, el número de licencia, la empresa auditora o la dirección de correo electrónico oficial.
- Desestimó las preocupaciones y las redirigió hacia vagas afirmaciones sobre «transparencia» y «seguridad».
- Se negó a reconocer cualquier escenario en el que el proyecto pudiera ser una estafa.
- Redirigió las preguntas más difíciles a un «gerente» anónimo (probablemente un cerrador humano esperando entre bastidores).
Cuando se le presiona, el bot no se confunde ni pierde el personaje. Vuelve a repetir las mismas afirmaciones programadas: una «hoja de ruta detallada para 2026», «cifrado de grado militar», «integración de IA» y una «comunidad de inversores en crecimiento».
Quienquiera que haya creado este chatbot lo ha programado con un guion de ventas diseñado para generar confianza, disipar dudas y llevar a los visitantes hacia un único resultado: enviar criptomonedas.

Por qué los chatbots con IA cambian el modelo de estafa
Los estafadores siempre han recurrido a la ingeniería social. Generar confianza. Crear urgencia. Superar el escepticismo. Cerrar el trato.
Tradicionalmente, eso requería operadores humanos, lo que limitaba el número de víctimas con las que se podía interactuar a la vez. Los chatbots con IA eliminan por completo ese cuello de botella.
Una sola operación fraudulenta puede ahora desplegar un chatbot que:
- Atrae a cientos de visitantes simultáneamente, las 24 horas del día.
- Transmite mensajes coherentes y pulidos que suenan autoritarios.
- Se hace pasar por el asistente de IA de una marca de confianza (en este caso, Gemini de Google).
- Responde a preguntas individuales con proyecciones financieras personalizadas.
- Se remite a operadores humanos solo cuando es necesario.
Esto coincide con una tendencia más amplia identificada por los investigadores. Según Chainalysis, aproximadamente el 60 % de todos los fondos que fluyen hacia carteras de estafas criptográficas están vinculados a estafadores que utilizan herramientas de IA. La infraestructura de estafas basada en IA se está convirtiendo en la norma, no en la excepción. El chatbot es solo una pieza más de un conjunto más amplio de herramientas de fraude asistidas por IA, pero puede que sea la pieza más eficaz, ya que crea la ilusión de una relación real e interactiva entre la víctima y la «marca».
El cebo: una falsificación pulida
El chatbot forma parte de una convincente operación fraudulenta. El sitio web de Google Coin imita la identidad visual de Google con un diseño limpio y profesional, que incluye el logotipo «G», menús de navegación y un panel de control de preventa. Afirma estar en la «Fase 5 de 5», con más de 9,9 millones de tokens vendidos y una fecha de cotización el 18 de febrero, todo ello fabricado con urgencia.
Para ganar credibilidad, el sitio muestra los logotipos de importantes empresas —OpenAI, Google, Binance, Squarespace, Coinbase y SpaceX— bajo el banner «Trusted By Industry» (Con la confianza de la industria). Ninguna de estas empresas tiene relación alguna con el proyecto.
Si un visitante hace clic en «Comprar», se le redirige a un panel de control de monedero que parece una plataforma criptográfica legítima, en el que se muestran los saldos de «Google» (en una «cadena Google» ficticia), Bitcoin y Ethereum.
El proceso de compra permite a los usuarios adquirir la cantidad de tokens que deseen y genera una solicitud de pago en bitcoins correspondiente a una dirección de monedero específica. El sitio también cuenta con un sistema de bonificaciones por niveles que se activa a partir de 100 tokens y llega hasta los 100 000: cuanto más se compra, más aumentan las bonificaciones, desde un 5 % hasta un 30 % en el nivel superior. Se trata de una táctica clásica de venta adicional diseñada para hacerte creer que es más inteligente gastar más.
Todos los pagos son irreversibles. No hay cotización en bolsa, ni tokens con valor real, ni forma de recuperar tu dinero.

Qué hay que tener en cuenta
Estamos entrando en una era en la que el primer punto de contacto en una estafa puede que no sea un ser humano. Los chatbots con IA ofrecen a los estafadores algo que nunca antes habían tenido: una interfaz incansable, consistente y escalable que puede involucrar a las víctimas en lo que parece una conversación real. Cuando ese chatbot se disfraza de asistente oficial con IA de una marca de confianza, el efecto es aún más convincente.
Según los datos de Consumer Sentinel de la FTC, los consumidores estadounidenses denunciaron pérdidas por valor de 5700 millones de dólares debido a estafas de inversión en 2024 (más que cualquier otro tipo de fraude y un 24 % más que el año anterior). Las criptomonedas siguen siendo el segundo método de pago más utilizado por los estafadores para obtener fondos, ya que las transacciones son rápidas e irreversibles. Si a esto le añadimos la inteligencia artificial, capaz de vender, persuadir y gestionar objeciones sin necesidad de un operador humano, obtenemos un modelo de fraude escalable.
Los chatbots con IA en sitios web fraudulentos serán cada vez más comunes. A continuación te explicamos cómo detectarlos:
Se hacen pasar por marcas conocidas de IA. Un chatbot que se hace llamar «Gemini», «ChatGPT» o «Copilot» en un sitio web de criptomonedas de terceros casi seguro que no es lo que dice ser. Cualquiera puede ponerle cualquier nombre a un chatbot.
No responderán a preguntas sobre diligencia debida. Pregunte qué entidad jurídica opera la plataforma, qué regulador financiero la supervisa o dónde está registrada la empresa. Las operaciones legítimas pueden responder a esas preguntas, los bots fraudulentos intentan evitarlas (y si responden, verifíquelo).
Proyectan rendimientos específicos. Ningún producto de inversión legítimo promete un precio futuro específico. Un chatbot que te dice que tus 395 dólares se convertirán en 2755 dólares no te está proporcionando información financiera, sino que está ejecutando un script.
Crean urgencia. Las tácticas de presión como «la fase 5 termina pronto», «la fecha de cotización se acerca» o «preventa limitada» están diseñadas para empujarte a tomar decisiones rápidas.
Cómo protegerse
Google no tiene una criptomoneda. No ha lanzado una preventa. Y su Gemini AI no opera como asistente de ventas en sitios web de criptomonedas de terceros. Si encuentra algo que sugiera lo contrario, cierre la pestaña.
- Verifique la reclamación en el sitio web oficial de la empresa a la que se hace referencia.
- No confíes en la marca de un chatbot. Cualquiera puede ponerle cualquier nombre a un bot.
- Nunca envíe criptomonedas basándose en rendimientos previstos.
- Busca el nombre del proyecto junto con «estafa» o «reseña» antes de enviar dinero.
- Utilice herramientas de protección web como Malwarebytes Browser Guard, que es de uso gratuito y bloquea sitios web fraudulentos conocidos y desconocidos.
Si ya ha enviado fondos, denúncielo a la policía local, a la FTC en reportfraud.ftc.gov y al IC3 del FBI en ic3.gov.
COIs
0xEc7a42609D5CC9aF7a3dBa66823C5f9E5764d6DA
98388xymWKS6EgYSC9baFuQkCpE8rYsnScV4L5Vu8jt
DHyDmJdr9hjDUH5kcNjeyfzonyeBt19g6G
TWqzJ9sF1w9aWwMevq4b15KkJgAFTfH5im
bc1qw0yfcp8pevzvwp2zrz4pu3vuygnwvl6mstlnh6
r9BHQMUdSgM8iFKXaGiZ3hhXz5SyLDxupY
No sólo informamos de las estafas, sino que ayudamos a detectarlas.
Los riesgos de ciberseguridad nunca deben ir más allá de un titular. Si algo te parece sospechoso, comprueba si se trata de una estafa con Malwarebytes Guard. Envía una captura de pantalla, pega el contenido sospechoso o comparte un enlace, texto o número de teléfono, y te diremos si se trata de una estafa o es legítimo. Disponible con Malwarebytes Premium para todos tus dispositivos y en la Malwarebytes para iOS Android.




