¿Tu chatbot sabe demasiado? He aquí por qué deberías pensártelo dos veces antes de contarle todo a tu compañero de IA.
17 de noviembre de 2025
•
,
4 min. leer

En el película “ella” El héroe de la película entabla una relación romántica finalmente condenada al fracaso con un sofisticado sistema de inteligencia artificial. En el momento de su lanzamiento en 2013, tal escenario estaba firmemente en el ámbito de la ciencia ficción. Pero con la aparición de la IA generativa (GenAI) y los grandes modelos de lenguaje (LLM), ya no es una perspectiva tan descabellada. De hecho, hoy en día están proliferando las aplicaciones “compañeras”.
Sin embargo, inevitablemente existen riesgos asociados con la conexión con un robot de IA. ¿Cómo sabes que tu información personal no será compartida con terceros? ¿O robado por piratas informáticos? Las respuestas a preguntas como estas le ayudarán a determinar si vale la pena correr el riesgo.
Buscando amor (digital)
Las aplicaciones complementarias satisfacen una creciente demanda del mercado. Los novios y novias con IA aprovechan el poder de los LLM y el procesamiento del lenguaje natural (NLP) para interactuar con sus usuarios de una manera conversacional y altamente personalizada. Títulos como Character.AI, Nomi y Replika satisfacen una necesidad psicológica y, a veces, romántica de quienes los utilizan. No es difícil ver por qué los desarrolladores están interesados en ingresar a este espacio.
Incluso las grandes plataformas se están poniendo al día. Abierto AI dijo recientemente pronto lanzará “erótica para adultos verificados” y puede permitir a los desarrolladores crear aplicaciones “para adultos” basadas en ChatGPT. xAI de Elon Musk también ha lanzado Compañeros coquetos de IA en su aplicación Grok.
Investigación publicada en julio descubrió que casi tres cuartas partes de los adolescentes han utilizado compañeros de IA, y la mitad lo hace con regularidad. Lo que es más preocupante, un tercio ha elegido robots de IA en lugar de humanos para conversaciones serias, y una cuarta parte ha compartido información personal con ellos.
Esto es particularmente preocupante a medida que comienzan a surgir historias de advertencia. En octubre, advirtieron los investigadores que dos aplicaciones complementarias de IA (Chattee Chat y GiMe Chat) habían expuesto sin darse cuenta información altamente confidencial del usuario. Una instancia del agente Kafka mal configurada dejó los sistemas de transmisión y entrega de contenido de estas aplicaciones sin controles de acceso. Eso significaba que cualquiera podría haber accedido a más de 600.000 fotografías enviadas por usuarios, direcciones IP y millones de conversaciones íntimas pertenecientes a más de 400.000 usuarios.
Los riesgos de conectarse con un bot
Los actores de amenazas oportunistas pueden percibir una nueva forma de ganar dinero. La información compartida por las víctimas en conversaciones románticas con su compañero de IA es propicia para el chantaje. Imágenes, vídeos y audio podrían introducirse en herramientas deepfake para su uso en estafas de sextorsión, por ejemplo. O la información personal podría venderse en la web oscura para utilizarla en posteriores fraudes de identidad. Dependiendo de la postura de seguridad de la aplicación, los piratas informáticos también pueden obtener información de la tarjeta de crédito almacenada para compras dentro de la aplicación. De acuerdo a cibernoticiasalgunos usuarios gastan miles de dólares en este tipo de compras.
Según el ejemplo anterior, la prioridad para los desarrolladores de aplicaciones de IA es la generación de ingresos, más que la ciberseguridad. Eso significa que los actores de amenazas pueden encontrar vulnerabilidades o configuraciones erróneas para explotar. Incluso podrían intentar crear sus propias aplicaciones complementarias que oculten códigos maliciosos para robar información o manipulen a los usuarios para que divulguen detalles confidenciales que pueden usarse para fraude o chantaje.
Incluso si su aplicación es relativamente segura, puede representar un riesgo para la privacidad. Algunos desarrolladores recopilan tanta información como sea posible sobre sus usuarios para poder venderla a anunciantes externos. Las políticas de privacidad opacas pueden dificultar la comprensión de si sus datos están protegidos o cómo. También puede descubrir que la información y las conversaciones que comparte con su compañero se utilizan para entrenar o perfeccionar el LLM subyacente, lo que exacerba aún más los riesgos de privacidad y seguridad.
Cómo mantener segura a tu familia
Ya sea que usted mismo esté usando una aplicación complementaria de IA o le preocupe que sus hijos lo hagan, el consejo es el mismo. Suponga que la IA no tiene barreras de seguridad o privacidad incorporadas. Y no comparta con ella ninguna información personal o financiera que no se sentiría cómodo compartiendo con un extraño. Esto incluye fotos/vídeos potencialmente embarazosos o reveladores.
Aún mejor, si usted o sus hijos quieren probar una de estas aplicaciones, investigue con anticipación para encontrar las que ofrecen las mejores protecciones de seguridad y privacidad. Eso significará leer las políticas de privacidad para comprender cómo usan y/o comparten sus datos. Evite aquellos que no sean explícitos sobre el uso previsto o que admitan vender datos del usuario.
Una vez que haya encontrado su aplicación, asegúrese de activar funciones de seguridad como la autenticación de dos factores. Esto ayudará a evitar la apropiación de cuentas mediante contraseñas robadas o forzadas por fuerza bruta. Y explore su configuración de privacidad para aumentar las protecciones. Por ejemplo, puede haber una opción para optar por no guardar sus conversaciones para la capacitación del modelo.
Si le preocupa la seguridad, la privacidad y las implicaciones psicológicas de que sus hijos utilicen estas herramientas, inicie un diálogo con ellos para obtener más información. Recuérdeles los riesgos de compartir demasiado y enfatice que estas aplicaciones son una herramienta con fines de lucro que no se preocupa por los mejores intereses de sus usuarios. Si le preocupa el impacto que puedan tener en sus hijos, puede que sea necesario poner límites al tiempo y uso de la pantalla, potencialmente aplicados a través de controles/aplicaciones de monitoreo parental.
No hace falta decir que no debe permitir ninguna aplicación complementaria de IA cuyas políticas de verificación de edad y moderación de contenido no ofrezcan protección suficiente para sus hijos.
Queda por ver si los reguladores intervendrán para hacer cumplir reglas más estrictas sobre lo que los desarrolladores pueden y no pueden hacer en este ámbito. Los robots románticos operan en una especie de zona gris en la actualidad, aunque próxima Ley de Equidad Digital en la UE podría prohibir experiencias excesivamente adictivas y personalizadas.
Hasta que los desarrolladores y reguladores se pongan al día, tal vez sea mejor no tratar a los compañeros de IA como confidentes o muletas emocionales.


