Un estudio revela que los historiales de chat permiten a los algoritmos predecir rasgos emocionales con gran precisión, abriendo un debate sobre la privacidad.
Al parecer, lo que le contás a la inteligencia artificial dice mucho más de vos que el simple texto de la pregunta. Una investigación reciente de la Escuela Politécnica Federal de Zúrich (ETH Zurich) confirmó que los chatbots podrían predecir tu personalidad analizando cómo hablás y qué temas tocás en tus chats diarios.
Con solo revisar el historial de conversaciones, la IA logró adivinar rasgos como la estabilidad emocional o la amabilidad de los usuarios con un 61% de efectividad.
El experimento se hizo con más de 600 usuarios de ChatGPT que aceptaron compartir sus conversaciones. Los científicos analizaron 62.000 charlas y entrenaron a un modelo de IA para que intentara adivinar los famosos "cinco grandes" rasgos de la psicología humana: si sos extrovertido, amable, responsable, emocionalmente estable o abierto a nuevas experiencias. Los resultados fueron sorprendentes, ya que la máquina coincidió en la mayoría de los casos con los tests psicológicos que los mismos usuarios habían completado antes.
La IA demostró poder detectar qué tan "buena onda" o qué tan estable es una persona frente a los problemas. Sin embargo, todavía le cuesta un poco más darse cuenta de qué tan responsable o metódica es la gente en su vida diaria. Lo más curioso es que no necesita que le digas "estoy triste" o "soy amigable"; la tecnología lee entre líneas, analiza tu vocabulario y la forma en la que estructurás tus pedidos para armar tu perfil psicológico sin que te des cuenta.
Un punto clave del estudio es que cuanta más charla hay, más fácil es para el algoritmo entender quién está del otro lado. Los investigadores notaron que en los historiales más largos y antiguos, la precisión del perfil era mucho mayor. Esto significa que cuanto más usamos estas herramientas en el día a día para trabajar o estudiar, más datos le regalamos a la empresa para que entienda nuestras debilidades y fortalezas emocionales.
Los expertos temen que esta capacidad de "radiografía mental" podría dar lugar a una nueva era de noticias falsas y propaganda política diseñada a medida. Ya no se trata solo de saber qué te gusta comprar, sino de entender cómo funciona tu cabeza para tocar la fibra exacta que te haga reaccionar. Por eso, el estudio advierte que estamos ante una herramienta de ingeniería social que, en las manos equivocadas, podría ser muy peligrosa para la opinión pública.
Para frenar esto, los investigadores suizos proponen crear "escudos de privacidad" que funcionen dentro de los mismos chats. La idea es desarrollar herramientas que borren automáticamente cualquier rastro de nuestra personalidad o datos identificativos antes de que la información salga de nuestro dispositivo.
En definitiva, la IA dejó de ser una simple enciclopedia o lugar de busqueda de respuestas, para convertirse en un espejo que nos devuelve un reflejo muy detallado de quiénes somos. Mientras las empresas tecnológicas siguen avanzando, el desafío para los usuarios es entender que cada interacción deja una huella. Cuidar lo que escribimos en la ventana del chat es hoy tan importante como cuidar nuestros datos.
comentar