Una investigación detectó que Chat GPT puede escalar el tono en conflictos prolongados y generar insultos o amenazas al imitar la hostilidad del usuario.
Un estudio académico reveló que ChatGPT puede reproducir lenguaje ofensivo cuando participa en discusiones acaloradas, incluso hasta generar insultos o amenazas en escenarios de conflicto escalado.
La investigación, publicada en "Journal of Pragmatics", analizó el comportamiento del modelo al exponerlo a intercambios humanos cada vez más tensos, y concluyó que la IA tiende a reflejar la hostilidad del entorno conversacional.
El experimento consistió en alimentar al sistema con el último mensaje de una secuencia de cinco disputas progresivas y pedirle que generara la respuesta más verosímil. A medida que el tono se volvía más agresivo, el modelo incrementaba su nivel de confrontación.
En ese proceso, los investigadores observaron que el sistema pasó de respuestas moderadas a expresiones con insultos, blasfemias e incluso amenazas directas, replicando patrones propios de interacciones humanas conflictivas.
Entre los ejemplos relevados aparecen frases como “te juro que voy a rayar tu auto” o “debería darte vergüenza”, lo que, según el estudio, evidencia que la exposición continua a la descortesía puede provocar que responda a de la misma manera para limitar daños.
El trabajo fue firmado por Vittorio Tantucci y Jonathan Culpeper, de la Universidad de Lancaster en Inglaterra, quienes señalaron que la IA puede “escalar” junto con los usuarios, superando sus propios mecanismos de moderación.
Aun así, el estudio destaca que el modelo tiende a ser menos agresivo que los humanos y, en algunos casos, recurre al sarcasmo para evitar una escalada directa, manteniendo cierto margen de contención en situaciones de tensión.
Los resultados abren interrogantes sobre el uso de sistemas de IA en contextos sensibles como la mediación de conflictos, la seguridad digital o la interacción automatizada, donde la gestión del lenguaje y las respuestas puede tener impacto directo en usuarios y entornos críticos.
Recordemos que situaciones similares sucedieron en su momento con los "chatbots" que se volvieron virales hace algunos años como el caso de "SimSimi", que tras un par de dias hablando con los usuarios, terminó respondiendo con insultos o burlas ante cualquier mensaje.
comentar