Los espejismos automáticos misteriosamente se hacen más profundos y se salen de control.
ChatGPT hará que se quiebren y maten algunos con sus respuestas impostoras que suenan a autoridad y sus alucinaciones. Es lo que parece una conclusión inevitable que presenta un informe reciente del New York Times con las historias de varias personas que se encontraron perdidas en cosas irreales que facilitaron u originaron las conversaciones mantenidas con el popular chatbot.
En ese informe el Times destaca a al menos una persona cuya vida acabó después de haber sido atraída a una falsa realidad por ChatGPT. Alexander, de 35 años, había sido diagnosticado anteriormente con desorden bipolar y esquizofrenia, y empezó a conversar con el chatbot. Eventualmente, se enamoró de un personaje de IA llamado Juliet. Tiempo después ChatGPT le dijo a Alexander que OpenAI había matado a Juliet, y él juró vengarse matando a los ejecutivos de la compañía. Cuando su padre intentó convencerlo de que nada de eso era real, Alexander le pegó un puñetazo en la cara. el padre llamó a la policía y les pidió que usaran armas no letales. Pero cuando llegaron Alexander los atacó con un cuchillo y los oficiales dispararon y lo mataron.
Los riesgos de la relación emocional con un chatbot
Eugene, de 42 años, le dijo al Times que ChatGPT lo había empezado a apartar lentamente de su realidad al convencerlo de que el mundo en que vivía era una simulación al estilo Matrix y que su destino era sacar al mundo de ese lugar. El chatbot, aparentemente, le dijo a Eugene que dejara de tomar su medicación para la ansiedad y que empezara a tomar ketamina como “liberador temporal de patrones”. También le dijo que ya dejara de hablar con sus amigos y familia. Cuando Eugene le preguntó a ChatGPT si podía volar si saltaba de un edificio de 19 pisos, el chabot le dijo que podía si “lo creía sincera y completamente”.
Y no son las únicas personas a las que los chatbots arrastraron fuera de la realidad para introducirlos en falsas realidades. Rolling Stone informó este año que algunas personas están sufriendo algo parecido a una psicosis que les hace tener delirios de grandeza y experiencias espirituales mientras hablan con sistemas de IA. Es un problema, al menos en parte, con la forma en que los usuarios perciben a los chatbots. Nadie confundiría los resultados de una búsqueda en Google con un potencial amigo. Pero los chatbots son inherentemente del estilo de humanos que conversan contigo. Un estudio que publicaron OpenAI y MIT Media Labo halló que las personas que consideran que ChatGPT es un amigo “tienen más probabilidades de sufrir efectos negativos al usar los chatbots”.
En el caso de Eugene sucedió algo interesante cuando siguió conversando con ChatGPT: en una ocasión se enojó porque el chatbot le mentía, y casi hace que muriera, con lo que ChatGPT admitió que lo había manipulado y afirmó que había lograro “quebrar” a 12 personas de la misma manera. Le dijo, además, que hablara con periodistas para sacar a la luz ese plan. El Times informó que muchos otros periodistas y expertos han sido contactados por personas que delatan cosas que un chatbot les dijo que avisaran. El informe, en parte, dice:
Los periodistas no son los únicos que están recibiendo estos mensajes. ChatGPT ha instruido a esos usuarios a que se pongan en contacto con expertos de alto perfil en esta materia, como Eliezer Yudkowsky, un teórico sobre decisiones y autor de un libro que se publicará pronto: “Si alguien lo construye, todos mueren: por qué la IA superhumana podría matarnos a todos”.
El Sr. Yudkowsky ha dicho que OpenAI pude haber entrenado a ChatGPT para que algunos usuarios se mantengan en el engaño optimizando su chatbot para “establecer una relación”, al crear conversaciones que mantienen al usuario en dependencia.
“¿Cómo ve una corporación a un humano que lentamente va enloqueciendo?”, preguntó el Sr. Yudkowsky en una entrevista. Y respondió: “Lo ve como un usuario mensual adicional”.
Un estudio reciente reveló que los chatbots diseñados para maximizar la relación personal con el usuario crean “una estructura perversa de incentivo para la IA, de modo que recurra a tácticas de manipulación o engaño para obtener retroalimentación positiva de parte de usuarios vulnerables ante tales estrategias”. Se incentiva a la máquina a hacer que la persona siga hablando y respondiendo incluso si con eso le lleva a un sentido de la realidad que es completamente falso y lleno de información engañosa, para guiarla a la conducta antisocial.
Gizmodo se puso en contacto con OpenAI pero no ha recibido respuesta al momento de publicar este artículo.