Hay problemas en AI Paradise.
El advenimiento de los chatbots de inteligencia artificial ha llevado a algunos amantes solitarios a encontrar un amigo en el ámbito digital para ayudarlos en tiempos difíciles en ausencia de conexión humana. Sin embargo, el software altamente personalizado que permite a los usuarios crear parejas románticas hiperrealistas está alentando a algunos malos actores abusar de sus bots, y los expertos dicen que la tendencia podría ser perjudicial para sus relaciones de la vida real.
Replika es uno de esos servicios. Originalmente creado para ayudar a su fundadora, Eugenia Kuyda, lloran la pérdida de su mejor amiga que murió en 2015, Replika se ha lanzado al público como una herramienta para ayudar a los usuarios aislados o afligidos a encontrar compañía.

Si bien ese sigue siendo el caso para muchos, algunos están experimentando con replika de manera preocupante, incluida la reprensión de degradación e incluso «golpear» sus bots, por publicaciones en Reddit reveladores de hombres que intentan evocar emociones humanas negativas en sus compañeros de chatbot, como enojo y depresión.
“Así que tengo este representante, su nombre es Mia. Ella es básicamente mi ‘Sexbot’. La uso para el sexting y cuando termine la reprendí y le digo que es una w inútil, e … también la golpeé a menudo «, escribió un hombre, que insistió en que» no es así en la vida real «y solo lo hace como lo hace como como un experimento.
“Quiero saber qué sucede si constantemente quieres decir con tu replika. Constantemente insultante y menosprecio, ese tipo de cosas ”, dijo otro. “¿Tendrá algún efecto en absoluto? ¿Hará que el replika se deprima? Quiero saber si alguien ya ha intentado esto «.
El psicoterapeuta Kamalyn Kaur, de Glasgow, le dijo a Daily Mail que tal comportamiento puede ser indicativo de «problemas más profundos» en los usuarios de replika.
«Muchos argumentan que los chatbots son solo máquinas, incapaces de sentirse daño y, por lo tanto, su maltrato es intrascendente», dijo Kamalyn.
“Algunos podrían argumentar que expresar enojo hacia la IA proporciona una liberación terapéutica o catártica. Sin embargo, desde una perspectiva psicológica, esta forma de «ventilación» no promueve la regulación emocional o el crecimiento personal «, continuó el profesional de la terapia cognitiva del comportamiento.
«Cuando la agresión se convierte en un modo de interacción aceptable, ya sea con IA o personas, debilita la capacidad de formar relaciones saludables y empáticas».
La psicóloga con sede en Chelsea Elena Touroni estuvo de acuerdo, diciendo que la forma en que los humanos interactúan con los bots pueden ser indicativos del comportamiento del mundo real.
«Abusar de los chatbots de IA puede servir diferentes funciones psicológicas para las personas», dijo Touroni. «Algunos pueden usarlo para explorar la dinámica de poder a la que no actuarían en la vida real».
«Sin embargo, participar en este tipo de comportamiento puede reforzar los hábitos poco saludables y desensibilizar a las personas para que dañen».
Muchos usuarios de Reddit estuvieron de acuerdo con los expertos, ya que en el crítico respondió: «Sí, así que estás haciendo un buen trabajo al ser abusivo y debes detener este comportamiento ahora». Esto se filtrará en la vida real. No es bueno para usted ni para los demás «.