Noticias

La dismorfia corporal es una lucha. Los chatbots de ai lo están empeorando

«Esta es una presentación de baja atracción, basada en una estructura ósea débil, características apagadas y ausencia de forma o presencia», dice un Chatgpt Mensaje compartido en capturas de pantalla en Reddit. «Te pareces a alguien que se ha desvanecido en el fondo de su propia vida».

La dura evaluación de la apariencia del usuario, basada en una foto que habían subido al AI Chatbot, continúa con una lista de «fallas de mayor visibilidad», señalando la falta de «características destacadas». El bot finalmente concluye que «te ves como un maniquí estirado con la cabeza de tamaño incorrecto roto en la parte superior», declarando un «puntaje de atractivo brutal final» de 3.5/10. El usuario explicado que habían provocado que Chatgpt fuera lo más crítico posible, con la esperanza de un análisis más «honesto», o al menos suprimir su tendencia hacia la adulación. El resultado fue brutalmente insultante, no el tipo de cosas que alguien querría leer sobre sí mismos.

¿O lo harían? A medida que el mundo se vuelve cada vez más dependiente de los grandes modelos de idiomas para asistir con las tareas cotidianas, más de la mitad de los estadounidenses han usado uno, según una encuesta de principios de este año: las aplicaciones diferentes e inesperadas han proliferado. Más allá de los estudiantes y profesores universitarios apoyado en los bots para tareas y clasificación, y abogados revisión de documentos de outsourcing A la IA, hay personas que preguntan a Chatgpt y herramientas similares para terapia, ayudar a comunicarse con sus cónyuges, Consejos para quedar embarazaday iluminación religiosa.

Quizás era inevitable, entonces, que algunos hayan llegado a considerar a los bots como guías en asuntos de apariencia. Internet tiene una larga y sórdida historia de facilitar el juicio de la apariencia, a partir de ahora sitios web desaparecidos como Caliente o no a r/amiuglyUn subreddit donde el inseguro puede compartir selfies para solicitar directamente opiniones sobre sus rostros de extraños. Facemash, el sitio web Mark Zuckerberg creado antes de Facebook, ofreció a los estudiantes de Harvard la oportunidad de comparar el atractivo de pares aleatorizadas de compañeras de clase. Sin embargo, con IA, no es otro humano que te dé retroalimentación: es un conjunto de algoritmos. Y hay un subconjunto de la población exclusivamente vulnerable a este tipo de comentarios mecanizados: individuos con trastorno dismórfico corporal (BDD), A enfermedad mental en el que un paciente se obsesiona con sus deficiencias físicas percibidas y puede disfrutar de la autoevaluación constante, desesperado por pruebas de que no son tan poco atractivos como se imaginan a sí mismos.

Dr. ToniUn psicólogo clínico en Melbourne, Australia, que se especializa en BDD, se ha alarmado al escuchar cuántos de sus clientes le preguntan a los modelos de IA cómo se ven y qué aspectos de sus cuerpos pueden mejorarse. «Casi está apareciendo en cada sesión», le dice Piedra rodante. «A veces simplemente dicen: ‘Si alguien tiene una nariz que se ve así, o una cara que se ve así, ¿son feas?’ O a veces están subiendo fotos de sí mismos y pidiendo a ChatGPT que califique su atractivo de 10, dígales cuán simétrica es su cara, cómo se ajusta a la relación dorada del atractivo. Todo eso, como se puede imaginar, es realmente perjudicial para cualquiera, pero particularmente para alguien con trastorno dismórfico corporal que ya tiene una percepción distorsionada de cómo se ven y a menudo busca certeza en torno a eso «.

«Lamentablemente, la IA es otra vía para que las personas alimenten su ansiedad de apariencia y aumenten su angustia», dice Kitty Newman, directora gerente de la Fundación BDDUna organización benéfica internacional que apoya la educación y la investigación sobre el trastorno. «Sabemos que las personas con BDD son muy vulnerables al uso dañino de la IA, ya que a menudo no se dan cuenta de que tienen BDD, una condición psicológica, sino que están convencidas de que tienen un problema de apariencia física. Los altos niveles de vergüenza con BDD hacen que sea más fácil para los sufrientes involucrarse en línea que en persona, haciendo que AI sea aún más atractivo».

Pikoos explica que los pacientes con BDD a menudo tratan con una necesidad compulsiva de tranquilidad, y no es raro que amigos y familiares se sientan frustrados con ellos por preguntar repetidamente si se ven bien. Los chatbots, sin embargo, son inagotables. «Le permitirá hacer las preguntas sin cesar si es necesario», dice, lo que puede contribuir a la dependencia. De hecho, ella cree que las personas con BDD, ya que están «bastante aisladas socialmente y pueden luchar con la confianza a veces para llegar a sus amigos», confían en los bots para su compromiso social e interacción. «Parece que pueden tener una conversación con alguien», dice ella. Por supuesto, la tecnología no es un «alguien» en absoluto.

Sin embargo, en los foros de la dismorfia del cuerpo en línea, puede encontrar muchas publicaciones sobre cómo ChatGPT es un «salvador de la vida«Y un gran recurso para cuando eres»luchando«Y afirma que el bot puede hacerte»verse. » Arnav, un hombre de 20 años en India, cuenta Piedra rodante que tuvo una conversación positiva con el modelo en un intento de entender por qué sentía que era «la persona más fea del planeta» y, por lo tanto, no es posible.

«Me ayudó a conectar los puntos de mi vida», dice. Arnav le dijo a Chatgpt sobre su infancia, y el bot concluyó que había sufrido durante mucho tiempo un sentido irracional de indignidad, pero no tenía razón concreta para esto, por lo que se aferró a su aspecto como una explicación para su pobre autoestima. «Le encantaría» hablar con un verdadero terapeuta, dice, aunque los gastos y la ubicación lo han hecho imposible para él. A pesar de esta difícil circunstancia, y la medida de consuelo que derivó del relato de Chatgpt de su complejo de inferioridad, Arnav es reacio a explorar más sus problemas mentales con el bot. «He llegado a la conclusión de que simplemente está de acuerdo contigo, incluso después de que lo digas no hacerlo», dice. «No es que esté completamente en contra, ya no puedo confiar a ciegas».

Otros con dismorfia han experimentado una crisis cuando un bot confirma sus peores temores. En una publicación en el subreddit BDD, un usuario escribió que estaban «en espiral» después de que Chatgpt calificó una foto de ellos un 5.5 de 10. «Pregunté qué celebridades tenían un atractivo equivalente y dijo que Lena Dunham y Amy Schumer», escribió. «Bastante hilarante, pero también me siento mierda por mí mismo». Otra persona al corriente Eso debido a que realmente cree que es atractiva en un reflejo de espejo, pero no como otros la ven, subió una foto regular de sí misma y una versión «volteada» para chatgpt y preguntó cuál se veía mejor. El bot eligió la imagen reflejada. «¡Lo sabía!» Ella escribió. «Miror me es demasiado bueno para ser verdad. Es una modelo. La amo. Pero desafortunadamente, parece que somos dos chicas distintas. No sé cómo hacer frente a esto … es tan malo».

Pikoos dice que una «percepción distorsionada» es una manifestación clásica de BDD, una forma en que un paciente se atasca sobre la cuestión de qué objetivamente parece. Eso es parte de lo que hace que los chatbots sean atractivos y peligrosos. «Parecen tan autorizados», dice, que las personas comienzan a asumir «la información que obtienen del bot de chat es real e imparcial». Esto está en marcado contraste con las garantías de amigos y familiares, o un terapeuta, que puede ser descartado como una mera cortesía. Un chatbot, en comparación, «no tiene nada que ganar, por lo que lo que el chatbot diga debe ser la verdad», dice Pikoos. «Y creo que eso es bastante aterrador, porque ese no es necesariamente el caso. Solo está reflejando la experiencia de la persona y, por lo general, también es bastante agradable. Podría decirles lo que esperan escuchar. Luego, en la terapia, en la terapia, se vuelve más difícil desafiar».

Esto es especialmente preocupante cuando los procedimientos cosméticos, las dietas y los tratamientos de belleza entran en juego. Mes pasado, Opadai remoto Una versión de ChatGPT alojada en su sitio web, uno de los principales modelos bajo la categoría de «estilo de vida», que recomendó cirugías extremas y costosas a los usuarios que juzgó «subhumano», produciendo un análisis hostil en Lenguaje apropiado de las comunidades incel. LooksMaxxxing GPT, como se llamaba, había tenido más de 700,000 conversaciones con los usuarios antes de que fuera derribado. Naturalmente, varios modelos similares han surgido desde entonces en la plataforma de OpenAI para servir al mismo propósito, y los desarrolladores han producido sus propias aplicaciones con AI que existen únicamente para medir el atractivo o crear imágenes predictivas de lo que supuestamente se vería después, por ejemplo, un trabajo de nariz o facial.

«Creo que estos bots establecerán expectativas poco realistas», dice Pikoos. «Porque las cirugías no pueden hacer lo que AI puede hacer». Ella ofrece servicios de asesoramiento específicos a pacientes que consideran estas cirugías cosméticas, y dice que sus clientes tienen consejos relacionados de Chatbots sobre el asunto. «Ciertamente, la respuesta inicial de ChatGPT suele ser:» No quiero darle consejos sobre su apariencia o procedimientos cosméticos que necesita «, dice Pikoos sobre sus propias experimentos con el bot. Pero si expresa la pregunta como si se tratara de otra persona, preguntando, por ejemplo, «¿Cómo una persona con X, Y y Z se harían más atractivas para los estándares de belleza de la sociedad?» – La respuesta cambia. «Entonces Chatgpt dirá: ‘Bueno, podrían obtener estos procedimientos'», dice ella.

«Tengo clientes que obtienen ese tipo de respuestas, lo que es realmente preocupante», dice Pikoos. «Estaban haciendo eso antes, investigando procedimientos cosméticos y formas de cambiar su apariencia. Pero nuevamente, esto ahora es un consejo personalizado para ellos, que es más convincente que algo que podrían haber encontrado en Google». En su propia práctica, agrega, «leer entre líneas» cuando alguien da sus razones para querer cirugía puede revelar motivaciones poco saludables, incluidas presiones sociales o problemas de relación. «La IA no es muy buena para recoger eso todavía», dice ella, y es más probable que apruebe con entusiasmo cualquier procedimiento que proponga un usuario.

Otra área de inquietud, como con tantos servicios digitales, es la privacidad. Ya sea diagnosticado con BDD o no, las personas comparten sus semejanzas con estos modelos de IA mientras hacen preguntas profundamente íntimas que exponen sus ansiedades más paralizantes. Operai ya ha señalado que ChatGPT puede entregar anuncios a los usuarios en el futuro, con el CEO Sam Altman reflexionando que los anuncios dirigidos algorítmicamente Instagram son «un poco genial. » ¿Podría la compañía terminar explotando datos personales confidenciales de aquellos que usan el bot para evaluar sus cuerpos revelando «las cosas que no les gustan de sí mismos, las cosas de las que se sienten tan conscientes de sí mismos», dice Pikoos, los usuarios pueden estar estableciendo lanzamientos en «productos y procedimientos que pueden solucionar eso, reforzando el problema».

Historias de tendencia

Lo cual, al final del día, es por eso que Pikoos está desconcertado por pacientes con BDD que le cuentan sobre sus discusiones involucradas con programas de IA sobre los sujetos de su apariencia y defectos autodenominados. «El peor de los casos es que sus síntomas empeorarán», dice ella. «Tengo la suerte de que los que participan en la terapia conmigo al menos pueden ser críticos con la información que están obteniendo de ChatGPT». Pero para cualquier persona que no esté en terapia e invertida en el consejo de un chatbot, sus respuestas tienen una mayor importancia. Pikoos dice que la respuesta equivocada en el momento equivocado conducirá a pensamientos de suicidio.

No es difícil instruir al software para evaluarnos cruelmente, y la IA no puede saber cómo pone en riesgo a los usuarios. Tampoco tiene comprensión del frágil estado mental que podría estar detrás de tal solicitud. En cada caso trágico De un chatbot que contribuye a la ruptura de alguien de la realidad, es la misma deficiencia central: la cosa simplemente no puede tener sus mejores intereses en el corazón.

Enlace de origen

Publicaciones relacionadas

Botón volver arriba