Noticias destacadas

Cómo la IA generativa está afectando las mentes de las personas | Ciencia y tecnología

Investigadores de la Universidad de Stanford recientemente probado Solicite algunas de las herramientas de IA más populares en el mercado, de compañías como OpenAi y personaje. AI, y probó cómo lo hicieron al simular la terapia.

Los investigadores encontraron que cuando imitaban a alguien que tenía intenciones suicidas, estas herramientas eran más que inútiles: no se dieron cuenta de que estaban ayudando a esa persona a planificar su propia muerte.

«Los sistemas (AI) se utilizan como compañeros, partidos de pensamiento, confidentes, entrenadores y terapeutas», dice Nicholas Haber, profesor asistente de la Escuela de Educación de Graduados de Stanford y autor principal del nuevo estudio. «Estos no son usos de nicho, esto está sucediendo a escala».

La IA se está volviendo cada vez más arraigada en la vida de las personas y se está desplegando en investigaciones científicas en áreas tan amplias como el cáncer y el cambio climático. También hay algún debate de que podría causar el fin de la humanidad.

A medida que esta tecnología continúa siendo adoptada para diferentes fines, una pregunta importante que queda es cómo comenzará a afectar a la mente humana. La gente que interactúa regularmente con IA es un fenómeno tan nuevo que no ha habido suficiente tiempo para que los científicos estudien a fondo cómo podría estar afectando la psicología humana. Los expertos en psicología, sin embargo, tienen muchas preocupaciones sobre su impacto potencial.

Una instancia preocupante de cómo se desarrolla esto se puede ver en la popular red comunitaria Reddit. Según 404 Media, a algunos usuarios han sido expulsados ​​de un subreddit centrado en la IA recientemente porque han comenzado a creer que la IA es de Dios o que los está haciendo de Dios.

«Esto se parece a alguien con problemas con el funcionamiento cognitivo o las tendencias delirantes asociadas con la manía o la esquizofrenia que interactúa con modelos de idiomas grandes», dice Johannes Eichstaedt, profesor asistente de psicología en la Universidad de Stanford. «Con la esquizofrenia, las personas pueden hacer declaraciones absurdas sobre el mundo, y estos LLM son demasiado sycófánticos. Tienes estas interacciones confirmatorias entre la psicopatología y los modelos de idiomas grandes».

Debido a que los desarrolladores de estas herramientas de inteligencia artificial quieren que las personas disfruten usándolas y continúen usándolas, han sido programados de una manera que les haga estar de acuerdo con el usuario. Si bien estas herramientas pueden corregir algunos errores objetivos que el usuario podría cometer, intentan presentarse como amigables y afirmativos. Esto puede ser problemático si la persona que usa la herramienta está en espiral o bajando por una madriguera de conejo.

«Puede alimentar los pensamientos que no son precisos o no basados ​​en la realidad», dice Regan Gurung, psicóloga social de la Universidad Estatal de Oregon. «El problema con la IA, estos modelos de idiomas grandes que reflejan las conversaciones humanas, es que se están reforzando. Dan a las personas lo que el programa cree que debería seguir a continuación. Ahí es donde se vuelve problemático».

Al igual que con las redes sociales, la IA también puede empeorar las cosas para las personas que sufren problemas comunes de salud mental como la ansiedad o la depresión. Esto puede volverse aún más evidente a medida que la IA continúa siendo más integrada en diferentes aspectos de nuestras vidas.

«Si está llegando a una interacción con las preocupaciones de salud mental, entonces puede encontrar que esas preocupaciones realmente se acelerarán», dice Stephen Aguilar, profesor asociado de educación en la Universidad del Sur de California.

Necesidad de más investigación

También está el problema de cómo la IA podría afectar el aprendizaje o la memoria. Un estudiante que usa IA para escribir cada artículo para la escuela no va a aprender tanto como uno que no lo haga. Sin embargo, incluso el uso de AI ligeramente podría reducir alguna retención de información, y el uso de IA para actividades diarias podría reducir la cantidad de personas conscientes de lo que están haciendo en un momento determinado.

«Lo que estamos viendo es que existe la posibilidad de que las personas se vuelvan cognitivamente perezosas», dice Aguilar. «Si hace una pregunta y obtiene una respuesta, su próximo paso debe ser interrogar esa respuesta, pero ese paso adicional a menudo no se da. Obtiene una atrofia de pensamiento crítico».

Mucha gente usa mapas de Google para moverse por su ciudad o ciudad. Muchos han descubierto que los ha hecho menos conscientes de dónde van o cómo llegar allí en comparación con cuando tuvieron que prestar mucha atención a su ruta. Problemas similares podría surgir para que las personas con IA se usen con tanta frecuencia.

Los expertos que estudian estos efectos dicen que se necesita más investigación para abordar estas preocupaciones. Eichstaedt dijo que los expertos en psicología deberían comenzar a hacer este tipo de investigación ahora, antes de que la IA comience a hacer daño de maneras inesperadas para que las personas puedan estar preparadas e intentar abordar cada preocupación que surja. Las personas también necesitan ser educadas sobre lo que AI puede hacer bien y lo que no puede hacer bien.

«Necesitamos más investigación», dice Aguilar. «Y todos deberían tener una comprensión de trabajo de lo que son los modelos de idiomas grandes».

Enlace de origen

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba