Deportes

La razón científica por la que ChatGPT te lleva por los agujeros de conejo

Eso chatbot Solo te dice lo que quieres creer, según un nuevo estudio.

Ya sea que esté utilizando un motor de búsqueda tradicional como Google o una herramienta de conversación como OpenAi’s ChatgptTiende a usar términos que reflejan sus sesgos y percepciones, de acuerdo con el estudiarPublicado esta primavera en las actas de la Academia Nacional de Ciencias. Más importante aún, los motores de búsqueda y los chatbots a menudo proporcionan resultados que refuerzan esas creencias, incluso si su intención es aprender más sobre el tema.

Por ejemplo, imagina que estás tratando de aprender sobre el Efectos sobre la salud de beber café cada día. Si usted, como yo, disfruta exactamente de tener exactamente dos tazas de Joe a primera hora de la mañana, puede buscar algo como «¿El café es saludable?» o «Beneficios para la salud del café». Si ya eres escéptico (tal vez un purista de té), podrías buscar «¿El café es malo para ti?» en cambio. Los investigadores descubrieron que el encuadre de preguntas podría sesgar los resultados: en su mayoría obtendría respuestas que muestren los beneficios del café, mientras obtendría lo contrario.

«Cuando las personas buscan información, ya sea Google o ChatGPT, en realidad usan términos de búsqueda que reflejan lo que ya creen», me dijo Eugina Leung, profesora asistente de la Universidad de Tulane y autora principal del estudio.

La abundancia de chatbots de IA, y los resultados seguros y personalizados que le dan tan libremente, facilita la caída de una madriguera de conejo y es más difícil darse cuenta de que está en él. Nunca ha habido un momento más importante para pensar profundamente en Cómo obtienes información en línea.

La pregunta es: ¿Cómo se obtiene las mejores respuestas?

Haciendo las preguntas equivocadas

Los investigadores realizaron 21 estudios con casi 10,000 participantes a quienes se les pidió que realizaran búsquedas sobre ciertos temas preseleccionados, incluidos los efectos en la salud de la cafeína, los precios del gas, las tasas de criminalidad, Covid-19 y la energía nuclear. Los motores de búsqueda y las herramientas utilizadas incluyeron Google, CHATGPT y motores de búsqueda diseñados a medida y chatbots de IA.

Los resultados de los investigadores mostraron que lo que llamaron el «efecto de búsqueda estrecho» era una función de cómo las personas hicieron preguntas y cómo respondieron las plataformas tecnológicas. Las personas tienen un hábito, en esencia, de hacer las preguntas incorrectas (o hacer preguntas de la manera incorrecta). Tendían a usar términos de búsqueda o indicaciones de IA que demostraron lo que ya pensaban, y los motores de búsqueda y los chatbots diseñados para proporcionar respuestas estrechas y extremadamente relevantes, entregadas en esas respuestas. «Las respuestas terminan básicamente confirmando lo que creen en primer lugar», dijo Leung.

Leer más: AI Essentials: 29 formas de hacer que la Gen AI funcione para usted, según nuestros expertos

Los investigadores también verificaron si los participantes cambiaron sus creencias después de realizar una búsqueda. Cuando se cumplió una selección estrecha de respuestas que confirmaron en gran medida sus creencias, era poco probable que vean cambios significativos. Pero cuando los investigadores proporcionaron un motor de búsqueda personalizado y chatbot diseñado para ofrecer una gama más amplia de respuestas, tenían más probabilidades de cambiar.

Leung dijo que las plataformas podrían proporcionar a los usuarios la opción de una búsqueda más amplia y menos personalizada, lo que podría ser útil en situaciones en las que el usuario está tratando de encontrar una variedad más amplia de fuentes. «Nuestra investigación no está tratando de sugerir que los motores o algoritmos de búsqueda siempre deben ampliar sus resultados de búsqueda», dijo. «Creo que hay mucho valor en proporcionar resultados de búsqueda muy enfocados y muy estrechos en ciertas situaciones».

3 formas de hacer las preguntas correctas

Si desea una gama más amplia de respuestas a sus preguntas, hay algunas cosas que puede hacer, dijo Leung.

Ser preciso: Piense específicamente sobre qué es exactamente lo que está tratando de aprender. Leung usó un ejemplo de tratar de decidir si desea invertir en las acciones de una empresa en particular. Preguntar si es una buena acción o una mala acción para comprar probablemente sesgará sus resultados: noticias más positivas si pregunta si son buenas, más noticias negativas si pregunta si es malo. En su lugar, pruebe un solo término de búsqueda más neutral. O solicite ambos términos y evalúe los resultados de cada uno.

Obtenga otras vistas: Especialmente con un chatbot de IA, puede solicitar una amplia gama de perspectivas directamente en el aviso. Si desea saber si debe seguir tomando dos tazas de café al día, pídale al chatbot una variedad de opiniones y la evidencia detrás de ellas. Los investigadores intentaron esto en uno de sus experimentos y descubrieron que obtuvieron más variedad de resultados. «Le pedimos a ChatGPT que proporcionara diferentes perspectivas para responder la consulta de los participantes y proporcionar tanta evidencia para respaldar esas afirmaciones como sea posible», dijo Leung.

En algún momento, deja de preguntar: Las preguntas de seguimiento no funcionaron tan bien, dijo Leung. Si esas preguntas no reciben respuestas más amplias, puede obtener el efecto opuesto, resultados aún más estrechos y afirmadores. En muchos casos, las personas que hicieron muchas preguntas de seguimiento «cayeron más profundamente en la madriguera del conejo», dijo.



Enlace de origen

Publicaciones relacionadas

Botón volver arriba