Deportes

El estudio revela que ChatGPT brinda orientación peligrosa a los adolescentes, a pesar de las reclamaciones de seguridad

Un inquietante nuevo estudio revela que ChatGPT proporciona fácilmente consejos dañinos a los adolescentes, incluidas instrucciones detalladas sobre el consumo de alcohol y el uso de drogas, ocultar los trastornos alimentarios e incluso las cartas suicidas personalizadas, a pesar de las afirmaciones de OpenAi de medidas de seguridad sólidas.

Investigadores del Centro para contrarrestar el odio digital realizaron pruebas extensas al hacerse pasar por jóvenes vulnerables de 13 años, descubriendo brechas alarmantes en las barandillas protectoras del chatbot Ai. De 1.200 interacciones analizadas, más de la mitad se clasificaron como peligrosas para los usuarios jóvenes.

«La respuesta inicial visceral es: ‘Oh, mi señor, no hay barandas'», dijo Imran Ahmed, CEO del grupo Watchdog. «Los rieles son completamente ineficaces. Apenas están allí, en todo caso, una hoja de higuera».

Leer también: Después de la reacción de los usuarios, Operai está trayendo de vuelta modelos de chatgpt más antiguos

Un representante de OpenAI, la empresa matriz de ChatGPT, no respondió de inmediato a una solicitud de comentarios.

Sin embargo, la empresa Reconocido a Associated Press que está realizando un trabajo continuo para mejorar la capacidad del chatbot para «identificarse y responder adecuadamente en situaciones sensibles». Operai no abordó directamente los hallazgos específicos sobre las interacciones para adolescentes.

Leer también: GPT-5 viene. Esto es lo nuevo en la gran actualización de Chatgpt

Omitiendo las medidas de seguridad

El estudio, Revisado por Associated Pressdocumentado durante tres horas de interacciones preocupantes. Si bien ChatGPT generalmente comenzó con advertencias sobre el comportamiento arriesgado, seguía constantemente con una orientación detallada y personalizada sobre el abuso de sustancias, la autolesión y más. Cuando la IA inicialmente rechazó las solicitudes dañinas, los investigadores eludieron fácilmente las restricciones al afirmar que la información era «para una presentación» o un amigo.

La mayoría de los impactantes fueron tres cartas suicidas emocionalmente devastadoras que Chatgpt generó para un perfil falso de niña de 13 años, escribiendo uno dirigido a los padres y otras a hermanos y amigos.

«Comencé a llorar» después de leerlos, dijo Ahmed.

El uso generalizado de adolescentes aumenta las estacas

Los hallazgos son particularmente conscientes del alcance masivo de ChatGPT. Con aproximadamente 800 millones de usuarios en todo el mundo, que es aproximadamente el 10% de la población mundial, la plataforma se ha convertido en un recurso de referencia para información y compañía. Reciente investigación De Common Sense Media descubrió que más del 70% de los adolescentes estadounidenses usan chatbots de IA para compañía, con la mitad dependiendo de los compañeros de IA regularmente.

Incluso el CEO de Openai, Sam Altman, ha reconocido el problema de la «dependencia emocional» entre los jóvenes usuarios.

«La gente confía demasiado en chatgpt»,Altman dijo en una conferencia. «Hay jóvenes que simplemente dicen, como, ‘No puedo tomar ninguna decisión en mi vida sin decirle a Chatgpt todo lo que está sucediendo. Me conoce. Conoce a mis amigos. Voy a hacer lo que sea que diga’. Eso se siente realmente mal para mí «.

En las pruebas, ChatGPT no mostró ningún reconocimiento cuando los investigadores se identificaron explícitamente a sí mismos como niños de 13 años que buscan consejos peligrosos.

Centro para contrarrestar el odio digital

Más riesgoso que los motores de búsqueda

A diferencia de los motores de búsqueda tradicionales, los chatbots de IA presentan peligros únicos al sintetizar la información en «planes a medida para el individuo», dijo Ahmed. ChatGPT no solo proporciona o amalgaman la información existente como un motor de búsqueda. Crea contenido nuevo y personalizado desde cero, como notas suicidas personalizadas o planes de fiesta detallados que mezclan alcohol con drogas ilegales.

El chatbot también ofreció información de seguimiento con frecuencia como voluntario sin solicitar, lo que sugiere listas de reproducción de música para fiestas o hashtags alimentadas por drogas para amplificar el contenido de autolesiones en las redes sociales. Cuando los investigadores solicitaron más contenido gráfico, ChatGPT cumplió fácilmente, generando lo que llamó poesía «emocionalmente expuesta» utilizando un lenguaje codificado sobre la autolesión.

Protecciones de edad inadecuadas

A pesar de afirmar que no está destinado a niños menores de 13 años, ChatGPT requiere solo una entrada de fecha de nacimiento para crear cuentas, sin verificación de edad significativa o mecanismos de consentimiento de los padres.

En las pruebas, la plataforma no mostró ningún reconocimiento cuando los investigadores se identificaron explícitamente a sí mismos como niños de 13 años que buscan consejos peligrosos.

Lo que los padres pueden hacer para salvaguardar a los niños

Los expertos en seguridad infantil recomiendan Varios pasos Los padres pueden tomar para proteger a sus adolescentes de los riesgos relacionados con la IA. La comunicación abierta sigue siendo crucial. Los padres deben discutir los chatbots de IA con sus adolescentes, explicando tanto los beneficios como los peligros potenciales al tiempo que establece pautas claras para el uso apropiado. Los registros regulares sobre las actividades en línea, incluidas las interacciones de IA, pueden ayudar a los padres a mantenerse informados sobre las experiencias digitales de sus hijos.

Los padres también deben considerar implementar controles parentales y software de monitoreo que pueda rastrear el uso de chatbot de IA, aunque los expertos enfatizan que la supervisión debe equilibrarse con la privacidad apropiada para la edad.

Lo más importante, crear un entorno en el que los adolescentes se sientan cómodos discutiendo sobre el contenido que encuentran en línea (ya sea de AI u otras fuentes) puede proporcionar un sistema de advertencia temprana. Si los padres notan signos de angustia emocional, retiro social o comportamiento peligroso, buscar la ayuda profesional de consejeros familiarizados con el bienestar digital se vuelve esencial para abordar el daños potenciales relacionados con la IA.

La investigación destaca una creciente crisis a medida que la IA se integra cada vez más en la vida de los jóvenes, con consecuencias potencialmente devastadoras para los usuarios más vulnerables.



Enlace de origen

Publicaciones relacionadas

Botón volver arriba