Incluso el CEO de Openai dice que tenga cuidado con lo que comparte con chatgpt

Tal vez no derrames tus secretos más profundos y oscuros con un Transmitido. No tienes que tomar mi palabra por ello. Tómelo del tipo detrás del modelo de IA generativo más popular del mercado.
Sam Altman, el CEO de Chatgpt Maker Openai, planteó el problema esta semana en un entrevista con el anfitrión Theo Von en el podcast del pasado fin de semana. Sugirió que sus conversaciones con IA deberían tener protecciones similares a las que tiene con su médico o abogado. En un momento, Von dijo que una razón por la que dudaba en usar algunas herramientas de IA es porque «no sabía quién va a tener» su información personal.

«Creo que eso tiene sentido», dijo Altman, «realmente querer la claridad de privacidad antes de usarlo mucho, la claridad legal».
Cada vez más usuarios de IA son Tratando chatbots como sus terapeutasMédicos o abogados, y eso ha creado un grave problema de privacidad para ellos. No hay reglas de confidencialidad y la mecánica real de lo que sucede con esas conversaciones no está claramente clara. Por supuesto, hay otros problemas con el uso de IA como terapeuta o confidente, como cómo los bots pueden dar consejos terribles o cómo pueden reforzar los estereotipos o estigma. (Mi colega Nelson Aguilar ha compilado una lista de 11 cosas que nunca debes hacer con chatgpt y por qué.)
Altman es claramente consciente de los problemas aquí, y parece al menos un poco preocupado por ello. «La gente lo usa, los jóvenes especialmente, lo usan como terapeuta, entrenador de vida, tengo estos problemas de relación, ¿qué debo hacer?» dijo. «En este momento, si habla con un terapeuta o un abogado o un médico sobre esos problemas, hay privilegios legales para ello».
Surgió la pregunta durante una parte de la conversación sobre si debería haber Más reglas o regulaciones alrededor de la IA. Es poco probable que las reglas que sofocen las compañías de IA y el desarrollo de la tecnología ganen favor en Washington en estos días, como el del presidente Donald Trump Plan de acción de AI Lanzado esta semana expresó el deseo de regular esta tecnología menos, no más. Pero las reglas para protegerlos pueden encontrar el favor.
Altman parecía más preocupado por la falta de protecciones legales para compañías como la suya para evitar que se vieran obligados a entregar conversaciones privadas en demandas. OpenAi tiene objeto a las solicitudes para retener las conversaciones de los usuarios durante una demanda con el New York Times Over infracción de derechos de autor y propiedad intelectual asuntos. (Divulgación: Ziff Davis, la empresa matriz de CNET, en abril presentó una demanda contra OpenAi, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA).
«Si vas a hablar con Chatgpt sobre las cosas más sensibles y luego hay una demanda o lo que sea, podríamos ser obligados a producir eso», dijo Altman. «Creo que está muy jodido. Creo que deberíamos tener el mismo concepto de privacidad para sus conversaciones con IA que haces con tu terapeuta o lo que sea».
Ten cuidado con lo que le dices a AI sobre ti mismo
Para usted, el problema no es tanto que Operai podría tener que cambiar sus conversaciones en una demanda. Es una pregunta de quién confía con sus secretos.
William Agnew, investigador de la Universidad Carnegie Mellon que formó parte de un equipo que chatbots evaluados En su desempeño que trata sobre preguntas similares a la terapia, recientemente me dijo que la privacidad es un problema primordial cuando se confía en las herramientas de IA. La incertidumbre sobre cómo funcionan los modelos, y cómo se evitan que sus conversaciones aparezcan en los chats de otras personas, es una razón suficiente para dudarlo.
«Incluso si estas empresas están tratando de tener cuidado con sus datos, estos modelos son bien conocidos por regurgitar la información», dijo Agnew.
Si ChatGPT u otra herramienta regurgita la información de su sesión de terapia o de las preguntas médicas que hizo, eso podría aparecer si su compañía de seguros u otra persona interesada en su vida personal le pregunta la misma herramienta sobre usted.
«La gente realmente debería pensar más en la privacidad y saber que casi todo lo que dicen estos chatbots no es privado», dijo Agnew. «Se usará de todo tipo de formas».