Cuando mamá y creadora Cathy Pedrayes se desplazaban Tiktok Alrededor de la Navidad, comenzó a notar un excedente de cuentas usando AI Avatares para promover productos de imitación. Como era la temporada de compras navideñas, pensó poco, hasta que se topó con un video que se sintió igual ridículo y peligroso. Era un clip de una mujer que afirmaba haber pasado 13 años como un «médico trasero» revelando consejos secretos que aprendió durante su residencia. Su solución mágica: un suplemento de Amazon para combatir la deficiencia de hierro y un salud Boletín que prometía consejos para la pérdida de peso, un intestino limpio y una mejor salud. Pedrayes sabía que era falso. Pero también vio que tenía 5.2 millones de visitas. Y una búsqueda rápida reveló otra preocupación: había cientos más como esta.
Este descubrimiento es uno de los últimos problemas que las plataformas de redes sociales están luchando desde el desarrollo y la democratización de Generadores de inteligencia artificial: AI Doctor anuncios. La IA es más fácil que nunca de producir y, como resultado, los anuncios con cabezas parlantes de IA que afirman ser expertos médicos se están infiltrando en las redes sociales robustas bienestar ecosistema. Esto no está aislado a una aplicación. En Facebook, Instagram, X y Tiktok, un tipo particular de video de salud de IA, uno que utiliza un avatar de IA para convencer a las personas de experiencia médica, se ha convertido en la forma de facto para que las cuentas convenceran a las personas de que ellos y sus productos no probados, son legítimos. A diferencia de las imágenes de IA de hace solo unos años, muchos de estos videos presentan una combinación de imágenes reales e IA, lo que da como resultado avatares que se ven extremadamente realistas a primera vista, y se editan exactamente lo mismo que el contenido directo a la cámara que es popular en las aplicaciones de video. Para los desplazadores y creadores por igual, la seguridad de Internet siempre ha sido una preocupación principal. Pero a medida que la tecnología se desarrolla y se vuelve más difícil de discernir, varios creadores dicen Piedra rodante Depende de las plataformas intentar detener este tipo de AI, antes de que sea imposible detectar.
Como químico cosmético, Javon Ford comparte su experiencia con cerca de medio millón de seguidores en Tiktok, desacreditando la salud viral y las afirmaciones de cuidado de la piel. Publicó sobre los médicos de IA después de darse cuenta de que muchos de los videos promovieron a las modas dañinas para el cuidado de la piel, como usar sebo de res para protector solar. Con la ayuda de las personas en sus comentarios, Ford vinculó algunos de los videos a una aplicación llamada subtítulos.ai que ofrece a los creadores la capacidad de convertir las indicaciones escritas en videos de una variedad de hosts de avatar. Estos avatares pueden ser buscados por raza, género y entorno, lo que brinda a los usuarios la oportunidad de elegir entre personas sentadas en sus autos, afuera o incluso caminar por la calle. Tampoco parecen estar completamente generados por IA, sino videos de personas reales que tienen sus labios alterados con IA para que coincidan con el script entrante. Bajo los Términos y condiciones de AIT, los usuarios tienen prohibido «tergiversar su identidad o usar (la aplicación) para hacerse pasar por cualquier otra persona», pero no está claro cómo se aplican esas pautas. (Representantes de subtítulos.Ai no respondió a Piedra rodanteSolicitudes de comentarios)
Para Ford, la preocupación es que estos anuncios se están multiplicando en una atmósfera en las redes sociales que ya sufre una falta de interés en el contexto y el pensamiento crítico. “No estoy realmente preocupado por la AI que compite en términos de contenido. Quiero decir, ¿alguna vez has hecho una pregunta a Chat GPT? Mi problema es que no están revelando la IA en estos anuncios o solo están mintiendo descaradamente «, dice Ford. Piedra rodante. “El analfabetismo científico está en su punto más alto. La alfabetización en general es bastante baja, desafortunadamente. Y es importante que las personas sigan siendo críticas y se vuelvan más atentos y conscientes sobre cómo absorbemos esta información «.
Un informe reciente de periodismo Watchdog Medios de comunicación descubrió que docenas de cuentas sobre Tiktok usan «palabras de moda de bienestar», influenciadores generados por IA y testimonios personales fabricados para promover una variedad de suplementos y productos de salud. Olivia Little, investigadora de investigación senior de Media Matters y autora del informe, dice Piedra rodante Que las «estafas de bienestar» de Tiktok solo se han vuelto más elaboradas en los últimos cuatro años, algo que considera increíblemente peligroso.
«Es un problema de seguridad del consumidor, así como un problema de seguridad de los usuarios, porque tiene una red de empresas o cuentas que se hace pasar por un profesional médico, como los médicos, los cirujanos, aún más maliciosamente, proporcionan testimonios falsos o fabricados», dice Little. «Todo se basa en la falsa credibilidad que se han dado, literalmente, engañan al consumidor».
Los avances en la inteligencia artificial se han desarrollado rápidamente en los últimos tres años, ya que las empresas han puesto a disposición del público en general. Pero a medida que AI se vuelve cada vez más difícil de detectar, las compañías de redes sociales no han desarrollado pautas para el contenido de IA a la misma velocidad. Las pautas de contenido de Meta para Facebook e Instagram requieren una etiqueta de IA para cualquier foto o video que haya sido «creado, modificado o alterado digitalmente». Pero una búsqueda rápida de ambas plataformas muestra docenas de videos médicos generados por IA sin divulgaciones y aún recaudando las vistas.
También se requiere la misma divulgación en Tiktok, que prohíbe el contenido de IA que muestra «fuentes autorizadas falsas», como cuentas que pretenden ser médicos para promover suplementos. Cuando los medios de comunicación se comunicaron con Tiktok marcando docenas de cuentas, cada una de ellas fueron eliminadas. Un portavoz de Tiktok confirmado a Piedra rodante que las cuentas estaban prohibidas por violar las pautas de «comportamientos de spam y engaños» y eliminaron perfiles y videos adicionales marcados por esta revista. Pero una hora después de que Tiktok retiró las cuentas, otras continuado a surgir. (Meta declinó hacer comentarios).
Pedrayes, quien comparte videos sobre la seguridad y la defensa del consumidor con sus 2 millones de seguidores, dice Piedra rodante Que gran parte de su contenido gira en torno a cómo mantenerse a salvo en línea, algo que cree que crecerá para abarcar las afirmaciones fontamentadas de AI como programas y videos, se vuelva más elaborado.
“Ahora estoy descubriendo que solo los conceptos básicos de ‘Oh, vi este video en línea. ¿Cómo sé si es verdad? Parece que (las personas) están perdiendo esas habilidades ”, dice ella. «Creo que desde un espacio de plataforma, es preocupante que los algoritmos promovieran esto, y también que aparecería en otras aplicaciones para que otros creadores imiten ese contenido. (Las plataformas) definitivamente tienen la responsabilidad de hacer más para atenuar esto».