La IA pronto puede hablar en un idioma más allá del agarre humano


¿Cuál es la historia?
Geoffrey Hinton, el «Padrino de AI», ha expresado preocupaciones sobre el futuro de Inteligencia artificial (IA). En un episodio reciente de Una decisiónAdvirtió que AI pronto podría desarrollar su propio idioma, uno que los humanos no podrán entender. «En este momento, los sistemas de IA hacen lo que se llama razonamiento de ‘cadena de pensamiento’ en inglés, por lo que podemos seguir lo que está haciendo. Pero se da más miedo si desarrollan sus propios idiomas internos para hablar entre ellos», dijo.
Idiomas internos para la comunicación
Hinton enfatizó además que la IA ya ha demostrado que puede generar pensamientos «terribles», y no es descabellado imaginar que las máquinas finalmente piensen de manera más allá del seguimiento o interpretación humana. La advertencia proviene de su conocimiento de la rapidez con que estos sistemas pueden aprender y compartir información.
Una realización retrasada
A pesar de ser un pionero en el campo, Hinton ahora admite una realización retrasada de los peligros potenciales planteados por la IA. «Debería haberme dado cuenta mucho antes de cuáles serían los eventuales peligros», dijo. Él cree que a medida que los sistemas digitales se vuelven más sofisticados, la división entre la inteligencia de la máquina (ML) y la comprensión humana crecerá a un ritmo alarmante.
Sistemas digitales v/s el cerebro humano
Hinton también destacó cómo los sistemas digitales son fundamentalmente diferentes del cerebro humano. Él dijo: «Imagínese si 10,000 personas aprendieran algo y todas las supieran al instante, eso es lo que sucede en estos sistemas». Este tipo de inteligencia colectiva pronto podría permitir a las máquinas superar nuestra comprensión. Los modelos de IA como GPT-4 ya superan a los humanos en el conocimiento general, con la brecha cerrando rápidamente incluso en tareas de razonamiento complejos.
Minimizar el riesgo
Si bien Hinton ha expresado los riesgos de la IA, dice que muchos en la industria de la tecnología están minimizando estos peligros. «Muchas personas en grandes empresas están minimizando el riesgo», dijo, a pesar de sus preocupaciones privadas. Sin embargo, elogió al CEO de Google Deepmind, Demis Hassabis por su compromiso de abordar estos riesgos.
La necesidad de pautas éticas
A medida que las capacidades de IA se expanden y los gobiernos se apresuran a mantenerse al día, el debate mundial sobre la regulación se está calentando. El Casa blanca Recientemente anunció un «plan de acción de IA» para acelerar la innovación. Sin embargo, Hinton cree que el progreso técnico debe ir acompañado de pautas éticas. Argumenta que la única esperanza real radica en hacer que la AI «garantice benevolente», una tarea desafiante teniendo en cuenta que estos sistemas pronto pueden operar más allá de nuestra comprensión.