El CEO de NVIDIA dice que los modelos de IA más avanzados mantendrán el crecimiento de los chips de datos, el crecimiento del centro de datos en marcha

Ai burbuja? ¿Qué burbuja de IA? Si le pregunta al CEO de NVIDIA, Jensen Huang, estamos en una «nueva revolución industrial».
La compañía de Huang, por supuesto, fabrica chips y hardware de computadora, las «selecciones y palas» del AI Rush Gold, y se ha convertido en el negocio más grande del mundo al capitalizar el crecimiento de la IA, la burbuja o no. Hablando el miércoles durante una llamada de ganancias, ya que su compañía reportó ingresos de $ 46.7 mil millones en el último trimestre, no indicó que el increíble crecimiento del inteligencia artificial generativa La industria se ralentizará.

«Creo que en los próximos años, seguramente durante la década, vemos oportunidades de crecimiento realmente significativas por delante», dijo Huang.
Compare eso con Comentarios recientes del CEO de OpenAI, Sam Altman, quien dijo que cree que los inversores en este momento están «sobreexcitados sobre la IA». (Altman también reconoció que todavía cree que la IA es «lo más importante que sucederá en mucho tiempo»).
Huang dijo que su compañía tiene «pronósticos muy, muy significativos» de la demanda de más chips y computadoras que ejecutan IA, lo que indica que la carrera por más centros de datos no se detiene pronto. Especuló que el gasto en infraestructura de IA podría alcanzar $ 3 billones a $ 4 billones para fines de la década. (El producto interno bruto de los Estados Unidos es de alrededor de $ 30 billones).
Eso significa muchos centros de datos, que toman muchas tierras y Use una gran cantidad de agua y energía. Estas fábricas de inteligencia artificial se han vuelto cada vez más grandes en los últimos años, con importantes impactos en las comunidades que les rodean y un mayor Casa en la cuadrícula eléctrica de los EE. UU.. Y el crecimiento de diferentes herramientas generativas de IA que requieren aún más energía podría hacer que esa demanda sea aún mayor.
No se pierda ninguno de nuestros contenido tecnológico imparcial y reseñas basadas en el laboratorio. Agregar CNET Como fuente de Google preferida en Chrome.
Modelos más poderosos y exigentes
Un mensaje en un chatbot ya no siempre significa un mensaje. Una fuente de mayor demanda de energía computacional es que los modelos de IA más nuevos que emplean técnicas de «razonamiento» están utilizando mucho más poder para una pregunta. «Se llama pensamiento largo, y cuanto más tiempo piense, a menudo produce mejores respuestas», dijo Huang.
Esta técnica permite que un modelo de IA investigue en diferentes sitios web, pruebe una pregunta varias veces para obtener mejores respuestas y poner información dispar en una sola respuesta.
Algunas compañías de IA ofrecen razonamiento como modelo separado o como una opción etiquetada como «pensamiento profundo». OpenAi lo funcionó bien en su lanzamiento GPT-5Con un programa de enrutamiento que decide si fue manejado por un modelo más ligero y directo o un modelo de razonamiento más intensivo.
Pero un modelo de razonamiento puede requerir 100 veces la potencia informática o más de lo que tomaría una respuesta de modelo de lenguaje grande tradicional, dijo Huang. Estos modelos, junto con sistemas agentes Eso puede realizar tareas y modelos de robótica que pueden manejar la visualización y operar en el mundo físico, están manteniendo la demanda de chips, energía y tierras de centros de datos en aumento.
«Con cada generación, la demanda solo crece», dijo Huang.


