Tecnología

Nvidia presenta un modelo de inteligencia artificial que transforma algunos de diez disparos en una escena renderizada en 3D

La última demostración de inteligencia artificial de Nvidia es bastante impresionante: una herramienta que convierte rápidamente una situación 2D de «pocas docenas» en una escena renderizada en 3D. En el video a continuación, verá un método en acción en el que un modelo vestido como Andy Warhol sostiene una cámara Polaroid antigua. (No piense demasiado en la conexión de Warhol: es solo un poco de vestimenta de la escena de relaciones públicas).

La herramienta se llama Instant NeRF, en referencia a «campos de radiación del sistema nervioso“- Tecnología desarrollada en 2020 por investigadores de UC Berkeley, Google Research y UC San Diego. Si desea una explicación detallada de los campos de radiación nerviosa, puede leer uno. aquí, pero en resumen, el método mapea los colores y las intensidades de luz de diferentes imágenes 2D y luego crea datos para combinar estas imágenes desde diferentes perspectivas y crear una vista 3D terminada. Además de las imágenes, el sistema necesita información sobre la ubicación de la cámara.

Los científicos han mejorado este modelo de 2D a 3D Por un par de años, agregando detalles a los renderizados terminados y aumentando la velocidad de renderizado. Nvidia dice que su nuevo modelo Instant NeRF es uno de los más rápidos desarrollados hasta ahora y reduce el tiempo de renderizado de unos pocos minutos a un proceso que finaliza «casi inmediatamente».

A medida que la tecnología se vuelve más rápida y fácil de implementar, podría usarse para todo tipo de tareas, dice Nvidia en una publicación de blog. describiendo el trabajo.

“Instant NeRF podría usarse para crear avatares o escenas de mundos virtuales, capturar en 3D a los participantes de una videoconferencia y su entorno, o reconstruir escenas para mapas digitales en 3D”, escribe Isvid Salian de Nvidia. «La tecnología podría usarse para enseñar a los robots y autos autónomos a comprender el tamaño y la forma de los objetos reales al tomar imágenes o videos de ellos en 2D. También podría usarse en arquitectura y entretenimiento para crear rápidamente representaciones digitales de entornos reales que los autores pueden editar y construir».

READ  Los prototipos de iPhone de Apple plegables pasan la prueba de resistencia

Desafortunadamente, Nvidia no compartió detalles sobre su método, por lo que no sabemos exactamente cuántas imágenes 2D se necesitan o cuánto tiempo llevará renderizar la vista 3D final (que también depende del rendimiento de la computadora de renderizado). Aún así, parece que la tecnología avanza rápidamente y puede comenzar a afectar el mundo real en los próximos años.

Patricio Arocha

Especialista web. Evangelista de viajes. Alborotador. Fanático de la música amigable con los hipster. Experto en comida

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Botón volver arriba
Cerrar
Cerrar