Probador virtual usando IA

provador virtual
Resumen del sistema. Este esquema muestra las diferentes etapas del proceso, incluida la captura y la interacción. © 2021 Igarashi Lab

Visitas: 175

 – El sistema de imágenes permite a los usuarios probarse trajes virtuales en tiempo real

Cortesía de la Universidad de Tokio: un equipo de investigadores de la Universidad de Tokio ha creado una forma para que las personas se visualicen con prendas de vestir a las que no tienen acceso físico directo. El sistema de probador virtual utiliza un dispositivo de captura único y una forma impulsada por inteligencia artificial (AI) para digitalizar prendas de vestir.

Usando un sistema de imagen y visualización correspondiente, un usuario puede verse a sí mismo en una pantalla vistiendo cualquier cosa del guarda ropa digital. Un motor de inteligencia artificial sintetiza imágenes fotorrealistas, lo que permite que el movimiento y los detalles como pliegues y ondulaciones se vean como si el usuario realmente estuviera usando la ropa virtual.

A veces, comprar ropa puede ser difícil. A menudo llegas a la tienda y están fuera del estilo o del tamaño de la prenda que pretendías probarte por ti mismo. Ahora se pueden hacer muchas compras en línea, pero comprar ropa puede ser difícil, ya que es muy difícil juzgar qué tan bien le quedará algo o si le gustará una vez que lo vea en persona.

Para abordar estos problemas, ha habido algunos intentos a lo largo de los años para crear una especie de espejo digital que pueda visualizar a un usuario y superponer una prenda de vestir encima de él. Sin embargo, estos sistemas carecen de funcionalidad y realismo.

probador virtual
Espejo digital. Un usuario que usa la prenda de medición se ve a sí mismo en lugar de usar un artículo preseleccionado de ropa digitalizada del catálogo de la tienda. © 2021 Igarashi Lab

El profesor Takeo Igarashi del Grupo de Investigación de la Interfaz de Usuario de la Universidad de Tokio y su equipo exploran diferentes formas en que los humanos pueden interactuar con las computadoras. Sentían que podían crear su propio espejo digital que resuelve algunas limitaciones de los sistemas anteriores. Su respuesta es el sistema de provador virtual, y el equipo espera que pueda cambiar la forma en que compramos ropa en el futuro.

“El problema de crear un espejo digital preciso es doble”, dijo Igarashi. “En primer lugar, es importante modelar una amplia gama de prendas en diferentes tamaños. Y en segundo lugar, es esencial que estas prendas se puedan superponer de manera realista a un video del usuario. Nuestra solución es única en la forma en que funciona mediante el uso de un maniquí robótico a medida y una IA de última generación que traduce la ropa digitalizada para su visualización «.

provador virtual
Modelos de entrenamiento. La prenda deseada se mueve a través de una variedad de movimientos para que luego pueda adaptarse a los propios movimientos del usuario. © 2021 Igarashi Lab

Para digitalizar las prendas, el equipo diseñó un maniquí que puede moverse, expandirse y contraerse de diferentes maneras para reflejar diferentes poses y tamaños corporales. Un fabricante tendría que vestir a este maniquí robótico con una prenda y luego permitirle recorrer una variedad de poses y tamaños mientras las cámaras lo capturan desde diferentes ángulos.

Las imágenes capturadas se envían a una IA que aprende a traducirlas para adaptarse a un usuario aún no visto. En la actualidad, la captura de imágenes de un artículo toma alrededor de dos horas, pero una vez que alguien ha vestido el maniquí, el resto del proceso se automatiza.

«Aunque el tiempo de captura de imágenes es de solo dos horas, el sistema de aprendizaje profundo que hemos creado para entrenar modelos para visualización posterior tarda alrededor de dos días en completarse», dijo el estudiante graduado Toby Chong, uno de los coautores del artículo. «Sin embargo, este tiempo naturalmente disminuirá a medida que aumente el rendimiento computacional».

Luego viene la interacción del usuario. Alguien que desee probarse ropa diferente tendría que ir a la tienda y pararse frente a una cámara y una pantalla. Se pondrían un atuendo hecho especialmente con un patrón inusual llamado prenda de medición.

 El patrón es una disposición no repetida de cuadrados de diferentes colores. La razón de esto es que es fácil para una computadora estimar cómo se posiciona el cuerpo de una persona en el espacio de acuerdo con cómo estos cuadrados de colores se mueven entre sí. A medida que el usuario se mueve, la computadora sintetiza una imagen plausible de la prenda que sigue el movimiento del usuario.

probador virtual
Maniquí robot. Este robot especialmente diseñado se mueve y se reforma para adaptarse a diferentes tallas de ropa. © 2021 Igarashi Lab

“Una ventaja de nuestro sistema es que la prenda virtual coincide con el movimiento de la prenda de medición, incluidas cosas como arrugas o estiramientos. De hecho, puede parecer muy realista ”, dijo Igarashi. “Sin embargo, todavía hay algunos aspectos que queremos mejorar.

Por ejemplo, en la actualidad, las condiciones de iluminación en el entorno del usuario deben controlarse estrictamente. Sería mejor si pudiera funcionar bien en situaciones de rayos menos controlados. Además, hay algunos artefactos visuales que tenemos la intención de corregir, como pequeños huecos en los bordes de las prendas «.

El equipo tiene varias aplicaciones posibles en mente, siendo las compras en línea la más obvia, con un beneficio adicional que podría evitar una gran cantidad de desperdicio de moda, ya que los compradores podrían tener una mayor seguridad sobre su compra y la ropa podría incluso fabricarse a pedido en lugar de en escala.

Pero al provador virtual también podría resultar útil en el mundo del vídeo en línea, incluidas las conferencias y la producción reuniones, donde la apariencia es importante y los presupuestos son ajustados. Desde luego el probador virtual seria un recurso temporario, para evitar gastos con ropa !!

Artículo relacionado: Software para textiles para acelerar el desarrollo de ropa

Sé el primero en comentar

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.


*