Una visión para lo invisible: el experto en tecnología de Nissan, Tetsuro Ueda

Tetsuro Ueda es experto en tecnología en el Centro de Investigación de Nissan, un lugar donde la marca explora tecnologías de vanguardia y desarrolla el siguiente paso en la experiencia del mundo automotriz. Trabajando con un equipo pequeño pero dedicado, la investigación de Ueda se centra en conectar la tecnología con los seres humanos de una manera enriquecedora y eficiente. Sus investigaciones más recientes están enfocadas en crear nuevas perspectivas en lo que vemos a través de plataformas conectadas y tecnologías de detección.

Durante CES 2019, Nissan presentó Invisible-to-Visible, una tecnología revolucionaria que ayuda a los conductores a «Ver lo invisible» al fusionar el mundo real y virtual para crear la mejor tecnología de autos conectados. En una entrevista reciente, Ueda expuso su visión sobre cómo ve a la sociedad interactuar con dicha tecnología.

P: ¿Puede contarnos brevemente sobre la tecnología Invisible-to-Visible?

Ueda: Invisible-to-Visible o I2V, es nuestra forma de aumentar la conciencia y enriquecer la experiencia de conducción. Al fusionar nuestro mundo con el mundo virtual, llamado Metaverse, podemos crear la mejor experiencia entre autos conectados. Los datos de detección, recolectados del espacio que nos rodea mientras conducimos, y las interacciones con la información virtual, cobran vida mediante imágenes tridimensionales y aumentadas frente a nosotros. En esencia, podemos interactuar y ver información que de otra manera sería invisible para nuestros ojos.

P: ¿En qué se diferencia esta tecnología de otros desarrollos similares?

Ueda: Hasta el momento, en términos de interacción con dispositivos digitales, la tecnología únicamente ha incorporado voz a la visualización de la información en una pantalla plana. La tecnología I2V utiliza un método que va más allá de este tipo de provisión convencional de información. Es cierto, algunas marcas están investigando pantallas tridimensionales de información en vehículos similares a nuestra tecnología. Lo que nos hace diferentes es nuestro nuevo enfoque de presentar datos o avatares como MR (realidad mixta). Esto aumenta el nivel de interacción y da peso a los elementos virtuales en nuestra realidad. Otro factor es nuestro objetivo de presentar información y datos de una manera más amigable con el usuario.

P: ¿Podría explicar un poco más? ¿En qué se diferencia esta tecnología de los asistentes personales virtuales (VPAs, por sus siglas en inglés) en el mercado hoy en día?

Ueda: Si bien esos VPAs se centran en mejorar la eficiencia de las funciones de asistencia al usuario a través de inteligencia artificial; los avatares que funcionan como agentes y ofrecen servicios a través del Metaverse (los llamamos agentes de recorrido), difieren por completo porque enfatizan la interacción entre las personas, en lugar de la eficiencia. Los VPAs sirven como asistentes funcionales. Mientras tanto, los agentes de recorrido no se limitan a la funcionalidad, en cambio, son socios en el espacio del vehículo móvil. Este concepto utiliza una multitud de tecnologías de detección I2V, como Omni-Sensing, que recopila datos de la infraestructura de tráfico y sensores alrededor del vehículo y el Metaverse para satisfacer una variedad de necesidades. Éstas pueden abarcar desde un compañero de conversación casual hasta orientación de manejo, estudio de idiomas, asesoría y consultoría personal y empresarial, todo en el mismo espacio compartido con el usuario.

P: Parte de la información recibida a través de Omni-Sensing incluye datos del tráfico. ¿En qué se diferencia esto de los dispositivos y aplicaciones que proporcionan información similar?

Ueda: No es necesario acceder al Metaverse para obtener información de tráfico. Esto se puede manejar accediendo a una nube de información de tráfico y visualizando los datos, lo que no va más allá del alcance de los autos conectados existentes que se vinculan con la nube. I2V toma esos datos y agrega un mayor nivel de detalle a partir de los datos recopilados por la tecnología Omni-Sensing. Por ejemplo, no sólo podemos obtener información sobre la congestión vehicular por delante; sino que podemos saber por qué está congestionado, cuál es el mejor carril para tomar y cuáles son las posibles rutas alternativas para evitar el área por completo. Tener este conocimiento, el conocimiento de lo desconocido por delante, puede aliviar el estrés del conductor.

P: La demostración en CES revelará cómo las personas del Metaverse pueden unirse como un avatar dentro del automóvil. ¿Ellos pueden tomar el control del vehículo?

Ueda: En condiciones de conducción autónoma, visualizamos a un operador con la capacidad de dar instrucciones a los vehículos conducidos de manera automática, en línea con el concepto SAM anunciado por nosotros en CES 2017. Pero no estamos pensando en transferir el control de las operaciones de conducción (acelerador, freno y dirección). Podría ser posible compartir otras funciones no relacionadas con la conducción, como el funcionamiento del aire acondicionado o el sistema de información y entretenimiento, para mejorar la presencia y la calidad de la experiencia de viaje compartida.

P: Con el atractivo de tener una experiencia de manejo a través de mundos virtuales, ¿Cree que conducir un automóvil en la realidad todavía tenga un atractivo? ¿Disminuirá la cantidad de gente que posee automóviles?

Ueda: Los autos satisfacen el deseo de movilidad de las personas. Una característica fundamental de la tecnología I2V es compartir la experiencia de la movilidad, pero también actúa como un catalizador para un mayor nivel de interacción. Esta tecnología fomenta nuevas interacciones obtenidas a través del movimiento más allá del mundo real, hacia el Metaverse y sus usuarios finales. Esto implica un aumento dramático en los usuarios que pueden interactuar en más situaciones. Esperamos que esta tecnología motive el uso de automóviles para obtener la experiencia de usuario de I2V.

Además, la experiencia de viajar juntos en un espacio virtual nunca podría igualar la experiencia de la realidad. Por lo tanto, no estamos preocupados por una disminución en la conducción habitual. Una experiencia combinada con experiencias virtuales debería, en cambio, fomentar el movimiento en el mundo real.

P: ¿Existe alguna preocupación sobre el hecho de que las personas en el vehículo se unan al Metaverse mientras conducen?

Ueda: No es posible sumergirse completamente en el Metaverse mientras usted conduce. Esta tecnología utiliza elementos del Metaverse para que los usuarios participen en conversaciones con avatares como una presencia externa, es decir, una persona del Metaverse que proyecta su yo virtual al mundo real dentro del vehículo. Esto difiere tecnológicamente de una experiencia VR completa. Si bien es posible tener una experiencia VR completa, nosotros creemos que este tipo de uso no funciona como una experiencia de conducción viable.

P: ¿Esta tecnología puede funcionar en cualquier lugar? ¿O sólo en ciudades con infraestructura conectada?Ueda: Se puede utilizar en cualquier lugar con acceso a un entorno de internet. Dicho esto, tendremos que esperar a que la tecnología inalámbrica 5G o posterior se utilice en vehículos en movimiento. Una vez que tengamos la tecnología y la velocidad de conexión para gestionarla durante la conducción, Invisible-to-Visible mejorará la experiencia de movilidad y abrirá las puertas a mundos infinitos.

POST TAGS:
FOLLOW US ON:
Nissan presenta la t
5 de cada 10 adolesc

juanmesia@gmail.com

Comunicador, periodista dedicado al periodismo tecnológico, nomofóbico total. De niño desarmaba mis juguetes para saber cómo funcionaban... Sigo jugando a lo mismo... para saber más googlea: Juan Martín Mesía Castro

Rate This Article:
NO COMMENTS

Sorry, the comment form is closed at this time.