A través de su cuenta de Instagram, Mark Zuckerberg dio una muestra de cómo funcionan las gafas de realidad aumentada que desarrolló Meta junto a Ray-Ban y que usan lenguajes multimodales, por lo que son capaces de procesar órdenes con voz según lo que esté viendo el usuario.
En un viaje que hizo a Montana, Estados Unidos, el CEO de la compañía estuvo interactuando con diferentes entornos para mostrar los diferentes alcances de este dispositivo que puede entregar información sobre monumentos históricos, datos del contexto en el que se está y buscar información en internet.
Todos esto aprovechando las funciones de inteligencia artificial, que ambas empresas han ido agregando en el desarrollo de las gafas, que ya se encuentran en el mercado, aunque solamente en ciertas regiones.
Le puede interesar:Datos curiosos del creador de Facebook, Mark Zuckerberg
Lea más:¿Eliminaste una publicación en Facebook? Aquí te ayudamos a recuperarla
Qué funciones tienen las gafas de Meta y Ray-Ban
Una de las primeras características del dispositivo es la posibilidad de reconocer y describir lugares históricos.
Esta nueva función de inteligencia artificial multimodal permite a los usuarios obtener información detallada sobre los puntos de referencia simplemente mirándolos y haciendo una pregunta sobre ellos
Zuckerberg puso el ejemplo con un arco que encontró en su viaje a Montana, del que no tuvo que dar el nombre, sino simplemente preguntarle a los lentes la historia de lo que tenía al frente.
Esta es una función clave para mejorar el turismo en el mundo, pero también es una herramienta educativa, porque no se necesita saber el nombre del lugar y la interacción puede ir creciendo con más preguntas que se le ocurran al usuario, ya que no solo funciona con construcciones o creaciones artísticas, sino también con sitios naturales, como montañas o paisajes.