No he escrito mucho sobre las Vision Pro desde que Apple presentó estas gafas de realidad virtual, perdón, su ordenador espacial. En parte porque aún no las he probado, pero también porque he estado digiriendo lentamente la asombrosa cantidad de tecnología que la compañía ha mostrado con su último dispositivo.
Mientras tanto, se ha teorizado sobre los objetivos finales de Apple en esta categoría de productos y sobre si es posible conseguir un dispositivo de realidad aumentada con toda la tecnología necesaria, pero que sea ligero para poder llevarse durante muchas horas.
A medida que he pasado tiempo considerando las Vision Pro, me he dado cuenta de que la historia de Apple para el dispositivo se forma tanto por lo que no nos mostró como por lo que hizo. Esto se aplica a grandes categorías como fitness o juegos, que no tuvieron mucho tiempo en el anuncio del Vision Pro, pero también a características individuales más pequeñas que ya aparecen en otros productos de Apple, pero que están notablemente ausentes en las Vision Pro, a pesar de que parecen ideales para el futuro de este espacio.
Por cierto, nuestro compañero Roman Loyola ha podido probar personalmente las Vision Pro, esta ha sido su experiencia.
Dos manos y un mapa
Apple mostró varias de sus aplicaciones existentes que se han portado a las Vision Pro, pero las que mostró eran definitivamente de una inclinación específica. Herramientas de productividad como Keynote o Freeform, aplicaciones de entretenimiento como Música o TV, herramientas de comunicación como FaceTime y Mensajes, y aplicaciones experienciales como Fotos y Mindfulness.
¿Una herramienta que no está presente (por lo que sabemos) en la pantalla de inicio del Vision Pro? Mapas.
Dan Moren
Esto me parece… no extraño, exactamente, por razones que ya explicaré, pero sí interesante. Porque Mapas es un lugar donde Apple ya ha desarrollado una interfaz de realidad aumentada realmente buena. A partir de iOS 15, la compañía puso en marcha direcciones a pie basadas en RA, que le permiten sostener su iPhone y ver etiquetas gigantes superpuestas en una vista de cámara. Si te lo has perdido, no te sorprendas: al principio solo estaba disponible en unas pocas ciudades, pero en los últimos dos años se ha extendido silenciosamente a más de 80 regiones de todo el mundo.
Lo probé hace poco y me impresionó su utilidad, pero me molestó tener que andar con el iPhone en la mano. Eso me hizo estar aún más seguro de que esta función encajaría perfectamente en unas gafas de realidad aumentada. Pero parece que no se encuentra por ninguna parte en las Vision Pro.
Traducción perdida
Cualquier aficionado a la ciencia ficción ha codiciado alguna vez el traductor universal de Star Trek o el babelfish de La guía del autoestopista galáctico: la tecnología invisible que te permite entender al instante y que te entienda cualquier otra persona. (Por no hablar de que resuelve un montón de molestos problemas argumentales)
Apple ha ido mejorando gradualmente su propia tecnología de traducción en los últimos años, con la incorporación de la aplicación Translate y un servicio de traducción para todo el sistema. Aunque quizás no tan amplia como la oferta de Google, el software de traducción de Apple se ha ido poniendo al día poco a poco, incluso añadiendo un modo de conversación que puede detectar automáticamente a las personas que hablan en varios idiomas, traducir sus palabras y reproducirlas en audio.
Dan Moren
Se trata de una aplicación revolucionaria para los viajes y otra función que encajaría perfectamente en un dispositivo de realidad aumentada. Imagina que te dijeran al oído una traducción al instante o que te la mostraran en una pantalla delante de los ojos. Hace varios años, estaba en la India y, cuando se estropeó el aire acondicionado del apartamento de mi ahora esposa, tuve que llamarla para que uno de sus compañeros de trabajo tradujera al técnico, que solo hablaba hindi. (Para ser justos, en aquel momento intenté utilizar el modo de conversación similar de Google, pero acabó siendo bastante engorroso)
Y no es solo para las conversaciones. El marco de traducción de todo el sistema de Apple ya ofrece la posibilidad de traducir el texto de una fotografía y la propia aplicación Traducción tiene una vista de cámara en vivo, lo que significa que incluso se podría navegar a través de una tienda en el extranjero y tener artículos que ves a tu alrededor traducidos sobre la marcha.
No levantes la vista
Una de las funciones más alucinantes que Apple ha desarrollado en los últimos años es Visual Lookup. Cuando se introdujo por primera vez, se aprovechó el aprendizaje automático para identificar algunas categorías de elementos vistos en las fotos -incluyendo flores, perros, puntos de referencia- con resultados algo mixtos. Pero en iOS 17, Apple ha mejorado enormemente esta función, tanto en términos de fiabilidad como añadiendo otras categorías, como buscar recetas a partir de una foto de una comida o identificar e interpretar esos desconcertantes símbolos de lavandería.
Este es, para mí, el verdadero sueño de la realidad aumentada. Poder mirar algo y obtener al instante información sobre ello es un poco como tener una guía anotada de todo el mundo. Además, es otra característica que encaja perfectamente con la idea de un dispositivo ligero de realidad aumentada para llevar puesto: en lugar de mirar, por ejemplo, una obra de arte y luego meter la nariz en el teléfono para saber más, puedes ver los detalles justo delante de ti, o incluso tener cosas interesantes superpuestas o engranadas con la propia obra de arte.
Dan Moren
Apple no ha mostrado ninguna función de Visual Lookup en su presentación de Vision Pro, pero este es uno de los aspectos en los que podría haber otra posibilidad. Steve Moser, de MacRumors, hurgó en el kit de desarrollo de software de Vision Pro y descubrió una función llamada Búsqueda visual, que parece que haría muchas de las mismas cosas, obteniendo información del mundo que te rodea y aumentándola con detalles adicionales.
Visión de futuro
A primera vista, la omisión de todas estas funciones tiene sentido con la historia que Apple ha contado sobre dónde y cuándo es probable que utilices las Vision Pro. El mapeo, la traducción y la búsqueda visual son el tipo de características que son más útiles cuando estás fuera de casa, pero las Vision Pro siguen siendo fundamentalmente un dispositivo al que vas, no uno que llevas contigo.
Llamar a las Vision Pro ordenador espacial puede ser una forma de evitar términos como “auriculares” o “metaverso”, pero también transmite algo intrínseco del producto: es realmente el análogo de realidad mixta de un ordenador e, incluso en ese caso, casi más un ordenador de sobremesa que un portátil, dado que parece ser algo que se utiliza principalmente en una posición fija.
Pero al igual que los portátiles, las tablets y los smartphones hicieron evolucionar el concepto de ordenador de algo que se usa sentado en un escritorio a algo que se lleva en el bolso o en el bolsillo, parece obvio que el disco hacia el que patina Apple es el equivalente en Vision Pro de un MacBook o un iPhone. Con suerte, Apple no tardará tanto en llegar a ese punto como le costó al smartphone evolucionar desde el ordenador de sobremesa, pero no se sorprenda si lo que finalmente obtenemos es tan diferente del Vision Pro como el iPhone lo fue del Mac original.
Artículo original publicado en la edición en inglés de Macworld.com.