Warby Parker y Google se alían para lanzar gafas inteligentes con IA

  • Warby Parker y Google colaboran en unas gafas ligeras con inteligencia artificial cuyo debut comercial está previsto para 2026.
  • El proyecto se apoya en Android XR y en el modelo de IA Gemini, con dos líneas de producto: gafas de audio sin pantalla y gafas con pantalla integrada.
  • La alianza se enmarca en la carrera de la realidad aumentada, donde ya compiten Meta, Apple y Samsung con dispositivos XR y gafas inteligentes.
  • Google busca corregir los errores de Google Glass y convertir las gafas inteligentes en un accesorio cotidiano, cómodo y socialmente aceptado.

Gafas inteligentes con IA

Warby Parker ha confirmado que trabaja codo con codo con Google, filial de Alphabet, en el desarrollo de unas gafas inteligentes pensadas para el uso diario y potenciadas por inteligencia artificial, con un primer modelo que se espera que llegue al mercado en 2026. Se trata del movimiento más claro hasta la fecha para incorporar la IA generativa al formato de gafas convencionales y no a visores voluminosos.

El anuncio se realizó durante The Android Show | XR Edition y supone la primera vez que ambas compañías ponen una fecha aproximada sobre la mesa desde que hicieron pública su colaboración a principios de año. Aunque de momento no se han revelado ni el precio ni los canales de distribución, el plan pasa por ofrecer unas gafas ligeras, cómodas y discretas, alejadas de la estética futurista que lastró a Google Glass hace una década.

Una alianza para llevar la IA a unas gafas de uso diario

La colaboración entre Google y Warby Parker se enmarca en una estrategia más amplia para relanzar la categoría de gafas inteligentes aprovechando los últimos avances en modelos de lenguaje y visión por ordenador. Google ha aparcado definitivamente el enfoque de Glass para apostar por productos que puedan confundirse con unas gafas graduadas o de sol convencionales, pero con funciones de IA siempre disponibles.

Warby Parker ha descrito estos futuros modelos como “ligeros y habilitados con IA”, diseñados para aguantar toda una jornada sin resultar molestos. La compañía óptica aportará su experiencia en monturas, ergonomía y diseño comercial, mientras que Google pondrá la plataforma tecnológica: Android XR y el modelo de inteligencia artificial Gemini, capaz de procesar texto, voz e imagen de forma conjunta.

La idea es que el usuario pueda interactuar con Gemini de forma natural, ya sea pidiéndole información mediante comandos de voz, haciendo consultas sobre lo que ve o recibiendo ayuda contextual sin necesidad de sacar el móvil del bolsillo. Todo ello con especial atención a cuestiones de privacidad, uno de los puntos débiles de los primeros intentos de gafas inteligentes en el pasado.

En una entrada de blog, Google confirmó que, además de Warby Parker, también colabora con Samsung y Gentle Monster para crear diferentes variantes de gafas elegantes, con distintos estilos de montura y funcionalidades, apuntando a un ecosistema más amplio de fabricantes en lugar de un único dispositivo oficial.

Dos familias de gafas: sin pantalla y con pantalla integrada

Warby Parker y Google gafas de realidad aumentada

Google ha detallado que la iniciativa de gafas con IA se estructura en dos grandes tipos de dispositivos, ambos pensados para funcionar sobre la nueva plataforma Android XR y profundamente integrados con Gemini.

Por un lado estarán las gafas de asistencia sin pantalla, que actúan como un asistente manos libres. Estas monturas incorporarán altavoces, micrófonos y cámaras, pero no mostrarán información visual en la lente. Su función será ofrecer ayuda por voz, responder preguntas, registrar notas, describir lo que la cámara está viendo o guiar al usuario mediante indicaciones sonoras, todo ello sin añadir distracciones visuales.

Por otro lado, Google trabaja en unas gafas con pantalla integrada en la lente, que sí podrán mostrar información de forma privada al usuario. Entre los usos previstos se incluyen la navegación paso a paso superpuesta al entorno físico, subtítulos para traducciones en tiempo real, avisos contextuales, notificaciones discretas o incluso elementos de productividad, como resúmenes de reuniones o recordatorios visuales.

Warby Parker ha señalado que sus versiones de estas gafas tienen previsto debutar en 2026, aunque todavía no se ha especificado si ambas líneas llegarán al mercado a la vez o si habrá un despliegue escalonado. En cualquier caso, todas las variantes se basarán en Android XR, lo que facilitará que aplicaciones y servicios de terceros también puedan adaptarse a este nuevo formato.

Durante demostraciones internas, Google ha mostrado prototipos con diseños monoculares y binoculares. En los primeros, la pantalla solo aparece en una de las lentes; en los segundos, ambos ojos ven una imagen superpuesta, lo que permite una experiencia más inmersiva y un “campo de visión” virtual más amplio para aplicaciones como mapas o videollamadas.

Android XR y Gemini: la base tecnológica del proyecto

Ambas familias de gafas estarán gobernadas por Android XR, el nuevo sistema operativo que Google ha creado para la realidad extendida y los dispositivos inmersivos. Este software pretende unificar la experiencia entre gafas, visores y otros wearables avanzados, y está llamado a ser el equivalente de Android para móviles, pero adaptado a formatos más envolventes.

Sobre esta base correrá Gemini, el modelo de IA multimodal de la compañía, encargado de interpretar la voz, la imagen captada por las cámaras y el contexto del entorno. Gracias a Gemini, las gafas podrán responder preguntas sobre lo que el usuario tiene delante, generar traducciones superpuestas, explicar carteles o menús en otros idiomas, sugerir rutas o incluso analizar una escena para ofrecer información adicional.

Google aspira a que el mayor número posible de aplicaciones actuales se adapten a este nuevo formato, desde Google Maps hasta Google Meet. En las demos realizadas, se han visto funciones como subtítulos de conversación en tiempo real, vistas de mapa flotantes que se ajustan a la dirección en la que mira el usuario o previsualización de fotos retocadas por IA sin necesidad de mirar el móvil.

El enfoque técnico también tiene en cuenta las limitaciones físicas del formato. Muchas de las gafas en desarrollo se conectan de forma inalámbrica al teléfono, que es el que asume gran parte del procesamiento de IA. Esta arquitectura permite que las monturas sean más finas y parecidas a unas gafas convencionales, reduciendo el peso y mejorando la autonomía, un aspecto crítico para que el dispositivo sea viable durante todo el día.

El reto estará en equilibrar batería, rendimiento y comodidad sin disparar el precio. Google ha evitado de momento concretar cifras, pero en el sector se da por hecho que la compañía intentará moverse en rangos más cercanos a los de unas gafas premium que a los de un visor de realidad mixta de alta gama como los actuales.

El contexto competitivo: Meta, Apple, Samsung y el regreso de Google

El regreso de Google al terreno de las gafas inteligentes se produce en un momento en el que la competencia por la realidad aumentada y la IA vestible es intensa. Meta se ha posicionado como uno de los actores más agresivos con sus Ray-Ban Meta Glasses, desarrolladas con EssilorLuxottica, que combinan un diseño reconocible con funciones de captura de vídeo y un asistente de IA integrado.

Meta también ha presentado modelos con pantalla incorporada en la lente, capaces de mostrar mensajes, contenido visual y subtítulos, y mantiene una fuerte apuesta por sus visores Quest de realidad mixta. Por su parte, Apple ha entrado en el mercado con Vision Pro, un dispositivo de computación espacial de gama alta, mientras trabaja en formatos más ligeros que puedan encajar mejor en el uso diario.

Samsung, socio clave de Google en Android XR, impulsa sus auriculares Galaxy XR, para los que se han anunciado mejoras como un modo viaje pensado para usarlos en coches y aviones, y una aplicación PC Connect que permite reflejar la pantalla de un ordenador con Windows en el entorno virtual. Todo ello forma parte de un intento de consolidar un ecosistema XR competitivo frente a Meta y Apple.

En este tablero, la alianza con Warby Parker y Gentle Monster busca reforzar la posición de Google en el segmento de gafas de aspecto tradicional pero con funciones avanzadas, más cercanas a un accesorio cotidiano que a un gadget llamativo. Es una forma de diferenciarse de los visores voluminosos y colocar la IA directamente en la montura que muchos usuarios ya llevan a diario.

La compañía es consciente de que otros actores como Snap o Alibaba también experimentan con gafas inteligentes, y que el liderazgo inicial de Meta no es definitivo. De ahí que la prioridad sea llegar al mercado con un producto que no solo sea técnicamente avanzado, sino también socialmente aceptado y con un catálogo de usos reales que vayan más allá de la mera curiosidad inicial.

El fracaso de Google Glass sigue siendo un recordatorio de que la tecnología, por sí sola, no basta. Incluso desde la propia compañía se reconoce que el dispositivo se lanzó demasiado pronto: la inteligencia artificial era limitada, el diseño resultaba extraño para el uso cotidiano y el precio, elevado, en un momento en el que el público general apenas entendía el concepto.

Los problemas de privacidad, con cámaras visibles apuntando a cualquier parte, generaron rechazo en muchos entornos, y el término “glasshole” se convirtió en símbolo de esa tensión entre innovación y vida social. Esta vez, Google intenta evitar esa imagen apostando por monturas más discretas, funciones realmente útiles y controles de privacidad más claros, además de una comunicación más pausada.

La tecnología de IA ha avanzado lo suficiente como para ofrecer traducciones en tiempo real, descripciones visuales detalladas y recomendaciones contextuales sin saturar al usuario de notificaciones o distracciones. El reto será encontrar el equilibrio entre ofrecer ayuda constante y no convertir las gafas en una fuente de interrupciones permanentes.

A esto se suman otros desafíos clásicos: autonomía de la batería, peso, resistencia, compatibilidad con graduaciones ópticas y, sobre todo, un modelo de precios y distribución que encaje en el mercado de gafas, donde el consumidor está acostumbrado a pagar por monturas y lentes, pero no necesariamente por un dispositivo electrónico complejo.

Con el horizonte de 2026 como referencia, la alianza entre Warby Parker y Google se presenta como uno de los proyectos más ambiciosos dentro del creciente ecosistema de dispositivos con IA integrada: unas gafas que aspiran a combinar diseño convencional, servicios inteligentes y realidad aumentada ligera en un mismo producto, en plena carrera por definir cuál será el “próximo dispositivo imprescindible” tras el smartphone.

gafas Quark AI de Alibaba
Artículo relacionado:
Así son las gafas Quark AI de Alibaba y su apuesta por la IA vestible