2 puntos por GN⁺ 2025-09-19 | 1 comentarios | Compartir por WhatsApp
  • Meta presentó lentes con IA con pantalla integrada y una pulsera EMG y propone una experiencia de uso centrada en interacciones breves para consultar y controlar rápidamente sin depender del teléfono
  • Los Ray-Ban Display integran pantalla full color de alta resolución, micrófono, bocinas, cámara e IA on-device, con soporte para revisar mensajes, previsualizar fotos y colaborar con Meta AI mediante prompts visuales
  • La Neural Band (pulsera EMG) permite hacer scroll, clic y otras acciones con movimientos sutiles de los dedos, ofreciendo una entrada por gestos intuitiva sin necesidad de tocar los lentes ni sacar el teléfono
  • El precio es de 799 dólares (incluye lentes + pulsera) y saldrán el 30 de septiembre en algunas tiendas físicas de EE. UU.; colores Black/Sand, armazón Standard/Large, lentes Transitions®, hasta 6 horas de uso mixto y 30 horas en total con el estuche de carga plegable
  • La pantalla destaca por 42 ppd, 2% de fuga de luz, brillo automático y lentes fotocromáticos; en experiencia de uso apunta a un nuevo paradigma de interacción en computación wearable con Meta AI visual, mensajería y videollamadas, navegación peatonal, subtítulos y traducción en tiempo real, y control de música

Introducción

  • Meta presentó una nueva línea de productos de lentes con IA: Meta Ray-Ban Display y Meta Neural Band
  • El producto está diseñado para permitir consultar información al instante en el entorno físico sin dejar de estar más inmerso en el mundo que te rodea

Resumen del producto: llega una nueva generación de lentes con IA y pantalla

  • Meta Ray-Ban Display son lentes centrados en interacciones de ciclo corto que, mediante una pantalla en el lente, permiten revisar mensajes, previsualizar fotos y colaborar con Meta AI a partir de prompts visuales
  • Integran micrófono, bocinas, cámara, pantalla full color y computación e IA on-device en un solo wearable, con el objetivo de mantenerte conectado sin perder la inmersión en tu entorno
  • La Meta Neural Band (pulsera EMG) incluida interpreta señales mioeléctricas para habilitar entrada mediante microgestos, permitiendo hacer scroll, clic y otras acciones solo con movimientos de los dedos

Precio, lanzamiento y configuración

  • El precio es de 799 dólares e incluye los lentes y la Meta Neural Band
  • Se lanzarán el 30 de septiembre en tiendas físicas principales de Estados Unidos, y después se expandirán a algunas tiendas de Verizon
  • El lanzamiento en Canadá, Francia, Italia y Reino Unido está previsto para principios de 2026; comenzará en minoristas y regiones seleccionadas y luego se ampliarán gradualmente las opciones
  • Los colores son Black/Sand, con dos tamaños de armazón: Standard y Large; todos los modelos incluyen lentes Transitions®
  • Ofrecen 6 horas de uso mixto y 30 horas en total con el estuche portátil de carga plegable
  • La Neural Band se ofrece en tres tallas para optimizar el ajuste en la muñeca

Diseño y comodidad: Style Meets Function

  • En colaboración con EssilorLuxottica, mantienen el ADN de Ray-Ban Wayfarer mientras adoptan una silueta más alta y una forma cuadrada angular para una apariencia más audaz
  • Con bordes redondeados y curvatura frontal, mejoran la comodidad, durabilidad y reducción del deslumbramiento; además, usan una bisagra de sobreextensión de titanio para lograr mejor ajuste, resistencia y ligereza
  • Por primera vez incorporan una batería ultradelgada tipo steel-can, logrando combinar patillas delgadas con mayor duración de batería; esta tecnología también se extiende a Oakley Meta HSTN y Ray-Ban Meta (Gen 2) para ofrecer hasta 8 horas de uso diario
  • El peso total es de 69 g, lo que proporciona una sensación ligera al usarlo

A fondo con la pantalla: Display Deep Dive

  • Para adaptarse al formato de lentes de moda, rediseñaron el light engine y la guía de onda geométrica, logrando alta eficiencia, contraste y brillo en un módulo compacto
  • Alcanzan 42 píxeles por grado (ppd) para ofrecer visualización de información en alta resolución, una densidad de primer nivel salvo por algunos headsets grandes no comercializados
  • Con lentes fotocromáticos y un algoritmo de brillo automático, mantienen una visibilidad clara del color tanto en interiores como en exteriores
  • Con un diseño centrado en la privacidad, ofrecen una pantalla privada dentro del lente con alrededor de 2% de fuga de luz; al capturar contenido, un LED de captura avisa a quienes están alrededor que se están tomando fotos o video
  • La pantalla está ubicada lateralmente para no bloquear la vista y está pensada para interacciones breves, no para visualización permanente, buscando una usabilidad que no interrumpa el flujo

Interacción basada en EMG: Meta Neural Band

  • Basada en investigación de electromiografía de superficie (EMG), la Neural Band permite scroll y clic con sensores en la muñeca sin touch ni botones, y en el futuro apunta incluso a entrada por escritura con los dedos
  • Ofrece reconocimiento de señales de alta fidelidad capaz de detectar incluso micromovimientos previos a lo observable a simple vista
  • Gracias a un modelo basado en deep learning entrenado con datos consensuados de alrededor de 200 mil personas, logra usabilidad generalizada y un rendimiento inicial universal que supera las diferencias musculares individuales
  • Los datos EMG en bruto se procesan on-device, y solo se envían a los lentes eventos como clics para ejecutar comandos
  • La confiabilidad de la sincronización háptica y temporal se procesa con ML on-device
  • Ofrece hasta 18 horas de batería, resistencia al agua IPX7, electrodos con recubrimiento tipo carbono similar al diamante y malla reforzada con Vectran, para una comodidad ligera y durable durante todo el día

Experiencias clave: Experiences in Meta Ray-Ban Display

  • Meta AI with Visuals: ofrece respuestas visuales y guía paso a paso combinadas con el campo de visión de la cámara, con cambio de pasos mediante gestos de la Neural Band
  • Mensajería y videollamadas: permite ver texto y multimedia personales de WhatsApp, Messenger, Instagram y notificaciones del teléfono en una pantalla privada, y compartir la perspectiva desde los lentes mediante videollamadas en vivo por WhatsApp y Messenger
  • Vista previa y zoom: mejora la calidad de captura con viewfinder en tiempo real y zoom, y simplifica seleccionar y compartir desde la pantalla
  • Navegación peatonal: permite elegir un destino sin teléfono y luego ofrece instrucciones turn-by-turn y mapa visual; comenzará como beta en algunas ciudades y se expandirá gradualmente
  • Subtítulos en vivo y traducción: ofrece subtítulos en tiempo real para el habla y traducción en idiomas seleccionados, ayudando a reducir barreras del idioma
  • Reproducción de música: muestra la canción actual con una tarjeta de música y permite navegar y controlar el volumen con deslizar el pulgar y pinch + giro de muñeca
  • Servicios de música: permite acceder a Amazon Music, Apple Music(iOS), Music Info, Shazam y Spotify, y más adelante ofrecerá recomendaciones basadas en el contexto de la escena mediante IA multimodal
  • Podcasts, audiolibros y radio en vivo: amplía la experiencia de escucha con integración con Audible, iHeart y otros
  • Hoja de ruta de software: se esperan futuras actualizaciones como una app dedicada de Instagram Reels y entrada manuscrita mediante EMG

Posicionamiento del producto: 3 categorías de lentes con IA

  • Camera AI glasses: planea seguir ampliando la categoría de lentes con IA centrados en cámara como Ray-Ban y Oakley, además de reforzar sus funciones de IA
  • Display AI glasses: Meta Ray-Ban Display abre una nueva categoría centrada en el valor de una pantalla contextual
  • AR glasses: el prototipo Orion apunta a una gran pantalla holográfica, entrada de alto ancho de banda y experiencias de expansión espacial, y ya está en desarrollo una versión para consumidores

Visión: Future Forward

  • Meta Ray-Ban Display es un dispositivo wearable de interacción que forma parte de la visión de una plataforma de computación de próxima generación centrada en las personas
  • Con base en 10 años de acumulación de Reality Labs, Meta afirma que seguirá invirtiendo tecnología, talento y tiempo, subrayando su disposición a inventar y ejecutar con audacia
  • El anuncio de hoy se presenta como el inicio del próximo capítulo para los lentes con IA y los wearables, con foco en ampliar la conectividad y la interacción mientras se mantiene el flujo de trabajo cotidiano

1 comentarios

 
GN⁺ 2025-09-19
Opiniones en Hacker News
  • Me sorprende ver tantas opiniones negativas sobre los lentes de Meta. Como usuario real, compré tanto la versión transparente como la de sol y estoy muy satisfecho. He grabado muchos videos increíbles de nuestro bebé, y para escuchar música también son buenos porque, a diferencia de unos audífonos normales, te permiten oír el entorno, así que me han servido incluso para recorridos largos en bicicleta. Todavía no he probado las funciones de IA o las funciones inteligentes, pero pienso hacerlo más adelante. Lo que sí me decepciona es el estuche de carga propietario, la duración de la batería que se va reduciendo con el tiempo, y que resisten mal el sudor. Aun así, les veo muchísimo potencial
    • Los audífonos de conducción ósea también ofrecen una experiencia de audio parecida, con mejor batería y carga por usb-c. Además, mucha gente no quiere apoyar a Meta por el impacto negativo que la empresa tiene en la sociedad
    • Lo que me preocupa no es tanto la utilidad que tengan para mí cuando yo los use, sino el impacto que me causan a mí cuando los usa otra persona
    • Le compré estos lentes como regalo a un amigo con problemas graves de visión. Parece que no funciona la función de leer mensajes o correos del teléfono. Solo puede leer lo que viene en las notificaciones, y fuera de eso siempre arroja errores diciendo que no tiene permisos de acceso. La grabación de video también está limitada a 3 minutos (antes era 1 minuto). En lugares muy ruidosos es difícil escuchar el audio y varias funciones se vuelven casi inútiles. Aun así, la miniaturización del hardware es sorprendente. El problema principal es el software, que está muy flojo
    • Sobre eso de que está bien poder oír el entorno mientras escuchas música, muchos audífonos tipo earbuds como los Airpods también tienen modo transparencia. De hecho, los Airpods incluso pueden dejar pasar solo los sonidos importantes mediante ANC, y además no se ven raros si los usas en interiores. No me queda claro qué tiene esto de especial. Lo de grabar bien videos del bebé sí suena interesante, aunque me da curiosidad saber qué tal es la calidad del video
    • Yo siento algo parecido. Los uso mucho para senderismo y correr, y la experiencia es divertida. Tengo la versión con lentes fotocromáticos, así que sirven bien para correr o escuchar música afuera, además de tomar imágenes y video. La desventaja es que en invierno la batería se agota rapidísimo
  • Hay que tener en cuenta que si usas los Meta Ray-Ban, tus datos de usuario se recopilan y se usan para entrenar la IA. Si no vives en la UE, no puedes hacer opt-out. La antigua app Meta View un día se convirtió en la app Meta AI y le añadieron funciones parecidas a ChatGPT.
    1. Meta AI with camera use está siempre activado, y si desactivas Hey Meta, los lentes se vuelven casi inútiles
    2. "Las transcripciones de voz y los archivos de grabación pueden conservarse hasta por 1 año y usarse para mejorar los productos de Meta" Enlace relacionado
    • Me sorprende que la gente todavía pueda hablar solo de tecnología cuando Meta está metido en algo así. Me pregunto hasta qué punto tendría que llegar esto para que la gente realmente se preocupe
    • Me pregunto si aquí aplicaría la CCPA (Ley de Privacidad del Consumidor de California). Igual parece que con solo el opt-in ya reunirían suficientes datos
  • En la keynote, las funciones de los lentes estuvieron más o menos dentro de lo esperado, pero me impactó muchísimo ver a Zuckerberg manejando la interfaz a 30 WPM casi sin mover los dedos. Si esta interfaz neuronal realmente funciona así de bien, entonces en esta ronda ganó Meta
    • La clave es la pulsera de muñeca (wristband). Los lentes no hacen falta, pero me pregunto si la pulsera podría usarse como entrada para computadora
    • Es muy impresionante, pero no creo que en la práctica la gente vaya caminando por la calle y se ponga a buscar una superficie plana para escribir mensajes. Tengo dudas sobre su utilidad real
    • Al final, lo importante es el accesorio de muñeca. Siento que esos lentes aparatosos siguen estando todavía en una fase técnica muy temprana
    • Si cambian esta banda neuronal por una banda fitness tipo WHOOP, estaría dispuesto a considerarlo. Para quienes ya usan rastreadores de actividad, podría ser una oportunidad
    • Son poquísimas las empresas que reúnen visión, perspectiva de largo plazo y una inversión de capital gigantesca. NVIDIA y Meta son ejemplos claros
  • Fue bastante impresionante ver a Zuckerberg mostrar escritura a 30 WPM en línea. Más allá de la polémica de la marca, este tipo de dispositivo de entrada basado en gestos es un paso hacia una revolución en la comunicación. Si Apple, Google y terceros entran, los precios también bajarán. Los smartglasses que hay hoy en el mercado son una etapa intermedia entre AR y VR, y no es común ver un producto de este nivel en este rango de precio. Aun así, el Puck (terminal de muñeca) solo será útil para ciertos usuarios y podría ser una barrera para masificarse. Como el avance técnico redujo mucho el consumo energético de la pantalla, más adelante también irán reduciendo el tamaño del Puck. Hace poco leí el libro ‘Apple in China’ y volví a sentir lo difícil que es materializar hardware de verdad. Lograr 30 horas de batería inalámbrica con tecnología EMG + wave guide (aunque en realidad me pregunto si solo usará BLE 6.0) es impresionante. Esta es la segunda gran apuesta de largo plazo cuyos frutos se empiezan a notar, después de haber invertido durante años en IA (PyTorch, varios modelos de IA)
    • No son 30 horas de batería, sino 6 horas. Si sumas el estuche portátil de carga, entonces sí llegas a 30 horas de uso
    • También hay varias innovaciones poco conocidas en software y datos que van a hacer evolucionar este dispositivo. Por ejemplo,
      1. Un mapa de localización global podría reforzar funciones de SLAM (localización y mapeo simultáneos en tiempo real)
      2. Parece que el Puck corre en un OS separado, y los lentes solo transmiten por BLE los datos de sensores a nivel de firmware de microcontrolador en tiempo real. Aún no hay código publicado, y ojalá lo liberen como open source
  • Parece que esta pulsera viene de la adquisición de CTRL-Labs. Qué bueno que el dispositivo con waveguide se haya materializado tan rápido. Está tan cool que hasta dan ganas de pensarlo aunque sea un producto de Facebook
    • CTRL-Labs adquirió la tecnología de pulsera de North (antes Thalmic), y North originalmente hizo la Myo armband antes de pasar a los smartglasses y ser adquirida por Google. Myo convertía señales electromiográficas en gestos y movimientos como entradas de software. Es posible que esta tecnología de North termine aplicada a productos competidores
    • Disney también viene desarrollando prototipos de reconocimiento de gestos con detección eléctrica en muñeca desde 2012 enlace de YouTube
  • Si no los hubiera hecho Meta, los habría comprado de inmediato. Llevo tiempo queriendo unos smartglasses, y este es el primer producto donde, salvo por el grosor, realmente vi potencial práctico. Pero Meta y Zuckerberg están metidos en demasiados problemas poco éticos, así que no puedo apoyarlos. Ojalá salgan productos de la competencia, aunque la escala de inversión de Meta en HCI (interacción humano-computadora) va a dificultar competir
    • Para referencia, uso todas las funciones del Meta Rayban sin tener cuenta de facebook/instagram. Yo también tuve dilemas éticos, pero hoy por hoy no es estructuralmente fácil para una startup fabricar algo así a gran escala (la FTC intentó cambiar eso, pero no fue sencillo). Al final, la realidad es que solo quedan opciones de big tech
  • Qué bueno que la banda neuronal (Neural band) vaya a salir pronto. La versión de producción de Orion (los lentes AR completos) parece que todavía tardará varios años más. En TheVerge dijeron que la usabilidad es muy buena, e incluso probaron una versión alfa de entrada por escritura a mano. Estos lentes no son AR total, sino una “realidad anotada” con una sola pantallita. Se notan mucho menos que los primeros Google Glass, y tanto la entrada como la salida son bastante discretas
    • Creo que la reacción negativa que hubo en su momento contra Google Glass terminó siendo contraproducente. Google Glass estaba pensado para que se notara claramente que alguien lo llevaba puesto, mientras que ahora, para evitar rechazo, todo el mundo va en dirección de hacerlo más oculto
  • Dicen que “permite revisar mensajes, previsualizar fotos y colaborar con prompts visuales de Meta AI”, pero no entiendo por qué alguien pagaría $800 por eso. Ya gasté bastante en un smartphone para que me interrumpa todos los días
    • Me pregunto qué significa exactamente eso de “colaborar con prompts de Meta AI” en las tareas cotidianas que hacemos normalmente. Siento que me estoy perdiendo de algo
    • Los lentes de sol Ray Ban por sí solos ya cuestan casi $500
    • Según entiendo, también incluye una pulsera que podría revolucionar la interacción humano-computadora (HCI) video demo de marcación y escritura
    • Ahora ya se podrá vestir sin bolsillos
  • La demo en vivo fue impactante video demo
    • Todas las demos de VR/AR/XR son iguales: no hacen gran cosa y, aun así, resultan más engorrosas y difíciles que hacerlo en la realidad. Por ejemplo, cocinar:
      • Normalmente buscas una receta, dejas el teléfono apoyado y lo miras un momento cuando lo necesitas
      • Para usar los lentes de Meta, tienes que ponértelos (yo encuentro incómodos los lentes y hasta me hice cirugía láser por eso), explicarle por voz tu problema a la IA, corregirle cuando entiende mal los ingredientes y, con mucha suerte, obtener la respuesta que querías.
      • Lo mismo con las demos del headset de Apple: un casco grande e incómodo solo para ver fotos o hacer videollamadas
    • En la demo en vivo se ve que lanzan la pregunta “What do I do first” antes de que la IA termine de responder. Me hace pensar que quizá ya habían ensayado ese flujo en el rehearsal. Si fue por un problema de conexión, puede que el override no haya entrado. En cualquier caso, me deja dudas sobre la confiabilidad del sistema de IA
    • Yo también he hecho muchas demos en vivo con IA, y aunque la pregunta sea exactamente la misma, la respuesta cambia cada vez. Por eso ahora defino un alcance mucho más acotado para las demos. (No pude controlar los parámetros)
    • Esta demo también me decepcionó bastante, pero se valora que lo hayan intentado en vivo y sin guion otro video
    • Aplaudo el intento. Se extrañan las demos en vivo en lugar de esos videos perfectos de eventos de Apple donde todos solo posan
  • “Los lentes Meta Ray-Ban Display te permiten levantar la vista y concentrarte más en la realidad. Con la pantalla en el lente puedes revisar mensajes, previsualizar fotos y colaborar con prompts visuales de Meta AI”
    Puedo imaginar perfectamente a alguien hablando contigo cara a cara mientras, con cara vacía, le aparecen notificaciones o videos de TikTok flotando entre los ojos. Siento que el mundo sería mejor si Meta desapareciera por completo
    • Siento que hace falta una dosis de realidad sobre cómo funciona la atención humana. Yo veo información como velocidad y dirección en el HUD del auto, y muchas veces me pasa que por estar mirando eso casi no percibo de verdad la vista al frente. Aunque solemos ignorar ese efecto, me preocupa que con el tiempo aparezcan estadísticas mostrando que los HUD en realidad aumentan los accidentes
    • Que a alguien le aparezca una notificación frente a los ojos en mitad de una conversación solo pasa si en realidad esa persona no considera importante la conversación. Es parecido a mirar un smartwatch. Antes era mirar el teléfono, y antes de eso, el periódico. No creo que esta tecnología cree un problema social nuevo
    • Me sorprende que a este producto se le pueda aplicar el discurso de “te conecta más con el mundo”. En la práctica, esta tecnología hace que el usuario pase más tiempo dentro de un espacio virtual, y aun así Zuckerberg no renuncia a su sueño del metaverso
    • Estoy 100% de acuerdo con la idea de que “el mundo sería mejor si desaparecieran grandes corporaciones como Meta”
    • Dijeron que alguien podría ver notificaciones o videos frente a los ojos mientras conversa, pero en realidad la palabra correcta sería anuncios