X
  1. Vandal Random
  2. Noticias
  3. Adiós a los repartos tal y como los conocemos: Amazon equipará a sus empleados con gafas de IA para reducir distracciones

Adiós a los repartos tal y como los conocemos: Amazon equipará a sus empleados con gafas de IA para reducir distracciones

Amazon insiste en que el display permanece apagado durante la conducción y que el on-device limita la exposición de datos, pero la experiencia dirá si el equilibrio entre productividad y confort es el adecuado.

Amazon ha enseñado en San Francisco su siguiente jugada para la "última milla": unas gafas inteligentes con HUD (pantalla proyectada en el campo de visión) pensadas para que los repartidores trabajen manos libres, sin mirar al móvil ni apartar la vista de la ruta. La compañía lo ha confirmado en su blog corporativo y en su escaparate anual de logística ("Delivering the Future"): el dispositivo cruza visión por ordenador y modelos de IA para superponer, cuando el vehículo está estacionado, indicaciones paso a paso, identificación del paquete correcto y el flujo de tareas de entrega, incluyendo captura de prueba fotográfica. De momento se trata de un desarrollo en pruebas con repartidores de la red DSP en Norteamérica; no hay anuncio para España.

La propuesta —con nombre interno que distintos medios asocian a Project Amelia— no llega huérfana: es la pieza que faltaba a un ecosistema que Amazon ya venía armando en furgonetas eléctricas de Rivian con cámaras y software propio, y en el que destaca VAPR (Vision-Assisted Package Retrieval), una tecnología que proyecta un haz verde sobre el bulto que toca en cada parada para ahorrar segundos dentro del vehículo. La lógica es clara: si la IA ya acelera el "picking" en almacenes, ahora empieza a colonizar los últimos cien metros en calle, con gafas que sustituyen al escáner de mano y al smartphone como interfaz principal.

HUD para mensajería sin manos

En lo técnico, varias crónicas de primera mano describen un visor monocromo brillante que aparece sobre la lente, dos cámaras y micrófono en las gafas y un módulo de control en el chaleco que actúa como "cerebro": ahí residen el procesador y los modelos de IA, con botones físicos (incluido uno de emergencias) y batería intercambiable para aguantar turnos completos, además de modo privacidad que apaga cámaras y audio. Ese "ordenador de pecho" es clave por dos motivos: permite funcionar sin cobertura (procesado en local) y evita recargar de peso el armazón. La ergonomía no es un adorno —lentes fotocromáticas, compatibilidad con graduadas— porque el objetivo es que el repartidor las lleve toda la jornada sin fatiga.

La promesa para operaciones es medible: menos miradas abajo, menos tiempo buscando bultos o destinos y menos errores de entrega. Amazon y varios medios tecnológicos sintetizan los tres grandes casos de uso: navegación peatonal desde la furgoneta hasta la puerta, escaneo y verificación del paquete correcto sin sacar el móvil y prueba de entrega en un toque. En la hoja de ruta están funciones contextuales "proactivas" (alertas por obstáculos, baja iluminación o posible error de puerta) que el sistema iría aprendiendo según patrón de ruta y barrio. El enfoque recuerda al viraje de muchas "smart glasses" de consumo hacia usos profesionales: primero triunfan donde ahorran segundos y reducen fricción.

Del almacén al felpudo

Este movimiento también se entiende mirando al vecindario XR: mientras Meta empuja sus Ray-Ban con pantalla para navegación y mensajería, Amazon apuesta por un vertical hiperconcreto y controlado (reparto) donde tiene datos, flota y métricas para justificar inversión —y, si funciona, escalar—. No es una ocurrencia de una tarde: Reuters y The Verge adelantaron en 2024 que el equipo reorientaba ecosistemas previos (Echo Frames) y que Amelia se probaba con DAs reales; en 2025, la propia Amazon ha pasado del "estamos explorando" al "estamos probando" con pilotos en Norteamérica. La comparación ayuda: donde otros venden estilo, Amazon vende segundos ahorrados por parada.

Quedan preguntas de privacidad, seguridad laboral y adopción: ¿qué guarda la cámara y dónde se procesan las imágenes? ¿cómo se gestiona el consentimiento al tomar pruebas de entrega en portales? ¿qué pasa con el riesgo de distracción si el HUD se activa fuera de las condiciones estipuladas? En todo caso, encaja con el resto de anuncios del evento (robótica Blue Jay, IA Project Eluna): una capa de IA ubicua que reduce fricción desde el centro logístico hasta el felpudo del cliente. El futuro cercano del e-commerce se disputará, literalmente, en el metro final… y Amazon quiere que sus repartidores lo vean sin apartar la vista.