Millones de grabaciones privadas de Ray-Ban Meta terminan en manos de humanos
En 2025, Meta vendió alrededor de 7 millones de lentes inteligentes Ray-Ban equipados con cámara y funciones de inteligencia artificial. El dispositivo, pensado para capturar imágenes y ayudar al usuario mediante comandos de voz, se ha convertido en un éxito comercial. Sin embargo, una investigación periodística internacional acaba de revelar el costo oculto de ese ecosistema tecnológico: la privacidad de millones de personas que nunca dieron su consentimiento.
Según informa el sitio especializado MyPrivacy, el trabajo conjunto de los diarios suecos Svenska Dagbladet y Göteborgs-Posten destapó el funcionamiento interno del sistema que alimenta la IA de estos anteojos. Según el informe, trabajadores contratados en Nairobi, Kenia, revisan manualmente videos y audios capturados por los dispositivos para etiquetar objetos, contextos y situaciones. Ven las grabaciones originales, sin difuminar, muchas de ellas tomadas en contextos íntimos.
Los testimonios de empleados de la empresa de datos Sama (que trabaja con Meta) describen un flujo constante de material extremadamente sensible. Entre el contenido revisado aparecen personas desnudándose, encuentros sexuales, visitas al baño, tarjetas bancarias visibles, documentos médicos o escenas captadas en espacios privados. En muchos casos, las personas grabadas ni siquiera saben que hay una cámara en la habitación.
El sistema funciona de forma relativamente simple. Cuando el usuario activa el asistente diciendo “Hey Meta”, los lentes capturan audio y video que se envían a los servidores de Meta. Desde allí, el material puede terminar en centros de datos donde trabajadores lo revisan para entrenar los algoritmos de inteligencia artificial. Es decir, la IA aprende gracias a la observación directa de escenas reales de la vida cotidiana.
Aquí surge uno de los puntos más controvertidos y es que solo el usuario que lleva los anteojos acepta los términos de uso. Las demás personas que aparecen en las grabaciones, como familiares, amigos, compañeros de trabajo o desconocidos, no han dado ningún tipo de consentimiento, aunque sus imágenes o conversaciones puedan terminar siendo analizadas por revisores a miles de kilómetros de distancia.
El caso abre un debate cada vez más urgente en el mundo tecnológico, qué ocurre con la privacidad de quienes simplemente están cerca de un dispositivo inteligente. En un escenario donde millones de lentes con cámara circulan en espacios públicos y privados, la pregunta ya no es solo qué datos comparte el usuario, sino cuántas personas pueden terminar siendo parte involuntaria del entrenamiento de la IA.
Reino Unido pide explicaciones a Meta
Mientras la polémica crece, las autoridades del Reino Unido también han puesto el foco en este tema, según informa The Registrer. La ICO, el organismo encargado de supervisar la protección de datos en el país, confirmó que está solicitando explicaciones a la compañía tras estas revelaciones.
El regulador británico considera “preocupantes” las acusaciones y quiere saber cómo Meta está cumpliendo la legislación de protección de datos. Desde Meta señalan que estas revisiones ocurren solo en determinados casos y que los usuarios pueden gestionar o eliminar sus grabaciones, pero el episodio vuelve a recordar que detrás de muchas herramientas “impulsadas por IA” sigue habiendo personas observando el contenido que los algoritmos aún no pueden interpretar.


