En los últimos días volvió a crecer el debate sobre la privacidad de los lentes inteligentes Meta de Ray-Ban. El disparador fue una investigación periodística que describe cómo funciona el detrás de escena de la IA cuando el usuario le pide al asistente “Hey Meta” que analice lo que está viendo. La preocupación no es solo que los lentes graben, sino las instancias de revisión humana del material, donde aparece material extremadamente sensible.

La discusión tomó volumen a partir de un trabajo conjunto de los diarios suecos Svenska Dagbladet y Göteborgs-Posten. Ese reporte describe un circuito de subcontratación en el que trabajadores en Nairobi, Kenia, etiquetan y validan material vinculado a interacciones con la IA de los anteojos. En testimonios citados por los periodistas, los trabajadores relatan “videos perturbadores”, que incluyen escenas íntimas como personas desnudándose, situaciones en baños, y hasta sexo. Además, también se reportaron capturas accidentales de información privada, como datos bancarios. El punto más delicado es que parte de ese material se registra en momentos cotidianos, cuando el usuario no necesariamente dimensiona que una consulta a la IA puede activar un circuito de revisión o entrenamiento.
Los lentes inteligentes
Los Ray-Ban Meta cuentan con una cámara y micrófonos con parlantes open-ear, y se apoyan en una app para gestionar capturas y activar funciones de IA, como descripciones de escenas, traducción y respuestas por voz.
Según el reporte, el problema surge cuando el usuario no solo graba y guarda, sino que graba y le pregunta a la IA. Para responder, el sistema manda audio, imagen o video a la nube, para entrar a procesos de evaluación o entrenamiento donde intervienen personas. En ese escenario, además, cualquier error de filtrado o de anonimización expone a terceros que nunca consintieron aparecer en un registro.
Con la escalada de las ventas, este se volvió un problema global. En su informe de resultados 2025, EssilorLuxottica, socio industrial de Meta y grupo dueño de Ray-Ban, informó que las unidades vendidas de lentes inteligentes superaron los 7 millones anuales.
La privacidad: un problema común en las aplicaciones de la nube
En la investigación, Meta remite a sus términos y políticas para explicar cómo se procesa el contenido cuando se usa “live AI”. El problema es que esos documentos contemplan revisión humana sin detallar con precisión alcances, límites o salvaguardas en lenguaje fácil para el usuario.
En paralelo, Meta formalizó cambios de privacidad alrededor de los lentes y el asistente. The Verge reportó que se eliminó la opción de impedir que las grabaciones de voz se almacenen en la nube, aunque se pueden borrar manualmente, y que la retención puede llegar a hasta un año. Esto también figura en el aviso oficial de privacidad de controles de voz para lentes inteligentes.
Este caso también encaja en un contexto más amplio. La IA moderna se sostiene con trabajo humano de moderación, evaluación y etiquetado de datos, muchas veces tercerizado. En 2023, TIME expuso el uso de mano de obra tercerizada en Kenia para tareas durísimas vinculadas a entrenamiento de IA, reabriendo el debate sobre condiciones laborales y costo humano del trabajo invisible detrás de estos sistemas.
Tal vez te interese: Cincuenta mil millones de dólares en IA: Meta construirá su mayor centro de datos en Luisiana












