En abril de 2026, la BBC informó que un exingeniero de Meta está siendo investigado por descargar 30.000 fotos privadas de Facebook. Fue arrestado en noviembre de 2025. La policía metropolitana de Londres dice que diseñó un programa para eludir los controles de seguridad internos de Meta.
Meta afirma que descubrió el incidente más de un año antes de que la noticia se hiciera pública, que despidió al empleado y que remitió el caso a las autoridades.
Es una respuesta honesta. Lo que merece detenerse a pensar viene antes. Antes de todo eso, un ingeniero de una de las empresas tecnológicas más grandes del mundo tenía suficiente acceso interno para construir una herramienta que extrajo silenciosamente 30.000 fotos privadas.
Eso no es una excepción. Así está construida la mayor parte del almacenamiento en la nube.
Este es el problema que nos propusimos hacer imposible por diseño en Abrio. Cómo lo hicimos viene más adelante; primero, por qué sigue ocurriendo en todos los demás casos.
El acceso interno está normalizado
La mayoría de los servicios de almacenamiento en la nube les da a algunos empleados la capacidad de leer datos de los usuarios. A veces para soporte. A veces para combatir el spam y los abusos. A veces para cumplimiento legal. Se supone que ese acceso esté controlado por políticas, capacitación y registros de auditoría.
Las políticas y los registros de auditoría no impiden el acceso. En el mejor de los casos, detectan el mal uso una vez que ya ocurrió.
Algunos ejemplos que son de dominio público:
- Snapchat (2019). Una herramienta interna llamada SnapLion, creada originalmente para gestionar las solicitudes de las fuerzas del orden, se extendió a varios equipos internos. Dos exempleados le dijeron a Motherboard que la herramienta se había usado para espiar a usuarios “unas cuantas veces”. (Vice/Motherboard)
- Google (2010). Un ingeniero de fiabilidad de sitio llamado David Barksdale fue despedido por acceder a las cuentas de cuatro menores, incluyendo los registros de llamadas de Google Voice y la lista de contactos de un chico de 15 años. Google dijo que era el segundo despido de este tipo. Un documento interno filtrado, reportado más tarde por Vice, indicaba que decenas de empleados habían sido despedidos por mal uso de datos a lo largo de los años. (TechCrunch)
- Uber (2014–2016). Empleados usaron una herramienta llamada “God View” para rastrear a periodistas, celebridades y exparejas. La fiscalía general del estado de Nueva York llegó a un acuerdo con Uber que exigía límites de acceso y autenticación multifactor. (CBS News)
- Meta (2025–2026). El caso al inicio de este artículo.
Empresas distintas. Décadas distintas. El mismo patrón: una persona con acceso interno legítimo lo usó para algo que no debía. Las empresas terminaron por enterarse. Las personas cuyas fotos fueron vistas, en su mayoría, nunca lo supieron.
Por qué pasa esto
Cuando un servicio guarda tus fotos de una forma en la que la empresa puede leerlas, “la empresa puede leerlas” no significa únicamente que un director ejecutivo apruebe una solicitud. Quiere decir que los sistemas están diseñados para que los datos sean accesibles. A partir de ahí, la pregunta pasa a ser quién, cuándo y bajo qué controles.
Incluso controles sólidos dejan una ventana abierta. Cualquiera con acceso de mantenimiento a los sistemas de producción es, en principio, una persona que podría leer tus fotos si decidiera saltarse las reglas. La única forma de cerrar esa ventana es diseñar el sistema para que nadie dentro de la empresa tenga las claves de cifrado desde el principio.
Cómo se ve “sin acceso interno” en la práctica
Apple ofrece el ejemplo más claro entre las opciones de gran consumo. Su configuración de Protección de datos avanzada cifra de extremo a extremo las fotos de iCloud. La propia documentación de Apple afirma: “nadie más puede acceder a tus datos cifrados de extremo a extremo, ni siquiera Apple”. (Apple Support)
Esa frase es la vara con la que medirse.
El truco está en la configuración por defecto. La Protección de datos avanzada es de activación voluntaria, y las estimaciones de adopción la sitúan en menos del 10 % de los usuarios de iCloud. Sin ella, Apple tiene las claves de cifrado de tus fotos como todos los demás, y se aplica la misma pregunta sobre el acceso interno. La mayoría de los usuarios de iCloud nunca la ha activado, a menudo porque no sabe que existe.
Cómo Abrio aborda esto
Abrio está construido de modo que no podamos ver tus fotos.
Los archivos se cifran en tu dispositivo con claves de cifrado que nosotros no tenemos. Llegan a nuestros servidores ya cifrados, y permanecen así. No hay una herramienta interna que nos deje verlos, ni un flujo de soporte que los exponga, ni un panel de administración donde alguien pueda buscar dentro de la biblioteca de un usuario. No porque prometamos no mirar. Porque no podemos.
Esa decisión tiene sus contrapartidas. No podemos recuperar tu cuenta si pierdes la contraseña como sí pueden hacerlo los servicios que conservan las claves. Cambiamos algo de comodidad por una propiedad que, para nosotros, importa más: nadie en Abrio puede hacer lo que hizo un ingeniero de Meta. Nos sacamos a nosotros mismos del circuito a propósito.
Las afirmaciones sobre el cifrado son fáciles de hacer. La más difícil es que la empresa que guarda tus fotos genuinamente no pueda verlas. Esa es la que vale la pena verificar antes de confiarle tu biblioteca a nadie.
Si un servicio en la nube que elimina por diseño la pregunta del acceso interno suena a lo que estás buscando, anótate en nuestra lista de espera.
Únete a la lista de espera
Sé de los primeros en experimentar Abrio cuando lancemos.
Al registrarte, aceptas nuestros Términos y nuestra Política de Privacidad — ambos escritos para ser leídos.