Meta ha encontrado una nueva veta de entrenamiento para sus modelos de inteligencia artificial: la oficina de al lado. La compañía está implementando herramientas internas para registrar cada movimiento de ratón y pulsación de teclado de sus propios empleados. El objetivo oficial es ambicioso: entrenar agentes autónomos capaces de navegar por interfaces complejas como lo haría un humano.
No es un experimento menor. Estamos ante el reconocimiento tácito de que los datos públicos de internet se están agotando. A mi juicio, este movimiento es la señal más clara de la desesperación por obtener datos procedimentales. Ya no basta con ingerir todo el texto escrito en la web; ahora necesitan entender la intención detrás de un clic.
La escasez como motor de la vigilancia interna
La estrategia de Meta busca resolver el problema de la "automatización de tareas". Si quieren que sus modelos operen software empresarial, necesitan replicar la ineficiencia humana y el razonamiento detrás de un flujo de trabajo. Sin embargo, el precedente es peligroso. Al convertir a sus empleados en sujetos de prueba involuntarios, la empresa está estirando los límites de lo que consideramos "datos de entrenamiento".
Esto ocurre en un momento donde la industria ha entrado en una fase de canibalismo de datos. La semana pasada vimos cómo archivos históricos de Slack y tickets de Jira de startups extintas están siendo extraídos para alimentar modelos de lenguaje. La lógica es simple: si no hay más libros o artículos que leer, devoraremos la comunicación corporativa y el comportamiento digital en tiempo real.
Para los profesionales en América Latina, esto debería encender alarmas sobre la privacidad laboral. Si gigantes como Meta normalizan la captura de telemetría de usuario para entrenamiento de modelos, ¿cuánto tardará este estándar en llegar a herramientas de productividad o software de gestión utilizado por empresas como Mercado Libre o Globant?
La empresa asegura que existen salvaguardas para proteger contenido sensible. El mercado ya lo sabe: las promesas de privacidad son el eslabón más débil en la cadena de desarrollo de IA. Cuando la ventaja competitiva depende de la cantidad de datos, el límite entre lo útil y lo intrusivo desaparece. La pregunta no es si pueden hacerlo, sino cuándo el resto de la industria seguirá sus pasos.
Lo que pocos están viendo es que la verdadera batalla ya no es por el modelo más inteligente, sino por el modelo que mejor imita al trabajador promedio. Si Meta logra que sus agentes emulen el comportamiento de sus empleados, habrán construido la herramienta de automatización más eficiente —y más intrusiva— de la década. No hay vuelta atrás.