John Rush completó un proyecto ambicioso para analizar datos de consumo familiar acumulados durante un cuarto de siglo. Utilizó agentes de inteligencia artificial para procesar más de 11.000 recibos digitales desde el año 2001. El objetivo era rastrear específicamente el precio de los huevos a través de las fluctuaciones económicas.
El proyecto requirió 14 días de ejecución y consumió aproximadamente 1.6 mil millones de tokens de procesamiento. Rush seleccionó este ítem específico porque representa un desafío técnico constante en la extracción de datos. Encontró 589 recibos que contenían información relevante sobre la compra de huevos.
Los problemas iniciales surgieron con escaneos antiguos donde el papel blanco se confundía con la superficie del escáner. Los métodos clásicos de visión por computadora fallaron para delimitar los bordes de los recibos correctamente. La herramienta SAM3 de Meta logró una confianza del 92% al identificar los límites en segundos.
El reconocimiento óptico de caracteres presentó dificultades con impresiones térmicas desgastadas y textos ilegibles. El motor Tesseract a menudo omitía decimales o producía errores graves en los precios. Rush evaluó modelos locales como PaddleOCR-VL para mejorar la limpieza del texto antes del análisis.
Los agentes de codificación Codex y Claude gestionaron la extracción estructurada y la lógica del flujo de trabajo. Cuando los tokens se agotaron, el sistema cambió automáticamente entre modelos para continuar el procesamiento. Esta orquestación permitió manejar la complejidad de miles de archivos sin intervención manual constante.
La precisión final alcanzó más del 99% mediante el uso de ejemplos de aprendizaje para entrenar un clasificador. Los errores iniciales fueron mayormente causados por abreviaturas de tiendas o problemas de escaneo. El equipo validó los resultados con herramientas de etiquetado manual para asegurar la integridad de los datos.
Este caso demuestra que las arquitecturas de modelos especializados superan a las soluciones únicas para tareas complejas. La combinación de segmentación visual y extracción de lenguaje natural ofrece un camino viable para la archivística digital. El enfoque permite recuperar valor de datos que antes parecían inaccesibles por su deterioro.
El desarrollador planea extender el análisis a un periodo de 30 años para observar tendencias más amplias. Los resultados sugieren que la inteligencia artificial puede resolver problemas de legado tecnológico en tiempo récord. Se espera que estas metodologías se apliquen en investigaciones económicas futuras similares.