Monarch, una organización de ingeniería, ha publicado su filosofía interna sobre la implementación de la inteligencia artificial en el desarrollo de software, buscando equilibrar la productividad con la estabilidad operativa. Este documento, compartido públicamente tras generar debate en plataformas como HackerNews, aborda la incertidumbre que rodea la adopción de herramientas de IA generativa.
La directriz central de Monarch es explorar la vanguardia tecnológica, pero adoptar sus herramientas con una aproximación atenuada, manteniéndose un paso detrás de la "sangre" o el borde más inestable. Adoptar herramientas demasiado nuevas conlleva el riesgo de "thrash", o inestabilidad debido a cambios constantes, y expone a la organización a riesgos de seguridad no probados en batalla, lo cual es crítico para su enfoque basado en la confianza.
Para mantener este conocimiento del límite, Monarch destinará recursos a la exploración organizada y empoderará a ingenieros individuales en entornos seguros, como prototipos o hackathones. El aprendizaje debe ser compartido rigurosamente dentro de la organización para asegurar que la decisión de retrasar la adopción sea informada, no reactiva.
Un principio innegociable es que el ingeniero mantiene la propiedad y la responsabilidad total sobre cualquier código o documento publicado, independientemente del uso de asistencia por IA. Dado que la IA carece de rendición de cuentas, el factor humano es quien garantiza la calidad, evitando sobrecargar a revisores o, peor aún, a los usuarios finales con trabajo no validado.
La compañía también advierte contra la pereza intelectual, instando a los desarrolladores a realizar el "pensamiento profundo" por sí mismos, delegando solo las tareas de esfuerzo y repetición a la IA. Si bien la IA puede generar un borrador rápido, el valor de un informe profundo reside en la disciplina de pensamiento que impone al escritor, un valor que se pierde al delegar la creación fundamental.
Monarch sostiene que la IA no reemplazará al ingeniero cuyo trabajo es resolver problemas mediante software, sino a aquellos cuya función es meramente teclear código. Esta transformación exige que los profesionales se centren en el juicio, la lógica y la conexión contextual que las máquinas aún no replican.
Finalmente, la organización promueve el diseño cuidadoso de bucles de validación y verificación, tanto automatizados por la IA como humanos. En entornos seguros, como prototipos conceptuales o herramientas internas, Monarch sugiere usar agentes de IA de manera más liberal, permitiendo un enfoque inicial de "construir y luego pensar" en lugar del tradicional "pensar y luego construir".