GitHub anunció hoy una actualización significativa en su política de uso de datos para la inteligencia artificial. A partir del 24 de abril, la interacción de los usuarios en Copilot alimentará el entrenamiento de los modelos. Esta medida afecta específicamente a las cuentas de los planes gratuitos y profesionales de la plataforma. La compañía busca entregar asistencia de programación más inteligente y consciente del contexto actual.
La información recopilada incluye entradas, salidas y fragmentos de código asociados a las consultas realizadas. También se consideran el contexto alrededor de la posición del cursor y las sugerencias aceptadas por el programador. Los usuarios de Copilot Business y Enterprise no se ven afectados por este cambio drástico en la privacidad. El objetivo es refinar el entendimiento del comportamiento del código en entornos reales de trabajo.
Aquellos que no deseen participar pueden desactivar la opción en la configuración de privacidad del panel de control. Las preferencias anteriores de exclusión se mantendrán vigentes para garantizar la continuidad de la protección de datos. GitHub afirma que esta elección se preserva y sus datos no se usarán para formación sin consentimiento explícito. Los usuarios pueden cambiar su estado en cualquier momento desde la interfaz de ajuste.
Los modelos iniciales se construyeron con datos públicos y muestras de código elaboradas manualmente en el pasado reciente. Este año, la compañía ha incorporado datos reales de empleados de Microsoft para refinar el rendimiento técnico. Las mejoras observadas indican que los datos de interacción permiten un mejor entendimiento de los flujos de trabajo. Estas actualizaciones buscan aumentar las tasas de aceptación en múltiples lenguajes de programación.
El programa no utiliza datos de repositorios privados en reposo ni contenido de problemas o discusiones internas. GitHub especifica que procesa código de repositorios privados solo durante el uso activo del servicio en tiempo real. Esta interacción es necesaria para ejecutar el servicio pero requiere la exención si se desea evitar el entrenamiento. La distinción entre activo y reposo es clave para la transparencia del proceso.
Los datos pueden compartirse con afiliados de GitHub, incluyendo Microsoft dentro de la familia corporativa global. No se compartirán con proveedores de modelos de inteligencia artificial de terceros ni con proveedores de servicios independientes. Esta restricción busca mantener la seguridad de la información dentro del ecosistema controlado por la empresa. El acceso limitado reduce los riesgos de fuga de información sensible a competidores externos.
La política se alinea con las prácticas establecidas en la industria actual para el desarrollo de herramientas de software. Participar ayuda a los modelos a entender mejor los patrones de sugerencias de código más precisos y útiles. Los usuarios que contribuyen permiten detectar errores potenciales antes de que lleguen a producción operativa. Esto representa un estándar emergente en el sector tecnológico para el aprendizaje automático.
Mario Rodriguez, director de producto en GitHub, destacó que el futuro depende de datos de desarrolladores reales. Su equipo ha trabajado durante veinte años en la creación de herramientas específicas para desarrolladores expertos. Rodriguez supervisó la estrategia de inteligencia artificial y el crecimiento de Copilot en miles de organizaciones globales. Su visión prioriza la colaboración entre humanos y máquinas para mejorar la seguridad del código.
Si se prefiere no participar, las funciones de inteligencia artificial seguirán estando disponibles completamente sin restricciones. La compañía afirma que construir herramientas que sirvan a toda la comunidad requiere esta colaboración activa. Juntos se puede acelerar los flujos de trabajo para construir software más seguro y eficiente. La experiencia del usuario se mantiene intacta independientemente de la opción de privacidad seleccionada.
Los interesados pueden consultar la página de preguntas frecuentes para más detalles sobre la privacidad y el uso. La implementación comenzará en la próxima semana según el calendario establecido por la empresa de manera oficial. Se espera que esta medida genere discusión sobre el equilibrio entre privacidad y mejora de modelos de aprendizaje. El sector observará cómo esta decisión influye en las políticas de otros proveedores de herramientas.