Que te cuenten lo que hacen con tus conversaciones de Copilot se me hace raro. Yo he visto que esto no es como un cuaderno de notas que tienes en tu casa. Es más bien como si el sistema tuviera una memoria súper larga que no está del todo bajo tu control.
Resulta que cuando inicias sesión, todas tus conversaciones se guardan automáticamente durante 18 meses. Todo lo que hablas con él, se almacena. Y lo más llamativo es que Copilot tiene algo llamado «Memoria», que extrae detalles clave de tus chats para «personalizar» las respuestas futuras.
Si le dijiste que vas a Japón, semanas después puede sugerirte qué llevar. Si no quieres eso, tienes que ir a Configuración y desactivar la «Personalización» explícitamente. Pero ojo, si lo haces, los datos que ya ha inferido tardan hasta 30 días en borrarse del sistema.
Para ver lo que guardó, tienes que abrir la barra lateral izquierda en copilot.com, en la app de escritorio o en la móvil. Ahí está el historial completo. Pero eso es solo lo que tú ves.
El control sobre estos datos es engañoso. Puedes borrar conversaciones una por una: en la web y el móvil son tres puntos, en el escritorio es click derecho. Y puedes borrar todo desde el panel de privacidad de tu cuenta. Ahí es donde se ve la diferencia clara entre usar una cuenta personal (como Outlook) y una del trabajo o la universidad.
El verdadero problema está en lo que no controlas. En el caso de GitHub Copilot, es especialmente turbio. En foros de la comunidad hay desarrolladores muy preocupados.
Según las condiciones del servicio, el plugin envía fragmentos de los archivos que editas, las sugerencias que aceptas y tus modificaciones a GitHub, Microsoft y OpenAI, para «diagnóstico y mejora del producto».
Aunque dicen que no usan ese código para sugerencias a otros usuarios, es un envío de datos constante. Si estás trabajando en un repositorio privado o en código de tu empresa, ese material viaja a servidores de terceros.
Esto hace que muchos digan que no lo usarían jamás en proyectos comerciales o privados sin un permiso explícito. La opción para «permitir que GitHub use mis fragmentos de código para mejoras del producto» está en la configuración, pero la gente duda mucho de que desactivarla realmente detenga el envío de datos a los servidores donde se procesa la IA.
La única forma segura de pedir la eliminación de tus datos, según esos mismos términos, es contactarlos y pedir ser removido de la vista previa técnica.
El botón de compartir es otro punto que te expone. Te genera un enlace que muestra la conversación completa o una sola respuesta. Microsoft advierte: «cualquier usuario con el vínculo puede acceder a él».
Si generas un enlace y sigues chateando, el destinatario no ve lo nuevo, pero esa captura fija de tu conversación ya está fuera de tu alcance. Imagina que por error preguntaste algo delicado o dejaste un dato en la respuesta, eso queda expuesto para siempre en ese enlace.
Microsoft tiene documentación de seguridad densa y habla de defensas multicapa y «contención por diseño».
Dicen que el respeto a los permisos de tu empresa (Microsoft Entra ID) y las directivas de cumplimiento está integrado. Pero es una capa de seguridad de la plataforma, no te da a ti como usuario un control granular.
El historial se guarda en prácticamente todas las apps: Word, Excel, PowerPoint, Outlook, Teams, OneNote, incluso Whiteboard y Forms. Cuando borras el historial, se borra de todas a la vez, no puedes elegir. Es borrado masivo o nada.
Mi conclusión es que usar estos Copilots, especialmente en contextos laborales con información sensible, requiere que seas muy consciente.
No es una herramienta pasiva. Tus preguntas, tu código, tus errores, alimentan el sistema y dejan un rastro que es más difícil de borrar de lo que parece. La transparencia brilla por su ausencia y el peso de proteger tu propia actividad recae casi completamente en ti.