Dinámica inversa basada en trayectorias para el entrenamiento de redes neuronales Informe técnico preliminar / Preprint, 2025

Alexey A. Nekludoff

ORCID: 0009-0002-7724-5762

DOI: 10.5281/zenodo.17833718

05 diciembre 2025

Idioma original del artículo: Inglés

PDF
Canonical Version (Zenodo DOI):
Local Mirror (Astraverge.org):

Resumen

Este informe desarrolla una formulación del entrenamiento de redes neuronales basada en trayectorias, en la que el aprendizaje se expresa como un problema de dinámica inversa. Una red feedforward se trata como un sistema dinámico discreto cuya pasada hacia adelante genera una trayectoria de estados internos. En lugar de minimizar una función de pérdida, el entrenamiento se plantea como la determinación de los operadores de transición que producen una trayectoria que termina en una salida deseada.

Derivamos las ecuaciones de dinámica inversa para arquitecturas generales, mostramos cómo se conectan con principios variacionales discretos y condiciones de Euler–Lagrange, y analizamos propiedades estructurales como el determinismo, la no unicidad y la existencia de soluciones. Para sistemas lineales, el problema inverso admite soluciones en forma cerrada; para sistemas no lineales, la formulación por trayectorias proporciona una base para paradigmas alternativos de entrenamiento que operan directamente sobre el cómputo interno.

Los resultados establecen una base matemática para métodos de entrenamiento que apuntan a la dinámica interna en lugar de a superficies de error, abriendo caminos hacia nuevos enfoques de aprendizaje, controlabilidad y corrección de modelos.

La versión completa del artículo está disponible en: https://astraverge.org/en/p/10041 (en Inglés).