Novasinergia 2026, 9(1), 06-20 19
Contribuciones de los autores
Conceptualización, F.J.C.V. y G.M.G.B.; metodología, F.J.C.V. y G.M.G.B.;
investigación, F.J.C.V. y G.M.G.B.; validación, F.J.C.V. y G.M.G.B.; redacción—revisión y
edición, F.J.C.V. y G.M.G.B. Todos los autores han leído y aprobado la versión publicada
del manuscrito.
Conflicto de Interés
Los autores manifiestan que no existe ningún tipo de conflicto de interés, ya sea,
financiero, personal o académico, que pueda influir en los resultados y conclusiones de este
estudio.
Declaración sobre el uso de Inteligencia Artificial Generativa
En la preparación de este artículo, se utilizó Microsoft Copilot para apoyo en la
redacción preliminar, revisión gramatical y estructuración de secciones conforme a la
taxonomía CRediT. Todo el contenido fue revisado y aprobado por los autores.
Referencias
[1] R. Zhao, R. Yan, Z. Chen, K. Mao, P. Wang, y R. X. Gao, “Deep learning and its applications to machine
health monitoring,” Mechanical Systems and Signal Processing, vol. 115, pp. 213–237, ene. 2019, doi:
10.1016/j.ymssp.2018.05.050.
[2] Z. Zhu, Y. Lei, G. Qi, Y. Chai, N. Mazur, Y. An, y X. Huang, “A review of the application of deep
learning in intelligent fault diagnosis of rotating machinery.” Measurement, vol 206, ene. 2023, doi:
10.1016/j.measurement.2022.112346.
[3] S. Hochreiter y J. Schmidhuber, “Long short-term memory,” Neural Computation, vol. 9, no. 8, pp. 1735–
1780, nov. 1997, doi: 10.1162/neco.1997.9.8.1735.
[4] A. Vaswani et al., “Attention is all you need,”2017, arXiv, doi: 10.48550/arXiv.1706.03762.
[5] J. Devlin, M.-W. Chang, K. Lee, y K. Toutanova, “BERT: Pre-training of deep bidirectional
transformers for language understanding,” 2018, arXiv, doi: 10.48550/arXiv.1810.04805.
[6] C. Raffel et al., “Exploring the limits of transfer learning with a unified text-to-text transformer,” 2019,
arXiv, doi: 10.48550/arXiv.1910.10683.
[7] H. Guo, S. Yuan, y X. Wu, “LogBERT: Log Anomaly Detection via BERT,” 2021 International Joint
Conference on Neural Networks (IJCNN). IEEE, pp. 1-8, jul. 18, 2021. doi:
10.1109/ijcnn52387.2021.9534113.
[8] Z. He, D. He, M. Xiao, A. Lou, y G. Lai, “Convolutional Transformer-inspired autoencoder for
hyperspectral anomaly detection,” IEEE Geosci. Remote Sens. Lett., vol. 20, pp. 1-5, 2023, doi:
10.1109/LGRS.2023.3312589.
[9] X. Zhou, Y. Wu, J. Li, y C. Song, “Anomaly detection in rotating machinery vibration signals based on
domain transformation and transformer,” IEEE 7th Information Technology, Networking, Electronic and
Automation Control Conference (ITNEC). IEEE, pp. 163–167, sep. 20, 2024, doi:
10.1109/ITNEC60942.2024.10732926.
[10] S. Jiang, Y. Jiang, Y. Wang, X. Zhang, y Z. Zhang, “Anomaly detection in spacecraft telemetry data
based on transformer-LSTM,” 2023 International Conference on Intelligent Communication and Networking
(ICN). IEEE, pp. 271-276, nov. 10, 2023. doi: 10.1109/icn60549.2023.10426290.
[11] L. Cheng, Q. Yao, G. Zhu, L. Xiang, y A. Hu, “A novel transformer network for anomaly detection of
wind turbines,” 2024 International Conference on Sensing, Measurement & Data Analytics in the
era of Artificial Intelligence (ICSMD). IEEE, pp. 1–6, oct. 31, 2024, doi:
10.1109/ICSMD64214.2024.10920508.