Comparando Métodos de Aprendizagem Profunda para a Seleção de Precondicionadores

Authors

  • Michael Souza UFC
  • Luiz Mariano Carvalho UERJ
  • Douglas Augusto FOC
  • Jairo Panetta ITA
  • Paulo Goldfeld UFRJ
  • José R. P. Rodrigues CENPES/Petrobras

DOI:

https://doi.org/10.5540/03.2026.012.01.0262

Keywords:

computação de alto desempenho (HPC), sistemas lineares esparsos, métodos iterativos, escolha de precondicionadores, rede neural convolucional, classificação multi-classe

Abstract

Em computação de alto desempenho (HPC), a solução eficiente de grandes sistemas lineares esparsos é fundamental, sendo os métodos iterativos a escolha predominante, cuja performance está ligada ao precondicionador escolhido. Apresentamos uma representação da esparsidade de matrizes por meio de imagens RGB. Utilizando uma rede neural convolucional (CNN), a tarefa de seleção do precondicionador se transforma em um problema de classificação multi-classe. Testes com 126 matrizes da coleção SuiteSparse enfatizam a adequação do modelo CNN, observando um aumento de 32% na acurácia e uma redução de 25% no tempo de execução.

Downloads

Download data is not yet available.

References

J. Ackmann et al. Machine-Learned Preconditioners for Linear Solvers in Geophysical Fluid Flows. 2020. doi: 10.48550/arXiv.2010.02866.

S. Balay et al. PETSc/TAO Users Manual. Rel. técn. ANL-21/39 - Revision 3.20. Argonne National Laboratory, 2023. doi: 10.2172/1968587.

M. Barreda et al. “Performance modeling of the sparse matrix–vector product via convolutional neural networks”. Em: The Journal of Supercomputing 76.11 (2020), pp. 8883–8900. doi: 10.1007/s11227-020-03186-1.

F. Chollet et al. Keras. Acessado em 01/09/2023, https://keras.io. 2015.

L. Gasparini et al. “Hybrid parallel iterative sparse linear solver framework for reservoir geomechanical and flow simulation”. Em: Journal of Computational Science 51 (2021), p. 101330. issn: 1877-7503. doi: 10.1016/j.jocs.2021.101330.

M. Götz et al. “Machine learning-aided numerical linear algebra”. Em: 2018 IEEE/ACM 9th ScalA. IEEE. 2018, pp. 49–56. doi: 10.1109/ScalA.2018.00010.

I. Guyon et al. “An introduction to feature extraction”. Em: Feature extraction: foundations and applications. Springer, 2006, pp. 1–25. doi: 10.1007/978-3-540-35488-8_1.

S. P. Kolodziej et al. “The SuiteSparse Matrix Collection Website Interface”. Em: Journal of Open Source Software 4.35 (2019), p. 1244. doi: 10.21105/joss.01244.

S. B. Kotsiantis et al. “Supervised Machine Learning”. Em: Emerging Artificial Intelligence Applications in Computer Engineering. Ed. por I. Maglogiannis. Vol. 160. Frontiers in Artificial Intelligence and Applications. Amsterdam: IOS Press, 2007, pp. 3–24. isbn: 9781586037802.

Z. Li et al. “A survey of convolutional neural networks: analysis, applications, and prospects”. Em: IEEE Trans. on neural net. and learn. sys. 33.12 (2022), pp. 6999–7019. doi: 10.1109/TNNLS.2021.3084827.

M. Abadi et al. TensorFlow: Large-Scale Machine Learning on Heterogeneous Systems. Acessado em 01/09/2023, https://www.tensorflow.org. 2015. doi: 10.5555/1953048.2078195.

F. Pedregosa et al. “Scikit-learn: Machine Learning in Python”. Em: Journal of Machine Learning Research 12.85 (2011), pp. 2825–2830. url: http://jmlr.org/papers/v12/pedregosa11a.html.

W. Rawat et al. “Deep Convolutional Neural Networks for Image Classification”. Em: Neural Computation 29.9 (2017), pp. 2352–2449. doi: 10.1162/neco_a_00990.

Y. Saad. Iterative methods for sparse linear systems. SIAM, 2003. isbn: 978-0-89871-534-7.

M. Souza et al. A Comparison of Image and Scalar-Based Approaches in Preconditioner Selection. 2023. doi: 10.48550/arXiv.2312.15747.

K. Yamada et al. “Preconditioner auto-tuning using deep learning for sparse iterative algorithms”. Em: 2018 Sixth CANDARW. IEEE. 2018, pp. 257–262. doi: 10.1109/CANDARW.2018.00055.

Published

2026-02-13

Issue

Section

Trabalhos Completos