Адаптивный нейросетевой метод многомерного интегрирования для произвольных подобластей

Обложка

Цитировать

Полный текст

Аннотация

Многомерное интегрирование является фундаментальной задачей вычислительной математики, имеющей многочисленные приложения в физике и инженерии. Традиционные численные методы, такие как квадратура Гаусса--Лежандра и методы Монте-Карло, сталкиваются со значительными трудностями в пространствах высокой размерности из-за «проклятия размерности»: они требуют больших вычислительных ресурсов и часто теряют точность. В данной работе предлагается адаптивный метод многомерного интегрирования, основанный на нейронной сети, для эффективного вычисления интегралов по произвольным подобластям. Подход оптимизирует состав обучающей выборки с помощью параметра балансировки $\rho $, который регулирует долю точек, сгенерированных методом, использующим модификацию алгоритма Метрополиса--Гастингса, по сравнению с равномерным выбором. Это позволяет нейронной сети эффективно определять сложное поведение подынтегральной функции, особенно в областях с резкими изменениями. Ключевым элементом данного метода является принцип «обучи один раз --- интегрируй где угодно»: одна нейронная сеть, обученная на большом домене, может впоследствии вычислять интегралы на любых произвольных подобластях без повторного обучения, что значительно снижает вычислительные затраты. Эксперименты проведены на трёх типах функций --- квадратичной, Corner Peak и синусе суммы квадратов --- в размерностях от 2 до 6. Точность интегрирования оценивалась с помощью метрики Correct Digits (CD). Результаты показывают, что наш метод обеспечивает сравнимую или более высокую точность по сравнению с традиционными методами (Гаусс--Лежандр, Монте-Карло, Халтона) для сложных функций, при этом существенно сокращая время вычислений. Оптимальные диапазоны $\rho $ составляют 0.0--0.2 для гладких функций и 0.3--0.5 для функций с резкими особенностями. В многомерных случаях (4D,6D) метод демонстрирует устойчивость при $\rho = 0.2\text {--}0.6$, превосходя стохастические методы, хотя и немного уступая латинскому гиперкубическому выбору. Предложенный метод представляет собой масштабируемую и эффективную альтернативу классическим методам интегрирования, особенно полезную в задачах высокой размерности и в приложениях, требующих многократного вычисления интегралов на различных подобластях.

Об авторах

М. Р. Щербак

Российский университет дружбы народов

Email: 1032216537@rudn.ru
ORCID iD: 0000-0002-9229-2535

Student of Department of Computational Mathematics and Artificial Intelligence 

Россия, ул. Миклухо-Маклая, д. 6, Москва, 117198, Российская Федерация

Л. Р. Абдуллина

Российский университет дружбы народов

Email: 1032216538@rudn.ru
ORCID iD: 0000-0002-3918-3620

Student of Department of Computational Mathematics and Artificial Intelligence 

Россия, ул. Миклухо-Маклая, д. 6, Москва, 117198, Российская Федерация

С. И. Салпагаров

Российский университет дружбы народов

Email: salpagarov-si@rudn.ru
ORCID iD: 0000-0002-5321-9650
Scopus Author ID: 57201380251

Candidate of Physical and Mathematical Sciences, associate Professor of Department of Computational Mathematics and Artificial Intelligence

Россия, ул. Миклухо-Маклая, д. 6, Москва, 117198, Российская Федерация

В. М. Федорищев

Российский университет дружбы народов

Автор, ответственный за переписку.
Email: 1142230295@rudn.ru
ORCID iD: 0009-0003-5906-9993

Student of Department of Computational Mathematics and Artificial Intelligence 

Россия, ул. Миклухо-Маклая, д. 6, Москва, 117198, Российская Федерация

Список литературы

  1. Press, W. H., Teukolsky, S. A., Vetterling, W. T. & Flannery, B. P. Numerical Recipes: The Art of Scientific Computing 3rd (Cambridge University Press, Cambridge, UK, 2007).
  2. McKay, M. D., Beckman, R. J. & Conover, W. J. A Comparison of Three Methods for Selecting Values of Input Variables in the Analysis of Output from a Computer Code. Technometrics 21, 239–245. doi: 10.1080/00401706.1979.10489755 (1979).
  3. Bassi, H., Zhu, Y., Liang, S., Yin, J., Reeves, C. C., Vlček, V. & Yang, C. Learning nonlinear integral operators via recurrent neural networks and its application in solving integro-differential equations. Machine Learning with Applications 15, 100524. doi: 10.1016/j.mlwa.2023.100524 (Mar. 2024).
  4. Maître, D. & Santos-Mateos, R. Multi-variable integration with a neural network. Journal of High Energy Physics 2023, 221. doi: 10.1007/JHEP03(2023)221 (Mar. 2023).
  5. Li, S., Huang, X., Wang, X., et al. A new reliability analysis approach with multiple correlation neural networks method. Soft Computing 27, 7449–7458. doi: 10.1007/s00500-022-07685-6 (June 2023).
  6. Subr, K. Q-NET: A Network for Low-dimensional Integrals of Neural Proxies. Computer Graphics Forum 40, 61–71. doi: 10.1111/cgf.14341 (2021).
  7. Beck, C., Becker, S., Cheridito, P., Jentzen, A. & Neufeld, A. Deep Splitting Method for Parabolic PDEs. SIAM Journal on Scientific Computing 43, A3135–A3154. doi: 10.1137/19M1297919 (2021).
  8. Wan, M., Pan, Y. & Zhang, Z. A Physics-Informed Neural Network Integration Framework for Efficient Dynamic Fracture Simulation in an Explicit Algorithm. Applied Sciences 15, 10336. doi: 10.3390/app151910336 (2025).
  9. Nowak, A., Kustal, D., Sun, H. & Blaszczyk, T. Neural network approximation of the composition of fractional operators and its application to the fractional Euler-Bernoulli beam equation. Applied Mathematics and Computation 501, 129475. doi: 10.1016/j.amc.2025.129475 (2025).
  10. Brunner, K. J., Fuchert, G., de Amorim Resende, F. B. L., Knauer, J., Hirsch, M., Wolf, R. C. & the W7-X Team. Auto-encoding quadrature components of modulated dispersion interferometers. Plasma Physics and Controlled Fusion 67. Special Issue on the 6th European Conference on Plasma Diagnostics (ECPD 2025), 105007. doi: 10.1088/1361-6587/ae0a80 (Oct. 2025).
  11. Saxena, S., Bastek, J.-H., Spinola, M., Gupta, P. & Kochmann, D. M. GNN-assisted phase space integration with application to atomistics. Mechanics of Materials 182, 104681. doi:10.1016/j. mechmat.2023.104681 (July 2023).
  12. Saz Ulibarrena, V., Horn, P., Portegies Zwart, S., Sellentin, E., Koren, B. & Cai, M. X. A hybrid approach for solving the gravitational N-body problem with Artificial Neural Networks. Journal of Computational Physics 496, 112596. doi: 10.1016/j.jcp.2023.112596 (Jan. 2024).
  13. Hu, Z., Shukla, K., Karniadakis, G. E. & Kawaguchi, K. Tackling the curse of dimensionality with physics-informed neural networks. Neural Networks 176, 106369. doi: 10.1016/j.neunet.2024. 106369 (Aug. 2024).
  14. Cho, J., Nam, S., Yang, H., Yun, S.-B., Hong, Y. & Park, E. Separable PINN: Mitigating the Curse of Dimensionality in Physics-Informed Neural Networks 2023.
  15. Ayriyan, A., Grigorian, H. & Papoyan, V. Sampling of Integrand for Integration Using Shallow Neural Network. Discrete and Continuous Models and Applied Computational Science 32, 38–47 (2024).
  16. Metropolis, N., Rosenbluth, A. W., Rosenbluth, M. N., Teller, A. H. & Teller, E. Equation of State Calculations by Fast Computing Machines. The Journal of Chemical Physics 21, 1087–1092. doi: 10.1063/1.1699114 (1953).
  17. Hastings, W. K. Monte Carlo sampling methods using Markov chains and their applications. Biometrika 57. _eprint: https://academic.oup.com/biomet/article-pdf/57/1/97/23940249/57-197.pdf, 97–109. doi: 10.1093/biomet/57.1.97 (Apr. 1970).
  18. Lloyd, S. Using Neural Networks for Fast Numerical Integration and Optimization. IEEE Access 8, 84519–84531. doi: 10.1109/ACCESS.2020.2991966 (2020).
  19. Cybenko, G. Approximation by superpositions of a sigmoidal function. Mathematics of Control Signals and Systems 2, 303–314. doi: 10.1007/BF02551274 (Dec. 1989).
  20. Marquardt, D. W. An Algorithm for Least-Squares Estimation of Nonlinear Parameters. Journal of the Society for Industrial and Applied Mathematics 11. Publisher: Society for Industrial and Applied Mathematics, 431–441. doi: 10.1137/0111030 (June 1963).
  21. Genz, A. A Package for Testing Multiple Integration Subroutines in Numerical Integration: Recent Developments, Software and Applications (eds Keast, P. & Fairweather, G.) 337–340 (Springer, 1987). doi: 10.1007/978-94-009-3889-2_33.
  22. Anikina, A. et al. Structure and Features of the Software and Information Environment of the HybriLIT Heterogeneous Platform in Distributed Computer and Communication Networks (eds Vishnevsky, V. M., Samouylov, K. E. & Kozyrev, D. V.) 444–457 (Springer Nature Switzerland, Cham, 2025). doi: 10.1007/978-3-031-80853-1_33.
  23. Abadi, M. et al. TensorFlow: Large-Scale Machine Learning on Heterogeneous Systems Software available from tensorflow.org. 2015.
  24. Halton, J. H. On the efficiency of certain quasi-random sequences of points in evaluating multidimensional integrals. Numerische Mathematik 2, 84–90. doi: 10.1007/BF01386213 (1960).

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Щербак М.Р., Абдуллина Л.Р., Салпагаров С.И., Федорищев В.М., 2025

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial 4.0 International License.