<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE root>
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:ali="http://www.niso.org/schemas/ali/1.0/" article-type="research-article" dtd-version="1.2" xml:lang="en"><front><journal-meta><journal-id journal-id-type="publisher-id">RUDN Journal of Engineering Research</journal-id><journal-title-group><journal-title xml:lang="en">RUDN Journal of Engineering Research</journal-title><trans-title-group xml:lang="ru"><trans-title>Вестник Российского университета дружбы народов. Серия: Инженерные исследования</trans-title></trans-title-group></journal-title-group><issn publication-format="print">2312-8143</issn><issn publication-format="electronic">2312-8151</issn><publisher><publisher-name xml:lang="en">Peoples’ Friendship University of Russia named after Patrice Lumumba (RUDN University)</publisher-name></publisher></journal-meta><article-meta><article-id pub-id-type="publisher-id">47077</article-id><article-id pub-id-type="doi">10.22363/2312-8143-2025-26-3-266-272</article-id><article-id pub-id-type="edn">YICUJW</article-id><article-categories><subj-group subj-group-type="toc-heading" xml:lang="en"><subject>Articles</subject></subj-group><subj-group subj-group-type="toc-heading" xml:lang="ru"><subject>Статьи</subject></subj-group><subj-group subj-group-type="article-type"><subject>Research Article</subject></subj-group></article-categories><title-group><article-title xml:lang="en">Generating Realistic Images of Oil and Gas Infrastructure in Satellite Imagery Using Diffusion Models</article-title><trans-title-group xml:lang="ru"><trans-title>Генерация реалистичных изображений нефтегазовой инфраструктуры на космических снимках с использованием диффузионных моделей</trans-title></trans-title-group></title-group><contrib-group><contrib contrib-type="author"><contrib-id contrib-id-type="orcid">https://orcid.org/0000-0001-8163-9663</contrib-id><contrib-id contrib-id-type="spin">7266-5340</contrib-id><name-alternatives><name xml:lang="en"><surname>Lobanov</surname><given-names>Vasily K.</given-names></name><name xml:lang="ru"><surname>Лобанов</surname><given-names>Василий Константинович</given-names></name></name-alternatives><bio xml:lang="en"><p>Senior Lecturer of the Department of Mechanics and Control Processes, Academy of Engineering</p></bio><bio xml:lang="ru"><p>старший преподаватель кафедры механики и процессов управления, инженерная академия</p></bio><email>lobanov_vk@pfur.ru</email><xref ref-type="aff" rid="aff1"/></contrib><contrib contrib-type="author"><contrib-id contrib-id-type="orcid">https://orcid.org/0009-0008-8526-9143</contrib-id><name-alternatives><name xml:lang="en"><surname>Kondrashina</surname><given-names>Mariia S.</given-names></name><name xml:lang="ru"><surname>Кондрашина</surname><given-names>Мария Сергеевна</given-names></name></name-alternatives><bio xml:lang="en"><p>Master student of the Department of Mechanics and Control Processes, Academy of Engineering</p></bio><bio xml:lang="ru"><p>магистрант кафедры механики и процессов управления, инженерная академия</p></bio><email>1132236536@rudn.ru</email><xref ref-type="aff" rid="aff1"/></contrib><contrib contrib-type="author"><contrib-id contrib-id-type="orcid">https://orcid.org/0009-0006-1570-4133</contrib-id><name-alternatives><name xml:lang="en"><surname>Gadzhiev</surname><given-names>Shamil M.</given-names></name><name xml:lang="ru"><surname>Гаджиев</surname><given-names>Шамиль Магомедэминович</given-names></name></name-alternatives><bio xml:lang="en"><p>Master student of the Department of Mechanics and Control Processes, Academy of Engineering</p></bio><bio xml:lang="ru"><p>магистрант кафедры механики и процессов управления, инженерная академия</p></bio><email>1132236511@rudn.ru</email><xref ref-type="aff" rid="aff1"/></contrib><contrib contrib-type="author"><contrib-id contrib-id-type="orcid">https://orcid.org/0009-0009-0261-7374</contrib-id><name-alternatives><name xml:lang="en"><surname>Sokibekov</surname><given-names>Maksad Sh.</given-names></name><name xml:lang="ru"><surname>Сокибеков</surname><given-names>Максад Ширинбекович</given-names></name></name-alternatives><bio xml:lang="en"><p>Master student of the Department of Architecture, Restoration and Design, Academy of Engineering</p></bio><bio xml:lang="ru"><p>магистрант кафедры архитектура, реставрация и дизайн, инженерная академия</p></bio><email>1032185455@rudn.ru</email><xref ref-type="aff" rid="aff1"/></contrib></contrib-group><aff-alternatives id="aff1"><aff><institution xml:lang="en">RUDN University</institution></aff><aff><institution xml:lang="ru">Российский университет дружбы народов</institution></aff></aff-alternatives><pub-date date-type="pub" iso-8601-date="2025-11-11" publication-format="electronic"><day>11</day><month>11</month><year>2025</year></pub-date><volume>26</volume><issue>3</issue><issue-title xml:lang="en">VOL 26, NO3 (2025)</issue-title><issue-title xml:lang="ru">ТОМ 26, №3 (2025)</issue-title><fpage>266</fpage><lpage>272</lpage><history><date date-type="received" iso-8601-date="2025-11-11"><day>11</day><month>11</month><year>2025</year></date></history><permissions><copyright-statement xml:lang="en">Copyright ©; 2025, Lobanov V.K., Kondrashina M.S., Gadzhiev S.M., Sokibekov M.S.</copyright-statement><copyright-statement xml:lang="ru">Copyright ©; 2025, Лобанов В.К., Кондрашина М.С., Гаджиев Ш.М., Сокибеков М.Ш.</copyright-statement><copyright-year>2025</copyright-year><copyright-holder xml:lang="en">Lobanov V.K., Kondrashina M.S., Gadzhiev S.M., Sokibekov M.S.</copyright-holder><copyright-holder xml:lang="ru">Лобанов В.К., Кондрашина М.С., Гаджиев Ш.М., Сокибеков М.Ш.</copyright-holder><ali:free_to_read xmlns:ali="http://www.niso.org/schemas/ali/1.0/"/><license><ali:license_ref xmlns:ali="http://www.niso.org/schemas/ali/1.0/">https://creativecommons.org/licenses/by-nc/4.0</ali:license_ref></license></permissions><self-uri xlink:href="https://journals.rudn.ru/engineering-researches/article/view/47077">https://journals.rudn.ru/engineering-researches/article/view/47077</self-uri><abstract xml:lang="en"><p>This study investigated the feasibility of applying machine learning methods, specifically generative models, for semantic editing of satellite imagery. The research focused on an architecture based on diffusion models capable of generating desirable objects directly on satellite images. However, significant shortcomings were identified in the standard model with regard to realism and relevance to the surrounding context, given the specific nature of the chosen subject area, namely the generation of realistic images of oil and gas infrastructure objects (such as pipelines). To address this limitation, fine-tuning of the neural network was performed. The objective of the fine-tuning was to enhance the quality of visualizing pipeline-related design solutions. A methodological approach for creating training dataset was proposed and described in detail. Based on actual pipeline routes, spatially referenced vector layers were created in QGIS, and a set of satellite image tiles with precise pipeline boundary annotations was generated. The results of the experimental fine-tuning demonstrated a significant improvement in the quality of generated images depicting oil and gas infrastructure objects in satellite imagery compared to the original, non-adapted model. The developed fine-tuned model enables highly realistic pipeline generation, effectively integrating them into the existing landscape within the image. Visual comparison of results before and after fine-tuning confirms the elimination of artifacts and the achievement of the required level of detail. This work demonstrates the effectiveness of the approach involving the creation of specific datasets and fine-tuning for solving specialized visualization tasks in remote sensing.</p></abstract><trans-abstract xml:lang="ru"><p>В рамках исследования была изучена возможность применения методов машинного обучения, в частности генеративных моделей, для семантического редактирования космических снимков. Основное внимание уделено актуальной архитектуре на основе диффузионных моделей, способной генерировать целевые объекты непосредственно на спутниковых изображениях. Однако ввиду специфики выбранной предметной области - генерации реалистичных изображений объектов нефтегазовой инфраструктуры (таких как трубопроводы) были обнаружены существенные недостатки стандартной модели в части реализма и соответствия окружающему контексту. Для решения данной проблемы проводилось дообучение нейронной сети. Цель дообучения - улучшение качества визуализации проектных решений, связанных с трубопроводами. Предложен и детально описан методический подход к формированию специализированного обучающего набора данных. На основе реальных трасс трубопроводов в QGIS созданы пространственно привязанные векторные слои; сгенерирован набор тайлов космических снимков с точными аннотациями границ труб. Результаты экспериментального дообучения модели продемонстрировали значимое улучшение качества генерируемых изображений объектов нефтегазовой инфраструктуры на космических снимках по сравнению с показателями исходной, неадаптированной модели. Разработанная дообученная модель обеспечивает высокореалистичную генерацию трубопроводов, корректно интегрируя их в существующий ландшафт на снимке. Визуальное сравнение результатов до и после дообучения подтверждает устранение артефактов и достижение необходимого уровня детализации. Работа подтверждает эффективность подхода с формированием предметно-ориентированных датасетов и дообучением для решения специфических задач визуализации в ДЗЗ.</p></trans-abstract><kwd-group xml:lang="en"><kwd>earth remote sensing</kwd><kwd>neural network</kwd><kwd>generative models</kwd><kwd>machine learning</kwd><kwd>semantic editing</kwd></kwd-group><kwd-group xml:lang="ru"><kwd>дистанционное зондирование Земли</kwd><kwd>нейронные сети</kwd><kwd>генеративные модели</kwd><kwd>машинное обучение</kwd><kwd>семантическое редактирование</kwd></kwd-group><funding-group><award-group><funding-source><institution-wrap><institution xml:lang="ru">Статья подготовлена при поддержке Министерства науки и высшего образования Российской Федерации в рамках выполнения государственного задания по соглашению № 075-03-2024-059 (FSSF-2024-0005).</institution></institution-wrap><institution-wrap><institution xml:lang="en">This paper has been supported by the Ministry of Science and Higher Education of the Russian Federation under Agreement No. FSSF-2024-0005.</institution></institution-wrap></funding-source></award-group></funding-group></article-meta><fn-group/></front><body></body><back><ref-list><ref id="B1"><label>1.</label><mixed-citation>Immanuel SA, Cho W, Heo J, Kwon D. Tackling Few-Shot Segmentation in Remote Sensing via Inpainting Diffusion Model. ICLR 2025 Machine Learning for Remote Sensing (ML4RS) Workshop. 2025. https://doi.org/10.48550/arXiv.2503.03785</mixed-citation></ref><ref id="B2"><label>2.</label><mixed-citation>Rombach R, Blattmann A, Lorenz D, Esser P, Ommer B. High-Resolution Image Synthesis with Latent Diffusion Models. 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR); 2022 June 18-24; New Orleans, LA, USA. IEEE. 2022:10674-10685. https://doi.org/10.1109/CVPR52688.2022.01042</mixed-citation></ref><ref id="B3"><label>3.</label><mixed-citation>Panboonyuen T, Charoenphon C, Satirapod C. SatDiff: A Stable Diffusion Framework for Inpainting Very High-Resolution Satellite Imagery. IEEE Access. 2025;13:51617-51631. https://doi.org/10.1109/ACCESS.2025.3551782</mixed-citation></ref><ref id="B4"><label>4.</label><mixed-citation>Kingma DP, Welling M. Auto-Encoding Variational Bayes (Version 11). International Conference on Learning Representations (ICLR). 2014. https://doi.org/10.48550/ARXIV.1312.6114</mixed-citation></ref><ref id="B5"><label>5.</label><mixed-citation>Ronneberger O, Fischer P, Brox T. U-Net: Convo-lutional networks for biomedical image segmentation. Medical Image Computing and Computer-Assisted Inter-vention MICCAI. 2015;9351;234-241. https://doi.org/10.48550/arXiv.1505.04597</mixed-citation></ref><ref id="B6"><label>6.</label><mixed-citation>Radford A, Kim JW, Hallacy C, Ramesh A, Goh G, Agarwal S, et al. Learning Transferable Visual Models from Natural Language Supervision. Proceedings of the 38th International Conference on Machine Learning, PMLR. 2021;139:8748-8763. https://doi.org/10.48550/ARXIV.2103.00020</mixed-citation></ref><ref id="B7"><label>7.</label><mixed-citation>Liu F, Chen D, Guan Z, Zhou X, Zhu J, Ye Q, et al. RemoteCLIP: A Vision Language Foundation Model for Remote Sensing. IEEE Transactions on Geoscience and Remote Sensing. 2024;62:1-16. https://doi.org/10.1109/TGRS.2024.3390838</mixed-citation></ref><ref id="B8"><label>8.</label><mixed-citation>He K, Zhang X, Ren S, Sun J. Deep Residual Learning for Image Recognition. The IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2016;770-778. https://doi.org/10.48550/ARXIV.1512.03385</mixed-citation></ref><ref id="B9"><label>9.</label><mixed-citation>Dosovitskiy A, Beyer L, Kolesnikov A, Weissenborn D, Zhai X, Unterthiner T, et al. An Image is Worth 16×16 Words: Transformers for Image Recognition at Scale. International Conference on Learning Representations (ICLR 2021). https://doi.org/10.48550/ARXIV.2010.11929</mixed-citation></ref><ref id="B10"><label>10.</label><mixed-citation>Immanuel SA, Cho W, Heo J, Kwon D. Tackling Few-Shot Segmentation in Remote Sensing via Inpainting Diffusion Model. ICLR 2025 Machine Learning for Remote Sensing (ML4RS) Workshop. 2025. https://doi.org/10.48550/arXiv.2503.03785</mixed-citation></ref></ref-list></back></article>
