<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE root>
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:ali="http://www.niso.org/schemas/ali/1.0/" article-type="research-article" dtd-version="1.2" xml:lang="en"><front><journal-meta><journal-id journal-id-type="publisher-id">Discrete and Continuous Models and Applied Computational Science</journal-id><journal-title-group><journal-title xml:lang="en">Discrete and Continuous Models and Applied Computational Science</journal-title><trans-title-group xml:lang="ru"><trans-title>Discrete and Continuous Models and Applied Computational Science</trans-title></trans-title-group></journal-title-group><issn publication-format="print">2658-4670</issn><issn publication-format="electronic">2658-7149</issn><publisher><publisher-name xml:lang="en">Peoples' Friendship University of Russia named after Patrice Lumumba (RUDN University)</publisher-name></publisher></journal-meta><article-meta><article-id pub-id-type="publisher-id">8579</article-id><article-categories><subj-group subj-group-type="toc-heading" xml:lang="en"><subject>Articles</subject></subj-group><subj-group subj-group-type="toc-heading" xml:lang="ru"><subject>Статьи</subject></subj-group><subj-group subj-group-type="article-type"><subject>Research Article</subject></subj-group></article-categories><title-group><article-title xml:lang="en">Gaze Tracking Acceleration using CUDA Technology</article-title><trans-title-group xml:lang="ru"><trans-title>Повышение быстродействия системы слежения за взглядом на основе CUDA технологии</trans-title></trans-title-group></title-group><contrib-group><contrib contrib-type="author"><name-alternatives><name xml:lang="en"><surname>Sibirtseva</surname><given-names>E A</given-names></name><name xml:lang="ru"><surname>Сибирцева</surname><given-names>Елена Алекссевна</given-names></name></name-alternatives><bio xml:lang="en">Department of Computer Science</bio><bio xml:lang="ru">Департамент компьютерных наук</bio><email>elsibirtseva@gmail.com</email><xref ref-type="aff" rid="aff1"/></contrib><contrib contrib-type="author"><name-alternatives><name xml:lang="en"><surname>Gostev</surname><given-names>I M</given-names></name><name xml:lang="ru"><surname>Гостев</surname><given-names>Иван Михайлович</given-names></name></name-alternatives><bio xml:lang="en">Department of Computer Science</bio><bio xml:lang="ru">Департамент компьютерных наук</bio><email>igostev@gmail.com</email><xref ref-type="aff" rid="aff1"/></contrib></contrib-group><aff-alternatives id="aff1"><aff><institution xml:lang="en">National Research University Higher School of Economic</institution></aff><aff><institution xml:lang="ru">Национальный исследовательский университет «Высшая школа экономики»</institution></aff></aff-alternatives><pub-date date-type="pub" iso-8601-date="2014-04-15" publication-format="electronic"><day>15</day><month>04</month><year>2014</year></pub-date><issue>4</issue><issue-title xml:lang="en">NO4 (2014)</issue-title><issue-title xml:lang="ru">№4 (2014)</issue-title><fpage>68</fpage><lpage>84</lpage><history><date date-type="received" iso-8601-date="2016-09-08"><day>08</day><month>09</month><year>2016</year></date></history><permissions><copyright-statement xml:lang="ru">Copyright ©; 2014, Сибирцева Е.А., Гостев И.М.</copyright-statement><copyright-year>2014</copyright-year><copyright-holder xml:lang="ru">Сибирцева Е.А., Гостев И.М.</copyright-holder><ali:free_to_read xmlns:ali="http://www.niso.org/schemas/ali/1.0/"/><license><ali:license_ref xmlns:ali="http://www.niso.org/schemas/ali/1.0/">http://creativecommons.org/licenses/by/4.0</ali:license_ref></license></permissions><self-uri xlink:href="https://journals.rudn.ru/miph/article/view/8579">https://journals.rudn.ru/miph/article/view/8579</self-uri><abstract xml:lang="en">Low-cost gaze tracking systems are in great demand due to their wide range of application. Commonly, extra devices are needed (for instance, head mounted cameras); however, in this investigation gaze tracking is performed in real-time based on the video stream from an infrared video camera. A comparative analysis of the existing analogues was executed and the main features of gaze tracking systems were highlighted and prioritized. These features are price, tracking accuracy, angle error, flexibility, and usability. A methodology was developed which allows to calculate a gaze direction vector according to the relative position of eye center and corneal reflection from an infrared diode. The centers of an eye and reflection are estimated using the vector field of image gradients and additional weighting. CUDA technology is used to accelerate the developed algorithms. The main advantage of the developed algorithm is the ability to detect and continuously track pupils’ centers, regardless of the head position, which significantly extends the scope of the gaze tracking system under consideration.</abstract><trans-abstract xml:lang="ru">В нынешнее время бюджетные системы слежения за взглядом пользуются большим спросом в связи с широким сектором их применения, как в промышленности, так и в персональном использовании. Как правило, для наблюдения за взглядом человека необходимы дополнительные устройства (например, носимые на голове камеры), однако в данном исследовании отслеживание взгляда происходит в реальном времени и основано на входном видеопотоке с инфракрасной камеры. Для выяснения актуальности данной разработки был проведён сравнительный анализ существующих аналогов и выделены основные характеристики систем слежения за взглядом. Данными характеристиками являются цена, точность слежения, угловая ошибка, гибкость системы и удобство использования. Была разработана методика, которая позволяет производить расчёт вектора направления взгляда исходя из взаимного расположения центра зрачка и блика на роговице глаза от инфракрасного диода. Центры зрачков и бликов вычисляются, используя векторное поле градиентов исходного изображения и дополнительную матрицу весов. Технология CUDA применяется для ускорения работы данного алгоритма. Основное преимущество разработанного алгоритма заключается в том, что изменение положения головы не влияет на обнаружение зрачка и слежение за взглядом, что значительно расширяет область применения данной системы слежения за взглядом.</trans-abstract><kwd-group xml:lang="en"><kwd>image processing</kwd><kwd>GPU</kwd><kwd>AHP</kwd><kwd>gaze-tracking</kwd><kwd>human-computer interaction</kwd><kwd>infrared illumination</kwd><kwd>CUDA</kwd><kwd>parallel computing</kwd></kwd-group><kwd-group xml:lang="ru"><kwd>обработка изображений</kwd><kwd>слежение за взглядом</kwd><kwd>человеко-машинное взаимодействие</kwd><kwd>инфракрасная подсветка</kwd><kwd>параллельные вычисления</kwd></kwd-group></article-meta></front><body></body><back><ref-list><ref id="B1"><label>1.</label><mixed-citation>Fischer B., Ramsperger E. Human Express Saccades: Extremely Short Reaction Times of Goal Directed Eye Movements // Experimental Brain Research. - 1984. - Vol. 57, No 1. - Pp. 191-195.</mixed-citation></ref><ref id="B2"><label>2.</label><mixed-citation>Buswell G. T. Fundamental Reading Habits // Supplementary Educational Monographs. - 1922. - No 21.</mixed-citation></ref><ref id="B3"><label>3.</label><mixed-citation>Real-Time Volume Graphics / K. Engel, M. Hadwiger, J. M. Kniss et al. - Ak Peters Natick, 2006. - Pp. 112-114.</mixed-citation></ref><ref id="B4"><label>4.</label><mixed-citation>Cornsweet T. N. Visual Perception. - New York: Academic, 1970.</mixed-citation></ref><ref id="B5"><label>5.</label><mixed-citation>Gonzalez R. C., Woods R. E. Digital Image Processing. - New York: Prentice Hall Upper Saddle River, 2002.</mixed-citation></ref><ref id="B6"><label>6.</label><mixed-citation>NVIDIA, CUDA. - Accessed: 29.05.2014. http://www.nvidia.com/object/ cuda_home_new.html, accessed: 29.05.2014.</mixed-citation></ref><ref id="B7"><label>7.</label><mixed-citation>Saaty T. L., Peniwati K. Group Decision Making: Drawing Out and Reconciling Differences. - RWS Publications, 2008.</mixed-citation></ref><ref id="B8"><label>8.</label><mixed-citation>Eye-Com Corporation. - Accessed: 16.02.2014. http://eyecomcorp.com, accessed: 16.02.2014.</mixed-citation></ref><ref id="B9"><label>9.</label><mixed-citation>EagleEyes. The Opportunity Foundation of America. - Accessed: 16.02.2014. http://www.opportunityfoundationofamerica.org/, accessed: 16.02.2014.</mixed-citation></ref><ref id="B10"><label>10.</label><mixed-citation>Tobii Eye Tracking Research. - Accessed: 16.02.2014. http://www.tobii.com/ en/eye-tracking-research/global/, accessed: 16.02.2014.</mixed-citation></ref><ref id="B11"><label>11.</label><mixed-citation>Saaty T. L. Revista de la real academia de ciencias exactas, fisicas y naturales // Serie A: Matematicas. - 2008. - Vol. 102, No 2. - Pp. 251-318.</mixed-citation></ref><ref id="B12"><label>12.</label><mixed-citation>OpenCV. - Accessed: 29.05.2014. http://opencv.org/, accessed: 29.05.2014.</mixed-citation></ref><ref id="B13"><label>13.</label><mixed-citation>Microsoft. - Accessed: 29.05.2014. http://www.microsoft.com/en-us/ kinectforwindows, accessed: 29.05.2014.</mixed-citation></ref></ref-list></back></article>
