JoVE Logo

Войдите в систему

Для просмотра этого контента требуется подписка на Jove Войдите в систему или начните бесплатную пробную версию.

В этой статье

  • Резюме
  • Аннотация
  • Введение
  • протокол
  • Результаты
  • Обсуждение
  • Раскрытие информации
  • Благодарности
  • Материалы
  • Ссылки
  • Перепечатки и разрешения

Резюме

Мы разработали простой, настраиваемый и эффективный метод записи количественных процессуальных данных из интерактивных пространственных задач и сопоставления этих данных вращения с данными отслеживания взгляда.

Аннотация

Представлен метод записи взаимодействия человека с трехмерными (3D) виртуальными объектами в режиме реального времени. Этот подход заключается в связывании данных о вращении объекта, которым манипулируют, с поведенческими показателями, такими как отслеживание взгляда, чтобы сделать более точные выводы о лежащих в основе когнитивных процессах.

Задача состоит в отображении на экране компьютера двух идентичных моделей одного и того же 3D-объекта (молекулы): вращающегося интерактивного объекта (iObj) и статичного целевого объекта (tObj). Участники должны вращать iObj с помощью мыши до тех пор, пока не сочтут, что ее ориентация идентична ориентации tObj. Компьютер отслеживает все данные о взаимодействии в режиме реального времени. Данные о взгляде участника также записываются с помощью айтрекера. Частота измерения составляет 10 Гц на компьютере и 60 Гц на айтрекере.

Данные ориентации iObj относительно tObj записываются в кватернионах вращения. Данные о взгляде синхронизируются с ориентацией iObj и сопоставляются с использованием той же системы. Этот метод позволяет нам получить следующие визуализации процесса взаимодействия человека с iObj и tObj: (1) угловое несоответствие, синхронизированное с другими данными, зависящими от времени; (2) 3D-траектория вращения внутри того, что мы решили назвать «шаром вращений»; (3) Тепловая карта 3D-фиксации. На всех этапах протокола использовалось свободное программное обеспечение, такое как GNU Octave и Jmol, и все скрипты доступны в качестве дополнительного материала.

При таком подходе мы можем проводить детальные количественные исследования процесса решения задач, включающего умственные или физические вращения, а не только достигнутый результат. Можно точно измерить, насколько важна каждая часть 3D-моделей для участника в решении задач, и, таким образом, связать модели с соответствующими переменными, такими как характеристики объектов, когнитивные способности индивидуумов и характеристики человеко-машинного интерфейса.

Введение

Мысленное вращение (МРТ) — это когнитивная способность, которая позволяет людям мысленно манипулировать объектами и вращать их, способствуя лучшему пониманию их особенностей и пространственных отношений. Это одна из зрительно-пространственных способностей, фундаментальная когнитивная группа, которая изучалась еще в 1890году1. Зрительно-пространственные способности являются важным компонентом когнитивного репертуара человека, на который влияют как наследственные факторы, так и факторы окружающей среды 2,3,4,5. Интерес к зрительно-пространственным способностям рос на протяжении всего двадцатого века в связи с растущим количеством доказательств их важности в ключевых предметах, таких как старение и развитие7, успеваемость в науке, технике, инженерии и математике (STEM)8,9, креативность10 и эволюционные черты11.

Современная идея МР проистекает из новаторской работы, опубликованной Шепардом и Метцлером (SM) в 1971году. Они разработали хронометрический метод, используя серию «одинаковых или разных» задач, представляя две проекции абстрактных 3D-объектов, отображаемых бок о бок. Участники должны были мысленно повернуть объекты вокруг какой-либо оси и решить, изображают ли эти проекции один и тот же объект, вращающийся по-разному или разные объекты. В ходе исследования выявлена положительная линейная корреляция между временем отклика (RT) и угловым несоответствием (AD) между представлениями одного и того же объекта. Эта корреляция известна как эффект углового несоответствия (ADE). АДЭ рассматривается как поведенческое проявление МР и стала повсеместной в нескольких влиятельных последующих исследованиях в этой области 13,14,15,16,17,18,19,20,21,22,23,24,25. 3D-объекты, использованные в исследовании SM, состояли из 10 непрерывных кубов, созданных пионером компьютерных графов Майклом Ноллом в Bell Laboratories26. Они называются цифрами СМ и широко используются в исследованиях МРТ.

Два достижения имели большое значение в плодотворной работе Шепарда и Метцлера; во-первых, с учетом вклада в области оценки МР. В 1978 году Вандерберг иКузе разработали психометрический тест из 20 пунктов на основе «одинаковых или разных» цифр SM, который стал известен как тест ментального вращения (VKMRT). Каждый тестовый элемент представляет собой целевой стимул. VKMRT был использован для исследования корреляции между способностями к МРТ и различными другими факторами, такими как гендерные различия 6,21,24,28,29,30, старение и развитие 6,31,32, академическая успеваемость8,33, и навыки в музыке и спорте34. В 1995 году Петерс и др. опубликовали исследование с перерисованными цифрами для VKMRT35,36. Аналогичным образом, следуя схеме задачи «тот же или другой», для исследования процессов МР и оценки способностей МРТ было использовано множество других библиотек сгенерированных компьютером стимулов (3D-версии оригинальных стимулов СМ 19,22,23,37,38; человеческое тело, имитирующее фигуры СМ 25,39,40; плоские многоугольники для двумерного вращения 41); 42, анатомия и органы43, органические формы44, молекулы45,46 и др.21). Тест пространственной визуализации Пердью (PSVT), предложенный Гуэем в 197647 году, также актуален. Он включает в себя целый ряд тестов, в том числе MR (PSVT:R). Используя стимулы, отличные от стимулов в VKMRT, PSVT:R требует от участников определить операцию вращения в модельном стимуле и мысленно применить ее к другому. PSVT:R также широко используется, особенно в исследованиях, изучающих роль МР в достижениях STEM 48,49,50.

Второе достижение, имеющее большое значение в плодотворной работе Шепарда и Метцлера, заключается в вкладе в понимание процесса МРТ, в частности, с использованием устройств слежения за движением глаз. В 1976 году Джаст и Карпентер14 использовали аналоговое видеооборудование для отслеживания глаз для проведения исследования, основанного на эксперименте Шепарда и Метцлера ADE. На основе полученных результатов по саккадическим движениям глаз и РТ они предложили модель МР-процессов, состоящую из трех фаз: 1) фаза поиска, в которой распознаются похожие части фигур; 2) фаза преобразования и сравнения, в которой происходит мысленное вращение одной из выявленных частей; 3) этап утверждения, на котором решается, совпадают цифры или нет. Фазы повторяются рекурсивно до тех пор, пока не будет принято решение. Каждый шаг соответствует определенным саккадическим и фиксирующим паттернам движения глаз в тесной связи с наблюдаемыми ADE. Таким образом, соотнося активность глаз с хронометрическими данными, Джаст и Карпентер обеспечили когнитивную сигнатуру для изучения процессов МРТ. На сегодняшний день эта модель, хоть и с адаптациями, была принята в нескольких исследованиях 15,42,46,51,52,53.

Вслед за этим последовало несколько исследований, отслеживающих поведенческие 18,19,22,23,25,34,40,54,55 и активность мозга 20,22,56,57 Выполнялись функции при вращении стимулов. Их результаты указывают на совместную роль между МРТ и двигательными процессами. Кроме того, растет интерес к исследованию стратегий решения проблем, связанных с МРТ в связи с индивидуальными различиями 15,41,46,51,58.

В целом, можно считать, что дизайн исследований, направленных на понимание процессов МРТ, основан на постановке задачи с визуальными стимулами, которая требует от участников выполнения МРТ-операции, которая, в свою очередь, влечет за собой двигательную реакцию. Если эта реакция позволяет вращать стимулы, ее часто называют физическим вращением (PR). В зависимости от конкретных целей каждого исследования для сбора и анализа данных МРТ и ПР использовались различные стратегии и устройства. На этапе презентации стимула задачи можно изменить типы стимулов (т.е. ранее приведенные примеры); проекция (компьютерные изображения в традиционных дисплеях 22,23,25,29,40,41,59, а также в стереоскопах19 и виртуальной60 и смешанной реальности 43); и интерактивность стимулов (статические изображения 12,27,36, анимация61 и интерактивные виртуальные объекты 19,22,23,43,53,59).

МР обычно выводится из измерений ОТ (ADE), а также глазной и мозговой активности 25,46,62. Глазная активность измеряется с помощью данных айтрекинга, состоящих из саккадических движений и фиксаций 14,15,42,51,52,54,58,60, а также пупиллометрии 40. Данные RT обычно формируются из данных о реакции двигателя, записанных при работе с различными устройствами, такими как рычаги13, кнопки и переключатели14,53, педали53, поворотные ручки19, джойстики37, клавиатура61 и мышь 29,58,60, ведущие колеса53, инерциальные датчики22,23, сенсорные экраны52,59и микрофоны22. Для измерения PR, в дополнение к RT, дизайн исследования также будет включать запись ручных вращений интерактивных стимулов во время выполнения участниками задачиMR 22,23,52,53.

В 1998 году Вольшлегер и Вольшлегериспользовали «те же или разные» задачи с интерактивными виртуальными SM-стимулами, управляемыми ручкой, с вращением, ограниченным одной осью на задачу. Они измерили RT и совокупную запись физических вращений, выполненных во время выполнения задач. Сравнивая ситуации с фактическим вращением интерактивных стимулов и без него, они пришли к выводу, что MR и PR имеют общий процесс как для воображаемых, так и для фактически выполняемых вращений.

В 2014 году были проведены два исследования с использованием одного и того же типа заданий с виртуальными интерактивными стимулами22,23. Тем не менее, объектами манипулировали с помощью инерциальных датчиков, которые фиксировали движение в 3D-пространстве. В обоих случаях, помимо РТ, регистрировались траектории вращения – эволюция разницы во вращении между референсными и интерактивными стимулами во время выполнения заданий. Из этих траекторий можно было извлечь как кумулятивную информацию (т.е. общее количество оборотов, в кватернионных единицах), так и подробную информацию о стратегиях решения. Adams et al.23 изучали кооперативный эффект между MR и PR. Помимо РТ, в качестве параметра точности и объективности разрешения использовался интеграл траекторий вращения. Профили кривых интерпретировались в соответствии с трехступенчатой моделью63 (планирование, большое вращение, тонкая корректировка). Результаты показывают, что МР и ПР не обязательно имеют один общий фактор. Gardony et al.22 собрали данные о RT, точности и вращении в реальном времени. В дополнение к подтверждению взаимосвязи между МР и ПР, анализ траекторий вращения показал, что участники манипулировали цифрами до тех пор, пока не смогли определить, отличаются они или нет. Если бы они были одинаковыми, участники вращали бы их до тех пор, пока они не стали бы выглядеть одинаково.

Продолжая эту стратегию, в 2018 году Wetzel и Bertel52 также использовали интерактивные фигурки SM в «тех же или разных» задачах, используя планшеты с сенсорным экраном в качестве интерфейса. Кроме того, они использовали устройство слежения за движением глаз для получения кумулятивных данных о времени фиксации и саккадической амплитуде как параметрах когнитивной нагрузки, участвующей в решении МР-задач. Авторы подтвердили ранее рассмотренные выше исследования о взаимосвязи между МР и PR и процессами решения задач. Однако в этом исследовании они не использовали фиксационное картирование и данные саккад для стимулов.

Методологические подходы к отображению данных отслеживания движения глаз на виртуальных 3D-объектах были предложены и постоянно совершенствуются, как правило, исследователями, заинтересованными в изучении факторов, связанных со зрительным вниманием в виртуальныхсредах. Несмотря на доступность и использование аналогичных устройств слежения за движением глаз, эти методы, по-видимому, не были эффективно интегрированы в экспериментальный репертуар, используемый в исследованиях мысленного вращения с интерактивными 3D-объектами, подобными упомянутым ранее. С другой стороны, мы не нашли в литературе исследований, в которых сообщалось бы о картографировании данных фиксации и саккадного движения в реальном времени на интерактивных 3D-объектах. Похоже, что не существует удобного метода для простой интеграции данных об активности глаз с траекториями вращения. В этом исследовании мы стремимся внести свой вклад в восполнение этого пробела. Подробно описана процедура, начиная с сбора данных и заканчивая генерацией графического вывода.

В данной работе мы подробно описываем метод исследования процессов мысленного вращения с виртуальными интерактивными 3D-объектами. Особо выделяются следующие достижения. Во-первых, он объединяет количественный поведенческий мотор (вращение объекта с помощью компьютерного интерфейса) и глаз (отслеживание взгляда) данные во время сеансов взаимодействия с виртуальными 3D-моделями. Во-вторых, для этого требуется только обычное компьютерное оборудование и устройства слежения за движением глаз для визуального проектирования задач, сбора, записи и обработки данных. В-третьих, он легко генерирует графические выходные данные для облегчения анализа данных - углового несоответствия, физического вращения, кватернионных траекторий вращения и отображения данных отслеживания взгляда на 3D-виртуальные объекты. Наконец, для этого метода требуется только свободное программное обеспечение. Весь разработанный код и скрипты доступны бесплатно (https://github.com/rodrigocnstest/rodrigocnstest.github.io).

Access restricted. Please log in or start a trial to view this content.

протокол

1. Подготовка инструментов сбора данных

  1. Настройте онлайн-сбор данных (опционально).
    ПРИМЕЧАНИЕ: На этом шаге описывается, как настроить настраиваемый клон кода проекта и рабочей веб-страницы (см. Дополнительный файл 1). Этот шаг был адаптирован из учебных пособий, доступных на https://pages.github.com/ и https://github.com/jamiewilson/form-to-google-sheets. Если пользователей интересует только способ обработки данных, а не их регистрация, они могут использовать веб-страницу https://rodrigocnstest.github.io/iRT_JoVE.html вместе сДополнительная таблица S1 и файлы репозитория в https://github.com/rodrigocns/rodrigocns_JoVE/tree/main/Octave, и пропустите шаги 1.1, 1.2 и его подшаги.
    1. Войдите на GitHub (https://github.com/).
    2. Создайте публичный клон оригинального репозитория страниц GitHub.
      1. Нажмите « Импортировать репозиторий из https://github.com», войдя в учетную запись.
      2. В поле TURL-адрес клонирования старого репозитория вставьте https://github.com/rodrigocns/rodrigocns_JoVE URL-адреса в поле Имя репозитория , введите username.github.io, где username — это имя пользователя, используемое в учетной записи, и убедитесь, что включен параметр Общедоступный . Затем нажмите на зеленую кнопку «Начать импорт».
        ПРИМЕЧАНИЕ: Репозиторий теперь содержит большую часть файлов, необходимых для оставшейся части этой настройки, и любые изменения, внесенные в репозиторий, будут обновлены на веб-сайте через пару минут. Например, пользователь с именем rodrigocnstest получит доступ к своей странице по адресу https://rodrigocnstest.github.io и к репозиторию GitHub по адресу https://github.com/rodrigocnstest/rodrigocnstest.github.io.
    3. Настройте облачную таблицу для хранения данных эксперимента в Интернете.
      1. Зарегистрируйтесь или войдите в аккаунт Google.
      2. Войдя в учетную запись, перейдите к чистому файлу электронных таблиц iRT , доступному по адресу https://docs.google.com/spreadsheets/d/1imsVR7Avn69jSRV8wZYfsPkxvhSPZ73X_9
        Ops1wZrXI/edit?usp=sharing.
      3. В этой таблице нажмите на Файл | Сделайте копию. Появится небольшое окно подтверждения.
      4. В небольшом окне присвойте файлу имя и нажмите на кнопку «Сделать копию ».
    4. Настройте скрипт Google Apps Script, чтобы автоматизировать хранение данных в созданной вами электронной таблице.
      1. Находясь внутри файла таблицы, нажмите на опцию Расширение | Скрипт приложений.
        ПРИМЕЧАНИЕ: Этот сценарий должен быть создан или доступен из электронной таблицы, чтобы он был связан с ней. Попытка создать сценарий извне может не сработать.
      2. Нажмите на кнопку «Выполнить », чтобы запустить скрипт в первый раз.
      3. Нажмите кнопку « Просмотреть разрешения». Появится новое окно. Нажмите на ту же учетную запись, которая использовалась при создании таблицы.
        ПРИМЕЧАНИЕ: Если этот шаг выполняется впервые, может появиться предупреждение о том, что приложение запрашивает доступ к информации из учетной записи. Это безопасно, так как приложение пытается получить доступ к содержимому таблицы и запрашивает разрешение на заполнение ее данными. Если предупреждения не появляются, шаг 1.1.4.4 можно пропустить.
      4. Нажмите на «Дополнительно» | Перейти к разделу Из iRT в таблицы (небезопасно) | Кнопка Разрешить .
        ПРИМЕЧАНИЕ: После выполнения в журнале должно появиться уведомление о том, что выполнение завершено.
      5. На левой скользящей панели нажмите на кнопку «Триггеры » (четвертый значок сверху вниз) | + кнопка «Добавить триггер ».
      6. В разделе Выберите функцию для запуска выберите doPost; в разделе Выбрать источник события выберите Из таблицы; в разделе Выбрать тип события выберите При отправке формы. Затем нажмите «Сохранить». Если появляются всплывающие окна с разрешениями, выполните шаги 1.1.4.3-1.1.4.4. Если браузер в конечном итоге блокирует всплывающее окно, разблокируйте его.
      7. Нажмите на кнопку «Развернуть » в раскрывающемся списке | Новое развертывание.
      8. Наведите указатель мыши на значок шестеренки и убедитесь, что выбран параметр Веб-приложение .
      9. Напишите описание в поле Новое описание , например Развертывание 1; в поле У кого есть доступ выберите Кто угодно и нажмите кнопку Развернуть .
        ПРИМЕЧАНИЕ: Целью поля Новое описание является организация развертывания скриптов. Оно может быть названо по желанию читателя, например, First deployment. Поле «Выполнить как » уже должно отображаться как «Я(email)», где email — это адрес электронной почты, используемый до сих пор.
      10. В новом всплывающем окне скопируйте URL-адрес веб-приложения развертывания скрипта.
        ПРИМЕЧАНИЕ: Если по какой-либо причине вы потеряли скопированный URL-адрес веб-приложения, восстановите его, нажав на выпадающее меню «Развернуть » | Управляйте развертываниями. URL-адрес веб-приложения должен быть там.
      11. Перейдите на страницу по адресу https://github.com/rodrigocnstest/rodrigocnstest.github.io/edit/main/javascript/scripts.js, где rodrigocnstest — это имя пользователя, используемое на GitHub. Замените существующий URL-адрес в строке 5 на скопированный URL-адрес веб-приложения на шаге 1.1.4.10 и нажмите зеленую кнопку Зафиксировать изменения....
        ПРИМЕЧАНИЕ: Скопированное значение URL должно оставаться между одинарными ' ' или двойными " "' кавычками. Убедитесь, что скопирован правильный URL-адрес из веб-приложения.
      12. Наконец, нажмите кнопку подтверждения Commit changes в центре экрана.
    5. Убедитесь, что процесс был завершен правильно и страница работает.
      1. Перейдите в репозиторий по адресу https://github.com/username/username.github.io/, где username — это имя пользователя, используемое на GitHub, и проверьте, было ли развертывание обновлено после изменений, внесенных на шаге 1.4.14.
      2. Перейдите на веб-страницу в https://username.github.io/iRT_JoVE, измените имя пользователя на имя пользователя, используемое в GitHub, а затем нажмите кнопку Далее.
      3. Нажмите «Перейти», выполните любое взаимодействие, щелкнув и перетащив объект справа с помощью мыши, затем нажмите кнопку «ГОТОВО! ».
      4. Вернитесь к файлу таблицы, настроенному на шагах 1.1.3 и 1.1.4, и проверьте наличие новой строки данных при каждом нажатии кнопки ГОТОВО .
  2. Настройте автономный сбор данных (необязательно).
    ПРИМЕЧАНИЕ: Метод, предназначенный для запуска и получения данных задачи интерактивного вращения (iRT), выполняется в режиме онлайн через облачные сервисы, настроенные в соответствии с описанными выше шагами. При желании (поскольку подключение к Интернету может быть проблемой, или для альтернативного способа его выполнения) также можно запустить тест локально с подключением к Интернету или без него в месте, где будет выполняться тест. Следующие шаги являются необязательной альтернативой и описывают, как этого достичь. В противном случае перейдите к шагу 1.3.
    1. Доступ к репозиторию GitHub можно получить по ссылке: https://github.com/rodrigocnstest/rodrigocnstest.github.io. Нажмите на зеленую кнопку < > Код | Загрузите ZIP, а затем распакуйте загруженные файлы.
      ПРИМЕЧАНИЕ: Изменения, внесенные в файлы, хранящиеся локально, не изменят файлы в репозитории, и наоборот. Любые изменения, предназначенные для обеих версий, должны быть применены к обоим расположениям, либо вручную скопировав обновленные файлы, либо с помощью git/GitHub desktop.
    2. Получить последнюю версию Mozilla Firefox можно по ссылке: https://www.mozilla.org/en-US/firefox/new/.
    3. Откройте браузер Mozilla Firefox, введите "about:config" в поле URL, введите "security.fileuri.strict_origin_policy" в поле поиска и измените его значение на false. ПРИМЕЧАНИЕ: Теперь Mozilla Firefox в операционной системе Windows должен иметь возможность локального доступа к загруженным файлам веб-страниц на вашем компьютере. Другие браузеры и операционные системы могут быть настроены на локальную работу, каждый из которых со своей настройкой описан по ссылке http://wiki.jmol.org/index.php/Troubleshooting/Local_Files.
  3. Настройте инструмент обработки данных.
    1. Загрузите и установите последнюю версию GNU Octave на https://octave.org/download.
  4. Настройте устройство слежения за движением глаз.
    1. Убедитесь, что на ноутбуке установлено программное обеспечение системы записи.
    2. Убедитесь, что исследовательская комната чистая и хорошо организована, чтобы не отвлекать внимание.
    3. Используйте искусственное освещение в комнате, чтобы поддерживать равномерное освещение в течение всего дня.
    4. Установите компьютер на стол и убедитесь, что участник может удобно перемещать мышь.
    5. Предоставьте участнику удобный стул, желательно стационарный, чтобы свести к минимуму движения во время испытания.
    6. Подключите один USB-кабель для питания инфракрасной подсветки и другой USB-кабель между ноутбуком/компьютером и устройством отслеживания движения глаз камеры.
    7. Поместите айтрекер под экраном.

2. Сбор данных

  1. Инициализируйте программное обеспечение для сбора данных.
    1. Запустите программное обеспечение для отслеживания движения глаз на компьютере, чтобы получить данные от трекера.
    2. Выберите опцию «Захват экрана » в главном окне программы для захвата взгляда во время эксперимента (также можно использовать эту программу для визуализации тепловой карты и экспорта сырых данных).
    3. Нажмите « Новый проект », чтобы создать новый проект и папку проекта, в которой должны быть сохранены данные.
    4. Откройте тестовую страницу по https://rodrigocnstest.github.io/iRT_JoVE.html если используете предложенную в качестве примера или страницу, созданную на шаге 1.1. Либо откройте файл iRT_JoVE.html локально из ранее настроенного браузера на шаге 1.2.
    5. При необходимости заполните поля имени и электронной почты, чтобы помочь с идентификацией данных, и установите флажок, чтобы загрузить резервную копию созданных данных.
      ПРИМЕЧАНИЕ: При использовании автономного метода (шаг 1.2) рекомендуется загрузить резервные копии.
    6. Попробуйте провести эксперимент один раз, чтобы убедиться, что браузер загрузит элементы корректно и не возникнет проблем с представленными задачами или получением данных.
  2. Запустите эксперимент.
    1. Объясните участнику цель эксперимента, используемую технологию и критерии включения/исключения. Убедитесь, что участник все понял. Попросите участника заполнить форму согласия.
    2. Попросите участника сесть перед системой отслеживания движения глаз и устроиться как можно удобнее.
    3. Перемещайте кресло так, чтобы обеспечить оптимальное расстояние между участником и камерой (идеальная длина — 65 см от айтрекера до глаз участника).
    4. Попросите участника оставаться как можно более неподвижным во время эксперимента. Отрегулируйте высоту камеры, чтобы правильно запечатлеть зрачки участника (некоторые программы выделяют зрачок, чтобы показать отражение роговицы).
    5. Нажмите « Включить автоматическое усиление », чтобы оптимизировать отслеживание зрачков, изменяя усиление камеры до тех пор, пока зрачки не будут найдены (некоторые программы не имеют этой опции).
    6. Попросите участника посмотреть на ряд точек на экране и следить за движением точки, не двигая головой.
    7. Нажмите « Калибровать», чтобы начать калибровку (это гарантирует, что айтрекер сможет отслеживать, куда участник смотрит на экран).
      ПРИМЕЧАНИЕ: Экран погаснет, а калибровочный маркер (точка) будет перемещаться по пяти позициям на экране.
    8. После калибровки на экране будет выведена визуальная оценка точки взгляда для проверки точности калибровки. Попросите участника посмотреть на определенную точку на дисплее, чтобы увидеть, правильно ли будет отображаться взгляд.
    9. Если калибровка неудовлетворительна, отрегулируйте камеру и повторите попытку калибровки, пока система не будет отслеживать взгляд должным образом.
    10. Нажмите кнопку «Собрать данные » в правой части программного обеспечения для отслеживания движения глаз (главное меню), чтобы активировать режим сбора данных. Отображение захваченного экрана в режиме реального времени будет представлено с данными о взгляде, отображаемыми в окне основного дисплея.
    11. Нажмите на кнопку «Смотреть на видео » в главном меню, чтобы отобразить лицо пользователя, снятое айтрекером. Затем нажмите « Начать запись », чтобы начать эксперимент.
      ПРИМЕЧАНИЕ: Во время эксперимента зрачок участника подсвечивается, а его глаз отображается в виде точки, движущейся по экрану ноутбука. Убедитесь, что айтрекер отслеживает зрачок и глаз по всему экрану.
    12. Если точка исчезает или часто мерцает, остановите эксперимент и повторите попытку калибровки.
    13. Откройте ранее открытое окно iRT и скажите участнику, чтобы он нажал кнопку «Далее».
    14. Дайте участнику следующие инструкции: «В этом разделе вы будете выполнять три задания по вращению. Когда вы нажимаете на кнопку GO! , на противоположных сторонах экрана появятся два объекта. Ваша цель состоит в том, чтобы поворачивать объект вправо до тех пор, пока он как можно лучше совпадет с объектом слева. Чтобы повернуть объект, щелкните и перетащите на него мышь. Когда вы закончите выполнение каждого из трех заданий, нажмите на кнопку ГОТОВО! кнопка для завершения».
      ПРИМЕЧАНИЕ: Для каждой задачи любые данные iRT за пределами отметки 5 минут (ровно327-й секунды) могут быть потеряны. По мере дальнейшего развития метода этот предел должен быть расширен.
    15. В конце эксперимента убедитесь, что трекер движения глаз выключен от удлинительного кабеля, и снова наденьте крышку объектива на камеру.
  3. Извлеките данные.
    1. После завершения сбора данных с помощью айтрекера нажмите « Анализировать данные », чтобы получить доступ к собранным данным.
    2. Экспортируйте файл .csv со всеми данными, записанными для пользователя.
      ПРИМЕЧАНИЕ: Первый столбец данных айтрекера должен быть эпохой данных в UNIX, так как это единственный способ правильно сопоставить различные наборы данных во времени. Если файл его не содержит, его следует конвертировать из любого другого используемого стандарта времени. Файл может быть в формате ".csv" или ".xlsx".
    3. Если вы используете онлайн-версию страницы с интерактивной ротацией заданий (шаг 1.1), откройте файл Google Sheets, используемый для получения онлайн-данных (созданный на шаге 1.1.3) и скачайте его, нажав на кнопку Файл | Скачать | Microsoft Excel (.xlsx).
      ПРИМЕЧАНИЕ: Эти данные упакованы для облегчения передачи данных (каждой задаче соответствует одна строка, заполненная данными). Чтобы обработать данные внутри, каждая строка упакованных данных должна быть сначала «распакована».

3. Обработка и анализ данных

  1. Распаковывайте, объединяйте и обрабатывайте данные.
    ПРИМЕЧАНИЕ: Следующие шаги описывают, как обрабатывать данные с помощью предоставленных скриптов (см. Дополнительный файл 2). Сценарии GNU Octave будут запрашивать у пользователя вводимые данные о своих файлах. Если входные данные отправлены как пустые, вместо них будут использоваться значения по умолчанию, ссылающиеся на предоставленные образцы данных, если ни один из пользовательских данных не перезаписал их. После того, как скрипт завершит работу, его можно закрыть.
    1. Загрузите и распакуйте используемый репозиторий (собственный или исходный на https://github.com/rodrigocns/rodrigocns_JoVE), если он еще не был загружен.
    2. Убедитесь, что сценарии 1.unpacking_sheets.m, 2.data_merge_and_process.m, 3.3D rotational trajectory.m, а папка models находятся внутри загруженного репозитория в папке Octave, и переместите файлы данных, загруженные из шагов 2.3.2 и 2.3.3, в ту же папку, где находятся сценарии октавы.
      ПРИМЕЧАНИЕ: Любые существующие файлы, уже находящиеся в папке с теми же именами, что и вновь записанные файлы, могут быть перезаписаны. Соответственно переименуйте или переместите файлы в другую папку.
    3. Откройте скрипт 1.unpacking_sheets.m с помощью GNU Octave Launcher. Во вкладке «Редактор » запустите скрипт, нажав на зеленую кнопку «Сохранить файл и выполнить », чтобы распаковать данные в более удобочитаемую структуру.
      ПРИМЕЧАНИЕ: Если какой-либо из запрошенных файлов данных открыт локально, не забудьте закрыть их перед запуском скрипта. Все файлы скриптов .m были выполнены с помощью GNU Octave Launcher.
    4. Появятся две подсказки, одна за другой. Введите имя загруженного файла в первом запросе и имя распакованного файла во второе поле. В качестве альтернативы оставьте оба поля приглашения пустыми, чтобы использовать имена по умолчанию, предназначенные для включенных образцов файлов. Подождите несколько минут (в зависимости от объема данных), пока появится всплывающее окно, информирующее пользователя о том, что процесс завершен и новый файл записан.
    5. Откройте и запустите скрипт 2.data_merge_and_process.m , чтобы объединить данные из трекера движения глаз и iRT.
      ПРИМЕЧАНИЕ: Несмотря на то, что этот скрипт сложный, охватывающий сотни строк кода, он разделен на три основных раздела: настройки, функции и скрипты. Все они подробно комментируются и объясняются, что облегчает будущие модификации, если это необходимо.
    6. Появятся четыре подсказки. Введите значение sessionID, значение taskID (оба из таблицы данных iRT), неупакованное имя файла данных iRT (описано на шаге 3.1.5) и имя файла данных айтрекера (экспортировано на шаге 2.3.2) или оставьте их все пустыми, чтобы использовать значения по умолчанию.
      ПРИМЕЧАНИЕ: Через несколько минут появится всплывающее окно справки, указывающее, что скрипт завершил вычисления, а также имена используемых и созданных файлов. В процессе написания сценария появятся три примера графиков углового несоответствия: простой график, график с цветными данными взгляда и график с данными о диаметре зрачка. Два созданных файла - это вывод слияния X Y.xlsx и вывод консоли jmol X Y.xlsx, где X - это значение sessionID , а Y - значение taskID , оба они были записаны в начале шага 3.1.6.
  2. Рендеринг 3D-изображений траектории вращения.
    1. Откройте и запустите скрипт 3.3D rotation trajectory.m.
    2. Появятся три подсказки. Введите значение sessionID, значение taskID и имя файла неупакованных данных iRT или оставьте их пустыми, чтобы использовать значения по умолчанию.
      ПРИМЕЧАНИЕ: Появится 3D-график. Визуализируемый график представляет собой траекторию 3D-вращения заданного сеанса и задачи.
  3. Воспроизведите анимацию.
    1. Чтобы воспроизвести взаимодействие участника с заданием, сначала перейдите на веб-страницу интерактивного задания, запустите тест (показывая обе 3D-модели), переместите указатель мыши в правом верхнем углу экрана до тех пор, пока значок мыши не изменится на текст, как показано в Дополнительном файле 2, а затем нажмите на невидимый текст отладки , включив режим отладки.
    2. Из кнопок, которые появляются между моделями, нажмите на кнопку timerStop , чтобы прервать задачу, и нажмите на кнопку консоли , чтобы открыть консоль JSmol модели справа. Если задача из интересующего взаимодействия не была первой, нажмите на пронумерованные кнопки внутри верхней области отладки, чтобы изменить задачу, которая отображается на экране.
      ПРИМЕЧАНИЕ: JSmol - это программное обеспечение для молекулярного моделирования, используемое на веб-странице.
    3. Откройте файл вывода jmol console.xlsx и скопируйте всю страницу команд Jmol.
      ПРИМЕЧАНИЕ: Каждая страница содержит команды для отдельной сцены или анимации.
    4. В консоль JSmol вставьте список скопированных команд и нажмите кнопку Run или нажмите Enter на клавиатуре для его выполнения.
    5. При желании сгенерируйте .gif анимацию. Запишите команду capture "filename" SCRIPT "output" в консоль JSmol, где filename - это имя файла .gif, который нужно создать, а output - весь список команд, скопированных на шаге 3.3.3, сохраняя обе команды в двойных кавычках.
      ПРИМЕЧАНИЕ: Чем сложнее становятся команды, с большими моделями или большим количеством изменений во времени, и чем менее мощными становятся характеристики используемого компьютера, тем медленнее будет становиться анимация. Jmol ориентирован на визуализацию химических соединений и реакций, и анимация, созданная с помощью наших исследований, раздвигает границы возможностей рендеринга Jmol. Эти моменты следует учитывать и учитывать при проведении любых количественных измерений с помощью этой анимации.

4. Кастомизация задач

ПРИМЕЧАНИЕ: Весь этот раздел необязателен и рекомендуется только для тех, кто любит экспериментировать или понимает, как программировать. Ниже вы найдете некоторые из множества доступных настраиваемых опций, и по мере дальнейшего развития методов будут доступны дополнительные опции.

  1. Настройка новых или существующих задач.
    1. Определите, сколько интерактивных заданий будет выполнять участник, и назовите каждое из них в файле object_configs.js внутри массива task_list заменив существующие названия элементов или добавив новые. Убедитесь, что каждое имя уникально, так как оно будет использоваться в дальнейшем в качестве идентификаторов.
    2. Выберите JSmol-совместимые файлы 3D-координат для выполнения интерактивных задач (http://wiki.jmol.org/index.php/File_formats). Скопируйте эти файлы в папку models.
      ПРИМЕЧАНИЕ: Скрипты, включенные в эту статью, оптимизированы для асимметричных моделей с использованием формата файлов .xyz. При выборе файлов координат избегайте симметрий поворота, так как они имеют неоднозначные решения65.
    3. Определите параметры рендеринга для 3D-объектов в функции prepMolecule(num).
      ПРИМЕЧАНИЕ: Все изменения от одной задачи к другой, выполняемые JSmol, идут сюда: изменение цветового шаблона, изменение размера или способа рендеринга графических элементов, ориентация, перевод, скрытие частей объекта, загрузка новых 3D-моделей и т.д. (больше примеров смотрите в https://chemapps.stolaf.edu/jmol/docs/examples/bonds.htm). Каждая задача, названная в task_list , соответствует обращению. Каждая команда для выполнения JSmol имеет следующую структуру: Jmol.script( jsmol_obj , " jsmol_command1; jsmol_command2 "); где jsmol_obj относится к изменяемому объекту (jsmol_ref и jsmol_obj по умолчанию для целевого и интерактивного объектов), за которыми следует одна или несколько команд, разделенных знаком ";".
  2. Создавайте новые модели.
    1. Используйте любую модель .xyz, загруженную в Интернет или созданную молекулярными редакторами, такими как Avogadro (https://avogadro.cc/).

Access restricted. Please log in or start a trial to view this content.

Результаты

Эволюция углового несоответствия и других переменных
Как показано на шаге 3.3.1 в Дополнительном файле 2, на экране видеомонитора участнику представляются два полотна, отображающие копии одного и того же виртуального 3D-объекта в разных ори?...

Access restricted. Please log in or start a trial to view this content.

Обсуждение

Как уже говорилось ранее, в этой статье представлена подробная процедура отображения данных фиксации и саккадного движения в реальном времени на интерактивных 3D-объектах, которая легко настраивается и использует только бесплатное программное обеспечение, предоста?...

Access restricted. Please log in or start a trial to view this content.

Раскрытие информации

У авторов нет конфликта интересов, который можно было бы раскрыть.

Благодарности

Авторы выражают благодарность Координационному совету по совершенствованию кадров высшего образования (CAPES) - Финансовый кодекс 001 и Федеральному университету ABC (UFABC). Жуан Р. Сато получил финансовую поддержку от Исследовательского фонда Сан-Паулу (FAPESP, гранты NoNo 2018/21934-5, 2018/04654-9 и 2023/02538-0).

Access restricted. Please log in or start a trial to view this content.

Материалы

NameCompanyCatalog NumberComments
FirefoxMozilla Foundation (Open Source)Any updated modern browser that is compatible with WebGL (https://caniuse.com/webgl), and in turn with Jmol, can be used
GNU OctaveOpen Sourcehttps://octave.org/
Google Apps ScriptGoogle LLCscript.google.com
Google SheetsGoogle LLChttps://www.google.com/sheets/about/
LaptopAny computer that can run the eye tracking system software.
Mangold Software SuiteMangold Software interface used for the Eye tracking device. Any Software that outputs the data with system time values can be used.
MouseAny mouse capable of clicking and dragging with simple movements should be compatible. Human interfaces analogous to a mouse with the same capabilities, such as a touchscreen or pointer, should be compatible, but may behave differently.
Vt3miniEyeTech Digital Systems60 Hz. Any working Eye Tracking device should be compatible.

Ссылки

  1. Spearman, C. 34;General intelligence," objectively determined and measured. The American Journal of Psychology. 15, 201-292 (1904).
  2. McGee, M. G. Human spatial abilities: psychometric studies and environmental, genetic, hormonal, and neurological influences. Psychological bulletin. 86 (5), 889-918 (1979).
  3. Johnson, W., Bouchard, T. J. The structure of human intelligence: It is verbal, perceptual, and image rotation (VPR), not fluid and crystallized. Intelligence. 33 (4), 393-416 (2005).
  4. Hegarty, M. Components of spatial intelligence. Psychology of Learning and Motivation. 52, 265-297 (2010).
  5. Uttal, D. H., et al. The malleability of spatial skills: a meta-analysis of training studies. Psychological Bulletin. 139 (2), 352-402 (2013).
  6. Linn, M. C., Petersen, A. C. Emergence and characterization of sex differences in spatial ability: a meta-analysis. Child Development. 56 (6), 1479-1498 (1985).
  7. Johnson, S. P., Moore, D. S. Spatial thinking in infancy: Origins and development of mental rotation between 3 and 10 months of age. Cognitive Research: Principles and Implications. 5, 10(2020).
  8. Wai, J., Lubinski, D., Benbow, C. P. Spatial ability for STEM domains: aligning over 50 years of cumulative psychological knowledge solidifies its importance. Journal of Educational Psychology. 101 (4), 817-835 (2009).
  9. Newcombe, N. S., Stieff, M. Six myths about spatial thinking. International Journal of Science Education. 34, 955-971 (2012).
  10. Kell, H. J., Lubinski, D., Benbow, C. P., Steiger, J. H. Creativity and technical innovation: spatial ability's unique role. Psychological Science. 24 (9), 1831-1836 (2013).
  11. Geary, D. C. Spatial ability as a distinct domain of human cognition: An evolutionary perspective. Intelligence. 101616, (2022).
  12. Shepard, R., Metzler, J. Mental rotation of three-dimensional objects. Science. 171, 701-703 (1971).
  13. Shepard, R., Judd, S. Perceptual illusion of rotation of three-dimensional objects. Science. 191, 952-954 (1973).
  14. Just, M. A., Carpenter, P. A. Eye fixations and cognitive processes. Cognitive Psychology. 8, 441-480 (1976).
  15. Just, M. A., Carpenter, P. A. Cognitive coordinate systems: accounts of mental rotation and individual differences in spatial ability. Psychological Review. 92 (2), 137-172 (1985).
  16. Shepard, S., Metzler, D. Mental rotation: effects of dimensionality of objects and type of task. Journal of Experimental Psychology: Human Perception and Performance. 14 (1), 3-11 (1988).
  17. Biederman, I., Cooper, E. Size invariance in visual object priming. Journal of Experimental Psychology: Human Perception and Performance. 18, 121-133 (1992).
  18. Wexler, M., Kosslyn, S. M., Berthoz, A. Motor processes in mental rotation. Cognition. 68 (1), 77-94 (1998).
  19. Wohlschläger, A., Wohlschläger, A. Mental and manual rotation. Journal of Experimental Psychology: Human Perception and Performance. 24 (2), 397-412 (1998).
  20. Jordan, K., W, T., Heinze, H., Peters, M., Jäncke, L. Women and men exhibit different cortical activation patterns during mental rotation tasks. Neuropsychologia. 40, 2397-2408 (2002).
  21. Jansen-Osmann, P., Heil, M. Suitable stimuli to obtain (no) gender differences in the speed of cognitive processes involved in mental rotation. Brain and Cognition. 64, 217-227 (2007).
  22. Gardony, A. L., Taylor, H. A., Brunyé, T. T. What does physical rotation reveal about mental rotation. Psychological Science. 25 (2), 605-612 (2014).
  23. Adams, D. M., Stull, A. T., Hegarty, M. Effects of mental and manual rotation training on mental and manual rotation performance. Spatial Cognition & Computation. 14 (3), 169-198 (2014).
  24. Griksiene, R., Arnatkeviciute, A., Monciunskaite, R., Koenig, T., Ruksenas, O. Mental rotation of sequentially presented 3D figures: sex and sex hormones related differences in behavioural and ERP measures. Scientific Reports. 9, 18843(2019).
  25. Jansen, P., Render, A., Scheer, C., Siebertz, M. Mental rotation with abstract and embodied objects as stimuli: evidence from event-related potential (ERP). Experimental Brain Research. 238, 525-535 (2020).
  26. Noll, M. Early digital computer art at Bell Telephone Laboratories, Incorporated. Leonardo. 49 (1), 55-65 (2016).
  27. Vandenberg, S. G., Kuse, A. R. Mental rotations, a group of three-dimensional spatial visualization. Perceptual and Motor Skills. 47, 599-604 (1978).
  28. Hegarty, M. Ability and sex differences in spatial thinking: What does the mental rotation test really measure. Psychonomic Bulletin & Review. 25, 1212-1219 (2018).
  29. Kozaki, T. Training effect on sex-based differences in components of the Shepard and Metzler mental rotation task. Journal of Physiological Anthropology. 41, 39(2022).
  30. Bartlett, K. A., Camba, J. D. Gender differences in spatial ability: a critical review. Educational Psychology Review. 35, 1-29 (2023).
  31. Jansen, P., Schmelter, A., Quaiser-Pohl, C. M., Neuburger, S., Heil, M. Mental rotation performance in primary school age children: Are there gender differences in chronometric tests. Cognitive Development. 28, 51-62 (2013).
  32. Techentin, C., Voyer, D., Voyer, S. D. Spatial abilities and aging: a meta-analysis. Experimental Aging Research. 40, 395-425 (2014).
  33. Guillot, A., Champely, S., Batier, C., Thiriet, P., Collet, C. Relationship between spatial abilities, mental rotation and functional anatomy learning. Advances in Health Sciences Education. 12, 491-507 (2007).
  34. Voyer, D., Jansen, P. Motor expertise and performance in spatial tasks: A meta-analysis. Human Movement Science. 54, 110-124 (2017).
  35. Peters, M., et al. A redrawn Vandenberg and Kuse mental rotations test: different versions and factors that affect performance. Brain and Cognition. 28, 39-58 (1995).
  36. Peters, M., Battista, C. Applications of mental rotation figures of the Shepard and Metzler type and description of a mental rotation stimulus library. Brain and Cognition. 66, 260-264 (2008).
  37. Wiedenbauer, G., Schmid, J., Jansen-Osmann, P. Manual training of mental rotation. European Journal of Cognitive Psychology. 19, 17-36 (2007).
  38. Jost, L., Jansen, P. A novel approach to analyzing all trials in chronometric mental rotation and description of a flexible extended library of stimuli. Spatial Cognition & Computation. 20 (3), 234-256 (2020).
  39. Amorim, M. A., Isableu, B., Jarraya, M. Embodied spatial transformations:" body analogy" for the mental rotation of objects. Journal of Experimental Psychology: General. 135 (3), 327(2006).
  40. Bauer, R., Jost, L., Günther, B., Jansen, P. Pupillometry as a measure of cognitive load in mental rotation tasks with abstract and embodied figures. Psychological Research. 86, 1382-1396 (2022).
  41. Heil, M., Jansen-Osmann, P. Sex differences in mental rotation with polygons of different complexity: Do men utilize holistic processes whereas women prefer piecemeal ones. The Quarterly Journal of Experimental Psychology. 61 (5), 683-689 (2008).
  42. Larsen, A. Deconstructing mental rotation. Journal of Experimental Psychology: Human Perception and Performance. 40 (3), 1072-1091 (2014).
  43. Ho, S., Liu, P., Palombo, D. J., Handy, T. C., Krebs, C. The role of spatial ability in mixed reality learning with the HoloLens. Anatomic Sciences Education. 15, 1074-1085 (2022).
  44. Foster, D. H., Gilson, S. J. Recognizing novel three-dimensional objects by summing signals from parts and views. Procedures of the Royal Society London B. 269, 1939-1947 (2002).
  45. Stieff, M., Origenes, A., DeSutter, D., Lira, M. Operational constraints on the mental rotation of STEM representations. Journal of Educational Psychology. 110 (8), 1160-1174 (2018).
  46. Moen, K. C., et al. Strengthening spatial reasoning: elucidating the attentional and neural mechanisms associated with mental rotation skill development. Cognitive Research: Principles and Implications. 5, 20(2020).
  47. Guay, R. B. Purdue spatial visualization test: Rotations. Purdue Research Foundation. , West Lafayette, IN. (1976).
  48. Bodner, G. M., Guay, R. B. The Purdue Visualization of Rotations Test. The Chemical Educator. 2 (4), 1-17 (1997).
  49. Maeda, Y., Yoon, S. Y., Kim-Kang, K., Imbrie, P. K. Psychometric properties of the Revised PSVT:R for measuring First Year engineering students' spatial ability. International Journal of Engineering Education. 29, 763-776 (2013).
  50. Sorby, S., Veurink, N., Streiner, S. Does spatial skills instruction improve STEM outcomes? The answer is 'yes'. Learning and Individual Differences. 67, 209-222 (2018).
  51. Khooshabeh, P., Hegarty, M. Representations of shape during mental rotation. AAAI Spring Symposium: Cognitive Shape Processing. , 15-20 (2010).
  52. Wetzel, S., Bertel, S. Spatial cognition XI. Spatial cognition 2018. Lecture Notes in Computer Science. Creem-Regehr, S., Schoning, J., Klippel, A. 11034, Springer. Cham. 167-179 (2018).
  53. Jost, L., Jansen, P. Manual training of mental rotation performance: Visual representation of rotating figures is the main driver for improvements. Quarterly Journal of Experimental Psychology. 75 (4), 695-711 (2022).
  54. Irwin, D. E., Brockmole, J. R. Mental rotation is suppressed during saccadic eye movements. Psychonomic Bulletin & Review. 7 (4), 654-661 (2000).
  55. Moreau, D. The role of motor processes in three-dimensional mental rotation: Shaping cognitive processing via sensorimotor experience. Learning and Individual Differences. 22, 354-359 (2021).
  56. Kosslyn, S. M., Ganis, G., Thmpson, W. L. Neural foundations of imagery. Nature Reviews Neuroscience. 2, 635-642 (2001).
  57. Guo, J., Song, J. H. Reciprocal facilitation between mental and visuomotor rotations. Scientific Reports. 13, 825(2023).
  58. Nazareth, A., Killick, R., Dick, A. S., Pruden, S. M. Strategy selection versus flexibility: Using eye-trackers to investigate strategy use during mental rotation. Journal of Experimental Psychology: Learning, Memory, and Cognition. 45 (2), 232-245 (2019).
  59. Montag, M., Bertel, S., Koning, B. B., Zander, S. Exploration vs. limitation - An investigation of instructional design techniques for spatial ability training on mobile devices. Computers in Human Behavior. 118, 106678(2021).
  60. Tang, Z., et al. Eye movement characteristics in a mental rotation task presented in virtual reality. Frontiers in Neuroscience. 17, 1143006(2023).
  61. Münzer, S. Facilitating recognition of spatial structures through animation and the role of mental rotation ability. Learning and Individual Differences. 38, 76-82 (2015).
  62. Gardony, A. L., Eddy, M. D., Brunyé, T. T., Taylor, H. A. Cognitive strategies in the mental rotation task revealed by EEG spectral power. Brain and Cognition. 118, 1-18 (2017).
  63. Ruddle, R. A., Jones, D. M. Manual and virtual rotation of three-dimensional object. Journal of Experimental Psychology: Applied. 7 (4), 286-296 (2001).
  64. Sundstedt, V., Garro, V. A Systematic review of visualization techniques and analysis tools for eye-tracking in 3D environments. Frontiers in Neuroergonomics. 3, 910019(2022).
  65. Sawada, T., Zaidi, Q. Rotational-symmetry in a 3D scene and its 2D image. Journal of Mathematical Psychology. 87, 108-125 (2018).
  66. Xue, J., et al. Uncovering the cognitive processes underlying mental rotation: an eye-movement study. Scientific Reports. 7, 10076(2017).
  67. O'Shea, R. P. Thumb's rule tested: Visual angle of thumb's width is about 2 deg. Perception. 20, 415-418 (1991).
  68. Todd, J., Marois, R. Capacity limit of visual short-term memory in human posterior parietal cortex. Nature. 428, 751-754 (2004).

Access restricted. Please log in or start a trial to view this content.

Перепечатки и разрешения

Запросить разрешение на использование текста или рисунков этого JoVE статьи

Запросить разрешение

Смотреть дополнительные статьи

JoVE2123DJmolJSmol

This article has been published

Video Coming Soon

JoVE Logo

Исследования

Образование

О JoVE

Авторские права © 2025 MyJoVE Corporation. Все права защищены