JoVE Logo

Sign In

A subscription to JoVE is required to view this content. Sign in or start your free trial.

In This Article

  • Summary
  • Abstract
  • Introduction
  • Protocol
  • תוצאות
  • Discussion
  • Disclosures
  • Acknowledgements
  • Materials
  • References
  • Reprints and Permissions

Summary

פרוטוקול זה מספק שיטה למעקב אחר פזילה אוטומטית של העיניים במכרסמים לאורך זמן באופן התואם נעילת זמן למדדים נוירופיזיולוגיים. פרוטוקול זה צפוי להיות שימושי לחוקרים החוקרים מנגנונים של הפרעות כאב כגון מיגרנה.

Abstract

כאב ספונטני היה מאתגר לעקוב בזמן אמת ולכמת באופן שמונע הטיה אנושית. זה נכון במיוחד עבור מדדים של כאבי ראש, כמו בהפרעות כגון מיגרנה. פזילה בעיניים התפתחה כמדד משתנה רציף שניתן למדוד לאורך זמן והוא יעיל לחיזוי מצבי כאב בבדיקות כאלה. מאמר זה מספק פרוטוקול לשימוש ב- DeepLabCut (DLC) כדי להפוך ולכמת פזילה בעיניים (מרחק אוקלידי בין עפעפיים) בעכברים מרוסנים עם תנועות ראש מסתובבות בחופשיות. פרוטוקול זה מאפשר לכמת באופן בלתי משוחד את פזילה בעין ולהשוות אותה ישירות מול מדדים מכניסטיים כגון נוירופיזיולוגיה. אנו מספקים הערכה של פרמטרים לאימון AI הדרושים להשגת הצלחה כפי שהוגדרו על ידי תקופות פזילה ואי פזילה מפלות. אנו מדגימים יכולת לעקוב באופן אמין ולהבדיל פזילה בפנוטיפ דמוי מיגרנה המושרה על ידי CGRP ברזולוציה של פחות משנייה.

Introduction

מיגרנה היא אחת מהפרעות המוח הנפוצות ביותר בעולם, המשפיעה על יותר ממיליארד אנשים1. מודלים פרה-קליניים של מיגרנה בעכברים התפתחו כדרך אינפורמטיבית לחקור את מנגנוני המיגרנה, שכן מחקרים אלה ניתנים לשליטה בקלות רבה יותר מאשר מחקרים בבני אדם, ובכך מאפשרים מחקר סיבתי של התנהגות הקשורה למיגרנה2. מודלים כאלה הדגימו תגובה פנוטיפית חזקה וחוזרת על עצמה לתרכובות הגורמות למיגרנה, כגון פפטיד הקשור לגן קלציטונין (CGRP). הצורך במדידות חזקות של התנהגויות רלוונטיות למיגרנה במודלים של מכרסמים נותר בעינו, במיוחד אלה שעשויות להיות משולבות עם מדדים מכניסטיים כגון דימות וגישות אלקטרופיזיולוגיות.

מצבים מוחיים דמויי מיגרנה התאפיינו פנוטיפית בנוכחות של סלידה מאור, אלודיניה של כפות הרגליים, שיכוך כאבים בפנים לגירויים מזיקים ועווית פנים3. התנהגויות כאלה נמדדות על ידי הזמן הכולל המושקע באור (סלידה מאור) ובספי רגישות למגע כפות או פנים (אלודיניה של כפות רגליים ושיכוך יתר בפנים) והן מוגבלות לקריאה אחת על פני פרקי זמן גדולים (דקות או יותר). ניתן לעורר התנהגויות דמויות מיגרנה בבעלי חיים על ידי מתן מינון של תרכובות הגורמות למיגרנה כגון CGRP, המחקות תסמינים שחווים מטופלים אנושיים עם מיגרנה3 (כלומר, הוכחת תוקף הפנים). תרכובות כאלה מייצרות גם תסמיני מיגרנה כאשר הן ניתנות בבני אדם, ומדגימות את תוקף המבנה של מודלים אלה4. מחקרים שבהם פנוטיפים התנהגותיים נחלשו מבחינה פרמקולוגית הובילו לתגליות הקשורות לטיפול במיגרנה ומספקים אישוש נוסף למודלים אלה (כלומר, הוכחת תוקף ניבוי)5,6.

לדוגמה, נוגדן חד-שבטי נגד CGRP (ALD405) הוכח כמפחית התנהגות מרתיעה לאור5 ועווית פנים בעכברים6 שטופלו ב-CGRP, ומחקרים אחרים הראו כי תרופות נוגדות CGRP מפחיתות התנהגויות דמויות מיגרנה המושרות על ידי תחמוצת החנקן בבעלי חיים 7,8. ניסויים קליניים שנערכו לאחרונה הראו הצלחה בטיפול במיגרנה על ידי חסימת CGRP 9,10, מה שהוביל למספר תרופות שאושרו על ידי ה- FDA המכוונות ל- CGRP או לקולטן שלו. הערכה פרה-קלינית של פנוטיפים הקשורים למיגרנה הובילה לפריצות דרך בממצאים קליניים ולכן היא חיונית להבנת כמה מההיבטים המורכבים יותר של מיגרנה שקשה לבדוק ישירות בבני אדם.

למרות יתרונות רבים, ניסויים המשתמשים בקריאות התנהגותיות אלה של מכרסמים של מיגרנה מוגבלים לעתים קרובות ביכולות הדגימה שלהם בנקודת הזמן שלהם ויכולים להיות סובייקטיביים ומועדים לטעויות ניסוי בבני אדם. מבדקים התנהגותיים רבים מוגבלים ביכולתם ללכוד פעילות ברזולוציות זמן עדינות יותר, מה שמקשה לעתים קרובות על לכידת אלמנטים דינמיים יותר המתרחשים בסקאלת זמן של תת-שנייה, כגון ברמת הפעילות המוחית. הוכח כי קשה לכמת את מרכיבי ההתנהגות הספונטניים יותר, המתרחשים באופן טבעי לאורך זמן, ברזולוציה זמנית משמעותית לחקר מנגנונים נוירופיזיולוגיים. יצירת דרך לזהות פעילות דמוית מיגרנה בטווחי זמן מהירים יותר תאפשר אימות חיצוני של מצבים מוחיים דמויי מיגרנה. זה, בתורו, יכול להיות מסונכרן עם פעילות המוח כדי ליצור פרופילי פעילות מוחית חזקים יותר של מיגרנה.

פנוטיפ אחד כזה הקשור למיגרנה, עווית פנים, משמש בהקשרים שונים כמדד לכאב בבעלי חיים שניתן למדוד באופן מיידי ולעקוב אחריו לאורך זמן11. עווית פנים משמשת לעתים קרובות כאינדיקטור לכאב ספונטני בהתבסס על הרעיון שבני אדם (במיוחד בני אדם לא מילוליים) ומיני יונקים אחרים מציגים שינויים טבעיים בהבעות הפנים כאשר הם חווים כאב11. מחקרים שמדדו עווית פנים כאינדיקציה לכאב בעכברים בעשור האחרון השתמשו בסולמות כגון סולם גרימס עכבר (MGS) כדי לתקנן את אפיון הכאב במכרסמים12. משתני הבעת הפנים של MGS כוללים הידוק אורביטלי (פזילה), בליטת אף, בליטת לחיים, מיקום אוזניים ושינוי שפם. למרות שהוכח כי MGS מאפיין כאב באופן אמין בבעלי חיים13, הוא ידוע לשמצה כסובייקטיבי ומסתמך על ניקוד מדויק, שיכול להשתנות בין הנסיינים. בנוסף, MGS מוגבל בכך שהוא משתמש בקנה מידה לא רציף וחסר את הרזולוציה הטמפורלית הדרושה כדי לעקוב אחר התנהגות טבעית לאורך זמן.

אחת הדרכים להילחם בכך היא על ידי כימות אובייקטיבי של תווי פנים עקביים. פזילה היא תכונת הפנים העקבית ביותר שניתן לעקוב אחריה6. פזילה מהווה את רוב השונות הכוללת בנתונים כאשר מביאים בחשבון את כל משתני MGS (פזילה, בליטת אף, בליטת לחי, מיקום אוזניים ושינוי שפם)6. מכיוון שפזילה תורמת במידה הרבה ביותר לציון הכולל המתקבל באמצעות MGS ועוקבת באופן אמין אחר התגובה ל- CGRP 6,14, זוהי הדרך האמינה ביותר לעקוב אחר כאב ספונטני במודלים של עכברי מיגרנה. זה הופך את הפזילה להתנהגות לא הומיאוסטטית הניתנת לכימות הנגרמת על ידי CGRP. מספר מעבדות השתמשו בתווי הבעת פנים, כולל פזילה, כדי לייצג כאב ספונטני פוטנציאלי הקשור למיגרנה 6,15.

נותרו מספר אתגרים בנוגע לביצוע פזילות אוטומטיות באופן שניתן לשלב עם מחקרים מכניסטיים של מיגרנה. לדוגמה, היה קשה לעקוב באופן אמין אחר פזילה מבלי להסתמך על מיקום קבוע שיש לכייל באותו אופן בין הפעלות. אתגר נוסף הוא היכולת לבצע ניתוח מסוג זה בקנה מידה רציף במקום בקנה מידה בדיד כמו MGS. כדי להקל על אתגרים אלה, שאפנו לשלב למידת מכונה, בצורה של DeepLabCut (DLC), בצנרת ניתוח הנתונים שלנו. DLC הוא מודל למידת מכונה להערכת פוזות שפותח על ידי מאתיס ועמיתיו ויושם על מגוון רחב של התנהגויות16. באמצעות תוכנת הערכת התנוחה שלהם, הצלחנו לאמן מודלים שיכולים לחזות במדויק נקודות על עין עכבר בדיוק כמעט אנושי. זה פותר את הבעיות של ניקוד ידני חוזר תוך הגדלת הרזולוציה הזמנית באופן דרסטי. יתר על כן, על-ידי יצירת המודלים האלה, יצרנו אמצעי שניתן לחזור עליו כדי לפזול ולהעריך פעילות מוחית דמוית מיגרנה על פני קבוצות ניסוי גדולות יותר. כאן, אנו מציגים את הפיתוח והאימות של שיטה זו למעקב אחר התנהגויות פזילה באופן שיכול להיות נעול בזמן למדידות מכניסטיות אחרות כגון נוירופיזיולוגיה. מטרת העל היא לזרז מחקרים מכניסטיים הדורשים התנהגויות פזילה נעולות בזמן במודלים של מכרסמים.

Protocol

הערה: כל בעלי החיים ששימשו בניסויים אלה טופלו על פי פרוטוקולים שאושרו על ידי הוועדה המוסדית לטיפול ושימוש בבעלי חיים (IACUC) של אוניברסיטת איווה.

1. הכנת ציוד לאיסוף נתונים

  1. ודא את הזמינות של כל הציוד הדרוש: ודא כי החומרה המומלצת להפעלת DLC כוללת לפחות 8 GB של זיכרון. עיין בטבלת החומרים לקבלת מידע הקשור לחומרה ותוכנה.
    הערה: ניתן לאסוף נתונים בכל תבנית, אך יש להמיר אותם לתבנית הניתנת לקריאה על-ידי DLC לפני הניתוח. הפורמטים הנפוצים ביותר הם AVI ו- MP4.
  2. הגדר לפחות מצלמה אחת כך שניתן יהיה לזהות עין אחת של בעל חיים. אם שתי העיניים גלויות, בצע סינון נוסף, מכיוון שהוא עלול לגרום להפרעה במעקב. ראה סעיף 10 כדוגמה לסינון כזה עבור הנתונים המובאים כאן.
  3. התקן DLC באמצעות החבילה שנמצאת ב- Deeplabcut.github.io/DeepLabCut/docs/installation.
  4. בהגדרת המצלמה, כלול מצלמה יחידה בזווית צדדית (~90°) לעכבר. כדי לעקוב אחר דוגמה זו, דגמו במהירות של 10 הרץ, כאשר העכברים מרוסנים אך חופשיים לגשת לטווח המלא של תנועות הראש שלהם ביחס לגוף. יש לשמור מרחק של בין 2 ל-4 אינץ' מהמצלמה לחיה.

2. הגדרת DLC

  1. לאחר התקנת DLC, צור את הסביבה שברצונך לעבוד ממנה. לשם כך, נווט אל התיקיה שבה תוכנת ה- DLC הורדה באמצעות ספריית השינוי באמצעות הפקודה הבאה.
    CD folder_name
    הערה: כאן נמצא הקובץ DEEPLABCUT.yaml.
  2. הפעל את הפקודה הראשונה כדי ליצור את הסביבה ולהפוך אותה לזמינה על-ידי הקלדת הפקודה השנייה.
    conda env create -f DEEPLABCUT.yaml
    conda להפעיל Deeplabcut
    הערה: ודא שהסביבה מופעלת לפני כל שימוש ב- DLC.
    לאחר הפעלת הסביבה, פתח את ממשק המשתמש הגרפי (GUI) עם הפקודה הבאה והתחל ליצור את המודל.
    Python -M DeepLabcut

3. צור את המודל

  1. לאחר פתיחת ממשק המשתמש הגרפי, התחל ליצור מודל על ידי לחיצה על צור פרויקט חדש בתחתית.
  2. תן שם לפרויקט משהו משמעותי וייחודי כדי לזהות אותו מאוחר יותר והזן שם כנסיין. בדוק את המקטע מיקום כדי לראות היכן הפרויקט יישמר.
  3. בחר עיון בתיקיות ומצא את הסרטונים כדי לאמן את המודל. בחר העתק סרטונים לתיקיית הפרויקט אם אין להעביר את הסרטונים מהספרייה המקורית שלהם.
  4. בחר צור כדי ליצור פרוייקט חדש במחשב.
    הערה: הסרטונים חייבים לכסות את כל טווח ההתנהגות שתבחין בה (כלומר, פזילה, אי-פזילה וכל ההתנהגויות שביניהן). המודל יוכל לזהות רק התנהגות דומה לזו שבנתוני האימון, ואם חסרים רכיבים מסוימים של ההתנהגות, ייתכן שהמודל יתקשה לזהות אותה.

4. הגדר את ההגדרות

הערה: כאן ניתן להגדיר פרטים כמו אילו נקודות לעקוב, כמה פריימים לחלץ מכל סרטון אימון, גודל נקודת התיוג המוגדר כברירת מחדל ומשתנים הקשורים לאופן שבו המודל יתאמן.

  1. לאחר יצירת הדגם, ערוך את הגדרות התצורה על-ידי בחירה באפשרות Edit config.yaml. בחר Edit כדי לפתוח את קובץ הגדרות התצורה כדי לציין הגדרות מפתח הקשורות לדגם.
  2. שנו את חלקי הגוף כך שיכללו את כל חלקי העין למעקב, ולאחר מכן שנו את numframes2pick למספר הפריימים הדרושים לכל סרטון אימון כדי לקבל 400 פריימים בסך הכל. לבסוף, שנו את גודל הנקודות לשש כך שגודל ברירת המחדל בעת התיוג יהיה קטן מספיק כדי שניתן יהיה למקם אותו במדויק סביב קצוות העין.

5. חלצו מסגרות אימון

  1. לאחר קביעת התצורה, נווט אל הכרטיסיה חלץ מסגרות בחלק העליון של ממשק המשתמש הגרפי ובחר חלץ מסגרות בפינה השמאלית התחתונה של הדף.
  2. עקוב אחר ההתקדמות באמצעות פס הטעינה בתחתית ממשק המשתמש הגרפי.

6. תייגו מסגרות אימון

  1. נווט אל הכרטיסיה מסגרות תוויות בממשק המשתמש הגרפי ובחר מסגרות תוויות. מצאו את החלון החדש שמציג תיקיות עבור כל אחד מסרטוני ההדרכה שנבחרו. בחר את התיקיה הראשונה, וממשק משתמש גרפי חדש לעיצוב תוויות ייפתח.
  2. תייג את הנקודות שהוגדרו במהלך קביעת התצורה עבור כל פריים של הווידאו שנבחר. לאחר שכל המסגרות מתויגות, שמור אותן וחזור על התהליך עבור הסרטון הבא.
  3. לתיוג הולם של פזילה, השתמש בשתי נקודות קרובות ככל האפשר לשיא הגדול ביותר של העין (מרכז) וציין את המיקום למעלה/למטה עבור כל נקודה. פזילה משוערת כממוצע של שני אורכים אלה.
    הערה: בעת הוספת תוויות, DLC אינו שומר התקדמות באופן אוטומטי. שמירה תקופתית מומלצת כדי למנוע אובדן של נתונים מתויגים.

7. צרו מערך נתוני אימון

  1. לאחר תיוג ידני, נווט אל הכרטיסיה רשת רכבת ובחר רשת רכבת כדי לבקש מהתוכנה להתחיל לאמן את הדגם.
  2. עקוב אחר ההתקדמות בחלון הפקודה.

8. הערך את הרשת

  1. לאחר השלמת אימון הרשת, נווט אל הכרטיסיה הערכת רשת ובחר הערכת רשת. המתן מספר רגעים עד שעיגול הטעינה הכחול ייעלם ויודיע שהוא סיים את ההערכה העצמית והדגם מוכן לשימוש.

9. נתח נתונים / צור סרטונים מתויגים

  1. כדי לנתח סרטוני וידאו, נווט אל הכרטיסיה נתח סרטונים . בחר הוסף סרטונים נוספים ובחר את הסרטונים לניתוח.
  2. בחר שמור תוצאות כ- csv אם פלט csv של הנתונים מספיק.
  3. לאחר שכל הסרטונים נרכשו, בחר נתח סרטונים בתחתית כדי להתחיל בניתוח הסרטונים.
    הערה: יש להשלים שלב זה לפני יצירת סרטונים מתויגים בשלב 9.5
  4. לאחר ניתוח סרטוני הווידאו, נווט אל צור סרטונים לשונית ובחר את הסרטונים שניתחו.
  5. בחר צור סרטונים והתוכנה תתחיל ליצור סרטונים מתויגים המייצגים את הנתונים המוצגים .csv המתאים.

10. עיבוד נתונים סופיים

  1. החל את פקודות המאקרו שנמצאות ב- https://research-git.uiowa.edu/rainbo-hultman/facial-grimace-dlc כדי להמיר נתונים גולמיים לתבנית המשמשת לניתוח זה (כלומר, מרחק אוקלידי).
  2. יבא והחל פקודות מאקרו המסומנות בשלב 1 ושלב 2 על קובץ ה- csv כדי לסנן את כל נקודות הנתונים התת-אופטימליות ולהמיר את הנתונים למרחק אוקלידי ממוצע עבור הנקודות המרכזיות ביותר בחלק העליון והתחתון של העין.
  3. הפעל מאקרו שנקרא שלב 3 כדי לסמן כל נקודה כ- 0 ללא פזילה ו - 1 פזילה בהתבסס על ערך הסף בסקריפט, המוגדר על 75 פיקסלים.
    הערה: הפרמטרים עבור פקודות מאקרו אלה עשויים לדרוש התאמה בהתאם להגדרת הניסוי (ראה דיון). סף הפזילה והמסנן האוטומטי לערך המקסימלי של העין הם פרמטרים שניתן לשנות בהתאם לגודל החיה ולמרחק מהמצלמה. באפשרותך גם להתאים את הערכים המשמשים להסרת נקודות תת-אופטימליות בהתאם לאופן שבו יש לסנן את הנתונים באופן סלקטיבי.

תוצאות

כאן, אנו מספקים שיטה לזיהוי אמין של פזילה ברזולוציה טמפורלית גבוהה באמצעות DeepLabCut. ביצענו אופטימיזציה של פרמטרי האימון, ואנו מספקים הערכה של נקודות החוזק והחולשה של שיטה זו (איור 1).

לאחר אימון המודלים שלנו, וידאנו שהם מסוגלים להעריך נכונה א?...

Discussion

פרוטוקול זה מספק שיטה מעמיקה נגישה לשימוש בכלים מבוססי למידת מכונה שיכולים להבדיל בין פזילה לדיוק כמעט אנושי תוך שמירה על אותה רזולוציה זמנית (או טובה יותר) של גישות קודמות. בראש ובראשונה, זה הופך את ההערכה של פזילה אוטומטית לזמינה יותר לקהל רחב יותר. השיטה החדשה שלנו להע...

Disclosures

אין לנו ניגודי עניינים לחשוף. הדעות במאמר זה אינן מייצגות את VA או את ממשלת ארצות הברית.

Acknowledgements

תודה לראג'יאשרי סן על שיחות מעמיקות. הודות לפרס הנוירוביולוגיה של מחלות של קרן מקנייט (RH), NIH 1DP2MH126377-01 (RH), קרן הצדקה רוי ג'יי קארבר (RH), NINDS T32NS007124 (MJ), פרס רמון ד. באקלי לסטודנטים לתארים מתקדמים (MJ), ו- VA-ORD (RR&D) MERIT 1 I01 RX003523-0 (LS).

Materials

NameCompanyCatalog NumberComments
CUDA toolkit 11.8
cuDNN SDK 8.6.0
Intel computers with Windows 11, 13th gen 
LabFaceX 2D Eyelid Tracker Add-on Module for a Free Roaming Mouse:FaceX LLCNAAny camera that can record an animal's eye is sufficient, but this is our eye tracking hardware.
NVIDIA GPU driver that is version 450.80.02 or higher
NVIDIA RTX A5500, 24 GB DDR6NVIDIA[490-BHXV]Any GPU that meets the minimum requirements specified for your version of DLC, currently 8 GB, is sufficient. We used NVIDIA GeForce RTX 3080 Ti GPU
Python 3.9-3.11
TensorFlow version 2.10

References

  1. Disease, G. B. D., Injury, I., Prevalence, C. Global, regional, and national incidence, prevalence, and years lived with disability for 354 diseases and injuries for 195 countries and territories, 1990-2017: A systematic analysis for the global burden of disease study 2017. Lancet. 392 (10159), 1789-1858 (2018).
  2. Russo, A. F. Cgrp as a neuropeptide in migraine: Lessons from mice. Br J Clin Pharmacol. 80 (3), 403-414 (2015).
  3. Wattiez, A. S., Wang, M., Russo, A. F. Cgrp in animal models of migraine. Handb Exp Pharmacol. 255, 85-107 (2019).
  4. Hansen, J. M., Hauge, A. W., Olesen, J., Ashina, M. Calcitonin gene-related peptide triggers migraine-like attacks in patients with migraine with aura. Cephalalgia. 30 (10), 1179-1186 (2010).
  5. Mason, B. N., et al. Induction of migraine-like photophobic behavior in mice by both peripheral and central cgrp mechanisms. J Neurosci. 37 (1), 204-216 (2017).
  6. Rea, B. J., et al. Peripherally administered cgrp induces spontaneous pain in mice: Implications for migraine. Pain. 159 (11), 2306-2317 (2018).
  7. Kopruszinski, C. M., et al. Prevention of stress- or nitric oxide donor-induced medication overuse headache by a calcitonin gene-related peptide antibody in rodents. Cephalalgia. 37 (6), 560-570 (2017).
  8. Juhasz, G., et al. No-induced migraine attack: Strong increase in plasma calcitonin gene-related peptide (cgrp) concentration and negative correlation with platelet serotonin release. Pain. 106 (3), 461-470 (2003).
  9. Aditya, S., Rattan, A. Advances in cgrp monoclonal antibodies as migraine therapy: A narrative review. Saudi J Med Med Sci. 11 (1), 11-18 (2023).
  10. Goadsby, P. J., et al. A controlled trial of erenumab for episodic migraine. N Engl J Med. 377 (22), 2123-2132 (2017).
  11. Mogil, J. S., Pang, D. S. J., Silva Dutra, G. G., Chambers, C. T. The development and use of facial grimace scales for pain measurement in animals. Neurosci Biobehav Rev. 116, 480-493 (2020).
  12. Whittaker, A. L., Liu, Y., Barker, T. H. Methods used and application of the mouse grimace scale in biomedical research 10 years on: A scoping review. Animals (Basel). 11 (3), 673 (2021).
  13. Langford, D. J., et al. Coding of facial expressions of pain in the laboratory mouse. Nat Methods. 7 (6), 447-449 (2010).
  14. Rea, B. J., et al. Automated detection of squint as a sensitive assay of sex-dependent calcitonin gene-related peptide and amylin-induced pain in mice. Pain. 163 (8), 1511-1519 (2022).
  15. Tuttle, A. H., et al. A deep neural network to assess spontaneous pain from mouse facial expressions. Mol Pain. 14, 1744806918763658 (2018).
  16. Mathis, A., et al. Deeplabcut: Markerless pose estimation of user-defined body parts with deep learning. Nat Neurosci. 21 (9), 1281-1289 (2018).
  17. Wattiez, A. S., et al. Different forms of traumatic brain injuries cause different tactile hypersensitivity profiles. Pain. 162 (4), 1163-1175 (2021).

Reprints and Permissions

Request permission to reuse the text or figures of this JoVE article

Request Permission

Explore More Articles

213

This article has been published

Video Coming Soon

JoVE Logo

Privacy

Terms of Use

Policies

Research

Education

ABOUT JoVE

Copyright © 2025 MyJoVE Corporation. All rights reserved