JoVE Logo

Sign In

A subscription to JoVE is required to view this content. Sign in or start your free trial.

In This Article

  • Summary
  • Abstract
  • Introduction
  • Protocol
  • النتائج
  • Discussion
  • Disclosures
  • Acknowledgements
  • Materials
  • References
  • Reprints and Permissions

Summary

يوفر هذا البروتوكول طريقة لتتبع الحول الآلي للعين في القوارض بمرور الوقت بطريقة متوافقة مع قفل الوقت للتدابير الفيزيولوجية العصبية. من المتوقع أن يكون هذا البروتوكول مفيدا للباحثين الذين يدرسون آليات اضطرابات الألم مثل الصداع النصفي.

Abstract

كان من الصعب تتبع الألم التلقائي في الوقت الفعلي وتحديده بطريقة تمنع التحيز البشري. هذا ينطبق بشكل خاص على مقاييس آلام الرأس ، كما هو الحال في اضطرابات مثل الصداع النصفي. ظهر حول العين كمقياس متغير مستمر يمكن قياسه بمرور الوقت وهو فعال في التنبؤ بحالات الألم في مثل هذه المقايسات. توفر هذه الورقة بروتوكولا لاستخدام DeepLabCut (DLC) لأتمتة وقياس حول العين (المسافة الإقليدية بين الجفون) في الفئران المقيدة ذات حركات الرأس الدوارة بحرية. يتيح هذا البروتوكول القياس الكمي غير المتحيز لحول العين لمقارنته مباشرة بالمقاييس الميكانيكية مثل الفيزيولوجيا العصبية. نحن نقدم تقييما لمعايير تدريب الذكاء الاصطناعي اللازمة لتحقيق النجاح على النحو المحدد من خلال تمييز فترات الحول وعدم الحول. نظهر القدرة على تتبع الحول وتمييزه بشكل موثوق في النمط الظاهري الشبيه بالصداع النصفي الناجم عن CGRP بدقة ثانية فرعية.

Introduction

الصداع النصفي هو أحد أكثر اضطرابات الدماغ انتشارا في جميع أنحاء العالم ، حيث يصيب أكثر من مليار شخص1. ظهرت نماذج الفئران قبل السريرية للصداع النصفي كطريقة مفيدة لدراسة آليات الصداع النصفي حيث يمكن التحكم في هذه الدراسات بسهولة أكبر من الدراسات البشرية ، مما يتيح الدراسة السببية للسلوك المرتبط بالصداعالنصفي 2. أظهرت هذه النماذج استجابة نمطية قوية وقابلة للتكرار للمركبات المسببة للصداع النصفي ، مثل الببتيد المرتبط بجين الكالسيتونين (CGRP). تستمر الحاجة إلى قياسات قوية للسلوكيات ذات الصلة بالصداع النصفي في نماذج القوارض ، خاصة تلك التي قد تقترن بمقاييس ميكانيكية مثل التصوير والأساليب الفيزيولوجية الكهربية.

تميزت حالات الدماغ الشبيهة بالصداع النصفي ظاهريا بوجود النفور من الضوء ، ومخلب القدم ، وفرط الألم في الوجه للمنبهات الضارة ، وكشر الوجه3. يتم قياس هذه السلوكيات من خلال إجمالي الوقت الذي يقضيه في الضوء (النفور من الضوء) وعتبات حساسية لمس المخلب أو الوجه (تألم المخلب وفرط تسكين الوجه) وتقتصر على قراءة واحدة على مدى فترات زمنية طويلة (دقائق أو أكثر). يمكن استنباط السلوكيات الشبيهة بالصداع النصفي في عن طريق الجرعات بمركبات مسببة للصداع النصفي مثل CGRP ، مما يحاكي الأعراض التي يعاني منها المرضى البشريون المصابين بالصداعالنصفي 3 (أي إثبات صلاحية الوجه ). تنتج هذه المركبات أيضا أعراض الصداع النصفي عند تناولها في البشر ، مما يدل على صحة بناء هذهالنماذج 4. أدت الدراسات التي تم فيها تخفيف الأنماط الظاهرية السلوكية دوائيا إلى اكتشافات تتعلق بعلاج الصداع النصفي وتقديم مزيد من الأدلة على هذه النماذج (أي إظهار الصلاحية التنبؤية )5،6.

على سبيل المثال ، تبين أن الجسم المضاد أحادي النسيلة المضاد ل CGRP (ALD405) يقلل من السلوك المكروه للضوء5 وكشر الوجه في الفئران6 التي عولجت ب CGRP ، وقد أظهرت دراسات أخرى أن الأدوية المضادة ل CGRP تقلل من السلوكيات الشبيهة بالصداع النصفي الناجم عن أكسيد النيتروز في7،8. أظهرت التجارب السريرية الحديثة نجاحا في علاج الصداع النصفي عن طريق منع CGRP9،10 مما يؤدي إلى العديد من الأدوية المعتمدة من إدارة الغذاء والدواء الأمريكية (FDA) التي تستهدف CGRP أو مستقبلاته. أدى التقييم قبل السريري للأنماط الظاهرية المرتبطة بالصداع النصفي إلى اختراقات في النتائج السريرية ، وبالتالي فهو ضروري لفهم بعض الجوانب الأكثر تعقيدا للصداع النصفي التي يصعب اختبارها مباشرة على البشر.

على الرغم من المزايا العديدة ، غالبا ما تكون التجارب التي تستخدم قراءات سلوكية القوارض للصداع النصفي مقيدة في قدراتها على أخذ العينات في النقطة الزمنية ويمكن أن تكون ذاتية وعرضة للخطأ التجريبي البشري. العديد من المقايسات السلوكية محدودة في القدرة على التقاط النشاط بدقة زمنية أدق ، مما يجعل من الصعب في كثير من الأحيان التقاط المزيد من العناصر الديناميكية التي تحدث في مقياس زمني أقل من الثانية ، مثل مستوى نشاط الدماغ. لقد ثبت أنه من الصعب تحديد عناصر السلوك الأكثر عفوية والتي تحدث بشكل طبيعي بمرور الوقت بدقة زمنية ذات مغزى لدراسة آليات الفيزيولوجيا العصبية. إن إنشاء طريقة لتحديد النشاط الشبيه بالصداع النصفي في نطاقات زمنية أسرع سيسمح بالتحقق من صحة حالات الدماغ الشبيهة بالصداع النصفي خارجيا. وهذا بدوره يمكن مزامنته مع نشاط الدماغ لإنشاء ملامح أكثر قوة لنشاط الدماغ للصداع النصفي.

يتم استخدام أحد هذه الأنماط الظاهرية المرتبطة بالصداع النصفي ، كشر الوجه ، عبر سياقات مختلفة كقياس للألم في التي يمكن قياسها على الفور وتتبعها بمرور الوقت11. غالبا ما يستخدم تجهم الوجه كمؤشر على الألم التلقائي بناء على فكرة أن البشر (خاصة البشر غير اللفظيين) وأنواع الثدييات الأخرى يظهرون تغيرات طبيعية في تعبيرات الوجه عند الشعور بالألم11. استخدمت الدراسات التي تقيس تجهم الوجه كمؤشر على الألم في الفئران في العقد الماضي مقاييس مثل مقياس كشر الفأر (MGS) لتوحيد توصيف الألم في القوارض12. تشمل متغيرات تعبيرات الوجه في MGS الشد المداري (الحول) ، وانتفاخ الأنف ، وانتفاخ الخد ، ووضع الأذن ، وتغيير الشعيرات. على الرغم من أن MGS قد ثبت أنه يميز الألم في13 بشكل موثوق ، إلا أنه شخصي معروف ويعتمد على التسجيل الدقيق ، والذي يمكن أن يختلف باختلاف المجربين. بالإضافة إلى ذلك ، فإن MGS محدود من حيث أنه يستخدم مقياسا غير مستمر ويفتقر إلى الدقة الزمنية اللازمة لتتبع السلوك الذي يحدث بشكل طبيعي عبر الزمن.

تتمثل إحدى طرق مكافحة ذلك في تحديد ميزة الوجه المتسقة بشكل موضوعي. الحول هو ميزة الوجه الأكثر قابلية للتتبعباستمرار 6. يمثل الحول غالبية التباين الكلي في البيانات عند حساب جميع متغيرات MGS (الحول ، وانتفاخ الأنف ، وانتفاخ الخد ، وموضع الأذن ، وتغيير الشعيرات)6. نظرا لأن الحول يساهم بشكل أكبر في النتيجة الإجمالية التي تم الحصول عليها باستخدام MGS ويتتبع بشكل موثوق الاستجابة ل CGRP6،14 ، فهي الطريقة الأكثر موثوقية لتتبع الألم التلقائي في نماذج الفئران الصداعية. هذا يجعل التحديق سلوكا غير متماثل قابل للقياس الكمي يسببه CGRP. استخدمت العديد من المختبرات ميزات تعبيرات الوجه ، بما في ذلك الحول ، لتمثيل الألم التلقائي المحتمل المرتبط بالصداع النصفي6،15.

ظلت العديد من التحديات فيما يتعلق بإجراء الحول الآلي بطريقة يمكن أن تقترن بالدراسات الميكانيكية للصداع النصفي. على سبيل المثال ، كان من الصعب تتبع الحول بشكل موثوق دون الاعتماد على موضع ثابت يجب معايرته بنفس الطريقة عبر الجلسات. التحدي الآخر هو القدرة على إجراء هذا النوع من التحليل على نطاق مستمر بدلا من المقاييس المنفصلة مثل MGS. للتخفيف من هذه التحديات ، هدفنا إلى دمج التعلم الآلي ، في شكل DeepLabCut (DLC) ، في خط أنابيب تحليل البيانات الخاص بنا. DLC هو نموذج التعلم الآلي لتقدير الوضع الذي طوره ماتيس وزملاؤه وتم تطبيقه على مجموعة واسعة من السلوكيات16. باستخدام برنامج تقدير الوضع الخاص بهم ، تمكنا من تدريب النماذج التي يمكنها التنبؤ بدقة بالنقاط على عين الماوس بدقة شبه البشرية. هذا يحل مشكلات التسجيل اليدوي المتكرر مع زيادة الدقة الزمنية بشكل كبير. علاوة على ذلك ، من خلال إنشاء هذه النماذج ، قمنا بعمل وسيلة قابلة للتكرار لتسجيل الحول وتقدير نشاط الدماغ الشبيه بالصداع النصفي على مجموعات تجريبية أكبر. هنا ، نقدم تطوير هذه الطريقة والتحقق من صحتها لتتبع سلوكيات الحول بطريقة يمكن أن تكون مقفلة زمنيا للقياسات الميكانيكية الأخرى مثل الفيزيولوجيا العصبية. الهدف الشامل هو تحفيز الدراسات الميكانيكية التي تتطلب سلوكيات الحول المقفلة زمنيا في نماذج القوارض.

Protocol

ملاحظة: تم التعامل مع جميع المستخدمة في هذه التجارب وفقا للبروتوكولات المعتمدة من قبل اللجنة المؤسسية لرعاية واستخدامه (IACUC) بجامعة أيوا.

1. إعداد المعدات لجمع البيانات

  1. تأكد من توفر جميع المعدات اللازمة: تأكد من أن الأجهزة الموصى بها لتشغيل DLC تحتوي على ذاكرة لا تقل عن 8 جيجابايت. راجع جدول المواد للحصول على معلومات متعلقة بالأجهزة والبرامج.
    ملاحظة: يمكن جمع البيانات بأي تنسيق ولكن يجب تحويلها إلى تنسيق يمكن قراءته بواسطة DLC قبل التحليل. التنسيقات الأكثر شيوعا هي AVI و MP4.
  2. قم بتكوين كاميرا واحدة على الأقل بحيث يمكن اكتشاف عين واحدة لحيوان. إذا كانت كلتا العينين مرئيتين ، فقم بإجراء تصفية إضافية ، فقد يتسبب ذلك في حدوث تداخل في التتبع. انظر القسم 10 للحصول على مثال على هذه التصفية للبيانات المقدمة هنا.
  3. قم بتثبيت DLC باستخدام الحزمة الموجودة في Deeplabcut.github.io/DeepLabCut/docs/installation.
  4. في إعداد الكاميرا، قم بتضمين كاميرا واحدة بزاوية جانبية (~90 درجة) للماوس. لاتباع هذا المثال ، قم بأخذ عينة عند 10 هرتز ، مع تقييد الفئران ولكن بحرية الوصول إلى النطاق الكامل لحركات الرأس بالنسبة للجسم. احتفظ بما بين 2 و 4 بوصات من الكاميرا إلى.

2. إعداد المحتوى القابل للتنزيل

  1. بعد تثبيت DLC، قم بإنشاء بيئة للعمل منها. للقيام بذلك، انتقل إلى المجلد حيث تم تنزيل برنامج DLC باستخدام دليل التغيير باستخدام الأمر التالي.
    folder_name القرص المضغوط
    ملاحظة: سيكون هذا هو المكان الذي يوجد فيه ملف DEEPLABCUT.yaml.
  2. قم بتشغيل الأمر الأول لإنشاء البيئة وتمكينها عن طريق كتابة الأمر الثاني.
    conda env create -f DEEPLABCUT.yaml
    conda تنشيط Deeplabcut
    ملاحظة: تأكد من تنشيط البيئة قبل كل استخدام للمحتوى القابل للتنزيل.
    بعد تنشيط البيئة، افتح واجهة المستخدم الرسومية (GUI) بالأمر التالي وابدأ في إنشاء النموذج.
    بايثون -م deeplabcut

3. إنشاء النموذج

  1. بعد فتح واجهة المستخدم الرسومية ، ابدأ في إنشاء نموذج بالنقر فوق إنشاء مشروع جديد في الأسفل.
  2. قم بتسمية المشروع بشيء ذي مغزى وفريد من نوعه لتحديده لاحقا وأدخل اسما كمجريب. تحقق من قسم الموقع لمعرفة مكان حفظ المشروع.
  3. حدد استعراض المجلدات وابحث عن مقاطع الفيديو لتدريب النموذج. حدد نسخ مقاطع الفيديو إلى مجلد المشروع إذا لم يتم نقل مقاطع الفيديو من دليلها الأصلي.
  4. حدد إنشاء لإنشاء مشروع جديد على الكمبيوتر.
    ملاحظة: يجب أن تغطي مقاطع الفيديو النطاق الكامل للسلوك الذي ستلاحظه (على سبيل المثال ، الحول ، وعدم الحول ، وجميع السلوكيات بينهما). سيكون النموذج قادرا فقط على التعرف على السلوك المشابه لتلك الموجودة في بيانات التدريب ، وإذا كانت بعض مكونات السلوك مفقودة ، فقد يواجه النموذج صعوبة في التعرف عليه.

4. تكوين الإعدادات

ملاحظة: هذا هو المكان الذي يمكن فيه تحديد تفاصيل مثل النقاط التي يجب تتبعها ، وعدد الإطارات التي يجب استخراجها من كل فيديو تدريبي ، وحجم نقطة التسمية الافتراضي ، والمتغيرات المتعلقة بكيفية تدريب النموذج.

  1. بعد إنشاء النموذج، قم بتحرير إعدادات التكوين عن طريق تحديد تحرير config.yaml. حدد تحرير لفتح ملف إعدادات التكوين لتحديد إعدادات المفاتيح المتعلقة بالنموذج.
  2. قم بتعديل أجزاء الجسم لتشمل جميع أجزاء العين المراد تتبعها ، ثم قم بتعديل numframes2pick لعدد الإطارات المطلوبة لكل فيديو تدريبي للحصول على إجمالي 400 إطار. أخيرا ، قم بتغيير حجم النقاط إلى ستة بحيث يكون الحجم الافتراضي عند وضع الملصقات صغيرا بما يكفي لوضعه بدقة حول حواف العين.

5. استخراج إطارات التدريب

  1. بعد التكوين، انتقل إلى علامة التبويب Extract Frames في الجزء العلوي من واجهة المستخدم الرسومية (GUI) وحدد Extract Frames في أسفل يمين الصفحة.
  2. راقب التقدم باستخدام شريط التحميل في الجزء السفلي من واجهة المستخدم الرسومية.

6. إطارات التدريب على التسمية

  1. انتقل إلى علامة التبويب إطارات التسمية في واجهة المستخدم الرسومية (GUI) وحدد إطارات التسميات. ابحث عن النافذة الجديدة التي تعرض مجلدات لكل مقطع فيديو تدريبي محدد. حدد المجلد الأول، وسيتم فتح واجهة مستخدم رسومية جديدة للتصنيف.
  2. قم بتسمية النقاط المحددة أثناء التكوين لكل إطار من الفيديو المحدد. بعد تسمية جميع الإطارات ، احفظها وكرر العملية للفيديو التالي.
  3. للحصول على وضع العلامات المناسبة على الحول ، استخدم نقطتين قريبتين من أكبر ذروة للعين (المركز) قدر الإمكان وحدد المواضع لأعلى / لأسفل لكل نقطة. الحول التقريبي كمتوسط لهذين الطولين.
    ملاحظة: عند وضع العلامات، لا يقوم المحتوى القابل للتنزيل بحفظ التقدم تلقائيا. يوصى بالتوفير الدوري لتجنب فقدان البيانات المصنفة.

7. إنشاء مجموعة بيانات تدريب

  1. بعد التسمية يدويا، انتقل إلى علامة التبويب شبكة التدريب وحدد شبكة التدريب لمطالبة البرنامج ببدء تدريب النموذج.
  2. مراقبة التقدم في نافذة الأوامر.

8. تقييم الشبكة

  1. بعد اكتمال التدريب على الشبكة، انتقل إلى علامة التبويب تقييم الشبكة وحدد تقييم الشبكة. انتظر بضع لحظات حتى تختفي دائرة التحميل الزرقاء مما يشير إلى أنها انتهت من التقييم الذاتي وأن النموذج جاهز للاستخدام.

9. تحليل البيانات / إنشاء مقاطع فيديو مصنفة

  1. لتحليل مقاطع الفيديو، انتقل إلى علامة التبويب تحليل مقاطع الفيديو . حدد إضافة المزيد من مقاطع الفيديو وحدد مقاطع الفيديو المراد تحليلها.
  2. حدد حفظ النتيجة (النتيجة) ك csv إذا كان إخراج csv للبيانات كافيا.
  3. عند الحصول على جميع مقاطع الفيديو ، حدد تحليل مقاطع الفيديو في الجزء السفلي لبدء تحليل مقاطع الفيديو.
    ملاحظة: يجب إكمال هذه الخطوة قبل إنشاء مقاطع فيديو مصنفة في الخطوة 9.5
  4. بعد تحليل مقاطع الفيديو ، انتقل إلى علامة التبويب إنشاء مقاطع فيديو وحدد مقاطع الفيديو التي تم تحليلها.
  5. حدد إنشاء مقاطع فيديو وسيبدأ البرنامج في إنشاء مقاطع فيديو مصنفة تمثل البيانات المعروضة في .csv المقابلة.

10. معالجة البيانات النهائية

  1. قم بتطبيق وحدات الماكرو الموجودة في https://research-git.uiowa.edu/rainbo-hultman/facial-grimace-dlc لتحويل البيانات الأولية إلى التنسيق المستخدم في هذا التحليل (أي المسافة الإقليدسية).
  2. قم باستيراد وتطبيق وحدات الماكرو المسماة Step1 و Step 2 على csv لتصفية جميع نقاط البيانات دون المستوى الأمثل وتحويل البيانات إلى متوسط المسافة الإقليدية للنقاط المركزية في أعلى وأسفل العين.
  3. قم بتشغيل ماكرو يسمى Step3 لتمييز كل نقطة على أنها 0 بدون حول و 1 حول بناء على قيمة العتبة في البرنامج النصي ، والتي تم تعيينها على 75 بكسل.
    ملاحظة: قد تتطلب معلمات وحدات الماكرو هذه التعديل وفقا للإعداد التجريبي (انظر المناقشة). عتبة الحول والمرشح التلقائي للقيمة القصوى للعين هي معلمات يمكن تغييرها اعتمادا على حجم والمسافة من الكاميرا. يمكنك أيضا ضبط القيم المستخدمة لإزالة النقاط دون المستوى الأمثل اعتمادا على مدى تصفية البيانات بشكل انتقائي.

النتائج

هنا ، نقدم طريقة للكشف الموثوق به عن الحول بدقة زمنية عالية باستخدام DeepLabCut. لقد قمنا بتحسين معلمات التدريب ، ونقدم تقييما لنقاط القوة والضعف في هذه الطريقة (الشكل 1).

بعد تدريب نماذجنا ، تحققنا من أنهم كانوا قادرين على تقدير النقاط العلوية و...

Discussion

يوفر هذا البروتوكول طريقة متعمقة يسهل الوصول إليها لاستخدام الأدوات القائمة على التعلم الآلي والتي يمكنها التمييز بين الحول بدقة شبه بشرية مع الحفاظ على نفس الدقة الزمنية (أو الأفضل) للأساليب السابقة. في المقام الأول ، يجعل تقييم الحول الآلي متاحا بسهولة أكبر لجمهور أو?...

Disclosures

ليس لدينا تضارب في المصالح للإفصاح عنه. الآراء الواردة في هذه الورقة لا تمثل وزارة شؤون المحاربين القدامى أو حكومة الولايات المتحدة.

Acknowledgements

شكرا لراجياشري سين على المحادثات الثاقبة. بفضل جائزة McKnight Foundation Neurobiology of Disease (RH) ، و NIH 1DP2MH126377-01 (RH) ، و Roy J. Carver Charitable Trust (RH) ، و NINDS T32NS007124 (MJ) ، و Ramon D. Buckley Graduate Student (MJ) ، و VA-ORD (RR & D) merit 1 I01 RX003523-0 (LS).

Materials

NameCompanyCatalog NumberComments
CUDA toolkit 11.8
cuDNN SDK 8.6.0
Intel computers with Windows 11, 13th gen 
LabFaceX 2D Eyelid Tracker Add-on Module for a Free Roaming Mouse:FaceX LLCNAAny camera that can record an animal's eye is sufficient, but this is our eye tracking hardware.
NVIDIA GPU driver that is version 450.80.02 or higher
NVIDIA RTX A5500, 24 GB DDR6NVIDIA[490-BHXV]Any GPU that meets the minimum requirements specified for your version of DLC, currently 8 GB, is sufficient. We used NVIDIA GeForce RTX 3080 Ti GPU
Python 3.9-3.11
TensorFlow version 2.10

References

  1. Disease, G. B. D., Injury, I., Prevalence, C. Global, regional, and national incidence, prevalence, and years lived with disability for 354 diseases and injuries for 195 countries and territories, 1990-2017: A systematic analysis for the global burden of disease study 2017. Lancet. 392 (10159), 1789-1858 (2018).
  2. Russo, A. F. Cgrp as a neuropeptide in migraine: Lessons from mice. Br J Clin Pharmacol. 80 (3), 403-414 (2015).
  3. Wattiez, A. S., Wang, M., Russo, A. F. Cgrp in animal models of migraine. Handb Exp Pharmacol. 255, 85-107 (2019).
  4. Hansen, J. M., Hauge, A. W., Olesen, J., Ashina, M. Calcitonin gene-related peptide triggers migraine-like attacks in patients with migraine with aura. Cephalalgia. 30 (10), 1179-1186 (2010).
  5. Mason, B. N., et al. Induction of migraine-like photophobic behavior in mice by both peripheral and central cgrp mechanisms. J Neurosci. 37 (1), 204-216 (2017).
  6. Rea, B. J., et al. Peripherally administered cgrp induces spontaneous pain in mice: Implications for migraine. Pain. 159 (11), 2306-2317 (2018).
  7. Kopruszinski, C. M., et al. Prevention of stress- or nitric oxide donor-induced medication overuse headache by a calcitonin gene-related peptide antibody in rodents. Cephalalgia. 37 (6), 560-570 (2017).
  8. Juhasz, G., et al. No-induced migraine attack: Strong increase in plasma calcitonin gene-related peptide (cgrp) concentration and negative correlation with platelet serotonin release. Pain. 106 (3), 461-470 (2003).
  9. Aditya, S., Rattan, A. Advances in cgrp monoclonal antibodies as migraine therapy: A narrative review. Saudi J Med Med Sci. 11 (1), 11-18 (2023).
  10. Goadsby, P. J., et al. A controlled trial of erenumab for episodic migraine. N Engl J Med. 377 (22), 2123-2132 (2017).
  11. Mogil, J. S., Pang, D. S. J., Silva Dutra, G. G., Chambers, C. T. The development and use of facial grimace scales for pain measurement in animals. Neurosci Biobehav Rev. 116, 480-493 (2020).
  12. Whittaker, A. L., Liu, Y., Barker, T. H. Methods used and application of the mouse grimace scale in biomedical research 10 years on: A scoping review. Animals (Basel). 11 (3), 673 (2021).
  13. Langford, D. J., et al. Coding of facial expressions of pain in the laboratory mouse. Nat Methods. 7 (6), 447-449 (2010).
  14. Rea, B. J., et al. Automated detection of squint as a sensitive assay of sex-dependent calcitonin gene-related peptide and amylin-induced pain in mice. Pain. 163 (8), 1511-1519 (2022).
  15. Tuttle, A. H., et al. A deep neural network to assess spontaneous pain from mouse facial expressions. Mol Pain. 14, 1744806918763658 (2018).
  16. Mathis, A., et al. Deeplabcut: Markerless pose estimation of user-defined body parts with deep learning. Nat Neurosci. 21 (9), 1281-1289 (2018).
  17. Wattiez, A. S., et al. Different forms of traumatic brain injuries cause different tactile hypersensitivity profiles. Pain. 162 (4), 1163-1175 (2021).

Reprints and Permissions

Request permission to reuse the text or figures of this JoVE article

Request Permission

Explore More Articles

213

This article has been published

Video Coming Soon

JoVE Logo

Privacy

Terms of Use

Policies

Research

Education

ABOUT JoVE

Copyright © 2025 MyJoVE Corporation. All rights reserved