Oturum Aç

Bu içeriği görüntülemek için JoVE aboneliği gereklidir. Oturum açın veya ücretsiz deneme sürümünü başlatın.

Bu Makalede

  • Özet
  • Özet
  • Giriş
  • Protokol
  • Sonuçlar
  • Tartışmalar
  • Açıklamalar
  • Teşekkürler
  • Malzemeler
  • Referanslar
  • Yeniden Basımlar ve İzinler

Özet

Bu protokol, zaman kilitlemeden nörofizyolojik önlemlere uyumlu bir şekilde kemirgenlerde otomatik göz şaşılığının zaman içinde izlenmesi için bir yöntem sağlar. Bu protokolün, migren gibi ağrı bozukluklarının mekanizmalarını inceleyen araştırmacılar için yararlı olması beklenmektedir.

Özet

Spontan ağrının gerçek zamanlı olarak izlenmesi ve insan önyargısını önleyecek şekilde ölçülmesi zor olmuştur. Bu, özellikle migren gibi rahatsızlıklarda olduğu gibi baş ağrısı ölçümleri için geçerlidir. Göz şaşılığı, zaman içinde ölçülebilen ve bu tür tahlillerde ağrı durumlarını tahmin etmek için etkili olan sürekli değişken bir metrik olarak ortaya çıkmıştır. Bu makale, serbestçe dönen kafa hareketlerine sahip kısıtlı farelerde göz kısılmasını (göz kapakları arasındaki Öklid mesafesi) otomatikleştirmek ve ölçmek için DeepLabCut (DLC) kullanımı için bir protokol sağlar. Bu protokol, göz şaşılığının tarafsız bir şekilde ölçülmesinin, nörofizyoloji gibi mekanik ölçümlerle doğrudan eşleştirilmesini ve bunlarla karşılaştırılmasını sağlar. Şaşı ve şaşı olmayan dönemleri ayırt ederek tanımlanan başarıya ulaşmak için gerekli AI eğitim parametrelerinin bir değerlendirmesini sağlıyoruz. CGRP'nin neden olduğu migren benzeri bir fenotipte şaşılığı saniyenin altında bir çözünürlükte güvenilir bir şekilde izleme ve ayırt etme yeteneğini gösteriyoruz.

Giriş

Migren, dünya çapında en yaygın beyin bozukluklarından biridir ve bir milyardan fazla insanı etkilemektedir1. Migrenin klinik öncesi fare modelleri, migren mekanizmalarını incelemek için bilgilendirici bir yol olarak ortaya çıkmıştır, çünkü bu çalışmalar insan çalışmalarından daha kolay kontrol edilebilir ve böylece migrenle ilişkili davranışın nedensel çalışmasını mümkün kılar2. Bu tür modeller, kalsitonin geni ile ilişkili peptit (CGRP) gibi migrene neden olan bileşiklere karşı güçlü ve tekrarlanabilir bir fenotipik yanıt göstermiştir. Kemirgen modellerinde migrenle ilgili davranışların sağlam ölçümlerine duyulan ihtiyaç, özellikle görüntüleme ve elektrofizyolojik yaklaşımlar gibi mekanik metriklerle birleştirilebilecek olanlar devam etmektedir.

Migren benzeri beyin durumları fenotipik olarak ışıktan kaçınma, pençe allodinisi, zararlı uyaranlara karşı yüz hiperaljezisi ve yüz buruşturma3 varlığı ile karakterize edilmiştir. Bu tür davranışlar, ışıkta geçirilen toplam süre (ışıktan kaçınma) ve pençe veya yüz dokunma hassasiyeti eşikleri (pençe allodini ve yüz hiperaljezisi) ile ölçülür ve uzun süreler boyunca (dakikalar veya daha uzun) tek bir okuma ile sınırlıdır. Migren benzeri davranışlar, migren3'lü insan hastaların yaşadığı semptomları taklit ederek, CGRP gibi migrene neden olan bileşiklerle dozlanarak hayvanlarda ortaya çıkarılabilir (yani, yüz geçerliliğini gösterir). Bu tür bileşikler ayrıca insanlarda uygulandığında migren semptomlarına neden olur ve bu modellerin yapı geçerliliğini gösterir4. Davranışsal fenotiplerin farmakolojik olarak zayıflatıldığı çalışmalar, migren tedavisi ile ilgili keşiflere yol açmış ve bu modellerin daha fazla doğrulanmasını sağlamıştır (yani, öngörücü geçerliliği gösteren)5,6.

Örneğin, bir monoklonal anti-CGRP antikorunun (ALD405), CGRP ile tedavi edilen farelerde6 ışıktan kaçınma davranışını5 ve yüz buruşturmayı azalttığı gösterilmiştir ve diğer çalışmalar, CGRP antagonist ilaçlarının hayvanlarda azot oksit kaynaklı migren benzeri davranışları azalttığını göstermiştir 7,8. Son klinik çalışmalar, CGRP 9,10'u bloke ederek migren tedavisinde başarı göstermiştir ve bu da CGRP veya reseptörünü hedef alan çok sayıda FDA onaylı ilaca yol açmıştır. Migrene bağlı fenotiplerin klinik öncesi değerlendirmesi, klinik bulgularda atılımlara yol açmıştır ve bu nedenle, migrenin insanlarda doğrudan test edilmesi zor olan daha karmaşık yönlerinin bazılarını anlamak için gereklidir.

Sayısız avantaja rağmen, migrenin bu kemirgen davranışsal okumalarını kullanan deneyler genellikle zaman noktası örnekleme yeteneklerinde sınırlıdır ve öznel olabilir ve insan deney hatasına eğilimli olabilir. Birçok davranışsal tahlil, aktiviteyi daha ince zamansal çözünürlüklerde yakalama yeteneğinde sınırlıdır, bu da genellikle beyin aktivitesi düzeyinde olduğu gibi saniyenin altında bir zaman ölçeğinde meydana gelen daha dinamik unsurları yakalamayı zorlaştırır. Nörofizyolojik mekanizmaları incelemek için zaman içinde daha kendiliğinden, doğal olarak ortaya çıkan davranış unsurlarını anlamlı bir zamansal çözünürlükte ölçmenin zor olduğu kanıtlanmıştır. Migren benzeri aktiviteyi daha hızlı zaman ölçeklerinde tanımlamanın bir yolunu oluşturmak, migren benzeri beyin durumlarının dışarıdan doğrulanmasına izin verecektir. Bu da, migrenin daha sağlam beyin aktivitesi profilleri oluşturmak için beyin aktivitesi ile senkronize edilebilir.

Böyle bir migrenle ilişkili fenotip olan yüz buruşturma, hayvanlarda anlık olarak ölçülebilen ve zaman içinde izlenebilen bir ağrı ölçümü olarak çeşitli bağlamlarda kullanılmaktadır11. Yüz buruşturma, insanların (özellikle sözel olmayan insanlar) ve diğer memeli türlerinin ağrı yaşarken yüz ifadesinde doğal değişiklikler gösterdiği fikrine dayanarak genellikle spontan ağrının bir göstergesi olarak kullanılır11. Son on yılda farelerde ağrının bir göstergesi olarak yüz buruşturmayı ölçen çalışmalar, kemirgenlerde ağrının karakterizasyonunu standartlaştırmak için Fare Yüz Buruşturma Ölçeği (MGS) gibi ölçekler kullanmıştır12. MGS'nin yüz ifadesi değişkenleri arasında orbital sıkılaştırma (şaşılık), burun şişkinliği, yanak şişkinliği, kulak pozisyonu ve bıyık değişikliği yer alır. MGS'nin hayvanlarda13 ağrıyı güvenilir bir şekilde karakterize ettiği gösterilmiş olsa da, herkesin bildiği gibi özneldir ve deneyciler arasında değişebilen doğru puanlamaya dayanır. Ek olarak, MGS, sürekli olmayan bir ölçek kullanması ve zaman içinde doğal olarak meydana gelen davranışı izlemek için gereken zamansal çözünürlükten yoksun olması bakımından sınırlıdır.

Bununla mücadele etmenin bir yolu, tutarlı bir yüz özelliğini objektif olarak ölçmektir. Şaşılık, en tutarlı şekilde izlenebilir yüz özelliğidir6. Şaşılık, tüm MGS değişkenlerini (şaşılık, burun şişkinliği, yanak şişkinliği, kulak pozisyonu ve bıyık değişimi) hesaba katarken verilerdeki toplam değişkenliğin çoğunu oluşturur6. Şaşılık, MGS kullanılarak elde edilen genel skora en fazla katkıda bulunduğundan ve CGRP 6,14'e yanıtı güvenilir bir şekilde izlediğinden, migren fare modellerinde spontan ağrıyı izlemenin en güvenilir yoludur. Bu, şaşılığı CGRP tarafından indüklenen ölçülebilir homeostatik olmayan bir davranış haline getirir. Bazı laboratuvarlar, migren 6,15 ile ilişkili potansiyel spontan ağrıyı temsil etmek için şaşılık da dahil olmak üzere yüz ifadesi özelliklerini kullanmıştır.

Migrenin mekanik çalışmaları ile birleştirilebilecek bir şekilde otomatik şaşılıkların gerçekleştirilmesiyle ilgili çeşitli zorluklar devam etmiştir. Örneğin, seanslar arasında aynı şekilde kalibre edilmesi gereken sabit bir konuma güvenmeden şaşılığı güvenilir bir şekilde izlemek zor olmuştur. Diğer bir zorluk, bu tür bir analizi MGS gibi ayrı ölçekler yerine sürekli bir ölçekte gerçekleştirme yeteneğidir. Bu zorlukları azaltmak için, DeepLabCut (DLC) biçimindeki makine öğrenimini veri analizi hattımıza entegre etmeyi amaçladık. DLC, Mathis ve meslektaşları tarafından geliştirilen ve çok çeşitli davranışlara uygulanan bir poz tahmini makine öğrenimi modelidir16. Poz tahmin yazılımlarını kullanarak, bir fare gözündeki noktaları insana yakın bir doğrulukla doğru bir şekilde tahmin edebilen modelleri eğitebildik. Bu, tekrarlayan manuel puanlama sorunlarını çözerken aynı zamanda zamansal çözünürlüğü de önemli ölçüde artırır. Ayrıca, bu modelleri oluşturarak, daha büyük deney grupları üzerinde migren benzeri beyin aktivitesini şaşılıkla puanlamak ve tahmin etmek için tekrarlanabilir bir araç yaptık. Burada, nörofizyoloji gibi diğer mekanik ölçümlere zaman kilitlenebilecek şekilde şaşılık davranışlarını izlemek için bu yöntemin geliştirilmesini ve doğrulanmasını sunuyoruz. Kapsayıcı amaç, kemirgen modellerinde zaman kilitli şaşılık davranışları gerektiren mekanik çalışmaları katalize etmektir.

Protokol

NOT: Bu deneylerde kullanılan tüm hayvanlar, Iowa Üniversitesi Kurumsal Hayvan Bakımı ve Kullanımı Komitesi (IACUC) tarafından onaylanan protokollere göre ele alınmıştır.

1. Veri toplama için ekipman hazırlayın

  1. Gerekli tüm ekipmanın kullanılabilirliğini sağlayın: DLC'yi çalıştırmak için önerilen donanımın en az 8 GB belleğe sahip olduğundan emin olun. Donanım ve yazılımla ilgili bilgi için Malzeme Tablosu'na bakın.
    NOT: Veriler herhangi bir formatta toplanabilir, ancak analizden önce DLC tarafından okunabilir bir formata dönüştürülmelidir. En yaygın formatlar AVI ve MP4'tür.
  2. Bir hayvanın bir gözünün algılanabilmesi için en az bir kamera yapılandırın. Her iki göz de görünüyorsa, izlemede parazite neden olabileceğinden ek filtreleme yapın. Burada sağlanan veriler için bu tür bir filtreleme örneği için bölüm 10'a bakın.
  3. Deeplabcut.github.io/DeepLabCut/docs/installation'da bulunan paketi kullanarak DLC'yi yükleyin.
  4. Kamera kurulumunda, fareye yan açıda (~ 90 °) tek bir kamera ekleyin. Bu örneği takip etmek için, 10 Hz'de, fareler kısıtlanmış ancak vücuda göre tüm kafa hareketlerine erişmekte serbestken örnekleme yapın. Kameradan hayvana 2 ila 4 inç arasında tutun.

2. DLC'yi ayarlama

  1. DLC'yi yükledikten sonra, çalışmak için ortamı oluşturun. Bunu yapmak için, aşağıdaki komutla change dizinini kullanarak DLC yazılımının indirildiği klasöre gidin.
    cd folder_name
    NOT: Burası DEEPLABCUT.yaml dosyasının bulunduğu yer olacaktır.
  2. Ortamı oluşturmak için ilk komutu çalıştırın ve ikinci komutu yazarak etkinleştirin.
    conda env create -f DEEPLABCUT.yaml
    conda Deeplabcut'ı etkinleştirin
    NOT: DLC'nin her kullanımından önce ortamın etkinleştirildiğinden emin olun.
    Ortamı etkinleştirdikten sonra, aşağıdaki komutla grafik kullanıcı arayüzünü (GUI) açın ve modeli oluşturmaya başlayın.
    python -m derin laboratuvar kesimi

3. Modeli oluşturun

  1. GUI açıldıktan sonra, alt kısımdaki Yeni Proje Oluştur'a tıklayarak bir model oluşturmaya başlayın.
  2. Projeyi daha sonra tanımlamak için anlamlı ve benzersiz bir ad verin ve deneyci olarak bir ad girin. Projenin nereye kaydedileceğini görmek için Konum bölümünü kontrol edin.
  3. Klasörlere gözat'ı seçin ve modeli eğitmek için videoları bulun. Videolar orijinal dizinlerinden taşınmayacaksa Videoları proje klasörüne kopyala'yı seçin.
  4. Bilgisayarda yeni bir proje oluşturmak için Oluştur'u seçin.
    NOT: Videolar, gözlemleyeceğiniz davranışın tamamını kapsamalıdır (yani, şaşı, şaşı olmama ve aradaki tüm davranışlar). Model, yalnızca eğitim verilerindekine benzer davranışı tanıyabilir ve davranışın bazı bileşenleri eksikse, model bunu tanımakta sorun yaşayabilir.

4. Ayarları yapılandırın

NOT: Hangi noktaların izleneceği, her eğitim videosundan kaç kare çıkarılacağı, varsayılan etiketleme nokta boyutu ve modelin nasıl eğitileceği ile ilgili değişkenler gibi ayrıntıların tanımlanabileceği yer burasıdır.

  1. Modeli oluşturduktan sonra Düzenle config.yaml'yi seçerek yapılandırma ayarlarını düzenleyin. Modelle ilgili temel ayarları belirtmek üzere yapılandırma ayarları dosyasını açmak için düzenle'yi seçin.
  2. Vücut kısımlarını izlenecek gözün tüm kısımlarını içerecek şekilde değiştirin, ardından toplam 400 kare elde etmek için numframes2pick'i eğitim videosu başına gereken kare sayısına değiştirin. Son olarak, etiketleme sırasında varsayılan boyutun gözün kenarlarına doğru bir şekilde yerleştirilecek kadar küçük olması için nokta boyutunu altı olarak değiştirin.

5. Eğitim çerçevelerini çıkarın

  1. Yapılandırmanın ardından, GUI'nin üst kısmındaki Çerçeveleri Ayıkla sekmesine gidin ve sayfanın sağ alt kısmındaki Çerçeveleri Ayıkla'yı seçin.
  2. GUI'nin altındaki yükleme çubuğunu kullanarak ilerlemeyi izleyin.

6. Eğitim çerçevelerini etiketleyin

  1. GUI'deki Etiket Çerçeveleri sekmesine gidin ve Etiket Çerçeveleri'ni seçin. Seçilen eğitim videolarının her biri için klasörleri gösteren yeni pencereyi bulun. İlk klasörü seçin ve yeni bir etiketleme GUI'si açılacaktır.
  2. Seçilen videonun her karesi için yapılandırma sırasında tanımlanan noktaları etiketleyin. Tüm kareler etiketlendikten sonra kaydedin ve bir sonraki video için işlemi tekrarlayın.
  3. Şaşılığın yeterli şekilde etiketlenmesi için, gözün en büyük zirvesine (merkez) mümkün olduğunca yakın iki nokta kullanın ve her nokta için yukarı/aşağı konumlarını belirtin. Bu iki uzunluğun ortalaması olarak yaklaşık şaşılık.
    NOT: Etiketleme sırasında, DLC ilerlemeyi otomatik olarak kaydetmez. Etiketli verilerin kaybını önlemek için periyodik olarak kaydetme önerilir.

7. Bir eğitim veri kümesi oluşturun

  1. El ile etiketlemeden sonra Tren ağı sekmesine gidin ve yazılımdan modeli eğitmeye başlamasını istemek için Ağı eğit'i seçin.
  2. Komut penceresinde ilerlemeyi izleyin.

8. Ağı değerlendirin

  1. Ağ eğitimi tamamlandıktan sonra Ağı değerlendir sekmesine gidin ve Ağı değerlendir'i seçin. Mavi yükleme çemberi kaybolana kadar birkaç dakika bekleyin, bu da kendi kendini değerlendirmeyi tamamladığını ve modelin kullanıma hazır olduğunu gösterir.

9. Verileri analiz edin/etiketli videolar oluşturun

  1. Videoları analiz etmek için Videoları analiz et sekmesine gidin. Daha fazla video ekle'yi seçin ve analiz edilecek videoları seçin.
  2. Verilerin csv çıktısı yeterliyse Sonuçları csv olarak kaydet'i seçin.
  3. Videoların tümü alındığında, videoları analiz etmeye başlamak için alt kısımdaki Videoları analiz et'i seçin.
    NOT: Bu adım, adım 9.5'te etiketli videolar oluşturulmadan önce tamamlanmalıdır
  4. Videolar analiz edildikten sonra şuraya gidin: Video oluştur sekmesine gidin ve analiz edilen videoları seçin.
  5. Video oluştur'u seçin ve yazılım, ilgili .csv gösterilen verileri temsil eden etiketli videolar oluşturmaya başlayacaktır.

10. Nihai verileri işleyin

  1. Ham verileri bu analiz için kullanılan biçime (yani Öklid mesafesi) dönüştürmek için https://research-git.uiowa.edu/rainbo-hultman/facial-grimace-dlc'da bulunan makroları uygulayın.
  2. Tüm yetersiz veri noktalarını filtrelemek ve verileri gözün üst ve alt kısmındaki en orta noktalar için ortalama bir Öklid mesafesine dönüştürmek için Adım 1 ve Adım 2 etiketli makroları csv'ye aktarın ve uygulayın.
  3. Komut dosyasındaki 75 piksel olarak ayarlanan eşik değerine bağlı olarak her noktayı 0 şaşılık yok ve 1 şaşılık olarak işaretlemek için Step3 adlı makroyu çalıştırın.
    NOT: Bu makroların parametreleri, deney kurulumuna bağlı olarak ayarlama gerektirebilir (tartışmaya bakın). Şaşılık eşiği ve gözün maksimum değeri için otomatik filtre, hayvanın boyutuna ve kameraya olan mesafeye bağlı olarak değiştirilebilen parametrelerdir. Verilerin ne kadar seçici bir şekilde filtrelenmesi gerektiğine bağlı olarak, optimal olmayan noktaları kaldırmak için kullanılan değerleri de ayarlayabilirsiniz.

Sonuçlar

Burada, DeepLabCut kullanarak yüksek zamansal çözünürlükte şaşılığın güvenilir bir şekilde algılanması için bir yöntem sunuyoruz. Eğitim parametrelerini optimize ettik ve bu yöntemin güçlü ve zayıf yönlerinin bir değerlendirmesini sağlıyoruz (Şekil 1).

Modellerimizi eğittikten sonra, Öklid mesafe ölçümü için koordinat noktaları olarak hizmet eden göz kapağının üst ve alt noktalarını (

Tartışmalar

Bu protokol, önceki yaklaşımların aynı (veya daha iyi) zamansal çözünürlüğünü korurken şaşılığı insana yakın doğrulukta ayırt edebilen makine öğrenimi tabanlı araçları kullanmak için kolayca erişilebilir derinlemesine bir yöntem sağlar. Öncelikle, otomatik şaşılığın değerlendirilmesini daha geniş bir kitle için daha kolay erişilebilir hale getirir. Otomatik şaşılığı değerlendirmek için yeni yöntemimiz, önceki modellere kıyasla çeşitl...

Açıklamalar

İfşa edilecek herhangi bir çıkar çatışmamız yok. Bu belgedeki görüşler VA'yı veya Amerika Birleşik Devletleri Hükümeti'ni temsil etmemektedir.

Teşekkürler

Anlayışlı sohbetler için Rajyashree Sen'e teşekkürler. McKnight Vakfı Hastalık Nörobiyolojisi Ödülü (RH), NIH 1DP2MH126377-01 (RH), Roy J. Carver Charitable Trust (RH), NINDS T32NS007124 (MJ), Ramon D. Buckley Lisansüstü Öğrenci Ödülü (MJ) ve VA-ORD (RR&D) MERIT 1 I01 RX003523-0 (LS).

Malzemeler

NameCompanyCatalog NumberComments
CUDA toolkit 11.8
cuDNN SDK 8.6.0
Intel computers with Windows 11, 13th gen 
LabFaceX 2D Eyelid Tracker Add-on Module for a Free Roaming Mouse:FaceX LLCNAAny camera that can record an animal's eye is sufficient, but this is our eye tracking hardware.
NVIDIA GPU driver that is version 450.80.02 or higher
NVIDIA RTX A5500, 24 GB DDR6NVIDIA[490-BHXV]Any GPU that meets the minimum requirements specified for your version of DLC, currently 8 GB, is sufficient. We used NVIDIA GeForce RTX 3080 Ti GPU
Python 3.9-3.11
TensorFlow version 2.10

Referanslar

  1. Disease, G. B. D., Injury, I., Prevalence, C. Global, regional, and national incidence, prevalence, and years lived with disability for 354 diseases and injuries for 195 countries and territories, 1990-2017: A systematic analysis for the global burden of disease study 2017. Lancet. 392 (10159), 1789-1858 (2018).
  2. Russo, A. F. Cgrp as a neuropeptide in migraine: Lessons from mice. Br J Clin Pharmacol. 80 (3), 403-414 (2015).
  3. Wattiez, A. S., Wang, M., Russo, A. F. Cgrp in animal models of migraine. Handb Exp Pharmacol. 255, 85-107 (2019).
  4. Hansen, J. M., Hauge, A. W., Olesen, J., Ashina, M. Calcitonin gene-related peptide triggers migraine-like attacks in patients with migraine with aura. Cephalalgia. 30 (10), 1179-1186 (2010).
  5. Mason, B. N., et al. Induction of migraine-like photophobic behavior in mice by both peripheral and central cgrp mechanisms. J Neurosci. 37 (1), 204-216 (2017).
  6. Rea, B. J., et al. Peripherally administered cgrp induces spontaneous pain in mice: Implications for migraine. Pain. 159 (11), 2306-2317 (2018).
  7. Kopruszinski, C. M., et al. Prevention of stress- or nitric oxide donor-induced medication overuse headache by a calcitonin gene-related peptide antibody in rodents. Cephalalgia. 37 (6), 560-570 (2017).
  8. Juhasz, G., et al. No-induced migraine attack: Strong increase in plasma calcitonin gene-related peptide (cgrp) concentration and negative correlation with platelet serotonin release. Pain. 106 (3), 461-470 (2003).
  9. Aditya, S., Rattan, A. Advances in cgrp monoclonal antibodies as migraine therapy: A narrative review. Saudi J Med Med Sci. 11 (1), 11-18 (2023).
  10. Goadsby, P. J., et al. A controlled trial of erenumab for episodic migraine. N Engl J Med. 377 (22), 2123-2132 (2017).
  11. Mogil, J. S., Pang, D. S. J., Silva Dutra, G. G., Chambers, C. T. The development and use of facial grimace scales for pain measurement in animals. Neurosci Biobehav Rev. 116, 480-493 (2020).
  12. Whittaker, A. L., Liu, Y., Barker, T. H. Methods used and application of the mouse grimace scale in biomedical research 10 years on: A scoping review. Animals (Basel). 11 (3), 673 (2021).
  13. Langford, D. J., et al. Coding of facial expressions of pain in the laboratory mouse. Nat Methods. 7 (6), 447-449 (2010).
  14. Rea, B. J., et al. Automated detection of squint as a sensitive assay of sex-dependent calcitonin gene-related peptide and amylin-induced pain in mice. Pain. 163 (8), 1511-1519 (2022).
  15. Tuttle, A. H., et al. A deep neural network to assess spontaneous pain from mouse facial expressions. Mol Pain. 14, 1744806918763658 (2018).
  16. Mathis, A., et al. Deeplabcut: Markerless pose estimation of user-defined body parts with deep learning. Nat Neurosci. 21 (9), 1281-1289 (2018).
  17. Wattiez, A. S., et al. Different forms of traumatic brain injuries cause different tactile hypersensitivity profiles. Pain. 162 (4), 1163-1175 (2021).

Yeniden Basımlar ve İzinler

Bu JoVE makalesinin metnini veya resimlerini yeniden kullanma izni talebi

Izin talebi

Daha Fazla Makale Keşfet

T pSay 213Otomatik davrany z buru turmaa l ka rmigrenfare davran

This article has been published

Video Coming Soon

JoVE Logo

Gizlilik

Kullanım Şartları

İlkeler

Araştırma

Eğitim

JoVE Hakkında

Telif Hakkı © 2020 MyJove Corporation. Tüm hakları saklıdır