JoVE Logo

로그인

JoVE 비디오를 활용하시려면 도서관을 통한 기관 구독이 필요합니다. 전체 비디오를 보시려면 로그인하거나 무료 트라이얼을 시작하세요.

기사 소개

  • 요약
  • 초록
  • 서문
  • 프로토콜
  • 결과
  • 토론
  • 공개
  • 감사의 말
  • 자료
  • 참고문헌
  • 재인쇄 및 허가

요약

이 기사에서는 와사비로 인한 따끔거림에 대한 알코올 음료의 냄새를 맡을 때 억제 능력을 측정하는 일련의 방법에 대해 설명합니다.

초록

음식 준비에 일반적으로 사용되는 상업용 와사비 페이스트에는 섭취 시 자극적인 감각을 유발하는 화학감각 이소티오시아네이트(ITC)의 상동 화합물이 포함되어 있습니다. 식이 알코올 음료의 냄새를 맡는 것이 와사비의 매운맛에 미치는 영향은 연구된 적이 없습니다. 대부분의 관능평가 연구가 개별 식품과 음료에 개별적으로 초점을 맞추는 반면, 와사비를 섭취할 때 술 냄새를 맡는 후각 연구에 대한 연구는 부족합니다. 여기에서는 동물 행동 연구와 컨볼루션 신경망을 결합하여 쥐가 술 냄새를 맡고 와사비를 섭취할 때 쥐의 얼굴 표정을 분석하는 방법론을 개발합니다. 그 결과, 훈련되고 검증된 딥 러닝 모델이 사전 교육 자료 필터링 없이 와사비 음성 주류 양성 그룹 클래스에 속하는 와사비와 알코올의 동시 처리를 묘사하는 이미지의 29%를 인식한다는 것을 보여줍니다. 선택된 비디오 프레임 이미지로부터 얻어진 쥐의 찡그린 얼굴 척도 점수의 통계적 분석은 술의 유무 사이에 유의한 차이(P < 0.01)를 보여줍니다. 이 발견은 식이 알코올 음료가 쥐에서 와사비 유도 반응을 감소시키는 영향을 미칠 수 있음을 시사합니다. 이 조합 방법론은 향후 개별 ITC 화합물 스크리닝 및 스피릿 성분의 관능 분석에 대한 잠재력을 가지고 있습니다. 그러나 알코올에 의한 와사비 매운맛 억제의 기본 메커니즘을 조사하기 위해서는 추가 연구가 필요합니다.

서문

일반적으로 와사비로 알려진 와사비아 자포니카는 식품 준비 1,2에서 인정을 받았습니다. 섭취 시 눈물, 재채기 또는 기침을 특징으로 하는 강렬한 감각 경험은 잘 알려져 있습니다. 와사비의 이러한 독특한 매운맛은 화학감각 이소티오시아네이트(ITC)의 상동 화합물에 기인할 수 있습니다. 이들은 ω-알케닐 및 ω-메틸티오알킬 이소티오시아네이트로 분류할 수 있는 휘발성 유기황 식물 화학 물질입니다3. 이러한 화합물 중 알릴 이소티오시아네이트(AITC)는 양 고추냉이 및 겨자와 같은 십자화과에 속하는 식물에서 발견되는 가장 우세한 천연 ITC 제품입니다4. 상업용 와사비 페이스트는 일반적으로 양 고추냉이로 제조되므로 AITC는 이러한 상업용 제품의 품질 관리에 사용되는 화학 마커입니다5.

식이 알코올 음료와 와사비를 넣은 요리를 함께 먹는 것은 문화적 성향의 한 예라고 할 수 있다6. 주관적으로 이 조합은 와사비와 증류주 사이의 매운맛과 열을 보완하여 전반적인 요리 경험을 향상시킬 수 있습니다. 동물 질적 행동 평가(QBA)는 단기 또는 장기 외부 자극에 대한 반응으로 피험자의 행동 변화를 수치 용어7를 사용하여 검사하는 포괄적인 전체 동물 방법론적 접근 방식입니다. 이 방법에는 통증 테스트, 운동 테스트, 학습 및 기억력 테스트, 설치류 모델8을 위해 특별히 설계된 감정 테스트가 포함됩니다. 그러나 후각과 함께 구음의 시너지 감각 평가를 조사한 연구는 지금까지 문헌에서 드물게 남아 있습니다 9,10. 화학감각에 관한 대부분의 연구는 개인의 식품과 음료 섭취를 개별적으로 조사하는 것에 국한되어 있다11. 따라서 와사비를 섭취하는 동안 술을 킁킁거리는 행위와 관련된 맛과 냄새의 상호작용에 대한 연구가 부족합니다.

와사비에 의한 찌르는 느낌은 통각(nociception)의 한 형태로 여겨지므로12, 동물행동평가는 설치류 동물의 통각감각반응을 평가하는 데 매우 적합하다 8,13,14. MGS(mouse Griace scale) 점수로 알려진 마우스의 통각을 평가하는 방법은 Langford et al.15,16에 의해 개발되었습니다. 이 행동 연구 방법은 실험 쥐가 보여준 얼굴 표정 분석에 의존하는 통증 관련 평가 접근 방식입니다. 실험 설정은 투명 케이지와 비디오 녹화를 위한 2개의 카메라를 포함하여 간단합니다. 자동 데이터 캡처를 위한 첨단 기술(17,18,19)을 통합함으로써 정량적 및 질적 행동 측정을 얻을 수 있어 행동 모니터링 중 동물 복지를 향상시킬 수 있습니다(20). 결과적으로, MGS는 중단되지 않고 임시방편적인 방식으로 동물에 대한 다양한 외부 자극의 영향을 연구하는 데 적용될 수 있는 잠재력을 가지고 있습니다. 그러나 채점 과정에는 토론자가 평가할 수 있도록 몇 개(10개 미만)의 비디오 프레임 이미지만 선택되며 사전 교육이 필요합니다. 많은 수의 샘플 이미지를 스코어링하는 것은 노동 집약적일 수 있습니다. 이 시간 소모적인 문제를 극복하기 위해 여러 연구에서 MGS 점수21,22를 예측하기 위해 기계 학습 기술을 사용했습니다. 그러나 MGS는 지속적인 측정이라는 점에 유의하는 것이 중요합니다. 따라서 다중 클래스 분류 모델은 와사비를 동시에 섭취하고 액체 냄새를 맡는 쥐의 이미지가 일반 쥐의 이미지와 유사한지 여부를 결정하는 것과 같은 논리적이고 범주적인 문제를 평가하는 데 더 적합합니다.

이 연구에서는 생쥐의 맛-냄새 상호작용을 조사하는 방법론을 제안하였다. 이 방법론은 동물 행동 연구와 CNN(Convolutional Neural Network)을 결합하여 쥐 피험자의 얼굴 표정을 분석합니다. 두 마리의 쥐가 정상적인 행동 조건에서, 와사비에 의한 통각을 경험하는 동안, 그리고 특별히 설계된 케이지에서 술을 냄새를 맡는 동안 세 번 관찰되었습니다. 생쥐의 얼굴 표정은 비디오로 녹화되었으며, 생성된 프레임 이미지는 딥 러닝(DL) 모델의 아키텍처를 최적화하는 데 활용되었습니다. 그런 다음 독립적인 이미지 데이터 세트를 사용하여 모델을 검증하고 실험 그룹에서 획득한 이미지를 분류하기 위해 배포했습니다. 쥐가 와사비 섭취 중 동시에 술 냄새를 맡았을 때 와사비 톡 쏘는 맛이 억제되는 정도를 확인하기 위해 인공 지능이 제공하는 통찰력은 다른 데이터 분석 방법인 MGS 점수16점과의 교차 검증을 통해 더욱 확증되었습니다.

프로토콜

이 연구에서는 체중이 17-25g 사이인 7주 된 ICR 수컷 마우스 두 마리를 동물 행동 평가에 활용했습니다. 모든 주거 및 실험 절차는 교육 및 연구에서 인간 및 동물 피험자 사용에 관한 홍콩 침례 대학 위원회의 승인을 받았습니다. 동물실은 25°C의 온도와 40%-70%의 실내 습도로 12시간 명암 주기로 유지되었습니다.

1. 케이지 디자인

  1. 케이지 구성을 위해 8mm x 8mm x 2mm, 16mm x 16mm x 6mm, 32mm x 16mm x 6mm의 3가지 치수로 아크릴로니트릴 부타디엔 스티렌 벽돌을 준비합니다.
  2. 아크릴로니트릴 부타디엔 스티렌 플레이트(312mm x 147mm x 2mm)를 케이지 베이스로 준비합니다.
  3. 바닥판으로 사용하는 239mm 두께의 107mm x 2mm 불투명 아크릴판을 준비합니다.
  4. 천판으로 사용하는 239mm x 107mm 두께의 5mm 투명 아크릴 판을 준비합니다.
  5. 단자판으로 사용하는 107mm 두께의 50mm x 7mm 투명 아크릴 판을 준비합니다.
  6. 벽돌을 54mm 높이로 쌓아 불투명한 측벽 2개를 건설하세요.
  7. 그림 1A와 같이 아크릴 플레이트를 아크릴로니트릴 부타디엔 스티렌 기반 케이지에 내장합니다.
  8. 그림 1B와 같이 두께가 2mm인 90mm x 50mm 투명 아크릴 판 5개로 구성된 차우 챔버를 준비합니다. 5 개의 투명 아크릴 판 중 측면에 2 판, 상부에 1 판, 하단에 1 판, 단자에 1 판을 사용합니다.
  9. 60mm x 50mm 2mm 투명 아크릴 판을 차우 소개 접시로 준비하여 차우의 방에 넣습니다.

2. 동물행동평가

  1. 7주 된 ICR 수컷 쥐 2마리의 새끼를 일반 케이지에 함께 넣습니다.
  2. 2마리의 새끼 쥐에게 1주일의 적응 기간 동안 음식 펠릿과 수돗물을 무료로 이용할 수 있도록 합니다.
  3. 1주일 후, 에탄올 한 병(~40% v/v)으로 생쥐 2마리의 새끼를 소개합니다.
    알림: 음주가 제한되는 동안 제공된 수성 에탄올을 임시 로 냄새를 맡거나 흡입하는 것만 허용되는지 확인하십시오.
  4. 9-10주 된 마우스 모델과 그림 1A에 표시된 투명한 큐비클 케이지를 사용하여 행동 실험을 수행합니다.
  5. 모든 아크릴 판과 아크릴로 니트릴 부타디엔 스티렌 판을 분해하고 철저히 청소하십시오. 먼저 초순수로 3번 이상 헹구고 종이 타월로 말리십시오. 그런 다음 75% 에탄올을 뿌린 다음 렌즈 종이로 청소합니다. 마지막으로 최소 15분 동안 자연 건조시킵니다.
  6. 행동 실험을 각 복제하기 전에 쥐의 무게를 측정하고 체중을 기록합니다.
  7. 시판되는 와사비 1g과 땅콩 버터 4.5g의 무게를 달아 와사비와 땅콩 버터의 혼합물을 갓 준비합니다. 지퍼 비닐 봉지에 섞는다.
    참고: 와사비에 함유된 이소티오시아네이트의 휘발성으로 인해 상업용 와사비는 -20°C 냉동고에 보관하는 것이 중요합니다.
  8. 그림 1B, C와 같이 무게를 측정하여 0.5g 땅콩 버터 페이스트 2개 또는 와사비와 땅콩 버터의 혼합물을 차우 소개 플레이트에 제공합니다.
  9. 그림 1B, C와 같이 준비된 차우 소개 플레이트를 차우의 챔버에 놓아 2마리의 마우스가 각 비디오 녹화 세션 동안 음식에 애드리비텀으로 접근할 수 있도록 합니다.
  10. 그림 1B, C와 같이 동시 흡입을 용이하게 하기 위해 아래 홈에 30mL의 액체(순수한 물 또는 액체(~42% v/v 에탄올))를 채웁니다.
  11. 각 단말기의 전화기 거치대에 놓인 2대의 스마트폰에 있는 카메라를 사용하여 녹화를 시작합니다.
    참고 : 비디오의 사양은 다음과 같습니다 : 프레임 너비, 1920; 프레임 높이, 1080; 데이터 속도, 20745kbps; 프레임 속도, 초당 30.00프레임(FPS).
  12. 훈련된 2마리의 새끼 쥐를 위에서 설계된 동물 행동 연구 플랫폼에 조심스럽게 배치하고 즉시 상판으로 케이지를 고정합니다.
    참고: 이 단계가 15초 이내에 완료되어야 합니다.
  13. 각 비디오를 2-3분 동안 녹화합니다.
    참고: 땅콩 버터-와사비 혼합물 준비부터 비디오 녹화 완료까지 실험의 전체 시간이 5분으로 제한되어 있는지 확인하십시오.
  14. 전체 실험을 3회 반복합니다.
    참고: 실험의 각 반복실험이 최소 6시간 동안 분리되어 있는지 확인하십시오.
  15. 다양한 시나리오를 모방합니다.
    참고: 예를 들어, 이 작업에서는 한 쌍의 쥐를 4개의 다른 시나리오로 4개 그룹으로 나누어 사용했으며, 위에서 설명한 실험 설정을 사용하여 모방했습니다. 이러한 시나리오에는 배경 연구에 대한 시나리오 A, 양성 대조 연구에 대한 시나리오 B, 와사비-알코올 맛-냄새 상호 작용 연구에 대한 시나리오 C, 음성 대조 연구에 대한 시나리오 D가 포함됩니다. 표 1 은 이러한 시나리오에 대한 요약을 제공합니다.

3. 이미지 인식

이미지 처리 23,24,25에 대한 많은 연구와 유사하게, 분류 모델은 CNN을 훈련시킴으로써 얻어졌다. DL 작업을 위한 스크립트는 Jupyter Notebook(anaconda3)에서 Python v.3.10으로 작성되었습니다. 다음 GitHub 저장소에서 사용할 수 있습니다: git@github.com:TommyNHL/imageRecognitionJove.git. CNN을 구성하고 훈련시키기 위해 numpy v.1.21.5, seaborn v.0.11.2, matplotlib v.3.5.2, cv2 v.4.6.0, sklearn v.1.0.2, tensorflow v.2.11.0 및 keras v.2.11.0을 포함한 오픈 소스 라이브러리가 사용되었습니다. 이러한 라이브러리는 이미지 인식을 위해 CNN을 개발하고 훈련하는 데 필요한 도구와 기능을 제공했습니다.

  1. 수집된 비디오 클립에서 일련의 비디오 프레임 이미지를 내보내어 제공된 Jupyter Notebook( Step1_ExtractingAndSavingVideoFrameImages.ipynb)을 사용하여 모델 학습을 위한 데이터 세트를 생성합니다.
  2. 제공된 페이스트를 사용하는 마우스가 1개 이상 있는 이미지만 선택하십시오. 선택된 이미지의 예는 보충 그림 1, 보충 그림 2, 보충 그림 3, 보충 그림 4, 보충 그림 5, 보충 그림 6 및 보충 그림 7에 제공된다.
  3. Jupyter Notebook에 제공된 스크립트(Step2_DataAugmentation.ipynb)를 구현하여 생성된 이미지를 가로로 대칭 이동하여 데이터 증강을 수행합니다.
  4. 외부 독립 CNN 모델 검증을 위해 각 초 반복실험의 이미지 데이터를 예약합니다. 첫 번째 및 세 번째 반복실험의 이미지를 내부 모델 훈련 및 테스트에 사용합니다.
  5. 이미지 크기 조정, 검정색 변환 및 이미지 신호 정규화를 포함하여 Step3_CNNmodeling_TrainTest.ipynb라는 Jupyter Notebook에서 스크립트를 실행하여 CNN 모델링에 사용되는 이미지 데이터를 전처리합니다.
  6. 교육 자료를 내부 교육 및 테스트 데이터 세트로 무작위로 8:2 방식으로 분할합니다.
  7. CNN의 아키텍처를 초기화합니다. 검사할 시나리오의 수에 따라 CNN의 출력 수를 설계합니다.
    참고: 예를 들어, 이 연구에서 신경망은 3가지 클래스를 분류하도록 지정되었습니다. 클래스 가중치에 대한 데이터 불균형을 처리하기 위한 스크립트가 컴파일되었는지 확인합니다.
  8. CNN 구성을 위한 내부 테스트 샘플에서 손실을 최소화하는 하이퍼파라미터 조합을 찾습니다.
  9. CNN 아키텍처를 구성하기 위한 최적의 하이퍼파라미터 조합을 채택합니다.
  10. 제공된 Jupyter Notebook Step4_CNNmodel_ExternalValOriginal.ipynb Step5_CNNmodel_ExternalValFlipped.ipynb를 엽니다. 동물 행동 실험의 두 번째 반복에서 독립된(원본 및 뒤집힌) 이미지를 사용하여 얻은 모델을 검증합니다.
  11. Jupyter Notebook Step6_CNNmodel_Application.ipynb를 사용하여 실험 그룹에서 생성된 비디오 프레임 이미지를 분류하기 위해 획득되고 검증된 모델을 배포합니다.
    참고: 예를 들어, 이 작업에서는 시나리오 C입니다.

4. 수동 마우스 찡그린 얼굴 스케일 채점

참고: CNN 모델 예측이 제공하는 통찰력을 검증하기 위해, Langford et al.이 이전에 개발하고 검증한 또 다른 방법이 적용되었다16. 이 방법은 5가지 특정 마우스 안면 행동 단위(AU)인 안와 조임, 코 팽창, 뺨 팽창, 귀 바깥쪽 조임 및 수염 변화)를 기반으로 MGS를 채점하는 것을 포함합니다. 각 AU에는 0, 1 또는 2의 점수가 할당되며, 이는 각각 AU의 부재, 보통 존재 또는 명백한 존재를 나타냅니다. 이 채점 시스템을 사용하면 각 AU를 정량화하고 스케일링하여 마우스가 경험한 통각 또는 불편함 수준을 평가할 수 있습니다.

  1. 각 비디오 클립에 대한 페이스트를 섭취하는 쓰레기의 비디오 프레임 이미지 3개를 캡처합니다. 각 프레임이 3초 이상 떨어져 있어야 합니다.
  2. 블라인드 코드를 만들고 "shuffleSlides.pptm"(보충 파일 1)이라는 제공된 템플릿 파일을 사용하고 포함된 매크로 코드를 실행하여 서로 다른 시나리오 클래스의 이미지를 순서대로 임의로 재정렬합니다.
  3. 최소 10명의 토론자를 초대하여 샘플 이미지에 점수를 매기도록 합니다.
  4. MGS를 사용하여 이미지 샘플의 점수를 매기도록 토론자를 교육합니다. 패널리스트에게 MGS 및 매뉴얼15,16에 관한 원본 기사가 포함된 교육 자료를 제공합니다.
  5. 해당 5개의 얼굴 AU의 모든 점수 점수를 평균하여 캡처된 프레임에서 각 동물 피험자의 MGS 점수를 계산합니다. MGS 점수를 SEM (SEM)의 평균 ± 표준 오차로 제시합니다.
  6. Bonferroni의 다중 비교 사후 검정을 사용한 일원 분산 분석(ANOVA)을 통해 서로 다른 시나리오 클래스 간에 통계적으로 유의한 차이가 있는지 여부를 확인합니다.
    참고: P < 0.05 값은 통계적으로 유의한 것으로 간주됩니다.

결과

이 연구의 주요 목적은 생쥐의 미각-후각 상호 작용을 조사하기 위한 강력한 프레임워크를 확립하는 것입니다. 이 프레임워크는 인공 지능과 QBA의 사용을 통합하여 예측 분류 모델을 개발합니다. 또한 DL에서 얻은 통찰력은 내부 독립 분석을 위해 정량적 MGS 평가와 교차 검증됩니다. 이 방법론의 주요 응용 프로그램은 쥐가 식이 알코올 음료의 냄새를 맡을 때 와사비 호출 통각의 억제 정도를 조사...

토론

이 연구에서 미각-후각 상호작용을 연구하기 위해 제안된 방법은 Langford et al.16에 의해 개발된 생쥐의 통증 얼굴 표정을 위한 행동 코딩의 원래 방법을 기반으로 합니다. 최근에 발표 된 여러 기사는 자동 마우스 얼굴 추적 및 후속 MGS 점수 21,26,27,28에 대한 CNN을 소개했습니다. CNN을 ?...

공개

저자는 이해 상충이 없다고 선언합니다.

감사의 말

Z. Cai는 Kwok Yat Wai Endowed Chair of Environmental and Biological Analysis의 설립을 위한 Kwok Chung Bo Fun Charitable Fund의 재정적 지원에 감사드립니다.

자료

NameCompanyCatalog NumberComments
Absolute ethanol (EtOH)VWR Chemicals BDHCAS# 64-17-5
Acrylonitrile butadiene styrene bricksJiahuifeng Flagship Storehttps://shop.paizi10.com/jiahuifeng/chanpin.html
Acrylonitrile butadiene styrene platesJiahuifeng Flagship Storehttps://shop.paizi10.com/jiahuifeng/chanpin.html
Allyl isothiocyanate (AITC)Sigma-AldrichCAS# 57-06-7
Anhydrous dimethyl sulfoxideSigma-AldrichCAS# 67-68-5
Chinese spiritYanghe Qingcihttps://www.chinayanghe.com/article/45551.html
Commercial wasabiS&B FOODS INC.https://www.sbfoods-worldwide.com
Formic acid (FA)VWR Chemicals BDHCAS# 64-18-6
GraphPad Prism 5GraphPadhttps://www.graphpad.com
HPLC-grade acetonitrile (ACN)VWR Chemicals BDHCAS# 75-05-8
HPLC-grade methanol (MeOH)VWR Chemicals BDHCAS# 67-56-1
Microsoft Excel 2016Microsofthttps://www.microsoft.com 
Microsoft PowerPoint 2016Microsofthttps://www.microsoft.com
Milli-Q water systemMilliporehttps://www.merckmillipore.com
Mouse: ICRLaboratory Animal Services Centre (The Chinese University of Hong Kong, Hong Kong, China)N/A
Peanut butterSkippyhttps://www.peanutbutter.com/peanut-butter/creamy
Python v.3.10Python Software Foundationhttps://www.python.org 
Transparent acrylic platesTaobao Storehttps://item.taobao.com/item.htm?_u=32l3b7k63381&id=60996545797
0&spm=a1z09.2.0.0.77572e8dFPM
EHU

참고문헌

  1. Isshiki, K., Tokuoka, K., Mori, R., Chiba, S. Preliminary examination of allyl isothiocyanate vapor for food preservation. Biosci Biotechnol Biochem. 56 (9), 1476-1477 (1992).
  2. Li, X., Wen, Z., Bohnert, H. J., Schuler, M. A., Kushad, M. M. Myrosinase in horseradish (Armoracia rusticana) root: Isolation of a full-length cDNA and its heterologous expression in Spodoptera frugiperda insect cells. Plant Sci. 172 (6), 1095-1102 (2007).
  3. Depree, J. A., Howard, T. M., Savage, G. P. Flavour and pharmaceutical properties of the volatile sulphur compounds of Wasabi (Wasabia japonica). Food Res Int. 31 (5), 329-337 (1998).
  4. Hu, S. Q., Wei, W. Study on extraction of wasabi plant material bio-activity substances and anti-cancer activities. Adv Mat Res. 690 - 693, 1395-1399 (2013).
  5. Lee, H. -. K., Kim, D. -. H., Kim, Y. -. S. Quality characteristics and allyl isothiocyanate contents of commercial wasabi paste products. J Food Hyg Saf. 31 (6), 426-431 (2016).
  6. Bacon, T. Wine, wasabi and weight loss: Examining taste in food writing. Food Cult Soc. 17 (2), 225-243 (2014).
  7. Fleming, P. A., et al. The contribution of qualitative behavioural assessment to appraisal of livestock welfare. Anim Prod Sci. 56, 1569-1578 (2016).
  8. Shi, X., et al. Behavioral assessment of sensory, motor, emotion, and cognition in rodent models of intracerebral hemorrhage. Front Neurol. 12, 667511 (2021).
  9. Stevenson, R. J., Prescott, J., Boakes, R. A. Confusing tastes and smells: How odours can influence the perception of sweet and sour tastes. Chem Senses. 24 (6), 627-635 (1999).
  10. Pfeiffer, J. C., Hollowood, T. A., Hort, J., Taylor, A. J. Temporal synchrony and integration of sub-threshold taste and smell signals. Chem Senses. 30 (7), 539-545 (2005).
  11. Simons, C. T., Klein, A. H., Carstens, E. Chemogenic subqualities of mouthfeel. Chem Senses. 44 (5), 281-288 (2019).
  12. Andrade, E. L., Luiz, A. P., Ferreira, J., Calixto, J. B. Pronociceptive response elicited by TRPA1 receptor activation in mice. Neuroscience. 152 (2), 511-520 (2008).
  13. Palazzo, E., Marabese, I., Gargano, F., Guida, F., Belardo, C., Maione, S. Methods for evaluating sensory, affective and cognitive disorders in neuropathic rodents. Curr Neuropharmacol. 19 (6), 736-746 (2020).
  14. Topley, M., Crotty, A. M., Boyle, A., Peller, J., Kawaja, M., Hendry, J. M. Evaluation of motor and sensory neuron populations in a mouse median nerve injury model. J Neurosci Methods. 396, 109937 (2023).
  15. Langford, D. J., et al. . Mouse Grimace Scale (MGS): The Manual. , (2015).
  16. Langford, D. J., et al. Coding of facial expressions of pain in the laboratory mouse. Nat Methods. 7 (6), 447-449 (2010).
  17. Liu, H., Fang, S., Zhang, Z., Li, D., Lin, K., Wang, J. MFDNet: Collaborative poses perception and matrix Fisher distribution for head pose estimation. IEEE Trans Multimedia. 24, 2449-2460 (2022).
  18. Liu, T., Wang, J., Yang, B., Wang, X. NGDNet: Nonuniform Gaussian-label distribution learning for infrared head pose estimation and on-task behavior understanding in the classroom. Neurocomputing. 436, 210-220 (2021).
  19. Liu, T., Liu, H., Yang, B., Zhang, Z. LDCNet: Limb direction cues-aware network for flexible human pose estimation in industrial behavioral biometrics systems. IEEE Trans Industr Inform. 20 (6), 8068-8078 (2023).
  20. Grant, E. P., et al. What can the quantitative and qualitative behavioural assessment of videos of sheep moving through an autonomous data capture system tell us about welfare. Appl Anim Behav Sci. 208, 31-39 (2018).
  21. Vidal, A., Jha, S., Hassler, S., Price, T., Busso, C. Face detection and grimace scale prediction of white furred mice. Mach Learn Appl. 8, 100312 (2022).
  22. Zylka, M. J., et al. Development and validation of Painface, A software platform that simplifies and standardizes mouse grimace analyses. J Pain. 24 (4), 35-36 (2023).
  23. Liu, H., Zhang, C., Deng, Y., Liu, T., Zhang, Z., Li, Y. F. Orientation cues-aware facial relationship representation for head pose estimation via Transformer. IEEE Trans Image Process. 32, 6289-6302 (2023).
  24. Liu, H., Liu, T., Chen, Y., Zhang, Z., Li, Y. F. EHPE: Skeleton cues-based Gaussian coordinate encoding for efficient human pose estimation. IEEE Trans Multimedia. , (2022).
  25. Liu, H., et al. TransIFC: Invariant cues-aware feature concentration learning for efficient fine-grained bird image classification. IEEE Trans Multimedia. , (2023).
  26. Akkaya, I. B., Halici, U. Mouse face tracking using convolutional neural networks. IET Comput Vis. 12 (2), 153-161 (2018).
  27. Andresen, N., et al. Towards a fully automated surveillance of well-being status in laboratory mice using deep learning: Starting with facial expression analysis. PLoS One. 15 (4), e0228059 (2020).
  28. Ernst, L., et al. Improvement of the mouse grimace scale set-up for implementing a semi-automated Mouse Grimace Scale scoring (Part 1). Lab Anim. 54 (1), 83-91 (2020).
  29. Tuttle, A. H., et al. A deep neural network to assess spontaneous pain from mouse facial expressions. Mol Pain. 14, 1744806918763658 (2018).
  30. Lencioni, G. C., de Sousa, R. V., de Souza Sardinha, E. J., Corrêa, R. R., Zanella, A. J. Pain assessment in horses using automatic facial expression recognition through deep learning-based modeling. PLoS One. 16 (10), e0258672 (2021).
  31. Steagall, P. V., Monteiro, B. P., Marangoni, S., Moussa, M., Sautié, M. Fully automated deep learning models with smartphone applicability for prediction of pain using the Feline Grimace Scale. Sci Rep. 13, 21584 (2023).

재인쇄 및 허가

JoVE'article의 텍스트 или 그림을 다시 사용하시려면 허가 살펴보기

허가 살펴보기

더 많은 기사 탐색

JoVE210

This article has been published

Video Coming Soon

JoVE Logo

개인 정보 보호

이용 약관

정책

연구

교육

JoVE 소개

Copyright © 2025 MyJoVE Corporation. 판권 소유