Method Article
マルチモーダルセンサをベースにした手法を提示し、シンプルで快適で高速な落下検知と人間の活動認識システムを構成します。目標は、簡単に実装し、採用することができる正確な落下検出のためのシステムを構築することです。
本論文では、マルチモーダルセンサをベースにした手法を用いて、簡単に実装し、採用できる、シンプルで快適で高速な落下検出と人間の活動認識システムを構成する方法論を紹介する。この方法論は、特定のタイプのセンサー、機械学習方法、および手順の構成に基づいています。このプロトコルは、(1)データベース作成(2)データ分析(3)システムの簡素化と(4)評価の4つのフェーズに分けられる。この方法論を用いて、落下検出と人間の活動認識のためのマルチモーダルデータベース、すなわちUP-Fall Detectionを作成しました。これは、3回の試験中に5種類の転倒と6つの異なる単純な活動を行う17の被験者からのデータサンプルで構成されています。すべての情報は、5つのウェアラブルセンサー(3軸加速度計、ジャイロスコープ、光強度)、1つの脳波ヘルメット、6つの赤外線センサーを周囲センサー、および横と正面の視点で2台のカメラを使用して収集されました。提案された新しい方法論は、落下検出システムを簡素化するために、次の設計上の問題の深い分析を行うためにいくつかの重要な段階を追加します:a)単純な落下検出システムで使用するセンサーまたはセンサーの組み合わせを選択し、b)情報源の最適な配置を決定し、c)落下および人間の活動検出および認識に最も適した機械学習分類方法を選択する。文献で報告されている一部のマルチモーダルアプローチは、上記の問題の1つまたは2つに焦点を当てていますが、我々の方法論は、人間の転倒と活動検出および認識システムに関連するこれら3つの設計上の問題を同時に解決することを可能にする。
人口高齢化の世界現象は1、転倒率が増加しており、実際には大きな健康問題と考えられています2。転倒が起こると、人々は否定的な結果を減らすために直ちに注意を払う必要があります。落下検知システムは、転倒が発生したときにアラートを送信する医師の診察を受ける時間を短縮することができます。
落下検出システム3にはさまざまな分類があります。初期の作品4は、検出方法、分析方法、機械学習方法によって落下検出システムを分類します。最近では、他の著者33、5、65,6は、落下検出器を分類するための主な特徴としてデータ取得センサーを考慮しています。Igualら3は、落下検出システムを、ビジョンおよびアンビエントセンサーベースのアプローチ、ウェアラブルデバイスシステムを含むコンテキスト対応システムに分割します。Mubashirら5は、データ収集に使用されるデバイス(ウェアラブルデバイス、アンビエンスセンサー、ビジョンベースのデバイス)に基づいて、落下検出器を3つのグループに分類します。Perry et al.6では、加速度測定方法、他の方法と組み合わせた加速度測定方法、および加速度を測定しない方法を検討する。これらの調査から、センサとメソッドが一般的な研究戦略を分類する主要な要素であると判断できます。
各センサーには、Xuら 7 で説明されている弱点と強みがあります。ビジョンベースのアプローチでは、主に通常のカメラ、深度センサーカメラ、モーションキャプチャシステムを使用します。通常のウェブカメラは低コストで使いやすいですが、環境条件(光変動、遮蔽など)に敏感であり、スペースの削減でしか使用できないので、プライバシーの問題があります。Kinect などの深度カメラは、フルボディの 3D モーション7を提供し、通常のカメラよりも照明条件の影響を受けにくい。しかし、Kinect に基づくアプローチは、堅牢で信頼性が高くはありません。モーション キャプチャ システムは、コストが高く、使用が困難です。
加速度計を内蔵した加速度計やスマートフォン/時計に基づくアプローチは、落下検知に非常に一般的に使用されます。これらのデバイスの主な欠点は、長期間着用しなければならないということです。不快感、目立たさ、身体の配置、向きは、これらのアプローチで解決すべき設計上の問題です。スマートフォンやスマートウォッチはセンサーの目立たないデバイスですが、高齢者はしばしば忘れているか、常にこれらのデバイスを着用するとは限りません。それにもかかわらず、これらのセンサーおよび装置の利点は多くの部屋および/または屋外で使用することができることである。
システムによっては、環境周辺に設置されたセンサーを使用して転倒/活動を認識するため、センサーを装着する必要がないものがあります。ただし、これらのセンサーは、8を展開する場所に限定され、インストールが困難な場合もあります。近年、マルチモーダル落下検出システムには、より正確で堅牢性を高めるために、ビジョン、ウェアラブル、および周囲のセンサの異なる組み合わせが含まれています。また、シングルセンサーの制限の一部を克服することもできます。
落下検出に使用される方法論は、データ取得、信号前処理およびセグメンテーション、特徴抽出および選択、トレーニングおよび分類の段階からなるBulling et al.9によって提示されたヒト活動認識チェーン(ARC)と密接に関連している。これらの各段階で、設計上の問題を解決する必要があります。各ステージでは、さまざまな方法が使用されます。
マルチモーダルセンサをベースにした手法を提示し、シンプルで快適で高速な人の転倒と人間の活動検出/認識システムを構成します。目標は、簡単に実装し、採用することができる正確な落下検出のためのシステムを構築することです。提案された新しい方法論はARCに基づいていますが、システムを簡素化するために次の問題の詳細な分析を実行するための重要なフェーズが追加されます: (a)単純な落下検出システムで使用するセンサーまたはセンサーの組み合わせを選択します。(b) 情報源の最適な配置を決定する。(c)落下検出と人間の活動認識のための最も適した機械学習分類方法を選択して、単純なシステムを作成します。
上記のデザイン問題の1つまたは2つに対応した文献に関連する作品がいくつかありますが、私たちの知る限りでは、これらの問題をすべて克服するための方法論に焦点を当てた作品はありません。
関連作品は、堅牢性を高め、精度を高めるために、落下検出と人間活動認識10、11、1211,12のためのマルチモーダルアプローチを使用しています。10Kwolekら10は、加速度データと深度マップに基づく落下検出システムの設計と実装を提案した。彼らは、潜在的な落下と人の動きを検出するために3軸加速度計を実装する興味深い方法論を設計しました。加速度メジャーがしきい値を超えると、アルゴリズムはオンライン更新された深度参照マップから深度マップを差分化する人物を抽出します。深さと加速度計の組み合わせの分析は、サポートベクターマシン分類器を使用して行われました。
Ofli et al.11は、新しいヒト活動認識システムの試験床を提供するために、マルチモーダルヒューマンアクションデータベース(MHAD)を発表した。このデータセットは、1つの光学モーションキャプチャシステム、4つのマルチビューカメラ、1つのKinectシステム、4つのマイク、6つのワイヤレス加速度計を使用して同時に収集されるため、重要です。著者らは、Kinect、モキャップ、加速度計、オーディオの各モダリティの結果を発表した。
Dovgan et al.12は、高齢者における転倒を含む異常な挙動を検出するためのプロトタイプを提案した。彼らは、落下および異常な行動検出のための最も適切な機器を見つけるために、3つのセンサーシステムのテストを設計しました。最初の実験は、腰、膝、足首、手首、肘、肩に12個のタグが取り付けられたスマートセンサーシステムのデータで構成されています。また、腰、胸部、足首の両方に4つのタグを取り付けた1つのUbisenseセンサーシステムと、1つのXsens加速度計を使用してテストデータセットを作成しました。第3の実験では、4つの被験者がUbisenseシステムのみを使用し、4種類の転倒、4つの健康問題を異常な行動として、そして日常生活の異なる活動(ADL)を行う。
文献13、14、15,15の他の作品は13、センサーの様々な組み合わせと複数の分類器を比較して、落下検出のためのセンサーまたはデバイスの最良の配置を見つけるという問題に取り組んでいます。三世ら13は、落下検出のための5つのセンサーの位置の重要性を評価する体系的な評価を提示した。K-近傍(KNN)、サポートベクターマシン(SVM)、ナイーブベイズ(NB)、デシジョンツリー(DT)分類子を使用して、これらのセンサーの組み合わせの性能を比較しました。彼らは、被検体上のセンサーの位置は、使用される分類器とは無関係に落下検出器の性能に重要な影響を及ぼすと結論付ける。
落下検出のための身体のウェアラブルセンサー配置の比較は、Özdemir14によって提示されました。センサーの配置を決定するために、著者は、次の位置の31のセンサーの組み合わせを分析しました:頭、腰、胸、右手首、右足首と右太もも。14人のボランティアが20の模擬滝と16のADLを行いました。彼は、これらの徹底的な組み合わせ実験から単一のセンサーがウエストに配置されたときに最高の性能が得られたことを発見しました。もう一つの比較は、オズデミールのデータセットを使用してNtanasis15によって提示されました。著者らは、J48、KNN、RF、ランダム委員会(RC)およびSVMを使用して、頭部、胸部、腰、手首、足首および太ももの単一の位置を比較した。
落下検出のための異なる計算方法の性能のベンチマークは、文献16、17、1817,18にも見られる。16Bagalaら16は、実際の転倒で試験した13個の落下検出方法の性能を評価する系統的比較を提示した。彼らは、腰やトランクに置かれた加速度計の測定値に基づいてアルゴリズムのみを考慮しました。Bourkeら17は、ADLのデータセットを用いて落下検出のための5つの分析アルゴリズムの性能を評価し、加速度計の測定値に基づいて落下した。ケルデガリ18はまた、記録された加速度データのセットに対する異なる分類モデルの性能の比較を行った。落下検出に使用されるアルゴリズムは、ゼロR、1R、NB、DT、多層パーセプトロン、SVMであった。
落下検出の方法論は、人間の活動の累積ヒストグラムベースの表現を構築するために運動ポーズ幾何学的記述子を使用してAlazraiららによって提案された。彼らはKinectセンサーで収集されたデータセットを使用してフレームワークを評価しました。
要約すると、モダリティの異なる組み合わせのパフォーマンスを比較するマルチモーダル落下検出関連の作品10,10、11、1212を発見しました。11一部の著者は、センサー13、14、15、,14,15または複数の分類子を持つセンサ13の組み合わせの最良の配置を見つけるという問題に取り組んでいます13,,15,,16同じモダリティと加速度計の複数のセンサーを持つ.配置、マルチモーダルの組み合わせ、分類器ベンチマークに同時に対処する文献には作品は見つかりませんでした。
ここで説明するすべての方法は、パナメリカーナ大学工学部の研究委員会によって承認されています。
注: この方法論は、シンプルで高速でマルチモーダルな落下検出と人間の活動認識システムを構成するために、特定のタイプのセンサー、機械学習方法および手順の構成に基づいています。このため、(1)データベース作成(2)データ分析(3)システムの単純化と(4)評価のフェーズで、次のプロトコルが分かれています。
1. データベースの作成
2. データ分析
3. システムの簡素化
4. 評価
データベースの作成
落下検出と人間の活動認識、すなわちUP-落下検出21のためのマルチモーダルデータセットを作成しました。データは、パナメリカーナ大学(メキシコ・メキシコシティ)の工学部で4週間にわたって収集されました。テストシナリオは、(a)被験者が快適かつ安全に転倒や活動を行うことができる空間と、(b)マルチモーダルセンサーの設定に適した自然光と人工光を備えた屋内環境の要件を考慮して選択されました。
3回の試行中に5種類の転倒と6つの異なる単純な活動を行った17の被験者からのデータサンプルがあります。すべての情報は、5つのウェアラブルセンサー(3軸加速度計、ジャイロスコープ、光強度)、1つの脳波ヘルメット、アンビエントセンサーとして6つの赤外線センサー、および横方向および前面の視点で2台のカメラを備えた社内データ取得システムを使用して収集されました。図1は、環境と本体におけるセンサ配置のレイアウトを示しています。データセット全体のサンプリング レートは 18 Hz です。このデータベースには、統合生データ・セット (812 GB) とフィーチャー・データ・セット (171 GB) の 2 つのデータ・セットが含まれています。パブリック アクセス用にクラウドに格納されているすべてのデータベース: https://sites.google.com/up.edu.mx/har-up/。データの取得、前処理、統合、およびこのデータベースの格納の詳細、および同期とデータの一貫性に関する詳細は、マルティネス・ヴィッラセニョールら21を参照してください。
このデータベースでは、すべての被験者が健康な若いボランティア(男性9人と女性8人)で、18歳から24歳まで、平均身長は1.66m、体重は66.8kgでした。データ収集の間、技術的責任ある研究者は、すべての活動が被験者によって正しく行われたことを監督していました。被験者は5種類の転倒を行い、それぞれが10秒間、手を使って前方(1)、前方に膝を使用して(2)、後方(3)、空の椅子(4)および横向き(5)に座った。彼らはまた、ジャンプ(30 s)を除いてそれぞれ60 sのための6つの毎日の活動を行いました:ウォーキング(6)、立っている(7)、オブジェクトを拾う(8)、座っている(9)、ジャンプ(10)と敷設(11)。シミュレートされた落下は、すべてのタイプの実際の落下を再現することはできませんが、少なくとも、より良い落下検出モデルの作成を可能にするフォールの代表的なタイプを含める必要があります。ADL を使用すること、特に、オブジェクトのピックアップなどの転倒と通常は間違えが起きるアクティビティも関連しています。フォール検出システム21の検討後に、フォールとADLの種類を選択した。例として、図 2は、被験者が横に倒れたときの 1 回の試行の一連の画像を示しています。
我々は、12時間(平均、標準偏差、最大振幅、最小振幅、二乗平均平方根、中央値、ゼロ交差数、歪度、尖度、第1四分位数、第3四分位数および自己相関)および6つの頻繁な(平均、中央値、エントロピー、エネルギー、主周波数およびスペクトル重心)特徴を、合計756の特徴の各チャネルから抽出した。また、ビデオ内の2つの隣接する画像間のピクセルの相対的な動きについて、カメラごとに400の視覚機能21を計算しました。
ユニモーダルアプローチとマルチモーダルアプローチ間のデータ解析
UP-落下検出データベースから、単相型アプローチとマルチモーダルアプローチの比較目的でデータを分析した。その意味で、我々は7つの異なる情報源の組み合わせを比較しました:赤外線センサーのみ(IR)。ウェアラブルセンサーのみ(IMU);ウェアラブルセンサーとヘルメット(IMU + EEG);赤外線およびウェアラブルセンサーとヘルメット (IR +IMU +EEG);カメラのみ(CAM);赤外線センサーとカメラ (IR +CAM);およびウェアラブルセンサー、ヘルメット、カメラ(IMU +EEG+CAM)。さらに、3つの異なる時間枠のサイズを比較し、50%のオーバーラップ(1秒、2秒、3秒)を比較しました。各セグメントで、機能の選択とランキングを適用する最も有用な機能を選択しました。この戦略を使用して、40の機能を使用するIRモダリティを除き、モダリティごとに10の特徴のみを採用しました。さらに、比較は、RF、SVM、MLPおよびKNNの4つの有名な機械学習分類子で行われた。機械学習モデルをトレーニングするために、70%の列車と30%のテストのデータセットを備えた10倍のクロス検証を採用しました。表 1は、このベンチマークの結果を示し、機械学習モデルと最適なウィンドウ長構成に応じて、各モダリティで得られた最適なパフォーマンスを報告しています。評価メトリックは、精度、精度、感度、特異性、F1スコアを報告します。図 3は、F1 スコアの点で、これらの結果をグラフィカルに表示したものです。
表1から、マルチモーダルアプローチ(赤外線およびウェアラブルセンサーとヘルメット、IR+IMU+EEG;ウェアラブルセンサーとヘルメットとカメラ、IMU +EEG +CAM)は、ユニモーダルアプローチ(赤外線のみ、IR、カメラのみ、CAM)と比較して、最高のF1スコア値を得ました。また、ウェアラブルセンサー(IMU)のみでは、マルチモーダルアプローチと同様の性能を得ている点にも気付いた。この場合、異なる情報源が他の情報源からの制限を処理できるため、マルチモーダルアプローチを選択しました。例えば、カメラの目立ちはウェアラブルセンサーで処理でき、すべてのウェアラブルセンサーを使用しない場合は、カメラや周囲センサーで補完することができます。
データ駆動モデルのベンチマークに関しては、表1の実験では、RFがほぼすべての実験で最良の結果を示しています。MLPとSVMはパフォーマンスにあまり一貫性がありませんでしたが(例えば、これらの技術の標準偏差はRFよりも変動性を示しています)。ウィンドウサイズについては、これらはそれらの中で有意な改善を表すものではなかった。これらの実験は、転倒と人間の活動分類のために行われたことに注意することが重要です。
センサーの配置と最適なマルチモーダルの組み合わせ
一方、落下検知のためのマルチモーダルデバイスの最適な組み合わせを決定することを目指しました。この分析では、5つのウェアラブルセンサーと2台のカメラに情報源を制限しました。これらのデバイスは、アプローチのための最も快適なものです。さらに、秋(任意のタイプの秋)または無落下(他の活動)の2つのクラスを検討しました。すべての機械学習モデルとウィンドウ サイズは、前回の分析と同じままです。
各ウェアラブルセンサーに対して、各ウィンドウ長に対して独立した分類器モデルを構築しました。70%のトレーニングと30%のテストデータセットで、10倍のクロス検証を使用してモデルをトレーニングしました。表 2は、F1 スコアに基づいて、パフォーマンス分類器ごとのウェアラブル センサーのランキングの結果をまとめます。これらの結果は降順で並べ替えられました。表2に示すように、腰、首、またはタイトな右ポケット(影付き領域)で単一のセンサーを使用する場合に最適な性能が得られます。さらに、足首と左手首のウェアラブルセンサーは最悪のパフォーマンスを示しました。表 3 は、各分類器で最高のパフォーマンスを得るために、ウェアラブル センサーごとのウィンドウ長の設定を示しています。結果から、腰、首、およびRF分類器と50%のオーバーラップを持つ3 sの窓サイズを備えたタイトな右ポケットセンサーは、落下検出に最も適したウェアラブルセンサーです。
システム内の各カメラについて同様の分析を行いました。各ウィンドウ サイズに対して独立した分類子モデルを構築しました。トレーニングでは、70%のトレーニングと30%のテストデータセットで10倍のクロス検証を行いました。表4は、F1スコアに基づいて、分類器あたりの最適なカメラ視点のランキングを示しています。観察されるように、横ビュー(カメラ1)は最良の落下検出を行った。さらに、RFは他の分類子と比較して上回った。また、表5はカメラ視点ごとの窓長の設定を示す。その結果、カメラの最適な位置は、3 sウィンドウサイズと50%の重なり合いのRFを使用して横方向の視点にあることがわかりました。
最後に、横方向のカメラと組み合わせるウェアラブルセンサー(ウエストとタイトな右ポケット)の2つの配置を選択しました。同じトレーニング手順の後、表6から結果を得た。図に示すように、RF モデル分類器は、両方のマルチモダリティで精度と F1 スコアで最高のパフォーマンスを得ました。また、ウエストとカメラ1の組み合わせは、精度が98.72%、F1スコアで95.77%を得た最初の位置にランク付けされました。
図1:UP-Fall検出データベース内のウェアラブル(左)センサーとアンビエント(右)センサーのレイアウト装着可能なセンサーは額、左手首、首、腰、ズボンの右ポケット、左足首に置かれます。周囲のセンサーは、被写体と2台のカメラの存在を検出するための6つのペアの赤外線センサーです。カメラは、人間の転倒に関して、横のビューと正面図に配置されています。この図の大きなバージョンを表示するには、ここをクリックしてください。
図2:UP-Fall検出データベースから抽出されたビデオ録画の例。上部には、横に落下する被写体の画像のシーケンスがあります。下部には、抽出されたビジョン機能を表す一連の画像があります。これらの機能は、2 つの隣接する画像間のピクセルの相対モーションです。白色のピクセルは高速なモーションを表し、黒のピクセルはモーションの速度が遅い (またはゼロに近い) を表します。このシーケンスは、左から右へ、時系列で並べ替えられます。この図の大きなバージョンを表示するには、ここをクリックしてください。
図3:機械学習モデルと最適なウィンドウ長に関して、各モダリティの最良のF1スコアを報告する比較結果。バーは、F1 スコアの平均値を表します。データポイント内のテキストは、平均と標準偏差を括弧で囲んで表します。この図の大きなバージョンを表示するには、ここをクリックしてください。
モダリティ | モデル | 精度 (%) | 精度 (%) | 感度 (%) | 特異性 (%) | F1スコア (%) |
Ir | RF (3 秒) | 67.38 ± 0.65 | 36.45 ± 2.46 | 31.26 ± 0.89 | 96.63 ± 0.07 | 32.16 ± 0.99 |
SVM (3 秒) | 65.16 ± 0.90 | 26.77 ± 0.58 | 25.16 ± 0.29 | 96.31 ± 0.09 | 23.89 ± 0.41 | |
MLP (3 秒) | 65.69 ± 0.89 | 28.19 ± 3.56 | 26.40 ± 0.71 | 96.41 ± 0.08 | 25.13 ± 1.09 | |
kNN (3 秒) | 61.79 ± 1.47 | 30.04 ± 1.44 | 27.55 ± 0.97 | 96.05 ± 0.16 | 27.89 ± 1.13 | |
Imu | RF (1秒) | 95.76 ± 0.18 | 70.78 ± 1.53 | 66.91 ± 1.28 | 99.59 ± 0.02 | 68.35 ± 1.25 |
SVM (1 秒) | 93.32 ± 0.23 | 66.16 ± 3.33 | 58.82 ± 1.53 | 99.32 ± 0.02 | 60.00 ± 1.34 | |
MLP (1 秒) | 95.48 ± 0.25 | 73.04 ± 1.89 | 69.39 ± 1.47 | 99.56 ± 0.02 | 70.31 ± 1.48 | |
kNN (1 秒) | 94.90 ± 0.18 | 69.05 ± 1.63 | 64.28 ± 1.57 | 99.50 ± 0.02 | 66.03 ± 1.52 | |
IMU +EEG | RF (1秒) | 95.92 ± 0.29 | 74.14 ± 1.29 | 66.29 ± 1.66 | 99.59 ± 0.03 | 69.03 ± 1.48 |
SVM (1 秒) | 90.77 ± 0.36 | 62.51 ± 3.34 | 52.46 ± 1.19 | 99.03 ± 0.03 | 53.91 ± 1.16 | |
MLP (1 秒) | 93.33 ± 0.55 | 74.10 ± 1.61 | 65.32 ± 1.15 | 99.32 ± 0.05 | 68.13 ± 1.16 | |
kNN (1 秒) | 92.12 ± 0.31 | 66.86 ± 1.32 | 58.30 ± 1.20 | 98.89 ± 0.05 | 60.56 ± 1.02 | |
IR +IMU + EEG | RF (2 秒) | 95.12 ± 0.36 | 74.63 ± 1.65 | 66.71 ± 1.98 | 99.51 ± 0.03 | 69.38 ± 1.72 |
SVM (1 秒) | 90.59 ± 0.27 | 64.75 ± 3.89 | 52.63 ± 1.42 | 99.01 ± 0.02 | 53.94 ± 1.47 | |
MLP (1 秒) | 93.26 ± 0.69 | 73.51 ± 1.59 | 66.05 ± 1.11 | 99.31 ± 0.07 | 68.19 ± 1.02 | |
kNN (1 秒) | 92.24 ± 0.25 | 67.33 ± 1.94 | 58.11 ± 1.61 | 99.21 ± 0.02 | 60.36 ± 1.71 | |
カム | RF (3 秒) | 32.33 ± 0.90 | 14.45 ± 1.07 | 14.48 ± 0.82 | 92.91 ± 0.09 | 14.38 ± 0.89 |
SVM (2 秒) | 34.40 ± 0.67 | 13.81 ± 0.22 | 14.30 ± 0.31 | 92.97 ± 0.06 | 13.83 ± 0.27 | |
MLP (3 秒) | 27.08 ± 2.03 | 8.59 ± 1.69 | 10.59 ± 0.38 | 92.21 ± 0.09 | 7.31 ± 0.82 | |
kNN (3 秒) | 34.03 ± 1.11 | 15.32 ± 0.73 | 15.54 ± 0.57 | 93.09 ± 0.11 | 15.19 ± 0.52 | |
IR +カム | RF (3 秒) | 65.00 ± 0.65 | 33.93 ± 2.81 | 29.02 ± 0.89 | 96.34 ± 0.07 | 29.81 ± 1.16 |
SVM (3 秒) | 64.07 ± 0.79 | 24.10 ± 0.98 | 24.18 ± 0.17 | 96.17 ± 0.07 | 22.38 ± 0.23 | |
MLP (3 秒) | 65.05 ± 0.66 | 28.25 ± 3.20 | 25.40 ± 0.51 | 96.29 ± 0.06 | 24.39 ± 0.88 | |
kNN (3 秒) | 60.75 ± 1.29 | 29.91 ± 3.95 | 26.25 ± 0.90 | 95.95 ± 0.11 | 26.54 ± 1.42 | |
IMU +EEG+CAM | RF (1秒) | 95.09 ± 0.23 | 75.52 ± 2.31 | 66.23 ± 1.11 | 99.50 ± 0.02 | 69.36 ± 1.35 |
SVM (1 秒) | 91.16 ± 0.25 | 66.79 ± 2.79 | 53.82 ± 0.70 | 99.07 ± 0.02 | 55.82 ± 0.77 | |
MLP (1 秒) | 94.32 ± 0.31 | 76.78 ± 1.59 | 67.29 ± 1.41 | 99.42 ± 0.03 | 70.44 ± 1.25 | |
kNN (1 秒) | 92.06 ± 0.24 | 68.82 ± 1.61 | 58.49 ± 1.14 | 99.19 ± 0.02 | 60.51 ± 0.85 |
表1:機械学習モデルに関する各モダリティの最高のパフォーマンスと最適なウィンドウ長(括弧内)を報告する比較結果。パフォーマンスのすべての値は、平均と標準偏差を表します。
# | IMUタイプ | |||
Rf | Svm | Mlp | Knn | |
1 | (98.36) ウエスト | (83.30) 右ポケット | (57.67) 右ポケット | (73.19) 右ポケット |
2 | (95.77)ネック | (83.22) ウエスト | (44.93) ネック | (68.73) ウエスト |
3 | (95.35) 右ポケット | (83.11) ネック | (39.54) ウエスト | (65.06) ネック |
4 | (95.06) 足首 | (82.96) 足首 | (39.06) 左手首 | (58.26) 足首 |
5 | (94.66) 左手首 | (82.82) 左手首 | (37.56) 足首 | (51.63) 左手首 |
表2:F1スコア(括弧内)でソートされた分類器あたりの最高のウェアラブルセンサーのランキング。シャドウ内の領域は、落下検出の上位 3 つの分類子を表します。
IMUタイプ | ウィンドウの長さ | |||
Rf | Svm | Mlp | Knn | |
左足首 | 2秒 | 3秒 | 1秒 | 3秒 |
腰 | 3秒 | 1秒 | 1秒 | 2秒 |
首 | 3秒 | 3秒 | 2秒 | 2秒 |
右ポケット | 3秒 | 3秒 | 2秒 | 2秒 |
左手首 | 2秒 | 2秒 | 2秒 | 2秒 |
表3:分類器ごとのウェアラブルセンサーにおける優先時間枠の長さ。
# | カメラビュー | |||
Rf | Svm | Mlp | Knn | |
1 | (62.27) 横ビュー | (24.25) 横ビュー | (13.78) フロントビュー | (41.52) 横ビュー |
2 | (55.71) フロントビュー | (0.20) フロントビュー | (5.51) 横ビュー | (28.13) フロントビュー |
表4:分類器ごとの最適なカメラ視点のランキング(括弧内)をF1スコアでソート。シャドウ内の領域は、落下検出の最上位の分類子を表します。
カメラ | ウィンドウの長さ | |||
Rf | Svm | Mlp | Knn | |
横ビュー | 3秒 | 3秒 | 2秒 | 3秒 |
フロントビュー | 2秒 | 2秒 | 3秒 | 2秒 |
表 5: 分類器ごとのカメラ ビューポイントでの優先時間枠の長さ。
マルチ モーダル | 分類 | 精度 (%) | 精度 (%) | 感度 (%) | F1スコア (%) |
腰 + 横ビュー | Rf | 98.72 ± 0.35 | 94.01 ± 1.51 | 97.63 ± 1.56 | 95.77 ± 1.15 |
Svm | 95.59 ± 0.40 | 100 | 70.26 ± 2.71 | 82.51 ± 1.85 | |
Mlp | 77.67 ± 11.04 | 33.73 ± 11.69 | 37.11 ± 26.74 | 29.81 ± 12.81 | |
Knn | 91.71 ± 0.61 | 77.90 ± 3.33 | 61.64 ± 3.68 | 68.73 ± 2.58 | |
右ポケット + 横ビュー | Rf | 98.41 ± 0.49 | 93.64 ± 1.46 | 95.79 ± 2.65 | 94.69 ± 1.67 |
Svm | 95.79 ± 0.58 | 100 | 71.58 ± 3.91 | 83.38 ± 2.64 | |
Mlp | 84.92 ± 2.98 | 55.70 ± 11.36 | 48.29 ± 25.11 | 45.21 ± 14.19 | |
Knn | 91.71 ± 0.58 | 73.63 ± 3.19 | 68.95 ± 2.73 | 71.13 ± 1.69 |
表6:3秒窓長を用いたウェアラブルセンサとカメラ視点の比較結果すべての値は、平均と標準偏差を表します。
データセットの作成時に同期、組織、データの不整合の問題20が発生するのは一般的です。
同期
データの取得では、複数のセンサーが一般的に異なるサンプリングレートで動作することを考えると、同期の問題が発生します。周波数の高いセンサーは、周波数の低いセンサーよりも多くのデータを収集します。したがって、異なるソースからのデータは正しくペアにされません。センサーが同じサンプリングレートで動作する場合でも、データが整列されない可能性があります。この点に関して、以下の推奨事項は、これらの同期問題20:(i) レジスタタイムスタンプ、件名、アクティビティ、およびセンサーから取得した各データサンプルの試行を処理するのに役立つ可能性があります。(ii) 最も一貫性があり、頻度の低い情報源は、同期の基準信号として使用する必要があります。(iii) 自動または半自動の手順を使用して、手動検査が実用的でなくてはなることをビデオ録画と同期させます。
データの前処理
データの事前処理も行う必要があり、重要な決定がこのプロセスに影響を与えます:(a)データストレージの方法と複数および異機種のソースのデータ表現(b)ローカルホストまたはクラウド上のデータを保存する方法を決定する(c)ファイル名とフォルダ(d)データの欠損値とセンサーで見つかった冗長性を含むデータの組織を選択する、とりわけ。また、データ クラウドでは、アップロード時のデータ損失を軽減するために可能な場合はローカル バッファリングをお勧めします。
データの不一致
データの不一致は、データ サンプル サイズのばらつきを検出する試行の間で一般的です。これらの問題は、ウェアラブルセンサーのデータ収集に関連しています。複数のセンサーからのデータ取得とデータ衝突の一時的な中断は、データの不整合につながります。このような場合、センサーのオンライン障害を処理するには、不整合検出アルゴリズムが重要です。実験を通してワイヤレス ベースのデバイスを頻繁に監視する必要があることを強調することが重要です。バッテリが少なくなると、接続に影響を与え、データが失われる可能性があります。
倫理 的
参加の同意と倫理的承認は、人々が関与するすべてのタイプの実験に必須です。
この方法論の制限事項については、データ収集に対して異なるモダリティを考慮するアプローチを考慮するように設計されていることに注意することが重要です。システムには、ウェアラブル、アンビエントセンサー、および/またはビジョンセンサーを含めることができます。データ収集の損失、システム全体の接続性の低下、電力消費などの問題により、デバイスの消費電力とワイヤレスベースのセンサーのバッテリ寿命を考慮することをお勧めします。さらに、この方法論は機械学習方式を使用するシステムを対象としています。これらの機械学習モデルの選択の分析は、事前に行う必要があります。これらのモデルの中には正確であるものの、時間とエネルギーが非常に高いものもあります。機械学習モデルにおけるコンピューティングの正確な見積もりと限られたリソースの利用可能性との間のトレードオフを考慮する必要があります。また、システムのデータ収集において、活動が同じ順序で行われたことを観察することも重要です。また、試験は同じ順序で行われた。安全上の理由から、被験者が転倒するために保護マットレスが使用されました。さらに、滝は自己開始されました。これは、一般的に硬い材料に対して発生する、シミュレートされた落下と実際の落下の間の重要な違いです。その意味で、記録されたこのデータセットは、落下しないようにしようとする直感的な反応で落ちる。さらに、高齢者や障害のある人々の実際の転倒とシミュレーションの落ち込みとの間には、いくつかの違いがあります。そして、新しい落下検知システムを設計する際に、これらを考慮する必要があります。この研究は、障害のない若者に焦点を当てたが、被験者の選択は、システムとそれを使用するターゲット人口の目標に合わせるべきであると言うことは顕著である。
,10,11,12,13,14,15,16,17,18,1811,12,13に記載の関連作品から、堅牢な落下検出器の取得に焦点を当てたマルチモーダルアプローチを用いたり14,15,16,17、分類器の配置や性能に焦点を当てた著者がいるのを観察することができます。1018したがって、落下検出の設計上の問題は 1 つか 2 つしか取り扱えないためです。当社の方法論により、落下検知システムの主な設計上の3つの問題を同時に解決することができます。
今後の研究では、この方法論に基づいて得られた知見に基づいて、単純なマルチモーダル落下検出システムを設計し、実装することをお勧めします。実際の採用では、より堅牢なシステムを開発するために、転送学習、階層分類、およびディープラーニングのアプローチを使用する必要があります。我々の実装では、機械学習モデルの定性的指標は考慮されていませんでしたが、人間の転倒と活動検出/認識システムのさらなる開発のために、リアルタイムで限られたコンピューティングリソースを考慮する必要があります。最後に、データセットを改善するために、日常生活の中でのトリップやほとんど落ち込む活動とボランティアのリアルタイム監視を検討することができます。
著者らは開示するものは何もない。
この研究は、プロジェクトコードUP-CI-2018-ING-MX-04の下で、助成金「フォメント・ア・ラ・インベスティガシオンUP 2018」を通じてパンアメリカーナ大学から資金提供されています。
Name | Company | Catalog Number | Comments |
Inertial measurement wearable sensor | Mbientlab | MTH-MetaTracker | Tri-axial accelerometer, tri-axial gyroscope and light intensity wearable sensor. |
Electroencephalograph brain sensor helmet MindWave | NeuroSky | 80027-007 | Raw brainwave signal with one forehand sensor. |
LifeCam Cinema video camera | Microsoft | H5D-00002 | 2D RGB camera with USB cable interface. |
Infrared sensor | Alean | ABT-60 | Proximity sensor with normally closed relay. |
Bluetooth dongle | Mbientlab | BLE | Dongle for Bluetooth connection between the wearable sensors and a computer. |
Raspberry Pi | Raspberry | Version 3 Model B | Microcontroller for infrared sensor acquisition and computer interface. |
Personal computer | Dell | Intel Xeon E5-2630 v4 @2.20 GHz, RAM 32GB |
このJoVE論文のテキスト又は図を再利用するための許可を申請します
許可を申請This article has been published
Video Coming Soon
Copyright © 2023 MyJoVE Corporation. All rights reserved