ログイン・会員登録

会員の方

ID・パスワードをお持ちの方は、
こちらからログインください。

パスワードをお忘れの方はこちら

認証キーの承認をされる方はこちら

2016年1月より会員IDがメールアドレスに統一されました。

会員登録されていない方

会員限定コンテンツのご利用には、会員登録が必要です。

新規会員登録

サイトマップお問合わせ

  • 新規会員登録
  • ログイン

2022/03

表情や声のデータ分析で統合失調症と双極性障害の鑑別が可能に

Audiovisual Data Differentiate Schizophrenia, Bipolar Disorders

視聴覚データを利用した機械学習モデルにより、統合失調症と双極性障害を鑑別できるという研究結果が、米ザッカー・ヒルサイド病院のMichael L. Birnbaum氏らにより報告された。「JMIR Mental Health」1月号に掲載された本研究によると、男性では表情の動き、女性では声の特徴のデータが特に鑑別に役立つという。

近年進歩している視聴覚データの処理技術は、精神疾患の診断や精神症状の判定に役立つ客観的な情報をもたらす可能性がある。音声分析の分野は特に進んでおり、例えば統合失調症では無秩序な話し方、躁病では慌ただしい話し方になることが分かっている。また、統合失調症では平坦で不穏な表情、躁病では陶酔し不安定な表情などが見られるため、ビデオ分析はその微細な動きを捉える信頼性の高い手法として注目されている。

そこで本研究では、表情や声のデータのみを用いた機械学習モデルにより、統合失調症と双極性障害を鑑別できるかどうか検討した。

研究に協力した対象者は89人(平均25.3歳、男性53.9%)で、統合失調症スペクトラム障害41人、双極性障害21人、健常ボランティア27人であった。すべての対象者は最大12カ月間にわたり追跡され、感情的に中立な自由形式の5つの質問に関するインタビューを複数回受けた。例えば視聴したテレビ番組やいつもの夕食などについて尋ね、その録画データから顔の動きと音声の特徴を抽出した。

表情と声のデータを、対象者の統合失調症や双極性障害の診断と紐づけ、男女で分けて機械学習モデルを構築した。また、すべての対象者は簡易精神症状評価尺度(BPRS)、陰性症状評価尺度(SANS)、ハミルトンうつ病評価尺度(HAMD)、ヤング躁病評価尺度(YMRS)による評価も受けており、そのスコアから陽性と判定された精神症状について予測するモデルも構築した。それぞれの機械学習モデルの精度はROC曲線下面積(AUROC)で評価した。

表情と声の特徴を集約した機械学習モデルは、統合失調症と双極性障害の鑑別に有用であった(AUROC 0.73)。表情のデータは男性における鑑別で特に重要であり、統合失調症の男性は双極性障害の男性に比べて、顎を上げる筋肉(同0.74)や口角を上げる筋肉(同0.61)の動きが活性化され、頬を上げる筋肉の動きが低下していた(同0.64)。一方で、声のデータは女性における鑑別で特に重要であり、統合失調症の女性は双極性障害の女性に比べ、1~4kHzの周波数帯域のエネルギー(同0.80)やスペクトル調和度(同0.78)が低下し、スペクトル勾配(同0.77)が上昇していた。大頬骨筋の斜め上への動きなどに代表される口角を上げる動きは、男性(同0.61)、女性(同0.62)のいずれでも統合失調症患者の方が双極性障害患者よりも多く、ともに鑑別に有用であった。

また、表情と声の特徴を集約した機械学習モデルは、精神症状の予測にも有用であった。最も予測能が高かったのはSANSで判定した精神症状のモデルであり、特に感情の平板化と感情鈍麻、意欲・自発性の欠如、社会性・快感の欠如に関する下位尺度では顕著であった。BPRSやHAMDの一部の項目でも予測精度が高かった。一方、YMRSの項目では基準値を上回る精度は得られなかった。

Birnbaum氏らは、「こうした視聴覚データを使用できるようになれば、メンタルヘルスにおける医師の診断や患者指導を改善できるであろう。精神疾患をより早期かつ正確に鑑別することで、患者に即したアプローチを提供できる可能性がある」と述べている。なお、本研究の複数人の著者がIBMに雇用されている。(HealthDay News 2022年2月15日)

Audiovisual Data Differentiate Schizophrenia, Bipolar Disorders

Facial action units provided strongest signal for men, while vocal features provided strongest signal for women

TUESDAY, Feb. 15, 2022 (HealthDay News) -- Audiovisual data can differentiate between schizophrenia disorders and bipolar disorders, according to a study published in the January issue of JMIR Mental Health.

Michael L. Birnbaum, M.D., from the Zucker Hillside Hospital in Glen Oaks, New York, and colleagues examined whether reliable inferences -- psychiatric signs, symptoms, and diagnoses -- can be extracted from audiovisual patterns using audiovisual data from 89 participants: 41 individuals with schizophrenia spectrum disorders, 21 individuals with bipolar disorder, and 27 healthy volunteers. Machine learning models were developed based on acoustic and facial movement features extracted from participant interviews. Model performance was assessed using area under the receiver operating characteristic curve (AUROC) in fivefold cross validation.

The researchers found that when aggregating face and voice features, the model successfully differentiated between schizophrenia spectrum disorders and bipolar disorder (AUROC, 0.73). The strongest signal for men was seen for facial action units, including cheek-raising muscle and chin-raising muscle (AUROCs, 0.64 and 0.74, respectively). For women, the strongest signal was provided by vocal features, including energy in the frequency band 1 to 4 kHz and spectral harmonicity (AUROCs, 0.80 and 0.78, respectively). For both men and women, lip corner-pulling muscle signal discriminated between diagnoses (AUROCs, 0.61 and 0.62, respectively). Certain psychiatric signs and symptoms were successfully inferred, including blunted affect, avolition, lack of vocal inflection, asociality, and worthlessness (AUROCs, 0.81, 0.72, 0.71, 0.63, and 0.61, respectively).

"Integrating audiovisual data could change the way mental health clinicians diagnose and monitor patients, enabling faster, more accurate identification of illness and enhancing a personalized approach to medicine," the authors write.

Several authors were employed by IBM.

Copyright © 2022 HealthDay. All rights reserved.

2022年の医療AIレポート一覧へ
掲載内容について
本サイトは、記事コンテンツおよびサブコンテンツで構成されます。記事コンテンツにおいては、HealthDay Newsとして掲載された医療AI情報の記事をJapan編集部が翻訳して配信しています。記事の具体的な内容については、原著にて確認することをお勧めいたします。サブコンテンツにおいては、厚生労働省の「保健医療分野におけるAI活用推進懇談会」報告書から「AIの活用に向けた工程表」「健康・医療・介護・福祉分野においてAIの開発・利活用が期待できる領域」を掲載し、日本の政府の方針についてお知らせしています。本コンテンツの運営は、株式会社テクノミックが行い、武⽥薬品⼯業株式会社の関与はありません。また、本コンテンツに含まれる治療⽅法等は武⽥薬品⼯業株式会社が推奨・保証するものではありません。本コンテンツの情報に含まれる薬剤については、最新の国内添付文書でご確認ください。
著作権について
本コンテンツに掲載されている内容の無断転載・配布を固く禁じます。武田薬品工業株式会社から事前に文書による許諾を得ることなく、本コンテンツに掲載されている内容を再掲載すること、また検索システムに登録することや、電子的、機械的等、いかなる形式・方法にかかわらず、複写や記録を行うことを禁止いたします。また、本コンテンツで紹介する記事の著作権はHealthDayに帰属します。
免責事項
武田薬品工業株式会社は、本コンテンツに含まれる情報の完全さおよび正確さを保証するものではなく、その内容について一切責任を負いません。本コンテンツを利用される方々には信頼すべき情報を各自で確認されることをお勧めいたします。本コンテンツに含まれる情報は、決して、医師その他の医療従事者によるアドバイスの代わりになるものではありません。また、本コンテンツは、特定の薬剤を広告・宣伝するものではありません。