人工知能 五感 書籍
 
No.2110
においのセンシング、分析とその可視化、数値化
生体情報計測による感情の可視化技術

 

◎ ヒトのもつ嗜好性・感性や動作・暗黙知など、無形の感覚情報をいかに“デジタル化”するか? 
  ヒトの感覚をモデリングし、製品開発に活かす!

人工知能を用いた

五感認知機能可視化

メカニズム解明

〜データ収集から学習までの具体例・製品開発への応用〜

発 刊:2021年6月30日  ISBN:978-4-86104-849-4    体 裁:A4判 533頁    定 価:88,000円(税込)


 
■試読を希望される場合は下記からお申し込みください
 
■ 執筆者(敬称略)
広島大学 大松繁 東京大学 柳澤秀吉
物質・材料研究機構 柴弘太 小松大学 梶原祐輔
物質・材料研究機構 田村亮 秋田大学 石井雅樹
電気通信大学 松倉悠 秋田大学 景山陽一
大阪大学 石田寛 産業技術総合研究所 伊藤敏雄
九州大学 林健司 産業技術総合研究所 佐藤稔久
(株)ユー・エス・イー 劉 傅軍 産業技術総合研究所 申 ウソク
(株)味香り戦略研究所 高橋貴洋 関西大学 徳丸正孝
九州大学 都甲潔 青山学院大学 宮治裕
山形大学 野田博行 千葉工業大学 富山健
大阪府立環境農林水産総合研究所 高井一郎 (株)NTTデータ経営研究所 茨木拓也
大阪府立環境農林水産総合研究所 下野雄太 東京農工大学 瀧山健
千葉大学 平井経太 同志社大学 日和悟
京都大学 山本洋紀 岡山県立大学 岩橋直人
鳥取大学 西山正志 (株)日立製作所 池浦康充
資生堂ジャパン(株) 吉川拓伸 (株)日立製作所 福田安宏
電気通信大学 坂本真樹 (株)日立製作所 廣池敦
電気通信大学/感性AI(株) 野崎裕二 静岡大学 森田純哉
熊本大学 嵯峨智 玉川大学 大森隆司
(公財)名古屋産業科学研究所 大日方五郎 玉川大学 山田徹志
神戸大学 永野光 玉川大学 宮田真宏
新潟大学 寒川雅之 鹿児島大学 渡邊睦
東京大学 吉元俊輔 国立がん研究センター東病院 北口大地
NTTコミュニケーション科学基礎研究所 上村卓也 国立がん研究センター東病院 長谷川寛
北陸先端科学技術大学院大学 鵜木祐史 国立がん研究センター東病院 竹下修由
静岡大学 犬塚博 国立がん研究センター東病院 伊藤雅昭
山口大学 間普真吾 公立はこだて未来大学 藤野雄一
千葉工業大学 藤江真也 公立はこだて未来大学 佐藤生馬 
(株)ABEJA 大田黒紘之 富士通研究所(株) 梅田裕平
アスタミューゼ(株) 川口伸明 金沢工業大学 神宮英夫
東京理科大学 阪田治 名古屋大学 岡本正吾
青山学院大学 栗原陽介 早稲田大学 布山美慕
青山学院大学 浜田百合 北陸先端科学技術大学院大学 日高昇平
奈良先端科学技術大学院大学 日永田智絵 埼玉大学 加藤拓巳
筑波大学 真栄城哲也    
■ 本書のポイント

@ 匂い、味覚、視覚、触覚、聴覚―
 
 人工知能を用いたヒトの「五感」のモデリングと製品開発
  ・心地よい香り/嫌な臭い、美味しさ、フレーバーなど、人の“好み”を見える化!
  ・人の表情や、材料の質感、画像からの異常検知など、視覚認知のモデリング!
  ・音声や触覚認知のメカニズム解明とそのシステム、ロボット開発への応用
  ・さまざまな五感情報をいかにデジタル化・数値化するか?

A ヒトの「感情」や「認知機能/動作」のモデリングと評価
 
・「楽しさ」「笑い」「新しさへの受容性」など、様々な感情モデリングの事例
  ・感性を人工的に作るには?―感情生成モデルのロボットへの応用、疑似感性を有するロボットなど
  ・マルチモーダルデータからのヒトの行動・認知のモデリング事例
  ・運転支援システムや手術支援システム、子供の関心推定など、具体的なシステム開発の事例

B 五感や感情評価のための生体情報収集技術とその機械学習による解析
  ・ビッグデータ時代におけるIoTや生体情報センサの活用法とは?
   医療DX、デジタルヘルスでの活用の実際、非接触センシングや脳インターフェースの開発と活用

C 時間変化する「感性・感覚データ」の機械学習による解析
  ・感性・感覚は時系列でどのように変化するのか? 機械学習で時系列の感性データを解析 
  ・知覚と感性の動的因果関係、印象と認知の時間変化などの事例

■ 目  次

第1章 『匂い』解析への人工知能の活用とモデリング

第2章 『味覚』解析への人工知能の活用とモデリング

第3章 『視覚』解析への人工知能の活用とモデリング

第4章 『触感』解析への人工知能の活用とモデリング

第5章 『音』解析への人工知能の活用とモデリング

第6章 生体情報の収集とその機械学習による解析

第7章 『感情・情動』の評価・モデリングへの人工知能の活用

第8章 『認知機能/動作』の評価・モデリングへの人工知能の活用

第9章 感性・感覚データの時系列化と機械学習への応用


◇第1章 『匂い』解析への人工知能の活用とモデリング◇

1節 香り情報の計測とAI技術を活用した識別法
1.脳波測定による香り検出
1.1 脳波
1.2 脳波の基礎律動
1.3 脳波の計測方法
1.3.1 脳波の記録方法
1.3.2 頭皮上電極
1.3.3 ジェルを用いた記録方法
1.4 Emotivによる脳波の計測と処理結果
1.4.1 心地よい香りの場合(Juniper Aloe 100ppb)
1.4.2 嫌な臭いの場合(イソ吉草酸1ppb)
2.香りセンサを用いた官能評価
2.1 金属酸化物半導体センサの原理
2.2 香り計測手法
2.3 機械学習による香り識別の原理
2.3.1 誤差逆伝播法
2.3.2 学習ベクトル量子化法
2.4 アロマデータの計測方法と測定データ
2.5 香り識別結果
2.5.1 誤差逆伝播法による識別結果
2.5.2 学習ベクトル量子化法による識別結果
2.5.3 識別結果の評価

2節 機械学習を用いたニオイの定量評価
1.センサアレイによるニオイの分析
2.三成分混合溶液のニオイに基づく各成分の定量
2.1 実験方法
2.2 機能性ナノ材料を感応膜としたニオイ測定
2.3 感応膜特性が定量精度に与える影響
2.4 定量精度の最適化
3.ニオイが有する特定指標のピンポイント定量

3節 深層学習を用いた匂いの発生源の特定
1.空気中を広がる匂い・ガスの分布
2.匂い・ガスの発生源探索システムの研究動向
3.深層学習ニューラルネットワークを用いた匂い・ガス源位置推定

4節 匂い予測情報処理と匂いのディジタル化
1.嗅覚神経空間解析
1.1 主成分分析(PCA)による匂いマップの画像解析[20]
1.1.1 主成分分析(PCA)
1.1.2 匂いマップキーパラメータの抽出
1.2 t-SNEにによる匂いマップの画像解析[23]
1.2.1 匂いマップと分子パラメータのピアソン相関係数マトリクスの構築
1.2.2 PCC_mapと分子パラメータの相関関係
1.2.3 嗅覚空間および分子パラメータ空間のt-SNEによる匂いクラスタリング
1.2.4 機械学習による匂い官能基の推定
1.3 まとめ
2.匂い構造空間解析[28]
2.1データの収集
2.2 データ解析
2.3 解析の結果と考察
2.4 まとめ
3.匂い表現解析 [29]
3.1 材料と方法
3.2 結果と討論
3.3 まとめ
4.匂い予測モデルの応用


◇第2章 『味覚』解析への人工知能の活用とモデリング◇

1節 センサを用いた味覚データの収集技術
1.なぜ味を数値化したいのか?
2.サンプル選択・収集
3.コントロール・指標
4.サンプル処理と食の知識
5.固形物の抽出
5.1 表面味
5.2 口溶け
5.3 半固形状食品
6.洗浄効果、食べ合わせ
7.おわりに 今後の味分析の未来

2節 味覚センサを用いた「味」のモデリング・評価
1.味覚と嗅覚
2.味覚センサの原理
3.食品の味
4.味のモデリング:ハイブリッド・レシピ
5.味の相互作用の定量評価
6.味覚センサを用いたおいしい商品の開発

3節 農産物画像のAI解析によるおいしさの見える化
1.デジタル画像のRGBヒストグラムから何がわかるか)
2.データの取得と解析
2.1 画像の取得
2.2 試料の調製
2.3 味の分析
2.4 RGBデータと味データの統計解析
3.農産物の味の指標
4.おいしさ見える化システムについて
5.おいしさの見える化事例

4節 味覚センサおよびMSS嗅覚センサによるワインの品質評価
1. ワインの品質と味覚センサ
1.1 味覚センサの原理
1.2 味覚センサを用いた醸造の違いの表現
1.3 味覚センサを用いたブレンドの効果の定量化
2. ワインの品質とMSS嗅覚センサ
2.1 MSS嗅覚センサの原理
2.2 MSS嗅覚センサを用いたワイン中の4EPの検出


◇第3章 『視覚』解析への人工知能の活用とモデリング策◇

1節 感情・感性に関わる画像データベースの構築と機械学習/深層学習によるデータ理解
1.主観評価を通じた表情画像データベースの構築と表情認識における有用性検証
1.1 関連研究
1.2 主観評価実験を通じた表情画像データベースの構築
1.3 CNNを用いた表情認識への応用とグッドデータの有用性検証
2.好ましさ評価付きHDR画像データベースの構築と画像の好ましさの解析
2.1 関連研究
2.2 HDR画像データベースの構築と好ましさに関する主観評価
2.3 Explainable AIに基づくCNNの可視化と好ましさの理解

2節 機械学習を用いた質感脳過程の解明
1.脳機能イメージング法
2.質感認知に関わる視覚、触覚、多感覚の脳領域
3.生地質感の脳情報デコーディング
3.1 fMRI実験手続き
3.2 見た時の脳画像から見ている布が予測できるか?
3.3 触覚による触り心地:触った時の脳画像から触っている布が予測できるか?
3.4 クロスモーダルな触り心地:触った(見た)時の脳画像から見ている(触っている)布が予測できるか?

3節 ディープラーニングを用いた目視検査技術の開発とその検査精度の向上
1.単純タスクの設計
1.1 ラベルの欠損を検出するタスクの単純化
1.2 刺激画像の生成
2.実験協力者による単純タスクの検出精度の調査
2.1 実験環境
2.2 実験手順
2.3 実験協力者の検出精度
3.深層学習による単純タスクの検出精度の調査
3.1 実験条件
3.2 SSDの検出精度
4.深層学習が実験協力者と同等以上の精度となるために必要な訓練サンプルの個数検証
4.1 深層学習と実験協力者との間でテストサンプルを揃えた場合
4.2 単純タスクの設計に関する考察
4.3 数字を用いた単純タスクにおける精度の評価結果

4節 メイクアップシミュレーション実現のためのデジタルテクノロジーとコンテンツへの応用
1.メイクアップシミュレーション実現のためのデジタルテクノロジー
1.1 顔特徴点検出
1.2 メイクアップレイヤの変形と合成
1.2.1 パール・メタリック感
1.2.2 つや
1.2.3 カバー力
1.2.4 その他の関連処理
1.3 メイクアップレイヤの制作と管理
2.メイクアップシミュレーションの応用
3.今後の展望
3.1 メイクアップシミュレーションのコモディティ化
3.2「withコロナ」時代のメイクアップシミュレーション


◇第4章 『触感』解析への人工知能の活用とモデリング◇

1節 製品の質感制御へのAIの活用法
1.深層学習を用いたスタイル変換
2.特定領域のテクスチャ変換
3.敵対的生成ネットワークを用いたスタイル変換

2節 センサを用いた触覚情報の収集と機械学習によるモデリング
1.触覚情報を取得するセンサ
1.1 ヒトの触覚
1.2 機械学習と触覚情報
2.触覚情報の取得と機械学習を用いた分類
2.1 無線型センサネットワークによる加速度情報収集
2.2 機械学習による分類器の設計
2.3 触覚情報分類精度の検証結果
3.収集していない触覚情報の生成
3.1 Generative Adversarial Network (GAN) による触覚情報の生成
3.2 触覚情報生成モデルの検証
3.3 合成ラベルによるデータ生成

3節 機械学習を用いた触覚解析とロボットハンド・センサー開発への応用
1.触覚センサ
2.ロボットハンドによる触覚探索と機械学習
3.触覚暗黙知を捉える機械学習
3.1 データ取得とANNの学習
3.2 機械学習の結果

4節 感性・嗜好的触感を含めた主観的触感情報のモデリング
1.触感の階層的モデリング手法
1.1 プロセス1:因果関係評価に基づく構造決定
1.2 プロセス2:官能評価に基づくパラメータ推定
2.階層的モデルの構築例
2.1 実験条件
2.2 実験タスク
2.3 実験結果
3.階層的モデリングにおける注意点
3.1 構造の複雑さ
3.2 構造の個人差

5節 力・光・温度複合検知超小型センサによる繊維製品の質感評価指標構築
1.触覚センサの構造と検知原理
2.触覚センサの構造と検知原理
2.1 官能試験による評価
2.2 繊維製品の物理的特性
2.3 触覚センサによる計測結果
2.4 触覚センサ出力と官能試験および物理的特性の相関分析

6節 機械学習を応用した触覚インターフェースの開発
1.回帰分析
1.1 モデル
1.2 学習と評価
2.動きの推定
2.1 手法
2.2 実験
3.接触力の推定
3.1 手法
3.2 実験
4.物体の硬さ推定
4.1 手法
4.2 実験


◇第5章 『音』解析への人工知能の活用とモデリング ◇

1節 機械学習を用いた聴覚系のモデリング
1.聴覚系による音の知覚メカニズム
2.機械学習を用いた聴覚系のモデリング
2.1 「なぜ」を理解するためのモデリング
2.1.1 聴神経の周波数特性のモデリング
2.1.2 振幅変調の表現のモデリング
2.1.3 両耳聴のモデリング
2.2 神経活動を予測するためのモデリング
2.2.1 聴覚皮質のモデリング
3.何をモデリングして何を評価するか

2節 音声の質感認識メカニズムと機械学習への応用
1.聴覚の質感認識メカニズム
1.1 聴知覚メカニズムと質感認識
1.2 音質評価指標と質感認識
1.3 音声の非言語知覚と質感認識
1.4 感情知覚モデル
1.5 雑音駆動音声を利用した音声知覚
2.感情音声の認識実験
2.1 雑音駆動音声を利用した感情知覚実験
2.2 感情知覚実験の結果
3.変調スペクトル分析
3.1 変調スペクトログラム
3.2 分析結果
4.変調スペクトルに現れる感情の特徴分析
4.1 変調スペクトルの特徴
4.2 弁別指標
4.3 感情知覚データと変調スペクトルの特徴の間の類似度
5.機械学習による感情音声認識への応用
5.1 感情音声認識システム
5.2 感情音声認識実験

3節 深層学習を用いた製品の異常音判断
1.Indastorie4.0とスマートファクトリー
2.スマートファクトリーのためのセンサとIOTによるセンサデータ取得
3.音のデータを使った機器の状態把握や異常の検知
4.深層学習のための音データの前処理
5.深層学習による異常音の検知と正常異常判定
5.1 深層学習による正常異常判定
5.2 教師あり学習を用いた深層学習による異常音の検知
5.3 教師なし学習による深層学習による異常音の検知

4節 機械学習を用いた聴診音からの医療診断技術の開発
1.音声認識研究
1.1 音声分析
1,2 音声認識
2.方法
2.1 CNN, LSTM, C-LSTMに対する事前学習とFine-tuning(手法1)  
2.1.1 CNNを用いた事前学習
2.1.2 LSTMの事前学習
2.1.3 畳み込みLSTMの事前学習
2.2 MFCC次元数の調整(手法2)
2.3 動的特徴量(手法3)
3.実験と結果
3.1 データの概要
3.2 実験条件
3.3 結果

5節 人工知能を用いた音声対話システム
1.対話システムと音声対話システム
1.1 対話システム
1.2 音声対話システム
2.音声対話システムの諸技術における人工知能技術
2.1 音声認識
2.2 言語理解
2.3 対話制御
2.4 言語生成
2.5 音声合成
2.6 音声対話システムならではのトピック
3.音声対話システムの研究事例
3.1 多人数会話システム
3.2 社会実装
3.3 アンドロイド
3.4 情報享受のための対話システム
4.まとめ


◇第6章 生体情報の収集とその機械学習による解析◇

1節 IoT・AIを用いた生体情報の解析
1.IoTを活用した生体情報センシング
1.1 IoTのパラダイムと主要構成技術
1.2 近年のIoT注目背景
1.3 生体センシングで利活用可能なセンサー
2.AIを活用した生体情報処理
2.1 AIパラダイムと主要構成技術
2.2 AI(機械学習)の生体センシング適用
2.3 ML(機械学習)の実利用
3.IoT・AIを利活用した生体情報センシング応用
3.1 バイオフィードバック分野への応用

2節 IoTとビッグデータ時代の生体情報センシング
1.生体情報センシングとデジタルヘルスが牽引する医療DX
1.1 体液・細胞の生化学的センシングも可能に
1.2 飲めるセンサチップや生きた細胞を用いたバイオセンサも開発済み
1.3 5Gとクラウドで高度な分析も可能に
1.4 ビッグデータを用いたAI創薬
1.5 ベンチャーの活躍が目立つAI画像診断
1.6 脳インターフェース
1.7 デジタルツイン化される生体情報
1.8 いよいよ全盛期に入るデジタルヘルスと医療DX
2.世界の特許から見る医療DXの動向
2.1 出願件数上位企業と出願例
2.2 国別出願件数年次推移
2.3 医療DX関連の最新の出願例
3.未来への動き:非接触センシング、脳インターフェース、知覚と身体性の拡張
3.1 ウェアラブルからカメラ・非接触センシングの時代へ
3.2 テレパシーのように、脳から脳へメッセージを送るブレインネットワーク
3.3 患者の神経細胞を用いた脳チップで脳神経疾患治療も
3.4 五感センシング
3.5 網膜投影により、超視力に
3.6 多機能なAI補聴器がもたらす超聴力
3.7 身体性の拡張
3.8 人機一体型スポーツ:サイバスロン、超人スポーツ
3.9 育児や癒し、STEAM教育への応用
3.10 都市OSとしての医療DX

3節 生体信号解析への機械学習の応用
1.生体信号解析における人間(解析者)の役割
1.1 解析対象生体信号の取得
1.2 生体信号の基本的前処理
2.機械学習のための生体信号処理の基本
2.1 信号取得後早期に実施する生体信号処理
2.2 機械学習用データの作成
3.生体信号への機械学習適用時の考え事の例

4節 無拘束生体情報計測技術と機械学習応用−介護支援のための膀胱内蓄尿量予測−
1.生体情報収集のための計測技術
2.介護支援のための膀胱内蓄尿量予測
2.1 背景となる課題
2.2 提案手法
2.2.1 膀胱内蓄尿量のマクロモデル
2.2.2 機械学習にもとづく膀胱内蓄尿量予測アルゴリズム
2.3 検証実験
2.3.1 実験システム,手順および評価方法
2.3.2 実験結果および考察
2.3.3 考察


◇第7章 『感情・情動』の評価・モデリングへの人工知能の活用◇

1節 機械学習を用いた感情のモデリング
1.感情と内受容感覚
2.感情の概念的モデル
3.機械学習を用いた感情モデルの実装
3.1 感情と強化学習モデル
3.2 感情と自由エネルギー原理
3.3 深層感情モデルの開発
3.3.1 深層学習を用いた感情モデル
3.3.2 養育者インタラクションを模した感情分化シミュレーション

2節 人工知能を用いた感性の予測―集団から個人へ
1.はじめに
1.1 講演の評価 : 聴衆が拍手喝采するか
1.2 漫才の評価 : 面白さと漫才コンテストの順位予測
2.感性の評価および予測モデルの構築手順
2.1 定量的な特徴のリストの作成
2.2 特徴量の選択
2.3 モデル構築に用いる評価値
2.4 予測モデルの構築および評価
2.5 特徴量の性質,個々の特徴の寄与率
2.6 感性の占める割合
3.集団の評価から個人の評価へ

3節 知覚と感情の数理モデリング
1.感性のプリンキピアの必要性
2.知覚の不思議と期待効果
3.神経符号化原理にもとづく知覚の数理モデリング
4.同化と対比の本質
5.新しさに対する受容性と感情の数理モデル
6.新しさと情報量
7.情報利得と驚き
8.自由エネルギーと感情価(快・不快)
9.慣れ〜驚きの減衰

4節 ウェアラブルセンサと機械学習を用いた心理状態の推定と可視化
1.はじめに
2.心理状態の測定
2.1 アンケート
2.2 行動
2.3 生体信号
3.ウェアラブルセンサを用いたピッキング時の作業者の心理状態の推定1)
3.1 概要
3.2 作業者の生体信号・動作の取得
3.3 行動と脈波特徴の計算
3.4 仮説検定による変数選択
3.5 ディープニューラルネットワークによる感情と没頭の予測
4.実験結果
4.1 実験目的
4.2 実験手順
4.3 心理モデルの検証
4.4 予測精度

5節 Fuzzy-ARTを用いた適応学習機能を有する表情認識手法
1.対象とする表情画像
1.1 表情画像の取得方法
1.2 表情画像の正規化処理および輝度値補正処理
2.表情特徴空間の生成手法
2.1 概要
2.2 対向伝播ネットワーク(CPN)
2.2.1 基本構造
2.2.2 表情空間マップの生成
2.2.3 感情空間マップの生成
2.3 ファジィ適応共鳴理論(Fuzzy-ART)
2.4 適応学習機能を有する表情認識手法の処理手順
3.時間経過に対する適応性の検討
3.1 実験方法
3.2 実験結果および考察

6節 運転者の呼気と楽しさの指標
1.走行中の呼気の変動
2.呼気パラメータと運転者の状態との相関
2.1 スパイロメータでの評価
2.2 半導体式センサでの評価
3.おわりに

7節 人工知能による感情生成モデルの構築とロボット開発への応用
1.感情と情動,欲求
2.情動と欲求の相互影響を考慮したロボットの感情モデル
3.情動を伴う行動生成シミュレーション
3.1 内部状態
3.2 外部刺激
3.3 ユーザの性格を想定したインタラクションシナリオ
3.4 シミュレーション結果

8節 擬似感性を有する介護者支援ロボットの構築
1.介護者支援ロボットの提案と感性的要素
1.1 介護者支援ロボットの定義
1.2 介護者支援ロボットの要件
1.3 介護者支援ロボットの感性的要素
2.擬似感性システム
2.1 概要と情報処理構造
2.2 狭義と広義の擬似感性
2.3 知・情・意と介護者支援ロボットの危険性
2.4. 擬似感性の機能構成
3.感性生成部
3.1 感性生成の要件
3.2 基本モデルと学習・評価データ
3.3 評価手法
3.4 学習可能なペトリネット手法
3.5. 感性生成部の解析と調整

9節 脳情報通信ビジネスの黎明
1.脳情報通信技術の発展
1.1 脳情報のセンシング
1.2 脳情報を読み取る技術
1.3 脳情報に書き込む技術
2.脳情報通信技術のビジネスとしての可能性
2.1 米国の脳情報通信分野への巨大投資
2.2 脳情報通信技術の広告ビジネスへの応用
2.3 自動車・教育などへのインパクト


◇第8章 『認知機能/動作』の評価・モデリングへの人工知能の活用◇

1節 機械学習を用いた人の運動・動作のモデリング
1.課題関連成分と課題非関連成分
2.UCM
(1)計算方法
(2)適用例
(3)UCMの利点と欠点
3.GEM
(1)計算方法
(2)適用例
(3)GEMの利点と欠点
4.UCMとGEMのまとめ
5.データ駆動型の解析
(1)計算方法
(2)提案する枠組みの拡張
(3)提案手法の利点・欠点
(4)適用例その1(実験設定と実験結果)
(5)適用例その2(実験設定と実験結果)
6.まとめとその他のデータ駆動型のアプローチ

2節 人工知能を用いた脳活動データの解析と脳機能の解明
1.計算的アプローチに基づく脳活動データ解析
1.1 実験デザインの重要性
1.2 データの前処理
1.3 特徴抽出
1.3.1 振幅スペクトル
1.3.2 機能的結合度
1.3.3 側性指標
1.3.4 前処理データをそのまま用いる
1.4 計算アルゴリズム・モデルの適用
1.4.1 Multivariate pattern analysis (MVPA)による脳活動パターンに基づく状態推定
1.4.2 Connectome-based predictive modelling (CPM)による機能的結合度に基づく状態推定
1.4.3 Topological data analysis (TDA)による脳活動ダイナミクスの分析
2.研究事例: Tucker3クラスタリングを用いた瞑想に伴う脳機能ネットワーク変化の抽出
2.1 研究概要
2.2 実験デザイン
2.3 前処理
2.4 特徴量
2.4.1 機能的結合度に基づくグラフ理論特徴量
2.4.2 fALFFによる自発性脳活動の強度
2.5 解析手法
2.5.1 Tucker3 Clusteringの適用
2.5.2 安静時と瞑想時の違いを特徴づける特徴量の抽出
2.6 結果および解釈

3節 協力する知能をつくる―運転から言語獲得までを統べる協力の数理
1.協力の数理
1.1 意思決定の階層性
1.2 階層均衡--階層推論
1.2.1 階層均衡(HE)
1.2.2 階層推論(HI)
1.3 同期モデルとしてのH2EI  ※H2EIの2は上付き
1.3.1 カオス同期との関係
1.3.2 非協力ゲームとの関係
2.身体的協力
2.1 運転
2.1.1 課題
2.1.2 モデリング
2.1.3 効果
2.2 共同運搬
2.2.1 課題
2.2.2 モデリング
2.2.3 効果
3.言語的協力
3.1 発話理解・生成
3.1.1 課題
3.1.2 モデリング
3.1.3 効果
3.2 言語獲得
3.2.1 課題
3.2.2 モデリング
3.2.3 効果
3.役割分担の調整時間

4節 マルチモーダル深層学習基盤を用いた画像認識技術の活用事例
1.マルチモーダル深層学習基盤の概要
2.技術の詳細
2.1 類似検索技術プラットフォーム「EnraEnra」
(1)近似近傍ベクトル探索
(2)特徴量DBMSとWebアプリケーション・フレームワーク
2.2 類似ベクトル検索を用いたTripletネットワーク学習
(1)学習方式
(2)監視映像中の人物検索
2.3 可変個数言語ベクトル推定モデル
3.活用事例
3.1 文書検索・知財調査業務(類似画像検索)の活用事例
3.2 インフラ点検・診断業務(類似画像検索、画像分類)の活用事例
3.3 監視映像中の人物検索技術を活用した高速人物発見・追跡ソリューションの特長
(1)高速人物発見・追跡ソリューションのアドオン機能の特長
(2)高速人物発見・追跡ソリューションおよびアドオン機能の活用事例

5節 行動変容を志向したマルチモーダルデータからのユーザ行動モデリング―認知アーキテクチャを活用したインタラクションデザインの事例
1.忘却Webプロジェクト
2.認知アーキテクチャ・機械学習・マルチモーダル生体信号
3.モデルベースWeb広告システム:ユーザの現在のモデルと逆転モデル
3.1 システム
3.2 実験
3.3 データの分析結果
(1) 個別モダリティにより示される結果
(2) 複数モダリティによる広告提示アルゴリズムの分類

6節 人工知能を用いた子供の関心推定
1.AIで教室場面から何を読み取るか
2. 子どもの集団行動から個性を読み取る
2.1 関心推定の原理
2.2 子どもの観察と関心アノテーション
2.3 位置・向きからの関心推定
3.AIによる位置向きと視線の計測
4.センシングによる教室の可視化

7節 人工知能を用いた親和的情報空間の構築
1.親和的情報空間の実現例
1.1 知的自動ドア
1.2 適応型訪問者応接システム
2.親和的情報空間のシステム構成
2.1 状況変化認識エージェント
2.2 移動物体追跡エージェント
2.3 人物内部状態推定エージェント

8節 内視鏡外科手術動画の機械学習による手術手技・判断プロセスの可視化〜腹部骨盤外科手術の場合
1.内視鏡外科手術の道のり
2.AI×内視鏡外科手術
3.外科医の手術手技・判断プロセス
3.1 テクニカル・エラーとコグニティブ・エラー
3.2 術中判断プロセス
3.3 AIによる術中意思決定支援
4.内視鏡外科手術におけるコンピュータビジョンの適用
4.1 内視鏡外科手術×Image Classification
4.2 内視鏡外科手術×Object Detection
4.3 内視鏡外科手術×Semantic Segmentation
4.4 内視鏡外科手術×Instance Segmentation
5.機械学習×内視鏡手術動画データセット
6.アノテーションの標準化
7.倫理・法的問題

9節 機械学習による脳腫瘍手術手技支援・判断プロセスの可視化と細胞診診断支援技術〜脳外科手術と子宮頸がん細胞診
1.脳腫瘍摘出術における手術行程解析
1.1 脳腫瘍摘出術
1.1.1 脳腫瘍分類と腫瘍摘出術
1.1.2 脳腫瘍摘出率と術後5年生存率
1.2 SCOTと覚醒化脳腫瘍摘出術
1.3 脳腫瘍摘出手術行程同定手法
1.3.1 手術工程同定システム
1.3.2 手術工程の同定
1.3.3 手術工程同定手法
1.3.4 評価結果と提示法
2.顕微鏡画像への脳構造・推定脳機能位置重畳表示
2.1 背景
2.2 脳構造・脳機能位置の重畳表示
2.2.1 脳構造・脳機能位置の抽出,統合,重畳表示法の流れ
2.2.2 Pix2pixHDによる特徴量の抽出
2.3 脳構造・推定脳機能位置重畳表示
3.機械学習を用いた子宮頸がん細胞診診断支援
3.1 背景
3.2 細胞診
3.3 YOLOv4とResNeStを用いたスクリーニング
3.4 評価結果と今後の展開


◇第9章 感性・感覚データの時系列化と機械学習への応用◇

1節 時系列データ分析と機械学習への応用法
1.時系列の予測
1.1 線形モデル回帰
1.2 非線形モデル回帰
1.3ガウス過程回帰
1.4 Recurrent Neural Network
1.5 時系列予測の注意点
1.5.1 モデルの選択
1.5.2 短期予測と長期予測
1.5.3 目的関数の問題
1.5.4 時系列の状況変化と予測
2.時系列の分類
2.1 分類手法
2.2 波形類似度を用いた分類
2.3 特徴量ベースの分類
2.4 Deep Learningによる分類
2.5 時系列分類における注意点
2.5.1 時系列の種類と分類の関係
2.5.2 ノイズや個体差の影響
3.時系列の異常検知
3.1 異常検知の考え方
3.2 異常検知の手法
3.2.1 分類アルゴリズムベースの手法
3.2.2 予測ベースの手法
3.2.3 疎構造学習
3.2.4 Deep Learningを用いた手法

2節 曲線描画法による感性の時系列評価
1.時系列感性評価とその重要性
2.生理・脳機能測定の必要性
3.曲線描画法の可能性
4.曲線描画法と評価の階層性
5.曲線描画法での記憶と予期

3節 Temporal Dominance法で取得した知覚と感性の動的因果関係モデリング
1.動的因果関係モデリングの手法
1.1 Temporal Dominance法による知覚と感性応答の取得
1.2 ベクトル自己回帰モデルによる多変量時系列データの解析
1.3 Granger因果性
1.4 因果関係モデリング
2.イチゴを食している最中のTemporal Dominance応答の取得
2.1 評価に使う言葉の選定
2.2 パネリスト(評価者)
2.3 Temporal Dominance法の課題
2.4 Temporal Dominance課題の結果
3.イチゴを食している際のTDデータからの因果関係の構築
3.1 データの前処理
3.2 初期2層モデル
3.3 Granger因果性のフルモデル
3.4 冗長性を排した縮約モデル
3.5 因果関係モデルの意味的妥当性

4節 印象の認知の時間変化:主観報告と機械学習の併用による研究
1.イメージのオブジェクト性と意識状態や想起による変化
1.1 私たちはどのようなイメージを抱けるのか:オブジェクト性
1.2 意識の視野の大きさと、想起によるイメージの変化
2.読者の熱中状態の特徴づけ
2.1 読者内・読者間で熱中状態は“同じ”状態なのか
2.2 複数指標時系列変化の関係性による熱中状態の特徴づけ
2.3 機械学習を用いた時系列データの分析による認知処理の推定

5節 AIという手段の活況に抱く危機感と価値づくりに向けて考慮すべき事項
1.AIの活況に抱く危機感
2.価値づくりにおけるAIの位置付け
3.AIを活用するにあたって考慮すべき事項
3-1「データ=儲かる」という誤った認識
3-2 パーソナライゼーションへの注力による価値づくりの怠り
3-3 過去の傾向を学習することにより生じるバイアス
4.価値づくりの基盤


人工知能 五感 書籍