第1節 説明可能なAIと機械学習での公平性
はじめに
1.説明可能なAI
1.1 概念
1.2 判断根拠の可視化手法
1.2.1 Grad-CAM
1.2.2 LIME
1.2.3 SHAP
1.2.4 Smooth Grad
1.3 羅生門効果
1.4 Attention Branch Network
1.5 SGD Influence
1.6 大規模言語モデルにおける説明可能なAI
2.機械学習での公平性
2.1 社会的な問題
2.2 公平性配慮型機械学習
2.3 説明可能なデータバイアス緩和
おわりに
第2節 事後説明器による説明の忠実性を改善する予測モデル訓練法
はじめに
1.問題設定及び提案法の概要
2.忠実性の評価尺度
3.微分可能な追加・削除メトリクス
4.説明の忠実性の正則化付き学習法
5.性能評価
6.事後説明器の説明を改善させるその他のアプローチ
おわりに
第3節 AIモデルの透明化技術と品質保証
はじめに
1.AI標準化で重視される観点
2.AIモデルの透明性とは
3.AIシステムの透明化技術
3.1 説明可能なAIとは
3.2 AIを説明可能にするさまざまな手法
3.3 トレーサビリティによる透明化
3.4 システムの特性の熟知
3.4.1 Step1:カタログを活用
3.4.2 Step2:詳細な特性を把握
4.AIシステム開発プロセスの透明化技術
4.1 開発プロセスの定義と実施
4.2 AIモデルの評価必須項目
4.3 使用実績による証明
5.利用者との相互作用の透明化技術
おわりに
第4節 説明可能なAIの重要性と技術動向
はじめに
1.XAIの歴史
2.XAIの分類
2.1 XAIの種類の分類
2.2 XAIによる説明の表現方法
2.2.1 特徴の重要度
2.2.2 例示の導出
2.2.3 推定プロセスの可視化
2.2.4 カウンターファクチュアル(反実事実的)説明
2.2.5 ルールベースの導出
2.2.6 グラフなどの構造で提示
2.2.7 テキストと自然言語の説明
3.AIME (Approximate inverse model explanations)とその提示例から見るXAIによって変化すること
3.1 AIMEとは
3.2 AIMEから導出される説明の例
3.3 ビジネスにおけるXAIの役割
4.XAIのこれからの技術動向
おわりに
第5節 因果推論技術CALCによるAIの判断理由の理解
はじめに
1.AI活用の現況とその説明性
2.XAIのためのいくつかの方法
2.1 LIME
2.2 SHAP
3.ソニーCSL独自の因果推論ツールCALC
3.1 相関と因果の違い
3.2 構造的な因果モデルの効用
3.3 因果推論メソッドCALC
4.因果推論ツールCALCの事例
4.1 ソニー損害保険株式会社での事例
4.2 ジャパン・イーエム・ソリューションズ株式会社での事例
4.3 その他の事例
5.CALCのXAIとしての活用
まとめ
第6節 説明性の高い時系列波形データ分析向けAIの開発と異常診断への活用
はじめに
1.AIの説明性
2.Shapelets学習法
3.正常データのみで学習するshapelets学習法
4.長さを学習可能なshapeletsに基づく時系列分類手法
おわりに
第7節 説明可能なAIとプラント制御へのデータ分析技術
はじめに
1.「診断・予測」における「説明できるAI」
1.1 「説明できるAI」とその類型
2.活用事例
2.1 診断
2.1.1 発電プラントの異常診断への適用例(MSPC):推論結果の説明
2.1.2 エネルギープラントの異常要因の適用例(因果推論と決定木):モデルの説明
2.2 予測
2.2.1 太陽電池製造プラントの最適製造条件探索(部分的最小二乗法):データ・モデルの説明
2.2.2 製造プラントの温度予測(構造化ディープラーニング(富士電機独自)):モデルの説明
第8節 ゲノム医療にむけた説明可能AI (XAI) の開発
はじめに
1.がんの遺伝子変異に対する原因(病原性)推定と「説明可能AI(XAI)」
1.1 がんゲノム医療の病原性推定の概要
1.2 手法
1.3 本研究成果の今後の展開:染色体レベルの大きな変異に対応した病原性推定XAIの開発
2.さまざまな医療向けAI
2.1 医療文献のキュレーション作業を効率化するシステム
2.2 自然言語処理技術を活用した文献検索サービス
2.3 薬剤の反応を予測するシステム
2.4 がん疾患などで重要な化学反応の詳細を予測するナレッジグラフ
2.5 自動臨床コード付与技術の開発
2.6 臨床テキストから家族情報を抽出する家系図生成技術
2.7 デジタル化された医療文書のための自然言語処理技術群
2.8 生成AIや大規模言語処理を利用したXAIシステムの開発にむけて
おわりに
第9節 日立コンサルティングでのXAIの適用事例
はじめに- AI実務案件の浸透とXAI技術の登場
1.XAI手法
2.日立コンサルティングでのベテラン・組織知の集約事例
2.1 営業活動の成功要因の説明モデル
2.2 実務部門へのAIモデル導入にあたっての課題
2.3 解決策:実務者を交えた仮説検証討議会議体
2.3.1 初期仮説の確認:常識通りかの確認
2.3.2 実務者の常識・直感と異なる結果の確認
2.3.3 検証討議結果の記録/新しい仮説の記録と次回アクションの設定
2.4 アウトプット例
おわりに - 手法の一般化,生成AI等新技術の適用
第10節 複数ダムにおける畳み込みニューラルネットワークを用いた流入量予測モデルのXAI適用
はじめに
1.検証対象ダムとデータ
1.1 対象ダム
1.2 対象データ
2.モデル構築
2.1 入出力データ
2.2 モデル
3.XAIの適用
3.1 Grad-CAM
3.2 SHAP
4.流入量予測モデルの計算結果と考察
4.1 計算結果
4.1.1 土師ダム
4.1.2 野村ダム
4.2 考察
4.2.1 土師ダム
4.2.2 野村ダム
5.XAIによる予測の根拠の可視化
5.1 土師ダム
5.2 野村ダム
6.XAIによる可視化の考察
6.1 土師ダム
6.2 野村ダム
さいごに
第11節 説明可能な人工知能を用いた顧客データからの満足要因の検出に関する研究
本稿の概要
はじめに
1.説明可能な人工知能の概要
1.1 説明可能な人工知能の概要
1.2 LIME
1.3 SHAP
2.LIMEによる顧客満足度の解析と可視化
2.1 導入
2.2 解析対象の概要
2.3 LIMEによる出力結果の可視化
2.4. データ解析
2.4.1 解析の設定
2.4.2 解析結果
2.4.3 まとめと考察
2.5 おわりに
3.SHAPを用いたオンライン購買顧客のリードスコアリングとその解釈7)
3.1 導入
3.2 解析データについて
3.2.1 解析対象の概要と方針
3.2.2 クラスとして扱う質問項目
3.2.3 特徴量として扱う質問項目
3.3 解析方法について
3.3.1 提案法の基本方針
3.3.2 提案法
3.4 解析実験
3.4.1 解析の設定
3.4.2 解析結果
3.4.3 まとめと考察
3.5 おわりに
まとめ
謝辞
第12節 説明可能なAI(XAI)を用いた豪雨時の住民避難行動分析
はじめに
1.データセット
2.機械学習を用いた住民避難選択行動モデル
3.住民避難行動要因の分析手法“Partial Dependence(PD)分析”
4.XAIを用いた住民避難行動要因の分析結果および統計的検定との比較
おわり
|