株式会社情報機構

生成AIシステムのCSV実施とAIリテラシー教育

2025/12/02

開催日 2026年1月27日(火)
開催地 Web

☆生成AI×CSV(コンピュータ化システムバリデーション)において、
 AIリテラシー教育の話題も含めた、喫緊の課題対応・実務オンラインセミナーです!
☆30年以上の国際規制対応経験に基づき、重要事項を共有いたします!

【テーマ名】
生成AIシステムのCSV実施とAIリテラシー教育セミナー
~生成AI時代のリスクと当局査察対応~


【講師】
株式会社イーコンプライアンス
代表取締役
村山 浩一 氏

【経歴】
1986年4月 日本ディジタルイクイップメント株式会社(日本DEC) ソフトウェアサービス部 入社
 ・GCP管理システム、症例データ管理システム企画・開発担当(現ClinicalWorks/GCP/CDM)
 ・改正GCP(J-GCP)に対応した標準業務手順書作成コンサルティング
 ・製薬業界におけるドキュメント管理システム導入コンサルティング
1999年1月 日本ディジタルイクイップメント株式会社 退社
1999年2月 日本アイ・ビー・エム株式会社 コンサルティング事業部 入社
 ・NYのTWG(The Wilkerson Group)で製薬業界に特化したコンサルタントとして研修
 ・製薬企業におけるプロセス リエンジニアリング担当
 ・Computerized System Validation(CSV)、21 CFR Part11 コンサルティング
2001年7月 IBM認定主幹コンサルタント
 ・アイビーエム・ビジネスコンサルティングサービス株式会社へ出向
  マネージング・コンサルタント
2004年7月 日本アイ・ビー・エム株式会社 退社
2004年8月 株式会社イーコンプライアンス設立
現在に至る

【専門および得意な分野・研究】
・日米欧の医療機器規制
 日本:QMS省令、GVP省令
 米国:21 CFR 820 QSR(QMSR)、801、803、806
 欧州:MDR、IVDR
・日米欧の医薬品規制
 日本:GCP、GMP、GVP、GQP、GPSP
 米国:cGMP
 欧州:PIC/S GMP
・Computerized System Validation
 GAMP 5、PIC/S GMP Annex 11、IEC 80002-2
 FDA CSAガイダンス、コンピュータ化システム適正管理ガイドライン
・ER/ES
 21 CFR Part 11、ER/ES指針

【本テーマ関連学協会での活動】
・東京都医工連携HUB機構 医工連携セミナー
・滋賀医療機器工業会 令和3年度医療機器講習会
・臨床検査薬協会国際委員会

【開催日時(オンライン配信)】
2026年1月27日(火) 10:30-16:30

【受講料】
●見逃し視聴なし:1名50,600円(税込(消費税10%)、資料付)
 *1社2名以上同時申込の場合、1名につき39,600円

●見逃し視聴あり:1名56,100円(税込(消費税10%)、資料付)
 *1社2名以上同時申込の場合、1名につき45,100円

※詳細な内容やお申込み要領等は、下段「セミナーホームページを見る」をご参照ください。

【セミナーの内容】
■講座のポイント
 ChatGPTをはじめとする生成AIツールが製薬・医療機器業界で急速に普及する中、多くの企業が「これはCSVの対象なのか」「どのようにバリデーションすればよいのか」という根本的な問いに直面しています。従来のコンピュータシステムとは異なる生成AIの特性—再現性の問題、ハルシネーション、ブラックボックス性—は、既存のバリデーション手法では対応しきれない新たな課題を突きつけています。
 そこで、本セミナーでは、FDA規制とCSA実務の第一人者である講師が、30年以上の国際規制対応経験に基づき、以下の実践的知識を提供します。

■ここがポイント
・サムスン電子の教訓から学ぶ実践的リスク管理
・生成AIのCSV実施方法
・規制当局の懸念と生成AIに対する査察対応
・明日から使える実装ツールとテンプレート
・役割別AIリテラシー教育の実践手法
・Human in the Loop(HITL)による品質保証の実装
・生成AI依存がもたらす組織的リスクと対策

■主な受講対象者様
主対象者
・品質保証(QA)・品質管理(QC)部門
  ・CSV/CSA担当者
  ・バリデーション責任者
  ・品質管理システム管理者
・IT・情報システム部門
  ・システム管理者
  ・セキュリティ担当者
  ・AI導入プロジェクト担当者
・規制対応部門
  ・規制業務(RA)担当者
  ・コンプライアンス責任者
  ・監査・査察対応責任者
推奨受講者
・経営層・管理職
  ・AI戦略立案責任者
  ・デジタルトランスフォーメーション(DX)推進責任者
  ・リスクマネジメント責任者
・人事・教育部門
  ・人材育成担当者
  ・研修企画担当者
  ・組織開発担当者
・研究開発部門
  ・臨床開発担当者
  ・データサイエンティスト
  ・研究管理者
業種
・製薬企業(医薬品製造販売業)
・医療機器製造販売業
・CRO(医薬品開発業務受託機関)
・CMO/CDMO(医薬品製造受託機関)
・再生医療等製品製造販売業

■受講の前提条件
必須条件
特にありません。生成AIやCSVの予備知識がない方でも理解できるよう、基礎から解説します。

推奨条件
以下のいずれかの知識・経験があると、より深い理解が得られます。
・品質管理・バリデーション経験
  ・CSV(Computer System Validation)の基礎知識
  ・GAMP 5に関する理解
  ・バリデーション文書作成経験
・規制要件に関する基礎知識
  ・21 CFR Part 11(電子記録・電子署名)
  ・データインテグリティ(ALCOA+原則)
  ・ISO 13485またはISO 9001
・生成AI利用経験
  ・ChatGPT、Claude、Geminiなどの使用経験
  ・業務での生成AI活用検討経験

■事前準備(推奨)
受講前に以下の資料に目を通していただくと、セミナーの理解が深まります。
・自社での生成AI利用状況の確認
・自社の現行CSV手順書の確認
・FDA Computer Software Assurance(CSA)最終ガイダンス(2025年9月)概要

■受講後、習得できること
・生成AI関連のWarning Letterや指摘事例を知ることで、同様の違反を未然に防げます
・FDA、EMA、PMDAの査察官が確認する重点項目を理解し、事前準備ができるようになります
・規制当局の査察や監査において、生成AI統制の適切性を自信を持って説明できるようになります
・正しい知識と体制に基づき、リスクを管理しながら生成AIの恩恵を享受できます
・サムスン電子のような事故を未然に防ぐための実践的ノウハウを獲得できます
・生成AIを「恐れるもの」から「適切に統制・活用できるツール」へと認識を転換できます
・People・Process・Technologyの3層防御体制を自社で構築する具体的方法を習得できます
・生成AIへの盲目的依存がもたらす長期的リスクを理解し、対策を講じられるようになります
・新人が実務能力とレビュー力量を確実に習得できる教育プログラムを設計できます
・批判的思考力を維持・向上させながらAIを活用する組織文化を構築できます
・明日からの実務で直面する判断に、確信を持って対応できるようになります
・短期的効率化と長期的組織能力維持のバランスを取った戦略を実行できます

■講演中のキーワード
・AIリテラシー
・FDA査察
・生成AIのリスク
・生成AIのCSV実施方法
・Human in the Loop
ほか

■プログラム項目
第1部:生成AIシステムの特性とリスク分析
1.1 生成AIシステムの基礎知識
 ・従来のAIと生成AIの違い
 ・LLM(大規模言語モデル)の仕組みと動作原理
 ・製薬・医療機器業界での活用事例と可能性
 ・主要な生成AIサービスの特徴比較
 ・生成AIの限界と盲目的依存の危険性
   ・ハルシネーション(幻覚)の具体例
   ・流暢だが誤った情報の危険性
   ・判断力とレビュー力の低下リスク

1.2 サムスン電子セキュリティ事故の詳細分析
 ・事故の経緯と発生メカニズム
 ・なぜ防げなかったのか:3つの観点からの分析
   ・People:AIリテラシーの欠如
   ・Process:ルール・ガイドラインの不在
   ・Technology:セキュリティ統制の不備
 ・製薬・医療機器業界への示唆
 ・類似事故の予防策

1.3 生成AIシステムに適用される規制要件
 ・FDA CSA最終ガイダンス(2025年9月)の要点
 ・EU AI Act(AI規制法)における生成AIの位置づけ
 ・ISO 13485とAIシステムの統合
 ・PMDAの考え方と国内規制動向
 ・データインテグリティとの関係(ALCOA+原則)
 ・21 CFR Part 11との整合性

1.4 規制当局の懸念と生成AI時代における査察対応
 ・規制当局が生成AIに対して抱く具体的懸念事項
   ・データインテグリティの確保(真正性、完全性、追跡可能性)
   ・透明性と説明責任(ブラックボックス問題への対応)
   ・患者安全性への影響(ハルシネーション、バイアス)
 ・査察時に確認される重点項目
   ・ポリシーとガイドラインの整備状況
   ・リスク評価とバリデーション文書
   ・Human in the Loopの実装証跡
   ・教育訓練記録と理解度評価
   ・インシデント管理とCAPAの実施
 ・実際の指摘事例と対応策
 ・Warning Letterに見る生成AI関連の違反事例分析
 ・査察準備のチェックリスト

第2部:生成AIシステムのCSV実践アプローチ
2.1 リスクベースアプローチの適用
 ・GAMP 5カテゴリ分類と生成AIシステム
 ・CSA原則に基づくCritical Thinking(批判的思考)の実践
 ・生成AI特有のリスク要因の特定
   ・ハルシネーション(幻覚)のリスク
   ・バイアスと公平性の問題
   ・再現性の課題
   ・データプライバシーとセキュリティ
   ・モデルの透明性とブラックボックス問題
 ・演習:リスク評価マトリクスの作成
 ・リスクレベルに応じた保証活動の決定

2.2 バリデーション戦略の立案
 ・従来のIQ/OQ/PQアプローチの適用可否
 ・プロンプトエンジニアリングの妥当性確認
 ・出力結果の検証方法(正確性、一貫性、適切性)
 ・継続的モニタリング計画の設計
 ・モデル更新・バージョンアップへの変更管理
 ・パフォーマンス劣化の検知と対応
 ・演習:生成AIシステムのバリデーション計画書骨子作成

2.3 文書化要件と記録管理
 ・バリデーション計画書の作成ポイント
 ・テスト仕様書とテストケース設計
 ・エビデンス収集とトレーサビリティ
 ・逸脱管理とCAPAの実施
 ・監査証跡(Audit Trail)の確保
 ・定期レビューと再バリデーション

2.4 Human in the Loop(HITL)による品質保証
 ・Human in the Loopの概念と規制産業における必要性
 ・生成AIにおける人間の介在が必須となるポイント
   ・Critical Decisionの特定
   ・患者安全性に影響する判断
   ・規制対象データの取扱い
   ・品質に影響する業務プロセス
 ・HITLを組み込んだワークフロー設計
   ・生成AI出力の検証プロセス
   ・人間による承認・却下の判断基準
   ・エスカレーションルール
 ・承認記録と監査証跡の確保
 ・AIへの過度な依存を防ぐ組織文化の醸成
 ・演習:自社業務プロセスへのHITL組み込み検討

第3部:People・Process・Technologyの3層防御体制
3.1 People:AIリテラシー教育プログラムの構築
3.1.1 組織に必要なAIリテラシーの定義
 ・レベル別AIリテラシーマトリクス
 ・役割別に求められる知識・スキル
 ・製薬・医療機器業界特有の要求事項
3.1.2 役割別教育プログラムの設計
 ・経営層向け:AI戦略、ガバナンス、リスク管理
 ・管理職向け:部門でのAI活用とリスク統制
 ・実務担当者向け:適切な使用方法と限界の理解
 ・IT部門向け:技術的理解とセキュリティ対策
 ・監査担当者向け:評価基準と確認ポイント
3.1.3 生成AI依存の危険性と対策
 ・盲目的な信頼がもたらす判断力の低下
   ・ハルシネーションの実例と検証方法
   ・AIの出力を疑う習慣の徹底
   ・ダブルチェック体制の構築
 ・レビューの慢性的な形骸化の防止
   ・「AIが作ったから安全」という誤った認識の排除
   ・実質的なレビューを担保する仕組み
   ・レビューチェックリストの活用
   ・レビュー品質のモニタリング指標
3.1.4 新人教育における重大な課題と対策
 ・生成AI時代の新人が直面する問題
   ・当初からAIに依存することの長期的影響
   ・実務経験を積む機会の喪失
   ・基礎能力が育たないことによる将来的な問題
 ・レビュー力量が育たない悪循環
   ・自分で文書を書かないとレビューできない理由
   ・5年後、10年後に顕在化する深刻な事態
   ・ベテラン退職後の組織能力低下リスク
 ・段階的AI活用教育の実践
   ・新人の最初の1~2年のAI使用制限ポリシー
   ・基礎能力習得の具体的マイルストーン
   ・AIを「学習支援ツール」として位置づける方法
   ・能力レベルに応じたAI使用許可基準
3.1.5 批判的思考力(Critical Thinking)の育成
 ・AIの出力を検証する具体的手法
   ・ファクトチェックの方法
   ・ソースの確認と裏付け
   ・論理的矛盾の発見訓練
 ・「なぜ」を問い続ける組織文化
   ・質問することを奨励する環境づくり
   ・根拠を求める習慣の定着
   ・複数の視点から検証する訓練
 ・エラー検出能力の向上トレーニング
   ・意図的に誤りを含む文書でのレビュー訓練
   ・AIが生成した誤情報の識別演習
   ・実際の失敗事例を使ったケーススタディ
3.1.6 実践的トレーニング手法
 ・ケーススタディによる演習(サムスン電子事例含む)
 ・失敗事例から学ぶ予防策
 ・ロールプレイングとシミュレーション
 ・AIなしでの文書作成・レビュー訓練の実施
 ・先輩社員によるメンタリングプログラム
 ・継続的な教育とフォローアップの仕組み
 ・理解度評価と効果測定
3.1.7 組織全体での人材育成戦略
 ・短期的効率と長期的能力育成のバランス
 ・ベテラン知識の次世代への確実な継承メカニズム
 ・OJT(実地指導)の重視と体系化
 ・持続可能な品質保証体制の構築
 ・人材育成KPIの設定と追跡

3.2 Process:ルールとガイドラインの明確化
3.2.1 社内ポリシーとSOPの整備
 ・生成AI利用ポリシーの作成ポイント
 ・入力禁止情報の明確な定義
   ・個人情報・患者データ
   ・機密情報・企業秘密
   ・規制対象データ
   ・未公開情報
 ・承認プロセスと権限管理
 ・利用申請とレビューフロー
3.2.2 運用ルールの策定
 ・利用可能な生成AIサービスの指定
 ・用途別の使用ガイドライン
・出力結果の検証・承認手順
 ・インシデント発生時の報告・対応手順
 ・定期的な見直しと更新プロセス

3.3 Technology:多層セキュリティ統制の実装
3.3.1 技術的セキュリティ対策
 ・DLP(Data Loss Prevention)の導入と設定
 ・アクセス制御とユーザー認証
 ・通信の暗号化とセキュアな接続
 ・ログ管理とリアルタイムモニタリング
 ・アラート設定とインシデント検知
3.3.2 統制されたAI利用環境の構築
 ・プライベートLLMとパブリックLLMの使い分け
 ・API統合による統制された利用環境
 ・プロンプトテンプレートの標準化
 ・出力結果の自動チェック機能
 ・バリデーション済みシステムとしての維持管理

■配布資料
1. セミナーテキスト(スライド資料)
全アジェンダの詳細解説資料
2. 生成AIシステムのCSVチェックリスト
バリデーション実施時の確認項目一覧
3. リスクアセスメントテンプレート
生成AI特有のリスク評価用Excelテンプレート
4. 社内ガイドライン・SOPサンプル
生成AI利用ポリシーとSOP作成の雛形
5. AIリテラシー教育プログラム設計ツール
役割別教育カリキュラム作成用テンプレート
6. 新人教育におけるAI使用ガイドライン
段階的AI活用教育のロードマップと基準
7. 批判的思考力育成トレーニング教材
AIの出力を検証する演習問題集
8. サムスン電子事故分析レポート
事故の詳細分析と教訓をまとめた資料
9. 査察対応Q&A集
生成AI関連の査察質問と模範回答例
10. 参考文献・規制文書リスト
FDA CSAガイダンス、EU AI Act等の参照先一覧
11. 用語集(日英対訳付き)
生成AI・CSV・CSA関連用語の解説

※プログラム内容は一部変更となる場合がございます。
 その点、ご了承いただきますようお願い申し上げます。

企業情報

株式会社情報機構

  • 住所東京都品川区大崎3-6-4 トキワビル3階
  • TEL03-5740-8755 / FAX 03-5740-8766
  • URLhttps://johokiko.co.jp/

詳しく見る

TOP