AWSに関するAI・機械学習用語集 - AWS Certified AI PractitionerとAWS Certified Machine Learning Engineer - Associateの学習過程で得られたナレッジ - NRIネットコムBlog

NRIネットコム Blog

NRIネットコム社員が様々な視点で、日々の気づきやナレッジを発信するメディアです

AWSに関するAI・機械学習用語集 - AWS Certified AI PractitionerとAWS Certified Machine Learning Engineer - Associateの学習過程で得られたナレッジ

小西秀和です。
今回は新しく追加されたAWS認定であるAWS Certified AI PractitionerとAWS Certified Machine Learning Engineer - Associateに私が合格するまでの学習過程で得られたナレッジを「AWSに関するAI・機械学習用語集」として、ざっくりとまとめてみました。

この「AWSに関するAI・機械学習用語集」の内容は、日本の「技術書典17」向けに個人出版として共著した「AWSの薄い本の合本Vol.01」における「クイズで学ぶAWSの機能と歴史:厳選『機械学習』編」の問題・解答にも使用しています。

短時間にAI・機械学習の用語と概要を把握する場合や試験前の総復習など、これからAWS Certified AI Practitioner、AWS Certified Machine Learning Engineer - Associateを受験される方の一助となれば幸いです。

一方で、こちらの記事は私自身の備忘録という側面もあるため、多少、掲載している用語や説明に偏りがあることをご了承ください。

最終更新日:2024/11/25
この「AWSに関するAI・機械学習用語集」は次のような構成になっています。

AI/MLのAWSサービス

Amazon SageMaker

サービス名 説明
Amazon SageMaker 機械学習モデルの構築、トレーニング、デプロイを効率的に行うためのフルマネージドサービス。開発から本番運用まで、MLのライフサイクル全体をサポートする統合プラットフォーム。
SageMaker Studio SageMakerのコンポーネントの一つで、ブラウザベースの統合開発環境(IDE)。ノートブック作成、モデル開発、トレーニング、デプロイまでをワンストップで実行可能。MLワークフローの一元管理を実現。
SageMaker Canvas SageMakerのコンポーネントの一つで、コードを書かずにドラッグ&ドロップでMLモデルを構築できるビジュアルインターフェース。ビジネスアナリスト向けのノーコードML開発環境。
SageMaker Ground Truth SageMakerのコンポーネントの一つで、高品質なトレーニングデータセット作成のためのデータラベリングサービス。人間のラベリング作業を効率化し、半自動化されたラベリングワークフローを提供。
SageMaker Data Wrangler SageMakerのコンポーネントの一つで、データの準備と前処理を効率化するツール。200以上の組み込み変換機能を提供し、データクレンジングから特徴量エンジニアリングまでをGUIで実現。
SageMaker Feature Store SageMakerのコンポーネントの一つで、特徴量を一元管理・共有できるリポジトリ。オンライン/オフラインでの特徴量の一貫性を確保し、チーム間での再利用を促進。
SageMaker JumpStart SageMakerのコンポーネントの一つで、事前学習済みモデルとソリューションを提供するMLハブ。ワンクリックでデプロイ可能で、転移学習や微調整にも対応。
SageMaker Model Monitor SageMakerのコンポーネントの一つで、本番環境のモデル品質を継続的に監視。データドリフトやバイアスを検出し、モデルの性能劣化を早期発見。
SageMaker Clarify SageMakerのコンポーネントの一つで、モデルのバイアス検出と説明可能性を評価。公平性と透明性を確保し、モデルの判断根拠を解析。
SageMaker Debugger SageMakerのコンポーネントの一つで、トレーニングプロセスのデバッグと監視を行う。メトリクスの可視化とアラート設定が可能。学習の最適化を支援。
SageMaker Pipelines SageMakerのコンポーネントの一つで、MLワークフローのオーケストレーションを行う。再現可能なMLパイプラインを構築し、自動化された実験管理を実現。
SageMaker Model Cards SageMakerのコンポーネントの一つで、モデルのドキュメント作成・管理を行う。モデルの詳細情報を一元管理し、ガバナンスとコンプライアンスを確保。
SageMaker Role Manager SageMakerのコンポーネントの一つで、ML活動のアクセス許可を管理。最小権限の原則に基づくセキュリティを実現し、適切なアクセス制御を提供。
SageMaker Experiments SageMakerのコンポーネントの一つで、機械学習の実験を追跡・管理するツール。トレーニング実行・パラメータ・メトリクスなどの実験結果を自動的に記録し、比較分析を可能にする。
SageMaker Model Registry SageMakerのコンポーネントの一つで、MLモデルのカタログ化とバージョン管理を行うリポジトリ。モデルのメタデータを管理し、承認ステータスを管理する。

Amazon Bedrock

サービス名 説明
Amazon Bedrock セキュアなフルマネージド型の生成AIプラットフォームサービス。複数のFoundation Modelsを単一のAPIで利用可能な統合プラットフォーム。基盤となる大規模言語モデル(FMs)・RAG構築用のKnowledge Bases・自動化のためのAgents・有害コンテンツフィルタリング用のGuardrails・ワークフロー実行のためのPrompt Flowsなど、包括的な機能を提供する。
Foundation Models (FMs) テキスト生成や画像生成などの基盤となる大規模言語モデル。Bedrockの中核となるAI機能を提供する基礎コンポーネント。
Knowledge Bases 外部ナレッジベースからの情報検索機能を提供し、Retrieval Augmented Generation (RAG)アーキテクチャの構築を可能にするBedrockの機能。
Agents 手順指示、独自アクション実行、Knowledge basesの利用などを統合的にオーケストレーションするBedrockの機能。
Guardrails 有害コンテンツやハルシネーションを検出・フィルタリングし、AIの出力を制御するBedrockの機能。
Prompt Flows プロンプト実行・S3データの入出力・Lambda関数の実行などを体系的にワークフロー化するBedrockの機能。

Amazon Q

サービス名 説明
Amazon Q 企業向けに特化した生成AI搭載アシスタントサービス。Business版とDeveloper版があり、それぞれ業務生産性向上と開発支援に特化している。Amazon Q in Amazon Quicksight・Amazon Q in Amazon Connect・Amazon Q in AWS Chatbot・Amazon Q network troubleshooting・Amazon Q Data integration in AWS Glueなど、様々なAWSサービスと統合可能。
Amazon Q Business 従業員の業務効率を向上させるために設計された生成AIアシスタント。一般的なビジネスタスクの自動化と効率化をサポート。
Amazon Q Developer 開発者向けのコーディング支援に特化した生成AIアシスタント。コード生成・デバッグ・最適化などの開発タスクをサポート。

自然言語処理サービス

サービス名 説明
Amazon Comprehend テキストからの感情分析・個人情報検出・キーフレーズ抽出などを実行する自然言語処理サービス。カスタムモデルの作成も可能。
Amazon Kendra エンタープライズ向け高度な検索サービス。自然言語クエリに対して文脈を理解した検索結果を提供。RAGとの統合も容易。
Amazon Lex 対話型インターフェース(チャットボット)構築サービス。自然言語理解と対話管理機能を提供。音声・テキストの両方に対応。
Amazon Textract 文書からのテキストや構造化データの抽出サービス。手書き文字認識・フォーム処理・表分析が可能。高精度OCR機能を提供。
Amazon Translate 多言語間の自動翻訳サービス。74言語間の翻訳をリアルタイムで提供。カスタム用語辞書にも対応。
Amazon Transcribe 音声をテキストに変換するサービス(音声認識)。複数の話者識別や専門用語のカスタマイズが可能。リアルタイム文字起こしにも対応。
Amazon Polly テキストを音声に変換サービス(音声合成)。自然な発声とNeuralテキスト読み上げを提供。多言語・多声種に対応。
Amazon CodeWhisperer プログラミング支援のためのAIコーディングコンパニオン。コード補完や提案を提供。

画像・動画処理サービス

サービス名 説明
Amazon Rekognition 画像・動画分析サービス。認識・物体検出・テキスト抽出・コンテンツモデレーション・セレブリティ認識などを提供。リアルタイム分析とバッチ処理に対応。
Amazon Lookout for Vision 産業用の画像分析による異常検知サービス。製造ラインでの製品欠陥検出などに利用。

その他のAI関連サービス

サービス名 説明
Amazon Personalize パーソナライズされたレコメンデーションを提供するサービス。ユーザー行動データに基づく商品推奨や関連コンテンツ提案が可能。リアルタイムレコメンデーションに対応。
Amazon Pinpoint カスタマーエンゲージメントサービス。MLを活用したセグメンテーション・ユーザー行動分析・最適な配信時間の予測などの機能を提供。メール・SMS・プッシュ通知などマルチチャネルでのコミュニケーションが可能。
Amazon Fraud Detector 機械学習による不正検知サービス。オンラインでの不正取引・アカウント乗っ取り・偽装アカウント作成などを検出。カスタムルールとMLモデルを組み合わせて利用可能。
Amazon Augmented AI (A2I) 人間によるレビュータスク実行を管理するサービス。機械学習の予測結果を人間がレビューするワークフローを構築可能。
Amazon Mechanical Turk (MTurk) クラウドソーシングマーケットプレイス。人間によるデータラベリングやコンテンツモデレーションなどのタスクを実行可能。Amazon SageMaker Ground TruthやAmazon Augmented AI (A2I)と連携可能。
Amazon QuickSight BI(ビジネスインテリジェンス)ツール。ML予測分析機能を搭載し、データの可視化と分析が可能。Q機能による自然言語でのデータ分析をサポート。

データストレージ・データベースソリューション

サービス 説明
Amazon S3 スケーラブルなオブジェクトストレージ。データレイクの構築に最適。高い耐久性と可用性。
Amazon EFS フルマネージド型のスケーラブルなファイルストレージ。複数インスタンスでの共有が可能。NFSプロトコル対応。
Amazon FSx for Lustre Amazon FSx for Lustreは大規模なデータセットを直接処理できる高性能ファイルシステム。Amazon S3とシームレスに統合され、S3からのデータ読み込みと書き戻しを自動化し、数百GBpsの並列処理でワークロードを高速化。
Amazon DynamoDB フルマネージド型NoSQLデータベース。高速な読み書きが可能。自動スケーリング機能。
Amazon Redshift ペタバイトスケールのデータウェアハウス。高速なクエリ処理が可能。列指向ストレージ。
Amazon OpenSearch Service Elasticsearch互換の検索・分析エンジンサービス。全文検索やリアルタイム分析に加え、ニューラル検索とK近傍法(k-NN)によるベクトル検索をサポートしたベクトルデータベース機能を提供。ログ分析・アプリケーション検索・セキュリティ分析の他、レコメンデーション・セマンティック検索などのAIアプリケーションにも対応。OpenSearch Neural Search機能により、大規模言語モデルと連携した高度な検索も実現。
Amazon DocumentDB MongoDB互換のドキュメントデータベース。ベクトル検索機能を搭載。スケーラブルな文書管理。

機械学習の基本概念

AI/ML基礎概念

用語 説明
人工知能(AI) 人間のような知的な振る舞いをするコンピュータシステム。学習・推論・問題解決などの能力を持つ。特定タスクの知能(特化型AI)と汎用的な知能(汎用AI)がある。
機械学習(ML) データからパターンを学習し、明示的なプログラミングなしでタスクを実行するアルゴリズムやシステム。統計的手法とアルゴリズムを組み合わせて実現。
深層学習 多層のニューラルネットワークを使用した機械学習手法。画像認識・自然言語処理などで高い性能を発揮。大量のデータと計算リソースが必要。
特徴量(Feature) モデルの入力として使用される個々の変数や属性。データから抽出された意味のある情報。
ラベル(Label) 教師あり学習における正解データ。モデルが予測すべき目標値や分類カテゴリ。
インスタンス 個々のデータポイント。特徴量とラベルの組み合わせで構成される。
バッチ モデル学習時に同時に処理されるデータのまとまり。メモリ効率とトレーニング速度に影響。
エポック 全訓練データを1回処理する単位。複数エポックの学習で徐々にモデルを改善。
イテレーション モデルパラメータの1回の更新。バッチ単位の処理を指すことが多い。
パラメータ モデルが学習過程で最適化する値。重みやバイアスなど。
ハイパーパラメータ モデルの学習前に設定する制御パラメータ。学習率やバッチサイズなど。
帰納バイアス モデルが持つ前提や仮定。学習アルゴリズムの性質を特徴づける。
汎化性能 未知のデータに対するモデルの予測能力。過学習と過少学習のバランスが重要。

生成AI関連概念

用語 説明
基盤モデル(FM) 大規模データで事前学習された汎用AIモデル。様々なタスクに適応可能。転移学習やファインチューニングの基礎となる。
大規模言語モデル(LLM) 自然言語処理に特化した大規模な基盤モデル。GPT・BERTなどが代表例。文章生成や理解タスクで高い性能を発揮。
RAG(検索拡張生成) 外部ナレッジを検索・参照して生成AIの出力品質を向上させる手法。ハルシネーション防止と正確性向上に効果的。
プロンプト 生成AIモデルへの入力テキスト。モデルの出力を制御するための指示や文脈。
トークン プロンプトにおいて、テキストを分割する最小単位。単語や部分文字列で構成。モデルの入出力制限の基準。
Temperature プロンプトにおいて、生成時のランダム性を制御するパラメータ。高いほど多様な出力、低いほど決定的な出力。
Top-p サンプリング プロンプトにおいて、累積確率に基づいて次のトークンを選択する手法。出力の多様性と質のバランスを制御。
Top-k サンプリング プロンプトにおいて、確率上位k個のトークンから次のトークンを選択する手法。出力の制御に使用。
コンテキストウィンドウ プロンプトにおいて、モデルが一度に処理できる入力の最大長。長い文脈の理解に影響。
インコンテキスト学習 プロンプトにおいて、プロンプト内の例示を通じてタスクを学習する能力。追加学習なしでの適応。
ファインチューニング 基盤モデルを特定のタスクや領域に適応させる過程。追加学習による特化。
プロンプトエンジニアリング プロンプトにおいて、効果的なプロンプトを設計する技術。出力の質と一貫性を向上。
ハルシネーション モデルが事実に基づかない情報を生成する現象。信頼性の課題。
スタイル転移 既存のコンテンツのスタイルを変更する生成手法。画像や文章で使用。
潜在空間 生成モデルが学習するデータの圧縮された表現空間。生成の多様性を制御。
アテンション機構 入力の重要な部分に注目する仕組み。Transformerモデルの核心技術。
自己注意機構 シーケンス内の要素間の関係性を学習する機構。長距離依存関係の捕捉に有効。
デコーダー 潜在表現から目的の出力を生成する部分。生成モデルの重要コンポーネント。
エンコーダー 入力を潜在表現に変換する部分。情報の圧縮と特徴抽出を担当。
トランスフォーマー 自己注意機構を基本とするアーキテクチャ。現代の生成AIの基礎。
マルチモーダル テキスト・画像・音声など複数の形式のデータを扱える能力。
ゼロショット能力 プロンプトにおいて、事前学習のみで新しいタスクを実行できる能力。例示なしでの適応。
フューショット能力 プロンプトにおいて、少数の例示で新しいタスクを実行できる能力。効率的な適応学習。

機械学習アプローチ

用語 説明
パラメトリック学習 モデルの形状が固定され、パラメータ数が一定のアプローチ。線形回帰やロジスティック回帰など。
ノンパラメトリック学習 データに応じてモデルの複雑さが変化するアプローチ。k-NNやカーネル法など。
アンサンブル学習 複数の学習器を組み合わせて性能を向上させるアプローチ。ランダムフォレストやブースティングなど。

学習の基礎理論

用語 説明
最尤推定 データが得られる確率を最大化するようにパラメータを推定する手法。
ベイズ推定 事前確率とデータの尤度から事後確率を計算し、パラメータを推定する手法。
経験的リスク最小化 訓練データ上での予測誤差を最小化する原理。
構造的リスク最小化 モデルの複雑さを考慮しながら予測誤差を最小化する原理。

損失関数

用語 説明
二乗損失 予測値と実際値の差の二乗。回帰問題でよく使用。
交差エントロピー損失 分類問題で使用される損失関数。確率分布間の距離を測定。
ヒンジ損失 SVMで使用される損失関数。マージン最大化を実現。
Huber損失 外れ値に対してロバストな損失関数。二乗損失と絶対値損失の組み合わせ。

最適化理論

用語 説明
凸最適化 局所最適解が大域最適解となる特殊な最適化問題。
確率的最適化 ランダムネスを活用して最適解を探索する手法。
制約付き最適化 制約条件下での最適化問題。ラグランジュ乗数法などで解く。

学習プロセスの関連用語

用語 説明
勾配消失問題 深層ニューラルネットワークで、逆伝播時に勾配が消失してしまう現象。深い層での学習を困難にする。
勾配爆発 深層ニューラルネットワークで、勾配が指数関数的に大きくなる現象。学習の不安定化を引き起こす。
スパース性 データやモデルパラメータの多くが0である性質。計算効率や一般化性能に影響を与える。
次元の呪い 特徴量の次元数が増加すると必要なデータ量が指数関数的に増加する問題。高次元データ分析の課題。

データ品質関連用語

用語 説明
データ不均衡 クラス間でサンプル数に大きな差がある状態。少数クラスの学習が困難になる。
ノイズ データに含まれる不要な変動や誤差。モデルの学習を妨げる要因となる。
外れ値 データの一般的な分布から大きく離れた値。モデルの学習に悪影響を与える可能性がある。
欠損値 データセット内の未記録や未測定の値。適切な処理が必要。

モデル評価関連用語

用語 説明
ベースライン 比較の基準となる単純なモデルや性能指標。改善度の評価に使用。
有意性検定 モデル間の性能差が統計的に意味があるかを評価する手法。
クロスエントロピー 分類問題における予測確率と真の分布の差異を測る指標。
混同行列 分類モデルの予測結果を分類ごとに集計した表。性能評価に使用。

活性化関数

用語 説明
ReLU 最も一般的に使用される活性化関数。負の入力を0にする単純な非線形関数。
Sigmoid 出力を0-1の範囲に変換する。二値分類の出力層でよく使用。
tanh 出力を-1から1の範囲に変換する。勾配消失問題をsigmoidより軽減。
Softmax 複数クラスの確率分布を出力する。多クラス分類の出力層で使用。

学習アルゴリズムの種類

用語 説明
パーセプトロン 最も基本的なニューラルネットワーク。線形分離可能な問題に対応。
SVM(サポートベクターマシン) マージン最大化により分類境界を決定する手法。カーネルトリックで非線形分類も可能。
決定木 データを階層的に分割して予測を行う手法。解釈性が高く、特徴量の重要度評価が容易。
k近傍法 最も近いk個の訓練データの多数決で予測を行う手法。シンプルだが計算コストが高い。

データ品質指標

用語 説明
データ完全性 データセットの欠損値・重複・不整合の程度を示す指標。
データ一貫性 データ形式や値の範囲が期待通りかを示す指標。
データ鮮度 データの更新時期や有効期限を示す指標。
データ代表性 サンプルが母集団を適切に代表しているかを示す指標。

モデル品質指標

用語 説明
予測安定性 類似の入力に対する予測の一貫性を示す指標。
モデル信頼度 各予測に対するモデルの確信度を示す指標。
説明可能性 モデルの予測理由の解釈のしやすさを示す指標。
ロバスト性 ノイズや外れ値に対するモデルの耐性を示す指標。

統計的概念

用語 説明
分散分析 データの変動要因を分析する統計的手法。
仮説検定 統計的仮説の検証を行う手法。
信頼区間 推定値の不確実性を定量化する範囲。
効果量 統計的な差異の実用的な大きさを示す指標。

モデル開発プロセス

[このカテゴリで役立つAmazon SageMakerコンポーネント]
・Amazon SageMaker Studioは、ノートブック作成、モデル開発、トレーニング、デプロイまでをワンストップで実行可能な統合開発環境(IDE)を提供し、MLワークフローの一元管理を実現します。
・Amazon SageMaker Canvasは、コードを書かずにドラッグ&ドロップでデータの準備からモデルのデプロイまでを実行できるノーコードML開発環境を提供し、ビジネスアナリスト向けの開発を可能にします。

モデル開発プロセス

フェーズ 説明
データ収集 学習に必要なデータの収集・統合。データソースの特定と品質確認を含む。データの代表性とバランスを考慮。
データ前処理 データ分割、クレンジング(クリーニング)、データラベリング、特徴量エンジニアリング、スケーリング(正規化、標準化)を実施。データの品質向上と学習に適した形式への変換。欠損値処理や異常値処理を含む。
モデル選択 問題の種類(分類/回帰等)・データの特性・要件(精度/速度/説明可能性)に基づいて適切なアルゴリズムとアーキテクチャを選択。計算リソースやデプロイ環境の制約も考慮。事前学習済みモデルの活用可能性も検討。
モデルトレーニング 選択したアルゴリズムを使用してモデルを学習。ハイパーパラメータの最適化を含む。交差検証による性能評価を実施。
モデル評価 モデルの性能を検証。複数の評価指標を使用して多角的に分析。テストデータでの汎化性能を確認。
デプロイ モデルを本番環境に展開。スケーリングとモニタリングの設定を含む。A/Bテストによる効果検証も実施。
推論 デプロイされたモデルを使用して新しいデータに対する予測を実行。リアルタイムまたはバッチ処理での予測を実施。
モニタリング モデルの性能を継続的に監視。ドリフトの検出と再学習の判断。品質メトリクスの追跡と警告設定。

データ収集

データの種類

種類 説明
構造化データ 表形式で整理されたデータ。RDBMSで管理されるデータなど。明確なスキーマを持つ。
非構造化データ 定型的な構造を持たないデータ。テキスト・画像・音声・動画など。処理に特殊な技術が必要。
半構造化データ 部分的に構造化されたデータ。JSON・XML・HTMLなど。フレキシブルなスキーマを持つ。
ベクトルデータ 数値ベクトルで表現されたデータ。単語埋め込み、特徴ベクトルなど。類似度計算に適している。

ETL(Extract, Transform, Load)

フェーズ 説明
Extract 様々なソースからデータを抽出。データの形式や品質を確認。整合性チェックを実施。
Transform データの変換・加工。クレンジング・正規化・集計などを実行。ビジネスルールに従った変換。
Load 処理済みデータの保存・読み込み。データウェアハウスやデータレイクへの格納。整合性の保証。

データ前処理

[このカテゴリで役立つAmazon SageMakerコンポーネント]
・Amazon SageMaker Data Wranglerは、データの準備と前処理を効率化するツールを提供し、データクレンジングから特徴量エンジニアリングまでをGUIで実現します。
・Amazon SageMaker Canvasは、コードを書かずにデータの前処理・特徴量エンジニアリング・データ変換などをGUIで実行できる機能を提供し、ビジネスアナリストによるデータ準備を可能にします。

データ分割

用語 説明
トレーニングデータ モデルの学習に使用するデータセット。全データの約60-80%を占めることが一般的。
バリデーションデータ モデルのハイパーパラメータチューニングと性能評価に使用するデータセット。全データの約10-20%を占める。
テストデータ 最終的なモデル評価に使用する独立したデータセット。全データの約10-20%を占める。
ホールドアウト法 データを訓練用と評価用に分割する基本的な手法。データ量が十分な場合に使用。
層化サンプリング クラスの比率を保持しながらデータを分割する手法。不均衡データセットで重要。

クレンジング(クリーニング)

作業 説明
ノイズ除去 異常値やノイズの検出と除去。データの品質向上。統計的手法やドメインナレッジを活用。
欠損値処理 欠損データの補完や除去。平均値・中央値・予測値などで補完。MARやMCARの仮定を考慮。
異常値検出 統計的手法やML手法による異常値の特定。ドメインナレッジとの整合性確認も重要。
重複データの排除 重複レコードの検出と除去。データの一貫性確保。キー項目の正規化。

データラベリング

[このカテゴリで役立つAmazon SageMakerコンポーネント]
・Amazon SageMaker Ground Truthは、高品質なトレーニングデータセット作成のためのデータラベリングサービスを提供します。

手法 説明
手動ラベリング 人間による直接のラベル付け。高品質だが時間とコストがかかる。専門知識が必要な場合に有効。
半自動ラベリング AIによる予測と人間の確認の組み合わせ。効率的なラベリングが可能。品質と効率のバランスを実現。
アクティブラーニング 効率的なラベリングのための対象データ選択。不確実性の高いデータを優先。ラベリングコストを最適化。
ラベル品質管理 一貫性とエラーのチェック。複数アノテーターの合意形成を含む。品質メトリクスの設定と監視。

特徴量エンジニアリング

[このカテゴリで役立つAmazon SageMakerコンポーネント]
・Amazon SageMaker Feature Storeは、特徴量を一元管理・共有できるリポジトリを提供し、オンライン/オフラインでの特徴量の一貫性を確保します。

手法 説明
特徴量選択 モデルに有用な入力変数の選定。相関分析や重要度評価に基づく選択。次元削減とモデル性能向上に貢献。多数の特徴量が存在する場合や、不要な特徴量を除去してモデルの過学習を防ぎたい場合に使用。特に医療データや金融データなど、多くの変数を持つデータセットの分析時に効果的。
特徴量抽出 生データから意味のある特徴を取り出す処理。信号処理におけるフーリエ変換や画像からのエッジ検出など。複雑な生データから有用な情報を抽出する必要がある場合に使用され、特に画像処理・音声処理・センサーデータの分析などで重要。時系列データの分析では、統計量や周波数特性の抽出に活用。
特徴量スケーリング 特徴量の値域を調整する処理。標準化や正規化などがある。異なるスケールの特徴量を持つデータセットを扱う際に必須で、特に勾配降下法を使用する機械学習アルゴリズムや距離計算を行うクラスタリングアルゴリズムで重要。
特徴量交互作用 複数の特徴量の組み合わせによる新しい特徴量の作成。非線形な関係性を捉えたい場合や、個々の特徴量だけでは説明できない現象をモデル化する際に使用。特に回帰分析や予測モデルにおいて、予測精度を向上させるために活用。
次元削減 データの特徴量次元を減らす技術。PCA・t-SNEなどが代表的。計算効率と性能の向上に寄与。高次元データの可視化が必要な場合や、計算コストを削減したい場合に使用。画像認識や文書分類など、高次元データを扱う際に特に有用。
エンコーディング カテゴリ値の数値変換。One-Hot・Label・Target encodingなどの手法を使用。データ特性に応じて適切な方法を選択。カテゴリカルデータを扱う機械学習モデルを構築する際に必須で、特にカテゴリ数が多い場合や、カテゴリ間の関係性を考慮する必要がある場合に重要。
埋め込み 高次元データの低次元ベクトル表現への変換。Word2Vec・BERT等。意味的な類似性を保持。テキストデータや大規模なカテゴリカルデータを扱う際に使用され、特に自然言語処理や推薦システムの構築において重要な役割を果たす。
データ拡張 既存データの変形による学習データの増強。回転・スケーリング等。モデルの汎化性能向上。訓練データが限られている場合や、モデルの過学習を防ぎたい場合に使用。画像認識や音声認識など、深層学習を用いたタスクで特に効果。

エンコーディング手法

エンコーディング手法 説明と使用ケース
Label Encoding カテゴリ値を連続的な整数値に変換する手法。カテゴリ間に順序関係が存在する場合(例:学歴・年齢層)に適している。メモリ効率が良く、決定木ベースのアルゴリズムでよく使用される。ただし、カテゴリ間に数値的な大小関係を導入してしまうため、順序のないカテゴリデータには注意が必要。
One-Hot Encoding カテゴリ値を二値のベクトルに変換する手法。カテゴリ間に順序関係がない場合(例:色・性別・職業)に最適。各カテゴリを平等に扱えるが、カテゴリ数が多い場合はメモリ消費が大きくなり、次元の増加による計算コストの上昇が課題となる。線形モデルや neural networks で特に重要。
Target Encoding カテゴリ値をターゲット変数の平均値に置き換える手法。カテゴリ数が非常に多い場合や、カテゴリと目的変数の間に強い関連がある場合に効果的。ただし、過学習のリスクがあるため、適切な正則化やクロスバリデーションが必要。特に予測モデルでの性能向上に有用。
Frequency Encoding カテゴリの出現頻度を用いて数値に変換する手法。カテゴリの発生頻度が重要な意味を持つ場合(例:商品の人気度・利用頻度)に適している。実装が簡単で解釈しやすい特徴があるが、同じ頻度のカテゴリを区別できないという限界がある。
Binary Encoding カテゴリを二進数表現に変換する手法。One-Hot Encodingよりも少ない次元数で表現できるため、メモリ効率が良く、カテゴリ数が多い場合に有用。ただし、生成された特徴の解釈が難しく、カテゴリ間の関係性が失われる可能性がある。
Hash Encoding ハッシュ関数を使用してカテゴリを固定次元の特徴量に変換する手法。カテゴリ数が極めて多い場合や、新しいカテゴリが継続的に追加される場合に適している。メモリ効率が良く、オンライン学習にも対応できるが、ハッシュの衝突により情報損失が発生する可能性がある。

テキストデータの特徴量抽出手法

手法 説明
TF-IDF 単語の重要度を文書頻度と逆文書頻度から計算する手法。テキスト分析の基本的な特徴量。文書分類・情報検索・キーワード抽出など、単語の重要度を考慮する必要がある場合に広く使用される。
Word2Vec 単語を固定長の密ベクトルに変換する手法。単語の意味的類似性を捉える。感情分析・文書分類・質問応答システム・機械翻訳など、単語の意味関係や文脈を考慮する必要がある自然言語処理タスクで使用される。
Doc2Vec Word2Vecを拡張し、文書全体のベクトル表現を学習する手法。文書の類似度計算などに使用。文書の分類・クラスタリング・推薦システム・類似文書検索など、文書レベルでの意味的な比較が必要なタスクに適している。
FastText 部分文字列を考慮した単語埋め込み手法。未知語への対応が可能。形態素が豊富な言語での処理や、スペルミスを含むテキストの処理、ソーシャルメディアの投稿分析など、新しい単語や変形した単語が頻出する場面で特に有効。
BERT Tokenization BERTモデル用のトークン化手法。WordPieceアルゴリズムを使用。感情分析・固有表現抽出・質問応答など、文脈を考慮した高度な自然言語処理タスクで、BERTモデルを使用する際に必須の前処理として使用される。
BPE (Byte Pair Encoding) 頻出文字列を結合してサブワード単位を学習する手法。語彙サイズを制御可能。機械翻訳・多言語処理・形態素が複雑な言語の処理など、大規模な語彙を効率的に扱う必要がある場合に特に有効。
Bag of Words (BoW) 文書中の単語の出現頻度をベクトル化する最も基本的な手法。語順を考慮しない。スパムメール検出・文書分類・トピック分類など、単語の出現頻度のみで十分な性能が得られるような基本的なテキスト分析タスクに使用される。
n-gram n個の連続する単語や文字の組み合わせを特徴量とする手法。局所的な文脈を捉える。言語モデリング・スペルチェック・著者判定・プログラミング言語の予測入力など、局所的な文脈や単語の順序が重要な場合に使用される。

テキストデータの前処理

手法 説明
トークン化 テキストを単語や部分文字列に分割。言語特性に応じた分割手法の選択。
正規化 大文字小文字の統一・アクセント除去・文字種の標準化などを実施。
ストップワード除去 一般的で情報量の少ない単語(冠詞・前置詞など)の除去。
レンマ化/ステミング 単語を基本形に変換。形態素解析や語幹抽出を使用。
ノイズ除去 特殊文字・HTML/XMLタグ・不要な空白などの除去。

画像データの前処理

手法 説明
リサイズ 画像サイズの標準化。モデル入力に適したサイズに変換。
正規化 ピクセル値の標準化。一般的に0-1または-1-1の範囲に変換。
色空間変換 RGB・HSV・グレースケールなど目的に応じた色空間への変換。
ノイズ除去 メディアンフィルタやガウシアンフィルタによるノイズ低減。
データ拡張 回転・反転・スケーリングなどによる学習データの増強。

スケーリング手法

手法 説明
正規化(Normalization) データを特定の範囲(通常0-1)に収める変換。特徴間の尺度を統一し、比較可能にする。
標準化(Standardization) データを平均0、標準偏差1の分布に変換。外れ値の影響を受けやすいが、正規分布のデータに適している。
Standard Scaler 標準化を実装するスケーラー。平均0、標準偏差1に変換。正規分布に従うデータに適する。
Robust Scaler 中央値と四分位範囲を使用した頑健なスケーリング。外れ値の影響を受けにくい。
Min Max Scaler 正規化を実装するスケーラー。データを0-1等の指定範囲に変換。ニューラルネットワークの入力に適している。
Max Absolute Scaler 最大絶対値で正規化。スパースデータに適する。0中心の尺度を保持。

モデル選択

[このカテゴリで役立つAmazon SageMakerコンポーネント]
・Amazon SageMaker JumpStartは、事前学習済みモデルとソリューションを提供するMLハブとして機能し、ワンクリックでデプロイ可能です。

モデルタイプ

分類 説明
教師あり学習モデル 分類や回帰のための予測モデル。ラベル付きデータを使用。RandomForest・SVM・Neural Networksなど。
教師なし学習モデル クラスタリングやパターン発見のためのモデル。ラベルなしデータを使用。K-means・PCA・Auto-encodersなど。
半教師あり学習モデル 少量のラベル付きデータと大量のラベルなしデータを組み合わせて学習するモデル。疑似ラベリング・共訓練など。
生成モデル データの生成や分布の学習を行うモデル。GANs・VAE・Diffusion Modelsなど。
転移学習モデル 事前学習済みの知識を活用するモデル。BERT・GPT・ResNetなどの基盤モデルをベースに利用。

選択基準

基準 説明
データ特性 データ量・次元数・ノイズの有無・クラスバランス・スパース性などに基づくモデル選択。
計算リソース 利用可能なメモリ・CPU/GPU・トレーニング時間の制約に基づく選択。
予測性能 精度・再現率・F1スコアなどの目標性能指標に基づく選択。
推論速度 リアルタイム性要件、バッチ処理要件に基づく選択。
説明可能性 モデルの透明性、解釈可能性の要件に基づく選択。
スケーラビリティ データ量の増加やシステム拡張への対応可能性に基づく選択。
コスト 開発・トレーニング・運用にかかる総所有コストに基づく選択。

一般的なアルゴリズム

アルゴリズム 適用場面
線形回帰(Linear Regression) 単純な回帰問題、関係性の解釈が重要な場合。
ロジスティック回帰(Logistic Regression) 二値分類問題、確率予測が必要な場合。
ランダムフォレスト(Random Forest) 構造化データの分類・回帰、特徴量重要度の解析。
XGBoost/LightGBM 高性能な予測が必要な構造化データの問題。
ニューラルネットワーク(Neural Networks) 複雑なパターン認識、画像・音声処理。
BERT/Transformer テキスト処理、自然言語理解タスク。
CNN 画像認識、パターン検出。
RNN/LSTM 時系列データ分析、系列データ処理。
強化学習モデル(Reinforcement learning) 意思決定・ゲーム戦略・ロボット制御など。

アーキテクチャ考慮事項

要素 説明
モデルサイズ パラメータ数・メモリ要件・ストレージ要件の検討。
レイヤー構成 ニューラルネットワークの層数・ユニット数・活性化関数の選択。
アンサンブル手法 複数モデルの組み合わせ方法、投票や平均化の戦略。
量子化・圧縮 モデルの軽量化、エッジデプロイメントへの対応。
バッチサイズ トレーニングと推論時のメモリ使用量とスピードのバランス。
分散学習対応 複数GPUやマルチノードでの学習への対応可能性。

モデル選択戦略

戦略 説明
ベースライン構築 単純なモデルから開始し、段階的に複雑化する戦略。
AutoML 自動的なモデル選択と最適化を行うツールの活用。
アルゴリズム比較 複数のモデルを並行して評価し、最適なものを選択。
実験管理 モデル選択プロセスの追跡と文書化。
A/Bテスト 異なるモデルの実環境での性能比較。
段階的最適化 モデルの複雑さを段階的に増やしながら最適化を行う戦略。

モデルトレーニング

[このカテゴリで役立つAmazon SageMakerコンポーネント]
・Amazon SageMaker Debuggerは、トレーニングプロセスのデバッグと監視を行い、メトリクスの可視化とアラート設定が可能です。

モデル学習の基礎概念

概念 説明
帰納的バイアス モデルが持つ前提や仮定。学習アルゴリズムの性質を決定する。適切なバイアスが汎化性能を向上。
バイアス・バリアンストレードオフ モデルの複雑性と汎化性能のトレードオフ関係。過学習と過少学習のバランス。
交差エントロピー損失 分類問題でよく使用される損失関数。予測確率と真の分布の差異を測定。

トレーニング手法

手法 説明
教師あり学習 正解ラベル付きデータを使用して学習を行う手法。分類や回帰タスクに使用される。データの質と量が性能を左右する。
教師なし学習 ラベルなしデータからパターンを発見する手法。クラスタリングや異常検知に使用される。データの潜在構造を見出す。
半教師あり学習 少量のラベル付きデータと大量のラベルなしデータを組み合わせて学習を行う手法。ラベリングコストを抑えつつ高性能を実現。
強化学習 環境との相互作用を通じて、報酬を最大化する行動を学習する手法。試行錯誤を通じて最適な行動方策を獲得。
転移学習 あるタスクで学習したモデルの知識を別のタスクに応用する手法。事前学習済みモデルを活用し、学習効率を向上。
バッチ学習 全訓練データを一括で処理する学習方式。計算効率が良く安定した学習が可能。データ更新時は再学習が必要。
オンライン学習 データを逐次的に処理し、モデルを継続的に更新する学習方式。新しいパターンへの適応が速い。不安定になるリスクあり。
インクリメンタル学習 既存のモデルに新しいデータで追加学習を行う方式。完全な再学習を避けてモデルを更新可能。
事前学習 大規模なデータでモデルを一から学習させる基礎的な過程。一般的な知識やパターンを獲得。後続タスクの土台となる。
ファインチューニング 事前学習済みモデルを特定タスクに適応させる手法。少量のデータでも高性能を実現。転移学習の一種。
継続的な事前トレーニング 新しいデータでの定期的な再学習。ドメイン特化モデルの性能維持に有効。ドリフト対策として重要。
RLHF 人間のフィードバックによる強化学習。生成AIモデルの質と安全性を向上。アライメント問題への対処。
カスタム語彙学習 特定分野の専門用語をモデルに学習させる手法。ドメイン特化型モデルの構築に重要。専門性の向上に貢献。
メタ学習 学習アルゴリズム自体を学習する手法。新しいタスクに対して高い柔軟性と効率を実現。自動MLシステムの基礎。新しいタスクへの素早い適応を可能に。
Few-shot Learning 少数のサンプルからの学習を可能にする手法。メタ学習の一形態。
Zero-shot Learning 学習時に見たことのないクラスも推論可能な手法。転移学習の発展形。
自己教師あり学習 ラベルなしデータから教師信号を自動生成して学習する手法。事前学習に有効。
マルチタスク学習 複数のタスクを同時に学習する手法。タスク間の知識共有により効率的な学習が可能。
連合学習 データを分散したまま複数のクライアントで協調して学習を行う手法。プライバシー保護に有効。
知識蒸留 大きなモデルの知識を小さなモデルに転移する手法。モデルの軽量化に使用。

モデル最適化手法

手法 説明
ハイパーパラメータチューニング モデルの設定パラメータの最適化。グリッドサーチ・ランダムサーチ・ベイズ最適化などを使用。計算コストとパフォーマンスのバランスを考慮。
正則化 オーバーフィッティングを防ぐためのペナルティ項の追加。L1(Lasso)・L2(Ridge)正則化など。モデルの複雑さを制御。
早期停止 バリデーション性能の改善が見られなくなった時点で学習を終了し、過学習を防ぐ。計算リソースの効率的な利用にも貢献。
クロスバリデーション データを複数の部分に分割して評価を実施。モデルの汎化性能を正確に推定。データ量が限られる場合に特に有効。
アンサンブル学習 複数のモデルを組み合わせて性能を向上。Random Forest・Gradient Boostingなど。個々のモデルの弱点を補完。
勾配降下法 損失関数の勾配に基づいてパラメータを更新し、最適解を探索する手法。確率的勾配降下法(SGD)・ミニバッチ勾配降下法などのバリエーションがある。
学習率調整 勾配降下法における更新量を制御するパラメータの調整。AdaGrad・Adam・RMSpropなどの適応的な手法がある。
モメンタム 過去の勾配情報を利用して最適化を加速する手法。局所的な最適解の回避と収束の高速化に効果的。

オプティマイザー(最適化アルゴリズム)

用語 説明
SGD(確率的勾配降下法) ミニバッチ単位で勾配を計算し、パラメータを更新する基本的な最適化アルゴリズム。
Adam モメンタムと適応的学習率を組み合わせた人気の最適化アルゴリズム。多くのケースで良好な収束を示す。
RMSprop 過去の勾配を指数移動平均で考慮する適応的な最適化アルゴリズム。
AdaGrad パラメータごとに異なる学習率を適用する適応的な最適化アルゴリズム。

正則化手法

手法 説明
Dropout ニューロンをランダムに無効化することで過学習を防ぐ手法。
Batch Normalization ミニバッチ単位で入力を正規化し、学習を安定化・高速化する手法。
Layer Normalization レイヤー単位で正規化を行う手法。RNNやTransformerで有効。
Weight Decay 重みの大きさにペナルティを課す正則化手法。L2正則化とも呼ばれる。
Label Smoothing 教師ラベルを軟化させることでモデルの過信を防ぐ手法。

学習率スケジューリング

手法 説明
Step Decay 一定エポック数ごとに学習率を段階的に減少させる手法。
Exponential Decay 学習率を指数関数的に減衰させる手法。
Cosine Annealing 余弦関数に基づいて学習率を周期的に変化させる手法。
Warm-up 学習初期に学習率を徐々に増加させ、その後通常の学習率スケジューリングに移行する手法。

モデル評価

[このカテゴリで役立つAmazon SageMakerコンポーネント]
・Amazon SageMaker Clarifyは、モデル評価においてバイアスの検出と説明可能性(予測の解釈)を評価することができます。
・Amazon SageMaker Experimentsは、機械学習の実験を追跡・管理するツールを提供し、トレーニング実行・パラメータ・メトリクスなどの実験結果を自動的に記録し、比較分析を可能にします。

ベースライン評価

指標 説明
ルールベースベースライン 単純なルールに基づく予測モデルの性能。改善度の基準点として使用。
ランダムベースライン ランダムな予測を行った場合の性能。最低限の性能基準として使用。
業界標準ベースライン 業界で一般的に受け入れられている性能基準。競合比較の指標として使用。

分類タスク

指標 説明
精度(Accuracy) 全予測中の正解の割合。クラスが均衡している場合に有効。不均衡データでは注意が必要。画像分類や文書分類など、クラス間のデータ数が同程度の場合によく使用される。例:手書き文字認識、一般的な物体認識タスクなど。
適合率(Precision) 陽性予測中の真の陽性の割合。誤検知を最小化したい場合に重要。スパムフィルタなどで重視。誤検知のコストが高い場合に使用される。例:スパムメール検出・不正取引検知・品質管理検査など、誤って正常なものを異常と判定すると問題が大きい場合。
再現率(Recall) 実際の陽性中の正しい予測の割合。見逃しを最小化したい場合に重要。疾病診断などで重視。見逃しのコストが高い場合に使用される。例:がん検診・防犯システム・地震予知など、見逃しが重大な結果につながる可能性がある場合。
F1スコア 適合率と再現率の調和平均。バランスの取れた評価指標。単一の総合評価として使用。適合率と再現率の両方が重要な場合に使用される。例:情報検索システム・商品レコメンデーション・文書分類など、精度と網羅性の両方が求められる場合。
ROC曲線 分類閾値ごとの真陽性率vs偽陽性率をプロットしたグラフ。AUC(曲線下面積)で性能を評価。モデルの性能を包括的に評価したい場合や、最適な分類閾値を決定する必要がある場合に使用される。例:信用スコアリング・医療診断システム・リスク評価モデルなど、閾値の調整が重要な場合。

回帰タスク

指標 説明
MSE (Mean Squared Error) 平均二乗誤差。予測値と実測値の差の二乗の平均。誤差を二乗するため外れ値の影響を強く受ける。一般的な回帰問題で使用され、特に外れ値を重視したい場合や、大きな誤差をより厳しく評価したい場合に適している。
RMSE (Root Mean Squared Error) 平均二乗誤差の平方根。予測誤差の大きさを元の単位で評価。外れ値の影響を強く受ける。住宅価格予測や売上予測など、予測値の単位を元のスケールで解釈したい場合に適している。MSEを平方根することで、より直感的な解釈が可能。
MAE (Mean Absolute Error) 平均絶対誤差。外れ値の影響を受けにくい評価指標。予測値と実測値の絶対差の平均。需要予測や在庫管理など、外れ値の影響を抑えつつ、誤差の平均的な大きさを評価したい場合に適している。予測誤差を過大評価せず、直感的に理解しやすい。
MAPE (Mean Absolute Percentage Error) 平均絶対パーセント誤差。相対的な誤差を評価。異なるスケールのデータ間で比較可能。売上予測や株価予測など、実測値が0より大きい場合で、相対的な誤差の大きさを評価したい場合に適している。異なる規模の企業や商品間での予測精度の比較に有用。
R² (決定係数) モデルの当てはまりの良さを0から1の値で表す。1に近いほど予測精度が高い。負の値も取りうる。モデルの説明力を全体的に評価したい場合に使用。特に、重回帰分析などで変数選択の指標として用いられ、モデルの比較や選択に有用。
調整済みR² R²を修正した指標。説明変数の数による影響を補正し、より正確なモデルの評価が可能。変数選択やモデル比較において、特に説明変数の数が異なるモデル間の比較に適している。過剰適合を防ぐために使用される。
RMSLE (Root Mean Squared Logarithmic Error) 予測値と実測値の対数をとった後のRMSE。相対的な誤差を評価し、大きな値の影響を抑える。売上予測や人口予測など、データの値の範囲が広く、相対的な誤差を重視する場合に適している。特に、予測値が大きく異なるスケールを持つ場合に有用。
MSLE (Mean Squared Logarithmic Error) 予測値と実測値の対数をとった後のMSE。相対的な誤差を評価し、大きな値の影響を抑える。RMSLEと同様の用途で使用され、特に予測値が指数的に増加するような場合や、比率の予測において適している。
MedAE (Median Absolute Error) 絶対誤差の中央値。外れ値の影響を最も受けにくい評価指標。ノイズの多いデータセットや、外れ値が存在する場合の予測タスクで特に有用。センサーデータの分析や、異常値を含むような実測データの評価に適している。

テキスト生成

指標 説明
ROUGE 生成テキストと参照テキストの類似度を評価。n-gramの一致度を計算。要約タスクでよく使用。ニュース記事の要約や文書要約システムの性能評価時に特に有効。
人間評価 品質・一貫性・関連性などを主観的に評価。定性的な評価基準を設定し、複数の評価者で判断。自動評価指標では捉えきれない微妙なニュアンスや文脈の理解が必要な場合や、創造的なテキスト生成の評価時に使用。

生成AIモデルの評価指標

指標 説明
BLEU 機械翻訳の評価で使用される指標。生成文と参照文のn-gramの一致度を計算。多言語翻訳システムの品質評価や、異なる翻訳モデルの比較時に特に有効。
METEOR 翻訳や生成文の評価指標。同義語や語形の変化も考慮した柔軟な評価が可能。言語間の文法構造の違いが大きい場合や、表現の多様性を考慮する必要がある翻訳タスクで使用。
BERTScore BERTの文脈的な単語埋め込みを使用して文の意味的類似度を評価する指標。表層的な一致だけでなく意味的な類似性の評価が重要な場合や、パラフレージング評価時に使用。
Perplexity 言語モデルの予測性能を評価する指標。低いほど良いモデルとされる。言語モデルの学習過程の評価や、異なるアーキテクチャの言語モデルの比較時に使用。

説明可能性評価

手法 説明
LIME ローカルな説明可能性を提供する手法。個々の予測について解釈可能な説明を生成。医療診断や金融の信用評価など、個別の判断根拠の説明が重要な場合に使用。
SHAP ゲーム理論に基づく特徴量重要度の計算手法。予測への各特徴量の寄与度を評価。複雑なモデルの意思決定プロセスを理解する必要がある場合や、特徴量の重要度ranking時に使用。
Attention Visualization Transformerモデルの注意機構の可視化。モデルの判断根拠を視覚的に表現。自然言語処理タスクでモデルの注目箇所を確認する場合や、モデルの振る舞いの分析時に使用。
Feature Attribution 予測結果に対する各特徴量の貢献度を定量化する手法。モデルの判断プロセスを解析。モデルの公平性評価や、バイアスの検出が必要な場合に使用。

相関分析

手法 説明
ピアソン相関 線形関係の強さを-1から1の範囲で測定。連続変数間の関係性評価に使用。身長と体重の関係など、直線的な関係が予想される変数間の分析時に適用。
スピアマン相関 順序関係の強さを評価。非線形関係にも適用可能。順序変数に適している。顧客満足度と購買金額など、単調だが必ずしも線形でない関係の分析時に使用。
カイ二乗検定 カテゴリ変数間の関連性を統計的に検定。独立性の検証に使用。性別と商品選択の関連性など、カテゴリカルなデータ間の関係性分析時に適用。
ファイ係数 二値変数間の相関を測定。2×2分割表のデータに適用。合格/不合格と男性/女性の関連性など、二値データ間の関係性強度を測定する場合に使用。

モデルの課題と現象

用語 説明
オーバーフィッティング モデルが学習データに過度に適合し、新しいデータへの汎化性能が低下する状態。過学習とも呼ばれ、モデルの複雑さと訓練データ量のバランスが重要。
アンダーフィッティング モデルが学習データのパターンを十分に捉えられていない状態。モデルの表現力不足や学習不足が原因。より複雑なモデルや追加学習が必要。
バイアス モデルの予測値と真の値との間の系統的な誤差。モデルの表現力が不足している場合に高くなり、アンダーフィッティングの原因となる。
バリアンス モデルの予測のばらつき。学習データの微小な変化に対する予測値の変動の大きさ。高すぎる場合はオーバーフィッティングの原因となる。
ハルシネーション AIモデルが事実に基づかない誤った情報を生成すること。特に生成AIで問題となり、RAGなどの手法で軽減可能。
ドリフト 時間経過によるデータ分布やモデル性能の変化。コンセプトドリフト(目的変数の関係性の変化)とデータドリフト(入力分布の変化)がある。

データ不均衡への対処

手法 説明
オーバーサンプリング 少数クラスのデータを増やす手法。SMOTE等の合成データ生成も含む。クラスバランスを改善。データ全体の量が少なく情報を最大限活用したい場合や、計算リソースに余裕がある場合に有効。
アンダーサンプリング 多数クラスのデータを減らして均衡を図る手法。情報損失のリスクがあるが、計算効率が良い。データ量が十分にあり、計算時間やメモリの制約が厳しい場合に有効。
SMOTE 少数クラスの合成データを生成する手法。k近傍法を使用して新しいサンプルを生成。データの多様性を確保。単純な複製では過学習のリスクが高い場合や、少数クラスの特徴をより多様に学習させたい場合に有効。
クラス重み付け 学習時に少数クラスに重みを付けてバランスを調整。モデルの損失関数を修正してバランスを取る。元のデータ分布を維持したい場合や、データの改変を避けたい場合に有効。

バイアス・公平性評価

指標 説明
人口統計パリティ 異なる人口統計グループ間での予測結果の分布の均一性を評価。
等価機会 真陽性率が保護属性間で等しいことを確認する指標。
予測パリティ 異なるグループ間での予測精度の一致度を評価。
個別公平性 類似した特徴を持つ個体に対する予測の一貫性を評価。
バイアス増幅 モデルがデータの既存バイアスを増幅する程度を測定。

性能安定性評価

指標 説明
予測分散 モデル予測のばらつきを評価。安定性の指標として使用。
閾値安定性 分類閾値の変化に対する性能の頑健性を評価。
クロスバリデーション標準偏差 異なるデータ分割での性能のばらつきを評価。
ノイズ耐性 入力ノイズに対する予測の安定性を評価。
時間的安定性 時系列データにおける予測性能の一貫性を評価。

信頼性・堅牢性評価

指標 説明
敵対的攻撃耐性 モデルの敵対的サンプルに対する頑健性を評価。セキュリティ上の脆弱性を特定。
モデルの不確実性 予測の確信度と不確実性の定量化。ベイジアン手法やアンサンブル手法での評価。
ストレステスト 極端なケースや境界条件でのモデルの挙動評価。システムの限界を理解。
データ品質感度 入力データの品質低下に対するモデルの感度評価。ロバスト性の指標として使用。
フェイルセーフ性 モデルの異常動作時の安全性評価。フォールバック機構の有効性確認。

コスト効率性評価

指標 説明
計算コスト モデルの学習・推論に必要な計算リソースの評価。GPU時間・メモリ使用量など。
インフラコスト モデル運用に必要なインフラストラクチャコストの評価。ストレージ・ネットワーク等。
メンテナンスコスト モデルの保守・更新に必要な人的リソースと時間の評価。
ROI分析 モデル導入による投資対効果の評価。コスト削減や収益向上の定量化。

モデルデプロイ

[このカテゴリで役立つAmazon SageMakerコンポーネント]
・Amazon SageMaker Model Registryは、MLモデルのカタログ化とバージョン管理を行い、モデルのメタデータを管理します。

デプロイメント戦略

用語 説明
カナリアデプロイメント 新バージョンのモデルを一部のトラフィックにのみ適用し、段階的に展開する手法。リスクを最小化しながら新モデルの検証が可能。
ブルー/グリーンデプロイメント 本番環境(ブルー)と新環境(グリーン)を並行して用意し、切り替えを行うデプロイ手法。即時ロールバックが可能。
シャドウデプロイメント 本番トラフィックを新モデルにミラーリングして並行評価を行う手法。実際のワークロードでの性能検証が可能。
A/Bテスティング 複数バージョンのモデルを同時に運用し、性能を比較評価する手法。データドリブンな意思決定を可能に。
ローリングアップデート インスタンスを順次更新していく段階的なデプロイ手法。サービス中断を最小限に抑える。
ロールバック計画 問題発生時の復旧手順とトリガー条件の設定。データとモデルの整合性確保。

推論オプション

用語 説明
リアルタイム推論 リクエストに対してリアルタイムで推論を実行する方式。低レイテンシーが要求される用途に適している。Amazon SageMakerでは、永続的でフルマネージド型のエンドポイントとして提供され、最大6MBのペイロードサイズと60秒の処理時間に対応。持続的なトラフィックを処理可能なスケーラブルなソリューション。
バッチ推論 大量のデータに対して一括で推論を実行する方式。定期的な予測処理に適している。Amazon SageMakerでは、バッチ変換として提供され、数GB規模の大規模データセットの処理が可能。永続的なエンドポイントが不要なオフライン処理や前処理に最適。
非同期推論 大規模なペイロードや長時間の処理が必要な推論リクエストをキューイングして処理する方式。Amazon SageMakerでは、最大1GBのペイロードと1時間までの処理時間をサポート。トラフィックがない場合は0までスケールダウン可能。
サーバーレス推論 イベント駆動型の推論実行方式。需要に応じて自動でスケーリング。Amazon SageMakerでは、断続的または予測不可能なトラフィックに対して、インフラ管理不要で使用分のみ課金のモデルを提供。最大4MBのペイロードと60秒の処理時間に対応。

エンドポイントオプション

用語 説明
シングルモデルエンドポイント 単一のモデルをデプロイするための基本的なエンドポイント構成。シンプルで管理が容易。
マルチモデルエンドポイント 同一フレームワークの複数モデルを単一コンテナで提供するエンドポイント構成。Amazon SageMakerでは、エンドポイントの利用率を向上させ、デプロイのオーバーヘッドを削減することでコスト最適化を実現。
マルチコンテナエンドポイント 異なるフレームワークの複数モデルを個別コンテナで提供するエンドポイント構成。Amazon SageMakerでは、様々なフレームワークやモデルを柔軟にデプロイ可能。
シリアル推論パイプライン 前処理・推論・後処理を一連のパイプラインとして実行するエンドポイント構成。Amazon SageMakerでは、全てのコンテナが同一EC2インスタンスでホストされ、完全管理されることで低レイテンシーを実現。
スケーラブルエンドポイント 負荷に応じて自動的にスケーリングするエンドポイント構成。トラフィック変動に柔軟に対応。
高可用性エンドポイント 複数のアベイラビリティゾーンにデプロイされ、冗長性を確保したエンドポイント構成。

インフラストラクチャ

用語 説明
モデルコンテナ化 Dockerなどのコンテナ技術を用いたモデルのパッケージング。環境の一貫性と可搬性を確保。
スケーリング戦略 負荷に応じた自動スケーリングの設定。水平/垂直スケーリングの選択とポリシー設定。
サービスメッシュ マイクロサービスアーキテクチャでのトラフィック制御とサービス間通信の管理。
デプロイパイプライン デプロイメントの自動化と標準化。CI/CDパイプラインの構築と品質ゲートの設定。

最適化とセキュリティ

用語 説明
モデル最適化 デプロイ前のモデル最適化。量子化・プルーニング・蒸留などによる軽量化と高速化。
セキュリティ設定 アクセス制御・暗号化・認証認可の設定。セキュアなエンドポイントの構成。
APIバージョニング モデルAPIのバージョン管理とバージョン間の互換性確保。
監視設定 メトリクス収集・ログ記録・アラート設定の構成。パフォーマンスと品質の監視体制確立。

推論

プロンプティング手法

手法 説明
プロンプトエンジニアリング AIモデルへの入力(プロンプト)を工夫して望ましい出力を得る技術。文脈設定や制約条件の提示方法を最適化。
ゼロショットプロンプティング プロンプトエンジニアリングの手法の一つ。例示なしで直接タスクを実行させる。モデルの汎化能力を活用し、新規タスクに対応。
フューショットプロンプティング プロンプトエンジニアリングの手法の一つ。少数の例を示してタスクの実行方法を教える。具体例を通じてモデルの振る舞いを制御。
思考連鎖プロンプティング プロンプトエンジニアリングの手法の一つ。複雑な問題を段階的に解くようモデルを導く(Chain of Thought)。推論過程の明示的な展開を促す。

プロンプト最適化技術

技術 説明
プロンプトテンプレート 再利用可能な定型プロンプトの設計。一貫性のある出力を確保。
ハルシネーション対策 事実に基づかない生成を防ぐ技術。ナレッジベース参照やファクトチェックの組み込み。
コンテキスト管理 プロンプトの文脈情報の効果的な設定と制御。より正確な応答を導出。
プロンプトバリエーション 同じ意図の異なる表現方法の実験と最適化。ロバスト性の向上。

モニタリング

[このカテゴリで役立つAmazon SageMakerコンポーネント]
・Amazon SageMaker Model Monitorは、本番環境のモデル品質を継続的に監視し、データドリフトやバイアスを検出します。
・Amazon SageMaker Clarifyは、モデル品質モニタリングでも使用でき、モデルのバイアスと説明可能性を継続的に評価します。

モデル品質モニタリング

用語 説明
データドリフト検出 入力データの分布変化を監視。モデルの再学習タイミングを判断する指標として使用。
コンセプトドリフト検出 入力と出力の関係性の変化を監視。モデルの更新必要性を判断する指標として使用。
予測品質モニタリング モデルの予測結果の品質を継続的に評価。バイアスや公平性の監視を含む。
エクスプレイナビリティ監視 モデルの説明可能性に関する指標を監視。予測の透明性と信頼性を確保。
入力データ検証 入力データのスキーマ・型・範囲などの妥当性を継続的に検証。
データ完全性監視 欠損値・異常値・重複などのデータ品質指標を監視。
特徴量安定性監視 特徴量の統計的性質の変化を追跡。分布のシフトを検出。
データソース監視 データソースの可用性・鮮度・整合性を監視。

パフォーマンスモニタリング

用語 説明
レイテンシーモニタリング 推論処理時間を監視。SLAの遵守状況を確認し、パフォーマンスの最適化に活用。
スループットモニタリング 単位時間あたりの処理件数を監視。キャパシティプランニングに活用。
リソース使用率モニタリング CPU・メモリ・ディスク使用率などのインフラメトリクスを監視。スケーリングの判断に使用。
エラーレートモニタリング 推論エラーやシステムエラーの発生率を監視。サービス品質の維持管理に使用。

セキュリティモニタリング

用語 説明
アクセス監視 APIエンドポイントへのアクセスパターンと認証状況を監視。不正アクセスの検出。
データセキュリティ監視 データの暗号化状態・アクセス制御・プライバシー保護状況を監視。
コンプライアンス監視 規制要件への準拠状況を継続的に監視。監査証跡の維持。

運用モニタリング

用語 説明
アラート設定 重要メトリクスの閾値超過時に通知を行う仕組み。早期対応を可能に。
ログ分析 システムログやアプリケーションログの分析。障害原因の特定や傾向分析に活用。
インシデント追跡 障害や異常の発生履歴と対応状況の追跡。再発防止策の立案に活用。
キャパシティ管理 リソース使用状況の予測と計画。適切なスケーリング戦略の立案。

ビジネスインパクトモニタリング

用語 説明
ROI分析 モデル運用のコストと効果の継続的な評価。投資対効果の測定。
ビジネスメトリクス モデルの事業貢献度を示す指標の監視。売上・コスト削減等の効果測定。
ユーザー満足度 エンドユーザーからのフィードバックやサービス評価の追跡。

システム健全性モニタリング

用語 説明
インフラ可用性監視 システムコンポーネントの稼働状態とヘルスチェック。
ネットワーク監視 ネットワーク接続性・レイテンシー・帯域幅の監視。
キャッシュ効率監視 キャッシュヒット率・メモリ使用効率の追跡。
バッチ処理監視 バッチジョブの実行状況・成功率・処理時間の監視。

フェアネスモニタリング

用語 説明
バイアスメトリクス モデルの予測における人口統計学的バイアスの監視。公平性指標の追跡。
属性ベース監視 保護属性に基づく予測の偏りを監視。差別的な結果の検出。
公平性スコア 異なるグループ間での予測精度の均一性を評価。公平性の定量的測定。
インパクト分析 モデル予測が異なる集団に与える影響の分析。社会的影響の評価。

ガバナンスモニタリング

用語 説明
ポリシー準拠 組織のAIガバナンスポリシーへの準拠状況の監視。ガイドラインの遵守確認。
説明責任追跡 モデルの意思決定プロセスの透明性と説明可能性の監視。アカウンタビリティの確保。
倫理的リスク監視 AIの倫理的な影響と潜在的リスクの継続的評価。社会的責任の遂行。
規制対応追跡 新しい規制要件への適合状況の監視。コンプライアンスの維持管理。

MLOps管理プロセス

[このカテゴリで役立つAmazon SageMakerコンポーネント]
・Amazon SageMaker Studioは、ノートブック作成、モデル開発、トレーニング、デプロイまでをワンストップで実行可能な統合開発環境(IDE)を提供し、MLワークフローの一元管理を実現します。
・Amazon SageMaker Canvasは、コードを書かずにドラッグ&ドロップでデータの準備からモデルのデプロイまでを実行できるノーコードML開発環境を提供し、ビジネスアナリスト向けの開発を可能にします。
・Amazon SageMaker Pipelinesは、MLワークフローのオーケストレーションを行い、再現可能なMLパイプラインを構築します。

実験管理

[このカテゴリで役立つAmazon SageMakerコンポーネント]
・Amazon SageMaker Experimentsは、機械学習の実験を追跡・管理するツールを提供し、トレーニング実行・パラメータ・メトリクスなどの実験結果を自動的に記録し、比較分析を可能にします。

用語 説明
実験トラッキング モデル開発における各実験の設定・パラメータ・結果を記録・管理する活動。MLflow・SageMaker Experimentsなどのツールを使用。
メタデータ管理 実験に関連する設定・環境・データセット・結果などの付随情報の管理。実験の再現性と追跡可能性を確保。
ハイパーパラメータログ モデルのハイパーパラメータ設定の履歴管理。最適化プロセスの追跡と比較分析に使用。
評価メトリクス追跡 モデルの性能指標の時系列での記録と分析。改善傾向の把握と比較評価に活用。
アーティファクト管理 モデル・チェックポイント・プロットなどの成果物の保存と管理。実験結果の保管と共有を効率化。
A/Bテスト管理 複数モデルの比較実験の設計と結果管理。統計的有意性の評価と意思決定を支援。
実験環境管理 開発環境の構成・依存関係・リソース設定などの管理。再現性の確保と環境の一貫性を維持。

バージョン管理

[このカテゴリで役立つAmazon SageMakerコンポーネント]
・Amazon SageMaker Model Registryは、MLモデルのカタログ化とバージョン管理を行い、モデルのメタデータを管理します。

用語 説明
データバージョニング トレーニングデータセットの変更履歴管理。DVC(Data Version Control)などのツールを使用。データの系統(リネージ)追跡が可能。
モデルバージョニング 学習済みモデルの異なるバージョン管理。SageMaker Model Registryなどで実装。本番環境での切り替えとロールバックを制御。
コードバージョン管理 モデル開発コードのバージョン管理。Git等を使用。ブランチ戦略とマージポリシーの設定。
設定ファイル管理 環境設定・パラメータ設定などの構成ファイルの版管理。環境間の一貫性を確保。
依存関係管理 ライブラリやフレームワークのバージョン管理。requirements.txtやDockerfileで明確化。
タグ付け モデル・データ・コードのバージョンに意味のあるタグを付与。リリース管理と追跡を容易に。
ベースライン管理 性能比較の基準となるモデルバージョンの管理。品質保証の指標として活用。

ドキュメンテーション

[このカテゴリで役立つAmazon SageMakerコンポーネント]
・Amazon SageMaker Model Cardsは、モデルのドキュメント作成・管理を行い、モデルの詳細情報を一元管理します。

用語 説明
モデルカード モデルの詳細情報を記録した標準化された文書。用途・性能・制限事項・倫理的考慮事項などを含む。SageMaker Model Cardsで管理可能。
データシート データセットの特性・収集方法・前処理手順・ライセンス情報などを記録した文書。データの透明性と再利用性を確保。
API仕様書 モデルのインターフェース仕様・入出力形式・エンドポイント情報などを記述。OpenAPI/Swaggerなどの標準形式で管理。
実験報告書 実験の目的・方法・結果・考察をまとめた文書。重要な発見や決定事項を記録。
運用手順書 モデルの展開・監視・メンテナンス手順を記述したマニュアル。インシデント対応手順も含む。
トレーニング記録 モデル学習の詳細記録。データ準備・パラメータ設定・学習プロセス・結果の要約を含む。
変更履歴 モデル・データ・コードの重要な変更点を記録。更新理由と影響範囲を文書化。
リスク評価文書 モデルの潜在的リスク・バイアス・倫理的考慮事項を評価した文書。法規制対応の証跡としても活用。
品質保証文書 テスト結果・性能評価・バリデーション手順を記録。品質基準への適合性を証明。
コンプライアンス文書 規制要件への適合性を示す文書。GDPRやAIガバナンスなどへの対応を記録。
アーキテクチャ図 システム構成・データフロー・コンポーネント間の関係を視覚化した図表。
トラブルシューティングガイド 一般的な問題とその解決手順を記載したガイド。運用効率の向上に貢献。
モデル系統図 モデルの発展過程・派生関係・重要な変更点を可視化した図表。バージョン間の関係を明確化。
性能ベンチマーク 異なるモデルバージョン間の性能比較結果。改善の証跡として活用。
デプロイメント計画書 モデルの展開戦略・スケジュール・リスク対策を記述した計画書。

オーケストレーション管理

用語 説明
パイプライン管理 MLワークフローの自動化と制御。データ処理から推論までの一連の流れを管理。
ワークフロー定義 MLプロセスの各ステップとその依存関係の定義。DAGベースの制御フロー設計。
自動化トリガー パイプライン実行の条件やスケジュールの設定。イベントドリブンな処理の制御。
エラーハンドリング 異常検出と回復メカニズムの実装。フォールバック戦略の定義。

品質管理

用語 説明
品質ゲート デプロイ前の品質チェックポイント。性能・セキュリティ・コンプライアンスの検証。
テスト自動化 ユニットテスト・統合テスト・性能テストの自動実行体制。継続的な品質保証。
品質メトリクス モデルとシステムの品質指標の定義と監視。SLO/SLAの遵守状況の追跡。

インフラストラクチャ管理

用語 説明
リソース最適化 計算リソースとストレージの効率的な割り当てと管理。コスト最適化。
スケーリング管理 自動スケーリングポリシーの設定と監視。需要に応じた柔軟なリソース調整。
可用性管理 システムの冗長性と耐障害性の確保。バックアップと災害復旧計画の管理。

セキュリティ管理

[このカテゴリで役立つAmazon SageMakerコンポーネント]
・Amazon SageMaker Role Managerは、ML活動のアクセス許可を管理し、最小権限の原則に基づくセキュリティを実現して、適切なアクセス制御を提供します。

用語 説明
アクセス制御 ロールベースのアクセス管理。最小権限の原則に基づく権限設定。
データ保護 機密データの暗号化と匿名化。プライバシー保護メカニズムの実装。
脆弱性管理 セキュリティ脆弱性の検出と対策。定期的なセキュリティ評価の実施。

ガバナンス管理

用語 説明
ポリシー管理 AIガバナンスポリシーの策定と遵守管理。倫理的ガイドラインの設定。
監査対応 監査証跡の維持と監査対応プロセスの管理。コンプライアンス証跡の整備。
リスク管理 AI利用に関するリスクの特定・評価・軽減策の実装。継続的なリスク監視。


<参考資料>
AI and Machine Learning Glossary for AWS - Knowledge Gained While Studying for AWS Certified AI Practitioner and AWS Certified Machine Learning Engineer - Associate
Tech Blog with related articles referenced

まとめ

今回は新しく追加されたAWS認定であるAWS Certified AI PractitionerとAWS Certified Machine Learning Engineer - Associateに私が合格するまでの学習過程で得られたナレッジと、日本の「技術書典17」向けに個人出版として共著した「AWSの薄い本の合本Vol.01」における「クイズで学ぶAWSの機能と歴史:厳選『機械学習』編」を執筆した際に得られたナレッジを「AWSに関するAI・機械学習用語集」としてまとめてみました。

これからもAWSの学習や活用方法について役に立ちそうなアイデアを形にしていきたいと思います。
また、今後はAWSに関するAI・機械学習分野の変化に合わせて、随時この記事を更新していきたいと思います。

Written by Hidekazu Konishi
Hidekazu Konishi (小西秀和), a Japan AWS Top Engineer and a Japan AWS All Certifications Engineer

執筆者小西秀和

Japan AWS Top Engineer, Japan AWS All Certifications Engineer(AWS認定全冠)として、知識と実践的な経験を活かし、AWSの活用に取り組んでいます。
NRIネットコムBlog: 小西 秀和: 記事一覧
Amazon.co.jp: 小西 秀和: books, biography, latest update
Personal Tech Blog