Webエンジニア向けプログラミング解説動画をYouTubeで配信中!
▶ チャンネル登録はこちら

【ITニュース解説】AWS Certified AI Practitioner (AIF-C01) Study Guide

2025年09月19日に「Dev.to」が公開したITニュース「AWS Certified AI Practitioner (AIF-C01) Study Guide」について初心者にもわかりやすく解説しています。

作成日: 更新日:

ITニュース概要

AWS AI Practitioner試験の学習ガイドで、AI・MLや生成AIの基本、Foundation Model活用、責任あるAI、セキュリティ・コンプライアンスを解説する。AWSでAIシステム構築を目指す初心者が、合格に必要な知識と実践スキルを習得する指針だ。

ITニュース解説

AWS Certified AI Practitioner (AIF-C01) は、アマゾン ウェブ サービス (AWS) における人工知能 (AI) と機械学習 (ML) の基本的な知識、および生成AIの応用能力を証明する資格である。システムエンジニアを目指す初心者にとって、この資格はAI/ML分野の導入として非常に有効で、AWSクラウド上でAIソリューションを扱うための基礎を築く手助けとなる。

この試験を受けるにあたっては、いくつかのAWSサービスの基本的な知識が推奨される。具体的には、仮想サーバーを提供するAmazon EC2、ストレージサービスのAmazon S3、サーバーレスコンピューティングのAWS Lambda、そして機械学習プラットフォームであるAmazon SageMakerといった主要サービスの理解が求められる。また、クラウド利用におけるAWSとユーザー間の責任範囲を定めたAWS共有責任モデル、セキュリティのためにアクセス権限を管理するAWS Identity and Access Management (IAM) の概念、そしてAWSのグローバルインフラ(リージョンやアベイラビリティゾーンなど)、さらにはAWSサービスの料金モデルについても基本的な知識があると良いだろう。

試験の詳細は、コードがAIF-C01であり、試験時間は90分、費用は100米ドルである。全65問が出題されるが、そのうち50問が採点対象であり、残りの15問は将来の試験評価のために含まれる採点されない問題である。採点は100点から1000点までのスケールで行われ、合格ラインは700点である。結果は合格か不合格で示される。問題形式は多岐にわたる。一つの正解を選ぶ多肢選択問題、複数の正解を選ぶ複数応答問題、複数の選択肢を正しい順序に並べ替える並べ替え問題、リストにある項目と回答を関連付けるマッチング問題、そして特定のシナリオに基づいて複数の関連する質問に答えるケーススタディ問題などが出題される。

試験内容は大きく5つのドメインに分かれている。

まず、ドメイン1: AIとMLの基礎は試験全体の20%を占める。ここでは、AIが人間の知能を模倣するシステムを作る分野であること、MLがデータから学習して性能を向上させるAIの一分野であること、深層学習が多層のニューラルネットワークを用いるMLの一種であること、そして新しいデータ(テキスト、画像など)を生成する生成AIや、大量のテキストデータで訓練された大規模言語モデル(LLM)といった基本的なAIの概念と用語を理解する必要がある。推論には、大量データを一度に処理するバッチ推論と、即座の応答が求められるリアルタイム推論がある。データはラベル付きかラベルなしか、表形式の構造化データか、JSONやXMLのようなメタデータを持つ半構造化データか、テキストや画像のような定義されたモデルを持たない非構造化データかによって分類される。MLの学習パラダイムとしては、ラベル付きデータでモデルを訓練する教師あり学習(分類、回帰)、ラベルなしデータからパターンを見つける教師なし学習(クラスタリング、次元削減)、試行錯誤を通じてエージェントが学習する強化学習がある。AI/MLの具体的な活用場面としては、人間の意思決定支援、ソリューションのスケーリング、反復作業の自動化などが挙げられる一方、費用対効果が悪い場合や決定論的な解決策が必要な場合、厳格な説明可能性が求められる規制分野ではAI/MLの利用が適切でないこともある。AWSマネージドAI/MLサービスには、MLモデルの構築・訓練・デプロイを総合的にサポートするAmazon SageMaker、音声認識のAmazon Transcribe、機械翻訳のAmazon Translate、テキスト分析のAmazon Comprehend、チャットボット開発のAmazon Lex、テキスト音声合成のAmazon Pollyなどがある。ML開発ライフサイクルは、データ収集から始まり、探索的データ分析、データ前処理、特徴量エンジニアリング、モデル訓練、ハイパーパラメータチューニング、モデル評価、デプロイ、そして監視という一連のプロセスからなる。AWSでは、データ準備にSageMaker Data WranglerやFeature Store、構築と訓練にSageMaker NotebooksやModel Training、デプロイと監視にSageMaker PipelinesやModel Monitorなどのサービスが提供されている。

次に、ドメイン2: 生成AIの基礎は試験全体の24%を占める。ここでは、モデルが処理する最小単位であるトークン、意味を数値で表現する埋め込み、モデルを意図通りに動かすための入力設計であるプロンプトエンジニアリング、そして大規模なデータセットで事前に訓練された基盤モデル、複数のデータタイプを処理できるマルチモーダルモデル、ノイズの追加プロセスを逆転させてリアルなデータを生成する拡散モデルといった生成AIの基本的な概念を学ぶ。生成AIのユースケースとしては、画像・動画・音声生成、テキスト要約、チャットボット、翻訳、コード生成、検索・レコメンデーションエンジンなどが挙げられる。生成AIの利点には、多様なタスクへの適応性、リアルタイム応答能力、コンテンツ生成自動化の簡便さがあるが、課題も存在する。例えば、もっともらしいが間違った情報を生成するハルシネーション、モデルの内部動作が理解しにくい「ブラックボックス」性、情報の不正確さや非決定性、攻撃的なコンテンツを生成する可能性(毒性)などがある。AWSの生成AIインフラとテクノロジーとしては、APIを通じて基盤モデルにアクセスできるAmazon Bedrock、事前訓練済みモデルが豊富なMLハブであるAmazon SageMaker JumpStart、ビジネス向けの生成AIアシスタントAmazon Q、そしてAmazon Bedrockの試用環境であるPartyRockなどが提供されている。

ドメイン3: 基盤モデルの応用は試験全体の28%と最も比重が高い。ここでは、基盤モデルアプリケーションの設計において、コスト、対応するデータタイプ(モダリティ)、応答速度(レイテンシー)、モデルのサイズや複雑さ、入出力の長さといった要素を考慮する必要がある。推論パラメータの一つである「温度」は、モデルの応答のランダム性を制御し、高いほど創造的、低いほど決定論的な出力を生む。RAG(Retrieval-Augmented Generation)は、外部の知識ベースを参照することでLLMの出力を最適化する手法であり、情報検索とテキスト生成を組み合わせる。Knowledge Bases for Amazon BedrockはRAGの実装である。埋め込みを格納し、類似性検索を高速に行うベクトルデータベース(Amazon OpenSearch Service, Amazon Aurora, Amazon Neptune, Amazon DocumentDB, Amazon RDS for PostgreSQLなど)も重要である。基盤モデルのカスタマイズ方法には、非常に高コストでゼロから始める事前学習、事前訓練済みモデルを適応させるファインチューニング(比較的安価)、プロンプト内で例を示すことでモデルを誘導するIn-context learning(費用対効果が高い)、そして知識を更新しつつモデルを再訓練しないRAGといった選択肢がある。効果的なプロンプトエンジニアリング技術としては、事前の例なしに指示するゼロショット、一つまたはいくつかの例を示すワンショット/フューショット、段階的に思考を促すChain-of-thoughtなどがある。プロンプトには、悪意のあるプロンプトでモデルを操作するプロンプトインジェクション、セキュリティフィルターを迂回するジェイルブレイク、悪意のあるデータで性能を低下させるポイズニングといったリスクも伴う。ファインチューニングの方法には、命令と応答のペアでモデルを訓練する命令チューニング、特定の分野のデータでモデルを適応させるドメイン固有適応、そして人間からのフィードバックに基づいてモデルを調整するRLHF(Reinforcement Learning from Human Feedback)がある。基盤モデルの性能評価には、コストはかかるが信頼性の高い人間による評価や、GLUEやSuperGLUEのようなベンチマークデータセットが用いられる。評価指標としては、テキスト要約にROUGE、機械翻訳にBLEU、BERT埋め込みを用いた意味的類似性評価にBERTScoreなどがある。

ドメイン4: 責任あるAIのガイドラインは試験全体の14%を占める。ここでは、公平性、包括性、堅牢性、セキュリティ、真実性、透明性、ガバナンスといった責任あるAIシステム開発の特性を理解する必要がある。AIにおけるバイアスや公平性の問題には、アルゴリズムバイアス、データバイアス、サンプリングバイアス、偏見バイアスなどがあり、これらは不公平な結果や過学習・未学習といった影響をもたらす可能性がある。AWSでは、バイアス検出と予測の説明を行うAmazon SageMaker Clarify、本番環境のモデルを監視するAmazon SageMaker Model Monitor、人間によるレビューを統合するAmazon Augmented AI (A2I)、生成AIのセキュリティポリシーを定義するGuardrails for Amazon Bedrockといったツールが提供されている。透明性と説明可能性は重要で、決定木のような「透明なモデル」は解釈が容易だが、深層ニューラルネットワークのような「ブラックボックス」モデルは理解が難しい。Amazon SageMaker Model Cardsはモデル情報を文書化し、AWS AI Service Cardsは責任あるAI利用に関する情報を提供する。

最後に、ドメイン5: AIソリューションのセキュリティ、コンプライアンス、ガバナンスも試験全体の14%を占める。AIシステムのセキュリティ確保には、最小権限の原則に基づくアクセス管理を行うAWS IAM、AWS KMSによる保管中および転送中のデータ暗号化、機密データ(PII)の発見と保護を行うAmazon Macie、VPC間のプライベート接続を確立するAWS PrivateLinkが利用される。AWSの共有責任モデルに基づき、AWSは「クラウドのセキュリティ」を、顧客は「クラウド内のセキュリティ」をそれぞれ担当する。データの引用と来歴も重要で、データリネージによってデータの起源と変換を追跡し、AWS Glue Data Catalogによってメタデータを整理・カタログ化できる。AIシステムのガバナンスとコンプライアンス規制としては、情報セキュリティに関するISO/IEC 27001やAI管理に関するISO/IEC 42001などのISO規格、サービス組織の統制に関するSOCなどが存在する。AWSコンプライアンスサービスには、コンプライアンスレポートにアクセスできるAWS Artifact、構成を評価・監視するAWS Config、継続的な監査を支援するAWS Audit Manager、アカウントアクティビティやAPIコールをログに記録するAWS CloudTrail、最適化の推奨事項を提供するAWS Trusted Advisorがある。ガバナンス戦略としては、データライフサイクルポリシー、ロギング、データレジデンシー、監視、データ保持などが含まれる。

この試験に合格するためには、各AWSサービスの実際のユースケースを理解し、異なる機械学習のタイプとその違いを把握することが重要である。また、評価指標とその適切な使用場面、AIにおける倫理的側面や責任あるAIの概念、AWSのセキュリティおよびコンプライアンス機能、プロンプトエンジニアリングの技術とRAGの仕組み、そして料金モデルやモデル選択の要因についても習熟することが求められる。

関連コンテンツ

関連IT用語

【ITニュース解説】AWS Certified AI Practitioner (AIF-C01) Study Guide | いっしー@Webエンジニア