MPEG(エムペグ)とは | 意味や読み方など丁寧でわかりやすい用語解説
MPEG(エムペグ)の意味や読み方など、初心者にもわかりやすいように丁寧に解説しています。
読み方
日本語表記
エムペグ (エムペグ)
英語表記
MPEG (エムペグ)
用語解説
MPEGとは、"Motion Picture Experts Group" の略称であり、動画や音声のデジタル符号化技術を標準化するために国際標準化機構 (ISO) と国際電気標準会議 (IEC) が共同で設立した専門家グループの名前である。しかし、一般的にはこのグループが策定した動画および音声の圧縮・伸長(デコード)方式の「規格」そのものを指す場合が多い。デジタル化された動画や音声は、そのままでは膨大なデータ量となり、記録媒体の容量をすぐに消費したり、ネットワークを通じて送信する際に多くの時間や帯域を必要としたりする。MPEG規格は、このような課題を解決するため、高品質な動画や音声を効率良く圧縮し、少ないデータ量で扱うための技術仕様を定義している。これにより、デジタルテレビ放送、DVDやBlu-rayディスク、インターネット上のストリーミング配信、さらにはスマートフォンでの動画撮影・再生など、現代の多様なデジタルメディア環境が実現可能となった。
MPEG規格の基本的な考え方は、動画や音声データに含まれる「冗長性」をいかに排除して圧縮するかという点にある。動画データにおいては、フレーム内の画素間の類似性(空間的冗長性)と、時間的に連続するフレーム間での内容の変化が少ないこと(時間的冗長性)を利用する。空間的冗長性の排除には、画像を小さなブロックに分割し、それぞれのブロックに対して離散コサイン変換(DCT)と呼ばれる数学的な処理を適用して、人間が知覚しにくい高周波成分を削減する方法が用いられる。これは静止画圧縮のJPEG規格でも使われる基本的な技術である。時間的冗長性の排除には、前後のフレームとの差分情報だけを記録する「動き補償」という技術が核となる。MPEGでは、動画の各フレームを、他のフレームから独立して符号化される「Iフレーム(Intra-coded picture)」、過去のフレームを参照して符号化される「Pフレーム(Predictive-coded picture)」、過去と未来の両方のフレームを参照して符号化される「Bフレーム(Bidirectionally predictive-coded picture)」の3種類に分類し、これらのフレームを組み合わせて効率的な圧縮を実現する。Iフレームは高い画質を持つがデータ量も最も大きく、PフレームはIフレームよりデータ量が少なく、Bフレームは最も高い圧縮率を持つが、デコードには前後両方の情報が必要となるため処理負荷もやや高くなる。音声データについても、人間の聴覚特性を利用した心理音響モデルに基づき、聞こえにくい音成分を削減するなどの手法で圧縮を行う。
MPEGは策定された時代や用途に応じて様々なバージョンが存在する。最も初期の主要な規格の一つであるMPEG-1は、VHSビデオ相当の画質とCD品質の音声を目的として策定された。主にVideo CD (VCD) や、音声部分を独立させたMP3 (MPEG-1 Audio Layer-3) などの基盤として広く普及した。MP3は、インターネット黎明期における音楽配信フォーマットとして、デジタル音楽の普及に大きな役割を果たした。
次に登場したMPEG-2は、MPEG-1よりも高画質・高音質を目指し、主にデジタルテレビ放送(地上波、BS、CSデジタル放送)やDVDの標準エンコード方式として採用された。MPEG-2はインターレース方式の映像や高解像度映像にも対応し、可変ビットレート (VBR) を利用することで、シーンに応じてデータ量を柔軟に調整し、画質とファイルサイズのバランスを取ることができるようになった。
MPEG-4は、MPEG-2よりもさらに低ビットレート環境での高効率な圧縮と、インターネット、モバイルデバイスでの利用を強く意識して策定された。MPEG-4は単一の規格ではなく、複数のパートから構成される包括的なフレームワークであり、その中でも動画符号化方式の「MPEG-4 Part 10」はH.264またはAVC (Advanced Video Coding) としても知られ、非常に高い圧縮効率を実現する。H.264/AVCは、YouTubeなどのウェブ動画配信、Blu-rayディスク、ISDB-T(日本の地上デジタル放送方式)、さらには多くのスマートフォンの標準的な動画フォーマットとして、現代のデジタルコンテンツ流通の中核を担っている。また、音声符号化方式としてMPEG-4 AAC (Advanced Audio Coding) も普及し、MP3の後継として、より高音質で高圧縮な音声フォーマットとして利用されている。MPEG-4には、動画や音声を単なるピクセルの集合としてではなく、個別のオブジェクトとして扱うことで、より柔軟な表現やインタラクティブなコンテンツ作成を可能にする「オブジェクトベース符号化」の概念も導入されている。
MPEG規格は、動画や音声の圧縮符号化だけでなく、マルチメディアコンテンツの記述や管理に関する規格も策定している。例えば、MPEG-7はマルチメディアコンテンツのメタデータ(コンテンツの内容、作成者、権利情報などを記述するデータ)を標準化し、大量のコンテンツの中から目的のものを効率良く検索・識別できるようにするための技術である。また、MPEG-21は、マルチメディアコンテンツの生成から配信、消費、権利管理まで、一連のデジタルコンテンツ流通全体をカバーするフレームワークを定義している。
近年では、4Kや8Kといった超高精細映像や、仮想現実 (VR)・拡張現実 (AR) など、新たな視覚体験を実現するための技術要求に応えるべく、MPEG-Hなどの新しい規格群も登場している。MPEG-Hに含まれるHEVC (High Efficiency Video Coding)、通称H.265は、H.264/AVCの約2倍の圧縮効率を実現し、これらの次世代映像技術の実現に貢献している。
MPEG規格は、デジタル動画と音声の技術進化において不可欠な役割を果たし続けている。その技術は、デジタルデバイスでの映像記録、テレビ放送、インターネットストリーミング、そして映画制作など、あらゆる場面で利用されており、私たちのデジタルライフを支える基盤技術の一つであると言える。これらの規格を理解することは、システムエンジニアとしてデジタルメディアを取り扱う上で、非常に重要な基礎知識となるだろう。