【ITニュース解説】Meta will let outside developers create AI-powered apps for its smart glasses
2025年09月19日に「Engadget」が公開したITニュース「Meta will let outside developers create AI-powered apps for its smart glasses」について初心者にもわかりやすく解説しています。
ITニュース概要
Metaはスマートグラス向けに、外部開発者がAI活用アプリを開発できるツールを提供開始した。これにより、グラスのセンサーやAI機能を活用した多様な新体験が可能となる。TwitchやDisneyなどが既に開発を進めており、スマートグラスの活用の幅が大きく広がるだろう。
ITニュース解説
Metaは、私たちが日常的に身につける「スマートグラス」というデバイスに対して、画期的な変化をもたらそうとしている。これまで、スマートグラスで利用できるアプリは、Meta自身が提供するものや、ごく一部の協力企業によるものに限られていた。しかし、今回Metaは大きな方針転換を発表した。それは、世界中の「外部の」開発者たちが、Metaのスマートグラス向けに、AI(人工知能)を活用した新しいアプリケーションを自由に開発できるようになる、というものだ。
この発表は、システムエンジニアを目指す皆さんにとって、非常に重要な意味を持つ。なぜなら、これは単に新しいガジェットの話ではなく、未来のアプリケーション開発の可能性が大きく広がったことを示しているからだ。Metaが対象としているのは、おしゃれなデザインで人気の「Ray-Ban Metaスマートグラス」や「Oakleyスマートグラス」といった、一見すると普通のメガネのように見えるデバイスだ。これらのスマートグラスには、カメラやマイク、スピーカー、そして様々なセンサーが内蔵されており、私たちの周りの世界を認識したり、私たちとコミュニケーションを取ったりする能力を持っている。
これまでは、これらの内蔵された高度な機能は、Metaが設計した特定の目的のためにのみ使われていた。しかし、今後は「Wearables Device Access Toolkit」と呼ばれる新しい開発ツールを通じて、外部の開発者がスマートグラスの持つ潜在能力を最大限に引き出し、独自のアプリケーションを作り出すことが可能になる。特に注目すべきは、Metaが提供する「マルチモーダルAI」という高度なAI機能を、開発者が自分のアプリに組み込めるようになる点だ。
マルチモーダルAIとは、文字通り「複数の形式(モード)」の情報を同時に理解し、処理できるAIのことだ。例えば、スマートグラスのカメラを通して見た映像情報(視覚)と、マイクを通して聞いた音声情報(聴覚)を組み合わせて分析し、状況をより深く理解することができる。これにより、開発者は、単なる情報表示にとどまらない、よりインタラクティブで、私たちの現実世界と密接に連携したアプリを開発できるようになるのだ。
具体的なアプリの例を見てみよう。すでにMetaは、いくつかの初期パートナーと協力して、様々な実験を進めている。例えば、ライブ配信サービスの「Twitch」は、スマートグラスを使って手軽にライブストリーミングができる機能を開発している。これは、特別な機材を用意しなくても、スマートグラスをかけたまま、目で見ているものや聞こえている音声を、リアルタイムで世界に配信できることを意味する。
また、誰もが知る「Disney」は、自社のテーマパーク内で利用できる新しいアプリを実験している。デモ映像では、来園者がディズニーランドを歩きながら、スマートグラスの内蔵AIアシスタントに、目の前にあるアトラクションについて質問したり、パーク内の情報を尋ねたりする様子が描かれている。AIアシスタントは、見たものを認識し、それに応じた適切な情報を提供してくれる。まるで、自分だけのガイドが常に隣にいてくれるような体験だ。
さらに、ゴルフアプリの「18Birdies」は、スマートグラスと連携することで、ゴルフプレイヤーにクラブの選択をアドバイスしたり、打つべき飛距離の統計情報を提供したりする機能に取り組んでいる。これは、プレイヤーがプレー中にわざわざスマートフォンを取り出さなくても、目の前の情報から状況を判断し、適切なサポートを受けられるようになることを示している。
これらの事例からわかるように、外部開発者がスマートグラスの持つセンサーやAIを活用できるようになることで、私たちの日常生活の様々な場面で、これまでにない便利な体験が生まれる可能性を秘めている。通勤中に電車の遅延情報を教えてくれたり、初めて訪れる場所で道案内をしてくれたり、料理中にレシピを読み上げてくれたり、あるいは目の前の植物の名前を教えてくれたり、といったように、アイデア次第で無限のアプリケーションが考えられる。
特に重要な点は、今回発表されたアプリの多くが、ディスプレイを持たないMeta Ray-Banグラス、つまり従来のモデルでも利用できるようになる見込みだという点だ。もちろん、最新のディスプレイ付きフレームが、さらに多くの可能性を秘めていることは間違いないが、ディスプレイがなくても、スマートグラスの内蔵AIとセンサーを活用することで、私たちの体験を大きく変えることができるのだ。これは、多くのユーザーが既存のデバイスで新しい機能を楽しめることを意味し、開発者にとってはより広いユーザー層にリーチできるチャンスとなる。
Metaが開発者向けに提供する「Wearables Device Access Toolkit」は、まずは限られた開発者向けのプレビュー版として展開されるが、2026年にはより多くの開発者が利用できるよう、本格的な展開が予定されている。この取り組みは、単にスマートグラスの機能を増やすだけでなく、「ウェアラブルデバイス」という新しいコンピューティングプラットフォームの可能性を切り開くものだ。スマートフォンが私たちの生活に革命をもたらしたように、スマートグラスもまた、私たちの情報の受け取り方や、世界との関わり方を根本から変える可能性を秘めている。
システムエンジニアを目指す皆さんにとって、このような新しいプラットフォームが誕生する時期は、大きなチャンスだ。スマートグラスのようなウェアラブルデバイス向けのアプリケーション開発は、これからまさに開拓されていく分野であり、独自のアイデアや技術を持つ開発者が活躍できる余地が非常に大きい。ユーザーのニーズを深く理解し、革新的なAI技術をどのように組み合わせて、人々の生活をより豊かにするアプリを作り出すか。その挑戦に、ぜひ注目し、参加してほしい。これは、技術が現実世界とより密接に融合し、私たちの体験を拡張する、エキサイティングな未来への第一歩なのだ。