Google AI エッジ
モバイル、ウェブ、組み込みアプリケーション向けのオンデバイス AI
モデルからパイプラインまでのオンデバイス ソリューション
ML のデプロイを加速し、パイプラインを最適化して、強力な LLM に簡単にアクセスできます
上位レベルのコンポーネントと下位レベルのコンポーネントの両方を備えたエンドツーエンドのスタック
![](https://cdn.statically.io/img/ai.google.dev/static/images/ai-edge-stack.png?hl=ja)
I/O の最新情報
MediaPipe で一般的な課題を解決
TensorFlow Lite
モバイル、ウェブ、マイクロコントローラにモデルをデプロイするための軽量のマルチフレームワーク ライブラリ。
生成 AI、デバイス上で実行
MediaPipe LLM 推論 API
LLM を完全にデバイス上で実行し、テキストの生成、自然言語形式での情報の取得、ドキュメントの要約などの幅広いタスクを実行できます。この API は、複数のテキストからテキストへの大規模言語モデルの組み込みサポートを提供するため、最新のオンデバイス生成 AI モデルをアプリとプロダクトに適用できます。詳細
Torch Generative API
PyTorch で高性能 LLM を作成し、TensorFlow Lite(TFLite)ランタイムを使用してデバイス上で実行できるように変換します。詳細
Gemini Nano
Android AICore により、デバイス上のタスクで最も効率的な Gemini モデルにアクセスできます。Chrome で近日提供予定です。
エッジデバイスに ML をデプロイする理由
レイテンシ
サーバーのラウンド トリップをスキップして、簡単で高速なリアルタイムのメディア処理を実現します。
プライバシー
機密データがデバイスから送信されることな��、��ーカルで推論を実行します。
費用
オンデバイスのコンピューティング リソースを使用して、サーバー費用を節約します。
オフラインでの利用
ネットワークに接続していなくても問題ありません。