Googleは、すべての企業がAIにアクセスできるようにするための新たな取り組みを発表し、これまでで最速のモデルであるGemini 1.5 Flashを強調しました。このモデルは、大量かつ高頻度のタスクを大規模に処理できるように最適化されており、Jasper.aiなどの企業はすでにユーザーエクスペリエンスを向上させるために活用しています。
しかし、Googleのビジョンは、優れたモデルを提供するだけにとどまりません。彼らは、これらのモデルへのアクセス、評価、および大規模な展開を容易にする、包括的なエコシステムを構築しています。主なアップデートは以下のとおりです。
* **Model Gardenの拡張:** MetaのLlama 3.1やMistral AIの最新モデルなどのオープンモデルが、完全に管理された「Model-as-a-service」として利用できるようになり、ユーザーはニーズに最適なものを見つけられるようになりました。
* **言語の壁を打ち破る:** Gemini 1.5 FlashとGemini 1.5 Proは、100以上の言語を理解して応答できるようになり、世界中のユーザーが母国語で簡単にやり取りできるようになりました。
* **予測可能なパフォーマンス:** Vertex AIでProvisioned Throughputが一般提供され、99.5%のアップタイムサービスレベルアグリーメント(SLA)と組み合わせることで、信頼性とパフォーマンスが保証されます。
* **AIをスケールする、コストではなく:** Gemini 1.5 Flashの改善により、入力コストが最大85%、出力コストが最大80%削減されました。コンテキストキャッシングなどの機能により、長いコンテキストクエリのコストとレイテンシがさらに最適化されます。
これらの機能強化は、Googleがエンタープライズ規模のAIをすべての人が利用できるようにするというコミットメントを示しています。