「あらゆるワークロード、あらゆるアプリケーションを、あらゆる場所で」が、Red Hat Summit 2023 での合言葉でした。過去 2 年間で、IT にはいくつかの変化がありました。しかし Red Hat のビジョンは変わっておらず、むしろ進化しています。
あらゆるモデル、あらゆるアクセラレーターを、あらゆるクラウドで。
それが AI 時代のハイブリッドクラウドのメッセージです。最も良い点は、「従来の」ハイブリッドクラウドと同様に、すべてがオープンソース・イノベーションによって推進されていることです。今週の Red Hat Summit では、オープンソースとオープンモデルを中心に構築される AI エコシステムが、エンタープライズのための新たな選択肢をどのように生み出せるのかについてご紹介しています。オープン性は選択肢をもたらし、選択肢によって柔軟性が向上します。それは組織のニーズに最適なモデルから、基盤となるアクセラレーター、ワークロードが実際に稼働する場所にまで及びます。組織を成功に導く AI 戦略は、ハイブリッドクラウド上のどこにデータが存在するかに関係なく、そのデータを追跡するものです。
では、ハイブリッドクラウドを推進するものは何でしょうか。それがオープンソースです。
推論は AI を向上させる
私はモデル以外のことに目を向けることが必要だと考えています。確かに、モデルは AI 戦略にとって非常に重要です。しかし、推論という AI の「実行」フェーズがなければ、モデルは何も「実行」しない、単なるデータの集合でしかありません。推論は、モデルがユーザー入力にいかに速く応答できるか、高速化されたコンピューティング・リソースでいかに効率的に意思決定が行えるかにかかっています。応答が遅く効率が悪ければ、結果的に費用がかさみ、顧客の信頼も失われます。
だからこそ、Red Hat が Red Hat AI Inference Server のリリースを皮切りに、オープンソース AI を使った取り組みにおいて推論を最重要視していることに、私は大変興奮しています。Red Hat AI Inference Server は、主要なオープンソース vLLM プロジェクトを基盤とし、Neural Magic のテクノロジーで強化されており、ライフサイクル管理され、実稼働環境に対応した、サポート付きの推論サーバーを AI デプロイメントにもたらします。何よりも素晴らしいのは、データがどこに保存されていても完全に追跡できることです。あらゆる Linux プラットフォームも、あらゆる Kubernetes ディストリビューションも、Red Hat であろうとなかろうと、このソリューションで動作します。
エンタープライズ AI よりも優れているものは大規模なエンタープライズ AI
エンタープライズ IT のキラーアプリケーションは、一元的に統合されたワークロードや新たなクラウドサービスではありません。それは迅速かつ効率的に拡張できる能力です。これは AI にも当てはまります。しかし、AI には、AI ワークロードの基盤となる、高速コンピューティング・リソースも拡張する必要があるという、独特の特徴があります。このハードウェアを適切に実装するために必要な費用とスキルを考えると、それは決して簡単な作業ではありません。
必要なのは、AI を拡張する能力だけでなく、複数の高速コンピューティング・クラスタに大規模な AI ワークロードを分散する能力です。推論モデルとエージェント型 AI に必要な推論時間のスケーリングが、これをさらに複雑にします。負担を分散することで、パフォーマンスのボトルネックを軽減し、効率を高め、最終的にはユーザーエクスペリエンスを向上させることができます。Red Hat は、オープンソースの llm-d プロジェクトによってこの問題点を解決するための一歩を踏み出しました。
Red Hat が主導し、ハードウェア・アクセラレーション、モデル開発、クラウド・コンピューティングの分野における AI 業界のリーダーが支える llm-d は 、Kubernetes オーケストレーションの実力と vLLM を組み合わせ、オープンソースを先導する 2 つの要素を結集して真のニーズに応えます。AI 対応ネットワークルーティング、KV キャッシュオフロードなどのテクノロジーとともに、llm-d は AI 推論を分散化および民主化し、組織がよりコスト効率が高く効果的な AI ワークロードを実現しながらコンピューティング・リソースを最大限に活用できるように支援します。
オープン (ソース) から AI の未来へ
Red Hat AI Inference Server が提供する llm-d と vLLM は、エンタープライズ AI における今日の課題に今すぐ対応できるオープンソース・テクノロジーです。しかし、アップストリーム・コミュニティは、今やるべきことだけを見ているのではありません。AI テクノロジーは独自のやり方でタイムラインを凝縮します。つまり、イノベーションのペースが速ければ、何年も先まで問題にならないだろうと思っていたことに、突然正面から取り組まなければならなくなります。
そこで Red Hat は Llama Stack (生成 AI のアプリケーションライフサイクル向けに標準化された構成要素と API を提供する Meta 主導のプロジェクト) のアップストリーム作業にリソースを投入しています。それだけではなく、Llama Stack は、今日の強力な生成 AI ワークロードのさらなる進化を表す、エージェント型 AI アプリケーションの構築に非常に適しています。アップストリームを超えて、私たちは未来に向けた取り組みを今すぐ始めたいと考えている組織のために、Llama Stack を Red Hat AI 内の開発者プレビューとして利用できるようにしています。
AI エージェントに関しては、他のアプリケーションが AI エージェントにコンテキストと情報を提供する方法に関する共通プロトコルがまだ存在していません。そこで登場するのがモデル・コンテキスト・プロトコル (MCP) です。2024 年後半に Anthropic によって開発され、オープンソース化されたこの技術は、従来のコンピューティングにおけるクライアントサーバー・プロトコルと同様に、エージェントとアプリケーションのインタラクションのプロトコルを標準化します。しかし重要なのは、既存のアプリケーションを大規模に再開発することなく即座に AI 対応にできる点です。これは非常に大きなことであり、オープンソースの力なしには実現できなかったでしょう。Llama Stack と同様に、MCP は Red Hat AI プラットフォームの開発者プレビューとして利用できます。
プロプライエタリー AI モデルが初期の段階ではリードしていたかもしれませんが、特にこれらの次世代 AI モデルをサポートするソフトウェアでは、オープンエコシステムが確実に優位に立っています。vLLM と llm-d、そして強化されたエンタープライズ・オープンソース製品により、モデル、アクセラレーター、クラウドに関係なく、AI の未来は明るくなります。そして、その推進力となっているのがオープンソースと Red Hat なのです。
執筆者紹介
Chris Wright is senior vice president and chief technology officer (CTO) at Red Hat. Wright leads the Office of the CTO, which is responsible for incubating emerging technologies and developing forward-looking perspectives on innovations such as artificial intelligence, cloud computing, distributed storage, software defined networking and network functions virtualization, containers, automation and continuous delivery, and distributed ledger.
During his more than 20 years as a software engineer, Wright has worked in the telecommunications industry on high availability and distributed systems, and in the Linux industry on security, virtualization, and networking. He has been a Linux developer for more than 15 years, most of that time spent working deep in the Linux kernel. He is passionate about open source software serving as the foundation for next generation IT systems.
チャンネル別に見る
自動化
テクノロジー、チームおよび環境に関する IT 自動化の最新情報
AI (人工知能)
お客様が AI ワークロードをどこでも自由に実行することを可能にするプラットフォームについてのアップデート
オープン・ハイブリッドクラウド
ハイブリッドクラウドで柔軟に未来を築く方法をご確認ください。
セキュリティ
環境やテクノロジー全体に及ぶリスクを軽減する方法に関する最新情報
エッジコンピューティング
エッジでの運用を単純化するプラットフォームのアップデート
インフラストラクチャ
世界有数のエンタープライズ向け Linux プラットフォームの最新情報
アプリケーション
アプリケーションの最も困難な課題に対する Red Hat ソリューションの詳細
オリジナル番組
エンタープライズ向けテクノロジーのメーカーやリーダーによるストーリー