このページには、Vertex AI の生成 AI と Vertex AI Model Garden に関する本番環境の更新内容が記載されています。このページを定期的にチェックして、新機能や更新された機能、バグ修正、既知の問題、サポートが終了した(非推奨になった)機能に関するお知らせを確認してください。
2024 年 3 月 19 日
Vertex AI での Anthropic Claude 3 Sonnet と Claude 3 Haiku モデルの一般提供を開始
Vertex AI で、Anthropic のマネージド モデルである Claude 3 Haiku と Claude 3 Sonnet を利用できます。Vertex AI で Claude モデルを使用するには、Vertex AI API エンドポイントにリクエストを直接送信します。詳細については、Anthropic の Claude モデルを使用すると Model Garden の次の Claude モデルカードをご覧ください。
2024 年 2 月 21 日
Gemma のオープンモデルの提供開始。
Gemma モデルは、Gemini モデルの作成に使用された研究成果と技術から構築された軽量のオープンモデルのファミリーです。このモデルはハードウェア、モバイル デバイス、ホストされたサービスで実行できます。詳細については、Gemma オープンモデルを使用すると Gemma Model Garden カードをご覧ください。
2024 年 2 月 15 日
Vertex AI の Gemini 1.0 Pro と Gemini 1.0 Pro Vision のモデル
Vertex AI の Gemini 1.0 Pro と Gemini 1.0 Pro Vision マルチモーダル言語モデルが一般提供(GA)になりました。これらは、europe-west1、europe-west2、europe-west3、europe-west4、および europe-west9 リージョンで利用できます。
詳しくは次の記事をご覧ください。
- マルチモーダル モデルの概要
- マルチモーダル プロンプトの設計
- Vertex AI Gemini API リファレンス
- Gemini Python SDK リファレンス
- PaLM API から Gemini API に移行する
2024 年 2 月 9 日
マルチモーダル エンベディングの動画サポートの一般提供を開始
マルチモーダル エンベディング モデル(multimodalembedding
)を使用した動画データ用エンベディングが一般提供になりました。詳細については、プロダクトのドキュメントをご覧ください。
この機能では、使用するモードに応じて料金が発生します。詳細は、料金をご覧ください。
2024 年 2 月 7 日
Model Garden の更新内容:
機能
以下のモデルが追加されました。
- Stable Diffusion XL LCM: Latent Consistency Model(LCM)は、より少ないステップで迅速かつ高品質の画像を作成することで、潜在拡散モデルにおけるテキストから画像の生成を強化します。
- LLaVA 1.5: LLaVA 1.5 モデルをデプロイします。
- PyTorch-ZipNeRF: Pytorch-ZipNeRF モデルは、Pytorch フレームワークの ZipNeRF アルゴリズムの最先端の実装であり、2D 画像から効率的かつ正確に 3D を再構成するように設計されています。
- LLaMA 2(量子化): Meta の Llama 2 モデルの量子化バージョン。
- WizardLM: WizardLM は、Microsoft が開発した大規模言語モデル(LLM)で、Evol-Instruct 方式を適応させることで複雑な命令をファインチューニングします。
- WizardCoder: WizardCoder は Microsoft によって開発された大規模言語モデル(LLM)で、Evol-Instruct 方式をコードのドメインに適合させることで、複雑な命令をファインチューニングします。
- AutoGluon: AutoGluon を使用すると、表形式データ用の高精度 ML モデルとディープ ラーニング モデルをトレーニングしてデプロイできます。
- Lama(Large mask inpainting): Fast Fourier Convolution(FFC)、高い受容フィールドの Perceptual Loss、大規模トレーニング マスクによる Lama を使用して解像度の高い画像修復を行います。
変更
- ワンクリックのチューニング ボタンと、Llama 2 専用のデプロイ、チューニング、量子化、評価ノートブックを追加しました。
Salesforce/blip-image-captioning-base
やtimbrooks/instruct-pix2pix
など、事前トレーニング済みの OSS アーティファクトを含む 20 以上のモデルに、ワンクリックでデプロイを行うボタンを追加しました。- CodeLlaMA70b のサポート(ノートブックとワンクリック デプロイ ボタン付き)。
- Mistral モデル用のチューニング ノートブックを追加しました。
- Stable Video Diffusion Img2Vid XT のサービング ノートブックを追加しました(研究用)。
2024 年 1 月 12 日
textembedding-gecko
モデルと textembedding-gecko-multilingual
モデルのためのモデル チューニングの一般提供(GA)で利用可能になりました。教師ありファインチューニングを使用して、textembedding-gecko
モデルをチューニングできます。詳細については、テキスト エンベディングをチューニングするをご覧ください。
2024 年 1 月 8 日
AutoSxS が LLM を並べて評価
LLM または事前に生成された予測のパフォーマンスの A/B テストを行う際には、Automatic side-by-side(AutoSxS)評価ツールのプレビュー版をご利用いただけます。人間の評価者の能力水準に相当し、より高速かつオンデマンドで利用可能であり、費用対効果に優れています。
2024 年 1 月 5 日
Vertex AI の生成 AI によるリージョン拡張
バッチ予測とモデル評価用の Vertex AI の生成 AI 機能は、12 個の追加 Google Cloud リージョンで利用できます。
2023 年 12 月 18 日
Model Garden の更新内容:
- Vertex AI の教師ありチューニングで使用されるデータセット形式を使用した OpenLLaMA モデルのハイパーパラメータ チューニングとカスタマイズされたデータセットのサポート。
- falcon-instruct モデルの GPTQ 変換のサポート。
- Latent Consistent モデルと研究目的のみの SDXL-Turbo モデルを Stable Diffusion XL ノートブックに追加。
- Mistral ノートブックに Mixtral 8x7B モデルを追加。
2023 年 12 月 13 日
Vertex AI の Gemini Pro と Gemini Pro Vision のモデル
Vertex AI Gemini Pro と Gemini Pro Vision のマルチモーダル言語モデルは、プレビュー版で利用できます。詳しくは次の記事をご覧ください。
- マルチモーダル モデルの概要
- マルチモーダル プロンプトの設計
- Vertex AI Gemini API リファレンス
- Gemini Python SDK リファレンス
- PaLM API から Gemini API に移行する
Imagen 2 の一般提供
画像生成タスクに対する 005 バージョンの Imagen の画像生成モデル(imagegeneration@005
)が一般提供になりました。このモデル バージョンが画像生成タスクのデフォルトになりました。詳細については、プロダクト ドキュメントをご覧ください。
Imagen のモデルとバージョンの概要については、Imagen モデルのバージョンとライフサイクルをご覧ください。
2023 年 12 月 12 日
テキスト エンベディング モデル 003(textembedding-gecko@003
)の提供開始
テキスト エンベディング基盤モデル textembedding-gecko@003
の更新された安定版を利用できます。textembedding-gecko@003
では、以前の安定版である textembedding-gecko@001
と textembedding-gecko@002
と比較して品質が向上しています。モデル バージョンの詳細については、モデル バージョンとライフサイクルをご覧ください。
2023 年 12 月 8 日
Vertex AI の生成 AI のセキュリティ管理の更新情報
アクセスの透明性(AXT)セキュリティ管理は、次の機能で使用できます。
- マルチモーダル オンライン予測のエンベディング
- Vertex AI オンライン予測での Imagen
- Vertex AI チューニングでの Imagen
2023 年 12 月 6 日
更新されたテキストモデル
テキスト、チャット、コード、コードチャットのモデルのバージョン @002
の提供が開始しました。@002
モデル バージョンには、プロンプト レスポンスの改善が含まれています。@002
モデルは次のとおりです。
text-bison@002
chat-bison@002
code-bison@002
codechat-bison@002
常に安定しているモデル バージョンを使用するには、モデル ID にバージョン番号を指定します。たとえば、text-bison@002
のようにします。詳細については、モデルのバージョンとライフサイクルをご覧ください。
2023 年 12 月 5 日
機能
モデルの根拠付けはプレビュー版で使用できます。根拠付けを使用して、text-bison
モデルと chat-bison
モデルを Vertex AI Search の非構造化データストアに接続します。根拠付けによって、モデルがデータ リポジトリの情報にアクセスして使用することで、レスポンスを強化し固有のニーズに対応したものにできます。詳細については、根拠づけの概要をご覧ください。
2023 年 12 月 1 日
変更
次の model_garden_name 更新を利用できます。
- LLaMA2、falcon-instruct、openllama、Stable Diffusion 1.5、2.1、XL モデルなどの L4 GPU を使用したデフォルト モデルのデプロイ設定が更新されました。
- Vertex AI で教師ありチューニングで使用されるデータセット形式を使用した LLaMA2 モデルのハイパーパラメータ チューニングとカスタマイズされたデータセットのサポート。
- Vertex AI での大規模な言語モデルのチューニングに推奨される LoRA と QLoRA の設定。詳細については、LLM の LoRA と QLoRA の推奨事項をご覧ください。
- LLaMA2 モデルと OpenLLaMA モデルの AWQ 変換と GPTQ 変換をサポートします。
- ViT pytorch と JAX のトレーニング、Openllama7b チューニング、OpenLLaMA 3b/7b/13b のハイパーパラメータ チューニング、Stable Diffusion 1.5 のチューニングとサービングのベンチマーク レポート。
2023 年 11 月 30 日
機能
テキスト用 PaLM 2 のモデルサイズは一般提供(GA)で利用できます。text-unicorn
モデルでは、text-bison
モデルよりも複雑な推論タスクのセットに対するレスポンスの品質が向上します。詳細については、モデル情報をご覧ください。
2023 年 11 月 17 日
ComputeToken API がプレビュー版で利用可能
ComputeToken API がプレビュー版で利用可能になりました。この API を使用すると、特定のプロンプトに対するトークンのリストを取得できます。トークンとは、テキスト入力で見つかった一般的な文字シーケンスを表すための手段です。詳細については、トークンのリストを取得するをご覧ください。
2023 年 11 月 10 日
Vertex AI の生成 AI
セキュリティ管理が、Vertex AI の生成 AI の追加機能として利用できます。
2023 年 11 月 3 日
Model Garden の更新
機能
Model Garden に以下のモデルが追加されました。
- ImageBind: マルチモーダル エンベディング モデル。
- Vicuna v1.5: llama2 をベースにファインチューニングされた LLM。
- OWL-ViT v2: SoTA オープン語彙オブジェクト検出モデル。
- DITO: SoTA オープン語彙オブジェクト検出モデル。
- NLLB: 多言語翻訳モデル。
- Mistral-7B: 小規模な SoTA LLM。
- BioGPT: 生物医学分野向けにファインチューニングされた LLM。
- BiomedCILP: 生物医学分野向けにファインチューニングされたマルチモーダル基盤モデル。
使用可能なすべてのモデルのリストについては、Model Garden でモデルを確認するをご覧ください。
変更
- 言語モデルサービス提供のスループットが改善されました。詳細については、Model Garden でオープンソースの大規模言語モデルを効率的に提供をご覧ください。関連するモデルカードのノートブックは、適宜更新されています。
- Stable Diffusion 1.5、2.1、XL モデルの元の実装と比較して、推論速度が最大 2 倍高速になりました。
- サポートされているすべてのモデルカードの [デプロイ] ボタンのワークフローが改善されました。
- モデル サービング用の推奨マシン仕様と、モデル評価用の EleutherAI の評価ハーネス Docker を使用して、Llama2、OpenLlama、Falcon Instruct のノートブックが更新されました。
新しい textembedding-gecko
と textembedding-gecko-multilingual
の安定したモデル バージョン
Vertex AI の生成 AI では、次の安定したモデル バージョンを使用できます。
textembedding-gecko@002
textembedding-gecko-multilingual@001
モデル バージョンの詳細については、モデル バージョンとライフサイクルをご覧ください。
2023 年 11 月 2 日
Vertex AI の生成 AI には、北米、ヨーロッパ、アジアの 12 のリージョン API からアクセスできます。リージョン API を使用すると、データの保存場所を制御できます。
2023 年 11 月 3 日
chat-bison@001
のモデル チューニングは一般提供(GA)で利用可能です。
chat-bison@001
のチューニングは、TensorBoard 指標の可視化をサポートしています。詳細については、チューニングと評価の指標をご覧ください。
2023 年 10 月 4 日
textembedding-gecko
のモデルのチューニングがプレビュー版で利用可能
教師ありチューニングを使用して textembedding-gecko
モデルをチューニングできます。この機能はプレビュー版です。詳細については、テキスト エンベディングをチューニングするをご覧ください。
2023 年 9 月 1 日
料金の改定
text-bison
の料金は、入出と出力につき 1,000 文字あたり $0.0005 に引き下げられました。詳細については、Vertex AI の料金をご覧ください。
2023 年 8 月 29 日
Vertex AI モデルでの新しい生成 AI と拡充された言語サポート
Vertex AI の生成 AI が更新され、新しい言語モデル候補(最新モデル)、最大 32,000 の入出力トークンをサポートする言語モデル、その他のサポート対象言語が追加されました。詳細については、使用可能なモデルとモデルのバージョンとライフサイクルをご覧ください。
生成 AI モデルが出力したレスポンスのストリーミング
生成 AI モデル ストリーミングのサポートは一般提供(GA)で利用できます。プロンプトを送信すると、モデルは、出力全体が使用可能になるのを待つのではなく、生成された時点でレスポンス トークンを返します。
サポートされているモデルは次のとおりです。
text-bison
chat-bison
code-bison
codechat-bison
詳細については、生成 AI モデルが出力したレスポンスのストリーミングをご覧ください。
text-bison
モデルの教師ありチューニングは一般提供(GA)で利用できます。
text-bison
モデルの教師ありチューニングは一般提供(GA)で利用できます。
chat-bison
モデル用のモデル チューニングがプレビュー版で利用可能
教師ありチューニングを使用して chat-bison
モデルをチューニングできます。この機能はプレビュー版です。詳細については、テキストモデルのチューニングをご覧ください。
新しいエンベディング モデルがプレビュー版で利用可能
Vertex AI の生成 AI では、英語以外のさまざまな言語でトレーニングされた新しいモデルを使用してエンベディングを作成できます。このモデルはプレビュー版です。
textembedding-gecko-multilingual
詳細については、テキストのエンベディングを取得するをご覧ください。
Imagen 被写体チューニングとスタイル チューニング機能が一般提供(GA)で利用可能
Vertex AI の Imagen では、次の機能が一般提供(GA)で利用できます。
- サブジェクト モデルのチューニング(標準のチューニング)*
- スタイルモデルのチューニング*
* アクセスが制限されている機能です。
Vertex AI の Imagen の詳細や、制限付きの一般提供版にアクセスする方法については、Vertex AI の Imagen の概要をご覧ください。
text-bison
向けの人間からのフィードバックを用いた強化学習(RLHF)によるチューニング
Vertex AI テキスト生成基盤モデル(text-bison
)の生成 AI で、RLHF チューニングがサポートされています。RLHF チューニング機能はプレビュー版です。詳細については、RLHF モデルのチューニングを使用するをご覧ください。
Vertex AI Codey API の言語サポート
Vertex AI Codey API で、追加のプログラミング言語がサポートされています。詳細については、サポートされているコーディング言語をご覧ください。
Vertex AI Codey API による教師ありチューニングのサポート
コードチャット(codechat-bison
)とコード生成(code-bison
)の Vertex AI Codey API モデルが、教師ありチューニングをサポートしています。Vertex AI Codey API モデル用の教師ありチューニングは(プレビュー)機能です。詳細については、コードモデルをチューニングするをご覧ください。
指標ベースモデルの評価
分類、要約、質問応答、一般的なテキスト生成のための評価データセットに対して、基盤モデルとチューニング済みモデルのパフォーマンスを評価できます。この機能はプレビュー版でご利用いただけます。
詳細については、モデルのパフォーマンスを評価するをご覧ください。
CountToken API のプレビュー版が利用可能
CountToken API がプレビュー版で利用できます。この API を使用すると、プロンプトのトークン数と課金対象の文字数を取得できます。詳細については、トークン数を取得するをご覧ください。
2023 年 8 月 9 日
Imagen マルチモーダル エンベディングの一般提供を開始
Vertex AI の Imagen では、次の機能が一般提供(GA)で利用できます。
- マルチモーダル エンベディング
この機能では、画像入力とテキスト入力のどちらを使用するかによって、料金が異なります。詳細については、マルチモーダル エンベディング機能のページをご覧ください。
2023 年 8 月 21 日
モデル チューニング パラメータの更新
モデルのチューニング ジョブで、モデル評価と Vertex AI TensorBoard 統合のオプションのパラメータを受け入れるようになりました。これにより、1 つのコマンドでモデルを評価し、ビジュアリゼーションを生成できます。詳細については、モデルのチューニング ジョブを作成するをご覧ください。
2023 年 7 月 28 日
モデル チューニング パラメータの更新
モデル チューニングの learning_rate
パラメータは learning_rate_multiplier
です。モデルまたはチューニング方法のデフォルトの学習率を使用するには、1.0
のデフォルトの learning_rate_multiplier
値を使用します。
これまでに learning_rate
を構成していない場合については、操作は必要ありません。tuning_method=tune_v2
を v2.0.0 パイプライン テンプレート(Python SDK v1.28.1 以降)で使用する場合、推奨される学習率は 0.0002 です。カスタム learning_rate
を learning_rate_multiplier
に変換するには、次のように計算します。
learing_rate_multiplier = custom_learning_rate_value / 0.0002
2023 年 7 月 18 日
text-bison のモデル チューニングの更新
- アップグレードされたチューニング パイプラインで、text-bison のより効率的なチューニングが可能となりパフォーマンスが改善されています。
- GPU のサポートで利用可能な新しいチューニング リージョン(
us-central1
)が追加されました。 - 新しい
learning_rate
パラメータを使用すると、反復処理ごとにステップサイズをチューニングできます。
詳細については、言語基盤モデルをチューニングするをご覧ください。
Chirp の一般提供(GA)
Chirp は一般提供(GA)で利用できます。詳しくは、次のページをご覧ください。
2023 年 7 月 17 日
Vertex AI の Imagen の一般提供機能
Vertex AI の Imagen では、次の機能が一般提供(GA)で利用できます。
* アクセスが制限されている機能です。
Imagen の詳細や、制限付きの一般提供機能やプレビュー版機能にアクセスする方法については、Vertex AI の Imagen の概要をご覧ください。
人の顔の生成をサポート
Imagen の次の機能で、人間の顔の生成がサポートされています。
* アクセスが制限されている機能。
人の顔の生成はデフォルトで有効になっています(子供や有名人が写っている画像は除きます)。詳細については、使用上のガイドラインをご覧ください。
サポートされる言語の追加
Vertex AI PaLM API で、次の言語のサポートが追加されました。
- スペイン語(es)
- 韓国語(ko)
- ヒンディー語(hi)
- 中国語(zh)
サポートされている言語の全一覧については、サポートされている言語をご覧ください。
2023 年 7 月 13 日
テキスト用 PaLM 2 のバッチサポート
バッチテキスト(text-bison
)リクエストのサポートが一般提供(GA)利用可能になりました。chat-bison
モデルの料金については、Vertex AI の料金ページをご覧ください。
2023 年 7 月 10 日
チャット用 PaLM 2
チャット(chat-bison
)のサポートが一般提供で利用可能になりました。chat-bison
モデルの料金については、Vertex AI の料金ページをご覧ください。
2023 年 6 月 29 日
Vertex AI Codey API
Vertex AI Codey API は一般提供(GA)になりました。Vertex AI Codey API を使用して、コード生成、コード補完、コードチャットを含むソリューションを作成します。Vertex AI Codey API は一般提供されているため、使用すると料金が発生します。料金については、Vertex AI の生成 AI の料金ページをご覧ください。
このリリースに含まれるモデルには次のものがあります。
code-bison
(コード生成)codechat-bison
(コードチャット)code-gecko
(コード補完)
code-bison
と codechat-bison
の入力トークンの最大数が 4,096 から 6,144 に引き上げられ、プロンプトとチャットで保持される履歴が長くなりました。code-bison
と codechat-bison
の出力トークンの最大値が 1,024 から 2,048 に引き上げられ、より長いレスポンスが許容されるようになりました。
他のプログラミング言語もサポートされています。詳細については、サポートされているコーディング言語をご覧ください。
以下の改善を実装するために、code-bison
モデルと codechat-bison
モデルからいくつかの微調整データセットが削除されました。
- 過度におしゃべりする。
- NBSP(改行なしのスペース)文字などのアーティファクト作成。
- コードのレスポンスの質が低い。
クラウドの水準については、Vertex AI の認定資格をご覧ください。
2023 年 6 月 15 日
チャット向けの PaLM 2
chat-bison
モデルが更新され、より適切に context
フィールドの手順に沿うようになりました。chat-bison
のチャット プロンプトを作成する方法について詳しくは、チャット プロンプトを設計するをご覧ください。
2023 年 6 月 7 日
PaLM Text API と Embeddings API、Vertex AI Studio
Vertex AI の生成 AI は、一般提供(GA)で利用できます。この機能のリリースにより、Vertex AI PaLM API を使用して AI モデルを生成し、AI を活用したアプリケーションでテスト、チューニング、デプロイができるようになります。これらの機能は一般提供であるため、text-bison
と textembedding-gecko
の PaLM API を使用する場合は料金が発生します。料金の詳細については、Vertex AI の料金ページをご覧ください。
このリリースの機能とモデルには次のものがあります。
- テキスト向けの PaLM 2:
text-bison
- テキスト エンベディング:
textembedding-gecko
- 言語用 Vertex AI Studio
Model Garden
Model Garden が一般提供(GA)になりました。Model Garden は、Vertex AI と厳選された OSS モデルを検討、テスト、カスタマイズ、デプロイすることを支援するプラットフォームです。これらのモデルには調整可能なものからタスク固有のものまであり、いずれも Google Cloud コンソールの [Model Garden] ページで利用可能です。
利用を開始するには、Model Garden における AI モデルと API の確認をご覧ください。
Vertex AI Codey API
Vertex AI Codey API がプレビュー版で利用可能になりました。Codey API を使用すると、許可リストに登録されることを必要とせず、すべての Google Cloud プロジェクトでコード生成、コード補完、コードチャットの API を使用できます。API には us-central1
リージョンからアクセスできます。Codey API は、Vertex AI Studio で使用できます。または、REST コマンドでプログラムによって使用することもできます。
利用を開始するには、コードモデルの概要をご覧ください。
2023 年 5 月 10 日
Vertex AI の生成 AI
Vertex AI の生成 AI がプレビュー版で利用可能になりました。この機能のリリースにより、Vertex AI PaLM API を使用して AI モデルを生成し、AI を活用したアプリケーションでテスト、チューニング、デプロイができるようになります。
このリリースの機能とモデルには次のものがあります。
- テキスト向けの PaLM 2:
text-bison
- チャット向けの PaLM 2:
chat-bison
- テキスト エンベディング:
textembedding-gecko
- 言語用 Vertex AI Studio
- PaLM 2 のチューニング
- Vertex AI SDK v1.25。TextGenerationModel(
text-bison
)、ChatModel(chat-bison
)、TextEmbeddingModel(textembedding-gecko@001
)などの新機能が含まれています。
Google Cloud コンソールの Vertex AI Studio、Vertex AI API、Vertex AI SDK for Python を使用して、Vertex AI の生成 AI 機能を操作できます。
- Vertex AI の生成 AI の詳細をご確認ください。
- Vertex AI Studio の概要をご確認ください。
- 利用を開始するには、Vertex AI Studio のクイックスタートをご覧ください。
Model Garden
Model Garden がプレビュー版で利用可能です。Model Garden は、Vertex AI と厳選された OSS モデルを検討、テスト、カスタマイズ、デプロイすることを支援するプラットフォームです。これらのモデルにはチューニング可能なものからタスク固有のものまであり、いずれも Google Cloud コンソールの [Model Garden] ページで利用可能です。