AI には責任ある開発が不可欠です。そこで私たちは、責任ある生成 AI ツールキットを作り、オープンな AI モデルの設計、構築、評価に役立つリソースを提供しました。この取り組みは、そこで終わるものではありません。今回、このツールキットを拡張し、Gemma や Gemini などのモデルのタイプを問わず、あらゆる LLM で動作する新機能を追加します。この一連のツールと機能を活用すれば、選択するモデルにかかわりなく、誰もが責任を持って AI を開発できます。
テキストが人間によって書かれたものか、AI が生成したものかを見分けるのが難しいと思っていませんか?SynthID Text がサポートします。このテクノロジーを使うと、生成 AI プロダクトが生成したテキストにウォーターマークを入れたり、検出したりすることができます。
動作の仕組み: SynthID は、AI が生成したテキストにデジタル透かしを直接埋め込むことで、AI が生成したコンテンツを識別します。
デベロッパーのためのオープンソース: テキスト用の SynthID は、Hugging Face と責任ある生成 AI ツールキットから、すべてのデベロッパーがアクセスできます。
オープンソース コミュニティの皆さんの力を借り、上記の実装をベースとして、SynthID Text のリーチをさまざまなフレームワークに拡大したいと考えています。質問がある方は、GitHub または Discord にお問い合わせください。
質の高い出力を生成するには、ビジネス ポリシーを効果的に適用するプロンプトの作成が欠かせません。
Model Alignment ライブラリは、LLM のサポートを受けてプロンプトを改善する際に役立ちます。
モデルの出力をどのように変更したいかについて、全体的な評価または一連の指針という形でフィードバックを提供します。
Gemini またはお好みの LLM を使ってフィードバックをプロンプトに変換し、モデルの動作をアプリケーションのニーズやコンテンツ ポリシーに一致させます。
プロンプトのデバッグは、責任ある AI 開発に不可欠です。Google Cloud の Learning Interpretability Tool(LIT)のデプロイ操作が向上し、短時間で簡単に実行できるようになりました。
Google デベロッパー コミュニティ Discord の会話に参加して、これらの新機能に関するご意見をお聞かせください。皆さんからのフィードバックを聞き、引き続き、責任ある AI の未来を一緒に築いていきたいと考えています。