如今,我们最新款的 Gemini 1.5 Flash-8B 模型可投入使用,并具备以下优势:
开发者可以通过 Google AI Studio 和 Gemini API 免费访问 gemini-1.5-flash-8b。
在 I/O 大会上,我们宣布推出针对速度和效率进行了优化的轻量级模型 Gemini 1.5 Flash。在过去的几个月里,Google DeepMind 在根据开发者反馈和极限测试结果优化 1.5 Flash 方面取得了相当大的进展。
上个月,我们发布了 Gemini 1.5 Flash-8B 的实验性版本,该模型比 1.5 Flash 模型更小,但速度更快。我们现在很高兴能够将其正式投入使用。在许多基准测试中,Flash-8B 几乎与 5 月推出的 1.5 Flash 模型的性能相当。Flash-8B 在聊天、转录和长上下文语言翻译等任务上表现尤为出色。
为了发布一流的小模型,我们需要继续从开发者的反馈和我们自己对这些模型蕴藏的潜力进行的测试中获取信息。我们认为,该模型最适合处理的任务包括大量多模态用例到长上下文摘要任务等。
Gemini 1.5 Flash-8B 稳定版的发布意味着,智能功能的使用成本比任何 Gemini 模型都要低:
对于购买付费等级的开发者,我们将于 10 月 14 日星期一开始收费。
这一新价格,加上我们为使用 1.5 Flash 和 1.5 Pro 的开发者降低成本所做的工作,凸显了我们致力于确保开发者能够自由地构建可以促进世界发展的产品和服务。
Gemini 1.5 Flash-8B 十分适合简单、更大规模的任务。为了使此模型尽可能有用,我们将 1.5 Flash-8B 速率限制提高了一倍,这意味着开发者每分钟最多可以发送 4,000 个请求 (RPM)。
祝大家尽情享受构建的乐趣并关注更多动态!