
Google发布了Gemini 2.0 Pro Experimental,这是Google迄今为止最强大的Gemini模型。同时,谷歌还发布了Gemini 2.0 Flash和Gemini 2.0 Flash-Lite Preview。这些模型旨在满足不同的使用需求,并在性能和成本之间提供多样化的平衡。
Gemini 2.0 Pro:
- 专为复杂的提示和编码任务设计。
- 支持200万个token的上下文窗口,能够深入分析复杂文档和代码库,还能快速找到关键信息。
- 独特之处在于将代码执行与Google搜索的能力结合。
- 在数学任务中表现出色,在MATH基准测试中得分91.8%,在HiddenMath中得分65.2%。
Gemini 2.0 Flash:
- 在低延迟和高效能的基础上,性能超越 Gemini 1.5 Pro,回应速度提升两倍。
- 支援即时音讯、影片串流输入,以及多工具同时使用功能,适合需要互动性和即时反应的应用场景。
- 在OpenAI的SimpleQA测试中得分29.9%。
Gemini 2.0 Flash-Lite:
- 是针对开发者的低成本变体,目前正在通过API进行公共预览。
这些模型目前仅支持文本输出,但谷歌计划在未来几个月内为 Flash 和 Pro 模型添加图像、音频和实时视频功能。所有三款模型都能够处理图像和音频作为输入。
谷歌还调整了API定价,取消了之前针对短文本和长文本查询的区别[3]. Gemini 2.0 Flash的费用设定为每百万输入0.075美元,输出为0.4美元,而Gemini 2.0 Flash-Lite的文本、图像和视频输入的费用为0.075美元,文本输出则为0.30美元。
Gemini 2.0将逐步整合至多项 Google 产品,包括 Search、NotebookLM、Gemini App 等。