本文主要主要介绍LYZ-GPT学术版支持的OpenAI数据模型的特点和区别,以及本站API_KEY模型使用价格明细。
网站支持的模型
目前LYZ-GPT学术版支持以下模型。”gpt-3.5-turbo-1106
“,”gpt-4-1106-preview
“,”gpt-4-vision-preview
“,”gpt-3.5-turbo-16k
“, “gpt-3.5-turbo
“,”gpt-4
“, “gpt-4-32k
“。以上都是OpenAI公司开发的不同版本和类型的大语言模型。
特点和区别
模型 | 特点 |
---|---|
GPT-3.5-Turbo-1106 | GPT-3.5系列的最新模型,支持16K上下文, 也具有调用函数和生成JSON输出的能力。 |
GPT-4-1106-Preview | GPT-4的预览版,具有128K的最大上下文窗口, 可以生成4096个输出令牌,拥有截至2023年4月的最新训练数据和知识。 此模型处于预览状态,不建议用于生产用途。 稳定版本可用后,此预览模型的所有部署将会自动更新。 相比GPT-4,GPT-4-1106-Preview的输入输出的token价格分别降低3倍和2倍。 |
GPT-4-Vision-Preview | GPT-4的视觉理解功能,也称为GPT-4V或gpt-4-vision-preview。 它不仅能处理文本输入,还能理解和分析图像。 这一功能为许多领域提供了新的可能性。 例如,通过提供埃菲尔铁塔的图像并询问其高度,GPT-4能够生成准确的响应, 指出埃菲尔铁塔高324米。 虽然模型的视觉输入功能目前处于研究预览阶段, 但它展现出与仅有文本输入相似的功能。 |
GPT-3.5 Turbo和GPT-3.5 Turbo 16KTurbo 16K | 是GPT-3.5 Turbo系列的模型,支持不同长度的上下文。 |
GPT-4和GPT-4 32K | 是GPT系列的最新模型,具有更强的性能和功能。 它们可以执行各种自然语言任务,如文本摘要、问答、文本生成、情感分析、机器翻译等。 同时,它们还可以使用自然语言提示或说明在单个文本中处理多个任务。 GPT-4的图像处理能力也值得关注。 它具有处理文本和图像形式的输入的能力,因此能够基于混合输入模式产生文本输出。 例如,通过提供埃菲尔铁塔的图像并询问其高度,GPT能够生成准确的响应,指出埃菲尔铁塔高324米。 |
1、在分析论文时如果上下文问答比较长,可以选用GPT-3.5 Turbo 16KTurbo 16K或者GPT-4 32K或者GPT-4-1106-Preview,根据自己的需求选择。
2、如果需要绘画,所有模型都可以用于DallE3绘画,如果追求更好的图像处理能力,可以选用GPT-4。
2、如果需要绘画,所有模型都可以用于DallE3绘画,如果追求更好的图像处理能力,可以选用GPT-4。
价格明细【学术版】
以下价格为本站LYZ-GPT学术版价格明细(非OpenAI官网价格),本站比OpenAI官网价格更低
。3.5是官方价格的七分之一
,没有使用期限。
© 版权声明
THE END
暂无评论内容