模型广场介绍

更新时间:2024-03-16 13:52:13

我的收藏

在这里您可以根据业务所需挑选通义系列大模型、行业大模型或领域大模型、第三方大模型等接入到企业解决方案中。

重要

模型广场介绍列表

模型更名

模型名称 更名后的模型
通义千问-Max qwen-max
通义千问-Turbo qwen-turbo
通义千问-Plus qwen-plus
通义千问-摘要增强版 bailian-summary
通义千问-开源版-72B qwen-72b-chat
通义千问-开源版-14B qwen-14b-chat
通义千问-开源版-7B qwen-7b-chat
通义千问-开源版-1.8B-长文本 qwen-1.8b-longcontext-chat
通义千问-MAX-长文本 qwen-max-longcontext
通义千问-开源版-1.8B qwen-1.8b-chat

如何查看/调用大模型详情

请先开通百炼推理服务后再创建模型。点击模型广场查看详情按钮,查看预置模型的模型简介、模型名称、及模型调用文档内容。

通义~1bw 10元 - 图1

点击调用文档,提供API接口内容进行调用。

通义~1bw 10元 - 图2

反馈

上一篇:

通义千问

更新时间:2024-04-17 14:52:14

我的收藏

模型简介

通义千问是由阿里云自主研发的大语言模型,用于理解和分析用户输入的自然语言,在不同领域、任务内为用户提供服务和帮助。您可以通过提供尽可能清晰详细的指令来获取符合您预期的结果。 通义千问VL是阿里云研发的大规模视觉语言模型(Large Vision Language Model, LVLM),可以以图像、文本、检测框作为输入,并以文本和检测框作为输出,支持中文多模态对话及多图对话,并具有更好的性能,是首个支持中文开放域的通用定位模型和首个开源448分辨率的大规模视觉语言模型。

模型概览

模型服务 模型名称 模型描述 应用场景
通义千问 qwen-turbo 通义千问超大规模语言模型,支持中文、英文等不同语言输入。 1. 文字创作:撰写故事、公文、邮件、剧本和诗歌等。
2. 文本处理:润色文本和提取文本摘要等。
3. 编程辅助:编写和优化代码等。
4. 翻译服务:提供各类语言的翻译服务,如英语、日语、法语或西班牙语等。
5. 对话模拟:扮演不同角色进行交互式对话。
6. 数据可视化:图表制作和数据呈现等。
qwen-plus 通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。
qwen-max 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。
qwen-max-0403 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-max的2024年4月3号的历史快照稳定版本,预期维护到下个快照版本发布时间(待定)后一个月。
qwen-max-0107 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-max的2024年1月7号的历史快照稳定版本,仅推荐特定需求客户访问。
qwen-max-1201
将于2024年4月22日下线
通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。
qwen-max-longcontext 通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。
通义千问VL qwen-vl-plus 通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。在广泛的视觉任务上提供卓越的性能。 + 看图做题;
+ 图文识别;
+ 增强分辨率;
qwen-vl-max 通义千问超大规模视觉语言模型。相比增强版,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。在更多复杂任务上提供最佳的性能。

计费和限流信息

为了保证用户调用模型的公平性,通义千问对于普通用户设置了基础限流。限流是基于模型维度的,并且和调用用户的阿里云主账号相关联,按照该账号下所有API-KEY调用该模型的总和计算限流。如果超出调用限制,用户的API请求将会因为限流控制而失败,用户需要等待一段时间待满足限流条件后方能再次调用。
模型名称 计费单价 免费额度 基础限流
模型名称 计费单价 免费额度 基础限流
qwen-turbo 0.008元/1,000 tokens 200万tokens
领取方式:新用户开通后自动发放到账户中。点击计费管理开通阿里云百炼服务。
有效期:180天
以下条件任何一个超出都会触发限流:
+ 调用频次 ≤ 500 QPM,每分钟不超过500次API调用;
+ Token消耗 ≤ 500,000 TPM,每分钟消耗的Token数目不超过500,000。
qwen-plus ¥0.02/1,000 tokens 100万tokens
领取方式:新用户开通后自动发放到账户中。点击计费管理开通阿里云百炼服务。
有效期:180天
以下条件任何一个超出都会触发限流:
+ 调用频次 ≤ 200 QPM,每分钟不超过200次API调用;
+ Token消耗 ≤ 200,000 TPM,每分钟消耗的Token数目不超过200,000。
qwen-max ¥0.12/1,000 tokens 100万tokens
领取方式:新用户开通后自动发放到账户中,点击计费管理开通阿里云百炼服务。
有效期:30天
以下条件任何一个超出都会触发限流:
+ 调用频次 ≤ 60 QPM,每分钟不超过60次API调用;
+ Token消耗 ≤ 100,000 TPM,每分钟消耗的Token数目不超过100,000。
qwen-max-0403 以下条件任何一个超出都会触发限流(限时免费开放中,限流策略可能随时变化):
+ 调用频次 ≤ 60 QPM,每分钟不超过60次API调用;
+ Token消耗 ≤ 100,000 TPM,每分钟消耗的Token数目不超过100,000。
qwen-max-1017
qwen-max-1201
将于2024年4月22日下线
关闭,qwen-max-1201的维护时间已经到期,4月22日即将下线,请及时迁移到更新版本模型。(4月8日开始模型限流也会逐步调低直至下线)
qwen-max-longcontext 以下条件任何一个超出都会触发限流:
+ 调用频次 ≤ 5 QPM,每分钟不超过5次API调用;
+ Token消耗 ≤ 1500,000 TPM,每分钟消耗的Token数目不超过1,500,000。
qwen-vl-plus 0.008元/1,000 tokens 100万tokens
领取方式:新用户开通后自动发放到账户中。点击计费管理开通阿里云百炼服务。
有效期:30天
以下条件任何一个超出都会触发限流:
+ 流量 ≤ 60 QPM,每分钟处理不超过60个完整的请求;
+ Token消耗 ≤ 100,000 TPM,每分钟消耗的Token数目不超过100,000。
qwen-vl-max 0.02元/1,000 tokens 以下条件任何一个超出都会触发限流:
+ 流量 ≤ 15 QPM,每分钟处理不超过15个完整的请求;
+ Token消耗 ≤ 25,000 TPM,每分钟消耗的Token数目不超过25,000。
如果您熟悉编程语言,推荐您使用SDK或API调用通义千问模型,实现灵活定制和开发。SDK或API调用请参考开发指南

说明

超出基础限流配额申请

将以下信息补充完整并发送到邮箱:modelstudio@service.aliyun.com,会有专员进行评估。 UID: 需调整的模型名称: 每分钟请求数: 每分钟使用量(token): 联系电话: 申请原因(需要尽可能的详细): 反馈

上一篇:

通义千问VL-开源

更新时间:2024-03-21 09:34:34

我的收藏

通义千问VL是阿里云研发的大规模视觉语言模型(Large Vision Language Model, LVLM),可以以图像、文本、检测框作为输入,并以文本和检测框作为输出,支持中文多模态对话及多图对话,并具有更好的性能,是首个支持中文开放域的通用定位模型和首个开源448分辨率的大规模视觉语言模型。 通义千问VL模型主要有以下特点:
  1. 强大的性能:在四大类多模态任务的标准英文测评中(Zero-shot Captioning/VQA/DocVQA/Grounding)上,均取得同等通用模型大小下最好效果;
  2. 多语言对话模型:天然支持英文、中文等多语言对话,端到端支持图片里中英双语的长文本识别;
  3. 多图交错对话:支持多图输入和比较,指定图片问答,多图文学创作等;
  4. 首个支持中文开放域定位的通用模型:通过中文开放域语言表达进行检测框标注;
  5. 细粒度识别和理解:相比于目前其它开源LVLM使用的224分辨率,Qwen-VL是首个开源的448分辨率的LVLM模型。更高分辨率可以提升细粒度的文字识别、文档问答和检测框标注。
目前,我们提供了Qwen-VL系列的两个模型:
  • Qwen-VL: Qwen-VL 以 Qwen-7B 的预训练模型作为语言模型的初始化,并以Openclip ViT-bigG作为视觉编码器的初始化,中间加入单层随机初始化的 cross-attention,经过约1.5B的图文数据训练得到。最终图像输入分辨率为448。
  • Qwen-VL-Chat: 在 Qwen-VL 的基础上,我们使用对齐机制打造了基于大语言模型的视觉AI助手Qwen-VL-Chat,其训练数据涵盖了 QWen-7B 的纯文本 SFT 数据、开源 LVLM 的 SFT 数据、数据合成和人工标注的图文对齐数据。

基本信息

模型服务 模型名称 模型描述 应用场景
通义千问VL qwen-vl-v1
即将上架
以 Qwen-7B 语言模型初始化,添加图像模型,图像输入分辨率为448的预训练模型。 + 支持英文、中文等多语言对话,端到端支持图片里中英双语的长文本识别;
+ 支持多图输入和比较,指定图片问答,多图文学创作等;
+ 通过中文开放域语言表达进行检测框标注;
qwen-vl-chat-v1
即将上架
通义千问VL支持灵活的交互方式,包括多图、多轮问答、创作等能力的模型。

计费和限流信息

限流是基于模型维度的,并且和调用用户的阿里云主账号相关联,按照该账号下所有API-KEY调用该模型的总和计算。

说明

限流是基于模型维度的,并且和调用用户的阿里云主账号相关联,按照该账号下所有API-KEY调用该模型的总和计算限流。
模型名称 计费单价 免费额度 基础限流
模型名称 计费单价 免费额度 基础限流
qwen-vl-v1
即将上架
限时免费 10万tokens
领取方式:开通阿里云百炼大模型后,自动发放;
有效期:180天
以下条件任何一个超出都会触发限流:
+ 流量 ≤ 60 QPM,每分钟处理不超过60个完整的请求;
+ Token消耗 ≤ 10,000 TPM,每分钟消耗的Token数目不超过10,000。
qwen-vl-chat-v1
即将上架
如果您熟悉编程语言,推荐您使用SDK或API调用通义千问模型,实现灵活定制和开发。SDK或API调用请参考开发指南

说明

超出基础限流配额申请

将以下信息补充完整并发送到邮箱:modelstudio@service.aliyun.com,会有专员进行评估。 阿里云主账号UID: 需调整的模型名称: 每分钟请求数: 每分钟使用量(token): 联系电话: 申请原因(需要尽可能的详细): 反馈

上一篇:

大语言模型

更新时间:2024-04-28 18:21:59

我的收藏

模型简介

Qwen1.5

Qwen1.5是Qwen开源系列的下一个版本。与之前的版本相比,Qwen1.5显著提升了聊天模型与人类偏好的一致性,改善了它们的多语言能力,并具备了强大的链接外部系统能力。灵积上提供API服务的是新版本qwen模型的chat版本,在chat能力上大幅提升,即便在英文的MT-Bench上,Qwen1.5-Chat系列也取得了优秀的性能。 阿里云百炼平台上提供的0.5B模型、1.8B模型、7B模型、14B模型、32B模型和72B模型基于千问开源版本,进行了针对性的推理性能优化,为广大开发者提供便捷的API服务。各个版本均对应魔搭社区开源的各个尺寸的模型版本,详细参考链接

CodeQwen1.5

CodeQwen1.5是专门针对代码的Qwen1.5版本。与Qwen1.5相比,CodeQwen1.5在大量的代码数据上训练得到。它拥有强大的代码生成能力,在一系列基准测试中展现出不凡的竞争力。其支持92种编程语言,上下文长度可达64K,在SQL生成和bug修复方面均有出色的表现。 阿里云百炼平台上提供的7B模型基于千问开源版本,进行了针对性的推理性能优化,为广大开发者提供便捷的API服务。各个版本均对应魔搭社区开源的各个尺寸的模型版本,详细参考链接

Qwen

通义千问为阿里云研发的大语言系列模型。千问模型基于Transformer架构,在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在预训练模型的基础之上,使用对齐机制打造了模型的chat版本。其中千问-1.8B是18亿参数规模的模型,千问-7B是70亿参数规模的模型,千问-14B是140亿参数规模的模型,千问-72B是720亿参数规模的模型。 阿里云百炼平台上提供的1.8B模型、7B模型、14B模型和72B模型基于千问开源版本,进行了针对性的推理性能优化,为广大开发者提供便捷的API服务。其中1.8B模型基于最新在魔搭社区开源的最新版本,7B模型基于最新在魔搭社区上开源的V1.1版本,而14B模型同样基于魔搭社区上最新版本提供,72B模型基于魔搭社区开源的最新版本提供。
模型服务 模型名称 模型描述 应用场景
通义千问110B qwen1.5-110b-chat 通义千问1.5对外开源的110B规模参数量的经过人类指令对齐的chat模型。 1. 文字创作:撰写故事、公文、邮件、剧本和诗歌等。
2. 文本处理:润色文本和提取文本摘要等。
3. 编程辅助:编写和优化代码等。
4. 推理服务:语言编程。
通义千问72B qwen1.5-72b-chat 通义千问1.5对外开源的72B规模参数量的经过人类指令对齐的chat模型。
qwen-72b-chat 通义千问对外开源的72B规模参数量的经过人类指令对齐的chat模型。
通义千问32B qwen1.5-32b-chat 通义千问1.5对外开源的32B规模参数量的经过人类指令对齐的chat模型
通义千问14B qwen-14b-chat 通义千问对外开源的14B规模参数量的经过人类指令对齐的chat模型。
qwen1.5-14b-chat 通义千问1.5对外开源的14B规模参数量的经过人类指令对齐的chat模型。
通义千问7B qwen1.5-7b-chat 通义千问1.5对外开源的7B规模参数量是经过人类指令对齐的chat模型。
qwen-7b-chat 通义千问对外开源的7B规模参数量的经过人类指令对齐的chat模型。
codeqwen1.5-7b-chat 通义千问1.5对外开源的7B规模参数量的经过人类指令对齐的针对代码场景的chat模型。
通义千问1.8B qwen-1.8b-longcontext-chat 通义千问对外开源的1.8B规模参数量的经过人类指令对齐的chat模型。
qwen-1.8b-chat 通义千问对外开源的1.8B规模参数量的经过人类指令对齐的chat模型。
qwen1.5-1.8b-chat 通义千问1.5对外开源的1.8B规模参数量的经过人类指令对齐的chat模型。
通义千问0.5B qwen1.5-0.5b-chat 通义千问1.5对外开源的0.5B规模参数量的经过人类指令对齐的chat模型。

计费和限流信息

说明

限流是基于模型维度的,并且和调用用户的阿里云主账号相关联,按照该账号下所有API-KEY调用该模型的总和计算限流。
模型名称 计费单价 免费额度 基础限流
qwen1.5-110b-chat 限时免费中 100万tokens
领取方式:新用户开通后自动发放到账户中,点击计费管理开通阿里云百炼服务。
有效期:1个月
以下条件任何一个超出都会触发限流(限时免费开放中,限流策略可能随时变化):
+ 流量 ≤ 10 QPM,每分钟处理不超过10个完整的请求;
+ Token消耗 ≤ 20,000 TPM,每分钟消耗的Token数目不超过20,000。
qwen-72b-chat 0.02元/1,000tokens 以下条件任何一个超出都会触发限流(限时免费开放中,限流策略可能随时变化):
+ 流量 ≤ 80 QPM,每分钟处理不超过80个完整的请求;
+ Token消耗 ≤ 130,000 TPM,每分钟消耗的Token数目不超过130,000。
qwen-72b-chat 限时免费中 以下条件任何一个超出都会触发限流:
+ 流量 ≤ 10 QPM,每分钟处理不超过10个完整的请求;
+ Token消耗 ≤ 20,000 TPM,每分钟消耗的Token数目不超过20,000。
qwen-14b-chat 0.008元/1,000tokens 以下条件任何一个超出都会触发限流:
+ 流量 ≤ 300 QPM,每分钟处理不超过300个完整的请求;
+ Token消耗 ≤ 500,000 TPM,每分钟消耗的Token数目不超过500,000。
qwen-7b-chat 0.006元/1,000tokens
qwen-1.8b-chat 限时免费中 限时免费中 以下条件任何一个超出都会触发限流:
+ 流量 ≤ 120 QPM,每分钟处理不超过120个完整的请求;
+ Token消耗 ≤ 200,000 TPM,每分钟消耗的Token数目不超过200,000。
qwen-1.8b-longcontext-chat 限时免费中 限时免费中 /
qwen1.5-7b-chat 0.006元/1,000tokens 100万tokens
领取方式:新用户开通后自动发放到账户中,老用户自动补发免费额度。点击计费管理开通阿里云百炼服务。
有效期:1个月
/
qwen1.5-14b-chat 0.008元/1,000tokens /
qwen1.5-72b-chat 0.02元/1,000tokens /
如果您熟悉编程语言,推荐您使用SDK或API调用通义千问模型,实现灵活定制和开发。SDK或API调用请参考开发指南

说明

超出基础限流配额申请

将以下信息补充完整并发送到邮箱:modelstudio@service.aliyun.com,会有专员进行评估。 阿里云主账号UID: 需调整的模型名称: 每分钟请求数: 每分钟使用量(token): 联系电话: 申请原因(需要尽可能的详细): 反馈

上一篇: