阿里云大模型服务平台百炼发布通知,于北京时间2025年11月13日开始对中国站-北京的通义千问3-Max模型实行降价。降价后,batch调用半价;隐式缓存,对命中缓存的部分,按输入Token标准单价的20%计费;显式缓存,用于创建缓存的Token按输入Token标准单价的125%计费,后续命中仅需支付10%的费用。
10月4日,阿里云通义千问宣布开源Qwen3-VL-30B-A3B-Instruct与Thinking,还同步推出FP8版本,以及超大规模模型Qwen3-VL-235B-A22B的FP8版本。
9月26日,阿里通义千问正式发布Qwen3-Omni。据通义千问介绍,Qwen3-Omni是原生全模态大模型,预训练全模态不降智,并在36项音频及音视频基准测试中获32项开源SOTA与22项总体SOTA,超越Gemini-2.5-Pro、Seed-ASR、GPT-4o-Transcribe等闭源强模型。
8月19日,通义千问宣布,推出Qwen-Image-Edit,Qwen-Image的图像编辑版本。Qwen-Image-Edit基于20B的Qwen-Image模型进⼀步训练,将Qwen-Image的文本渲染能力延展至图像编辑领域,实现了对图片中文字的精准编辑。
8月7日,阿里通义千问发布更小尺寸新模型——Qwen3-4B-Instruct-2507和Qwen3-4B-Thinking-2507。据通义千问介绍,在非推理领域,Qwen3-4B-Instruct-2507全面超越了闭源的GPT4.1-Nano;在推理领域,Qwen3-4B-Thinking-2507甚至可以媲美中等规模的Qwen3-30B-A3B(thinking)。目前新模型已在魔搭社区、HuggingFace正式开源。
7月30日,阿里通义千问宣布Qwen3-30B-A3B模型推出新版本:Qwen3-30B-A3B-Instruct-2507。据介绍,这是一个非思考模式(non-thinking mode)的新模型,长文本理解能力提升至256K,仅激活3B参数,就能取得可媲美Gemini 2.5-Flash(non-thinking)、GPT-4o等闭源模型的性能。
6月6日消息,亚马逊公司正在加速布局人形机器人,并采用DeepSeek、阿里通义千问等开源的大语言模型进行机器人的操控。公开信息显示,亚马逊已在其硬件研发部门Lab126内组建了一支新的 Agentic AI(代理式人工智能)团队,着重推进“物理AI ”的研发工作,希望创造能够根据自然语言指令执行任务的机器人。
北京时间5月29日,英伟达CEO黄仁勋在财报电话会上说,来自中国的DeepSeek和Qwen(阿里通义千问)是开源AI模型之中最好的。免费发布后,它们在美国、欧洲及其他地区获得了巨大关注。最终,赢得AI开发者的平台将赢得AI。出口限制应该加强美国平台,而不是将世界上一半的AI人才推向竞争对手。
近期,日本经济新闻(NIKKEI)提到阿里通义千问大模型已成日本AI开发基础。在日经新闻评测的AI模型综合排名中,通义千问Qwen2.5-Max排名第六,超越了DeepSeek-V3和OpenAI o3-mini等大模型。据了解,日本大量新兴企业正在基于千问开发企业大模型。
英伟达近日开源其代码推理模型(Open Code Reasoning model),包括32B、14B和7B三个参数。该模型以阿里通义千问Qwen2.5-32B、Qwen2.5-14B、Qwen2.5-7B为底座模型。
去年12月,阿里通义千问推出了QVQ-72B-Preview, 作为一个探索模型,它存在一些不足之处。今天,我们正式推出 QVQ-Max 视觉推理模型的第一版。这一新版本的模型具备强大的多模态处理能力,它不仅能够“看懂”图片和视频里的内容,还能结合这些信息进行分析、推理,甚至给出解决方案。从数学题到生活小问题,从编程代码到艺术创作,QVQ-Max 都表现出了不俗的能力。
通义千问3月27日宣布发布Qwen2.5-Omni,Qwen模型家族中新一代端到端多模态旗舰模型。该模型专为全方位多模态感知设计,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音合成输出。该模型现已在Hugging Face、ModelScope、DashScope和GitHub上开源开放。
3月11日,Manus平台宣布与阿里通义千问团队正式达成战略合作。双方将基于通义千问系列开源模型,致力于在国产模型和算力平台上实现Manus的全部功能。Manus AI方面表示,目前两家技术团队已展开紧密协作,共同致力于为中国用户打造更具创造力的通用智能体产品。
3月6日,阿里巴巴发布并开源全新的推理模型通义千问QwQ-32B,阿里巴巴称,这是一款拥有320亿参数的模型,其性能可与具备6710亿参数(其中370亿被激活)的DeepSeek-R1媲美。
11月13日,据阿里云消息,阿里云通义大模型团队正式开源通义千问代码模型全系列,共6款Qwen2.5-Coder模型。此次开源共推出0.5B/1.5B/3B/7B/14B/32B等6个尺寸的全系列模型,每个尺寸都开源了Base和Instruct模型。其中,Base模型可供开发者微调,Instruct模型则是开箱即用的官方对齐模型。
9月19日云栖大会,阿里云CTO周靖人发布通义千问新一代开源模型Qwen2.5,其中,旗舰模型Qwen2.5-72B性能超越Llama 405B,再登全球开源大模型王座。Qwen2.5涵盖多个尺寸的大语言模型、多模态模型、数学模型和代码模型,每个尺寸都有基础版本、指令跟随版本、量化版本,总计上架100多个模型,刷新业界纪录。截至2024年9月中旬,通义千问开源模型累计下载量已突破4000万,成为仅次于Llama的世界级模型群。
7月17日消息,有消息称阿里通义大模型团队核心成员周畅博士拟于近日离职创业。知情人士向界面新闻透露,周畅是通义实验室算法团队的核心技术骨干之一,属于正常离职。通义大模型的研发和开源工作正在继续向前推进。 目前,阿里通义实验室负责人为周靖人。
6月7日,阿里通义千问Qwen2大模型发布,并在Hugging Face和ModelScope上同步开源。Qwen2系列涵盖5个尺寸的预训练和指令微调模型,其中包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B和Qwen2-72B,上下文长度支持进一步扩展,最高达128K tokens。
4月28日消息,通义千问开源1100亿参数模型Qwen1.5-110B,成为全系列首个千亿级参数开源模型。通义千问1100亿参数模型延续了Qwen1.5系列的Transformer解码器架构,采用了分组查询注意力方法(GQA),使得模型在推理时更加高效。110B模型支持32K上下文长度,具备优秀的多语言能力,支持中、英、法、德、西、俄、日、韩、越、阿拉伯等多种语言。