文章来源:放心AI网发布时间:2025-04-17 16:40:08
2025年3月4日,北京智谱华章科技有限公司宣布推出首个支持生成汉字的开源文生图模型——CogView4。该模型在DPG-Bench基准测试中综合评分排名第一,成为开源文生图模型中的SOTA(State of the Art),并遵循Apache2.0协议,是首个支持该协议的图像生成模型。
CogView4具备强大的复杂语义对齐和指令跟随能力,支持任意长度的中英双语输入,并能生成任意分辨率的图像。它不仅能够生成高质量的图像,还能在画面中自然地融入汉字,满足广告、短视频等领域的创意需求。技术上,CogView4采用了具备双语能力的GLM-4encoder,通过中英双语图文训练,实现了双语提示词输入能力。
该模型还支持任意长度的提示词输入,能够生成任意分辨率的图像,极大地提升了创作自由度和训练效率。CogView4采用了二维旋转位置编码(2D RoPE)来建模图像位置信息,并通过内插位置编码支持不同分辨率的图像生成。此外,模型采用Flow-matching方案进行扩散生成建模,结合参数化的线性动态噪声规划,以适应不同分辨率图像的信噪比需求。
在架构设计上,CogView4延续了上一代的Share-param DiT架构,并为文本和图像模态分别设计了独立的自适应LayerNorm层,以实现模态间的高效适配。模型采用多阶段训练策略,包括基础分辨率训练、泛分辨率训练、高质量数据微调以及人类偏好对齐训练,确保生成的图像具有高美感并符合人类偏好。
CogView4还突破了传统固定token长度的限制,允许更高的token上限,并显著减少了训练过程中的文本token冗余。当训练caption的平均长度在200-300token时,与固定512token的传统方案相比,CogView4减少了约50%的token冗余,并在模型递进训练阶段实现了5%-30%的效率提升。
此外,CogView4支持Apache2.0协议,后续将陆续增加ControlNet、ComfyUI等生态支持,全套的微调工具包也即将推出。
开源仓库地址:
https://github.com/THUDM/CogView4
模型仓库:
https://huggingface.co/THUDM/CogView4-6B
https://modelscope.cn/models/ZhipuAI/CogView4-6B
上一篇: 智谱开源文生图模型CogView4,支持中英双语提示词输入
智谱AI最新开源文生图模型CogView4正式亮相,CogView4不仅在参数数量上达到了6亿,还全面支持中文输入和中文文本到图像的生成,被称其为“首个能在画面中生成汉字的开源模型”。CogView4以支持中英双语提示词输入为
下一篇: 超强视频生成模型Wan2.1GP:低配GPU也能搞定大片!
近日,DeepBeepMeep 团队在 GitHub 上发布了 Wan2 1GP,一个针对低端 GPU 用户优化的视频生成模型。该模型基于阿里巴巴的 Wan2 1,旨在为缺乏高性能 GPU 资源的用户提供强大的视频生成能力。Wan2 1GP 的推出标志
相关攻略 更多
最新资讯 更多
OpenAI几周内发布o3-mini,性能略逊于o1-pro
更新时间:2025-05-06
Runway推全新AI图像生成器Frames,打造电影级视觉表现
更新时间:2025-05-06
微软推出WindowsAI搜索功能测试,提升文件查找体验
更新时间:2025-05-06
OpenAI专家:社交媒体上的AI炒作远比你想象的复杂!
更新时间:2025-05-06
AI始祖重生:世界首个聊天机器人ELIZA在60年后重获新生
更新时间:2025-05-06
大型出版公司Dotdash与OpenAI达成合作,裁员百余人
更新时间:2025-05-06
阶跃星辰上线Step-2mini、Step-2文学大师版语言模型
更新时间:2025-05-06
MiniMax海螺语音全球同步上线包含T2A-01-Turbo等模型
更新时间:2025-05-06
MIT、DeepMind研究揭示视觉语言模型无法理解否定表达的原因
更新时间:2025-05-06
商汤日日新融合大模型交互版开放商用实时音视频对话限时免费
更新时间:2025-05-06