
4月15日,Shengsi Mindspore开源社区和痣社区立即启动了新开放的资源GLM-4-041432B/9B Zhipu模型,并完成了绩效测试。 Zhipu GLM-4-0414具有两种尺寸:32b/9b,涵盖模型的基础,推理和反射,均符合MIT许可协议。其中,GLM-Z1-32B-0414识别模型的性能与诸如DeepSeek-R1之类的顶级模型相当,并且实际识别速度可以达到200个令牌/秒。模型的引入:基本的GLM-4-32B-0414模型具有320亿个参数,其性能与具有较大的家庭和外国参数的基本模型相当。该模型使用15T高质量数据进行预训练,并特别合并了丰富的合成数据,这为加固研究的后续扩展奠定了基础。在训练后阶段,除了进行对话方案的人类偏好一致性外,模型表演在诸如教学,工程法规,功能呼叫等活动的活动中,还集中在通过通过诸如下降,刺激下降,刺激和研究下降的技术来增强原子能的要求。 GLM-4-32B-0414在工程代码,工件生成,功能呼叫,搜索问题和答案以及写作活动中表现出色。一些基准指标接近,甚至超过较大模型的水平,例如GPT-4O和DeepSeek-V3-0324(671b)。 GLM-Z1-32B-0414是具有深厚精神能力的推理模型。基于GLM-4-32B-0414,该模型采用了ng冷启动和扩展的技术来进行学习加强,并针对数学,代码和逻辑等基本任务进行了深入的优化练习。与基本模型相比,数学功能和解决GLM-Z1-32B-0414问题的复杂问题显着增强。此外,总体技术基于战斗分类的反馈的刺激性研究被整合到实践中,从而有效地提高了模型的整体技能。在某些任务中,GLM-Z1-32B-0414的性能可与DeepSeek-R1相当,具有671B参数,参数为32B。通过审查基准测试,例如AIME 24/25,LiveCodeBench,GPQA等。GLM-Z1-9B-0414是一种9B小型模型,在上层方法中使用串联训练。尽管参数较小,但ANG GLM-Z1-9B-0414仍在数学推理和一般活动中执行,其整体性能达到了相同大小的开放资源模型的领先水平。尤其是在资源强制的方案中,该模型可以平衡效率和影响,为需要灯光扩展的用户提供强大的服务。一个强大的选择。 GLM-Z1-RUMATION-32B-0414反射模型代表探索Zhishu未来AGI形式的下一步。与一般的理解模型不同,m反思的ODEL -MUNI可以通过更多深入思考的步骤来解决高大而复杂的问题。主要的变化是,它可以包括搜索工具,以在深思熟虑期间处理复杂的任务,并使用不同的基于规则的奖励机制来指导和扩展强化研究的培训。该模型支持“免费质疑问题 - 搜索信息 - 构建分析 - 任务的完成”的完整闭环,从而大大提高了基于研究的写作技巧和复杂的获取任务。欢迎开发人员下载和体验! mole社区下载链接:https://modelers.cn/models/mindspore-lab/glm-4-32b-asse-0414https://modelers.cn/models.mmodels/mindspore-mindspore-lab/glm-z1-rumination-z1-rumination-lumination-z1-rumination-32b-04414141414htps: //Modelers.cn/models/mindspore-lab/glm-z1-32b-0414https: // m Odelers.cn/models GLM-Z1-9B-0414+Shengspore based on sharp resentmentn as an example) # 01 Quickly starting the GLM-Z1-9B-0414 forecasures require at least 1 (1 card) Atlas 800T A2(64G)服务器(基于BF16权重)。 Shengsi Mindspore提供了可用于GLM-Z1-9B-0414的Docker容器图像,使开发人员可以快速体验。 1。下载shengspore推理容器映像execde以下shell命令,以拉动shengspore glm-z1推理容器图像:docker pull swr.cn-central-221.ovaijisuan.com/mindforrs/mindforrs/mindspore/mindspore_glm_glm_z1:20250414141。启动Docker Run容器-It-- privileged -name = glm -Z1 -net = host \ -shm -size 500g \ -aparato =/dev/dev/devinci0 \ -device =/dev/dev/dev/davinci1 \ -device =/dev/dev/dev/dev/davinci2 =/dev/davinci5 \ -Device =/Dev/Davinci6 \ -Device =/Dev/Davinci7 \ -Device =/devinci_manager \ -Device =/dev/hisi_hdc \ -Device/dev/devmm_svm \ -v/usr/local/ascend/drivER:/USR/Local/Ascend/Driver \ -v/usr/locar/local/aScend/固件:/usr/locar/locar/ascend/striceware \ -v/usr/local/sbin/sbin/npu -mmi:/usr/locar/local/sbin/npu -mmmi \ -V/usr/local/local/sbin:/swr.cn-central-221.ovaijisuan.com/mindformers/mindspore_glm_z1:20250414/bin/bash注意:●如果在许多机器上部署了容器的主机,则不会重复每台机器的容器名称。如果某些主机的主机名仍然相同,则在启动容器时需要更改容器的主机名。 ●所有后续操作均在容器中进行。 2。下载模型执行以下命令,以添加一个定制下载路径/house/work/work/glm-z1-9b-0414:导出hub_white_list_paths =/home/home/work/glm-z1-9b-0414练习python脚本文件,从摩尔社区到指定的公平/home/home/works/worver/glm z11-0414141414141414141414. The downlorsAd file contains the model code, weight, word segment model and sample code, and takes about 18GB of disk space: from openmind_hub import snapshot_downloadsnapshot_download (repo_, local_dir =/home/work/GLM-Z1-9B-0414. Tokenizer.Json ● Download time It is recommended to work with a stable network environment. Absolute Path auto_trans_ckpt:true/home/work/glm-z1-9b-0414/tocenizer.model#配置作为令牌文件2的完整路径2。启动MindimindSpore Transformers使用单击点击,它为单击的上拉脚本脚本Variable scriptvariable的环境设置和服务调整提供了脚本。您只需要输入文件模型目录即可快速提取服务。 Enter the Mindformers/Scripts directory, perform Mindie Startup Script CD/Home/Work/Mindformers/Scriptsbash Run_Mindie.Sh-Model-Name GLM-Z1-9B-0414 --- Model-Path/Home/Work/GLM-Z1-9B -0414-MAX-Prefill-batch-MAAMT 1 Parameter Description: ● -Model -name: Set name model ● --Model -Path:将模型的路径设置为查看日志:守护程序的成功开始时tail -f output.log! ``它出现在日志日志中,这意味着服务成功启动。 3。执行推理请求的测试。执行以下命令发送测试的流兴趣请求:curl -w \ ntime_total =%{time_total} \ n -h接受:application/json -h content -type -type:ap application/json -x post -d {输入:请在北京中引入一个令人惊叹的位置,参数:{do_sample:false,max_new_tokens:128},http:///127.0.0.0.0.1:1025/generate_stream_stream_stream_stream_stream_stream_stream_stream ix#03#表达模型代码,重量代码,重量代码和扩展图像。 Mindspore在AI框架中的经验扩大了部署环境部署影响的影响。对于相关使用问题,请发表评论以发行(链接:https://gitee.com/mindspore/mindformers/issues)。 Shengsi Mindspore AI框架将继续支持相关主流模型的演变,并根据开放的资源条件为所有开发人员提供玻璃和支持。