会员专属,加入会员后,可免费下载!本站资源仅支持搭载Apple Silicon Mac M系列 GPU加速芯片。 中国的 AI 大模型领域再添新星!由阿里巴巴 Qwen 团队推出的 QwQ-32B 大语言模型 (LLM) 以其精巧的设计和卓越的性能,引发了业界的广泛关注。与参数量高达 6710 亿的 DeepSeek R1 (其中 370 亿被激活) 相比,QwQ-32B 仅有 320 亿参数,但其性能却能与之媲美,甚至在某些测试中超越了 DeepSeek R1。这意味着,您可以用更低的成本,在本地轻松运行性能卓越的大模型。 QwQ-32B 在一系列基准测试中进行了评估,测试了数学推理、编程能力和通用能力。以下结果展示了 QwQ-32B 与其他领先模型的性能对比,包括 DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-70B、o1-mini 以及原始的 DeepSeek-R1。 为了方便大家,我已准备好相关的安装包,下载链接在右侧网盘。登录后即可下载!当然,您也可以访问官方网站下载。 以下是包含的安装文件信息: 解压下载的 完成上述步骤后,您就可以通过命令行与QwQ-32B进行对话。 如果您希望使用客户端软件,也可以继续进行下一步。 安装完成后,界面如下所示。选择QwQ-32B模型后,您就可以在ChatWise的界面中与QwQ-32B愉快地聊天、绘制图表或编写代码,体验极佳。 总结: QwQ-32B是阿里巴巴Qwen团队推出的一个以推理为中心的开源LLM,以1/21的参数实现了媲美DeepSeek R1的性能,且成本仅为1/10,这标志着AI大模型正从”大力出奇迹”向”精巧出智慧”的范式转变。证明了小参数也能实现大模型级别的性能,对于希望在本地部署大模型的用户来说,QwQ-32B无疑是一个极具吸引力的选择。🚀DeepSeek青春版大模型QwQ-32B,参数仅为DeepSeek R1 的 1/21,成本仅 1/10!
附:Mac 安装教程及安装包!
📥 本地安装教程
1. 下载相关安装包
文件名
大小
用途
0-Ollama-darwin.zip
188.5 MB
Ollama的Mac版本安装包,用于本地部署和运行大语言模型
1-Run-QwQ-32B.command
748字节
Mac版启动脚本,用于启动Ollama服务并运行QwQ-32B模型
2-ChatWise_0.6.26_aarch64.dmg
12.7 MB
ChatWise的Mac ARM架构安装包,提供可视化的聊天交互界面
2. 安装Ollama
0-Ollama-darwin.zip
文件,将Ollama应用拖入Applications文件夹即可完成安装。3. 运行
1-Run-QwQ-32B.command
4. 安装
2-ChatWise_0.6.26_aarch64.dmg