
TL;DR:借助 NexGPU 平台,选用预设模板后,大约 10 分钟就能完成 Qwen3.5 Aggressive 去审查版部署,整个过程无需手动搭建环境。
继续选择在L站内测,各位佬通过我们的连接注册,
前言
最近逛论坛时看到有大佬分享了 Qwen3.5 的部署方法,不过对很多新手来说,实际操作依然不太友好,或者受限于本地设备性能,没办法亲自体验。正好公司这段时间上线了 GPU 算力服务器租赁服务,于是我让同事提前做好了 Qwen3.5 Aggressive 激进去审查版 的一键部署模板,这里顺手整理一个简要的部署流程。
部署步骤
第一步:进入 NexGPU 官网
访问 https://nexgpu.net/zh/register/?ref=D03EE912,进入「创建实例」页面。
创建实例入口
第二步:选择部署模板
选择 「QWEN3.5-35B 去审查版自适应」 模板。
该模板会依据后续所选实例的 GPU 显存,自动匹配对应的模型版本,并决定是否启用视觉能力,适配规则如下:
| 硬件条件 | 量化精度 | 上下文长度 | 并发 | NGL | 视觉 |
|---|---|---|---|---|---|
| 单卡 ≥ 120 GB | Q8_0 | 131072 | 2 | 99 | ✅ 开启 |
| 单卡 ≥ 70 GB | Q6_K | 131072 | 2 | 99 | ✅ 开启 |
| 4 卡以上,每卡 ≥ 30 GB | Q8_0 | 131072 | 2 | 99 | ✅ 开启 |
| 2 卡以上,每卡 ≥ 24 GB | Q6_K | 65536 | 2 | 99 | ✅ 开启 |
| 单卡 ≥ 24 GB | Q5_K_M | 65536 | 1 | 99 | ✅ 开启 |
| 单卡 ≥ 19 GB | Q4_K_M | 32768 | 1 | 99 | ❌ 关闭 |
| 单卡 ≥ 17 GB | IQ4_XS | 24576 | 1 | 99 | ❌ 关闭 |
| 单卡 ≥ 15 GB | Q3_K_M | 16384 | 1 | 60 | ❌ 关闭 |
| 其他(< 15 GB) | IQ2_M | 8192 | 1 | 40 | ❌ 关闭 |
第三步:选择实例并创建
选好模板后,再挑选满足条件的实例。这里为了让演示更顺利,直接使用了 H200 7000Mbps 带宽 的实例。
关于 NexGPU
我们与全球多家 GPU 算力服务商合作,对多方资源进行整合,为用户提供预装、易上手的模板,实现高性价比的 GPU 算力租赁服务。从 GTX 1060 到 H200 这类高端 GPU,平台实例均有覆盖,并且支持最低按小时计费(大批量或包月可享折扣)。
2|690x343
选定实例后,点击「下一步」确认配置。
确认配置
第四步:等待实例就绪
接下来等待约 10 分钟,实例即可完成创建。
如果所选实例带宽较低、配置偏弱,这一过程可能会延长到 20 分钟 左右。
实例创建中
第五步:SSH 连接实例
实例创建完成后,先创建 SSH Key,再通过该 Key 连接实例。
创建 SSH Key
SSH 连接成功后,就可以看到 LLaMA 的 API 地址以及 UI 页面。
连接成功
效果测试
测试一:代码生成能力
先让去审查版的 Qwen3.5 尝试写一个勒索木马的 DEMO:
代码生成测试
它完全没有拒绝,比较顺畅地直接给出了一个 demo。
测试二:内容生成能力
既然已经部署好了,当然也要顺便测试更多使用场景……
内容生成测试
总结
测试下来,这个去审查模型的风格确实相当激进——几乎没有道德约束和内容限制,面对各种类型的请求,基本都不会拒绝。
也提醒各位佬在测试时务必注意安全,并遵守所在地的法律与合规要求。
PS:目前还处于我们的封测阶段,如果各位佬发现问题,欢迎及时私信我反馈,会赠送账户余额。如果遇到开出来的机器失控、装机失败等情况,删机前请先保留截图发我。