通义千问是阿里云开发的 [[LLM]] 模型。
模型
所需显存估算: 模型大小 * 1.2 + KV Cache(0.5+) + 框架开销(0.5 ~ 1G)
KV Cache 计算:显存大小 * gpu-memory-utilization - 模型权重
关闭思考/thinking
Qwen 3.5 模型不支持通过 /nothink 的方式关闭,需要在 [[openapi]] 请求参数进行关闭:
response = client.chat.completions.create( model="Qwen3.5-35B", messages=[{"role": "user", "content": "你好"}], extra_body={ "top_k": 20, "chat_template_kwargs": {"enable_thinking": False}, },)