当前位置: 首页 > news >正文

手机网站 微信链接怎么做网站页面模板 建设中

手机网站 微信链接怎么做,网站页面模板 建设中,宜春做网站的公司哪家好,网站开发人员工资计入无形资产在此之前,我们已成功利用Docker与Ollama框架,在内网环境中部署了Qwen2模型。下面我们再来看一下使用Docker与vLLM框架部署Qwen2模型。 准备vLLM镜像 在一台具备网络环境的机器上执行以下命令,拉取vLLM的镜像: # 官方镜像 docke…

在此之前,我们已成功利用Docker与Ollama框架,在内网环境中部署了Qwen2模型。下面我们再来看一下使用Docker与vLLM框架部署Qwen2模型。

准备vLLM镜像

在一台具备网络环境的机器上执行以下命令,拉取vLLM的镜像:

# 官方镜像
docker pull vllm/vllm-openai:latest# 如果因为墙的原因,以上命令拉取不到,可以去看看下面这些仓库
Docker仓库:https://docker.1panel.live ✅网友自建
Docker仓库:https://docker.agsv.top  ✅网友自建
Docker仓库:https://docker.agsvpt.work  ✅网友自建
Docker仓库:https://dockerpull.com ✅网友自建
Docker仓库:https://dockerproxy.cn ✅网友自建

下载Qwen2-7B-Instruct模型

我这里下载的是Qwen2-7B-Instruct-GPTQ-Int4的模型。下载地址:

https://huggingface.co/Qwen/Qwen2-7B-Instruct-GPTQ-Int4

编写Dockerfile

我们将Qwen2模型打包上传到服务器,然后编写Dockerfile:

# 基础镜像
FROM vllm/vllm-openai:latest# 暴露端口
EXPOSE 8000# 将模型上传到基础镜像
ADD Qwen2-7B-Instruct-GPTQ-Int4 /home/Qwen2-7B-Instruct-GPTQ-Int4# 容器启动要执行的命令,注意这里一定要是python3
ENTRYPOINT ["python3","-m","vllm.entrypoints.openai.api_server","--served-model-name","Qwen2-7B-Instruct-GPTQ","--model","/home/Qwen2-7B-Instruct-GPTQ-Int4"]

构建镜像

执行docker build命令,构建docker镜像:

docker build -t vllm_qwen2_7b:1.0 -f Dockerfile .

启动容器

执行以下命令,启动docker容器:

docker run -itd --runtime nvidia --gpus all --name vllm_qwen2 --env "HUGGING_FACE_HUB_TOKEN=<secret>" -p 8000:8000 vllm_qwen2_7b:1.0 --max-model-len 8129

经过启动、测试,模型运行没问题。

然后,我们就可以将镜像导出,提供给内网环境使用了:

# 镜像导出
docker save -o vllm_qwen2.tar vllm_qwen2_7b:1.0
# 镜像导入
docker load -i vllm_qwen2.tar

问题解决

问题1、No CUDA GPUs are available

解决方法:

(1)检查是否正确安装了CUDA驱动,执行nvidia-smi可查看。

(2)docker run命令中没有添加--runtime nvidia --gpus all。

问题2:unknown or invalid runtime name: nvidia

解决方法:

当Docker容器需要使用GPU时,需要配置Docker的default-runtimenvidia,然后重启Docker。

{"runtimes":{
"nvidia":{
"path":"nvidia-container-runtime",
"runtimeArgs":[]
}
},
"default-runtime":"nvidia"
}

 如果是Windows版Docker,需要在Docker Desktop中点击右上角的Setting,然后点击Docker Engine,在这里设置完上述配置后,点击restart

 

问题3、Try increasing gpu_memory_utilization or decreasing max_model_len when initializing the engine.

解决方法:

因为GPU内存限制而需要调整模型的最大序列长度。在docker run命令最后加--max-model-len限制。

--max-model-len 8129
http://www.yayakq.cn/news/543568/

相关文章:

  • 企业wordpress主题免费下载广东网络优化推广
  • 哪个设计网站赚钱网站分析设计做的项目的过程
  • 网站建设市区做一个网站要注意什么
  • 门户网站做wordpress 无法连接到ftp服务器
  • 暗网网站有那些网站报名怎么做
  • 自己想学做博客网站吗thinkphp网站建设课程
  • 打不开建设银行网站logo模板
  • 微站官网wordpress单页淘宝客主题
  • 游戏网站开发试验报告广西建设教育网站
  • 工信部个人网站备案建设银行个人网上银行app
  • 网站制作教程下载小程序商城怎么推广引流
  • 中文网站建设合同营销网站开发系统
  • 模板网站源码wordpress缺少临时文件夹
  • 驻马店河南网站建设房产网站关键词优化
  • 医疗 企业 网站建设江门站官网
  • 黄冈网站开发建设电子商务网站论文
  • 蚌埠哪里做网站wordpress权限ip
  • 郑州中色十二冶金建设有限公司网站常州网站推广招聘
  • 我想做教育网站那里做无锡游戏网站建设公司
  • 成都装修建材网站建设宁波专业网站建设怎么做
  • 北海网站建设网怎么推广自己的网站
  • 免费的网站平台天津智能网站建设哪家好
  • 一个虚拟主机可以做两个网站吧如何建立一个网站链接把文件信息存里
  • 天水网络推广搜索引擎优化有哪些要点
  • 做网站个体户经营范围影响网站速度的代码
  • 泉州最专业微信网站建设开发wordpress初学
  • 邯郸网站建设xy0310软文代写网
  • 做老师讲课视频的教育网站影楼ps后期修片的教程
  • 创建网站的流程是什么营销方案怎么写模板
  • 怎么做网站的百度收录电商运营入门基础知识