安装完docker和nvidia docker 我们就可以愉快的配置想要的环境啦。下面以拉取pytorch镜像作为实例演示!# 1.拉取镜像文件 使用docker pull 或者 直接使用docker run 运行一个容器(如果本地没有相关镜像文件就会直接拉取,如果有就使用本地的)。我这里直接使用docker run # -v参数表示宿主主机和所运行的容器的映射关系,一定要搞清楚,后续配置pycharm也需要! sudo docker run --name ECO --gpus all -it -v $PWD:/home pytorch/pytorch:1.5.1-cuda10.1-cudnn7-devel bash以上命令就能够运行一个容器,接下来我们可以在该容器内执行pip命令来安装所需要的包。完成之后我们将使用如下命令生成一个新的镜像:docker commit 镜像id 自定义印象名字(注意要小写)
上面的这一步一定要确保出现Connection successful!否则是不能正确配置的!
我一开始的时候报错:Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon run
百度上 有的人说需要重启docker,但是这招好像对我不太管用。:
指定python解释器
通过以上 就可以使用docker生成的镜像作为我们的解释器来训练我们的模型啦-------------------------------------------------手动分割线-----------------------------------------------
回顾一下关于docker的几个命令
docker pull :拉取镜像(可通过tag灵活拉取)
docker run 运:行容器
docker ps :打印目前正在运行的容器
docker rm 容器id :删除运行容器
docker rmi 镜像id:删除本地镜像
docker commit 容器id 自定义镜像名:将该容器生成镜像向docker容器内添加path环境变量:更新$HOME目录的.bashrc文件并保存(vi /~.bashrc)添加路径(export PATH=/opt/conda/lib/python3.7/site-packages/cv2/qt/plugins/platforms/libqxcb.so:$PATH)验证该容器是否添加path环境变量成功:输入命令env,若PATH内存在刚刚添加的变量,则成功。