【Docker】部署若依项目——保姆级教程亲测

目录

1.部署后端

步骤1:修改mysql地址

步骤2:修改redis地址

步骤3:修改后端端口

步骤4:将项目打包成Jar包

​编辑 步骤5:编写Dockerfile

步骤6:制作镜像 启动容器 

步骤7:访问

2.前端打包

步骤1:修改端口

步骤2:修改后端请求地址

步骤3:打包

​编辑 步骤4:前端打包的文件放在nginx html中

步骤5:配置nginx配置文件

前置安装

安装Docker

Dokcer安装Nginx

Docker安装MySQL

Docker安装Redis

1.部署后端

步骤1:修改mysql地址

步骤2:修改redis地址

步骤3:修改后端端口

后端端口到时候与dockerfile端口那里保持一致 

步骤4:将项目打包成Jar包

 步骤5:编写Dockerfile

ps:在研究更新jar包 不用重新制作镜像 直接重启容器

#基础镜像使用jdk1.8
FROM java:8
 
#暴露8085端口
EXPOSE 8085

#运行容器内jar包
ENTRYPOINT ["java","-jar","/data/ruoyi-admin.jar"]

步骤6:制作镜像 启动容器 

#构建镜像
docker build -t ruoyi:1.0 .

#查看镜像
docker images

#启动容器
docker run --name ruoyi -it -v /root/data/ruoyi:/data -d -p 8085:8085 ruoyi:1.0

将当前目录 /root/data/ruoyi和容器内的/data目录进行挂载 这样更新jar包的时候 就不用再去重新构

建镜像 重新运行容器 更新完jar包直接docker restart重启容器即可

步骤7:访问

2.前端打包

步骤1:修改端口

步骤2:修改后端请求地址

步骤3:打包

 步骤4:前端打包的文件放在nginx html中

步骤5:配置nginx配置文件

 server {
    listen       80;
    server_name  localhost;
    charset utf-8;

    location / {
        root   /usr/share/nginx/html;
        try_files $uri $uri/ /index.html;
        index  index.html index.htm;
    }
		

    location /prod-api/ {
        proxy_set_header Host $http_host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header REMOTE-HOST $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_pass http://192.168.243.xxx:8085/;
    }

    error_page   500 502 503 504  /50x.html;
        location = /50x.html {
        root   html;
    }
}
### Deep Seek 本地部署详细教程 #### 环境准备 ##### 硬件需求 最低配置为 CPU 支持 AVX2 指令集,配备 16 GB 内存以及至少 30 GB 存储空间。为了更佳的性能体验,推荐使用 NVIDIA GPU (RTX 3090 或更新型号),搭配 32 GB RAM 和不少于 50 GB 的硬盘容量[^1]。 ##### 软件依赖 操作系统可以是 Windows、macOS 或 Linux 中的一种;对于打算利用 Open Web UI 功能的情况,则还需事先安装 Docker 工具。 #### 安装 Ollama 及模型获取 通过访问官方网址来下载并设置 ollama 应用程序,默认情况下该应用程序会被放置于 C:\Users\用户名\AppData\Local\Programs\Ollama 文件路径下(注意 AppData 是被隐藏起来的文件夹)。接着,在相同网站上选取预训练好的模型版本——例如默认选项 "7b" —— 并执行命令 `ollama run deepseek-r1` 来启动模型加载过程。成功之后,所下载的数据将会存储至 C:\Users\用户名\.ollama\models\blobs 这个位置[^2]。 #### 配置与试 考虑到实际应用中的效率问题,不同规模大小的模型会对计算机资源有不同的消耗程度。比如 i7-12700F 加 RTX4060Ti 16G 组合能够较为顺畅地处理较小尺寸如 7B 参数量别的模型实例,但对于更大参数量则可能出现响应速度下降的现象。 #### 数据安全保障措施 出于安全性考虑,建议采用虚拟机的方式来进行操作,特别是涉及到敏感资料处理的时候。这不仅有助于隔离外部网络风险,也能更好地控制内部计算环境的安全边界[^4]。 ```bash # 示例:创建基于 Ubuntu 的虚拟机用于 DeepSeek 部署前准备工作 vagrant init ubuntu/bionic64 vagrant up ```
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

陶然同学

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值