博客
关于我
Docker+Jenkins+Gitee+Node+Vue构建dist包并通过publish over ssh传输到服务器替换重启docker-compoet编排的nginx服务
阅读量:802 次
发布时间:2019-03-25

本文共 1586 字,大约阅读时间需要 5 分钟。

Docker-compose入门及SpringBoot+Vue+Redis+MySQL前后端分离项目部署

场景概述

为了实现前后端分离项目的高效部署与管理,采用Docker-compose搭建环境,是实现高效部署的理想选择。本文将详细介绍基于Docker-compose搭建SpringBoot后端与Vue.js前端的分离项目部署方案。

技术选型

项目的核心技术选型包括以下几个方面:

  • 后端框架:采用SpringBoot框架,利用其快速部署特性和丰富的插件支持。
  • 前端框架:基于Vue.js构建单页应用界面,因其快速开发特性和良好的社区支持。
  • 数据持久化:Redis用于缓存,MySQL用于数据存储,配合SpringData实现数据持久化。
  • 构建工具:采用Maven进行项目构建,通过Jenkins进行CI/CD管理。

环境搭建

前端环境搭建

version: '3'
services:
- name: vue
image: vue:latest
ports:
- "8080:8080"
volumes:
- ./vue/src:/vue/src
networks:
- vue-network

后端环境搭建

version: '3'
services:
- name: springboot
image: springboot:latest
ports:
- "8081:8081"
volumes:
- ./springboot/src:/springboot/src
networks:
- spring-network

依赖服务

version: '3'
services:
- name: redis
image: redis:latest
ports:
- "6379:6379"
volumes:
- redis_data:/data
- name: mysql
image: mysql:latest
ports:
- "3306:3306"
volumes:
- mysql_data:/var/lib/mysql

部署流程

  • 项目初始化 通过Maven进行项目初始化,并配置必要的依赖包和插件。确保Jenkins文件夹结构规范,以便CI/CD自动化。

  • 代码提交与构建 将代码提交至Git仓库,通过Jenkins配置相应的CI/CD流水线。确保构建过程自动化,及时反馈构建状态。

  • 部署准备 构建完成后,Jenkins根据预设的配置自动触发部署流程。将构建好的文件传送至远程服务器,并执行部署命令。

  • 环境配置 在服务器上部署完成后,需要配置环境变量。通过Docker-compose文件中预定义的环境变量,将连接信息、密码等配置到SpringBoot和MySQL实例中。

  • 服务重启 在部署完成后,通过Jenkins脚本进行自动化操作,将需要执行的重启命令触发。此外,通过Docker命令备份现有配置文件,以防万一。

  • 维护与更新

  • 容器管理 通过Docker Compose文件管理各服务容器。定期检查容器状态,及时处理崩溃情况。

  • 配置备份 在每次部署之前将重要配置文件备份到远程存储,确保在紧急情况下能够快速恢复。

  • 自动化重启 烘焙部署完成后,通过脚本自动触发服务重启。确保各项服务能够正常运行,系统稳定性得到保障。

  • 通过以上步骤,可以清晰地实现SpringBoot+Vue+Redis+MySQL前后端分离项目的高效部署与管理。这一方案充分利用了Docker技术优势,使开发流程更加简化,可维护性得到提升。

    转载地址:http://uzcyk.baihongyu.com/

    你可能感兴趣的文章
    ngrok内网穿透可以实现资源共享吗?快解析更加简洁
    查看>>
    NHibernate学习[1]
    查看>>
    NHibernate异常:No persister for的解决办法
    查看>>
    NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
    查看>>
    NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
    查看>>
    NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
    查看>>
    NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
    查看>>
    NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
    查看>>
    NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
    查看>>
    NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
    查看>>