技术标签: FastDFS Nginx Linux 集群 JavaWeb
于前几天搭建了 FastDFS 单机版来使用,而实际应用中,一般使用的都是集群版本的 FastDFS,相比于单机版,大体的搭建差不多,只不过配置文件的内容有所不同。
- Nginx 服务器一台,用于作为 HTTP 访问的入口
- 本次虚拟机的 IP 为 192.168.229.167
- Tracker 集群,这里配置两台 Tracker 服务器
- IP 分别为 192.168.229.170,192.168.229.171
- 在 Tracker 上部署 Nginx,提供 HTTP 访问的反向代理、负载均衡以及缓存等
- Storage 集群,这里配置两台 Storage 服务器,分为两个组
- 同一组的 Storage 服务器存储的数据相同
- 同一组的数据存储容量取决于该组中存储容量最小的那台
- IP 为 192.168.229.175,192.168.229.176
- 部署 Nginx 以及 FastDFS 的 Nginx 扩展模块,提供访问与下载服务等
操作文件时,将直接使用相关的 api 连接到 Tracker 服务器中进行增删改查。访问时,则使用 Nginx 服务器做负载均衡转发请求到 Tracker 服务器,由 Tracker 服务器中的 Nginx 再转发给 Storage 服务器进行处理。
本次练习的环境
- 虚拟机工具 :VMware Workstations 14 Pro
- 操作系统 :CentOS 7 64位
- 为了方便起见,这里已经将防火墙关闭了
- 实际应用中,则开启防火墙,开放相应的端口即可
前期准备的安装包有:
libfastcommon(这里使用 1.0.38 版本):https://github.com/happyfish100/libfastcommon/releases
FastDFS(这里使用 5.11 版本):https://github.com/happyfish100/fastdfs/releases
fastdfs-nginx-module(这里使用 1.16 版本):https://github.com/happyfish100/fastdfs-nginx-module/releases
ngx_cache_purge(这里使用 2.3 版本):http://labs.frickle.com/files/
Nginx(这里使用 1.15.1 版本):http://nginx.org/en/download.html
安装软件
- Nginx 服务器
- ngx_cache_purge
- Nginx
- Tracker 服务器
- libfastcommon
- FastDFS
- Nginx
- ngx_cache_purge
- Storage 服务器
- libfastcommon
- FastDFS
- Nginx
- ngx_cache_purge
- fastdfs-nginx-module
根据上面的列表将相关的软件拷贝到各个服务器中的 /root 目录下,并进行解压操作(由于以上的软件我下载的都是 tar.gz 压缩格式的,故统一使用命令:tar zxvf XXX.tar.gz
来进行解压操作。
FastDFS 的安装其实很简单,在上一回的文章已经讲过了(FastDFS 单机版环境搭建),Tracker 服务器和 Storage 服务器都需要安装 FastDFS,这里快速的过一遍。
# 在线安装依赖环境
yum install gcc gcc-c++ make automake autoconf libtool pcre* zlib openssl openssl-devel
# 进入 root 目录下
cd /root
# 解压 libfastcommon 压缩包
tar zxvf libfastcommon-1.0.38.tar.gz
# 进入 libfastcommon 文件夹中,编译 libfastcommon 以及安装
cd libfastcommon-1.0.38
./make.sh && ./make.sh install
# 由于 libfastcommon 安装的路径在 /usr/lib64/
# 但是 FastDFS 主程序设置的 lib 目录是在 /usr/local/lib,所以需要创建软链接
# 不过试了一下,不创建也没问题,可能是使用的版本更新了,亦或者因为我的 CentOS7 是 64 位的
# 如果 FastDFS 安装有问题,则运行以下四条命令重新安装 FastDFS
# ln -s /usr/lib64/libfastcommon.so /usr/local/lib/libfastcommon.so
# ln -s /usr/lib64/libfastcommon.so /usr/lib/libfastcommon.so
# ln -s /usr/lib64/libfdfsclient.so /usr/local/lib/libfdfsclient.so
# ln -s /usr/lib64/libfdfsclient.so /usr/lib/libfdfsclient.so
# FastDFS 安装
cd /root
# 解压 FastDFS 压缩包,编译以及安装
tar zxvf fastdfs-5.11.tar.gz
cd fastdfs-5.11
./make.sh && ./make.sh install
到此,FastDFS 就安装好了,接下来就是配置了。
两台 Tracker 服务器配置是相同的,这里以其中一台为例
# 创建 Tracker 的存储日志和数据的根目录
mkdir -p /home/fastdfs/tracker
cd /etc/fdfs
cp tracker.conf.sample tracker.conf
# 配置 tracker.conf
vi tracker.conf
在这里,tracker.conf 只是修改一下 Tracker 存储日志和数据的路径
# 启用配置文件(默认为 false,表示启用配置文件)
disabled=false
# Tracker 服务端口(默认为 22122)
port=22122
# 存储日志和数据的根目录
base_path=/home/fastdfs/tracker
这里,Tracker 服务就可以正常使用了.不过我们也可以顺带配置一下 Tracker 服务器中客户端配置文件
mkdir -p /home/fastdfs/client
# 修改 Tracker 服务器客户端配置文件
cp /etc/fdfs/client.conf.sample /etc/fdfs/client.conf
vi /etc/fdfs/client.conf
client.conf 中修改 base_path 和 Tracker 服务器的 IP 地址与端口号即可
# 存储日志文件的基本路径
base_path=/home/fastdfs/client
# Tracker 服务器 IP 地址与端口号
tracker_server=192.168.229.170:22122
tracker_server=192.168.229.171:22122
这里的两台 Storage 服务器配置大体上相同,不同的分组,主要就是
group_name
的配置不同,其它配置基本一致。同一组的 Storage 服务器配置大体上一致。
# 创建 Storage 的存储日志和数据的根目录
mkdir -p /home/fastdfs/storage
cd /etc/fdfs
cp storage.conf.sample storage.conf
# 配置 storage.conf
vi storage.conf
在这里,storage.conf 只是修改一下 storage 存储日志和数据的路径
# 启用配置文件(默认为 false,表示启用配置文件)
disabled=false
# 组名,第一组为 group1,以此递增
group_name=group1
# Storage 服务端口(默认为 23000)
port=23000
# 数据和日志文件存储根目录
base_path=/home/fastdfs/storage
# 存储路径,访问时路径为 M00
# store_path1 则为 M01,以此递增到 M99(如果配置了多个存储目录的话,这里只指定 1 个)
store_path0=/home/fastdfs/storage
# Tracker 服务器 IP 地址和端口,单机搭建时也不要写 127.0.0.1
# tracker_server 可以多次出现,如果有多个,则配置多个
tracker_server=192.168.229.170:22122
tracker_server=192.168.229.171:22122
在这里,192.168.229.175 的 group_name 为 group1,192.168.229.175 为 group2
启动服务时,先启动 Tracker 服务,再启动 Storage 服务器
# 启动 Tracker 服务
# 其它操作则把 start 改为 stop、restart、reload、status 即可。Storage 服务相同
/etc/init.d/fdfs_trackerd start
# 启动 Storage 服务
/etc/init.d/fdfs_storaged start
# 可以通过 fdfs_monitor 查看集群的情况
# 查看 Storage 是否已经注册到 Tracker 服务器中
# 当查看到 ip_addr = 192.168.229.175 (localhost.localdomain) ACTIVE
# ACTIVE 表示成功
/usr/bin/fdfs_monitor /etc/fdfs/storage.conf
此时应该可以看到有两个分组,而且都是 ACTIVE 状态的。
接下来,每台 Storage 都如下安装与配置 Nginx
# 配置 fastdfs-nginx-module 模块,这里使用的是 1.16 版本
# 修改 fastdfs-nginx-module 的 config 配置文件
vi /root/fastdfs-nginx-module/src/config
将
CORE_INCS="$CORE_INCS /usr/local/include/fastdfs /usr/local/include/fastcommon/"
中的 local 去掉,修改为CORE_INCS="$CORE_INCS /usr/include/fastdfs /usr/include/fastcommon/"
。然后保存即可
# Nginx 以及模块安装
cd /root/nginx-1.15.1
# 添加 fastdfs-nginx-module 模块和 ngx_cache_purge 模块
./configure --add-module=/root/fastdfs-nginx-module/src --add-module=/root/ngx_cache_purge-2.3
# 编译以及安装
make && make install
# fastdfs-nginx-module 和 FastDFS 配置文件修改
# 复制 FastDFS 的部分配置文件到 /etc/fdfs
cd /root/fastdfs-5.11/conf/
cp http.conf mime.types /etc/fdfs/
# 复制 fastdfs-nginx-module 源码中的配置文件到 /etc/fdfs 中
cp /root/fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs/
vi /etc/fdfs/mod_fastdfs.conf
mod_fastdfs.conf 配置如下
# Storage 日志文件
base_path=/home/fastdfs/storage
# Tracker 服务器IP和端口修改,如果有多个就配置多个
tracker_server=192.168.229.170:22122
tracker_server=192.168.229.171:22122
# Storage 服务器端口(默认为 23000)
storage_server_port=23000
# 当前 Storage 服务器的组名
group_name=group1
# 请求的 url 中是否包含 group 名称,改为 true,包含 group
url_have_group_name = true
# 配置 Storage 存储目录信息,修改 store_path0 的信息,有多个存储目录就配置多个
# 必须和 storage.conf 中的配置一致
store_path0=/home/fastdfs/storage
# 有多少个分组
group_count = 2
# 每个小组的信息
[group1]
group_name=group1
storage_server_port=23000
store_path_count=1
store_path0=/home/fastdfs/storage
[group2]
group_name=group2
storage_server_port=23000
store_path_count=1
store_path0=/home/fastdfs/storage
以上需要注意的还是组名那里,在这里,192.168.229.175 的 group_name 为 group1,192.168.229.175 为 group2
接下来就是配置 Nginx 了
vi /usr/local/nginx/conf/nginx.conf
在配置文件中添加一个 server
server {
listen 8888;
server_name localhost;
# 配置为支持 group0-group9,以及 M00-M99,以便于以后扩容
# 由于配置了 ngx_fastdfs_module 模块,当该服务器找不到文件时,则会去文件的源服务器中寻找
location ~/group([0-9])/M([0-9])([0-9]) {
ngx_fastdfs_module;
}
}
到此,Storage 服务器就配置完毕了
Tracker 服务器的安装与配置就简单些,两台 Tracker 服务器的配置执行相同的操作即可
# Nginx 以及模块安装
cd /root/nginx-1.15.1
# 添加 ngx_cache_purge 模块
./configure --add-module=/root/ngx_cache_purge-2.3
# 编译以及安装
make && make install
# 配置 Nginx
vi /usr/local/nginx/conf/nginx.conf
配置如下
# 设置 group1 的服务器
upstream fdfs_group1 {
server 192.168.229.175:8888 weight=1 max_fails=2 fail_timeout=30s;
# server 192.168.229.177:8888 weight=1 max_fails=2 fail_timeout=30s;
}
# 设置 group2 的服务器
upstream fdfs_group2 {
server 192.168.229.176:8888 weight=1 max_fails=2 fail_timeout=30s;
# server 192.168.229.178:8888 weight=1 max_fails=2 fail_timeout=30s;
}
server {
listen 8000;
server_name localhost;
# 请求为 group1 的转发给 group1 的服务器组进行处理
location ~/group1/M([0-9])([0-9]) {
proxy_pass http://fdfs_group1;
}
# 请求为 group2 的转发给 group2 的服务器组进行处理
location ~/group2/M([0-9])([0-9]) {
proxy_pass http://fdfs_group2;
}
}
Nginx 服务器作为该 FastDFS 集群的统一入口,进行负载均衡处理
# 安装 Nginx 依赖环境
yum install gcc gcc-c++ make automake autoconf libtool pcre* zlib openssl openssl-devel
# Nginx 以及模块安装
cd /root/nginx-1.15.1
# 添加 ngx_cache_purge 模块
./configure --add-module=/root/ngx_cache_purge-2.3
# 编译以及安装
make && make install
# 配置 Nginx
vi /usr/local/nginx/conf/nginx.conf
Nginx 配置如下
# 设置 tracker
upstream fdfs_tracker {
server 192.168.229.170:8000 weight=1 max_fails=2 fail_timeout=30s;
server 192.168.229.171:8000 weight=1 max_fails=2 fail_timeout=30s;
}
server {
listen 80;
server_name localhost;
# 将所有 FastDFS 请求转发给 Tracker 集群处理
location ~/group([0-9])/M([0-9])([0-9]) {
proxy_pass http://fdfs_tracker;
}
}
# 启动 Nginx
/usr/local/nginx/sbin/nginx
# 重启 Nginx
/usr/local/nginx/sbin/nginx -s reload
# 停止 Nginx
/usr/local/nginx/sbin/nginx -s stop
关于扩容,有两种方式。
- 第一种常见于 Storage 服务器添加新的硬盘,然后修改配置文件进行扩容。不过要注意的是,同一组的最大容量取决于容量最小的那台服务器。
- 第二种扩容则是添加服务器,设置为新的组。
搭建好了就是启动各个服务器中的服务即可。在此就不测试了,和单机版的使用类似。集群版到此也就告一段落了。建议是先试试配置单机版,然后再来配置一下集群的版本。关于 FastDFS,计划还会码一篇 Java 的使用笔记。
在实践中成长!
HochenChong
2018-7-13
文章浏览阅读826次。线段树的概念线段树(Segment Tree)也是一棵树,只不过元素的值代表一个区间。常用区间的统计操作,比如一个区间的最大值(max),最小值(min),和(sum)等等。线段树是一种平衡二叉搜索树(完全二叉树),它将一个线段区间划分成一些单元区间。对于线段树中的每一个非叶子节点[a,b],它的左儿子表示的区间为[a,(a+b)/2],右儿子表示的区间为[(a+b)/2+1,b],..._线段树 max
文章浏览阅读625次。PRBS检测主要应用在设备开局或维护期间,在没有合适误码仪的情况下,使能了PRBS检测功能的设备自行发送PRBS码流,PRBS码流通过被测试网络,经远端设备环回(远端设备需要配置环回),经过PRBS监视模块的处理,判断发送与接收的PRBS码流是否相同,以此来判定被测试网络链路或设备是否正常.前提条件,在对接设备中,在配置用户侧PRBS检测前,需在对端设置远端环回,在配置网络侧PRBS检测前,需在对端设置本地环回。(2) 查看retimer芯片的prbs误码(retimer hrx测误码统计)_prbs
文章浏览阅读1.1w次。很多人发现自己的matlab打不开,证书失效了(很多破解版的matlab证书截止2017年失效)献上方法:打开matlab的license,删掉。换成本博客中的license。(一般安装位置为C:\Program Files\MATLAB\R2008b\licenses)一步即可!亲测有效。后续还有关于matlab问题的更新,都是博主亲身经历,希望能尽绵薄之力。_matlab选定的许可证文件路径无效
文章浏览阅读1.1k次。团队开发git提交提交方法注意细节Byte-compiled / optimized / DLL filesC extensionsDistribution / packagingPyCharm filesJupyter NotebookUnit test / coverage reportsSphinx documentationDjangoFlask:thinking:协同开发细节模块管理根目录train.pypred.pydata配置argparseyaml_python工程化
文章浏览阅读2k次。假期 2020.01.19题目描述最优二叉搜索树简单说来,就是使查找的过程消耗的次数最小,即大数据存储与查找方面的较优性能的算法。此处举例数字的存储与查找,如下图:其中pi为搜索概率,qi为不成功概率;思路分析对于寻找最优问题的算法,动态规划一直都是比较好的算法,这儿也是采用动态规划的算法实现该问题的解决。动态规划问题,一般是需要判断问题时候有最优子结构,那么此处设存在序列{s..._最优二叉搜索树算法实现
文章浏览阅读450次。最近要快速做一些DEMO,所以直接用了web.py做后台web服务,记录下最基本最简单使用方法,理解一下它的逻辑。web.py的介绍就不说了,一搜就有,直接开始。我的环境是这样的:系统:ubuntu 22.04python: 3.8 (conda环境)如果大家用下来和我经历的不一样,那就再琢磨琢磨,总会解决的~_web.py怎么引用
文章浏览阅读2.4k次,点赞15次,收藏56次。VS Code 配置C/C++环境VS Code简介VS Code 插件安装安装C/C++编译器MinGW配置系统环境变量环境变量配置作用说明配置成功验证配置VS Code(重点)调试配置原理说明(授人以渔,一定要看)结语VS Code简介最近重新回顾一下C语言,只是写几个小程序,也就没有安装Visual Studio这个大家伙,选择了轻量编程工具VS Code。个人比较喜欢VS Code这种..._vs c/c++ build在哪里
文章浏览阅读1.6w次,点赞2次,收藏10次。1 简介Ubuntu 16.04安装完后,还需要做一些配置才能愉快的使用,包括添加软件源、安装搜狗输入法、Chrome浏览器、网易云音乐、配置快捷键、安装git等等,下面就跟着我来配置吧,just do it2 版本选择如果你是小白,不想折腾,可以直接选择安装deepin linux,中文名”深度Linux”,这个是国内目前最好用的Linux之一,开箱即用,常用软件都安装好了,甚至连最新版的..._6.ubuntu安装三方软件(比如搜狗拼音)命令是什么。
文章浏览阅读3w次,点赞10次,收藏10次。名称:全连接。意思就是输出层的神经元和输入层的每个神经元都连接。例子: AlexNet 网络中第一个全连接层是这样的:layer { name: "fc6" type: "InnerProduct" bottom: "pool5" top:"fc6" param { lr_mult: 1 decay_mult: 1 } par_cnn 模型全连接层 标识符号
文章浏览阅读815次。SharePreferences类是一个轻量级的存储类,特别适合用于保存软件配置参数。使用SharedPreferences保存数据,其背后是用xml文件存放数据。保存路径:找到DeviceFileExplorer /data/data/PACKAGE_NAME/shared_prefs目录下。private SharedPreferences sharepreferences;//实例化 SharedPreferencesprivate SharedPreferences...._android studio写一个有数据存取相关功能的
文章浏览阅读410次。说到“秒杀”,恐怕大多数人想到的就是“双11”,“促销”,”买买买“等火爆的场面吧大家为了打折商品蜂拥而至,造成了电商网站一片繁华的景象。但作为程序员的我们,看到的却是高并发和可靠性。无论你处在软件开发的哪个阶段,都希望能够设计一套属于自己的秒杀系统。..._springboot架构 接入层
文章浏览阅读655次,点赞23次,收藏18次。腾讯总裁刘炽平也曾称,腾讯在电商方面仍有非常大的发展空间,但仍希望能够循序渐进,一步一个脚印,逐渐打造适合自身的基础设施,在用户体验与商家投资回报率中找寻最佳平衡点。而视频号的话,没有什么引流品之类的低价品,只做利润品,商家拿着低价引流品去对接视频号主播,只会被主播看不起,认为没有实力。从视频号小店本身来看,当流量持续从商家的私域引入到小店成交,并促成源源不断的交易后,更便于养成用户在小店持续购买的习惯。现在已经在做视频号店铺的商家,和已经在做视频号的带货达人,都表示抖快淘目前是一片红海,