& lt;复述,演练(6)复述,主从模式搭建祝辞。
& lt;复述,演练(6)复述,主从模式搭建祝辞中仅仅配置了复述,主从环境。分别配置了2个主从结构。
分别是1。有向无环,2星型模型。配置起来非常简单。但是,遗留了一个尾巴,没有阐述。如果大师宕掉了怎么办?复述,如何实现故障转移故障转移?本文,就重点说一下这块。主要内容
- <李>
手动实现故障转移效果
哨兵实现自动故障转移效果
李>
<强>手动实现故障转移效果强>
#有向无环模型(参照复述,演练(6),复述,主从模式搭建内容) (root@hadoop2 复述)#,ps -ef | grep 复述 root ,,,,, 2495,,,,, 1,, 2, 20:06 ?,,,,,,,, 00:00:01 bin/redis-server *: 6379 root ,,,,, 2503,,,,, 1,, 1, 20:06 ?,,,,,,,, 00:00:00 bin/redis-server *: 6381 root ,,,,, 2508,,,,, 1,, 1, 20:06 ?,,,,,,,, 00:00:00 bin/redis-server *: 6380 #主(有一个从6380) 127.0.0.1:6379> info 复制 #,复制 角色:主 connected_slaves: 1 slave0: ip=127.0.0.1,端口=6380,在线状态=,抵消=99,延迟=1 master_repl_offset: 99 repl_backlog_active: 1 repl_backlog_size: 1048576 repl_backlog_first_byte_offset: 2 repl_backlog_histlen: 98 6379 # Slave1 连接主 127.0.0.1:6380> info 复制 #,复制 角色:奴隶 master_host: 127.0.0.1 master_port: 6379 master_link_status: master_last_io_seconds_ago: 5 master_sync_in_progress: 0 slave_repl_offset: 197 slave_priority: 100 slave_read_only: 1 connected_slaves: 1 slave0: ip=127.0.0.1,端口=6381,在线状态=,抵消=197,延迟=0 master_repl_offset: 197 repl_backlog_active: 1 repl_backlog_size: 1048576 repl_backlog_first_byte_offset: 2 repl_backlog_histlen: 196 # 6380的从 127.0.0.1:6381> info 复制 #,复制 角色:奴隶 master_host: 127.0.0.1 master_port: 6380 master_link_status: master_last_io_seconds_ago: 6 master_sync_in_progress: 0 slave_repl_offset: 573 slave_priority: 100 slave_read_only: 1 connected_slaves: 0 master_repl_offset: 0 repl_backlog_active: 0 repl_backlog_size: 1048576 repl_backlog_first_byte_offset: 0 repl_backlog_histlen: 0 #################################### 模拟6379,宕机 ##################################### (root@hadoop2 复述)#,bin/redis-cli 关闭 (root@hadoop2 复述)#,bin/redis-cli -p 6379年,关闭 Could not  connect 用Redis at 127.0.0.1:6379: Connection 拒绝 #观察,发现master_link_status:下来,表示主一定宕掉了 127.0.0.1:6380>, info 复制 #,复制 角色:奴隶 master_host: 127.0.0.1 master_port: 6379 master_link_status:下来 master_last_io_seconds_ago: 1 master_sync_in_progress: 0 slave_repl_offset: 1049 master_link_down_since_seconds: 42 slave_priority: 100 slave_read_only: 1 connected_slaves: 1 slave0: ip=127.0.0.1,端口=6381,在线状态=,抵消=1105,延迟=0 master_repl_offset: 1105 repl_backlog_active: 1 repl_backlog_size: 1048576 repl_backlog_first_byte_offset: 2 repl_backlog_histlen: 1104 #开始从主切换(6380,-在6379) #,只需要简单执行下面两句命令,就将6380主切换为主 127.0.0.1:6380> slaveof no 一个 好吧 127.0.0.1:6380> config set slave-read-only 没有 好吧 127.0.0.1:6380>, set title “哨兵” 好吧 #连到从服务上,没有问题 127.0.0.1:6381> get 标题 “哨兵”
日志(6379)
2495:米05年9月20:06:23.615 #警告:TCP积压的511不能执行,因为/proc/sys/net/core/somaxconn设置为较低的值为128。
2495: 05年9月20:06:23.615 #服务器开始,复述,版本3.2.3
2495:米05年9月20:06:23.617 #警告overcommit_memory设置为0 !背景保存在低内存条件下可能会失败。解决这个问题添加的vm。/etc/sysctl. overcommit_memory=1”配置,然后重新启动或运行该命令的sysctl vm。overcommit_memory=1”生效。
2495: 05年9月20:06:24.815 * DB从添加加载>,bin/redis-server redis.conf ,
bin/redis-server redis6380.conf 大敌;
,bin/redis-server redis6381.conf
,bin/redis-server sentinel.conf ——哨兵