
從實戰出發使用RedisShake進行Redis數據在線+離線模式遷移指南
??RedisShake??是基于??redis-port??基礎上進行改進的是一款開源的Redis遷移工具,支持Cluster集群的在線遷移與離線遷移(備份文件導入)。數據可平滑遷移,當部署在其他云廠商Redis服務上的Cluster集群數據,由于SYNC、PSYNC命令被云廠商禁用,無法在線遷移時,可以選擇離線遷移。
【資料圖】
RedisShake是一個用于在兩個Redis實例之間同步數據的工具,滿足非常靈活的同步與遷移需求。Redis實例之間的關系其中可能存在(standalone->standalone),(standalone->Cluster),(Cluster->Cluster)等。目前,比較常用的一個數據遷移工具是Redis-Shake ,這是阿里云Redis和MongoDB團隊開發的一個用于 Redis 數據同步的工具。
RedisShake主要是支持Redis的RDB文件的解析、恢復、備份、同步四個功能:
恢復(restore):將 RDB 文件恢復到目標Redis數據庫。備份(dump):將源 Redis 的全量數據通過RDB文件備份起來。解析(decode):讀取 RDB 文件,并以 JSON 格式解析存儲。同步(sync):支持源redis和目的redis的數據同步,支持全量和增量數據的遷移,支持從云下到阿里云云上的同步,也支持云下到云下不同環境的同步,支持單節點、主從版、集群版之間的互相同步。同步(rump):支持源 Redis 和目的 Redis 的數據同步,僅支持全量遷移。采用scan和restore命令進行遷移,支持不同云廠商不同redis版本的遷移。注意:如果源端是集群版,可以啟動一個RedisShake,從不同的db結點進行拉取,同時源端不能開啟move slot功能;對于目的端,如果是集群版,寫入可以是1個或者多個db結點。
如果源端是集群模式,只需要啟動一個redis-shake進行拉取,同時不能開啟源端的move slot操作。如果目的端是集群模式,可以寫入到一個結點,然后再進行slot的遷移,當然也可以多對多寫入。
目前,redis-shake到目的端采用單鏈路實現,對于正常情況下,這不會成為瓶頸,但對于極端情況,qps比較大的時候,此部分性能可能成為瓶頸,后續我們可能會計劃對此進行優化。另外,redis-shake到目的端的數據同步采用異步的方式,讀寫分離在2個線程操作,降低因為網絡時延帶來的同步性能下降。
主要有兩種方式:下載Release版本的可執行二進制包、下載源碼文件進行編譯操作這兩種方式。
??Download from Release??
點擊下載就可以進行直接使用Redis-Shake服務。
除了直接下載可執行包之外,還可以下載源碼之后,可以進行運行build.sh文件執行進行編譯源碼,生成可執行包。可以根據上面的下載中source code進行下載。
或者可以針對于Git進行clone源碼倉庫,如下所示。
git clone https://github.com/alibaba/RedisShakecd RedisShakesh build.sh
首先如果需要進行同步和重放,則需要進行編輯sync.toml文件以及編輯restore.toml.
redis-shake 支持三種數據遷移模式:sync、restore 和 scan:快速開始:數據遷移(使用 sync 模式)快速開始:從dump.rdb恢復數據(使用 restore 模式)快速開始:數據遷移(使用 scan 模式)使用 filters 做數據清洗運行日志運行監控當我們編輯sync.toml文件之后,可以進行配置我們實際情況下的source源redis實例以及target目標redis實例。之后可以配置對應的cpu和相關性能的配置。下面針對于配置進行相關的配置介紹
type = "sync" # 同步機制實現[source] # 源Redis服務實例version = 5.0 # 填寫Redis源服務版本, 例如:2.8, 4.0, 5.0, 6.0, 6.2, 7.0, ...。address = "127.0.0.1:6379" # 源Redis服務實例 地址+端口username = "" # 如果Redis沒有配置ACL,則可以不填寫,否則需要填寫用戶名 password = "" # 如果Redis沒有配置ACL,則可以不填寫,否則需要填寫密碼tls = false # 是否開啟tls安全機制elasticache_psync = "" # 是否支持AWS的elasticache[target]type = "standalone" # 選擇Redis的類型:"standalone:單機模式" or "cluster:集群模式"version = 5.0 # 填寫Redis源服務版本, 例如:2.8, 4.0, 5.0, 6.0, 6.2, 7.0, ...。# 如果目標Redis服務實例屬于cluster集群模式, 那么可以寫入其中一個節點的地址和端口.# redis-shake 會通過`cluster nodes` 命令獲取其他的節點地址和端口address = "127.0.0.1:6380" # 填寫的對應的ip加端口username = "" # 如果Redis沒有配置ACL,則可以不填寫,否則需要填寫用戶名 password = "" # 如果Redis沒有配置ACL,則可以不填寫,否則需要填寫密碼tls = false # 是否開啟tls安全機制[advanced]dir = "data" # 數據同步的存儲目錄# 設置使用的最大CPU核心數, 如果設置了0 代表著 使用 runtime.NumCPU() 實際的cpu cores數量ncpu = 4# 開啟pprof性能檢測的port, 0代表著禁用pprof_port = 0 # 開啟metric port端口, 0代表著禁用metrics_port = 0# log的相關設置log_file = "redis-shake.log" # 設置對應的日志文件名稱log_level = "info" # debug, info or warn # 設置對應的日志級別log_interval = 5 # in seconds # 日志打印頻次# redis-shake gets key and value from rdb file, and uses RESTORE command to# create the key in target redis. Redis RESTORE will return a "Target key name# is busy" error when key already exists. You can use this configuration item# to change the default behavior of restore:# panic: redis-shake will stop when meet "Target key name is busy" error.# rewrite: redis-shake will replace the key with new value.# ignore: redis-shake will skip restore the key when meet "Target key name is busy" error.rdb_restore_command_behavior = "rewrite" # restore的操作類型:panic, rewrite or skip# pipeline的大小數量閾值pipeline_count_limit = 1024# Client query buffers accumulate new commands. They are limited to a fixed# amount by default. This amount is normally 1gb.target_redis_client_max_querybuf_len = 1024_000_000# In the Redis protocol, bulk requests, that are, elements representing single# strings, are normally limited to 512 mb.target_redis_proto_max_bulk_len = 512_000_000
修改sync.toml,改為如下配置。
[source]address = "ip:6379"password = ""[target]type = "standalone"address = "ip:6379"password = "r-bbbbb:xxxxx"
./redis-shake sync.toml
修改 sync.toml,改為如下配置:
[source]address = "r-aaaaa.redis.zhangbei.rds.aliyuncs.com:6379"password = "r-aaaaa:xxxxx"[target]type = "cluster"address = "192.168.0.1:6379" # 這里寫集群中的任意一個節點的地址即可password = "r-ccccc:xxxxx"
./redis-shake sync.toml
集群C有四個節點:
192.168.0.1:6379192.168.0.2:6379192.168.0.3:6379192.168.0.4:6379把4個節點當成4個單機實例,參照單機到集群 部署 4 個 redis-shake 進行數據同步。不要在同一個目錄啟動多個 redis-shake,因為 redis-shake 會在本地存儲臨時文件,多個 redis-shake 之間的臨時文件會干擾,正確做法是建立多個目錄。
腳本??cluster_helper.py??可以方便啟動多個redis-shake從集群遷移數據,效果等同于方法1。
源端有多少個分片,cluster_helper.py 就會起多少個 redis-shake 進程,所以如果源端分片數較多的時候,需要評估當前機器是否可以承擔這么多進程。
cluster_helper.py 異常退出的時候,可能沒有正常退出 redis-shake 進程,需要 ps aux | grep redis-shake 檢查。
每個 redis-shake 進程的執行日志記錄在 RedisShake/cluster_helper/data/xxxxx 中,反饋問題請提供相關日志。
Python 需要 python3.6 及以上版本,安裝 Python依賴:
cd RedisShake/cluster_helperpip3 install -r requirements.txt
修改 sync.toml:
type = "sync"[source]address = "192.168.0.1:6379" # 集群 C 中任意一個節點地址password = "r-ccccc:xxxxx"[target]type = "cluster"address = "192.168.1.1:6380" # 集群 D 中任意一個節點地址password = "r-ddddd:xxxxx"
cd RedisShake/cluster_helperpython3 cluster_helper.py ../redis-shake ../sync.toml參數 1 是 redis-shake 可執行程序的路徑參數 2 是配置文件路徑
[root@redis ~]# redis-shake ./redis-shake.toml2022-08-26 11:20:28 INF GOOS: linux, GOARCH: amd642022-08-26 11:20:28 INF Ncpu: 3, GOMAXPROCS: 32022-08-26 11:20:28 INF pid: 215042022-08-26 11:20:28 INF pprof_port: 02022-08-26 11:20:28 INF No lua file specified, will not filter any cmd.2022-08-26 11:20:28 INF no password. address=[127.0.0.1:6380]2022-08-26 11:20:28 INF redisWriter connected to redis successful. address=[127.0.0.1:6380]2022-08-26 11:20:28 INF no password. address=[127.0.0.1:6379]2022-08-26 11:20:28 INF psyncReader connected to redis successful. address=[127.0.0.1:6379]2022-08-26 11:20:28 WRN remove file. filename=[4200.aof]2022-08-26 11:20:28 WRN remove file. filename=[dump.rdb]2022-08-26 11:20:28 INF start save RDB. address=[127.0.0.1:6379]2022-08-26 11:20:28 INF send [replconf listening-port 10007]2022-08-26 11:20:28 INF send [PSYNC ? -1]2022-08-26 11:20:28 INF receive [FULLRESYNC 1db7c7618b6d0af25ffafb1645d4fba573624d02 0]2022-08-26 11:20:28 INF source db is doing bgsave. address=[127.0.0.1:6379]2022-08-26 11:20:28 INF source db bgsave finished. timeUsed=[0.09]s, address=[127.0.0.1:6379]2022-08-26 11:20:28 INF received rdb length. length=[194]2022-08-26 11:20:28 INF create dump.rdb file. filename_path=[dump.rdb]2022-08-26 11:20:28 INF save RDB finished. address=[127.0.0.1:6379], total_bytes=[194]2022-08-26 11:20:28 INF start send RDB. address=[127.0.0.1:6379]2022-08-26 11:20:28 INF RDB version: 82022-08-26 11:20:28 INF RDB AUX fields. key=[redis-ver], value=[4.0.14]2022-08-26 11:20:28 INF RDB AUX fields. key=[redis-bits], value=[64]2022-08-26 11:20:28 INF RDB AUX fields. key=[ctime], value=[1661484028]2022-08-26 11:20:28 INF RDB AUX fields. key=[used-mem], value=[1897096]2022-08-26 11:20:28 INF RDB repl-stream-db: 02022-08-26 11:20:28 INF RDB AUX fields. key=[repl-id], value=[1db7c7618b6d0af25ffafb1645d4fba573624d02]2022-08-26 11:20:28 INF RDB AUX fields. key=[repl-offset], value=[0]2022-08-26 11:20:28 INF RDB AUX fields. key=[aof-preamble], value=[0]2022-08-26 11:20:28 INF RDB resize db. db_size=[1], expire_size=[0]2022-08-26 11:20:28 INF send RDB finished. address=[127.0.0.1:6379], repl-stream-db=[0]2022-08-26 11:20:28 INF start save AOF. address=[127.0.0.1:6379]2022-08-26 11:20:28 INF AOFWriter open file. filename=[0.aof]2022-08-26 11:20:29 INF AOFReader open file. aof_filename=[0.aof]2022-08-26 11:20:33 INF syncing aof. allowOps=[0.20], disallowOps=[0.00], entryId=[0], unansweredBytesCount=[0]bytes, diff=[0], aofReceivedOffset=[0], aofAppliedOffset=[0]2022-08-26 11:20:38 INF syncing aof. allowOps=[0.20], disallowOps=[0.00], entryId=[1], unansweredBytesCount=[0]bytes, diff=[0], aofReceivedOffset=[14], aofAppliedOffset=[14]2022-08-26 11:20:43 INF syncing aof. allowOps=[0.00], disallowOps=[0.00], entryId=[1], unansweredBytesCount=[0]bytes, diff=[0], aofReceivedOffset=[14], aofAppliedOffset=[14]2022-08-26 11:20:48 INF syncing aof. allowOps=[0.20], disallowOps=[0.00], entryId=[2], unansweredBytesCount=[0]bytes, diff=[0], aofReceivedOffset=[28], aofAppliedOffset=[28]