Follow

大批量文件备份同步用啥好的说, btsync,synthings 都不理想啊,愁,想把本站弄个本地的备份 😂

· · Web · 3 · 0 · 0

@lgE 试试看, 不知道上千万的细碎文件,不知道支持的怎么样

@xrain @lgE 我用 Rclone 迁移过 Mastodon 的媒体文件到 S3 存储桶,不知道算不算多的,效果挺不错,而且 Rclone 有参数可以设置线程之类的,问题应该不大。

@makito @lgE 我用的docker安装的, 是不是文件放到s3之后,就可以不用挂载目录了

@xrain @lgE 你也是要备份媒体目录吗?如果用 S3 就不会在本地存媒体文件了来着。

@makito @lgE 有点尴尬 切换到了s3 上传功能好像挂了,你们都配置哪些环境变量啊,AWS_ACCESS_KEY_ID,AWS_SECRET_ACCESS_KEY,S3_BUCKET,S3_ENABLED,S3_ENDPOINT,S3_PROTOCOL 配置了这几个,然后上传503...

@xrain 我直接用tar czf把数据库备份和本站媒体文件传到另一个vps了…

@error 你这个是迁移操作.. 想弄个实时备份的话,这样搞不现实, 现在tar 一下 都要几个小时了..

@tusooa @error 在服务器开了个rsync-server 然后 freebsd上跑客户端一直有问题 搞的怀疑人生了

@xrain 实践证明 rsync 很轻量也很快,但是参数要好好优化一下,不一样的参数速度天差地别。rclone 之类的工具不适合大量(几百G)小文件,线程开多了资源占用很大。

@xrain 如果要增量备份就去数据库读最新的媒体文件,然后随便用什么工具都可以拉回到本地。

Sign in to participate in the conversation
SIMCU SOCIAL

The social network of the future: No ads, no corporate surveillance, ethical design, and decentralization! Own your data with Mastodon!