故事的过程是这样的,朋友是搞科研的,需要在一个国外的学术网站下载一个药物的模型压缩包,大概有23g。关键他也不会用别的就wget下载....恩中间还断了....问我有什么方法没有断点续传,而是能不能更快速的下载?我记录wget是有断点续传的?问一下chatgpt不完了...wget -c
偶然发现百度竟然也带ai对话了....哈哈
那wget是否支持多线程下载呢?怎么样多线程下载呢?
gpt推荐了aira2 和axel 百度推荐了axel。我这里就使用了以下aira2:
参照。我在ubuntu服务器(国外)执行了sudo apt install aria2 安装了aria2:
-c 断点续传
-s 连接数
-x 线程
大概一个小时下载完了,小伙伴让我给他搞到百度云盘......
bypy bcloud?
恩?也是记得好就之前看文章有linux服务器文件备份到百度云盘的操作的!
我找到的文章是:,使用 bypy 的方式。gtp对这个问题不太精通
百度说他有一个bcloud的工具?:
but早不更新了吧?
老老实实 ......
基本就这样搞一下:。比较简单:
pip 安装bype
bypy授权:
复制控制台输出的url地址复制到浏览器,获取授权码,然后控制台输入完成授权:
简单上传文件:
问题来了 上传不动...不知道是不是文件太大, 我上传了一个小的文件成功了.....难道文件太大?换一个方法吧....
最后的解决方式......我还是用了腾讯云的.毕竟为的服务器都是腾讯云......,对象存储为也挂载了cdn加速能快一些!
安装 coscmd
coscmd config配置
参照: