Загрузка большого файла в S3 / D42 в виде параллельной многопользовательской с Python Boto

1

Я пытаюсь загрузить 400-гигабайтный.ibd файл машины MySql DB в D42/S3.

Я использую set_contents_from_file функцию Python boto. Но это занимает много времени, и я не вижу прогресса (о том, сколько выгружено/осталось).

У кого-нибудь есть сценарий python для использования потоковой или параллельной многостраничной загрузки? Это очень простой пример использования для конечного пользователя, но у документации boto нет такой функции.

Теги:
amazon-s3
multipart
boto

1 ответ

0

Наконец, я сделал это с помощью " S3cmd ", а не с python.

Ещё вопросы

Сообщество Overcoder
Наверх
Меню