Здравствуйте, CoderMonkey, Вы писали:
CM>Пытаюсь копировать файлы через Remote Desktop (ибо ставить и конфигурить FTP и иже с ним слишком геморно). Средняя скорость — 15 килобайт (!) в секунду. Speedtest до сервера в том же городе показывает 5 мегабайт в секунду. Итого, просер в скорости в ~300 раз без всяких разумных причин.
Весь прогрессивный мир давно использует scp.
Здравствуйте, Danchik, Вы писали:
CM>>Не, умеют же. Я бы так не смог. D>Что-то мешает. Только что тестил, файлы пролетают мгновенно.
Помнится, я натыкался на проблему с RDP, когда он не работал нормально из-за сломанного PMTU в сети. Как раз с такими симптомами.
Здравствуйте, CoderMonkey, Вы писали:
CM>Пытаюсь копировать файлы через Remote Desktop (ибо ставить и конфигурить FTP и иже с ним слишком геморно). Средняя скорость — 15 килобайт (!) в секунду.
Файлов много?
Если там 40 тысяч файлов по пол килобайта, то скорость сильно проседает не из-за сетевых задержек, а из-за дополнительных телодвижений на обработку каждого файла. В этом случае помогает упаковка в архив, можно без сжатия.
Здравствуйте, Artem Korneev, Вы писали:
AK>Файлов много? AK>Если там 40 тысяч файлов по пол килобайта, то скорость сильно проседает не из-за сетевых задержек,
Файлов всего около сотни-двух.
AK>а из-за дополнительных телодвижений на обработку каждого файла.
Здравствуйте, CoderMonkey, Вы писали:
CM>Пытаюсь копировать файлы через Remote Desktop (ибо ставить и конфигурить FTP и иже с ним слишком геморно). Средняя скорость — 15 килобайт (!) в секунду. Speedtest до сервера в том же городе показывает 5 мегабайт в секунду. Итого, просер в скорости в ~300 раз без всяких разумных причин. CM>Не, умеют же. Я бы так не смог.
Копирую с помощью RDP с домашнего на рабочий и обратно уже много лет. Скорость на уровне пропускной способности сети.
Ищи причину.
Для начала попробуй заархивировать файлы и переслать архив.
Здравствуйте, Cyberax, Вы писали:
C>Весь прогрессивный мир давно использует scp.
Когда один процент от одного процента населения начинает считать себя всем прогрессивным миром, необходима консультация специалиста.
Прогрессируйте где-нибудь подальше от меня. Ну и вообще, я считаю, что необходимо наблюдение условиях стационара.
Всё сказанное выше — личное мнение, если не указано обратное.
Здравствуйте, CoderMonkey, Вы писали:
CM>Пытаюсь копировать файлы через Remote Desktop (ибо ставить и конфигурить FTP и иже с ним слишком геморно). Средняя скорость — 15 килобайт (!)
CM>Не, умеют же. Я бы так не смог.
иногда бывают проблемы настройки сети. MTU, маршрутизация.
иногда, с этими проблемами помогает настроить RDP клиента на "модемное соединение". да и вообще это полезно для работы, отключает лишние анимации свистоперделки.
CM>Через 3 фаервола
Здравствуйте, Pavel Dvorkin, Вы писали:
PD>Этот фактор действует всегда,и с сетью не связан. То же падение скорости будет, если копировать много мелких файлов с одного места на диске в другое.
У диска это связано с физическими ограничениями, а не с кривыми руками конструкторов.
Здравствуйте, CoderMonkey, Вы писали:
AK>>а из-за дополнительных телодвижений на обработку каждого файла. CM>То есть, фактор "умеют же люди код писать"
В случае с большим количеством мелких файлов тормоза идут от файловой системы, а не от кода приложений — операция создания файла сравнительно медленная.
Здравствуйте, Artem Korneev, Вы писали:
AK>В случае с большим количеством мелких файлов тормоза идут от файловой системы, а не от кода приложений — операция создания файла сравнительно медленная.
Ага конечно, скорость минимум раз в 30 хуже чем при копировании в пределах диска.
Здравствуйте, CoderMonkey, Вы писали:
CM>Ага конечно, скорость минимум раз в 30 хуже чем при копировании в пределах диска.
Локально оно у вас кэширует действия. Плюс локально не нужно перепроверять файлы антивирусом Windows Defender на каждый чих.
Но в целом — я ж сразу сказал, что такая проблема проявляется при большом количестве мелких файлов. 200 файлов врятли должны вызывать такие тормоза.
Попробуйте любым протоколом скопировать на удаленный компьютер какой-нибудь репозиторий пакетов npm на 40 тысяч файлов и поймете, что я имею в виду.
Здравствуйте, Artem Korneev, Вы писали:
AK>Локально оно у вас кэширует действия.
Это что-то новенькое. Про кэш файлов слышал, про кэш действий — нет.
AK>Плюс локально не нужно перепроверять файлы антивирусом Windows Defender на каждый чих.
Здравствуйте, CoderMonkey, Вы писали:
AK>>Локально оно у вас кэширует действия. CM>Это что-то новенькое. Про кэш файлов слышал, про кэш действий — нет.
Файлы оно кэширует, файлы.
Просто локально оно может вам сказать, что копирование уже закончено, хотя в фоне оно еще идет. Журналируемая файловая система сможет разрулить проблему, даже если вы сразу выключите компьютер. А удаленно никаких оптимизаций сделать нельзя — если содержимое файла не записано на диск, то в случае обрыва соединения все данные потеряются. Нельзя сказать "сделано" раньше времени.
AK>>Плюс локально не нужно перепроверять файлы антивирусом Windows Defender на каждый чих. CM>А нафига делать это не локально?
А не локально — пришли новые файлы, из неизвестного источника, не заслуживающего доверия. Их же проверить надо, вдруг вы вирусняк записываете.
Здравствуйте, Artem Korneev, Вы писали:
AK>Просто локально оно может вам сказать, что копирование уже закончено, хотя в фоне оно еще идет. Журналируемая файловая система сможет разрулить проблему, даже если вы сразу выключите компьютер. А удаленно никаких оптимизаций сделать нельзя — если содержимое файла не записано на диск, то в случае обрыва соединения все данные потеряются.
Это для мелких файлов то?
AK>А не локально — пришли новые файлы, из неизвестного источника, не заслуживающего доверия. Их же проверить надо, вдруг вы вирусняк записываете.
Не вижу проблем. Пришел файл, записали, сразу перешли к новому — а он пусть там проверяет. Опять же, непонятно, зачем проверять на каждый чих.