![]() |
Как скачать нужные файлы с нужного сайта?
Есть сайт с книгами, которые находятся в открытом доступе! Они все упакованы в PDF.
Адрес сайта: http://www.intechopen.com Например, если скачивать книгу http://www.intechopen.com/books/video-compression руками. Кнопка Download ссылается на http://www.intechopen.com/download/b...-953-51-0422-3 С нее идет переадресация на зип файл, который хранится на http://cdn.intechopen.com/ Руками качать очень долго( Программа телепорт не скачивает. Вот что выдает, если выбрать: 1) Создать копию Скрин 2) Дубликат сайта/ включая структуру Вот скрин 3) Поиск файлов и выбрать архивы Вот скрин 4) Вот скрин Сканировал, сканировал, но ничего не скачал... Можно как-нибудь автоматически скачать файлы? Заранее спасибо! |
Ищите в настройках приложения при создании задания разрешение загрузки со сторонних сайтов.
|
emilj, очень давно не пользовался телепортом.
Если задать в качестве индекса не http://www.intechopen.com, а скажем http://cdn.intechopen.com/pdfs или http://cdn.intechopen.com |
yurfed, если выбрать 1-й варинт, то вот ссылка
|
emilj, кроме телепорта другого ничего не пробовали?
WebTransporter - программа для скачивания сайтов, HTTrack и другие подобные. |
yurfed, пробовал HTTrack. Он вообще ничего не скачивал.
Offline Explorer попробовал, но он либо ничего не качает, либо начинает качать и виснет( Но может это из-за версии... WebTransporter щас попробую. |
Iska, не подскажете, что именно надо выбрать?
|
emilj, не подскажу. Последний раз я пользовался «Offline Explorer» лет десять назад, а «Teleport Pro» и того раньше. Писал по памяти.
Цитата:
Цитата:
Как по мне, так нет никаких проблем открыть потребную страницу Video Compression | InTechOpen в браузере, скопировать ссылку на загрузку, вызвать из меню пользователя Far Manager'а в нужном каталоге команду для запроса с подставленным из буфера обмена URL: Код:
macro:post %sURL = prompt("Download by WGet", "Введите URL:", 0x10, clip(0), "Download by WGet"); $If (len(trim(%sURL)) !!= 0) print(@"@ >nul chcp 1251 & ""%ProgramFiles%\GnuWin32\bin\wget.exe"" --tries=10 --timestamping --no-check-certificate """ + %sURL + @""" & >nul pause & >nul chcp 866") $End ShiftEnter Впрочем, ничто не мешает пользоваться WGet и без Far Manager'а (разве что будет менее удобно). Например, написать для этого пакетный файл, который будет исполнять команду вида: Код:
"%ProgramFiles%\GnuWin32\bin\wget.exe" --tries=10 --timestamping --no-check-certificate "%1" |
Iska, правильно я понимаю, что придется обходить все страницы и копировать ссылку отдельно для каждой книги?
|
emilj, правильно понимаете.
Вопрос: «все страницы» — это сколько? |
Iska, книг 200) Может больше, если хорошие будут)
|
emilj, ну, это не страшно. Кстати, хотите добрый совет? Старайтесь перемежать загрузку книг с их чтением. Уверен, что их количество сократится после этого на порядок.
|
Iska, спасибо за совет)))
А как можно сгенерировать ссылки с разными ISBN, чтобы по ссылкам качать? |
emilj, не имею понятия.
|
А можно скачать, если на сайтах есть только предпросмотр? Только в виде.
|
emilj, пример?
|
|
Загрузить что Вы хотите? Оригинал, который на сайтах предлагается купить?
|
Iska, нет, хотя бы фотографии, чтобы удобней было читать.
|
Цитата:
книг на книжной полке? авторов книги? модели на обложке? Цитата:
Цитата:
Цитата:
Цитата:
|
|
Ладно, на этом сайте разобрался. Тему закрываю. Всем спасибо!
|
Время: 18:42. |
Время: 18:42.
© OSzone.net 2001-