«Граббер» для интернет-книг

Автор: . Рубрика: Умные вещи. Опубликовано: 19.05.2008, 18:09.

Если новая программная «фича» сэкономит компьютерным пользователям 10 тысяч человеко-часов в год – рано или поздно она появится. Если возможная экономия – 100 тысяч человеко-часов, новое ПО будет создано только под дулом автомата. Когда же речь заходит о миллионах человеко-часов и соответствующих прибылях разработчиков – не найдется в мире силы, которая заставит программистов сесть за написание кода.

Я, конечно, гиперболизирую. Разумеется, у любой задачи есть масса простых и изящных решений, созданных многочисленными разработчиками. Например, когда пользователь встречает в интернете интересную многостраничную информацию (разделенную на главы книгу, список тематических статей, инструкцию пользователя со множеством разделов и т.д.) – он может одним движением руки взять эту книгу или сборник статей, и положить «на полку» своего ПК. Разве не так? Ведь на каждом углу компьютерные обозреватели рекомендуют использовать для этого разнообразные «качалки» сайтов! Я однажды послушался – и до сих пор ищу качалку, способную выполнять эту задачу легко и изящно.

Увы, чтобы с помощью программы этого класса скачать только необходимые вам 10 или 15 файлов, а не тонны избыточной информации, графики, скриптов и т.д. – нужно потратить некоторое время на изучение структуры данного сайта (и интерфейса «качалки»). Большинство пользователей не имеют для этого навыков и знаний, а потому вынуждены бездарно тратить свое драгоценное человеко-время на многократное выполнение в браузере команды (эта команда осталась неизменной еще со времен дедушки-Mosaic). А ведь так было бы удобно: выделил мышкой список нужных ссылок, нажал на кнопку – и через минуту у тебя на компьютере лежит набор нужных страниц (а еще лучше, намного лучше – один-единственный многостраничный файл с вложенным оглавлением).

Была, была когда-то попытка создать такую программу. Называлась она PageSaver, выполняла только часть поставленной выше задачи, во время работы нередко глючила и несколько лет назад прекратила развиваться. Существует еще пара-тройка половинчатых решений. Так, программы Download Master и Maxthon 1.x умеют скачивать в один присест несколько ссылок-страниц (в первой программе для этого нужно перетащить ссылки на плавающее окошко, во второй – нажать комбинацию). Но, увы-увы – без оглавления.

Ближе всех к идеалу приблизилось замечательное расширение для Firefox – Scrapbook (говорят, есть пользователи, которые терпят медлительный Firefox только ради Scrapbook). Среди его функций есть возможность сохранения многостраничных документов одним кликом. Справляется с ней утилита в целом замечательно: выделили список ссылок на веб-странице, нажали комбинацию клавиш Ctrl+Shift +K, указали уровень глубины захвата ссылок «1» – и через минуту Scrapbook скачает вместе с чистенькой страницей оглавления набор веб-страниц, на которые ведут ссылки оглавления. Чем не электронная книга?

Вы спросите, чего же мне опять не хватает? Как всегда – идеала, который, между прочим, вполне достижим.

Хранить на компьютере и пересылать коллегам (друзьям) удобнее не набор страниц, а один-единственный скомпилированный файл (например, в формате *.chm). Да, для Scrapbook можно дополнительно скачать плагин ScrapBook CHM Exporter – но, откровенно говоря, заставить его работать обычному пользователю вряд ли под силу (вместо этого плагина я бы рекомендовал использовать для объединения в один файл страниц, экспортированных вручную из Scrapbook, простую и удобную программу html2chm).

В чем же заключается идеал? Во-первых, в том, чтобы будущий разработчик утилиты для скачивания многостраничных документов плотно интегрировал в нее функцию создания *.chm-файлов. Настолько плотно, чтобы при необходимости она вызывалась одним кликом, не более.

Идем далее. При работе Scrapbook мы получаем чистенькое оглавление, а вот страницы-главы как были на сайте так и останутся на вашем компьютере переполнены веб-дизайнерскими излишествами – не относящимися к теме анонсами и новостями, навигационными элементами и ссылками, рекламой и т.п. Порой полезный текст, ради которого вы и затевали скачивание, занимает не больше четверти полезного объема страницы. Согласитесь, это мало напоминает электронную книгу.

Поэтому, во-вторых, идеал заключается в том, чтобы по максимуму очистить веб-страницы от излишеств. Посмотрите, как практически без усилий пользователя эту задачу выполняет утилита ВебЛомастер – и сделайте так, чтобы в вашей программе подобная функция реализовывалась автоматом.

Наконец, в-третьих, идеал заключается в том, чтобы вышеописанная задача (выделить мышью список нужных ссылок и скачать нажатием одной кнопки очищенный от мусора многостраничный документ, упакованный в один файл) выполнялась не в специализированной программе, а в браузере, в котором пользователь и натыкается на интересные многостраничные документы. И было бы еще идеальнее, если б подобные плагины появились для всех браузеров.

PS Заранее знаю, как отнесутся к этому предложению программисты. 60% спросят: «Зачем огород городить, если существуют многочисленные «качалки» сайтов?» 45% скажут: «Если Firefox медленный – значит руки кривые. Нужно просто покопаться в его настройках». 25% процентов резюмируют: «Подобная программа уже существует. Наверняка. Лень ссылку искать». 5% приведут убийственный аргумент: «А владельцам сайтов на что жить?» Что, получилось больше ста процентов? Я же говорил, что пройдет 10 000 человеко-лет, прежде чем у простых юзеров появится альтернатива команде File–Save.





Спасибо всем, кто добавляет мои посты в "Фейсбук"!



...и поднимает их в поиске Gооgle с помощью кнопки "+1"!