zHz00 Untitled

понедельник, 06 ноября 2017
22:39 Ещё один способ сделать архив дневника diary.ru
Многие взволнованы, что архив дневника никак не придёт. Поэтому преходят к альтернативным методам сохранения дневников: kxena.diary.ru/p214074272.htm .

Администрация же не рекомендует подобные методы, т.к. те создают нагрузку на сервер.

Мой метод создаёт минимальную нагрузку на сервер, но большую нагрузку на мозг! Не для средних умов. И с учётом требования по IQ -- это неподробная инструкция.
Требуется винда. Думаю, будет работать начиная с 2000-й.

Используйте данный метод на свой страх и риск. Если вас забанят -- я не виноват.

Уже четыре дневника так сохранил.

(линуксоидам понравится)

@темы: Лайфхак, Борьба с техникой

URL
Ши: Есть один(?) вопрос. Вот почему, объясните мне кто-ни...
Сегодня смотрел на машины и думал о женщинах...Или наобор...
Португалия янкам проиграла, так ведь еще всю игру проигры...
Сегодня ночью смотрел концерт в честь 50-летнего правлени...
Иду сегодня на Словения - Южная Африка. Вперед, братья...
Обнимет, закопает в пески.... Хочу на Карнавал в Гелен...

06.11.2017 в 23:52

06.11.2017 в 23:52
Можно же написать за вечер, нормальный, приличный парсер специально заточенный под дайри. Который и стили скачает и всё сделает. Просто я уверен, что дайри ещё полгода протянет и что все архивы свои получат - поэтому не парюсь)
URL

06.11.2017 в 23:59

06.11.2017 в 23:59
Есть такая либа PHPQUERY, с ней изишно (но я бы лично сам на питоне бы писал), ты же любишь у нас пхп. Ещё у меня есть расширение для браузера, которое имитирует деятельность человека и как раз парсит один сайт, там просто защита от парсеров очень хорошая - можно так же сделать.
URL

07.11.2017 в 00:09

07.11.2017 в 00:09
Парсер написать можно, но это уже более сложные способы. Данный метод позволяет сохранить ИНФОРМАЦИЮ, а парсить её можно и потом.
URL

07.11.2017 в 22:15

07.11.2017 в 22:15
Зануда mode ON.

for /F %%a in (list.txt) do wget %%a --load-cookies cookies.txt && ping 127.0.0.1 -n 300

Вместо цикла можно использовать опцию --input-file, вместо пинга — --wait (см. также --random-wait). Причём --input-file я настоятельно советую, потому что у тебя сейчас на каждую страничку запускается новая копия wget, открывающая HTTP-соединение; будь копия одна, соединение бы переиспользовалось и нагрузка на сервер была бы ещё меньше.

г) тиражируем эту строку много раз.
д) вручную уменьшаем на 20 в каждой строке число, пока не дойдём до нуля


Пишут, что for поддерживает интервалы: ss64.com/nt/for_l.html Можно сделать что-то типа такого:



г) пока diary работают, ваши скачанные страницы будут выглядеть прилично, однако если они выключатся, всё оформление слетит. Впрочем, текст прочитать будет можно.

См. опции --page-requisites и --convert-links, а также --continue (чтобы не выкачивать одни и те же стили по сто раз), --recursive и --no-parent.

Зануда mode o--- O-- O-- Блин! Не выключается! Да и фиг с ним, все равно я его перед каждым комментарием включаю.

-- Minoru
URL

07.11.2017 в 22:39

07.11.2017 в 22:39
Minoru: спасибо, буду изучать опции вгет. Пока я их знаю слабо.

Что касается копий, тут ты не прав. Бат-файлы всё запускают по очереди, поэтому копия вгет всегда одна.
URL

07.11.2017 в 22:48

07.11.2017 в 22:48
Копия wget всегда одна, но каждый раз новая — в последнем-то и проблема (но небольшая).

-- Minoru
URL

07.11.2017 в 22:57

07.11.2017 в 22:57
А, теперь ясно, о чём ты. Да, метод можно усовершенствовать. Только вряд ли я это делать буду.
URL

31.01.2020 в 18:42

31.01.2020 в 18:42
О, я сюда из Гугла попал внезапно )

ПОТОМУШТО АРХИВ БЛЕВНИЧКА БОЛЬШЕ НЕЛЬЗЯ ЗОКАЗАДЬ!
URL

31.01.2020 в 22:27

31.01.2020 в 22:27
Foul thing, это чудо правильного именования поста!

Ох ё, я и забыл, что я такую штуку придумал. Спасибо, что напомнил.

Данный метод всё ещё должен работать.
URL

22.02.2020 в 15:20

22.02.2020 в 15:20
Для дневничков я очередную качалку написал, но всем как обычно.
URL

19.11.2020 в 16:10

19.11.2020 в 16:10
Спасибо тебе, добрый человек, дай бог здоровья и всего хорошего.
URL
26.01.2021 в 18:52
DDD, а где посмотреть?)
URL

27.01.2021 в 14:02

27.01.2021 в 14:02
Влюблённый ангел,
ее забанили и удалили, что-то такое.
так что скачивать либо вгетом, либо оффлайн эксплорером, либо методами, которые дыбр предлагает, они пока обновляют инфу по мере изменения дайров
URL
29.01.2021 в 16:19
Ули, поняла, спасибо.
а если для дыбра качать их программкой, можно залить на дыбр и с дыбра сделать нормальный архив?
сразу он нормальным, как я поняла, не получается)
URL

01.02.2021 в 18:27

01.02.2021 в 18:27
Влюблённый ангел,
вроде да, кто-то предлагал такой вариант
URL
Добавить комментарий

Расширенная форма

Подписаться на новые комментарии