Článek je pěkný, ale když už offline, tak se vším šudy.
Tedy jinak. Minulý týden jsem se snažil přinést si domů internet, tedy alespoň pár stránek, který mě zajímaly. (Doma internet nemám, tak jsem tahal stránky na notebook.)
Nejdřív jsem ukládal každou stránku jako *.html (to šlo dost pomalu)
Pak jsem vyzkoušel 3 různé downloadery celého webu. Všechny do jednoho potahaly kolem 100 MB balastu, a přitom stránky nebyly čitelné, nebo neodpovídaly skutečné podobě. (práce automatizovaná, výsledek nevalný.)
Nakonec mě napadlo použít operu. Nastavil jsem cache na 500 MB, vesele jsem si brouzdal po netu, a obsahově jsem zkouknul jen to, co mě zajímalo. Pak jsem se odpojil od sítě, přepnul operu do "offline modu" a brouzdal jsem znovu. Stránky vypadaly tak jak měly.
Nevím, jak downloadery fungujou, ale mám dojem, že se snaží vygenerovat stránku tak, aby vznikla kopie. Kdežto prohlížeč ji ukládá tak, jak ji má vygenerovanou, a při znovanačtení ji jen zobrazí, už ji negeneruje znova.
Výsledkem mého snažení byly 2 klady a 1 zápor:
+) minimum stažených dat (o to jde při vytáčeném spojení)
+) vzhled byl 99% správně. (zbytek byly dynamické stránky, které nezvládne ani webdownloader)
-) neměl jsem stránky, které jsem nenavštívil
Závěrem jen poznámku, že i firefox i IExplorer umí offline prohlížení a to dost dobře.