Offline Explorer: jak prohlížet weby bez připojení

Diskuze čtenářů k článku

Pynokyjo  |  18. 03. 2005 12:58

Už sem vyzkoušel hodně offline 'stahovačů', ale Offline Explorer má úplně největší množství voleb. Bohužel je trochu složitější, takže může odradit méně zkušené.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Caleb, Caleb  |  17. 03. 2005 09:40

Divim se, ze si nikdo nevzpomnel na HTTrack Website Copier. Je zadax (tusim dokonce Open Source) a taky toho umi docela dost. Jako jadro pouziva Mozillu.

Souhlasím  |  Nesouhlasím  |  Odpovědět
tactac  |  15. 03. 2005 15:29

neviem ako teraz, ale kedysi bol offline explorer nehorazne drahy, zlozity a po odindtalovani napriklad vobec nedovoloval otvorit ziadnu prilohu v Outlook exprese, lebo ze moze byt nebezpecna...

presiel som na webzip a zabudol som, ze taka hovadina ako offline explorer enterprise edition atd existuje

Souhlasím  |  Nesouhlasím  |  Odpovědět
tactac  |  15. 03. 2005 15:29

neviem ako teraz, ale kedysi bol offline explorer nehorazne drahy, zlozity a po odindtalovani napriklad vobec nedovoloval otvorit ziadnu prilohu v Outlook exprese, lebo ze moze byt nebezpecna...

presiel som na webzip a zabudol som, ze taka hovadina ako offline explorer enterprise edition atd existuje

Souhlasím  |  Nesouhlasím  |  Odpovědět
Roger  |  15. 03. 2005 14:44

Je docela skoda, ze tu nikdo nezminil genialni program Smart Cache od Radima Kolare, ktery jsem kdysi pouzival.
Fungoval jako cache - proste jste ho pustili, nastavili ho v prohlizeci jako proxy a on ukladal na disk data, ktera pres nej protekla. Nezavisle na tom, jestli jste zrovna online (kdyz ne, vratil stranku z diskove cache).
Skvele moznosti nastaveni, kupy filtru a vychytavek, skvely system ukladani na disk (adresare a soubory primo odpovidajici URL), nastavitelny garbage collector apod.
Zadarmo, 150 kB rozbalene - proste genialni.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Kero  |  15. 03. 2005 14:37

wget je bezva, da se neco jako wget -r 0 -p -D http://go.goban.org;http://images.goban.org http://goban.org
asi je to trochu spatne, uz jsem se na to dlouho nekoukal. Pro wokna v naproste pohode, ale rozhodne ne pro BFU. Na wget a curl jsem presel pote, co me unavilo hlůedat crack pro offline explorer. Musim priznat, ze i to stahovani pomoci cache co je uvadeno vyse je dost dobre.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Kuby  |  15. 03. 2005 10:23

Ja mam hodne znamych jeste bez internetu, tak jim stahuji weby pomoci programu webzip. Vetsinou staci stahovat do hloubky 3 odkazy od hlavni stranky a je klid. A stranky vypadaji uplne stejne jako pri brouzdani. Pravda, jiny program sem nezkousel, ale nemel sem proc, sem s timto programem spokojenej. Jen to chce trenink na nastaveni :)

Souhlasím  |  Nesouhlasím  |  Odpovědět
Unvisible  |  15. 03. 2005 06:28

taky mi prijde jako kravina, pouzivat pro par stranek Offline Explorer a jeste k tomu na modemu. To je sebevrazda OE je dobrej pokud chcete celej web nebo jen nejaka urcita data z nej, ale na par stranek to urcite nema vyznam

Souhlasím  |  Nesouhlasím  |  Odpovědět
Rada  |  15. 03. 2005 08:14

Před více jak rokem jsem ho taky zkoušel a když si pohraješ s nejrůznějšími filtry, tak to stahuje co má. Hlavně to chce vypnout stahování nejrůznějších kravin - bannerů, atd. Je to sice dost složité na nastavení, ale třeba pro určité stahování (např. xxx) je to dobrá věc.

Souhlasím  |  Nesouhlasím  |  Odpovědět
:)  |  15. 03. 2005 08:28

jasne na xxx je dobrej, obzvlaste ve verzi pro umoznuje zadat stahovani urciteho rozsahu, od cisel, pres dny v tydnu, mesice atd. ve formatu: www.server.cz/image{:100..001}.jpg

Souhlasím  |  Nesouhlasím  |  Odpovědět
tweety, tweety  |  15. 03. 2005 00:59

Článek je pěkný, ale když už offline, tak se vším šudy.

Tedy jinak. Minulý týden jsem se snažil přinést si domů internet, tedy alespoň pár stránek, který mě zajímaly. (Doma internet nemám, tak jsem tahal stránky na notebook.)

Nejdřív jsem ukládal každou stránku jako *.html (to šlo dost pomalu)

Pak jsem vyzkoušel 3 různé downloadery celého webu. Všechny do jednoho potahaly kolem 100 MB balastu, a přitom stránky nebyly čitelné, nebo neodpovídaly skutečné podobě. (práce automatizovaná, výsledek nevalný.)

Nakonec mě napadlo použít operu. Nastavil jsem cache na 500 MB, vesele jsem si brouzdal po netu, a obsahově jsem zkouknul jen to, co mě zajímalo. Pak jsem se odpojil od sítě, přepnul operu do "offline modu" a brouzdal jsem znovu. Stránky vypadaly tak jak měly.

Nevím, jak downloadery fungujou, ale mám dojem, že se snaží vygenerovat stránku tak, aby vznikla kopie. Kdežto prohlížeč ji ukládá tak, jak ji má vygenerovanou, a při znovanačtení ji jen zobrazí, už ji negeneruje znova.

Výsledkem mého snažení byly 2 klady a 1 zápor:
+) minimum stažených dat (o to jde při vytáčeném spojení)
+) vzhled byl 99% správně. (zbytek byly dynamické stránky, které nezvládne ani webdownloader)
-) neměl jsem stránky, které jsem nenavštívil

Závěrem jen poznámku, že i firefox i IExplorer umí offline prohlížení a to dost dobře.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Zasílat názory e-mailem: Zasílat názory Můj názor