Čím udělat lokální kopii webu?

Diskuze čtenářů k článku

Ivan  |  05. 10. 2004 01:27  | 

Neni co resit, HTTrack je super program a ma volba....

Souhlasím  |  Nesouhlasím  |  Odpovědět
milos  |  05. 10. 2004 07:22  | 

Taky ho pouzivam.
Jen by mohl rozebrat jscriptove odkazy na otevreni obrazku apod.

Souhlasím  |  Nesouhlasím  |  Odpovědět
M@rtin  |  06. 10. 2004 15:56  | 

Jojo, dobry program, taky ho pouzivam ... a mam to zadarmo
Ten JavaScript je obecne problem a nevim, jestli vubec nektery z programu to umi uspokojive resit...

Souhlasím  |  Nesouhlasím  |  Odpovědět
rOn  |  05. 10. 2004 01:34  | 

skusal som viacero webdownloaderov a najlepsi bol jednoznacne Offline Explorer, poradil si aj s dynamickymi webmi pisanymi plne v php ci takymi, co mali menu vo Flashi.

Souhlasím  |  Nesouhlasím  |  Odpovědět
nejhorší  |  05. 10. 2004 13:42  | 

před 2 léty jsem důkladně zkoušel (teleport mi přestal kvůli omezením vyhovovat) nové stahovače, tento dopad JEDNOZNAČNĚ jako nejhorší. Při stažení většího objemu stránek se enormně zpomalil - jen jeho vypnutí (na 1,5 GHz mašině) trvalo klidně 4 hodiny!!!! Zkoušel jsem na různých PC i WIN, reinstalace... Jinak byl OK.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Eda  |  07. 10. 2004 10:34  | 

No tak tedy nevim, ale Teleport existuje asi ve 3 verzich (Pro, Ultra a jeste nejaka) a lisi se od sebe omezenimi. Teleport byl hodne dlouho jednicka, ale jsou weby s kteryma si neporadi. Pote jsem zacal pouzivat Offline Explorer ve verzi 2.9 a ted 3.x a jsem plne spokojenej. Zadnej problem s rychlosti nemam a to stahuju kazdej mesic web, kterej ma pres 500MB a nekolik desitek tisic souboru a vsechno chodi naprosto suprove.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Garcon, Garcon  |  05. 10. 2004 02:04  | 

Nechápu, co pořád vymejšlíte, stejně jsou to všechno jenom napodobeniny wgetu (http://google.com/search?q=wget).

Souhlasím  |  Nesouhlasím  |  Odpovědět
martinp  |  05. 10. 2004 02:22  | 

jak se programy dokazi vyrovnat s javascriptem, vbscriptem, active-x a flashem a zminka o puvodne unixove utilitce WGET, ktera existuje i pro okna a rekurzivni stahovani ji take nedela problem.

Souhlasím  |  Nesouhlasím  |  Odpovědět
milos  |  05. 10. 2004 07:23  | 

to mate pravdu. Pouzivam WinHTTrack a jscriptove odkazy jsou v ...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Petr Mach  |  05. 10. 2004 03:13  | 

Taky se divim, ze tu neni zminen tento skvely nastroj, ktery ma kazdy (linuxak) k dispozici.

Souhlasím  |  Nesouhlasím  |  Odpovědět
network_gauner  |  05. 10. 2004 10:08  | 

Taky uz mi mnohokrat pomohl. Nevim sice, jak je to se stahovanim skriptu, flashu a podobnych nesmyslu (me zajima obsah, a inteligentni webmaster nikdy neudela menu ve Flashi, takze jsem to zatim neresil), ale na rekurzivni stahovani je IMHO nejlepsi.

Souhlasím  |  Nesouhlasím  |  Odpovědět
angel333, angel333  |  20. 01. 2006 22:46  | 

proc jenom linuxak?

Souhlasím  |  Nesouhlasím  |  Odpovědět
Brano  |  05. 10. 2004 04:30  | 

je tiez celkom dobry nastroj...

Souhlasím  |  Nesouhlasím  |  Odpovědět
[ELITE]Roger, [ELITE]Roger  |  05. 10. 2004 07:14  | 

Wgetom, cim inym?

Souhlasím  |  Nesouhlasím  |  Odpovědět
Pavel_, Pavel_  |  05. 10. 2004 14:39  | 

Tak tak... wget je nejlepsi

http://www.cetoraz.info/pavel/1355-wget---stahujme-kvalitne---Podrobny-navod-s-priklady

Souhlasím  |  Nesouhlasím  |  Odpovědět
Bilbo  |  06. 10. 2004 02:24  | 

Taky ho pouzivam, je nejlepsi, ale ma jednu drobnou nevyhodu - stahuje pouze v jednom threadu. Vetsinou to staci, ale pokud stahuju opravdu objemove velke stranky (radove tisice az desetitisice souboru), tak to trva nekdy dlouho....

Souhlasím  |  Nesouhlasím  |  Odpovědět
mmm  |  05. 10. 2004 07:16  | 

autor si teda nedal velku namahu ... to co tu popisal si zistim jedny dotazom z googlu ...
skor by mal uzivatelom poradit vlastne skusenosti ako ktory program funguje na velkych weboch a ako si dokaze s dynamickymi strankami ... ja som sa nedavno pokusal stiahnut cely web www.inzine.sk ... po par dnoch tahania s Teleportom som zistil, ze mam sice na disku 2GB data ale bohuzial, ked prislo na PHP v diskusiach tak to nezvladol ... tiez ma problem s prilis vysokym poctom odkazov ... WebCopier bol tiez slaby ...
asi najlepsie skusenosti mam s offline expolerom ... ten mi stiahol asi 5GB dat ... bohuzial treba na prezeranie pouzivat vstavany prehliadac, ktory nie je prave dokonaly co sa tyka vierohodnosti zobrazovania stranok ...
prosim pan redaktor, skuste nabuduce venovat viac namahy pisaniu clanku a nie len nainstalovat program a za 15 minut ho odinstalovat a ist skusat dalsi program ...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Ludwo  |  05. 10. 2004 09:42  | 

TeleportPro ma podla mojich skusenosti obmedzenie na 65535 liniek. Ktory zo spominanych toto obmedzenie nema? Stahujem velke weby a dost by mi to bodlo. Vdaka

Souhlasím  |  Nesouhlasím  |  Odpovědět
hdub  |  05. 10. 2004 10:23  | 

No, Vy jste teda darek! Vam bych dal za trest 1 rok na dial-upu natvrdo. Premyslel jste nekdy, co takovahle download akce udela s dostupnosti webu pro ostatni navstevniky?

Souhlasím  |  Nesouhlasím  |  Odpovědět
Eda  |  07. 10. 2004 10:37  | 

Tak se podivej na stranku vyrobce a budes vedet, ze teleport existuje asi ve trech verzich a druha po verzi Pro umi asi 260k souboru a ta nejvetsi snad nema omezeni zadny. Ale jinak Offline Explorer je bez omezeni.

Souhlasím  |  Nesouhlasím  |  Odpovědět
pepa.r  |  05. 10. 2004 10:49  | 

tak clanek ma hodnotu pouze ve vyjmenovani par moznych programu .. coz se da zjistit na webu ..

to dulezite, jak je to psano vyse => dynamicke stranky, javascriptove odkazy .. to tu popsano neni a nenapada me kvuli cemu jinemu bych mel takovy clanek cist / vydavat ..

Souhlasím  |  Nesouhlasím  |  Odpovědět
Pepyk.com  |  05. 10. 2004 11:02  | 

Zajímalo by mě, umí-li některý z těchto (nebo i jiných) fungovat jako vyhledávač... Tedy aby uměl najít aktuální umístění učitého textu, či obrázku, na který nestačí vyhledávání na webu (pokud vůbec je). Tuto funkci bych si představoval tak, že by program stahoval kódy jednotlivých stránek a až by na některé na hledaný text či název obrázku narazil, nabídl by se mi odkaz a možnost pokračování v hledání... Nevíte o něčem takovém?

Souhlasím  |  Nesouhlasím  |  Odpovědět
Homer  |  05. 10. 2004 18:05  | 

No,

Souhlasím  |  Nesouhlasím  |  Odpovědět
Homer  |  05. 10. 2004 18:07  | 

Pardon, ještě jednou.
Kdysi něco takového uměl NetAttaché 2,6. Měl integrovaný vlastní vyhledávač, pomocí doplňujícího programu se dalo nadefinovat vyhledávání v jakémkoli vyhledávači a nalzené stránky stahoval. Bohužel výrobce jeho podporu ukončil. Další nevýhodou bylo ukládání do vlastního komprimovaného formátu.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Pepyk.com  |  05. 10. 2004 19:59  | 

Díky za tip, žel to nebude úplně ono. Informace, které nabízejí vyhledávače nejsou totiž aktuální, jelikož vyhledávací roboti aktualizují data po několika dnech. To, co chci já, by byl vlastně takový můj osobní bot, do kterého napíšu název domény a on mi začne z tohoto webu stahovat současné informace... Asi toho chci moc, škoda, že si něco takového neumím sám naprogramovat..

Souhlasím  |  Nesouhlasím  |  Odpovědět
bob  |  05. 10. 2004 23:07  | 

Pokud se nemýlím, tak na živě na ně byl taky takový článek.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Santo, Santo  |  06. 10. 2004 00:05  | 

Pro všechny lidi na dialupu doporučuju jednoznačně Offline Commander (nebo Internet Researcher, skoro stejný). Ovládání není vůbec tak nepřehledné, jak píše autor a program je velmi pohodlný. Zobrazíte si stránku, naklikáte si odkazy, které chcete stáhnout, pak se odpojíte a čtete do aleluja. Samozřejmě umí i klasické stahování určité včetně filtrů.
Ještě dodám, že jsem vyzkoušel i všechny ostatní.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Zasílat názory e-mailem: Zasílat názory Můj názor

Aktuální číslo časopisu Computer

Velký test Wi-Fi mesh

Nejlepší hodinky pro všechny aktivity

Důležité aplikace na cesty

Jak streamovat video na Twitch