200 URL - kontrola obsahu stránek

10 odpovědí řadit od nejnovějších

3. 2. 2025 • 22:55

Ahoj,Mám cca 200 web stránek a potřebuju průběžně zkontrolovat, zda se na těch stránkách nevyskytne klíčové slovo. Nějaký nápad, jak to nejjednodušeji provést? Nějaký program pod win či macOS? Či řešit přes ai?Díky za tip.Mm

4. 2. 2025 • 7:52

Ja by som ich stiahol. Ak sa da, nejakym automatickym sposobom. Ulozit by som dal "len html". Potom by som ich nejakom suborovom manageri vsetky oznacil a dal otvorit v textovom editore Geany. A potom v Geany das hladat "v celej relacii". Vtedy hlada vo vsetkych otvorenych suboroch.

4. 2. 2025 • 9:16

pokud shrnu tvou radu: nějak bych to něčím udělal

4. 2. 2025 • 9:34

Snad jste troll a nechcete lidem opravdu radit či pomáhat...

4. 2. 2025 • 8:00

Bych to asi resil pochopitelnejsim dotazem nejdriv ;Jen si rikam, jak by neco resil webmaster kdyby jich mel 400, ze by nejakym scriptem s vystupem do sveho prehledneho logu?

4. 2. 2025 • 8:12

asi najjednoduchsie takto :1. ulozit vsetky URL do textoveho suboru2. nasledne cez wget stiahnut "root" html stranku (centralnu) nieco na sposob : wget -r -p -i subor.txt3. nasledne, ked sa stiahntu prislusne index.html subory, pohnat na nich grep (napr. grep -iH textovy_retazec *.html ) a oin Ti vrati, zoznam suborov, kde sa dany text nachadza

4. 2. 2025 • 8:18

Průběžně tady znamená nepřetržitě, jednou za hodinu, den, týden...?

4. 2. 2025 • 8:19

Jednou za pár dnů (každý 3. den)

4. 2. 2025 • 8:36

Stiahnut stranku, prebehnut nejakym parserom a vratit vysledok. Zalezi, ci to chces nejak graficky, alebo ti staci len: nachadza/nenachadza. Teoreticky by na to stacil wget, grep, bash, ale da sa to aj v php, c#, jave...

4. 2. 2025 • 8:49

Postaru curl + regexp filter. Vse je standardni soucasti Windows (curl, findtsr).Nebo objektove v PS - viz treba https://forums.powershell.org/t/searching-fo...te/20401/2Samozrejme problem bude do jake stranky chces kraulovat a do jakych subdomen a cizich domen MP

4. 2. 2025 • 9:20

Zkuste se zeptat ChatGPT. Třeba existuje online služba, která to udělá za vás. To co potřebujete, se jmenuje Crawler.

Určitě si přečtěte

Články odjinud