Je to smutné, když vidít takový kód:
- jmenné konvence pro C# nejsou aplikované viz error_file_pathname, myparameters, atd.
- OOP by mělo vypadat jinak, všude vidím jen statické metody
- konfigurační parametry přímo v kódu, žádné extra třída typu singleton s načítáním hodnot
- neošetřené chyby viz myparameters nemusí obsahovat 4 parametry, obsah stránký může být větší než 2.5 MB
- komentáře v kódu nejsou aplikovány
- návrhové vzory nejsou aplikovány
- alokace paměti, pevně definované hodnoty viz www_page_content_chars=new char [2500000];
- všechny data předávaná přes parametry, žádné členské proměnné, chudák callstack
- logování chyb natvrdo do console bez volitelného výstupu
- ...Musím konstatovat, že ten kdo psal tento kód se C# neživí (fakt). Nicméně netvrdím, že algoritmus analýzy obsahu webu nemusí být unikátní a konkurence schopný. Zatím, mám z uvedeného pocit, že na závodech Formule 1 přijel trabant a jsem osobně zvědav co je pod kapotou, protože ten trabant vypadá fakt hrozně . Těším se na start a budu příjemně překvapen, pokud výsledek bude rozdílný od dosavadního očekávání.
----------------
Tak mam jeden mega, mega joke z http://www.milionovastranka.net/documents/databases/konfi... ... a to originál citace
"
StahováníPokud by se 65 terrabyte stahovalo rychlostí 1 gigabit za sekundu,jednalo by se celkem o (65 terra / 1 giga) x 8 bitů = 520000 sekund, tedy cca 144 hodin, tedy cca 6 dní.Pokud by se stahovalo jen v noci, aby se ve dne neblokovala linka providera, tedy od 10 večer do 6 ráno, pak je to 8 hodin denně, tedy 3 krát více, tedy 3 x 6 = 18 dní.Specielně zde se mi to zdá dost málo, takže, prosím, prověřte můj výpočet.Také by to znamenalo, že po stažení a zpracování do databáze by se mohly zdrojáky WWW stránek apod. smazat a tím diskový prostor uvolnit, přičemž by se dle potřeby daly případně stahnout znovu.Samozřejmě by se to muselo rozdělit na procesy, které budou iniciovat stahování, které budou provádět vlastní stahování a které budou zapisovat na disk plus rozškálovat mezi N (100?) stahovacích procesů, takže celkem odhadem 3 x 100 procesů, tak, aby se skoro pořád stahovalo. Zápisová rychlost na disky je, myslím, také kolem 1 gigabitu za sekundu, takže to by odpovídalo.Podle mého odhadu by tohle zvládl server střední konfigurace, pokud ne, bylo by možné počet procesů snížit, případně navýšit konfiguraci serveru nebo to rozdělit na několik serverů.
"
Názor byl 1× upraven, naposled 07. 06. 2011 22:25