Technicky na velikosti v GB moc nezalezi (maximalne se cela databaze nevejde do pameti). U databaze jde spis o pocty zaznamu (v miliardach zaznamu se hleda relativne pomaleji, zvlast pokud nejde pouzit index), jejich strukturu (je dost rozdil mit 3 int polozky a treba 70 intu, stringu, datetimu, atd. na radku), indexy*, typy dotazu (tuny joinu, atp.) a tak dale. Pokud jde o nedatabazova data, tak opet zalezi o co jde - jine je zpracovavat 5 udaju o teplote kazdou sekundu a jine analyzovat 4K video sekvenci v realnem case, a tak podobne.
* spatny navrh databaze/indexu muze bezne znamenat potrebu X krat vykonnejsiho HW