Zjednodusene: * posles GET request na spravne URL* dostanes zpet nejaka data. Bud CSV, nebo HTML, nebo cokoli jineho, co dany web podporuje (dnes idealne treba JSON nebo XML - oboji vhodne pro automaticke zpracovani * v tech datech najdes obsah, ktery te zajima**to nalezeni obsahu nebyva jednoduche, zvlaste v pripade HTML. Muzes na to jit naivne a hledat nejaky retezec, a pak rict "moje hodnota se vyskytuje v pristich deseti znacich. Spravne se to dela tak, ze se HTML takzvane "parsuje" a tim se vytvori jakysi abstraktni strom pojmu, ze kterych se sklada dana HTML stranka. A v tom stromu se pak da nalezt treba "hodnota elementu, ktery se jmenuje 'teplota'". Mimochodem web scraping neznamena "Python", jen je to jazyk ve kterem je to casto psano, protoze to tam jde na par radku kodu."jak mám zkombinovat odkaz na nějaký web a funkci co vrací hodnotu z nějakého elementu té stránky" - odkaz musis stahnout, takze nejspis pouzijes neco co umi provest HTTP GET - at uz je to nejaka softwarova komponenta nejakeho senzoru, "wget" v prikazove radce nebo prikaz v prakticky libovolnem beznem programovacim jazyce. A vysledek toho volani proste musis zpracovat, coz muze a nemusi byt jendoduche. Proto jsem te odkazal na "web scraping", coz je cela oborova disciplina, ktere se nekteri venuji profesionalne. Pokud ses podival na prvni vysledek hledani na Google a usoudil ze to je nejaky kus kodu v Pythonu, tak je mi to lito ale vic to pomoct nedokazu.