A homogenizált adatosorokra gondolom ott van szükség, ahol ezeket egy másik rendszer inputjaként adod be. Például egy éghajlatváltozást vizsgáló algoritmus bemenetként minél hosszabb változatlan adatsort vár. Nem teheted meg, hogy beadod a homogenizálatlan adatsort, hiszen nem tudod beadni az egyes mérések szakaszait, hogy 1901-1950 belváros, 1951-1990 külváros, mert nem teszi lehetõvé az adott program/algoritmus stb. Ha pedig lehetõvé teszi, akkor meg õ maga homogenizál úgyis belül, és akkor már jobb ha Te csinálod több ésszel.
Sokszor ugyanis nem elég a t - (t-1) vizsgálat, mert akkor nem tudod összevetni a t(Ásotthalom) és t(Szeged) értékeket, vagy a t(globális) és t(magyar) értékeket stb. stb. Ezért én arra tippelnék, hogy megállja a helyét a rendes és a homogenizált adatsor is, függõen attól, hogy mire használjuk.

Persze ha az adatsor maga a végeredmény akar lenni, egyedül, magában, akkor megfelelõ leírás, magyarázat mellett egyetértek azzal, amit mondasz, nem kell a homogenizáció. Azt is tudja szerintem mindenki, hogy hamis adatok állnak elõ, mégis abban a hiszemben teszik, hogy a kapott adatsor mégis pontosabb, mint homogenizáció elõtt (az adott feladatot tekintve).

Aztán lehet rosszul gondolom.