Jak już wspomnieliśmy przy okazji omawiania badań pierwotnych, większość obserwacji jest prowadzona za pomocą automatów, które nie tylko gromadzą, lecz także wstępnie przetwarzają dane. Podstawowym problemem jest jednak brak ściśle określonych standardów, co w niektórych wypadkach całkowicie uniemożliwia dalszą obróbkę i analizę danych, szczególnie analizę porównawczą – chodzi tu nawet o podstawowe parametry serwisów internetowych, na przykład oglądalność. Okazuje się, że różne systemy stosują różnego rodzaju filtry, wykluczając na przykład powtarzające się odniesienia z jednego komputera czy też wyłączając ze statystyk odwiedziny robotów indeksujących strony. Jeden z badanych przez autora serwisów posiadał trzy niezależne systemy generowania statystyk (adserwer, system wewnętrznych statystyk oraz zewnętrzny system monitorujący ruch na witrynie): wyniki pomiaru różniły się od siebie w poszczególnych miesiącach nawet o kilkadziesiąt procent. W takich wypadkach należy brać pod uwagę źródło statystyk, które wykazuje najniższy ruch (oczywiście wcześniej trzeba sprawdzić, czy zaniżony wynik nie jest przypadkiem efektem wadliwego działania systemu, co również niestety się zdarza).