Search for: [Abstrakt = "Rozwój techniki teleinformacyjnej, Internetu i informatyki przy jednoczesnym spadku jednostkowych kosztów gromadzenia i przechowywania danych powoduje istotne ilościowe i jakościowe zmiany w podejściu zarówno do samych danych, jak i możliwości i ch analizy. Ten coraz bardziej gęsty, ciągły i niestrukturyzowany strumień danych, nazywany Big Data, wywołuje współcześnie wiele emocji. Z jednej strony brak odpowiedniej ilości danych był zawsze wyzwaniem dla metod wnioskowania statystycznego i jednym z bodźców ich rozwoju. Jednak z drugiej strony, w dużych liczebnościach prób zawarte są liczne zagrożenia dla wiarygodności wnioskowania. W zbiorach takich, poza danymi o odpowiedniej jakości \(Clear Data\), znaczny udział mają dane nieprawdziwe, nieaktualne, zaszumione, często wielokrotnie zduplikowane, niekompletne lub błędne \(Dirty Data\), a także dane, o których jakości czy użyteczności nic nie wiadomo \(Dark Data\). Celem prezentowanych badań jest krytyczne przedstawienie struktury jakościowej zbioru Big Dat"]