Journal of Clinical Healthcare (JCHC)
1-5 2 Journal of Clinical Healthcare 3/2018 świadomi siły wynikającej z dokładnie zbieranych i zapisywanych danych o każdym obywatelu, dlatego spisy powszechne wykorzystywano już w Babilonii czy Egipcie. Szczególny wzrost znaczenia wydobywania wiedzy z powierzonych informacji upowszechnił się w średniowieczu wraz z rozwojem gospodarki towarowopieniężnej i rozpowszechnie- niem umiejętności czytania oraz pisania [1]. Pierwsze zastosowania masowej kolekcji danych w dziedzinie zdrowia publicznego miały miejsce w 1854 roku, kiedy fala cholery przetoczyła się przez Londyn. John Snow uważany za ojca współczesnej epidemiologii potrafił z zebranych danych na temat zarażonych domostw wysnuć wnioski, że lokalna studnia na Broad Street jest odpowiedzialna za występowanie nowych przypadków choroby. Przyczynił się tym samym do całkowitego zamknięcia skażonego obiektu oraz przywrócenia ładu epidemiologicznego w Londynie, bez znajomości przecinkowca cholery - bakterii powodującej epidemię. John Snow poświęcił swojej pracy kilka miesięcy zanim wpadł na rozwiązanie palącego problemu. Dzisiejsze systemy informatycznie i system pozycjonowania GPS mogłyby rozwiązać podobny problem w niespełna godzinę oszczędzając tym samym czasu i pracy, którą ojciec epidemiologii mógłby poświęcić na rozwiązywanie innych problemów. Nie miałby on jednak łatwego zadania, bowiem współcześnie liczba generowanych danych przekracza możliwości ich analizy. Zakres informacji, który jest zbyt obszerny i skomplikowany do przetwarzania tradycyjnymi modelami został określony mianem Big Data. Wielkość współczesnych wolumenów danych gromadzonych cyfrowo sprawia, że sposób wydobywania wiedzy wymaga nowego podejścia badawczego. Ostatnie dziesięć lat to dekada gwałtownego rozwoju technologicznego podczas, której narodziły się nowe problemy, a także idee ich rozwiązywania. Nowe narzędzia oraz metody pracy z danymi pozwalają na dokonanie dużego skoku jakościowego w każdej dziedzinie, także w sektorze ochrony zdrowia i zdrowia publicznego [2]. BIG DATA Istnieją zauważalne różnice w modelach badawczych pomiędzy ujęciem klasycznym, a koncepcją analizy Big Data. Tradycyjne modele opierają się na stawianiu hipotez na podstawiepierwszych obserwacji. Akt ten zostaje dokonany jeszcze przed zebraniem i sklasyfikowaniem odpowiednich danych. Samo gromadzenie faktów odbywa się również w sposób często analogowy. Naukowcy zwykle stosują podejście tradycyjne w postaci „kartki i ołówka”, a co za tym idzie ankiet, kwestionariuszy i fizycznych pomiarów, w celu zebrania potrzebnych danych. Choć nieobce są im również nowoczesne technologie, które usprawniają cały proces to model ich przetwarzania pozostaje wciąż taki sam, a operacje na danych są często uproszczone. Postawione hipotezy za pomocą przetwarzania zgromadzonych informacji próbuje się potwierdzić lub obalić. Z kolei samo badanie może mieć charakter pełny (cała populacja) lub częściowy. Najczęściej z uwagi na trudność przeprowadzenia pełnego badania (np. ze względu na koszty czy czas), prowadzi się jego drugi typ. W procesie dochodzenia do wyników, pobiera się odpowiednią próbę losową z badanej populacji, z której z kolei po weryfikacji hipotezy, wysuwa się wnioski.. Próbki muszą mieć charakter reprezentacyjny, jednak nie zawsze jest to możliwe, a zdarza się, że naukowcy starają się naginać fakty dobierając stany potwierdzające lub zaprzeczające hipotezą jakie postawili. Zdarzają się też próby oszustwa i manipulacji wynikami badań. Istnieje także liczna grupa błędów metodologicznych, których autorzy badań muszą się wystrzegać, aby uzyskane wyniki byłby wiarygodne i możliwe do powtórzenia w innym punkcie badawczym, co jest podstawą współczesnej nauki [3]. ERA INFORMATYCZNA Współcześnie wraz z nastaniem nowej ery określanej mianem informacyjnej, pozyskiwanie danych diametralnie zmieniło swoje oblicze. Wraz z wejściem do użytku ogólnego urządzeń cyfrowych i rozpowszechnieniem Internetu okazało się, że istnieje możliwość zbierania i analizowania danych osobowych przez całą dobę.[4] Ciągły napływ informacji zrodził nowe problemy, wobec których klasyczne procedury okazują się bezsilne. Dzisiejszy fenomen kwantyfikowania i zamiany wszelkich elementów rzeczywistości na dane cyfrowe, w celu ich późniejszej analizy nosi nazwę danetyzacji [5]. Termin został wykuty przez Viktora Mayer-Schon- bergera i Kenneth Cukiera, dwóch naukowców zajmujących się tematem Big Data. W związku z rosnącą potrzebą analizy zapisanych na dyskach komputerów informacji zaczęto tworzyć nowe matematyczno-statystyczne metody i algorytmy, które umożliwiłyby wydobycie nieznanych wzorców ze skupisk faktów. Wysoce zaawansowane metody
Made with FlippingBook
RkJQdWJsaXNoZXIy MzM5OTk=