• 11 maja 2024

Dynamiczny rozwój Internetu doprowadził do sytuacji, w której ilość wytwarzanych i gromadzonych przez nas informacji jest na tyle duża, że nie mieści się w granicach możliwości dotychczasowych narzędzi, które odpowiadają za ich analizę i przetwarzanie.

Innowacją, która umożliwia dokonywanie tego typu operacji, jest Big Data.

Z szacunków firmy IBM wynika, że blisko 90% wszystkich obecnych na świecie danych zostało utworzone w okresie ostatnich dwóch lat. Wpływ na to miał znaczny rozwój multimediów, szerząca się popularność portali społecznościowych oraz stałe powstawanie  nowych technologii pozwalających na wytwarzanie, przechowywanie i przesyłanie danych.

W związku z technologią Big Data pojawia się pytanie dotyczące sposobu skutecznego zarządzania i wykorzystywania tej stale rozrastającej się i korzystającej z licznych, bogatych źródeł bazy danych. W jaki sposób dokonać analizy tak ogromnej bazy danych? Jak dokonać oddzielenia informacji istotnych od tych mniej ważnych, wyciągnięcia odpowiednich wniosków oraz finalnie, w jaki sposób dokonać efektywnego przełożenia takiej wiedzy na rozwój i realizację założeń biznesowych. Okazuje się, że najlepszą odpowiedzią na wszystkie te pytania jest właśnie technologia Big Data.

W dzisiejszym świecie wiele przedsiębiorstw gromadzi niewyobrażalnie duże ilości informacji. Rozmiar takich baz danych może osiągać zawrotną wartość liczoną w terabajtach, a nawet petabajtach. Tak jak wynika to z nazwy, Big Data kolekcjonuje zbiory danych w takich właśnie rozmiarach. Mylne jest jednak stwierdzenie, że każdą dużą grupę skupionych danych możemy nazwać określeniem Big Data. Oprócz rozmiaru danych, konieczne jest także ich zróżnicowanie, wartość, prędkość ich napływu oraz wysoko rozwinięte przetwarzanie i ich analiza. Dzięki Big Data możliwe jest obecnie przetwarzanie i wyciąganie zaawansowanych wniosków z tego typu informacji.

Analiza baz danych

Bazując na definicji firmy Forrester, Big Data obejmuje cztery wymiary, zwane w skrócie 4V. Na 4V składają się zatem:

  • Volume – ilość i wielkość danych
  • Variety – zróżnicowanie danych
  • Velocity – prędkość, z jaką napływają dane oraz dokonywana jest ich analiza
  • Value – wartość danych

Volume

Własną definicję Big Data stworzył także Instytut McKinsey Global. Według niego technologia Big Data dotyczy wszelkich zbiorów baz danych, charakteryzujących się rozmiarami przekraczającymi możliwości tradycyjnych technologii do ich przechowywania, gromadzenia, zarządzania nimi oraz ich analizy. Przy tej definicji warto podkreślić jej płynność – nie określa bowiem w żadnym miejscu konkretnych rozmiarów danych, a dotyczy bardziej technologicznych sposobów ich zarządzania.

Top