Wywiad: analiza dużych zbiorów danych w czasie rzeczywistym

28.11.2022

Zdecydowana większość europejskich przedsiębiorstw posiada już w swoich zasobach narzędzia, które umożliwiają sprawne zbieranie i przechowywanie danych. Nie od dziś wiadomo przecież, że prawdziwą wartość stanowią współcześnie informacje. By skutecznie zarządzać firmą, podejmować racjonalne decyzje biznesowe oraz kreować nowe perspektywy rozwoju musimy mieć solidną bazę. Pytanie: czy można skutecznie wydobyć te materiały, które rzeczywiście mają istotne znaczenie w kontekście rozwoju przedsiębiorstwa? Zwłaszcza teraz, gdy na każdym kroku zalewają nas informacje, których przeciętny człowiek nie jest w stanie samodzielnie zweryfikować i przetworzyć. Pytania te zadajemy jednemu z naszych ekspertów.

Marta Skiba: Tomku, podstawowe pytanie dzisiejszej rozmowy brzmi: czy można efektywnie analizować duże zbiory danych?

  • Tomasz Srebrny: tak. Pewnie zapytasz, w jaki sposób? Właściwie mogę podać tylko jedną odpowiedź: oprogramowanie. Nie takie zwykłe oczywiście. Ogromne ilości danych, które każdego dnia są gromadzone w przedsiębiorstwach trzeba odpowiednio obrobić. Tylko w ten sposób staną się użyteczne dla decydentów i kadry zarządzającej.

Marta Skiba: dominuje przekonanie, że dane są kluczowym czynnikiem sukcesu na rynku. Zgadzasz się z tą tezą?

  • Tomasz Srebrny: zdecydowanie informacja uznawana jest za surowiec XXI wieku i jest w tym dużo racji. Warto jednak zaakcentować wyraźnie, że potęgą nie jest obecnie posiadanie mechanizmów, które umożliwiają gromadzenie danych. Większość przedsiębiorców już wyposażyła swoje firmy w tego typu oprogramowanie. Teraz priorytetem jest wykorzystanie danych do podejmowania skutecznych decyzji biznesowych. To może zagwarantować prawdziwą przewagę.

Marta Skiba: skuteczne decyzje biznesowe… czyli jakie?

  • Tomasz Srebrny: to decyzje, którepozwalają rozwijać przedsiębiorstwo w oparciu o rzeczywiste potrzeby odbiorców z uwzględnieniem realnych możliwości całego rynku. Gromadzone bazy danych mogą przecież dostarczać jakościowych informacji. A pojedynczy człowiek nie musi poświęcać ogromnych ilości czasu i energii na ich samodzielną analizę. Decydenci chcą błyskawicznie reagować na bieżące wydarzenia. Analiza dużych zbiorów danych w czasie rzeczywistym stanowi dla nich niezwykle cenne wsparcie.

Marta Skiba: możemy więc powiedzieć, że mechanizmy integracji analizy tych informacji z procesem podejmowania decyzji to obecnie jedne z najbardziej poszukiwanych rozwiązań IT?

  • Tomasz Srebrny: zdecydowanie tak. Bardzo trafne stwierdzenie mówi, że trwa teraz era rewolucji danych. To, w jaki sposób wykorzystamy ten potencjał, jest ściśle połączone z potrzebami konkretnej firmy. Z każdą sekundą do oprogramowania funkcjonującego w danym przedsiębiorstwie trafiają ogromne ilości danych z różnych źródeł. Zarówno firmy, jak i ich klienci, posiadają obecnie coraz więcej technologii i urządzeń, które stale tworzą i przechwytują informacje. Jedna osoba, może przecież aktywnie wykorzystywać komputer, laptop, tablet, smartfon, itp. Każde z tych urządzeń operuje danymi. Właśnie takie zestawy ogromnej ilości różnorodnych informacji określamy terminem dużych zbiorów danych (Big Data). Ich objętość, różnorodność, ale i szybkość napływu może przytłoczyć.

Marta Skiba: Big Data obejmują różnorodne typy informacji. Czy rzeczywiście można sprawnie poruszać się w ich gąszczu?

  • Tomasz Srebrny: możliwych typów danych do potencjalnej analizy jest wiele. Strumienie kliknięć, pliki tekstowe, audio, wideo, dane XML, geolokalizacja – przykładów można podawać sporo. Bezsprzecznie te informacje wymagają zmiany podejścia do obróbki danych. Właśnie dlatego analiza dużych zbiorów danych w czasie rzeczywistym staje się obecnie jednym z wiodących kierunków rozwoju narzędzi IT. Big Data dotyczy zbiorów danych tak rozległych, że obróbka ich przy wykorzystaniu tradycyjnych systemów do zarządzania bazami danych jest niezwykle trudna. Im większy zbiór danych, tym trudniej nim zarządzać.

Marta Skiba: zarządzanie jest trudniejsze, ale nie niemożliwe?

  • Tomasz Srebrny: aby skutecznie analizować duże zbiory danych powinniśmy przede wszystkim dobrze je zrozumieć, odpowiednio zintegrować, określić kryteria wstępnej selekcji oraz przetworzyć je zgodnie z bieżącymi potrzebami. Zautomatyzowanie procesu podejmowania decyzji opiera się w dużym uproszczeniu na zestawianiu nowo zdobytych informacji z określonymi regułami, zależnościami, trendami czy podobieństwami. Im więcej takich danych będzie zgromadzonych w systemie, tym łatwiejsze stanie się przewidywanie analogicznych zależności w przyszłości. Oprogramowanie wykorzystujące potencjał sztucznej inteligencji, machine learning i deep learning umożliwiają nam skuteczne wsparcie w podejmowaniu bieżących decyzji biznesowych.

Marta Skiba: możemy porozmawiać o przykładach? Jakie elementy funkcjonowania przedsiębiorstw można w ten sposób optymalizować?

  • Tomasz Srebrny: w praktyce… wszystkie. Biorąc pod uwagę firmy produkcyjne możemy analizować w ten sposób stopień zużycia maszyn i urządzeń wchodzących w skład parku maszynowego. Zestawiając dane zdobyte z czujników umieszczonych na halach produkcyjnych z informacjami np. o maksymalnym możliwym zużyciu danego podzespołu, jesteśmy w stanie zredukować liczbę nieplanowanych przestojów związanych z awariami. W sektorze usługowym możemy przewidzieć okresy zwiększonego zapotrzebowania na konkretne elementy oferty klienta i odpowiednio wcześnie przygotować się do sprawnej obsługi klientów. W logistyce możemy zwiększać efektywność łańcuchów dostaw. Zarządzanie procesem optymalizacji obsługi posprzedażowej i wszelkie mechanizmy utrzymania klientów można wdrażać niezwykle skutecznie dzięki analizie dużych zbiorów danych w czasie rzeczywistym.

Marta Skiba: potencjał, jak widać, jest ogromny…

  • Tomasz Srebrny: oprogramowanie nieustannie się rozwija. Świat IT nie dopuszcza myśli o stagnacji. Zawsze przecież znajdzie się potencjał do zagospodarowania, nisza, którą można usprawnić. Najtrudniejszym wyzwaniem staje się obecnie sprawne poruszanie w dostępnych narzędziach i usługach, umożliwiających wykorzystanie nowoczesnych zdobyczy IT w przedsiębiorstwach. Warto również podkreślić, że dostępne opcje należy zawsze rozważać w kontekście potrzeb indywidualnych.

Marta Skiba: ogólne schematy niekoniecznie wszędzie się sprawdzają.

  • Tomasz Srebrny: zgadza się. Niekiedy z pozoru niezwykle skomplikowane cele można zrealizować za pomocą oprogramowania, które powstaje w szybkim czasie. Innym razem zdecydowanie lepiej sprawdzi się rozbudowane rozwiązanie szyte na miarę. Skala i zakres funkcjonalności determinują ścieżkę projektową. Równie istotna jest integracja nowych systemów z tymi, które już wcześniej zostały wdrożone w przedsiębiorstwie. Optymalne zarządzanie infrastrukturą IT nie polega przecież na generowaniu niepotrzebnych kosztów. Naszym celem jest optymalne dopasowanie możliwości nowego oprogramowania do potrzeb i budżetu klientów. Zawsze jest to sprawa indywidualna.

Jeśli chcesz zapytać o dodatkowe informacje na temat analizy dużych zbiorów danych w czasie rzeczywistym, zachęcamy do kontaktu

Poprzedni wpis Następny wpis