Sieci korporacyjne muszą okiełznać Big Data

Z dnia na dzień rośnie liczba smartfonów, kamer, czujników, urządzeń pomiarowych, które są podłączane do sieci. Generowane jest coraz więcej informacji, które mogą być wykorzystywane do podejmowania decyzji biznesowych. Problem w tym, że obecnie niewielu menadżerów umie jeszcze z tego bogactwa skorzystać, bo brak im odpowiednich narzędzi. Firmy z branży IT zapowiadają, że są gotowe je dostarczyć

Publikacja: 24.06.2013 07:00

Sieci korporacyjne muszą okiełznać Big Data

Foto: ROL

Termin „wielkie zbiory danych” (ang. Big Data) oznacza zbiory, które są zbyt duże, zbyt niejednolite lub które charakteryzują się zbyt dużą dynamiką zmian, aby można było je analizować przy użyciu tradycyjnych technik bazodanowych.

– Dziś w niewielu firmach, podejmując decyzje, pod uwagę bierze się takie źródła, jak materiały wideo, czy media społecznościowe, bo nie wiadomo jak się zabrać do ich analizy. A pierwsze przykłady pokazują, że analizować je warto – mówi Grzegorz Dobrowolski, dyrektor sprzedaży rozwiązań data center i wirtualizacja w Cisco Systems Poland.

Podaje przykład sieci sprzedaży AGD z zagranicy, która udostępniła klientom w sklepach hotspoty i analizowała, jakie zapytania  wpisują do wyszukiwarki internetowej przez smartfony.  Nie było specjalnym zaskoczeniem, że często porównywali ceny z ofertą e-sklepów. To pozwalało na odpowiednie dostosowywanie cenników pracownikom sieci AGD.

Działy IT w firmach przeczuwają już dziś, że okiełznanie wielkich zbiorów danych będzie w najbliższych latach jednym z ich najważniejszych zadań. Jednym  rozwiązań, jest technologia in-memory computing, w której ładowanie i przetwarzanie danych odbywa się w pamięci podręcznej RAM z pominięciem tradycyjnych nośników danych, takich jak dyski twarde, czy taśmy magnetyczne. W porównaniu z metodami tradycyjnymi technologia in-memory umożliwia szybszą pracę na dużych zbiorach.

Na takie rozwiązania mocno stawia np. niemiecki SAP, producent oprogramowania biznesowego.  Kilka miesięcy temu firma ta zaprezentowała swój najnowszy produkt oparty na platformie SAP HANA, bazujący na technologii in-memory. Umożliwia on rejestrowanie i analizowanie danych w czasie rzeczywistym na jednej platformie.  Pozwala to klientom przetwarzać  potrzebne informacje w ciągu kilku sekund, co wcześniej zajmowało kilka godzin, a nawet dni. Dzięki temu np. właściciel sieci sklepów będzie mógł śledzić na bieżąco, jakie towary i gdzie się sprzedają w danej chwili.

Jedną z pierwszych firm, która zaczęła testować w swej działalności to rozwiązanie, jest znany producent słodyczy Ferrero. – W ciągu najbliższych pięciu lat firma Ferrero chce podwoić swoje całkowite obroty poza Europą, w czym pomóc technologia in memory – mówi Enzo Bertolini, dyrektor ds. informatycznych w grupie Ferrero. – Po pierwszych doświadczeniach widzimy, że można znacznie przyspieszyć i uprościć korzystanie z informacji dostępnych w czasie rzeczywistym. Spodziewamy się wyraźnych korzyści w zakresie promocji handlowych i łańcucha dostaw uzyskanych dzięki lepszym symulacjom i sprawniejszym planom. Sądzimy, że przyszłość, to połączenie mobilności z dużymi zbiorami danych, co oznacza zmianę sposobu podejmowania decyzji i zarządzania procesami – tłumaczy Enzo Bertolini.

Firma RSA z kolei przewiduje, że w ciągu dwóch lat analityka wielkich zbiorów danych będzie miała wpływ na zmiany w wielu segmentach bezpieczeństwa informatycznego. Na przykład w segmencie monitorowania sieci, uwierzytelniania i autoryzacji użytkownika, zarządzania tożsamością, wykrywania oszustw i oprogramowania nadzorującego zgodność działania korporacji z prawem, procedurami i etyką (tzw. compliance). Według specjalistów z RSA w ciągu następnych 3-5 lat narzędzia do analizy danych będą w dalszym ciągu ewoluować, udostępniając szereg zaawansowanych funkcji prognostycznych i zautomatyzowane narzędzia kontroli działające w czasie rzeczywistym.

Dostrzeżenie  przez biznes możliwości, jakie stwarza analiza Big Data, to szansa także dla operatorów telekomunikacyjnych.  Z badania Cisco wynika bowiem, że tylko 45 menadżerów z działów IT w polskich firmach uważa, że ich sieci firmowe są gotowe na współpracę z dużymi zbiorami danych. W skali światowej wskaźnik ten jest jeszcze niższy i wynosi 41 proc. Jednocześnie 33 proc. polskich respondentów deklaruje, że aby rozwiązać ten problem będzie im potrzebna większą przepustowość łączy. To może okazać się kolejnym stymulantem segmentu transmisji danych na rynku usług dla biznesu.

Termin „wielkie zbiory danych” (ang. Big Data) oznacza zbiory, które są zbyt duże, zbyt niejednolite lub które charakteryzują się zbyt dużą dynamiką zmian, aby można było je analizować przy użyciu tradycyjnych technik bazodanowych.

– Dziś w niewielu firmach, podejmując decyzje, pod uwagę bierze się takie źródła, jak materiały wideo, czy media społecznościowe, bo nie wiadomo jak się zabrać do ich analizy. A pierwsze przykłady pokazują, że analizować je warto – mówi Grzegorz Dobrowolski, dyrektor sprzedaży rozwiązań data center i wirtualizacja w Cisco Systems Poland.

Pozostało 86% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Telekomunikacja
Eldorado 5G dobiega końca, a firmy tną etaty. Co z Polską?
Telekomunikacja
Do kogo przenoszą się klienci sieci komórkowych. Jest największy przegrany
Telekomunikacja
To już wojna w telefonii na kartę. Sieci komórkowe mają nowy haczyk na klientów
Telekomunikacja
Polski internet mobilny właśnie mocno przyspieszył. Efekt nowego pasma 5G
Telekomunikacja
Nowy lider wyścigu internetowych grup w Polsce. Przełomowy moment dla Polsatu