Strona główna Blog Strona 24

Narzędzia dezinformacji są coraz bardziej zaawansowane. Bez zmiany nawyków użytkowników social mediów walka z nią będzie niemożliwa

Pandemia COVID-19 i agresja militarna Rosji na Ukrainę pokazały, jak duże zagrożenia dla stabilności i bezpieczeństwa niesie ze sobą dezinformacja. Jej ofiarą mogą paść opinia publiczna, biznes, tradycyjne media, jak i struktury państwa, bo fałszywe informacje sprzyjają kreowaniu radykalnych i agresywnych postaw, a nawet mogą wpływać na wyniki wyborów. Walkę z dezinformacją utrudnia jednak fakt, że narzędzia, które jej służą, stają się coraz doskonalsze. – Kluczem do tego, żeby przeciwdziałać szerzeniu się dezinformacji, nie są platformy społecznościowe. Najważniejsze jest wyrobienie właściwych nawyków wśród użytkowników mediów społecznościowych – wskazuje Anna Mierzyńska, analityczka mediów społecznościowych, badająca dezinformację.

– Dezinformacja to zorganizowane kłamstwo, przygotowana i spreparowana informacja, której celem jest wprowadzenie w błąd całych grup społecznych bądź konkretnego odbiorcy. Jest bardzo niebezpiecznym narzędziem w przestrzeni publicznej, w procesie podejmowania decyzji. Ten instrument jest tym groźniejszy, że mamy coraz bardziej zaawansowane techniki przygotowania, dedykowania oraz rozpropagowywania treści o charakterze dezinformacyjnym – mówi agencji Newseria Biznes gen. Radosław Kujawa, były szef Służby Wywiadu Wojskowego, przewodniczący Rady Programowej Fundacji Forum Bezpieczeństwa.

– Kiedy podejmujemy działania w celu przeciwdziałania dezinformacji, żeby ograniczyć jej rozpowszechnianie i dotarcie do ludzi, to osoby, które dezinformują, natychmiast wprowadzają nowe metody, żeby to dotarcie ciągle było szerokie. To sprawia, że jako analitycy dezinformacji cały czas mierzymy się z zupełnie nowymi technikami i narzędziami, co chwilę dzieje się coś nowego. I niestety dezinformacja się rozszerza, ponieważ jest to tani, niewymagający ogromnych nakładów finansowych sposób wpływania na zachowania i decyzje ludzi – mówi Anna Mierzyńska, autorka wydanej niedawno książki „Efekt niszczący. Jak dezinformacja wpływa na nasze życie”.

Raport opublikowany przez NASK („Zjawisko dezinformacji w dobie rewolucji cyfrowej”) pokazuje, że dezinformacja jest obecnie jednym z większych wyzwań w przestrzeni cyfrowej. Nie tylko sprzyja manipulowaniu opinią publiczną i kształtowaniu radykalnych, agresywnych postaw, ale może również destabilizować sytuację polityczną, wpływać na wyniki wyborów i wywierać destrukcyjny wpływ na struktury administracyjne i decyzyjne państwa. Ostatnimi laty wiele mówi się o jej wpływie na wyniki wyborów w USA, Niemczech czy Francji.

 Dezinformacja to nowe i fundamentalne zagrożenie dla demokracji. Chodzi o zniszczenie prawdy i wprowadzenie w tę pustą przestrzeń fałszywych wiadomości, a najlepiej mieszanki prawdziwych i fałszywych wiadomości. Wówczas można wpływać na wszelkie fundamentalne wybory człowieka, a do nich należą też wybory polityczne i proces wyborczy – mówi dr hab. Irena Lipowicz, profesor UKSW, kierownik Katedry Prawa Administracyjnego i Samorządu Terytorialnego UKSW.

Współczesna dezinformacja przyjęła wiele różnych form, takich jak wroga propaganda, dywersja ideologiczna, trolling czy złośliwe moderowanie dyskusji na forach oraz w mediach społecznościowych. Często wykorzystuje środki, które są dostosowane do specyfiki konkretnych państw, społeczeństw albo grup docelowych, aby wypaczyć prawdę, zasiać nieufność czy wzbudzić wątpliwości.

Dezinformacja wpływa nie tylko na relacje społeczne, biznes i tradycyjne media, ale i struktury państwa, a nawet stosunki międzynarodowe. Raport NASK pokazuje, że bezrefleksyjnie przyjmowana może sparaliżować proces decyzyjny, poróżnić państwa, spowodować strategiczny rozłam między sojusznikami albo zdyskredytować instytucje, które odgrywają znaczącą rolę w europejskiej i euroatlantyckiej gospodarce i architekturze bezpieczeństwa.

 Doskonale widać to teraz, w czasie wojny w Ukrainie. Można powiedzieć, że mamy dwie, równolegle prowadzone wojny: konwencjonalną, opartą na działaniach militarnych, oraz wojnę informacyjną. Ta druga w porównaniu do militarnej jest o wiele tańsza. Jest też prowadzona na ogromną skalę, co widzimy w trakcie analiz w sieci. Wciąż się rozchodzą nieprawdziwe informacje, zmanipulowany kontekst, fałszywe dane. To są metody, które są dziś używane do tego, żeby wpływać na zachowania i decyzje odbiorców – mówi Anna Mierzyńska.

Przytaczany przez NASK raport „Freedom on the Net: Manipulating Social Media to Undermine Democracy” pokazał, że obok Rosji, która prowadzi takie działania od lat, coraz więcej krajów na świecie wykorzystuje media społecznościowe do działań dezinformacyjnych i kształtowania zarówno swojej wewnętrznej polityki, jak i wywierania wpływu na inne państwa.

 Dezinformację w wymiarze społecznym może skutecznie zwalczać tylko wiarygodna władza, wiarygodne instytucje publiczne. Kładę tu akcent na słowo „wiarygodność”, ponieważ ich opinia jest brana pod uwagę tylko wtedy, kiedy one wzbudzają zaufanie – mówi gen. Radosław Kujawa. 

Dlatego też przeciwdziałanie dezinformacji staje się priorytetem dla rządów, ale też instytucji i organizacji międzynarodowych. Unia Europejska dostrzegła ten problem w 2015 roku, a w czerwcu br. został opublikowany udoskonalony Kodeks postępowania w zakresie zwalczania dezinformacji. Komisja Europejska wskazuje, że wraz z aktem o usługach cyfrowych (DSA) będzie on tworzył unijny zestaw narzędzi do przeciwdziałania dezinformacji w internecie.

 Jako główne źródło dezinformacji są dziś wskazywane platformy społecznościowe. Dlatego pojawiła się teoria, że aby tę dezinformację ograniczyć, wystarczy wpłynąć na ich model działania. Instytucje unijne rozmawiały z ich przedstawicielami, nakładały na platformy kolejne regulacje dotyczące np. fact-checkingu. Tego rodzaju działania zostały podjęte i okazało się, że to absolutnie nie wystarcza, bo platformy społecznościowe są tylko narzędziem. Tak naprawdę to użytkownicy platform są clou całego problemu. To my upubliczniamy dezinformację albo rozpowszechniamy ją dalej, świadomie lub nie – podkreśla Anna Mierzyńska. – Dopóki nie wpłyniemy na zachowania ludzi w tym zakresie, nie damy im narzędzi do tego, żeby mogli w łatwy sposób sprawdzać informacje, to dezinformacja będzie się dalej rozpowszechniać.

Eksperci wskazują, że w walce z dezinformacją potrzebne są różne narzędzia, w tym m.in. odpowiednie regulacje dotyczące mediów, współpraca między wieloma różnymi podmiotami oraz zaangażowanie i edukacja opinii publicznej.

– Wbrew temu, w co wcześniej wierzono, proste działania typu dostęp do informacji publicznej czy prostowanie fałszywych informacji już dawno nie wystarczają. Dezinformacja to swoiste uwiedzenie psychologiczne, które czyni z podmiotu poddanego dezinformacji wyznawcę tych fałszywych treści, związanego z nimi emocjonalnie – mówi prof. Irena Lipowicz. – Potrzeba konkretnych działań w sferze społecznej – to muszą być niezależni brokerzy informacji. Potrzeba ścisłej współpracy z Unią Europejską, która się ocknęła i ma w tej chwili bardzo profesjonalne organy przeciwdziałające radykalizacji, ma różnego rodzaju Task Forces, które skupiają się na tropieniu i pokazywaniu dezinformacji. Potrzeba również szerokich działań akademickich i społecznych.

O zagrożeniach, jakie niesie dezinformacja, i możliwościach walki z nią eksperci rozmawiali podczas Forum Przeciwdziałania Dezinformacji zorganizowanego przez Fundację Forum Bezpieczeństwa. W ten sposób zapoczątkowano prace nad rekomendacjami dotyczącymi przeciwdziałania dezinformacji. Raport w tej sprawie ma być gotowy na początku przyszłego roku.

Choroby siatkówki pozostają najczęstszą przyczyną utraty wzroku w Polsce. Pojawiają się nowe terapie, które nie tylko zachowują widzenie, ale też ograniczają liczbę koniecznych zastrzyków

0

Wraz ze starzeniem się społeczeństwa i rosnącą liczbą zachorowań na cukrzycę coraz powszechniejsze stają się choroby siatkówki. Dwie z nich – cukrzycowy obrzęk plamki (DME) i zwyrodnienie plamki związane z wiekiem (AMD) – są głównymi przyczynami utraty wzroku. – Dziś pacjenci nie tylko mają szansę zahamować chorobę, ale przede wszystkim większość, szczególnie jeżeli chodzi o DME, może być wyleczona – mówi prof. Edward Wylęgała, specjalista chorób oczu ze Śląskiego Uniwersytetu Medycznego. Terapie dostępne w ramach programu lekowego wymagają zastrzyków w gałkę oczną, które choć nie bolą, to nie są przyjemne dla pacjentów. Nowe leki, które zostały już dopuszczone do użytku w Unii Europejskiej, dają szansę, że zastrzyki będą podawane pacjentom znacznie rzadziej niż do tej pory.

– Zwyrodnienie plamki to choroba, której pierwszym objawem są kłopoty z czytaniem, ale okulary wtedy nie pomagają. Widzimy zniekształcone wyrazy, czasami w całym wyrazie mamy ubytki liter – mówi agencji Newseria Biznes prof. Edward Wylęgała, specjalista chorób oczu, kierownik Kliniki Okulistyki w Okręgowym Szpitalu Kolejowym w Katowicach, prorektor ds. rozwoju i transferu technologii Śląskiego Uniwersytetu Medycznego. – To jest choroba cywilizacyjna, która może być związana z wiekiem, ale również z cukrzycą. W Polsce mamy ok. 3 mln chorych na cukrzycę, z czego ok. 1/3 ma zwyrodnienie plamki, a 300 tys. wymaga leczenia.

Choroby siatkówki są jedną z głównych przyczyn utraty wzroku i upośledzenia widzenia. Zalicza się do nich cukrzycowy obrzęk plamki (Diabetic Macular Edema, DME), będący częstym powikłaniem retinopatii cukrzycowej. Występuje, kiedy uszkodzone naczynia krwionośne przeciekają i powodują obrzęk plamki – centralnego obszaru siatkówki, odpowiadającego za ostre widzenie potrzebne m.in. do czytania, prowadzenia samochodu i rozpoznawania twarzy. DME może wykryć proste badanie dna oka w lampie szczelinowej. Szacuje się, że w Polsce dotyka ono co najmniej 14–17 proc. osób z cukrzycą, przy czym ok. 40 proc. z nich ma poniżej 45 lat. Stopniowy zanik widzenia może więc wpływać na ich zdolność do pracy i prowadzenia aktywnego życia społecznego, a nawet utrudniać codzienne czynności.

Podobnie jest w przypadku zwyrodnienia plamki związanego z wiekiem (AMD) – głównej przyczyny utraty wzroku u osób powyżej 60. roku życia. Zaawansowaną postacią tej choroby jest zwyrodnienie neowaskularne (nAMD), które rozwija się, gdy nowe i nieprawidłowe naczynia krwionośne rosną w sposób niekontrolowany pod plamką, powodując jej obrzęk, krwawienie i włóknienie. To zaś może prowadzić do szybkiej i całkowitej utraty wzroku. W Polsce na AMD choruje ok. 1,2–1,9 mln osób, z czego 130–140 tys. stanowią pacjenci właśnie z nAMD.

– Mamy to szczęście, że w tej chwili funkcjonują dwa połączone ze sobą programy lekowe – program leczenia obrzęku plamki związanego z wiekiem i cukrzycowego obrzęku plamki. I to są bardzo dobre programy lekowe umożliwiające leczenie takich pacjentów – mówi ekspert.

Podstawową formą leczenia w przypadku centralnej postaci DME jest doszklistkowa terapia anty-VEGF (iniekcja doszklistkowa polega na podaniu zastrzyku z preparatem leczniczym bezpośrednio do gałki ocznej). Inne formy terapii obejmują doszklistkowe podawanie kortykosteroidów, a w ostateczności – leczenie chirurgiczne i laseroterapię. W przypadku AMD złotym standardem leczenia jest z kolei doszklistkowe podawanie inhibitorów VEGF, a alternatywną opcją jest fotokoagulacja laserowa lub terapia fotodynamiczna z użyciem werteporfiny.

 Dzięki temu, że mamy programy lekowe, pacjenci mogą być leczeni bezpłatnie i nie ślepną – mówi specjalista chorób oczu ŚUM. – W przypadku cukrzycowego obrzęku plamki ci pacjenci mają szansę nie tylko na to, żeby zahamować chorobę, większość z nich może być całkowicie wyleczonych. To jest wielki sukces medycyny. 

Dla pacjentów z chorobami siatkówki pojawiają się nowe, innowacyjne leki, takie jak farycymab – pierwsze dwuswoiste przeciwciało do oczu stosowane w celu przeciwdziałania dwóm głównym przyczynom utraty wzroku, czyli właśnie AMD i DME. W tym roku Komisja Europejska zatwierdziła ten nowy lek do stosowania w Europie. Jest on dostępny w Polsce w prywatnych klinikach okulistycznych, nie jest jeszcze objęty refundacją.

– Ten lek ma podwójne działanie: zarówno mechanizm przeciwzapalny, jak i mechanizm hamowania naczyń krwionośnych, które niszczą plamkę – mówi prof. Edward Wylęgała. 

Co istotne, badania kliniczne wykazały, że zmniejsza też częstotliwość iniekcji doszklistkowych – mediana liczby zastrzyków z farycymabem była o 33 proc. niższa w porównaniu z afliberceptem w ciągu dwóch lat. Dzięki temu przebieg leczenia może być dużo mniej uciążliwy dla pacjentów z nAMD i DME, ponieważ wielu chorych ma problem z comiesięcznymi zastrzykami i wizytami lekarskimi.

 Sam fakt, że zastrzyków będzie mniej, przełoży się na większy komfort pacjentów. To jest zastrzyk do gałki ocznej, który nie jest bolesny, ale każdy się go boi. Poza tym rzadziej trzeba będzie przyjeżdżać do lekarza, to też jest dla pacjentów policzalna korzyść – dodaje prorektor ds. rozwoju i transferu technologii Śląskiego Uniwersytetu Medycznego.

Specjaliści zauważają, że zmniejszenie liczby zastrzyków – a tym samym koniecznych wizyt lekarskich – pomoże też odciążyć personel medyczny.

– Jeśli za pomocą terapii farycymabem uda się leczyć pacjentów w odstępach od 12 do 16 tygodni, to moglibyśmy uwolnić część zasobów szpitali, a system mógłby obsłużyć większą liczbę pacjentów – mówi dr Jignesh Patel z brytyjskiego Colchester Hospital.

Mówił: prof. dr hab. n. med. Edward Wylęgała, kierownik Kliniki Okulistyki w Okręgowym Szpitalu Kolejowym w Katowicach, prorektor ds. rozwoju i transferu technologii Śląskiego Uniwersytetu Medycznego dr Jignesh Patel, Colchester Hospital

Technologia Data Fabric zrewolucjonizuje sektor finansowy. Banki będą jej potrzebować, żeby nadążyć za bigtechami

Dane są kluczowym elementem prognoz i analiz w sektorze finansowym. Efektywne ich przetwarzanie pozwala m.in. ograniczyć liczbę fraudów, dostosowywać się do wymogów regulacyjnych, optymalizować przepływy pieniężne, pozyskiwać nowych klientów i lepiej odpowiadać na ich rosnące oczekiwania. Jak podkreślają eksperci Goldenore, firmy specjalizującej się w integracji danych, w tej chwili nawet 68 proc. danych gromadzonych przez organizacje nie jest efektywnie wykorzystywanych. W tym celu banki potrzebują rozwiązań technologicznych i nowoczesnych platform, które pozwolą na integrację danych w scentralizowanym środowisku i zapewnią do nich szerszy dostęp przy zachowaniu pełnego bezpieczeństwa. Taką technologią jest Data Fabric – jeden z kluczowych trendów technologicznych na 2023 rok wymienianych przez firmę analityczną Gartner.

– Cyfryzacja i coraz bardziej wyśrubowane oczekiwania klientów postawiły banki przed wieloma wyzwaniami. Dziś nie wystarczy już efektowna i sprawnie działająca aplikacja mobilna czy dobre oprocentowanie lokat i kredytów. Banki, żeby utrzymać konkurencyjność, muszą stawiać m.in. na prostą i przejrzystą komunikację, która jest spójna we wszystkich kanałach, operational excellence, czyli doskonałość operacyjną, oraz tzw. customer intimacy, co w wolnym tłumaczeniu oznacza zażyłość z klientem. Podobnie jak i inne instytucje działające w branży finansowej banki muszą dopasowywać się do ich oczekiwań, potrzeb i możliwości – mówi agencji Newseria Biznes Bartłomiej Wlazłowski, executive business partner w Goldenore, firmie, która jest polskim integratorem platform danych.

Jak podkreśla, aby odpowiadać na te wyzwania, banki muszą ciągle gromadzić i analizować dane płynące z różnych źródeł publicznych i prywatnych, zarówno od klientów, jak i z rynku. Wolumen i złożoność tych danych są jednak ogromne, dlatego instytucje finansowe mają problem z ich efektywnym przetwarzaniem i wyciąganiem z nich wniosków. Szacuje się, że nawet 68 proc. tych danych nie jest wykorzystywanych.

 Dlatego właśnie banki muszą inwestować w nowoczesne platformy danych i za chwilę to będzie już nie tylko moda czy potrzeba chwili, ale krytyczna konieczność, żeby móc w ogóle konkurować na rynku. Wynika to z faktu, że banki coraz bardziej czują na plecach oddech bigtechów, takich jak Google, Amazon, Facebook czy Apple. One gromadzą, przetwarzają i analizują ogromne ilości danych o swoich klientach i zaczynają coraz śmielej wchodzić na rynek finansowy – mówi Bartłomiej Wlazłowski.

Bardziej efektywny dostęp do danych gromadzonych i przetwarzanych w systemach IT umożliwia Data Fabric, która integruje je w scentralizowanym środowisku. Ta technologia opiera się na założeniu, że wszystkie elementy IT powinny wspierać i ułatwiać obsługę danych. Data Fabric tworzy zestaw narzędzi, które umożliwiają organizacji zarządzanie danymi niezależnie od miejsca, modelu czy formy ich przetwarzania i przechowywania. Ta technologia pozwala też „demokratyzować” dostęp do danych – sprawić, aby były one użyteczne dla jak najszerszej grupy użytkowników biznesowych, przy zachowaniu odpowiedniej polityki dostępu i poufności.

– Liczba i złożoność systemów i aplikacji bankowych kiedyś była znacznie mniejsza, podobnie jak potrzeby analityczne i raportowe. Natomiast w tej chwili stopień skomplikowania środowisk informatycznych w bankach jest tak ogromny, że bez nowoczesnych, niezawodnych i wydajnych rozwiązań IT żaden bank nie może sprawnie działać – podkreśla ekspert.

Data Fabric to w tej chwili jeden z kluczowych trendów technologicznych wymienianych przez firmę analityczną Gartner, która wskazuje, że elastyczność zarządzania danymi stała się priorytetem o znaczeniu krytycznym dla organizacji działających w coraz bardziej zróżnicowanym, rozproszonym i złożonym środowisku. Aby ograniczyć błędy ludzkie i ogólne koszty, liderzy ds. danych i analiz muszą wyjść poza tradycyjne praktyki zarządzania danymi i przejść w kierunku nowoczesnych rozwiązań, takich jak integracja danych z obsługą sztucznej inteligencji. To właśnie umożliwia technologia Data Fabric. Według prognoz Gartnera do 2024 roku już 1/4 firm dostarczających rozwiązania związane z zarządzaniem danymi stworzy kompletny zestaw narzędzi do wykreowania takiej architektury. W tej chwili jest to tylko 5 proc.

 Jedną z podstawowych korzyści płynących z wdrożenia rozwiązań Data Fabric jest m.in. lepsze zarządzanie dostępem i korzystaniem z danych dla szerszego grona użytkowników. To zaś zwiększa efektywność prowadzenia biznesu i produktywność pracowników, pomaga zdobyć nowych klientów, poprawić jakość obsługi i lepiej dostosować się do regulacji branżowych – wylicza Bartłomiej Wlazłowski. – Użytkownicy sami wyszukują dane z katalogu danych wspierani przez AI, co oznacza duże oszczędności czasu w wyszukaniu i modelowaniu danych. To też zmniejsza pracochłonność przygotowywania danych dla użytkowników biznesowych, czyli obniża koszty IT. Automatyczne mechanizmy sprawdzania i poprawy jakości oraz aktualności danych oznaczają z kolei trafniejsze prognozy i poprawne raporty.

Na globalnym rynku są już praktyczne przykłady wdrożenia tej technologii. To m.in. obsługujący ponad 5 mln klientów Danske Bank, największy duński bank i jeden z większych w Europie Północnej, który za pomocą IBM Watson Knowledge Catalog wdrożył spójną strategię tzw. Data Governance w celu ulepszenia strategii zarządzania danymi w organizacji.

– Efektem tego wdrożenia jest dostępność wysokiej jakości danych dla analityków w celu tworzenia jeszcze bardziej trafnych i stabilnych modeli analitycznych. Dane są bowiem kluczowym elementem modeli i prognoz w sektorze finansowym – mówi ekspert Goldenore.

Kolejnym przykładem wdrożenia rozwiązań Data Fabric jest też Banco Macro – drugi co do wielkości prywatny bank w Argentynie oraz szósty pod względem depozytów i kredytów. Bank poszukiwał nowych metod na zwiększenie efektywności kampanii marketingowych, optymalizację zarządzania przepływami pieniężnymi w oddziałach i bankomatach oraz zapobieganie liczbie i skali oszustw. We współpracy z IBM wdrożył nową platformę do zarządzania modelami uczenia maszynowego, a pierwszymi obszarami były znalezienie i priorytetyzacja najbardziej akceptowalnych ofert (NBO – Next Best Offer) oraz wykrywania ryzyka fraudów na podstawie zachowań.

 Dzięki efektywnemu zarządzaniu cyklem życia modeli, poprawie ich efektywności i ułatwieniem dostępu do danych Banco Macro uzyskał trzykrotny wzrost akceptacji ofert, a klienci zidentyfikowani przez ulepszone modele byli o 25 proc. bardziej skłonni do przyjęcia oferty. Bank wykrył też kilka dodatkowych przypadków scenariuszy zachowań ryzykownych oraz znacząco zredukował poziom rezerw z tytułu zobowiązań – mówi Bartłomiej Wlazłowski. 

Bezpieczeństwo danych kluczowe podczas transformacji cyfrowej firm. Dlatego chmura hybrydowa zyskuje na popularności

0

Odpowiedni model przechowywania i przetwarzania danych jest fundamentem ciągłości wielu biznesów. Zagrożeniem są nie tylko awarie i błędy użytkowników, lecz także nasilające się cyberataki. W trakcie pandemii COVID-19 wzrosła popularność rozwiązań chmurowych i świadomość korzyści, jakie niesie za sobą ta technologia. Część firm wciąż widzi szereg barier w migracji do chmury publicznej i wybiera tzw. rozwiązania on-premise, czyli przechowywanie danych na serwerach lokalnych. Hybrydowe rozwiązania – łączące obie te technologie – będą jednak zyskiwać na popularności. – W nadchodzących latach klienci będą wybierać rozwiązania z jednego źródła i łączyć rozwiązania od dostawców, którzy mogą zaoferować zarówno przechowywanie danych w chmurze, jak i na serwerach lokalnych – prognozuje Igor Cejkovský z Synology.

Z „KPMG global tech report 2022” wynika, że firmy widzą korzyści z cyfrowej transformacji. Prawie wszyscy spośród 2,2 tys. badanych liderów technologicznych i ekspertów branżowych wskazali, że miała ona pozytywny wpływ na rentowność lub wydajność w ciągu ostatnich 24 miesięcy, a znaczna liczba odnotowuje również duże zyski.

– Transformacja cyfrowa gwałtownie przyspieszyła w związku z pandemią COVID-19. W trakcie tego procesu przedsiębiorstwa miały do wyboru jedno z dwóch rozwiązań: przechowywanie danych na serwerach lokalnych lub w chmurze. Każde z nich ma określone zalety, które łączy hybrydowa technologia oparta na chmurze – mówi agencji Neweria Biznes Igor Cejkovský, dyrektor ds. rozwoju działalności w Europie Wschodniej w Synology.

Raport „Inwestycje IT w kierunku rozwoju polskich firm w latach 2021–2022”, opracowany przez Computerworld na zlecenie Polcomu i Intela pod patronatem NCBiR, pokazuje, że aż 93 proc. dużych polskich przedsiębiorstw podejmuje działania w obszarze cyfrowej transformacji, a ważnym jej elementem są rozwiązania chmurowe. Zdaniem 67 proc. ankietowanych firm chmura obliczeniowa będzie głównym motorem zmian technologicznych w ich organizacji, a 43 proc. uważa, że wyniesienie do chmury aplikacji biznesowych poprawi efektywność kosztową firmy.

Tegoroczny raport „Chmura i cyberbezpieczeństwo wśród średnich i dużych firm oraz w sektorze GovTech w Polsce” pokazuje z kolei, że ponad 2/3 polskich firm już teraz korzysta z rozwiązań chmurowych (przechowując w niej średnio 37 proc. swoich zasobów), a około 1/3 jest w trakcie ich wdrażania. W gronie największych przedsiębiorstw, zatrudniających powyżej 250 pracowników, odsetek tych, które korzystają z cloud computingu, sięga już 90 proc. Dziś coraz trudniej jest znaleźć dużą firmę, która z chmury nie korzysta wcale – choćby w najprostszej postaci i jedynie w ograniczonym stopniu. Ta grupa przedsiębiorstw częściej stawia na chmurę hybrydową (23 proc. versus 8 proc. ogółu polskich firm).

– W przypadku tej technologii ważna jest skuteczność zarówno podczas standardowego działania, jak i w przypadku zakłóceń i bezpośrednio po ich wystąpieniu. Istotne jest, aby rozwiązanie wybrane przez klienta dawało satysfakcjonujące odpowiedzi na pytania o możliwy czas funkcjonowania przedsiębiorstwa bez dostępu do danych i oczekiwany czas odzyskania tych danych – mówi ekspert z Synology.

Chmura jest jednym z popularnych sposobów tworzenia kopii zapasowych – wiele firm wykorzystuje backup w chmurze, tym bardziej że jest to nie tylko proste w obsłudze, lecz także elastyczne rozwiązanie, bo firmy mają możliwość rozbudowywania przestrzeni dyskowych. Zaletą chmury publicznej jest niższa cena, dostęp do danych bez względu na miejsce, ale tu z kolei jest wiele obaw dotyczących ich bezpieczeństwa. Dlatego dostawcy rozwiązań cloud computingu oferują serwery, które zapewniają zdalny dostęp, udostępnianie plików i synchronizację danych w środowisku chmury prywatnej, postrzeganej jako bardziej bezpieczna.

Przykładem może być prowadzenie strony internetowej, uruchomionej w chmurze publicznej, ale z kopią zapasową w prywatnej, co daje możliwości odzyskania danych w przypadku cyberataku, ale też możliwość testowania nowych funkcjonalności witryny w zamkniętym środowisku.

Opublikowany w 2020 roku „Barometr cyberbezpieczeństwa. W kierunku rozwiązań chmurowych” firmy doradczej KPMG pokazał, że usługi chmurowe najczęściej wykorzystywane przez przedsiębiorstwa w Polsce to witryny internetowe (73 proc.), poczta elektroniczna (72 proc.) oraz usługi przestrzeni dyskowej (62 proc.). W dużo mniejszym zakresie firmy korzystały wówczas z systemów ERP (18 proc.) czy CRM w chmurze (15 proc.). Blisko 2/3 polskich przedsiębiorstw oceniło, że usługi chmurowe pozytywnie wpływają na ciągłość działania procesów biznesów w ich organizacji.

Badanie KPMG pokazało też, że wśród firm korzystających z chmury prawie 40 proc. przetwarzało dane dwutorowo – zarówno w lokalnym centrum przetwarzania danych, jak i w chmurze. Tylko 5 proc. zadeklarowało, że korzysta praktycznie wyłącznie z usług chmurowych. 

 Obserwujemy na rynku duży wybór dostawców rozwiązań z zakresu przechowywania danych na serwerach lokalnych, jak dostawców usług w chmurze. I naszym zdaniem w nadchodzących latach klienci będą wybierać rozwiązania z jednego źródła, tzn. połączenie rozwiązań od dostawców, którzy mogą zaoferować zarówno przechowywanie danych w chmurze, jak i na serwerach lokalnych w formie hybrydowej technologii magazynowania danych – ocenia dyrektor ds. rozwoju działalności w Europie Wschodniej w Synology.

Jak podkreśla, takie rozwiązanie ma wiele korzyści – zapewnia dużo lepsze wsparcie w przypadku zakłóceń lub awarii i pomaga obniżyć koszty. To istotne o tyle, że – jak prognozuje ekspert – w obecnym, niestabilnym otoczeniu rynkowym przedsiębiorstwa będą przykładać dużą wagę do tzw. TCO (Total Cost of Ownership), czyli całkowitych kosztów posiadania infrastruktury IT. Będą również bardziej otwarte na wypróbowanie rozwiązań od nowych dostawców, którzy podbijają segment konsumencki i MŚP, a teraz próbują powtórzyć sukces na rynku korporacyjnym.

– Klienci będą wykazywać większe niż do tej pory zainteresowanie rozwiązaniami kompletnymi od jednego dostawcy ze względu na niższe koszty – mówi Igor Cejkovský. – Wsparcie dostawców technologii jest bardzo istotne nie tylko podczas działania samego rozwiązania, ale i przed jego wprowadzeniem. Dzięki temu można wybrać odpowiednie rozwiązanie i zoptymalizować jego koszty. Natomiast w przypadku awarii wsparcie dostawcy ma kluczowe znaczenie, ponieważ przywrócenie danych musi nastąpić jak najszybciej, aby przedsiębiorstwo mogło kontynuować swoją działalność.

To właśnie bezpieczeństwo danych jest czynnikiem warunkującym inwestycje w rozwiązania IT. Firmy szukają więc takich rozwiązań, które będą bezawaryjne i odporne na cyberataki w postaci ransomware czy malware.

– Dostępne na rynku rozwiązania są wyposażone w dodatkowe funkcje, które np. pomogą administratorowi zastosować odpowiednie środki bezpieczeństwa. Sami dostawcy też mogą pomóc w zapobieganiu takim incydentom, np. dzięki członkostwu w organizacjach zajmujących się poprawą standardów bezpieczeństwa – mówi ekspert Synology.