• +48 533 367 799

Wiele firm nie jest przygotowanych na cybernetyczne zagrożenia

Najsłabszym ogniwem w procesie utrzymywania wysokiego poziomu cyberbezpieczeństwa są pracownicy.

Wiele firm nie jest przygotowanych na cybernetyczne zagrożenia

Korzystanie ze sztucznej inteligencji w niewłaściwy sposób może przysporzyć problemów firmie. Przyczyną może być np. obsługa zewnętrznych narzędzi do wykonywania obowiązków służbowych bez nadzoru czy przekazywanie chatbotowi poufnych informacji. Badanie EY "Jak polskie firmy wdrażają AI" pokazuje, że kwestie dotyczące cyberbezpieczeństwa przy implementacji narzędzi AI są dla polskich przedsiębiorców ważną kwestią. 55% z nich rozważa ten aspekt, a 37% bierze go pod uwagę w ograniczonym zakresie. Jedynie 3% pytanych ignoruje ten temat.

– AI to zupełnie nowy obszar ryzyka, a wiele przedsiębiorstw nie jest przygotowanych na cybernetyczne zagrożenia. Zaliczamy do nich ataki z wykorzystaniem spersonalizowanych wiadomości phishingowych, próby wyłudzeń z użyciem komunikatów zawierających nagranie głosowe łudząco podobne do głosu znanych nam osób czy też łatwiejsze pisanie kodów przez hakerów chcących znaleźć luki w oprogramowaniu – komentuje Piotr Ciepiela, lider zespołu cyberbezpieczeństwa EY.

EY podkreśla, że ważnym typem działań w zakresie cyberbezpieczeństwa jest wprowadzenie odpowiednich procedur dotyczących używania systemów AI. Najwięcej respondentów – 40% – wdrożyło politykę korzystania zarówno z wewnętrznych, jak i ogólnodostępnych narzędzi AI np. chatbotów. Pod kontrolą 26% firm znajduje się używanie wyłącznie zewnętrznych systemów zabezpieczeń, a 30% dopiero zastanawia się nad przyjęciem jakichkolwiek zasad.

Przedsiębiorstwa mają świadomość zagrożeń, dlatego chatboty coraz częściej stają się przedmiotem regulacji w wielu firmach. 47% pytanych dopuszcza możliwość korzystania z nich w określonych przypadkach, zaś 15% pozwala na to tylko w celach służbowych. 24% ankietowanych organizacji nie wprowadziła jeszcze żadnych polityk w tym obszarze, ale analizuje taką możliwość.

Okazuje się też, że polskie firmy stosują różne podejścia do zarządzania ryzykiem związanym z wdrożeniem systemu AI. 31% z nich zidentyfikowało najważniejsze zagrożenia związane z jego implementacją w swojej organizacji i stara się im zapobiegać. Drugą grupę stanowią przedsiębiorstwa, które jeszcze przed wdrożeniem konkretnego systemu przeprowadzają analizę ryzyka (26%). Podobny odsetek stanowią respondenci, którzy orientują się w ogólnych, typowych ryzykach związanych z AI, nie skupiając się na aspektach specyficznych dla swojej organizacji (27%). Co dziesiąta firma zarządza ryzykiem przy adopcji narzędzi sztucznej inteligencji, stosując takie samo podejście, jak przy wdrożeniu każdego innego systemu IT.

Eksperci wskazują, że najsłabszym ogniwem w procesie utrzymywania wysokiego poziomu cyberbezpieczeństwa są pracownicy, a ich niewystarczający poziom wiedzy lub błędy najczęściej doprowadzają do narażenia firmy na ataki cybernetyczne. Jednym z najpopularniejszych sposobów na zapobieganie temu jest wprowadzenie rozwiązań proceduralnych, np. szkoleń dla pracowników, na które wskazało 36% pytanych. Inną opcją jest zwiększenie liczby rozwiązań na poziomie narzędzi (31%) lub wdrożenie zarówno zabezpieczeń proceduralnych, jak i narzędziowych (20%).

fot. freepik.com
oprac. /kp/

Podobne artykuły

Wyszukiwarka