Wdrażanie AI w polskich firmach idzie jak po grudzie. Hamulców jest wiele, ale skutki sprawiają, że pod względem zaawansowania w tej dziedzinie rodzimi przedsiębiorcy odstają od konkurentów w innych częściach świata. To niepokoi. Zwłaszcza że jak pokazują badania PMR, odsetek podmiotów w naszym kraju, które przerwały lub porzuciły wdrożenie rozwiązań bazujących na sztucznej inteligencji, jest spory. Na wczesnym etapie wdrażania dokonało tego aż 43 proc. firm (chodzi o przerwane projekty), a 22 proc. w ogóle zdecydowało się zrezygnować z AI, choć podejmowało próby zainstalowania takiej technologii.

Foto: Paweł Krupecki

Co hamuje rozwój AI w Polsce?

Nie da się powiedzieć, że w biznesie nie widać wzmożonego zainteresowania wykorzystaniem systemów AI. Z analiz Deloitte wynika, iż entuzjazm jest spory: 78 proc. przedsiębiorstw planuje zwiększenie nakładów na tę technologię, a 70 proc. tych już inwestujących oczekuje zwrotu z inwestycji w ciągu roku. Jednocześnie pojawiają się jednak zapytania. Respondenci mówią o wyzwaniach związanych z ryzykiem popełnienia przez sztuczną inteligencję poważnych błędów (35 proc.) i nieosiągnięciem oczekiwanego zwrotu z inwestycji (tego boi się co trzeci ankietowany). Ale przyczyn sceptycznego nastawienia do AI nad Wisłą jest więcej. Barierą są koszty, brak specjalistów czy liczne obawy związane z bezpieczeństwem. Ten ostatni aspekt ma spore znaczenie. Jak wskazuje Paweł Olszynka, specjalista rynku IT w PMR, Polacy poważnie się zastanawiają, czy gromadzenie i przetwarzanie zbyt dużej ilości danych osobowych przez AI nie zagrażają ich prywatności. Te obawy potwierdzają badania – zdecydowanie zgadza się z tym 39 proc. ankietowanych.

Czytaj więcej

Polska wśród pierwszych rynków, które mogą zyskać dzięki AI

Według PMR drugim czynnikiem powodującym poczucie dyskomfortu – szczególnie u kobiet i osób z najstarszej grupy wiekowej – jest możliwość podejmowania przez sztuczną inteligencję kluczowych decyzji bez udziału i kontroli człowieka. Stąd aż 55 proc. Polaków uważa, że AI powinna być regulowana prawnie, co powinno skutecznie zapobiec jej nadużyciom. Szczególnie silne poparcie dla tego stanowiska wyrażają osoby w wieku 55 lat i więcej – wedle PMR aż 68 proc. z nich zgadza się z potrzebą twardych regulacji w tym obszarze.

Problem widać m.in. w segmencie obsługi klienta. Mimo że 80 proc. konsumentów chciałoby korzystać ze sztucznej inteligencji w takim kontakcie, to aż 85 proc. firm nie wdrożyło jeszcze AI na szerszą skalę w swoich działach contact center. Powód ten sam. Kwestie bezpieczeństwa. Z raportu CommBox wynika, że przedsiębiorstwa przyjmują ostrożne podejście do wdrożeń tej technologii. 45 proc. zespołów obsługi klienta deklaruje wykorzystanie sztucznej inteligencji w pewnym zakresie, ale tylko 15 proc. przyznaje, że AI wdrożono „w sposób kompleksowy”.

Czytaj więcej

Unijna AI potrzebuje więcej inwestycji

Czym jest „shadow AI”?

Analitycy twierdzą, iż przedsiębiorstwa mają obiekcje dotyczącego tego, czy informacje są właściwie udostępniane AI oraz czy nie są bez ich wiedzy wykorzystywane do trenowania botów. Nurtują ich także o kwestie przechowywania danych. Ale największy ból głowy, obok kosztów wdrożeń (31 proc. głosów) i oporu wewnątrz firm (32 proc.), przysparzają kwestie koncentrujące się wokół zjawiska „shadow AI” (32 proc.). Pod tym pojęciem kryje się niekontrolowane wykorzystywanie narzędzi AI przez pracowników poza oficjalnymi procedurami IT.

Czytaj więcej

Google chce jednak w Polsce inwestować miliardy, a nie miliony

– Kwestie bezpieczeństwa są kluczowe przy wdrażaniu AI, ale nie powinny hamować rozwoju tej technologii. W szczególności te obawy wydają się mocno przesadzone. My już teraz z powodzeniem wykorzystujemy systemy oparte na AI, które wspierają naszych pracowników w wyszukiwaniu odpowiedzi na pytania klientów czy monitorowaniu jakości rozmów – komentuje Krzysztof Lewiński, prezes Armatis Polska.

Mimo to strach przed „shadow AI” jest racjonalny. Jak wyjaśnia Mateusz Ossowski, CEE channel manager w firmie Barracuda Networks, chodzi o działania, które pozornie nie wydają się szkodliwe, np. wykorzystywanie przez pracowników platform generatywnej sztucznej inteligencji (genAI) lub dużych modeli językowych (LLM), takich jak ChatGPT, do wykonywania codziennych zadań, w tym pisania kodu, redagowania tekstów czy tworzenia grafik. – Ponieważ działy IT nie są świadome tego, że pracownicy używają sztucznej inteligencji, nie są też w stanie monitorować sposobu jej wykorzystania, a to może narazić ją na zwiększone ryzyko wycieku danych czy problemów prawnych – ostrzega.

Czytaj więcej

Rząd grzebie naszą technologiczną suwerenność?

Sebastian Wąsik, country manager w Baramundi Software na Polskę, uważa, że wyzwania z tym związane są olbrzymie. Tym bardziej że jak wynika z raportu „Work Trend Index” przygotowanego przez Microsoft i LinkedIna, aż 75 proc. pracowników na świecie już korzysta z narzędzi AI w miejscu pracy. Wspierają one użytkowników w takich zadaniach, jak generowanie tekstów, analizowanie danych czy tłumaczenie dokumentów. Dostęp do nieautoryzowanych narzędzi i używanie ich poza oficjalnymi procedurami bezpieczeństwa dają niekontrolowany dostęp do danych firmowych.

– Firmy powinny kontrolować, w jaki sposób ich pracownicy korzystają z narzędzi AI, aby uniknąć potencjalnych zagrożeń – radzi Wąsik.

Równowaga między bezpieczeństwem a innowacjami

Specjaliści przekonują, że z „shadow AI” da się walczyć, ale niezbędne jest wdrożenie kompleksowej polityki zarządzania infrastrukturą IT. Bronią mogą być narzędzia do ujednoliconego zarządzania urządzeniami końcowymi (UEM), które pozwalają na pełną kontrolę nad infrastrukturą, wliczając w to systemy i aplikacje wykorzystywane przez użytkowników. Możliwe jest także tworzenie list zakazanych aplikacji i stron internetowych. – Kluczowe jest opracowanie jasnej i szczegółowej polityki bezpieczeństwa, uwzględniającej potencjalne zagrożenia z zewnątrz, a także wdrożenie narzędzi, które pozwolą te przepisy egzekwować. Firmy powinny mieć możliwość dokładnego określania uprawnień użytkowników, a także aplikacji i stron internetowych, z których mogą oni korzystać. Wszelkie wątpliwe narzędzia powinny być od razu blokowane – przekonuje przedstawiciel Baramundi. I wskazuje, że firmy powinny patrzeć na problem „shadow AI” nie tylko jak na zagrożenie, ale również jak na sygnał, że oficjalne narzędzia mogą nie spełniać oczekiwań pracowników.

Czytaj więcej

Google chce jednak w Polsce inwestować miliardy, a nie miliony

– Dlatego oprócz kontroli warto również zrozumieć ich potrzeby i wprowadzać bezpieczne, ale funkcjonalne alternatywy – dodaje.

Podobnie uważa Brad Jones, dyrektor ds. bezpieczeństwa informacji w Snowflake. Jego zdaniem kluczem jest zachowanie odpowiedniej równowagi między bezpieczeństwem a innowacją.

– Wraz z ewolucją dużych modeli językowych przed dyrektorami ds. bezpieczeństwa informacji pojawia się podwójne wyzwanie: jak wykorzystać potencjał sztucznej inteligencji, jednocześnie minimalizując zagrożenia bezpieczeństwa – twierdzi. – Organizacje mogą czerpać korzyści z LLM, jeśli wdrożą odpowiednie mechanizmy ochronne i zasady zarządzania. W obliczu postępu technologii AI czujność i zdolność do adaptacji pozostają kluczowe – kontynuuje.

Eksperci zaznaczają, że należy zachować ograniczone zaufanie do AI. Takie systemy mogą być bowiem furtką dla różnego rodzaju zagrożeń. Ów strach podziela aż 89 proc. szefów działów IT. Raport firmy Sophos pokazuje, że zdają sobie oni sprawę, iż potencjalne luki w narzędziach genAI mogą zaszkodzić ich przedsiębiorstwu.