Wdrażanie AI w polskich firmach idzie jak po grudzie. Hamulców jest wiele, ale skutki sprawiają, że pod względem zaawansowania w tej dziedzinie rodzimi przedsiębiorcy odstają od konkurentów w innych częściach świata. To niepokoi. Zwłaszcza że jak pokazują badania PMR, odsetek podmiotów w naszym kraju, które przerwały lub porzuciły wdrożenie rozwiązań bazujących na sztucznej inteligencji, jest spory. Na wczesnym etapie wdrażania dokonało tego aż 43 proc. firm (chodzi o przerwane projekty), a 22 proc. w ogóle zdecydowało się zrezygnować z AI, choć podejmowało próby zainstalowania takiej technologii.
Co hamuje rozwój AI w Polsce?
Nie da się powiedzieć, że w biznesie nie widać wzmożonego zainteresowania wykorzystaniem systemów AI. Z analiz Deloitte wynika, iż entuzjazm jest spory: 78 proc. przedsiębiorstw planuje zwiększenie nakładów na tę technologię, a 70 proc. tych już inwestujących oczekuje zwrotu z inwestycji w ciągu roku. Jednocześnie pojawiają się jednak zapytania. Respondenci mówią o wyzwaniach związanych z ryzykiem popełnienia przez sztuczną inteligencję poważnych błędów (35 proc.) i nieosiągnięciem oczekiwanego zwrotu z inwestycji (tego boi się co trzeci ankietowany). Ale przyczyn sceptycznego nastawienia do AI nad Wisłą jest więcej. Barierą są koszty, brak specjalistów czy liczne obawy związane z bezpieczeństwem. Ten ostatni aspekt ma spore znaczenie. Jak wskazuje Paweł Olszynka, specjalista rynku IT w PMR, Polacy poważnie się zastanawiają, czy gromadzenie i przetwarzanie zbyt dużej ilości danych osobowych przez AI nie zagrażają ich prywatności. Te obawy potwierdzają badania – zdecydowanie zgadza się z tym 39 proc. ankietowanych.
Czytaj więcej
Polscy naukowcy mogą opracować nowe leki i zrewolucjonizować badania kliniczne. Aby te scenariusze miały możliwość realizacji, ktoś wcześniej musi postawić odpowiednią infrastrukturę – mówi Magdalena Dziewguć, szefowa Google Cloud Poland.
Według PMR drugim czynnikiem powodującym poczucie dyskomfortu – szczególnie u kobiet i osób z najstarszej grupy wiekowej – jest możliwość podejmowania przez sztuczną inteligencję kluczowych decyzji bez udziału i kontroli człowieka. Stąd aż 55 proc. Polaków uważa, że AI powinna być regulowana prawnie, co powinno skutecznie zapobiec jej nadużyciom. Szczególnie silne poparcie dla tego stanowiska wyrażają osoby w wieku 55 lat i więcej – wedle PMR aż 68 proc. z nich zgadza się z potrzebą twardych regulacji w tym obszarze.
Problem widać m.in. w segmencie obsługi klienta. Mimo że 80 proc. konsumentów chciałoby korzystać ze sztucznej inteligencji w takim kontakcie, to aż 85 proc. firm nie wdrożyło jeszcze AI na szerszą skalę w swoich działach contact center. Powód ten sam. Kwestie bezpieczeństwa. Z raportu CommBox wynika, że przedsiębiorstwa przyjmują ostrożne podejście do wdrożeń tej technologii. 45 proc. zespołów obsługi klienta deklaruje wykorzystanie sztucznej inteligencji w pewnym zakresie, ale tylko 15 proc. przyznaje, że AI wdrożono „w sposób kompleksowy”.
Czytaj więcej
W Polsce ewidentnie brakuje pieniędzy w tzw. rundach pre-seed. Pod względem finansowania start-upów na tym etapie jesteśmy w ogonie Europy Środkowo-Wschodniej.
Czym jest „shadow AI”?
Analitycy twierdzą, iż przedsiębiorstwa mają obiekcje dotyczącego tego, czy informacje są właściwie udostępniane AI oraz czy nie są bez ich wiedzy wykorzystywane do trenowania botów. Nurtują ich także o kwestie przechowywania danych. Ale największy ból głowy, obok kosztów wdrożeń (31 proc. głosów) i oporu wewnątrz firm (32 proc.), przysparzają kwestie koncentrujące się wokół zjawiska „shadow AI” (32 proc.). Pod tym pojęciem kryje się niekontrolowane wykorzystywanie narzędzi AI przez pracowników poza oficjalnymi procedurami IT.
Czytaj więcej
Koncern był krytykowany za plan wydania 5 mln dol. na szkolenia z zakresu sztucznej inteligencji dla ok. 1 mln Polaków. Teraz firma zapowiada, że jej zaangażowanie w projekty nad Wisłą będzie znacznie większe.
– Kwestie bezpieczeństwa są kluczowe przy wdrażaniu AI, ale nie powinny hamować rozwoju tej technologii. W szczególności te obawy wydają się mocno przesadzone. My już teraz z powodzeniem wykorzystujemy systemy oparte na AI, które wspierają naszych pracowników w wyszukiwaniu odpowiedzi na pytania klientów czy monitorowaniu jakości rozmów – komentuje Krzysztof Lewiński, prezes Armatis Polska.
Mimo to strach przed „shadow AI” jest racjonalny. Jak wyjaśnia Mateusz Ossowski, CEE channel manager w firmie Barracuda Networks, chodzi o działania, które pozornie nie wydają się szkodliwe, np. wykorzystywanie przez pracowników platform generatywnej sztucznej inteligencji (genAI) lub dużych modeli językowych (LLM), takich jak ChatGPT, do wykonywania codziennych zadań, w tym pisania kodu, redagowania tekstów czy tworzenia grafik. – Ponieważ działy IT nie są świadome tego, że pracownicy używają sztucznej inteligencji, nie są też w stanie monitorować sposobu jej wykorzystania, a to może narazić ją na zwiększone ryzyko wycieku danych czy problemów prawnych – ostrzega.
Czytaj więcej
Ogłoszony przez Microsoft plan zainwestowania w Polsce 2,8 mld zł w infrastrukturę chmurową, i to parę dni po podobnym „dealu” zawartym z Google’em, może sugerować, że w globalnym wyścigu AI stawiamy na USA, porzucając własne ambicje.
Sebastian Wąsik, country manager w Baramundi Software na Polskę, uważa, że wyzwania z tym związane są olbrzymie. Tym bardziej że jak wynika z raportu „Work Trend Index” przygotowanego przez Microsoft i LinkedIna, aż 75 proc. pracowników na świecie już korzysta z narzędzi AI w miejscu pracy. Wspierają one użytkowników w takich zadaniach, jak generowanie tekstów, analizowanie danych czy tłumaczenie dokumentów. Dostęp do nieautoryzowanych narzędzi i używanie ich poza oficjalnymi procedurami bezpieczeństwa dają niekontrolowany dostęp do danych firmowych.
– Firmy powinny kontrolować, w jaki sposób ich pracownicy korzystają z narzędzi AI, aby uniknąć potencjalnych zagrożeń – radzi Wąsik.
Równowaga między bezpieczeństwem a innowacjami
Specjaliści przekonują, że z „shadow AI” da się walczyć, ale niezbędne jest wdrożenie kompleksowej polityki zarządzania infrastrukturą IT. Bronią mogą być narzędzia do ujednoliconego zarządzania urządzeniami końcowymi (UEM), które pozwalają na pełną kontrolę nad infrastrukturą, wliczając w to systemy i aplikacje wykorzystywane przez użytkowników. Możliwe jest także tworzenie list zakazanych aplikacji i stron internetowych. – Kluczowe jest opracowanie jasnej i szczegółowej polityki bezpieczeństwa, uwzględniającej potencjalne zagrożenia z zewnątrz, a także wdrożenie narzędzi, które pozwolą te przepisy egzekwować. Firmy powinny mieć możliwość dokładnego określania uprawnień użytkowników, a także aplikacji i stron internetowych, z których mogą oni korzystać. Wszelkie wątpliwe narzędzia powinny być od razu blokowane – przekonuje przedstawiciel Baramundi. I wskazuje, że firmy powinny patrzeć na problem „shadow AI” nie tylko jak na zagrożenie, ale również jak na sygnał, że oficjalne narzędzia mogą nie spełniać oczekiwań pracowników.
Czytaj więcej
Koncern był krytykowany za plan wydania 5 mln dol. na szkolenia z zakresu sztucznej inteligencji dla ok. 1 mln Polaków. Teraz firma zapowiada, że jej zaangażowanie w projekty nad Wisłą będzie znacznie większe.
– Dlatego oprócz kontroli warto również zrozumieć ich potrzeby i wprowadzać bezpieczne, ale funkcjonalne alternatywy – dodaje.
Podobnie uważa Brad Jones, dyrektor ds. bezpieczeństwa informacji w Snowflake. Jego zdaniem kluczem jest zachowanie odpowiedniej równowagi między bezpieczeństwem a innowacją.
– Wraz z ewolucją dużych modeli językowych przed dyrektorami ds. bezpieczeństwa informacji pojawia się podwójne wyzwanie: jak wykorzystać potencjał sztucznej inteligencji, jednocześnie minimalizując zagrożenia bezpieczeństwa – twierdzi. – Organizacje mogą czerpać korzyści z LLM, jeśli wdrożą odpowiednie mechanizmy ochronne i zasady zarządzania. W obliczu postępu technologii AI czujność i zdolność do adaptacji pozostają kluczowe – kontynuuje.
Eksperci zaznaczają, że należy zachować ograniczone zaufanie do AI. Takie systemy mogą być bowiem furtką dla różnego rodzaju zagrożeń. Ów strach podziela aż 89 proc. szefów działów IT. Raport firmy Sophos pokazuje, że zdają sobie oni sprawę, iż potencjalne luki w narzędziach genAI mogą zaszkodzić ich przedsiębiorstwu.