W ramach konkursu „Młody Wynalazca. W Poszukiwaniu Polskiego Sama Altmana” w redakcji „Rzeczpospolitej” odbyła się debata pt. „Jak okiełznać sztuczną inteligencję (AI)”. Na wstępie Dariusz Standerski, sekretarz stanu w Ministerstwie Cyfryzacji, zaprezentował główne założenia ustawy wdrażającej w Polsce tzw. AI Act. Wskazał, że ma ona przede wszystkim wprowadzić procedury certyfikacji systemów sztucznej inteligencji, co da przedsiębiorcom większą pewność i zdejmie z nich część odpowiedzialności. Poinformował też, że ministerstwo pracuje nad Polityką Sztucznej Inteligencji, planuje ponadto utworzenie specjalnego funduszu koordynującego inwestycje w tej dziedzinie oraz przyjęcie wytycznych ws. stosowania AI w administracji publicznej.

mat.pras.

– Cel jest taki, by zarówno przedsiębiorstwa, jak i ważne dla nas instytucje, jak przychodnia, sąd czy szpital, mogły korzystać z bezpiecznej i godnej zaufania sztucznej inteligencji – wyjaśnił Dariusz Standerski.

– Gdy dostaniemy diagnozę na podstawie analizy AI, to wiemy, że dzięki spełnieniu warunków z Aktu o sztucznej inteligencji możemy jej zaufać. Podobnie gdy idziemy do sądu i mamy wiadomość, że sprawa jest rozpatrywana szybciej, bo akta zostały uporządkowane przez system sztucznej inteligencji, to nie jest to dla nas powodem do złożenia odwołania. Chcemy, by systemy te były częścią administracji publicznej, a czynności przez nie podejmowane nie były łatwo kwestionowane – dodał.

Prawo i sztuczna inteligencja. Zasady dla AI nie są barierą?

W odpowiedzi na pytanie prowadzącego debatę red. Tomasza Pietrygi o to, czy regulacje nie zabiją innowacyjności, wiceminister zaznaczył, że choć regulacji wciąż nie ma, jedynie 6 proc. firm deklaruje stosowanie systemów sztucznej inteligencji. Jej realny udział w rynku jest więc pewnie jeszcze mniejszy. Dlatego to nie ramy prawne są barierą dla rozwoju tej technologii.

Wątek podchwyciła dr inż. Olga Sobolewska z Politechniki Warszawskiej, zaznaczając, że w USA odsetek stosowania AI jest podobny, mimo przeznaczania na to znacznie większych środków.

– Być może faktycznie ta regulacja spowoduje, że „zwykły zjadacz chleba” będzie mógł pokonać opór przed stosowaniem AI. Bo każda zmiana rodzi opór – tłumaczyła ekspertka.

– Niski stopień wykorzystania AI wynika z braku wiedzy i zaufania dla wciąż rozwijającej się technologii. A to wymaga czasu – dodała.

Czytaj więcej

Promujemy młodych wynalazców. Rusza konkurs Młody Wynalazca "Rzeczpospolitej"

I podkreśliła, że choć faktycznie przedsiębiorstwa nie wykorzystują jeszcze tej technologii, nauka z pewnością znalazła doskonałe narzędzie.

– To kąsek, którego nie możemy ominąć. AI pozwala przetwarzać niesamowitą ilość danych, daje możliwości dotąd niespotykane. Pamiętać jednak należy, że AI już od lat funkcjonuje w naszym codziennym życiu. Algorytmy towarzyszą nam, często w sposób niewidoczny dla użytkownika – spotkamy je w pralce czy sygnalizacji świetlnej. Korzystamy z AI na co dzień i chyba nie ma od tego ucieczki – stwierdziła Olga Sobolewska.

Prawo o sztucznej inteligencji. Chiny i USA regulują AI od dawna

Z kolei Kacper Raciborski, prezes Fundacji Innovations Hub, zauważył, że w przeciwieństwie do Stanów Zjednoczonych i Chin, które koncentrują się na możliwościach komercyjnych sztucznej inteligencji, Unia Europejska skupia się na jej regulacji i aspektach społecznych.

– Filozofia regulacyjna w USA i Europie znacząco się różni. W Ameryce interwencja państwa następuje zwykle po wystąpieniu problemów na rynku, natomiast Europa stara się działać często prewencyjnie. Priorytetem są obywatele i konsumenci Unii – mówił Raciborski.

Podkreślił, że choć Europa jest kontynentem, na którym żyje się najlepiej (według statystyk), nadmiar regulacji może stawiać bariery dla nowych firm i zahamować konkurencyjność w globalnym wyścigu w dziedzinie AI. Jak zaznaczył, nie jest przeciwnikiem regulacji, jednakże „funkcja celu” powinna być bardziej skoncentrowana na umożliwianiu tworzenia dochodowych globalnych spółek, które przyniosą długoterminowe korzyści.

– Zaczynamy już tracić pozycje i istnieje ryzyko, że przegramy wyścig o sztuczną inteligencję. To wielka szkoda, ponieważ Europa Środkowo-Wschodnia, w tym Polska, ma ogromny potencjał ludzki. Młodzi ludzie w naszym kraju wolą kariery w informatyce i programowaniu niż bycie youtuberami czy tiktokerami, jak to ma miejsce w wielu innych krajach UE – dodał Raciborski.

Czytaj więcej

Polskie patenty są na fali. Młodzi wynalazcy w konkursie "Rzeczpospolitej"

I zaakcentował znaczenie maksymalnego uproszczenia procedur dla innowatorów, np. poprzez wprowadzenie zunifikowanych ścieżek aplikacyjnych (jeden formularz, jedna instytucja). Wskazał również na potrzebę tworzenia „piaskownic regulacyjnych”, które pozwalają testować nowe rozwiązania w bezpiecznym środowisku prawnym.

Dariusz Standerski odpowiedział, że nie jest prawdą, że w Chinach i USA nie ma regulacji dotyczących sztucznej inteligencji.

– W Stanach Zjednoczonych pierwsze regulacje dotyczące AI pojawiły się już w poprzedniej dekadzie. W Chinach mamy szereg aktów prawnych dotyczących tej kwestii. W Indiach przyjęto zaś zasady odpowiedzialnej AI i cały kodeks cyfrowy, zawierający także regulację AI. Akt o sztucznej inteligencji to pierwsza regulacja tego typu w UE. Dziś skupiamy się na regulacjach, inni zrobili to wcześniej. A mimo tego, że Unia była tą regulacyjną pustynią, to nie nadrabiała dystansu technologicznego do liderów rozwoju AI. W mojej ocenie źródło leży w braku odpowiednich strategii inwestycyjnych w sztuczną inteligencję – podkreślił wiceminister.

Zapowiedział też, że podczas polskiej prezydencji w UE, która rozpocznie się od stycznia 2025 r., nasz kraj będzie zabiegać o przygotowanie takiej unijnej strategii.

Z kolei Edyta Demby-Siwek, prezes Urzędu Patentowego RP, wskazała, że w USA można patentować programy komputerowe, także te oparte na sztucznej inteligencji, podczas gdy w Europie są one chronione jedynie jako utwory w ramach prawa autorskiego.

– Jest olbrzymia różnica między tymi systemami ochrony. Trzeba się zastanowić, co leży w interesie Unii Europejskiej i Polski – tłumaczyła prezes UP RP.

– Naszą rolą jest przekonanie przedsiębiorców, aby korzystali z rozwiązań oferowanych przez sztuczną inteligencję i inkorporowali ją do swoich usług i produktów. Nie wyobrażam sobie, by przedsiębiorstwa, które chcą być innowacyjne, nie używały sztucznej inteligencji – dodała.

Czytaj więcej

Młodzi wynalazcy? Prezes Urzędu Patentowego: prawo ich chroni, mają duże możliwości

Zwróciła też uwagę, że dziś niemal wszystkie wnioski patentowe wpływające do Europejskiego Urzędu Patentowego bazują na sztucznej inteligencji. Podobnie jest w uważanych za najbardziej innowacyjne państwach Unii, lecz niestety nie w Polsce.

Trzeba tłumaczyć biznesowi, po co nam regulacje prawne dla AI

Anna Magiera, członek zarządu Startup Hub Poland, zaznaczyła, że ważną częścią wprowadzania regulacji jest sposób jej komunikowania. Tak by przedsiębiorcy widzieli w tym szansę, a nie zagrożenia.

– Chiny są krajem, który ma największą liczbę patentów obejmujących technologie sztucznej inteligencji. Więc mimoże wprowadzają regulacje, to przedstawiają to w ten sposób, jakby regulacji nie było. A tymczasem patentują na potęgę i są przez to właścicielami tych technologii. W USA i Kanadzie przepisy są bardziej liberalne i opierają się raczej na dobrowolnych kodeksach. Natomiast słowo „regulacja” u przedsiębiorców budzi strach. Przepisy muszą być, ale ważne, jak są one prezentowane uczestnikom ekosystemu – podkreśliła ekspertka.

Natomiast Małgorzata Sokołowska, radca prawny Pracodawców RP, wskazała, że bardzo ważne jest, by stanowione prawo było jasne, klarowne i precyzyjne.

– Zgadzam się, że język komunikacji w odniesieniu do AI jest bardzo ważny. Biznes jest nastawiony na to, że przepisy prawa będą musiały podlegać modyfikacji, a wręcz namawiamy do tego legislatora, by był elastyczny i czujny w zakresie powstających przepisów – podkreślała ekspertka.

I dodała, że np. w Niemczech regulacje dotyczące sztucznej inteligencji są zmieniane co jakiś czas, a właściwe organy monitorują je, m.in. badając ich wpływ na biznes.

– Rozmawiamy także z polskimi instytucjami, które już zajmują się kwestią sztucznej inteligencji, albo będą to robić w przyszłości na podstawie AI Actu, by prowadziły dialog z biznesem i były z nim w kontakcie na bieżąco. Bardzo ważna jest adekwatność przyjętych rozwiązań, ponieważ AI przenika do różnych branż: jedne wymagają luźniejszej regulacji, inne zaś ze względu na odpowiedzialność, jak ochrona zdrowia czy obronność, potrzebują bardzo precyzyjnego podejścia – mówiła Małgorzata Sokołowska.

Podkreśliła przy tym, że bardzo ważne jest podejście elastyczne i probiznesowe, by nie „wylać dziecka z kąpielą”, a przedsiębiorcy nie mieli poczucia kolejnego obowiązku do spełnienia, który hamuje ich swobodę.

– Mam nadzieję, że Ministerstwo Cyfryzacji przy procesie projektowania nowych przepisów będzie patrzeć na AI przez pryzmat wszystkich interesariuszy, począwszy od projektów naukowych, badawczych poprzez wczesną przedsiębiorczość, jak również dojrzały biznes. Konieczna jest wymiana informacji. Regulacje muszą być „żywe” i nadążać za zmianami, które dzieją się w biznesie tu i teraz – powiedziała prawniczka.

Prowadzący spytał uczestników również o często pojawiające się obawy, że sztuczna inteligencja zastąpi człowieka w wielu zawodach. Kacper Raciborski odpowiedział, że jest bardzo mało prawdopodobne, iż to nastąpi, ponieważ algorytmy same w sobie generują niestabilne rozwiązania.

– Jak zauważa Sam Altman, CEO Open AI, mają one tendencję do zapominania i nie zawsze generują powtarzalne wyniki. Będą najprawdopodobniej stanowiły element wsparcia, wzrostu produktywności, ale nie substytut – zaznaczył ekspert.

Czy AI zabierze nam pracę? O prawdziwości zagrożeń ze strony sztucznej inteligencji

– Mamy rekordowo wysokie zatrudnienie, brakuje ponad sto tysięcy rąk do pracy. Chcielibyśmy, by AI przynajmniej trochę ten brak zmniejszyła, choć nie jestem pewny, czy tak się wydarzy w najbliższych latach. Przykłady wcześniejszych technologii pokazują, że w długim okresie nie prowadzą one do ograniczenia zatrudnienia czy skrócenia czasu pracy, a wręcz przeciwnie – stwierdził Dariusz Standerski.

Dodał przy tym, że w Sejmie jest już komisyjny projekt zmiany w kodeksie pracy, który zobowiąże firmy do informowania pracowników, że stosują wobec nich systemy sztucznej inteligencji.

Z kolei Małgorzata Sokołowska wskazała, że biznes nie chce nastawiać się w związku z wdrożeniem AI do organizacji jedynie na zwiększanie zysków poprzez ograniczanie zatrudnienia, ale też na działania prospołeczne. Zmianie ulegnie kultura zarządzania całą organizacją, a ci pracownicy, którzy mogą zostać zastąpieni, powinni otrzymać środki na zmianę sposobu pracy i zdobycie nowych kwalifikacji. Szacuje się, że tzw. deweloperzy IT mogą zostać zastąpieni przez nową profesję, tzw. prompterów, którzy będą zadawać sztucznej inteligencji odpowiednie pytania, by uzyskać pożądany rezultat. Dlatego, w jej ocenie, ważna jest też szersza współpraca z uniwersytetami i szkołami, by już teraz uczyć młodzież potrzebnych umiejętności i kompetencji, aby stali się poszukiwani na rynku pracy „przyszłości”.

Czytaj więcej

Rzecznik patentowy - czy to partner także dla młodego wynalazcy?

Edyta Demby-Siwek podkreśliła natomiast, że Urząd Patentowy już teraz na dużą skalę korzysta z AI, szczególnie w tłumaczeniach z języków azjatyckich, gdyż obecnie ok. 70 proc. patentów jest rejestrowanych w tych właśnie językach. Zapoznanie się z literaturą patentową jest zaś niezbędne do stwierdzenia, czy dany wynalazek ma walor nowości.