Raport „Cyberbezpieczeństwo AI. AI w cyberbezpieczeństwie” powstał pod nadzorem zespołu CyberPolicy NASK. Autorami są zarówno eksperci państwowego instytutu badawczego, jak i przedstawiciele środowiska naukowego. Ocenili przede wszystkim, jakie są najbardziej aktualne zagrożenia związane z AI, i na co trzeba przygotować się po ewentualnym przyjęciu unijnego AI Act. Prace nad kompleksową regulacją wciąż trwają - jest jednak prawdopodobne, że rozporządzenie zostanie przyjęte jeszcze w tym roku. Będzie ono obowiązywało państwa członkowskie bezpośrednio, bez konieczności wdrażania w osobnych aktach prawnych. 

Czytaj w LEX: Akt o sztucznej inteligencji [projekt UE] >

Czytaj też: Unijne rozporządzenie o sztucznej inteligencji nie wyeliminuje ryzyka nadużyć

 

Większe możliwości to również większe zagrożenie 

- Sztuczna inteligencja w ostatnich latach stała się fundamentem rewolucji technologicznej. Znajduje zastosowanie zarówno w dziedzinach takich jak zdrowie czy transport, ale również w wielu innych obszarach naszego codziennego życia. Jej dynamiczny rozwój przynosi nie tylko coraz więcej innowacyjnych rozwiązań i usprawnień, ale stwarza zupełnie nowe wyzwania i zagrożenia, także w dziedzinie cyberbezpieczeństwa - wskazuje we wprowadzeniu Krzysztof Silicki, dyrektor ds. strategicznego rozwoju cyberbezpieczeństwa NASK-PIB. 

Zaznacza, że wyzwaniem jest zwłaszcza wykorzystywanie systemów AI w cyberprzestępczości - na przykład tworzeniu fałszywych informacji czy przełamywaniu systemów bezpieczeństwa. Dlatego niezwykle istotne jest to, by - obok wykorzystywania zalet sztucznej inteligencji - pamiętać również o tym, w jaki sposób może nam zaszkodzić. 

Zobacz też: Prawne aspekty sztucznej inteligencji >>

Nowe prawo i tak może być spóźnione 

W raporcie pojawia się także teza wskazująca na to, że systemy AI rozwijają się na tyle dynamicznie, że nawet unijny AI Act może za nimi nie nadążyć. Zauważa to dr Gabriela Bar, partnerka zarządzająca Kancelarii Prawnej Szostek_Bar i Partnerzy, członkini Women in AI. 

Zobacz nagranie szkolenia w LEX: Prawne aspekty sztucznej inteligencji >

- Ta regulacja jest procedowana już od kwietnia 2021 roku, czyli od kiedy Komisja Europejska przedstawiła jej projekt, ale tak naprawdę dopiero jesienią ubiegłego roku zdano sobie sprawę, że jest coś takiego, jak generatywna sztuczna inteligencja i duże modele językowe, do których zalicza się Chat GPT. Uświadomiono sobie także, że te technologie mają ogromną moc: z jednej strony obliczeniową, ale z drugiej – także wywierania wpływu i manipulacji. Dopiero wtedy zorientowano się, że te kwestie również należałoby uregulować, co wywróciło dotychczasowe prace nad aktem o sztucznej inteligencji do góry nogami - wyjaśnia prawniczka. 

Czytaj też w LEX:

Agencja Unii Europejskiej ds. Cyberbezpieczeństwa, Dobre praktyki cyberbezpieczeństwa dla sztucznej inteligencji >

Model systemowego przeciwdziałania dyskryminacji algorytmicznej - uwagi na tle projektu aktu w sprawie sztucznej inteligencji >

RODO w IT: sztuczna inteligencja a dane osobowe - czy RODO definiuje AI oraz ML? >>