Jak wynika z raportu, Polacy patrzą na sztuczną inteligencję z rosnącym zainteresowaniem, ale nie z bezwarunkowym entuzjazmem. Coraz częściej oczekują od niej nie tylko nowych funkcji i ułatwień, lecz także jasnych zasad odpowiedzialności i przejrzystości działania. Badanie pokazuje, że zaufanie do AI nie jest automatyczne – trzeba je budować poprzez regulacje, standardy i otwartą komunikację. Sposób wdrażania sztucznej inteligencji oraz i narracja społeczna wokół niej mogą mieć dziś równie duże znaczenie jak sama innowacyjność. 

- Badanie wyraźnie pokazuje, że dla polskich użytkowników sztucznej inteligencji najważniejszym fundamentem zaufania jest ochrona prywatności. To nie tylko kwestia prawa do wycofania zgody na przetwarzanie danych, ale szersze oczekiwanie, że technologia będzie projektowana w duchu odpowiedzialności. Widać tu przesunięcie akcentów – od zachwytu nad możliwościami AI w stronę dojrzałej refleksji nad ryzykiem i warunkami jej stosowania. Respondenci wskazują również na potrzebę monitorowania jakości i zgodności systemów ze standardami międzynarodowymi, co świadczy o rosnącej świadomości, że zaufanie do AI nie jest jednorazowym aktem, lecz procesem wymagającym ciągłej weryfikacji - wskazuje Leszek Ortyński, dyrektor, lider ds. AI i Data Science KPMG w Polsce. 

AI powinna być kontrolowana 

Jak wynika z opracowania, zaufanie społeczne do instytucji rozwijających i wykorzystujących sztuczną inteligencję nie jest jednolite – zarówno w Polsce, jak i na świecie zależy ono od rodzaju organizacji. Najwyższy poziom wiarygodności przypisywany jest uniwersytetom oraz krajowym ośrodkom badawczym i zdrowotnym, które są postrzegane jako działające przede wszystkim w interesie publicznym.

W przypadku sektora komercyjnego oceny są bardziej zróżnicowane – duże firmy technologiczne i inne organizacje biznesowe wzbudzają w Polsce mieszane odczucia, mimo że poziom deklarowanego zaufania jest wyższy niż w wielu krajach rozwiniętych. Szczególnym wyzwaniem pozostaje odbudowa zaufania do instytucji państwowych, zwłaszcza w kontekście rosnącej roli AI w usługach publicznych. Badanie pokazuje, że obywatele nie są w pełni przekonani, iż administracja będzie wykorzystywać tę technologię w ich interesie. W tym kontekście kluczowe znaczenie może mieć współpraca sektora publicznego z organizacjami cieszącymi się największym uznaniem społecznym – takimi jak uczelnie i instytucje badawcze. Partnerstwa tego rodzaju mogą zwiększać akceptację dla wdrażanych rozwiązań AI i wspierać budowanie bardziej przejrzystych, odpowiedzialnych modeli jej rozwoju.

Polscy respondenci zostali zapytani o czynniki, które wpływają na zwiększenie z ich strony zaufania do sztucznej inteligencji. Wskazywali zwłaszcza na: 

  • Prawo do wycofania zgody na wykorzystywanie przez AI danych osobowych (89 proc.);
  • Monitorowanie dokładności i niezawodności AI (86 proc.);
  • Przestrzeganie standardów międzynarodowych w zakresie przejrzystości i zarządzania ryzykiem związanym z AI (86 proc.);
  • Możliwość interwencji człowieka w celu korekty, zmiany lub kwestionowania wyników pracy AI (85 proc.);
  • Jasność w kwestii tego, kto ponosi odpowiedzialność za ryzyka związane z pracą systemów AI (84 proc.);
  • Organizacja szkoleń z zakresu odpowiedzialnego i bezpiecznego użytkowania AI dla pracowników organizacji wykorzystujących tę technologię (84 proc.);
  • Obowiązywanie przepisów prawa regulujących korzystanie z AI (82 proc.);
  • Weryfikacja lub gwarancja systemów AI zapewniona przez stronę trzecią / podmiot zewnętrzny (78 proc.). 

Z pełną treścią raportu można zapoznać się TUTAJ.