Chociaż globalna średnia zaufania do sztucznej inteligencji to 46 proc., w Polsce jest ono niższe i wynosi 41 proc. Jednocześnie 77 proc. akceptuje istnienie AI w codziennych zadaniach w co najmniej umiarkowanym stopniu. Polski i Polacy jednak oczekują, że rozwój i wykorzystanie AI będą oparte na odpowiedzialności, ochronie danych i transparentności.
Raport KPMG Sztuczna inteligencja w Polsce. Krajobraz pełen paradoksów pokazuje podejście Polek i Polaków do wszechobecnej dziś sztucznej inteligencji. Chociaż akceptujemy jej istnienie, to podchodzimy do niej z nieufnością.
Co podnosi zaufanie do AI, a co je obniża?
Najważniejszym czynnikiem zwiększającym zaufanie do sztucznej inteligencji jest prawo do wycofania zgody na przetwarzanie danych osobowych. Deklaruje to 89 proc. badanych. Respondenci z Polski wysoko ocenili również znaczenie monitorowania dokładności systemów AI – 86 proc. oraz możliwości interwencji człowieka w przypadku błędów lub nieprawidłowych decyzji 85 proc.
– Wynika z tego, że dla polskich użytkowników sztucznej inteligencji najważniejszym fundamentem zaufania jest ochrona prywatności. To nie tylko kwestia prawa do wycofania zgody na przetwarzanie danych, ale szersze oczekiwanie, że technologia będzie projektowana w duchu odpowiedzialności. Widać tu przesunięcie akcentów – od zachwytu nad możliwościami AI w stronę dojrzałej refleksji nad ryzykiem i warunkami jej stosowania – mówi Leszek Ortyński, Dyrektor, Lider ds. AI i Data Science, KPMG w Polsce.
W badaniu bardzo wysoko oceniono znaczenie szkoleń i edukacji użytkowników. To sygnał, że adaptacja AI nie sprowadza się wyłącznie do wdrożeń technologicznych – równie ważne jest przygotowanie ludzi do rozumienia mechanizmów działania, ograniczeń i potencjalnych konsekwencji tych narzędzi.
Polacy z rezerwą podchodzą do kwestii zaufania wobec sztucznej inteligencji. Jednocześnie coraz bardziej interesują się jej praktycznym zastosowaniem. Największą wiarygodnością cieszą się instytucje akademickie i jednostki badawcze, które są postrzegane jako działające w interesie publicznym. Z kolei 45 proc. respondentów ma niski poziom zaufania do tego, że instytucje państwowe wykorzystują AI w najlepszym interesie społecznym.
Kto powinien, a kto nie powinien korzystać z AI?
Zaufanie do instytucji rozwijających i wdrażających sztuczną inteligencję zależy od ich charakteru i misji. Najwyższe noty uzyskały uczelnie wyższe oraz ośrodki naukowo-badawcze, które są postrzegane jako działające w interesie publicznym. W sektorze prywatnym oceny są bardziej zróżnicowane – duże firmy technologiczne oceniane są w różny sposób, choć poziom zaufania wobec nich jest wyższy niż w wielu krajach rozwiniętych.
Największe wyzwanie w budowaniu zaufania ma sektor publiczny. Szczególnie w tych obszarach, w których AI zaczyna wspierać procesy administracyjne i świadczenie usług publicznych.
Współpraca instytucji państwowych z organizacjami naukowymi i badawczymi może stać się skutecznym sposobem na zwiększenie akceptacji społecznej i budowę przejrzystych modeli wykorzystania AI.
Jak będzie z AI w Polsce?
– W Polsce kształtuje się model adopcji AI, w którym innowacyjność idzie w parze z transparentnością i rozwojem kompetencji cyfrowych. Jeśli regulatorzy i firmy właściwie odczytają ten trend, tempo i skala wykorzystania sztucznej inteligencji w naszym kraju mogą przyspieszyć, a jednocześnie opierać się na solidnych fundamentach społecznego zaufania – mówi.
Z perspektywy wciąż ograniczonego zaufania do rozwiązań opartych na AI brawurowym wydaje się niedawny pomysł Google, by przeglądarka wykorzystała właśnie sztuczną inteligencję i zmieniła się w ChatGPT. Czy użytkownicy chętnie będą z tego korzystać?
Jeśli nie będą mieli wyboru, to przyjdzie im rozwiązanie zaakceptować, jak wiele innych, które wciąż są wdrażane.
Czytaj także:


