W najnowszym raporcie firmy doradczej Deloitte „Trust in AI. Polska Perspektywa 2024” poddano analizie opinie 30 tys. konsumentów i pracowników z 11 krajów europejskich, w tym 2914 respondentów z Polski.

Wszyscy staniemy się zbędni? Wszyscy staniemy się zbędni?

Jak wynika z badania, 68 proc. europejskich respondentów sądzi, że GenAI - tzw. generatywna sztuczna inteligencja zdolna tworzyć teksty i obrazy może być przez nich wykorzystywana w pracy. 18 proc. już stosuje ją w celach zawodowych.

AI wykorzystujemy pracy, edukacji i życiu prywatnym

W Polsce 56 proc. respondentów w Polsce korzysta z generatywnej AI w celach prywatnych, 29 proc. z myślą o edukacji, a 18 proc. stosuje ją w pracy.

72 proc. badanych Polaków jest zdania, że GenAI pomoże firmom ulepszyć produkty i usługi, a 68 proc. ankietowanych uważa, że poprawi doświadczenia związane z wykonywaną pracą np. dzięki automatyzacji powtarzalnych zadań.

Edwin Bendyk: Sztuczna inteligencja - więcej wolności, mniej osobistej autonomii Edwin Bendyk: Sztuczna inteligencja - więcej wolności, mniej osobistej autonomii


Jak wskazano w raporcie, w Europie poziom wykorzystania sztucznej inteligencji w celach zawodowych jest nieznacznie wyższy niż w Polsce. Po nowe rozwiązania sięga co czwarty pracownik, a ponad 60 proc. Europejczyków korzystających z GenAI w celach zawodowych wskazuje, że firma zachęca ich do stosowania tego typu rozwiązań w pracy lub tego nie zabrania.

Najczęściej korzystamy z bezpłatnych narzędzi

Jak wynika z danych dotyczących całej Europy, połowa osób stosujących AI zawodowo korzysta z bezpłatnych, ogólnodostępnych narzędzi, a jedna trzecia otrzymuje dostęp do rozwiązań opłacanych przez pracodawcę. Blisko jedna czwarta zatrudnionych sięga po narzędzia dostępne na rynku, za które płaci z własnej kieszeni. Jedna piąta respondentów używa z kolei rozwiązań opracowanych przez organizację, w której pracują lub zamówionych u zewnętrznych dostawców.



Podobną sytuację obserwujemy na polskim rynku, co z jednej strony bardzo wyraźnie pokazuje potrzebę uregulowania stosowania sztucznej inteligencji w firmach, a z drugiej – rozwijania własnych narzędzi dopasowanych do procesów biznesowych danej organizacji. Przejście z fazy eksperymentów do pełnego wdrożenia, wymaga doświadczenia, kompetencji i zaangażowania zespołu projektowego złożonego ze specjalistów z zakresu procesów biznesowych, technologii oraz prawa. W Polsce wiele przedsiębiorstw testuje rozwiązania AI, a coraz więcej organizacji przechodzi do wdrożeń na większą skalę

- wskazał Amadeusz Andrzejewski z Deloitte.

Jan Hartman: Sztuczna inteligencja to więcej niż rewolucja Jan Hartman: Sztuczna inteligencja to więcej niż rewolucja


Jak wynika z raportu, ponad połowa europejskich użytkowników korzysta z narzędzi bazujących na generatywnej AI bez zgody pracodawcy, co - jak zauważono - może oznaczać wykorzystywanie nieautoryzowanych rozwiązań. Według ankietowanych dzieje się tak głównie z powodu braku dostępnych w organizacjach do narzędzi lub niezadowolenia z ich funkcjonalności.

23 proc. użytkowników wskazało, że w ich organizacjach nie ma polityki dotyczącej GenAI lub o niej nie wiedziało. W ocenie autorów raportu może się to wiązać z potencjalnym ryzykiem udostępnienia danych klientów, ze względu na to, że nieautoryzowane narzędzia mogą nie spełniać standardów bezpieczeństwa i prywatności danych.

Kiedy ufamy sztucznej inteligencji?


Postawy polskich respondentów wobec GenAI wskazują na zmienny poziom zaufania w zależności od stopnia skomplikowania danego zastosowania sztucznej inteligencji, co jest zgodne z trendami obserwowanymi na innych rynkach. Użytkownicy bardziej ufają wynikom generowanym za jej pomocą w sytuacjach obarczonych mniejszym ryzykiem, takich jak np. podsumowanie artykułów prasowych (67 proc.), a mniej w przypadku bardziej skomplikowanych zadań, jak rekomendacje produktów finansowych (60 proc.) czy wsparcie w procesie diagnozy medycznej (43 proc.).

Uzyskane wyniki pokazują pewną lukę w zaufaniu do generatywnej AI. Użytkownicy zdają się wykazywać większą otwartość na korzystanie z takich rozwiązań, kiedy sami je stosują lub gdy dotyczy to zastosowań, które uznają za mniej ryzykowne. Uwydatnia to potrzebę priorytetowego traktowania przez firmy, organizacje i instytucje publiczne kwestii transparentności w zakresie wykorzystania AI, zapewnienia użytkownikom odpowiednich narzędzi i szkoleń oraz aktywnego podejścia do kwestii prywatności danych

- zaznaczył Jan Michalski z Deloitte.

Kraków dyskutuje o sztucznej inteligencji. Czy AI zapracuje na nasze emerytury? Kraków dyskutuje o sztucznej inteligencji. Czy AI zapracuje na nasze emerytury?


Wśród czynników istotnych w procesie budowania zaufania do GenAI polscy respondenci wskazują na bezpieczeństwo danych (68 proc.), zachowanie wpływu człowieka w procesie (62 proc.) czy pewność co do otrzymywanych wyników (62 proc.), a także rozumienie, jak działają algorytmy (60 proc.).

Potrzebne są regulacje prawne

Choć użytkownicy widzą potencjał w stosowaniu AI, tylko połowa badanych w Polsce wierzy, że technologia ta będzie etycznie wykorzystywana w biznesie. Podobny odsetek respondentów (46 proc.) ufa, że państwo skutecznie ureguluje te kwestie. Ponadto ponad połowa użytkowników AI (53 proc.) uważa, że technologia ta byłaby wykorzystywana częściej, gdyby istniały jasne regulacje prawne.

Nowe regulacje wprowadzane na poziomie unijnym mogą odegrać kluczową rolę w zbudowaniu odpowiednich ram prawnych i zaufania, a w konsekwencji adaptacji generatywnej AI. Biorąc pod uwagę szybki rozwój tej technologii oraz to, że część postanowień AI ACT zacznie obowiązywać już od 2 lutego 2025 r., firmy już teraz powinny przyjąć proaktywne podejście. Powinno ono uwzględniać m.in. klasyfikację wykorzystywanych systemów AI oraz dokładne zidentyfikowanie istniejących dokumentów, procesów i odpowiedzialności w tym obszarze

- zauważył Michał Mostowik z Deloitte.