Badania przeprowadzili naukowcy z University of Waterloo (Kanada). 260 uczestnikom zaprezentowano 20 nieopisanych zdjęć: 10 - uzyskanych z wyszukiwań w Google - przedstawiało prawdziwych ludzi, a 10 wygenerowały Stable Diffusion lub DALL-E – dwa szeroko stosowane programy AI, które generują obrazy.
Badanych poproszono o oznaczenie każdego obrazu jako prawdziwego lub wygenerowanego przez sztuczną inteligencję i wyjaśnienie, dlaczego tak zadecydowali. Tylko 61 proc. uczestników potrafiło odróżnić ludzi wygenerowanych przez sztuczną inteligencję od prawdziwych. Tymczasem naukowcy spodziewali się wyniku w okolicach 85 proc.
„Ludzie nie są tak biegli w ocenieniu, jak im się wydaje” – podkreśliła Andreea Pocol, doktorantka informatyki na University of Waterloo i główna autorka badań.
Szukając szczegółów charakterystycznych dla tworów generowanych przez sztuczną inteligencję, uczestnicy badania zwracali uwagę na palce, zęby i oczy, ale ich ocena nie zawsze była prawidłowa. W dodatku podczas badania mogli się skoncentrować na ocenie, podczas gdy zwykle zdjęcia w internecie ocenia się przelotnie.
„Ludzie, którzy po prostu bezmyślnie scrollują lub nie mają czasu, nie wyłapią tego” – powiedziała Pocol, mając na myśli tzw. doomscrolling, czyli sprzyjające depresji przeglądanie samych złych wiadomości.
Jak dodała autorka, szybkie tempo rozwoju technologii sztucznej inteligencji czyni szczególnie trudnym zrozumienie potencjału złośliwych i nikczemnych działań, jakie są możliwe przy wykorzystaniu tego narzędzia.
Badania akademickie i prawodawstwo często nie jest w stanie nadążyć za postępem: od czasu rozpoczęcia badań pod koniec 2022 obrazy wykreowane przez sztuczną inteligencję stały się jeszcze bardziej zaawansowane. Co szczególnie niepokojące, mogą być wykorzystywane jako narzędzie polityczne i kulturowe, dostarczając użytkownikom obrazy osób publicznych w zawstydzających lub kompromitujących sytuacjach.
„Dezinformacja nie jest niczym nowym, ale narzędzia dezinformacji stale się zmieniają i ewoluują – powiedziała Pocol. - Może to doprowadzić do sytuacji, w której ludzie – niezależnie od tego, jak bardzo są wytrenowani, cały czas będą mieć trudności z odróżnieniem prawdziwych obrazów od podróbek. Dlatego musimy opracować narzędzia, które umożliwią identyfikację fałszywek. To jak nowy wyścig zbrojeń oparty na sztucznej inteligencji”.
Więcej informacji w artykule źródłowym - https://link.springer.com/chapter/10.1007/978-3-031-50072-5_34
- A
- A
- A
Naukowcy: coraz trudniej wierzyć zdjęciom
Prawie 40 proc. badanych nie potrafi odróżnić na zdjęciu prawdziwych ludzi od wytworów sztucznej inteligencji - informuje pismo „Advances in Computer Graphics”.Komentarze (0)
Brak komentarzy
Najnowsze
-
14:46
Kiedy mróz zatrzaskuje drzwi – skuteczne sposoby na awaryjne otwarcie samochodu
-
14:42
Tutaj nie liczą się umiejętności czy wiek. Ceramika jest dla każdego!
-
14:33
Pijany ojciec wiózł samochodem ośmiolatka, miał 3,7 promila
-
14:01
Dlaczego zmieniamy swoje ciała? Rozmowa z psychologiem Michałem Brzegowym
-
13:53
To może być hit turystyczny Chrzanowa. "Czegoś takiego jeszcze u nas nie było"
-
13:33
Złodziej, który okradał kościoły, wpadł w ręce policji, bo... utknął w rowie
-
12:21
Ogniska zakaźnej choroby zwierząt w Małopolsce. Apel do hodowców
-
12:19
Dlaczego zmieniamy swoje ciała? Rozmowa z psychologiem Michałem Brzegowym
-
12:12
Wilga w Swoszowicach świeci się na zielono. ZDJĘCIA, WIDEO
-
12:10
Prof. Andrzej Chwalba: „Populiści chętnie sięgają po historię, ale robią to wybiórczo. A historii nie da się wygumkować”
-
11:21
Laboratoria za pół miliona. Studenci kryminalistyki na UKEN będą się uczyć w lepszych warunkach. ZDJĘCIA
Skontaktuj się z Radiem Kraków - czekamy na opinie naszych Słuchaczy
Pod każdym materiałem na naszej stronie dostępny jest przycisk, dzięki któremu możecie Państwo wysyłać maile z opiniami. Wszystkie będą skrupulatnie czytane i nie pozostaną bez reakcji.
Opinie można wysyłać też bezpośrednio na adres [email protected]
Zapraszamy również do kontaktu z nami poprzez SMS - 4080, telefonicznie (12 200 33 33 – antena,12 630 60 00 – recepcja), a także na nasz profil na Facebooku oraz Twitterze