Radio Kraków
  • A
  • A
  • A
share

Mają dostęp do milionów dusz. Mogą zrobić wszystko

- Właściciel medium społecznościowego może wybrać algorytmy, co ma być wybijane, co jest dla niego wygodniejsze, na czym więcej zarobi. Może wykreować zwyżkę akcji, obniżkę akcji, nastrój społeczny. Tak naprawdę można zrobić wszystko - mówi Katarzyna Bernadetta Olszewska, specjalistka do spraw cyberbezpieczeństwa, nowych mediów i sztucznej inteligencji. Jak się ma bronić zwykły obywatel? Przede wszystkim wiedzieć, że są takie możliwości - przekonuje Olszewska.

Zdjęcie ilustracyjne, fot. Pixabay

Posłuchaj rozmowy

Gościem Jacka Bańki była Katarzyna Bernadetta Olszewska, specjalistka do spraw cyberbezpieczeństwa, nowych mediów i sztucznej inteligencji.

Niedawno wicepremier Gawkowski zaprezentował to, jak ma działać parasol wyborczy związany z ochroną przed cyberatakami w procesie wyborczym. Przed czym może uchronić ów parasol? W jakich wypadkach będzie na pewno bezużyteczny?

Myślę, że ten parasol będzie miał duży wpływ na to, jak będzie wyglądała dyskusja polityczna przed wyborami. Wpłynie na zwiększenie świadomości obywateli o tym, że są zagrożenia, że są wprowadzone treści do internetu, do przestrzeni publicznej, które mogą być nieprawdziwe, które mogą w złym świetle ukazywać kandydatów. Ta świadomość powoduje, że ludzie zaczynają być bardziej refleksyjni i bardziej weryfikować to, co widzą i polemizować z tym, co widzą.

Ochrona przed cyberatakami czy cenzura?

Pani mówi o świadomości, ale tutaj są proponowane konkretne rozwiązania. Skanowanie bezpłatne domen.

Chodzi o sytuacje, gdy ktoś się podszyje pod domenę kandydata na prezydenta. Oryginału nie może wykupić, bo jest zajęty, ale kupi podobną domenę i wówczas taki system mógłby skanować i mówić, że ta domena nie jest wiarygodna i pokazywać komunikat, że najlepiej na taką domenę nie wchodzić albo idąc dalej, takie domeny mogłyby być blokowane.

Jak to może wyglądać?

Być może byłaby to specjalna strona w sieci, może to być dodatek do przeglądarki, może to też być aplikacja na smartfona. Nie wiem, w jaki sposób zostanie to rozwiązane, ponieważ w tej chwili trwają prace nad przygotowaniem technicznym parasola wyborczego.

Wicepremier zapowiada też działania przeciwko dezinformacji w mediach społecznościowych. Wydaje mi się to znacznie trudniejsze do weryfikacji i wychwycenia.

Na pewno jest to wyzwanie, dlatego że dezinformacja szerzona jest z różnych źródeł, nad którymi my nie mamy absolutnie żadnej kontroli jako odbiorcy. Właściciele serwisów społecznościowych nie mają w tym interesu, żeby takie źródła dezinformacyjne ograniczać, ponieważ dla nich się liczy to, żeby jak najwięcej czasu spędzać w mediach społecznościowych i żeby ten czas w największym stopniu był zmonetyzowany, czyli zamieniony na pieniądze.

Korekta dezinformacji, usuwanie treści dezinformacyjnych oznacza, że będzie mniejszy „przemiał” tego, co się będzie działo na przykład na Facebooku czy na Twitterze. Poza tym likwidacja czy ograniczenie dezinformacji oznacza, że trzeba współpracować z zarządzającymi mediami społecznościowymi i trzeba stworzyć technologię fact-checkingu, czyli weryfikowania informacji, żeby można było wychwycić, które treści są prawdziwe, a które fałszywe.

Wierzyć czy nie? Jak oceniać wiarygodność źródeł informacji w sieci Wierzyć czy nie? Jak oceniać wiarygodność źródeł informacji w sieci

Kilka tygodni temu mieliśmy dyskusję, a w zasadzie oskarżenia o próbę wpływania na to, co znajduje się w mediach społecznościowych w związku z wdrażaniem unijnej dyrektywy dotyczącej treści umieszczanych w mediach społecznościowych. Pani ma tego typu obiekcje, wątpliwości. Mogą być to działania o znamionach cenzury?

Ja bym nie szła tak daleko, że to jest cenzura. Przyjrzyjmy się temu na przykładzie jazdy samochodem. Mamy znaki drogowe na ulicach po to, żeby odpowiednio uporządkować ruch, żeby wiedzieć, którędy jechać, z jaką prędkością, gdzie skręcić, gdzie się zatrzymać, jakie jest pierwszeństwo. Teraz wyobraźmy sobie, że tych znaków nie ma i każdy jeździ, jak chce.

Tak samo jest w internecie. My potrzebujemy pewnego rodzaju ograniczników, bezpieczników internetu, żeby było wiadomo, jakie treści są treściami fałszywymi. Może ktoś, kto się dobrze zna, to odróżni, ale są ludzie, którzy nie są w stanie tego odróżnić, na przykład osoby starsze, które nie są biegłe cyfrowo. Tylko 40% społeczeństwa posiada kompetencje cyfrowe, co oznacza, że pozostała większość społeczeństwa nie posiada kompetencji cyfrowych na tyle wysokich, żeby takie treści rozróżniać.

Kompetencje cyfrowe to jest coś więcej niż włączenie komputera i przeglądanie internetu. To jest umiejętność odróżnienia strony fałszywej od strony prawdziwej. To jest umiejętność zalogowania się do serwisu. Korzystania z serwisów oferowanych nam przez instytucje publiczne.

To jest biegłość cyfrowa, która coraz częściej jest wymagana, chociażby ze względu na cyfryzację państwa. Im będziemy mieli wyższe kompetencje cyfrowe, tym bezpieczniejsi będziemy w internecie, bo będziemy potrafili odróżnić prawdę od fałszu. To, co jest bezpieczne od tego, co nam może zagrażać. I będziemy mieli inne odruchy w codziennym zachowaniu cyfrowym.

Żeby się szerzyła dezinformacja, trzeba ludzi zachęcić do udostępniania treści

Mówiła pani o starszych użytkownikach internetu i o targetowaniu. To targetowanie i mikro targetowanie przy okazji wyborów jest z nami już i było przy wyborach samorządowych i wyborach parlamentarnych. Czy grupa seniorska to jest szczególna grupa, do której kierowane są w kontekście choćby wyborów prezydenckich? Czy też mogą być kierowane specjalne treści?

Może zacznijmy od tego, co to jest targetowanie. Targetowanie to jest obranie sobie za cel określonej grupy społecznej. Mogą to być na przykład kobiety zamieszkujące miejscowości do 20 tysięcy mieszkańców. Mogą to być mężczyźni zarabiający powyżej średniej krajowej, mieszkający w miastach średniej wielkości na przykład od 200 do 500 tysięcy. Do tego celu jeszcze dodajemy zainteresowania takich osób.

Mając sprecyzowany cel, adresujemy kampanię w taki sposób, żeby uderzyć w zainteresowania tych ludzi. Czyli pobudzić ich zainteresowanie. I jednocześnie zrobić tak zwany CTA, czyli Call to Action - wezwanie do działania, żeby te osoby określone działanie zrealizowały.

O co chodzi? Żeby się szerzyła dezinformacja, trzeba ludzi zachęcić do udostępniania treści. Bo jeżeli treść będzie udostępniana, to będzie coraz więcej osób to widziało. Skoro udostępnił znajomy, ja też to zrobię. Tak się szerzą treści dezinformacyjne.

O seniorach mówię dlatego, że osoby starsze większość życia spędziły w czasach kiedy internetu nie było albo był bardzo mało zaawansowany. W 1998 roku trzeba było łączyć się przez modem. Z racji mniejszej biegłości te osoby są cyfrowo na troszeczkę niższym stopniu zaawansowania.

To nie oznacza, że się nie znają. Są ludzie, którzy świetnie się znają na technologii, korzystają, mają nowoczesne smartfony, mają najnowsze aplikacje. Natomiast mogą kuleć na przykład w weryfikacji prawdy i fałszu. Albo w weryfikacji, czy ta aplikacja jest bezpieczna, czy nie.

Właściciel medium społecznościowego może zrobić wszystko

Tu mamy opozycję prawda i fałsz. Są jeszcze algorytmy Elona Muska, gdzie jedne treści są wybijane, inne chowane.

Wyobraźmy sobie, że jesteśmy człowiekiem, który ma dostęp do dwóch miliardów dusz. My jesteśmy w stanie sprawić, że te dwa miliardy dusz będą oglądały to co my chcemy, myślały tak, jak my chcemy, mówiły o tym, o czym my chcemy i jeszcze będziemy doskonale wiedzieć kiedy korzystają z takiego medium, w jakim są nastroju, bo w zależności od nastroju inne treści się publikuje, inną sekwencję znaków się wybija na klawiaturze w określonym czasie. To jest tak zwany wzorzec pisania na klawiaturze i to też algorytmy zapisują. Na tej podstawie można później podstawiać dowolne treści.

Jak social media zmieniły się na przestrzeni lat? Jak social media zmieniły się na przestrzeni lat?

Co może zrobić każdy właściciel medium społecznościowego? Może wybrać algorytmy, co ma być wybijane, co jest dla niego wygodniejsze, na czym więcej zarobi, komu bardziej będzie przydatny, jeżeli wybije inne treści. Może dojść do połączenia inżynierii społecznej z inżynierią finansową. Można wykreować zwyżkę, obniżkę akcji, nastrój społeczny. Tak naprawdę można zrobić wszystko.

Jak się ma bronić zwykły obywatel? Przede wszystkim wiedzieć, że są takie możliwości. Wiedzieć, że może wyłączyć to urządzenie i przez jakiś czas wycofać się do życia realnego. Weryfikować treści, które widzi w klasycznych mediach, w tym, co widzi w świecie realnym. Natomiast nie mamy wpływu na Elona Muska, żeby wybijał takie treści, które my uważamy, że powinny być, bo na przykład powinno się mówić obiektywnie o wyborach.

Widząc, że są pewne treści od kandydatów, możemy myśleć sobie - Elon Musk powinien ich wszystkich dopuścić do głosu. Ale Elon Musk tego nie zrobi. Elon Musk dopuści tych, którzy mu więcej zapłacą, będą wygodniejsi. Elon Musk w czeluściach amerykańskich gabinetów może też uznać, że może nie będzie nic robił, natomiast na tydzień przed wyborami jednak wybierze X, Y, Z.

Jak media społecznościowe wpływają na naszą kondycję psychiczną? Jak media społecznościowe wpływają na naszą kondycję psychiczną?

Właściciel serwisu społecznościowego może zrobić wszystko. A jedyne, co może zrobić polski rząd, to wpływać na to, tworząc odpowiednie procedury, które zagwarantują obywatelom dostęp do informacji.

Wiele lat temu walczyliśmy o to, żeby był dostęp do informacji. Dlatego miały być wolne media, a teraz pojawiły się media, nad którymi nie mamy żadnej kontroli, te nowoczesne media.

Czytajmy regulaminy, anonimizujmy dane

W zeszłym roku o tej porze ekscytowaliśmy się czatem GPT. Teraz przed wyborami mamy i chińską sztuczną inteligencję DeepSeek. To coś zmienia w kontekście wyborów?

Jeżeli chodzi o DeepSeek, to przede wszystkim zacznijmy od tego, że jest to narzędzie rządu chińskiego na wejście do struktur, do informacji, które są wewnątrz Unii. Chiny są wypychane teraz z rynku europejskiego, dlatego stworzono aplikacje. Obywatele, którzy się logują, dostają informację, której oczywiście nie przeczytają, bo kto by czytał regulaminy? To jest największe kłamstwo internetu. „Zapoznałem się i akceptuję postanowienia regulaminu”. Czytajcie państwo regulaminy. Tam jest napisane, że rząd chiński, instytuty badawcze chińskie i inne podmioty współpracujące mogą przetwarzać dane, mogą je wykorzystywać, mogą na tej podstawie algorytmy trenować.

Przede wszystkim oni pozyskają informacje, czego szukamy, czego chcemy się dowiedzieć, jakie mamy główne tematy, czego nam brakuje, czego potrzebujemy. Będą w stanie stworzyć nam ofertę handlową, ofertę polityczną, będą w stanie stworzyć ofertę dezinformacyjną. Im brakowało dostępu do rzetelnych europejskich danych w jednym miejscu, a ludzie sami nieświadomie im te dane przekażą. Oni z tym zrobią, co będą chcieli.

Przestroga przed wyborami. Jeżeli już chcemy korzystać z tego narzędzia, żeby zaoszczędzić dolary, które byśmy wydali na czat GPT, anonimizujmy dane. Nie uzupełniajmy tam treści, które są na przykład z pracy, które są z naszych badań, które są z naszych prac dyplomowych. Starajmy się dawać tam jak najmniej treści do przetwarzania, które dalej pójdą do chińskich instytutów.

Autor:
Jacek Bańka

Wyślij opinię na temat artykułu

Komentarze (0)

Brak komentarzy

Dodaj komentarz

Kontakt

Sekretariat Zarządu

12 630 61 01

Wyślij wiadomość

Dodaj pliki

Wyślij opinię