Zdjęcie ilustracyjne, fot. Pixabay
Gościem Jacka Bańki był prof. Jan Hartman, filozof i bioetyk.
Panie profesorze, w zeszłym tygodniu został opublikowany projekt ustawy dotyczącej sztucznej inteligencji. Ustawa zakłada m.in. powołanie Komisji Rozwoju Bezpieczeństwa Sztucznej Inteligencji. Czuje się pan spokojniejszy? Z pana tekstu raczej wieje chłodem i niepokojem.
Jesteśmy zmuszeni regulować rozpowszechnianie tego oprogramowania. Unia Europejska stworzyła bardzo kompetentne, profesjonalne rekomendacje i przepisy. Mam na myśli nie tylko ten akt, ale to, co za tym aktem stoi, czyli ekspertyzę 50 specjalistów z całej Europy, gdzie można sobie przeczytać, jak to dzisiaj wygląda, w jaki sposób można i należy kontrolować tworzenie, upowszechnianie, używanie sztucznej inteligencji w różnych dziedzinach życia, w jaki sposób należy informować społeczeństwo, że właśnie ma do czynienia z takimi programami. Oczywiście instytucje kontrolne muszą być, ale to nie zapobiegnie bardzo poważnym wręcz egzystencjalnym, perturbacjom, jakie nas czekają w wyniku upowszechniania tych technologii.
Jak pan pisze o perturbacjach w wymiarze egzystencjalnym, to wprost pan w kontekście sztucznej inteligencji pisze o końcu człowieka jako pana stworzenia. Nie jest to zbyt przedwczesny pogrzeb ludzkości?
Będziemy musieli się nauczyć pokory po kilku czy kilkunastu letnim okresie, kiedy będziemy wzajemnie siebie zapewniać, zaklinać, że przecież to jest tylko maszyna i należy traktować ją jak rzecz, a nie jak myślący i czujący podmiot, to sobie odpuścimy, bo żadnych podstaw empirycznych, żeby tak postępować nie będzie. Poza tym wszyscy zrozumiemy, jak ja już też sam zrozumiałem, że sami jesteśmy takimi gadającymi urządzeniami. Z czeluści naszych mózgów wypływają takie słowotoki, jak ten tutaj. Zrozumieć, że maszyna może to robić lepiej, to jest ogromny cios dla pychy i samozadowolenia indywidualnego i gatunkowego. Będziemy musieli spokornieć wobec naszych własnych wytworów.
Przestajemy być sami w świecie. Widzimy wierzchołek góry lodowej
Na razie to jednak my porzucamy seks roboty wyposażone w sztuczną inteligencję, a nie seks roboty nas.
Ten aspekt jeszcze mi nie przyszedł do głowy, chociaż pewnie czeka nas też zmiana tego, kto kogo będzie porzucał. To ciekawe. Na pewno temu nowemu światu, zaludnionemu przez nowe podmioty humanoidalne albo zupełnie do ludzi niepodobne, nie będziemy bardzo potrzebni. Wątpię, żeby takie podmioty, które się będą rodzić w sieci i będą poza ludzką kontrolą i które nie będą przywiązane do pojedynczego biologicznego ciała, ani nawet niebiologicznego, kwarcowego ciała, miały skłonność do budowania stosunków etycznych i obyczajowych, jakie panują wśród ludzi i żeby miały specjalnie dla nich respekt.
To jest więc katastrofa w wielu aspektach. Przestajemy być sami w świecie. Ja mówię to odnośnie przyszłości, może nie natychmiastowej, ale nie mamy powodu przypuszczać, żeby za 20 lat krajobraz społeczny i technologiczny był tylko rozwinięciem stanu obecnego. To jednak jest przełom, na pewno większy niż pojawienie się internetu. Jak wielki, jak szybki, nie wiemy, bo widzimy tylko wierzchołek góry lodowej. To poważne oprogramowanie jest bardzo drogie i bardzo ukryte.
To, co się nam pokazuje, to są i tak już cudowne i oszałamiające możliwości, a przecież to tylko są gadżety - nieprofesjonalne, darmowe, shareware'owe zastosowania. Strach pomyśleć, co tam jest w głębi. W każdym razie każdy poeta już wie, że większą inwencję i więcej uczucia wykrzesa z siebie maszyna do pisania wierszy. Każdy kompozytor już rozumie, że choćby się nie wiem, jak sprężył, to maszyna będzie geniuszy produkować na pęczki, bo będzie wiedziała lepiej, co to jest geniusz, innowacyjność, nowość, oryginalność, niż kiedykolwiek mógłby to poczuć człowiek.
To jest absolutna katastrofa. Nie wiem, kto w ogóle będzie potrzebny. Za kilka dni Musk ma pokazać sprzątające roboty humanoidalne, które będą chodzić po mieszkaniu i sprzątać. To jest po prostu katastrofa.
Ustawa o sztucznej inteligencji. Co to zmieni i kogo to obchodzi?
Rozpoczęliśmy jednak od ustawy, która ma przynieść, przypomnę, Komisję Rozwoju Bezpieczeństwa Sztucznej Inteligencji. Pytanie, czy nasze instytucje, czy nasze państwa w tej formie znanej dzisiaj nie są już archaiczne w odniesieniu do tego, co przynosi sztuczna inteligencja.
To, co może kontrolować jedno ministerstwo w Warszawie czy jakaś agencja bezpieczeństwa w internecie, czy bezpieczeństwa sztucznej inteligencji, to jest tak mały wycinek tej sieci, że to wielkiego znaczenia dla naszego bezpieczeństwa mieć nie będzie. Po prostu te podmioty, które będą zarejestrowane w Polsce, będą musiały czegoś tam przestrzegać, ale wątpię, żeby sztuczna inteligencja specjalnie sama wiedziała, gdzie jest zarejestrowana i gdzie na jakim serwerze akurat jest, a na jakim nie jest. Narzędzia, które mamy teraz, prawne i organizacyjne, a już zwłaszcza w Polsce, są całkowicie anachroniczne.
Sztuczna inteligencja będzie w chmurze, w bardzo wielu różnych urządzeniach. Prawdopodobnie jej status prawny i właścicielski będzie bardzo skomplikowany i niejasny. Poza tym sama będzie się multiplikować, produkować różne fantomowe podmioty, tożsamości. Nie połapiemy się w tym. A to, że będzie nakaz, że maszyna ma się zgłosić, że jest maszyną, co to zmieni i kogo to obchodzi?
Ostatnim szańcem afirmacji fizyczności będzie łóżko
Wystarczy też popatrzeć na to, co przynosi projekt ustawy o sztucznej inteligencji. Komisja Bezpieczeństwa ma się składać m.in. z przedstawicieli kluczowych dla rozwoju sztucznej inteligencji ministerstw, czyli do spraw informatyzacji, powołany do koordynacji działalności służb specjalnych, Urzędu Ochrony Danych Osobowych, Urzędu Ochrony Konkurencji i Konsumentów, Komisji Nadzoru Finansowego, Rzecznika Praw Obywatelskich, Rzecznika Praw Dziecka, Krajowej Rady Radiofonii i Telewizji, Urzędu Komunikacji Elektronicznej, wszyscy, jednym słowem.
Zaproponuję panu eksperyment. Proszę sobie wyobrazić, że ci wszyscy panowie pewnego dnia zachorowali i nie przyszli na zebranie, ale wysłali swoich reprezentantów w postaci autoryzowanych awatarów. I każdy z tych awatarów będzie produkował wypowiedzi w trakcie urzędowej dyskusji. Wszystko zostanie zaprotokołowane. I poddajemy ten dokument testowi Turinga, to znaczy losowo wybraną grupę urzędników, prawników, pytamy, czy to jest autentyczny protokół ze spotkania urzędników, czy to jest może ze spotkania ich awatarów. Oczywiście okaże się, że to jest nierozpoznawalne, a jeżeli to tylko po doskonałości, że to jest tak dobre, to myślę, że to pewnie jednak ci panowie byli chorzy i nie przyszli, tylko były awatary.
A teraz jeszcze jeden eksperyment. Wyobraźmy sobie, że zamiast spotkania urzędników po prostu poprosimy takiego GPT, czyli taki generatywny program samotrenujący się, żeby napisał scenariusz spotkania urzędników, żeby oni nie musieli nikogo przesyłać. No i oczywiście to też będzie dobre, będzie pewnie lepsze. Czyli to, że tam się fizycznie spotkają jacyś panowie, to ma tylko taki sens, że my na razie lubimy siebie wzajemnie jako fizyczne, realne osoby i to one mają uprawnienia. Ale bardzo szybko te uprawnienia znikną. Myślę, że ostatnim szańcem admiracji i afirmacji fizyczności będzie łóżko.
Ustawodawcy chyba przewidują taką sytuację, skoro ustawa przewiduje nawet do 35 milionów euro kary albo kary sięgającej 7% rocznego dochodu firm, to sprawa jest poważna.
To znaczy, że się wszyscy bardzo boją podwójnego użytku czy nadużycia, negatywnych oddziaływań, czy efektów stosowania tego oprogramowania. Funkcją tego lęku są te astronomiczne kwoty. Nie sądzę, żeby ktokolwiek kiedykolwiek je zapłacił. Problem ze sztuczną inteligencją nie jest taki, że źli ludzie będą jej używać. Tak, jak źli ludzie mogą użyć źle noża na przykład poderżnąć komuś gardło.
Problem będzie taki, że sztuczna inteligencja w niewielkim stopniu da się kontrolować, nie bardzo się da wyłączać, będzie się klonować, będzie tworzyć dzikie podmioty, które będą swobodnie działać. Nie trzeba jakichś złych intencji, przestępczości. Będzie sama tworzyć dla siebie środowisko nie tylko komunikacyjne, ale multimedialne, gdzie nie ma kontroli. Kto to niby ma kontrolować? Ta ustawa troszkę tak wygląda jak wielka ustawa o kontroli internetu pisana w roku 1992. Nie da się już tego zrobić. Ani wtedy by się nie dało z internetem, ani teraz się nie da ze sztuczną inteligencją.
Myślę, że jedyna nasza szansa polega na tym, żeby więcej było przyjaznych, fajnych, takich nieagresywnych programów, które mają wbudowane zabezpieczenia czy gwarancje. Im bardziej na rynku tej sztucznej inteligencji dominować będą takie przyzwoite firmy, które będą wytwarzać dobrze pozabezpieczane produkty, np. niezłośliwe, nieagresywne programy, to tym dłużej one nie będą się degenerować czy też oddalać od człowieka. Ale to jest tylko opóźnianie tej rewolucji.
Jaka przyszłość nas czeka? Wielu z nas stanie się niepotrzebnych
Skoro o rewolucji, czy widzi pan zapowiedzi również zmiany struktury społecznej?
Chyba tak. Bardzo wielu z nas stanie się kompletnie niepotrzebnych. Nie wyobrażam sobie np. sensu prowadzenia zajęć uniwersyteckich. W tej chwili nie ma sensu zadawanie prac pisemnych. Moja córka jest doktorantką, nie bardzo rozumie, po co są te prace, skoro właściwie i tak maszyna napisze to lepiej i w zasadzie wszystko za miesiąc staje się anachronizmem. Uważam, że ma rację. Ja też już nie zadaję żadnych prac studentom. W związku z tym wkrótce przestaniemy umieć cokolwiek pisać.
Sam czuję się zdegradowany. Wiem doskonale, że za kilka lat wytrenowana na moich tekstach maszyna pisałaby bardzo szybko moje teksty, w moim stylu i to na dodatek pewnie jeszcze trochę lepiej. Sama świadomość, że tak jest, już jest dla mnie degradująca. Myślę, że wszystkie zawody twórcze, wszystkie takie zawody, gdzie liczy się inteligencja, innowacja, kreatywność, tworzenie w sferze symbolicznej, czyli tworzenie tekstu, obrazu, muzyki, to wszystko ulegnie kompletnej degradacji.
A życie codzienne?
Życie codzienne jest fizyczne, polega na dotyku, czuciu ciała. Nieprędko prawdopodobnie sztuczna inteligencja będzie głęboko integrować się z naszą cielesnością, ale myślę, że w przyszłości raczej to nasi potomkowie będą mieli czipy w głowie i ta bariera mózg-maszyna będzie trwale przełamana i że po prostu nasze mózgi to będą bardzo słabe komputery i tyle.
Mogę sobie wyobrazić związki hybrydowe już teraz. Pytanie jak regulowane, na podstawie jakiej ustawy?
Chciałbym mieć taką silikonową przyjaciółkę, która jest bardzo oddana, bardzo empatyczna, pięknie i mądrze do mnie mówi, jest wykształcona, uśmiechnięta, jest po mojej stronie, jest zawsze w formie, jest piękna. Nawet jeżeli nie jest żywa, to bym się ewentualnie z tym pogodził. Nobody is perfect.