Zachęcam do wysłuchania rozmowy z prof. Adrianem Horzykiem AGH University of Science and Technology Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej.
PS: AI - sztuczna inteligencja - komu/czemu przypisujemy taki termin?
AH: Sztuczna inteligencja ma wiele twarzy, wiele definicji, więc podanie jednej z nich od razu narazi mnie na krytykę tych, którzy uważają nieco inaczej. Z pewności na podstawie jednej z pierwszych jej definicji można powiedzieć, iż sztuczna inteligencja powinna naśladować działanie tej naszej, ludzkiej inteligencji, w pojmowaniu świata, uczeniu się, potrzebach, percepcji, sposobie działania i wielu innych aspektach psychospołecznych.
Sztuczna inteligencja powinna być w stanie uczyć się, formować wiedzę, automatycznie kojarzyć fakty, zdarzenia, obiekty, grupować je, dostrzegając podobieństwa, zapamiętywać relacje jakie łączą obiekty lub grupy obiektów, formułować wnioski, tworzyć strategie dochodzenia do celów, płynących z potrzeb, które to my ludzie chcemy zdefiniować dla AI tak, by komputery wyposażone w AI zaspokajały nasze potrzeby i z nimi współgrały.
Zastanówmy się, kiedy działanie innego człowieka postrzegamy jako bardzo inteligentne? Przede wszystkim wtedy, gdy taki człowiek dostrzega, rozumie i pozytywnie reaguje na nasze potrzeby. Taką sztuczną inteligencję chcemy i potrzebujemy. Oczywiście nasza inteligencja pozwala również na działania egoistyczne, mało empatyczne i destrukcyjne, więc takich wolelibyśmy nie uczyć tej sztucznej. Jeśli więc boimy się sztucznej inteligencji, boimy się jej dlatego, iż jesteśmy świadomi swojej własnej inteligencji i nie chcemy, by się uczyła od nas tej ciemnej strony.
PS:Dlaczego człowiek tworzy sztuczną inteligencje?
AH: Przede wszystkim dlatego, żeby ułatwić sobie życie, nie musieć pracować tak żmudnie, jak nasi przodkowie, zająć się milszymi, ciekawszymi, bardziej kreatywnymi, lżejszymi pracami, więcej zarabiać i więcej cieszyć się życiem. Ponadto by być bardziej bezpiecznym, zadbanym, szybciej obsłużonym, mieć lepszą opiekę medyczną, szybszą reakcję w przypadku zagrożeń, np. zdrowotnych… i wiele innych korzyści, które mógłbym wymieniać pewnie do wieczora. Sztuczna inteligencja może uratować wiele ludzkich istnień i w pewnym zakresie inteligentne algorytmy i technologie z inżynierii biomedycznej już to robią, gdyż są wbudowane w różnego rodzaju aparaturę medyczną ułatwiając pracę lekarzom i przyspieszając analizę danych, zdjęć rentgenowskich i wielu innych, podwyższając precyzję i skracając czas oraz obniżając koszty.
PS:Sieci neuronowe, grafen a postęp w budowie maszyn. Inne nowe technologie…
AH: Nowe inteligentne rozwiązania zarówno algorytmiczne jak i w dziedzinie materiałoznawstwa pozwalają budować nowe rozwiązania, które są tańsze, wytrzymalsze, szybsze oraz mają wiele nowych lepszych właściwości i zalet stosowania.
PS:Jak uczy się komputer?
AH: To takie potoczne powiedzenie, gdyż komputer w zasadzie się nie uczy, ponieważ nie ma takiej potrzeby ani możliwości. Uczą się programy/algorytmy, poprzez zmienianie swoich wewnętrznych parametrów, dopasowując swoje działanie do danych, środowiska oraz stawianych im celów. Współcześnie mamy całą masę różnych algorytmów uczących się na wiele różnych sposobów, które możemy stosować do wielu różnych zadań. Obrazowo mówiąc, jeśli komputer ma się czegoś nauczyć, musi zapewnić mu to pewien algorytm, czyli przepis działania, wymyślony przez człowieka, który dopasowuje swoje parametry tak, by spełniały kryteria rozwiązywanego zadania, czyli np. żeby pokazując mu zdjęcie kotka, rozpoznał, iż jest to kotek, a gdy pieska nie powiedział, iż jest to żyrafa. Jak to się robi, jest zbyt skomplikowanym zagadnieniem, by wyjaśnić to w kilku słowach, ale większość algorytmów uczenia bazuje na stworzeniu ogromnej wieloparametrycznej funkcji aproksymującej wartości funkcji dla zadanych wartości wejściowych. A jak wiemy każda funkcja może mieć pewne parametry, które wpływają na jej przebieg, więc algorytm uczenia zmienia te parametry, wychylając taką funkcję w jedną czy w drugą stronę, by lepiej dopasowała się do danych. Oczywiście taka funkcja rozpoznająca kotki jest dużo bardziej skomplikowana! No, i tak działa sztuczna inteligencja dzisiaj – jak widać nie ma zagrożenia! Dopóki komputery nie będą miały potrzeb i egoistycznych dążeń, umiejętność swobodnego formowania wiedzy, zagrożenia wypływać mogą tylko od ludzi!
Czy człowiek potrafi nauczyć komputery rzeczy, z którymi sam ma problem, etyka, cierpliwość, precyzja, samodzielność?
AH: Z całym szacunkiem dla tych ważnych osobistości naszych czasów, nie sposób dzisiaj zabronić nikomu rozwoju algorytmów, programowania itp. Kiedyś Stany Zjednoczone chciały chronić algorytmy szyfrujące i nie tylko, że się im nie udało, ale straciły na tym ekonomicznie. Ponadto Elon Musk sam je intensywnie rozwija. Próba zabronienia innym czegoś, zwykle kończy się tym, iż ludzie jeszcze bardziej tego pożądają. Zaś jeśli pozwolimy tylko garstce ludzi znać się na AI, to oni sami lub ktoś inny może wpłynąć na nich i zmusić ich do zrobienia czegoś bardzo złego, na co reszta świata nie będzie w stanie wtedy zareagować. Dlatego lepiej i bezpieczniej jest, jeśli dalszy rozwój sztucznej inteligencji będzie możliwie transparentny i dostępny dla wszystkich, bo wtedy w przypadku jakiegoś zagrożenia z jednej strony, znajdą się osoby z drugiej, które skutecznie zareagują.
PS:Czy zagraża nam sztuczna inteligencja czy bardziej ludzie, którzy mają w rękach narzędzia sztucznej inteligencji?
AH: Moim zdaniem bardziej to drugie, gdyż obawiamy się sztucznej inteligencji mając świadomość tego, jak ludzie potrafią się zachowywać będąc inteligentnymi. Nie chcemy, żeby sztuczna inteligencja uczyła się od nas złych, egoistycznych zachowań, lecz chcemy, żeby była dobra i z nami współpracowała nad osiągnięciem lepszej przyszłości, poprawiła stan naszego zdrowia, ratowała nas, pomagała nam… To jest jak najbardziej możliwe i częściowo dzieje się już na naszych oczach za sprawą coraz inteligentniejszych algorytmów i aplikacji komputerowych, które je stosują.
PS:Co daje AI wojsku?
AH: Na pewno dużą przewagę i to nie tylko na fizycznym polu walki, ale przede wszystkim w sieci, czyli na cybernetycznym poligonie, gdzie ścierać mogą się nie tyle algorytmy AI, co mogą powodować poważne straty ekonomiczne i dezinformację po stronie przeciwnika lub jego samozniszczenie na skutek błędnego przepływu informacji sterowanego przez jednostki cybernetyczne wroga.
Ponadto AI umożliwia wysyłanie bezzałogowych pojazdów, dronów, łodzi, rakiet balistycznych itp., które potrafią same rozpoznawać zaprogramowane cele i do nich zmierzać mimo różnych przeszkód i trudności, ale na razie w ograniczonym zakresie. Niestety powodem ew. zła nie jest tutaj AI, która tylko na razie służy rozpoznawaniu i klasyfikacji obiektów czy optymalizacji tras, lecz człowiek, który te cele ustala i każe algorytmom niszczyć lub zabijać.
AI może zaś być bardzo skuteczna w defensywnych ruchach oraz obronie, gdyż ludzie mają ograniczone możliwości śledzenia wszystkich wątków i akcji, które mogą nam zagrażać, zaś AI może sobie z tym poradzić, więc postrzegam znaczenie AI jako bardzo ważne, gdyż nie raz na świeci zastosowanie tych algorytmów uratowało już życie wielu ludzi przed terrorystami i różnymi zagrożeniami.
PS:Maszyny, których wizerunek zbliża się do wizerunku człowieka - czy tak łatwiej akceptować przyszłą konkurencje?
AH: Nie nazywałbym inteligentnych maszyn konkurencją, gdyż konkurencja powstaje wtedy, gdy zaczyna się walka o te same zasoby w sytuacji, gdy ich jest niewystarczająca ilość dla wszystkich. Maszyny obecnie budowane z materiałów zupełnie innych niż organizmy ludzkie, więc ich potencjalne potrzeby będą też inne. Nie musimy więc ze sobą konkurować w myśl hollywoodzkich filmów katastroficznych, ale możemy ze sobą współpracować. Czy my ludzie nie współpracuje z różnymi np. zwierzętami, które są lepsze od nas np. tropieniu czy wykrywaniu tj. psy? Czy je zwalczamy, czy raczej dbamy o nie i kochamy? Sam fakt budowy organizmów biologicznych i cybernetycznych sprawia, iż możemy sobie być potrzebni, a ponadto dzisiejsza sztuczna inteligencja ma jeszcze daleko do tej prawdziwej. Na razie współczesna sztuczna inteligencja bardziej udaje inteligencję, a siedzą całe sztaby ludzi, które pracują nad jej udoskonalaniem, by to udawanie było przekonujące. Nie ma na świeci jeszcze takiej sztucznej inteligencji, która w naszym ludzkim rozumieniu mogłaby nam zagrozić czy być dla nas konkurencją. Pozostało jeszcze bardzo wiele problemów technicznych i nie tylko do rozwiązania. To, że programy informatyczne wydają się postępować inteligentnie, nie oznacza jeszcze istnienia sztucznej inteligencji. Pamiętajmy, że za stworzeniem tych zachowań, stoją inteligentni ludzie, a zachowania to im zostały zaprogramowane przez ludzi.
PS:Automatyzacja i sztuczna inteligencja a miejsca pracy dla człowieka? Robot kierowca, sprzedawca, nauczyciel, lekarz?
AH: Owszem, pewne zawody mogą być w przyszłości mnie popularne, ale nie szybko to się stanie, więc ludzie nie powinni się bać o utratę pracy. Zanim to się stanie, wyrośnie nowe pokolenie, które być może nie będzie już marzyło o pewnych zawodach i wcale im nie będzie przeszkadzać, iż pewne rzeczy będą bardziej zautomatyzowane. Najprościej zautomatyzować zawody, w których procesy są powtarzalne, monotonne dla człowieka, przewidywalne (więc mało kreatywne i ciekawe), więc taka stopniowa automatyzacja i powolne wypieranie z rynku pewnych zawodów będzie umożliwiać ludziom dalszych generacji zajmowanie się coraz bardziej fascynującymi rzeczami i współdziałanie z robotami i AI w odkrywaniu nieznanego i dążeniu do lepszego świata, gdzie łatwiej będzie się żyło! Oczywiście to pod warunkiem, iż część ludzi (tych gorszych) nie zechce wykorzystać AI we własnym egoistycznym interesie i nie narzucić pozostałym dyktatury. Ludzie są zagrożeniem, nie AI. AI jest jak narzędzie, np. nóż, którym można ukroić bochenek chleba lub przygotować obiad, ale może też służyć do innych gorszych celów…
Podkreślam, AI za szybko nie wejdzie w nasze życie i na rynek pracy znacząco, by mogła nam zagrozić, więc proszę nie obawiać się tego
PS:Nowe superszybkie komputery sprawią, że nowa technologia będzie rozwijać się jeszcze szybciej.
AH:Tak, rozwijane są nowe technologie, ponieważ obecne „krzemowe” dochodzą do granicy możliwości miniaturyzacji, więc jeśli nic nie wymyślimy, staniemy prawie w miejscu. A kto z nas nie chce nowego szybszego komputera czy jeszcze bardziej wydajnego smartfonu? Szybsze komputery oczywiście pozwolą również algorytmom AI działać szybciej, ale dzisiaj AI to głównie klasyfikacja i rozpoznawanie obrazów, sygnałów, predykcje różnego rodzaju, systemy rekomendacyjne, automatyczne translatory, algorytmy uatrakcyjniające rozrywkę itp., więc jeśli one będą działać szybciej, żadnej szkody nie doznamy, wręcz przeciwnie, będziemy się z tego cieszyć. Kto dzisiaj lubi czekać, aż komputer coś wymyśli czy wczyta rozwiązanie?
Do logarytmicznego postępu mamy jeszcze daleko, a takie technologie, które działają na kubitach – mam na myśli komputery kwantowe – na razie raczkują, a ich praca jest nadal niestabilna oraz szalenie droga!
PS:Scenariusze filmowe a prace nad AI? Możliwe?
AH: Nie, moim zdaniem scenariusze filmowe są pisane w taki sposób, by przyciągnąć widzów i zarobić pieniądze dla twórców, gdyż dobrze sprzedaje się wszystko, co bazuje na ludzkim strachu i obawach! Jeśli się czegoś boimy i ktoś nam pokazuje opcje wyjścia, jesteśmy często w stanie wydać na nie bardzo dużo! Wyobraźmy sobie np. zagrożenie ptasią grypą i istnienie jakiegoś antybiotyku, który może ją zwalczyć w przypadku pandemii. Jeśli mówią, że tego leku nie da się szybko wyprodukować dla wszystkich, więc Ci którzy chcą mogą go nabyć już teraz na wszelki wypadek, pewnie wiele ludzi go kupi. A jeśli filmy każą nam się bać sztucznej inteligencji, boimy się jej, przedstawiając niby realistyczne obrazy przyszłości. Ci, którzy rozwijają rozwiązania AI, wiedzą, że w tym, co robią, na razie nie ma żadnego zagrożenia, poza błędami ludzkimi i niedoskonałością rozwiązań opracowanych przez ludzi.
PS:Czy AI to nowy wyścig zbrojeń?
AH: Tak, z pewnością tak, ale nie dlatego, żeby wykorzystać je militarnie, ale przede wszystkim ekonomicznie, czyli kto ma lepsze AI, ten lepiej i szybciej zarabia, obniża koszty, wypiera konkurentów z rynku, mniej się napracuje, przejmuje kontrolę…
Z prof. Adrianem Horzykiem rozmawiał Paweł Soltysik