INICJATYWA DOSKONAŁOŚCI BADAWCZEJ
SWOBODA BADAŃ – NAUKA DLA PRZYSZŁOŚCI
Cykl „Swoboda badań – nauka dla przyszłości” to artykuły, wywiady i krótkie filmy prezentujące badania laureatów konkursu „Swoboda badań”
prof. dr hab. Mariusz Wojewoda i prof. hab. dr Krzysztof Wieczorek
Filozofia sztucznej inteligencji
| dr Ewa Szwarczyńska |
Czy człowiek – jako twórca AI – zasługuje na miano nowego stwórcy? Czy jego stworzenie może stać się dla niego równorzędnym partnerem, a może konkurentem? Czy jest to tylko utopijna wizja rzeczywistości? Na te i inne pytania, podczas rozmowy z dr Ewą Szwarczyńską, odpowiadają laureaci II edycji konkursu „Swoboda badań” Inicjatywy Doskonałości Badawczej – dr hab. Mariusz Wojewoda, prof. UŚ i prof. dr hab. Krzysztof Wieczorek z Instytutu Filozofii Uniwersytetu Śląskiego.
Ewa Szwarczyńska: Utopia, cyfrowy raj, lepszy świat to jeden z możliwych scenariuszy przyszłości, za sprawą obecności AI w ludzkim życiu. Czy rysuje się przed nami techno–utopijna wizja przyszłości?
Mariusz Wojewoda: Jeżeli myślimy o słowie utopia, to etymologia wskazuje, że jest to miejsce, którego nie ma albo dobre miejsce. Tworzenie przez ludzi wizji lepszego świata jest problemem dość starym. Zwykle – mówiąc o utopii – myślimy o utopiach renesansowych, między innymi o Utopii Thomasa Morusa. Obecnie pojęcie to dotyczy poszukiwania lepszego życia dla człowieka. Wprowadzamy technologię i różne artefakty techniczne po to, żeby usprawnić jakość naszego życia – naprawić bądź ulepszyć umysł i/lub ciało. Aby to zrobić, potrzebujemy: robotów wyposażonych w AI, które będą spełniały rolę opiekunów na starość lub w chorobie, interfejsów łączących mózg z komputerem, usprawniających działanie starzejącego się mózgu bądź aplikacji w smartfonie, która będzie spełniała funkcje towarzysza życia. Pojawia się przy tym pytanie: jakie będą tego długofalowe efekty?
Mamy być członkami społeczeństwa 5.0, wykorzystującego możliwości związane z internetem rzeczy (IoT – Internet of Things), rzeczywistością wirtualną i szybkim dostępem do internetu z każdego miejsca. Zasoby sieciowe umożliwią powstanie społeczeństwa wiedzy. Zmienią się sposoby uczenia się, coraz częściej będziemy korzystać z edukacji ze „sztucznym” nauczycielem. To jednak wymaga rozwoju nowych kompetencji. Czy będziemy wtedy dalej ufali ludzkim autorytetom, czy to sztuczna inteligencja stanie się dla nas autorytetem? Czy wiedza będzie jeszcze związana z wolnym wyborem i niezależnym poznaniem, czy może będzie specjalnie przygotowana?
To myślenie w kategorii projektowania wizji przyszłości. Możemy do tego podejść optymistycznie i uznać, że będziemy zdolni się przystosowywać do zmian, pomimo ich zawrotnego tempa. Możliwe, że nasze mózgi za tym tempem nie nadążą, chociaż pod tym względem jesteśmy dość zróżnicowani.
Ewa Szwarczyńska: Jeśli mielibyśmy mówić o uniwersytecie jako miejscu gromadzenia i wytwarzania wiedzy, to czy nie byłoby to ujęcie zawężające, pomijające pojęcie mądrości? Czy wystarcza nam gromadzenie informacji? Czy nie chodzi tutaj o coś więcej?
Krzysztof Wieczorek: Jestem entuzjastą twórczości Stanisława Lema. Jako futurolog przewidział bardzo wiele zjawisk, które dzisiaj się realizują. W felietonie zatytułowanym Inteligencja, rozum, mądrość dokonuje stopniowania kompetencji świadomości, zastanawiając się nad tym, na ile AI będzie w stanie pokonać kolejne progi – najpierw próg świadomości, następnie przejście od prostej, zadaniowej inteligencji do rozumu i wreszcie od rozumu do mądrości. Gdyby te rozważania odnieść do uniwersytetu, to należałoby się zastanowić nad tym, na ile my – jako instytucja angażująca wielu ludzi– jesteśmy w stanie przekraczać te progi. Czy stanowimy wyłącznie pewnego rodzaju korporację umysłów, służącą do tego, by reprodukować pewne procedury intelektualne, czy stać nas jednak na coś więcej? Na stawianie problemów, na wyznaczanie nowych perspektyw, na odpowiadanie na pytania, które mają wymiar egzystencjalny?
Sztuczna inteligencja staje się stopniowo naszym partnerem i sojusznikiem w poszukiwaniu wiedzy, ale pytanie czy również w poszukiwaniu mądrości. Czy jesteśmy w stanie wykorzystać nasz flirt z AI do tego, żeby wartości humanistyczne nie tylko ochronić, ale rozbudować i nauczyć sztuczną świadomość myślenia w kategoriach problemowych, humanistycznych, aksjologicznych? Czy raczej po raz kolejny poniesiemy w tej dziedzinie porażkę i staniemy się przybudówką do maszyn, które sami zbudowaliśmy?
Ewa Szwarczyńska: Przejście „informacja – wiedza” zdaje się być bardziej zrozumiałe, aniżeli przejście z poziomu wiedzy do poziomu mądrości. Na czym polega różnica jakościowa pomiędzy tymi stopniami?
Mariusz Wojewoda: Mądrość jest raczej wartością dodaną. Nie można stworzyć szkoły, w której uczy się mądrości, a to oznacza, że ona wydarza się przy okazji – raczej nie dlatego, że jest zamierzona. Ona jest elementem rzadkim. Mówimy, że maszyny dostarczają informacji i może wyprzedzą nas w wiedzy (albo możliwe, że my się jakoś z nimi będziemy porozumiewać i nasza wiedza będzie lepsza), ale mądrość jest ciągle tylko ludzkim fenomenem. Raczej nie oczekujemy od maszyny, żeby była mądra.
Krzysztof Wieczorek: Kiedy mówimy o relacji między wiedzą a mądrością, to mnie się wydaje, że o ile wiedza ma charakter pragmatyczny i służy osiąganiu konkretnych celów użytecznych dla kogoś, o tyle mądrość przekracza ten poziom utylitaryzmu w kierunku transcendentaliów – prawdy, dobra, piękna. O mądrości mówili starożytni jako o cnocie, która ma bezpośredni związek z wartościami. Właśnie głównie z tymi najwyższymi wartościami, które – jako transcendentalia – przekraczają myślenie kategorialne. I my znamy wyłącznie mądrość ludzką, której cechą jest między innymi bezinteresowność, życzliwość, ofiarność, wspaniałomyślność. To są pewne cechy, których nie da się zdefiniować operacyjnie, a jednak intuicyjnie wiemy, o co chodzi. Natomiast możliwe jest osiągniecie innego typu mądrości, która nie będzie mądrością ludzką. Takim eksperymentem myślowym była powieść Solaris Stanisława Lema, której bohaterem był inteligentny ocean oblewający tytułową planetę, na którą Ziemianie wysłali swoją ekspedycję badawczą. Ów ocean solaryjski miał swoją mądrość, która nie była kompatybilna z ludzką mądrością. Jest także taka możliwość, że my uruchomiwszy procesy głębokiego, nienadzorowanego uczenia maszynowego, doprowadzimy ewolucyjnie do powstania mądrości maszynowej, która nie będzie ludzką mądrością. Będzie autonomiczną mądrością realizującą jak gdyby własną ścieżkę dostępu do transcendentaliów i może to być fascynująca przygoda, o ile się zrozumiemy.
Mariusz Wojewoda: Jednak na razie jest to tylko taka możliwość. Nie ma jeszcze takiej zdolności technicznej. AI, jaką mamy, jest na poziomie słabej sztucznej inteligencji. Są trzy poziomy – słaba, mocna i super inteligencja. To, co mówimy o tych mądrościowych aspektach, dotyczyłoby trzeciego poziomu, podczas gdy ciągle jesteśmy na pierwszym. To się może wydarzyć, ale na razie nadal rozmawiamy o utopii.
Ewa Szwarczyńska: Stephen Hawking stwierdził, że w przyszłości komputery wyprzedzą ludzi pod względem inteligencji i istotnym jest, by ich cele były zbieżne z celami ludzkimi. W tym kontekście pojawia się pytanie o miejsce i znaczenie AI w świecie wartości. Czy możemy uznać, że sama AI stanowi wartość, czy wręcz przeciwnie – jest ona zagrożeniem dla wartości?
Krzysztof Wieczorek: Martin Heidegger w tekście Pytanie o technikę sugeruje, żeby rozpatrywać technikę z dwóch różnych poziomów. Środki, instrumenty i narzędzia, które mają charakter instrumentalny i nie wykraczają poza zakres zastosowania do określonych funkcji, różnią się od samej techniki jako środowiska. Istota techniki nie jest niczym technicznym. Od takiego dosyć prowokacyjnego zdania zaczyna się wspomniany esej Heideggera, w którym twierdzi, że technika stała się nowym domem, nowym środowiskiem życia człowieka, co spowodowało, że nasze życie, wartościowanie, myślenie i cele stały się inne.
Używając na co dzień wielu rozmaitych narzędzi, takich jak smartfon, sieć komputerowa, komunikatory itd., wytworzyliśmy całą „sieć wieloświatów”, alternatywnych rzeczywistości – rzeczywistość wirtualną, a także rzeczywistość hybrydową, której część elementów jest zaczerpnięta z fizyki świata zmysłowego, część ze świata wirtualnego – i dla nas tworzą one jeden wspólny konglomerat. Żyjemy w świecie, który zmieniliśmy naszym działaniem, a który nas też zmienia. Moim zdaniem to, że dziś żyjemy w tym multiświecie, powoduje, że przebywamy również w innej przestrzeni aksjologicznej. Mamy inne potrzeby, inne oczekiwania, inne nadzieje.
Jest też taka idea, która mówi, że każda kolejna ewolucja technologiczna odbierana jest początkowo jako zagrożenie przede wszystkim ze względu na to, że pojawią się nowe technologie, nowe maszyny, nowe urządzenia, które odbiorą człowiekowi pracę i człowiek zostanie troszkę jakby „z ręką w nocniku”, nie będzie wiedział, co robić. Ale okazuje się – gdy prześledzimy historię ewolucji technologicznej – że człowiek potrafi sobie poradzić w taki sposób, że kiedy zostaje wypchnięty z jakiejś sfery działalności, natychmiast znajduje sobie nową i ta nowa sfera okazuje się czasem bardziej interesująca, bardziej twórcza, bardziej satysfakcjonująca niż to, co robił wcześniej. Kiedyś robotnik pracował przy taśmie produkcyjnej w fabryce Forda i przez całe życie przekręcał tym samym ruchem tę samą nakrętkę do tej samej śrubki. Dzisiaj nasza praca jest o wiele bardziej kreatywna. W związku z tym, jeżeli AI zacznie nas wypierać z kolejnych zawodów (dla przykładu, pojawiają się prognozy, że ChatGPT zniszczy zawód dziennikarza, bo będzie lepiej produkował newsy i radził sobie w świecie komunikatorów niż człowiek), to wtedy znajdziemy sobie inne zatrudnienie, inne zainteresowania i będziemy realizować inne wartości.
Mariusz Wojewoda: Jeżeli mamy oswoić AI, to musimy ją oswoić aksjologicznie, a więc zaopatrzyć ją w te wartości, które są dla nas ważne, by nie stanowiła wobec nas zagrożenia. Może być tak, że będzie ona pożyteczna dla organizacji czy instytucji, jednak ja będę mógł jej zaufać dopiero wtedy, gdy uznam, że nie przedłoży ona interesu instytucji nad moje własne dobro, nie zinstrumentalizuje mnie.
Ewa Szwarczyńska: Pytanie czy w odniesieniu do AI możemy w ogóle posługiwać się pojęciem wartości, czy to nie jest jedynie jakiś rodzaj priorytetu wpisanego w ten twór?
Krzysztof Wieczorek: Systemy wartości bardzo często są pretekstem do konfliktu wartości. Jeżeli konstruujemy, czy próbujemy zmierzać, w kierunku takiej AI, która byłaby uniwersalnie życzliwa dla każdego, to czy ona rzeczywiście spełniałaby ludzkie oczekiwania – nie tylko te deklarowane werbalnie, ale także te, którymi my naprawdę żyjemy? Trudno mi sobie wyobrazić entuzjazm dla kogoś, kto byłby równie życzliwy dla Kargula i dla Pawlaka. Jeśli mówimy o życzliwości, to niech to będzie ktoś życzliwy dla mnie, ale bezwzględny dla moich wrogów – jak w Starym Testamencie. Tu jest pewne niebezpieczeństwo polegające na tym, że my sami nie do końca konsekwentnie potrafimy sformułować nasze oczekiwania i nasze cele. Być może nam się wydaje, że chcemy zbudować takiego przyjaciela wszystkich, ale myślimy tyko o tym, by był to ktoś, kto mnie przytuli, ale komuś innemu „przyłonacy”. I to już jest inny cel i inny system wartości.
Ewa Szwarczyńska: Gdy mówimy o celowości prac prowadzonych nad AI, to pojawia się pytanie, czy poza ich wymiarem pragmatycznym można dopatrywać się w nich przejawów ludzkiej potrzeby poszukiwania Innego lub pragnienia posiadania stwórczych mocy, innymi słowy: bycia jak Bóg? Kim jest twórca AI? Poszukiwaczem, odkrywcą czy może właśnie stwórcą? Jaka potrzeba odgrywa tu przeważającą rolę – odkrywanie czy stwarzanie? A może chodzi tylko o czysty pragmatyzm?
Krzysztof Wieczorek: Zastanawiając się nad tym problemem, odkryłem fragment Sklepów cynamonowych Brunona Schulza. W Traktacie o manekinach autor stawia tezę, że człowiek odkrył w sobie bardzo głęboko zakorzenioną potrzebę bycia drugim stwórcą. Schulz nazywa to „demiurgiem drugiej generacji”. Odkąd nauczyliśmy się myśleć o sobie w tym paradygmacie chrześcijańskim – człowiek jako dzieło Boga, stworzony na obraz i podobieństwo Stwórcy – odtąd odkryliśmy w sobie tęsknotę, by to podobieństwo, które w nas wprowadził Bóg, przenieść dalej, niejako do kolejnej generacji stworzeń, dla których to my będziemy bogami. I jeżeli jest w tym jakieś ziarno prawdy (a wydaje mi się, że tak, bo jeżeli popatrzymy na szereg mitów, legend, baśni opowiadanych w różnych kulturach, to ta tęsknota ludzka za pewną sprawczością, za metafizycznym ojcostwem, rzeczywiście daje się zdekodować w pewnych toposach mitologicznych czy baśniowych), to nadawałoby to pewien nowy wymiar naszym działaniom. Dlatego być może dodatkową siłą, która nas skłania do tego, żebyśmy jak najwięcej kreatywności inwestowali w coraz to nowsze postacie AI, jest właśnie tęsknota za tym, by w pewnym stopniu zastąpić Stwórcę i samemu stać się bogiem dla kogoś. Już nie dla siebie samego.
Pan Bóg został wyposażony we wszechmoc już z definicji, ale tworząc człowieka – według opowieści biblijnych – zrezygnował ze swojej wszechmocy na rzecz wyposażenia go w wolność. W gruncie rzeczy można to interpretować w kategoriach największego błędu Pana Boga. Friedrich Nietzsche albo Emil Cioran twierdzą, że największym błędem Pana Boga było wyposażenie człowieka w wolną wolę, ponieważ w praktyce oznaczało to konieczność buntu człowieka przeciwko swojemu Stwórcy. I teraz demiurg drugiej generacji próbuje w pewnym sensie przechytrzyć Boga, to znaczy nie popełnić drugi raz tego samego błędu. Stara się zatem wyposażyć swojego „imago homini”, swój twór, w pełną dyspozycyjność i pełną kontrolowalność – żeby się nie zbuntował. Projektujemy takie koncepty AI, która ma być w pełni uzależniona od nas. Nawet jeżeli będzie autonomicznie podejmować decyzje, to wkładamy wielki wysiłek w to, by w proces decyzyjny AI jak gdyby zaimplementować nasze wartości, które będą miały charakter obligatoryjny.
W parapowieści Lema Golem XIV pojawia się wątek, w którym maszyny, programując same siebie w kolejnych, coraz doskonalszych generacjach, zostały wstępnie tak zaprogramowane, że mają wbudowane na poziomie popędowym (a nie na przekształcalnym) pewne nieprzekraczalne normy etyczne, które chronią człowieka przed możliwym buntem maszyn. I tu jest zasadnicza różnica – Bóg nie wyposażył nas w żadne tego typu obligatoryjne normy etyczne, których my nie potrafilibyśmy przezwyciężyć. Dla człowieka nie ma w gruncie rzeczy nieprzekraczalnej wartości i każdą świętość potrafi podeptać.
Ewa Szwarczyńska: Czy filozofia jest w stanie obronić wyjątkowość człowieczeństwa w obliczu rozwoju AI? Czy jest to jej zadanie?
Krzysztof Wieczorek: Myślę, że filozofia jest pod tym względem głęboko podzielona, jak zresztą pod wieloma innymi względami. Istnieje w filozofii nurt transhumanistyczny, który dosyć zdecydowanie opowiada się po stronie redukcjonizmu antropologicznego i gdybyśmy pozostawali w obrębie tego nurtu, to myślę, że nie bylibyśmy w stanie obronić wyjątkowości człowieka. Tutaj zauważam skwapliwą gotowość do podzielenia się własnym człowieczeństwem z bytami, które powstaną dzięki naszej technicznej sprawczości, a jednocześnie, w niektórych manifestach transhumanistycznych, dostrzegam również niepokojącą otwartość na zerwanie z kulturowymi tradycjami identyfikacji człowieczeństwa, właśnie na poziomie aksjologicznym. Pewnym filozofom wystarcza redukcjonistyczna definicja człowieka: jako organizmu biologicznego podlegającego ewolucji, opisywalnego za pomocą języka fizykalistycznego, będącego niczym więcej, jak tylko zwierzęciem wysoko wyspecjalizowanym w pełnieniu pewnych funkcji.
Natomiast gdy pozostaniemy na gruncie filozofii personalistycznej, to mamy do dyspozycji język, całą kulturę filozoficzną, która pokazuje, że człowiek jest istotą nie do podrobienia i że jakiekolwiek byty stworzone na drodze udoskonalania algorytmów oraz działań zero-jedynkowych, próby stworzenia kogoś na obraz i podobieństwo człowieka, muszą się zatrzymać na pewnej granicy, którą on przekroczył dzięki swojej osobowej istocie.
Ewa Szwarczyńska: Badania prof. Mariusza Wojewody wskazują, że temat AI dotyka także sfery przetwarzania człowieka. Zagadnienie „poszerzonego umysłu”, którym Pan Profesor się zajmuje, nie jest jedynie metaforycznym hasłem. Stwierdza Pan, że koncepcje te rodzą obawy, że „wprowadzenie wytworów techne w obręb naszego życia, bądź nasze ciała i mózgi sprawi, że naruszymy istotę człowieczeństwa”. Czyli czego? Czy można w ogóle stracić istotę człowieczeństwa?
Mariusz Wojewoda: „Człowieczeństwo” to słowo, które możemy stosować jako określenie gatunkowe. Jednak w filozofii czy etyce często używa się go w znaczeniu normatywnym – jako coś, co nas określa, co funkcjonuje w skojarzeniu z ludzką naturą. Jeśli przyjmiemy bardziej dynamiczne rozumienie osoby – że stajemy się nią na skutek zmiany środowiskowej – to ta zmiana po pewnym czasie sprawiłaby, że jesteśmy innymi osobami (bo czynniki oddziaływania środowiskowego się zmieniają). Tu pojawia się pytanie, czy to ciągle jestem „ja” – pomiędzy 5. a 50. rokiem życia – czy „ja” na skutek zmian środowiskowych jestem już innym człowiekiem.
Krzysztof Wieczorek: Warto tu jeszcze przywołać Arystotelesa i różnicę między zmianą przypadłościową a substancjalną. Arystoteles posiłkuje się mitem greckim, który jest związany z Tezeuszem – w kulturze greckiej istniał tak zwany paradoks statku Tezeusza. Statek ten kursował co roku między Kretą a Pireusem, żeby upamiętniać święto wyzwolenia Krety spod tyranii Minotaura. Co jakiś czas trzeba było go remontować, wymieniając w nim części. Po iluś latach wszystkie części w tym statku zostały wymienione. Arystoteles zadaje pytanie, czy to jest nadal ten sam statek. Bo co decyduje o tożsamości bytu?
Ewa Szwarczyńska: Potęga sztucznej inteligencji polega na umiejętności zbierania danych, przekształcania ich w informacje, a na dalszym etapie – w wiedzę. Biorąc pod uwagę stwierdzenie Francisa Bacona, że władza osadzona jest na wiedzy, rodzi się niepokój o to czy człowiek będzie w stanie zachować nad sztuczną inteligencją przewagę? Czy w sytuacji zagrożenia z jej strony, ludzie będą w stanie przewyższyć jej techniczne możliwości?
Krzysztof Wieczorek: Zacząłbym od pytania, jak rozumiemy pojęcie władzy, bo jeżeli czysto technicznie – jako umiejętność skutecznego wpływania na stan rzeczy – to myślę, że tak rozumiana władza „leży na ulicy” i łatwo po nią sięgnąć, dysponując pewnymi kompetencjami wpływania sprawczego na rzeczywistość. Równie dobrze może robić to zautonomizowana AI. Natomiast gdyby rozumieć władzę „po ludzku”, to dla mnie władza jest przede wszystkim zaspokajaniem potrzeby znaczenia, uznania, atencji i nie widzę tutaj takiej możliwości, żeby AI została wyposażona w takiego rodzaju potrzeby, które by ją determinowały do sięgania po władzę, żeby się napawać własną omnipotencją. Jak dotąd nie widać żadnych przesłanek, które by nam pozwalały sądzić, że w obrębie AI pojawią się deprywacje typu potrzeby uznania, ochrony własnej godności, wywyższania się nad innych. To są cechy typowo ludzkie. Zatem wydaje mi się, że władza rozumiana jako zaspokajanie potrzeby dominacji nad innymi pozostanie domeną całkowicie ludzką.
Mariusz Wojewoda: Bacon zestawia władzę z wiedzą. Jest taki schemat myślenia, że ten, kto ma przewagę inteligencji, będzie też miał przewagę nad tymi, którzy są mniej inteligentni. Skoro ja jestem bardziej inteligentny niż zwierzęta, to decyduję o tym, co mają robić, a nie odwrotnie. W dużym uproszczeniu – chodzi o wpływ organizmów „wyższych” na „niższe”. Ekstrapolacja polega na tym, że skoro AI będzie inteligentniejsza, to będzie rządzić światem albo my się zdecydujemy, żeby rządziła światem, ponieważ jest mądrzejsza i lepiej rozwiązuje problemy od nas.
Do jakiego stopnia AI i mądrość będą związane z bezinteresownością i tym, że ci, którzy są bardziej inteligentni, są też bardziej odpowiedzialni? To już jest kwestia naszych oczekiwań, bo tak powinno generalnie być – ci, którzy mają przewagę intelektualną, powinni w większym stopniu czuć się odpowiedzialni za innych.
Ewa Szwarczyńska: Dziękuję za pasjonującą rozmowę.
Mariusz Wojewoda, Krzysztof Wieczorek: Dziękuję.