Nowy Ład sztucznej inteligencji.
W ciepłą, sierpniową noc roku 1914, kiedy ważyły się losy starego świata w jednym z pokojów zebrało się kilku przedstawicieli brytyjskiego rządu by oczekiwać na niemiecką odpowiedź na przesłane wcześniej ultimatum. Premier Herbert Henry Asquith wpatrywał się w zegar. Wskazówki przesuwały się powoli. W końcu stanęły na 12, a mechanizm rozpoczął grzmieć złowieszczo „bum, bum”. Koniec czasu. Wojna. O tym co myślał premier Asquith możemy dowiedzieć się z jego wspomnień, które pojawiły się zresztą na kartach pasjonującej książki Barbary Tuchman „Sierpniowe salwy” [1]. Każde miarodajne uderzenie wstrząsało panującą ciszą, a premier czuł jakby zegar grzmiał „doom, doom, doom" [2].
Premier Asquith ubierając swoje ówczesne obawy (jak każdy udany komentator czynił to oczywiście a posteriori) w te piękne i chwytliwe słowa miał na myśli nieuchronną zgubę, jaka zawisła nad starym światem. I Wojna Światowa, zwana przynajmniej do 1939 roku Wielką Wojną, była hekatombą jakieś stary świat dotąd nie widział. Nie można jednak powiedzieć, że była czymś niespodziewanym. Chwytając się na chwilę innego, jakże pięknego pod względem literackim odniesienia, nie była bez wątpienia czarnym łabędziem [3]. O tym, że wojna światowa prędzej czy później wybuchnie ludzie świetnie sobie zdawali sprawę. Wystarczyło spojrzeć na mapę. Zresztą, początek wieku XX obfitował w zdarzenia, które jedynie chyba dzięki szczęśliwemu trafowi lub zrządzeniu Opatrzności nie zakończyły się wojną światową. Kryzys bośniacki (1908), obie wojny bałkańskie (1912, 1913), wojna japońska (1905), kryzys marokański (1905) czy kryzys agadirski (1911) - wszystkie one doprowadzały stosunki międzynarodowe do wrzenia. Jeżeli dodamy do tego niesłychanie częste (i skuteczne) zamachy na przeróżne koronowane głowy, przywódców, generałów i ministrów [4], to zyskujemy obraz tyle ponury co prowadzący do przewidywalnych wniosków. Wojna, prędzej lub później, musiała wybuchnąć. Nie jest to miejsce na odpowiedź na pytanie czy wpływ na to miała ekspansywna polityka Cesarstwa Niemieckiego czy agresywnie odpowiadająca polityka Wielkiej Brytanii [5]. Nie jest to także miejsce na rozważania nad imperium schodzącym i wschodzącym (przesławna pułapka Tukidydesa). Wojna światowa, była kwestią czasu. Dziś, sto siedem lat po tamtych wydarzeniach, kiedy kolejny czytamy doniesienia prasowe o kolejnym skoku technologicznym w dziedzinie sztucznej inteligencji, wydawać by się mogło, że wskazówki naszego światowego zegara niebezpiecznie zbliżają się do godziny 12. Bardzo trudno ocenić czy mamy jeszcze godziny czy już minuty aż, podobnie jak premier Asquith, usłyszymy donośne „doom, doom, doom”. Kiedy bowiem dumny zespół badawczy ogłosi w końcu, że oto powstała ogólna sztuczna inteligencja, będzie już prawdopodobnie zbyt późno by uratować ludzkość przed niechybną zagładą. Zdarzenie to, podobnie jak wojna światowa, w żadnym stopniu nie jest czarnym łabędziem. Jest to zdarzenie jak najbardziej przewidywane a w niektórych kręgach nawet oczekiwane. Ponadto, badacze (choćby w osobie Nicka Bostroma [6]) przestrzegają świat przed optymistycznym pędem ku ogólnej sztucznej inteligencji. Nie tylko zatem wiemy, że pewnego dnia GAI (ogólna sztuczna inteligencja, ang. General artificial intelligence) stanie się faktem, ale także co najmniej w pewnym stopniu zdajemy sobie sprawę z zagrożeń. Głosy sceptyków są jednak stanowczo zbyt ciche. Przykrywają je hurraoptymistyczne okrzyki koryfeuszy postępu (choćby w osobie Yuvala Noego Harariego [7]), którzy to, podnosząc ludzkość do rangi pół bogów, nawołują do zwiększenia nakładów na naukę i jak najszybsze dojście do GAI. Postarajmy się wykonać zatem kilka ekscytujących eksperymentów intelektualnych i ocenić poglądy tak sceptyków jak i hurraoptymistów. Książka Yuvala Noego Harariego stała się bestsellerem. Zachwyca językiem (polskie wydanie tłumaczył Michał Rusinek) i urzeka niezwykle optymistyczną wizją. Ma jednak trzy zasadnicze problemy. Zaczynając od bardziej formalnej strony, książka Harariego nie jest książką naukową, choć od samego początku stara się ją udawać. Osobiście uważam, że jest to pewna nieuczciwość autora, który próbuje czytelnika wprowadzić w błąd co do rzekomych konsensusów panujących w świecie nauki. U Harariego nigdy nie mamy do czynienia z poglądami „niektórych naukowców” lub „części badaczy”. Harari opisując stan badań nie stara się pokazać kontrpropozycji. Często swoje przemyślenia zapomina okrasić stosownym cytatem, choć w wielu przypadkach aż by się o to prosiło. W efekcie, otrzymujemy książkę, która w żaden sposób nie powinna być traktowana jako rozprawa naukowa. Drugim problemem jest skrajny optymizm i niespotykany wręcz antropocentryzm. U Harariego przewodnią myślą jest idea walki ze śmiercią, jako ultymatywnym zagrożeniem dla człowieka. Harari stara się wykazać na kartach ksiązki, że pokonanie śmierci i nieśmiertelność jest nie tylko możliwa ale i pożądana. Człowiek może stać się dzięki temu boską istotą i rozwiązać ów niezbyt przyjemny kłopot, zwący się umieraniem. W efekcie dochodzimy do trzeciego problemu jakim jest skrajny materializm. Dla Harariego Bóg oczywiście nie istnieje. Skrajny materializm doprowadza zresztą Harariego do wniosku, że dla człowieka pożądanym jest uploadowanie swojego umysłu do cyberprzestrzeni by raz na zawsze pozbyć się ograniczeń słabego ciała. Jeżeli gdzieś u Harariego pojawiają się bogowie, to raczej w kontekście pewnego instrumentu opresji. Człowiek doskonały, homo deus, oczywiście będąc samemu bogiem, nie potrzebuje już „bogów cudzych”. Dla Harariego stan nieznanego człowieczeństwa (homo deus jest w końcu czymś innym niż homo sapiens) przyniesie podstawowy zysk - nieśmiertelność. Tym bardziej zatem koncepcja boga i zaświatów stanie się bez znaczenia. Harari jest niezwykle stanowczy i pewny swoich przewidywań. W przeciwieństwie do Nicka Bostroma, którego „Superinteligencja” jest już ksiązką jak najbardziej o profilu naukowym. Niestety, polskie tłumaczenie pozostawia wiele do życzenia [8] i książka, która jest trudna w odbiorze już w języku angielskim, wcale nie staje się znacząco łatwiejsza po polsku. Mimo to, postaram się przybliżyć główne ryzyko jakie zauważa Bostrom. W sytuacji, w której sztuczna inteligencja osiągnie poziom ogólnej ludzkiej inteligencji, będziemy mieli do czynienia z nieprzewidywalną i błyskawiczną „eksplozją inteligencji”. GAI w ciągu kilku chwil posiądzie całą wiedzę dostępną ludzkości i przewyższy nas praktycznie w każdym aspekcie. Superinteligencja będzie w stanie „myśleć” wiele rzędów wielkości szybciej niż ludzie, bo nie ograniczają jej relatywnie powolne pływy pomiędzy fizycznymi neuronami (przekazywanie bitów informacji w formie cyfrowej jest po prostu szybsze, gdyż odbywa się z prędkością światła). Będzie więc w stanie wykonać intelektualne ćwiczenia i eksperymenty, które zajęłyby ludzkości tysiąc lat w kilka sekund. Dążąc do pełnej optymalizacji samej siebie, dodatkowo będzie też na jakościowo wyższym poziomie - poziom rozumienia zjawisk i korelacji między nimi będzie o wiele rzędów wyższy niż u człowieka. U Bostroma brak jest rozważań teozoficznych, jednak czyż w przypadku błyskawicznej i jakościowo wyższej inteligencji, człowiek nie stanie oko w oko z boską istotą [9]? Jeżeli tak się stanie a my nie przygotujemy się na to spotkanie odpowiednio wcześniej, to będziemy na z góry przegranej pozycji. Bostrom szeroko omawia problem kontroli i możliwość „wyłączenia wtyczki”. Konstatuje jednak, że problem ten musi być rozwiązany przed a nie po powstaniu GAI. Jak bowiem wskazano wcześniej, samo powstanie GAI dążącej do optymalizacji, która to optymalizacja jest niejako wpisana w sens GAI, będzie prowadziła do eksplozji inteligencji i przekształcenia jej w SAI (super artificial intelligence). Kontrolowanie bytu quasi-boskiego jest niesłychanie utrudnione. Ciężko nam sobie wyobrazić, że człowiek wykonywał będzie polecenia myszy. Dlatego tak istotne jest przedsięwzięcie zawczasu stosownych środków na polu prawnym, technologicznym i etycznym. Z pewną radością można przyjąć ostatnie działania Unii Europejskiej, która stara się tworzyć metodologie sztucznej inteligencji godnej zaufania (trustworthy AI), której działanie będzie jednocześnie zrozumiałe (wyjaśnialna sztuczna inteligencja - explainable AI). Pozostaje jednak ryzyko, że jest już za późno. Przeróżne badawcze zespoły mogą już być o krok od powołania do „życia” zupełnie nowego, konkurencyjnego względem człowieka bytu. Kiedy tak się stanie, możemy rzeczywiście mieć do czynienia z Nowym Ładem, gdzie człowiek będzie musiał dzielić miejsce na planecie z tworem przewyższającym go intelektualnie pod każdym względem i posiadającym własne cele.Mamy więc wizję optymistczną z bogiem-człowiekiem i wizję pesymistyczną z bogiem-maszyną. To, która wizja jet nam bliższa zależy oczywiście od nas samych. Wydaje się jednak, że obie te wizje mają cechę wspólną - człowiek współczesny jest na straconej pozycji. Albo porzuci swoje ograniczenia albo zostanie zmarginalizowany. Marginalizacja przez superinteligentną istotę nie musi oczywiście oznaczać zagłady ludzkości. SAI może przecież „rozumieć”, że śmierć miliardów jest mniej „opłacalna” od ich zniewolenia w stanie permanentnego szczęścia. Program stymulacji szyszynki i kory mózgowej, zaprojektowany i wdrożony przez SAI może okazać się fizycznie przyjemny, choć prawdopodobnie przynajmniej część z nas życzyłaby sobie zachowanie antycznych benefitów w postaci wolnej woli i możliwości wyboru. ku.
Dlatego, dążyć należy do światowego konsensusu. Dla ochrony zupełnie podstawowym praw człowieka i dla zniwelowania śmiertelnego zagrożenia, przed jakim stoimy. Pewną ironią jest, że najlepszą zasadę, jaka powinna przyświecać badaniom naukowym dał nam pisarz science fiction a nie etyk AI. Mowa o Franku Herbecie i jego Diunie [10], której ekranizacja wchodzi zresztą do kin. Opisując jihad butleriański, czyli wojnę między ludźmi a inteligentnymi maszynami, Herbert był optymistą. Ludzie wygrywają i ustalają nowe, religijne właściwie, przykazanie - nie będziesz tworzył maszyny na wzór i podobieństwo ludzkiego umysłu.
Należy się obawiać, że w przeciwieństwie do książek Franka Herberta, żadnego jihadu butleriańśkiego nie będzie. Człowiek przegra, jeżeli dojdzie do pojedynku. Nie ma tu miejsca na prawa robotów Asimova. Nie ma miejsca na Bajki Robotów Lema. Konieczny jest międzynarodowy konsensus i wspólne wypracowanie bezpieczników.
A, że do żadnego międzynarodowego konsensusu nie dojdzie, żadnych bezpieczników nie wypracujemy, a zespoły badawcze będą sowicie opłacane by stworzyć w końcu pierwszy sztuczny mózg, możemy spokojnie usiąść w fotelu jak premier Asquith, otworzyć dobre wino i wpatrując się w straszliwy zegar, oczekiwać aż jego mechanizm zagra nam „doom, doom, doom”. Potem zaś nastanie niezwykle nieludzko logiczna, zimna i ciemna noc ludzkości.
Marian Baczal
----
1] B. Tuchman „Sierpniowe salwy”, W.A.B, 2014
[2] eng. zagłada (tłum. autora). Miało być to, zdaniem Asquitha, zapowiedzią tego co miało się rozpocząć - wojny o niespotykanej dotąd skali, która na zawsze odmieniła losy świata i pochłonęła życie milionów.
[3] Czarnymi łabędziami nazywa Nassim Taleb niespodziewane i nieprzewidywalne zdarzenia, które mają przemożny wpływ na losy ludzkości (N. Taleb „Czarny łabędź”, Zysk i Ska, 2015.
[4]V. Dedijer podaje, że od początku XX wieku, życie w zamachach straciło niemal 30 przywódców, w tym na przykład premier rosyjski Stołypin, król grecki Jerzy, król włoski Umberto, król serbski Alseksander, prezydent USA MacKinley. V. Dedijer „Sarajewo 1914”, Wydawnictwo Łódzkie 1983
[5] W zakresie „winy” Wielkiej Brytanii, szczególnie można polecić pracę C. Clarka „Lunatycy”, Znak , 2017.
[6] N. Bostrom „Superinteligencja”, Helion, 2021
[7] Y. Harari „Homo Deus. Krótka historia jutra”, Wydawnictwo Literackie, 2018
[8] Przykładowo subsidized prediction markets jest tłumaczone na dotowane rynki przepowiedni (s. 81), gdy chodzi o rynki prognostyczne. Choć rynek przepowiedni oczywiście istnieje, co da się zobaczyć chociażby w przeróżnych programach wróżbiarskich, to jednak nie jest on, przynajmniej co do zasady i przy wyłączeniu tarcz antykoronawirusowych, dotowany
[9] Pozostawmy na chwilę pytanie o świadomość tej „istoty” bez odpowiedzi. Kwestia czy maszyna może osiągnąć samoświadomość jest wtórna do kwestii czy może ona posiadać własne cele. Przykładowo, program antywirusowy póki co nie jest świadomy siebie, jednak posiada własny, wbudowany cel - detekcja i usunięcie wirusów.
[10] F. Herbert „Diuna”, 1999
Komentarze
Prześlij komentarz