Przed tobą druga część artykułu z serii „Czekaj, jak to wszystko może być prawdziwe, dlaczego wciąż nie mówi się o tym na każdym rogu”. W poprzedniej serii okazało się, że eksplozja inteligencji stopniowo wkrada się do ludzi na planecie Ziemia, która próbuje rozwinąć się od wąsko skupionej do inteligencji uniwersalnej i wreszcie sztucznej superinteligencji.
„Być może mamy do czynienia z niezwykle trudnym problemem i nie wiadomo, ile czasu zostało przeznaczone na jego rozwiązanie, ale przyszłość ludzkości może zależeć od jego rozwiązania”. - Nicka Bostroma.
Pierwsza część artykułu zaczęła się dość niewinnie. Omówiliśmy wąsko skoncentrowaną sztuczną inteligencję (AI, która specjalizuje się w rozwiązywaniu jednego konkretnego problemu, jak wyznaczanie tras czy granie w szachy), w naszym świecie jest jej dużo. Następnie przeanalizowali, dlaczego tak trudno jest rozwijać ogólną, kierunkową sztuczną inteligencję (AGI, czyli AI, która pod względem możliwości intelektualnych może się równać z człowiekiem w rozwiązywaniu dowolnego problemu), jest tak trudna. Doszliśmy do wniosku, że wykładnicze tempo postępu technologicznego wskazuje na to, że AGI może być już wkrótce za rogiem. W końcu zdecydowaliśmy, że gdy tylko maszyny osiągną ludzką inteligencję, od razu mogą się zdarzyć następujące rzeczy:
Jak zwykle patrzymy na ekran, nie wierząc, że sztuczna superinteligencja (ISI, która jest znacznie mądrzejsza niż ktokolwiek) może pojawić się za naszego życia i wybierając emocje, które najlepiej oddadzą naszą opinię w tej sprawie.
Zanim zagłębimy się w szczegóły ISI, przypomnijmy sobie, co to znaczy, że maszyna jest superinteligentna.
Główna różnica leży między szybką superinteligencją a superinteligencją jakościową. Często pierwszą rzeczą, która przychodzi na myśl, gdy myślimy o superinteligentnym komputerze, jest to, że może on myśleć znacznie szybciej niż człowiek - miliony razy szybciej iw ciągu pięciu minut zrozumie, ile zajęłoby człowiekowi dziesięć lat. („Znam kung fu!”)
Brzmi imponująco, a ISI naprawdę powinien myśleć szybciej niż ktokolwiek z ludzi - ale główną cechą oddzielającą będzie jakość jego inteligencji, która jest zupełnie inna. Ludzie są znacznie mądrzejsi od małp, nie dlatego, że myślą szybciej, ale dlatego, że ich mózgi zawierają wiele pomysłowych modułów poznawczych, które wykonują złożone reprezentacje językowe, planowanie długoterminowe, myślenie abstrakcyjne, do czego małpy nie są zdolne. Jeśli przyspieszysz mózg małpy tysiąc razy, nie stanie się on mądrzejszy od nas - nawet po dziesięciu latach nie będzie w stanie złożyć konstruktora według instrukcji, co zajęłoby człowiekowi najwyżej kilka godzin. Są rzeczy, których małpa nigdy się nie nauczy, bez względu na to, ile godzin spędza i jak szybko pracuje jej mózg.
Ponadto małpa nie wie, jak po ludzku, bo jej mózg po prostu nie jest w stanie uświadomić sobie istnienia innych światów - małpa może wiedzieć, kim jest człowiek i czym jest wieżowiec, ale nigdy nie zrozumie, że wieżowiec został zbudowany przez ludzie. W jej świecie wszystko należy do natury, a makak nie tylko nie może zbudować drapacza chmur, ale także rozumie, że każdy może go w ogóle zbudować. A to wynik niewielkiej różnicy w jakości inteligencji.
W ogólnym schemacie inteligencji, o którym mówimy, lub po prostu według standardów istot biologicznych, różnica w jakości inteligencji między ludźmi a małpami jest niewielka. W poprzednim artykule umieściliśmy biologiczne zdolności poznawcze na drabinie:
Aby zrozumieć, jak poważna będzie superinteligentna maszyna, umieść ją dwa stopnie wyżej niż osoba na tej drabinie. Ta maszyna może i jest trochę superinteligentna, ale jej przewaga nad naszymi zdolnościami poznawczymi będzie taka sama jak nasza – nad małpami. I tak jak szympans nigdy nie zrozumie, że można zbudować drapacz chmur, tak my możemy nigdy nie zrozumieć, co zrozumie maszyna kilka kroków wyżej, nawet jeśli będzie próbowała nam to wyjaśnić. Ale to tylko kilka kroków. Inteligentniejsza maszyna dostrzeże w nas mrówki – latami będzie nas uczyła najprostszych rzeczy ze swojego stanowiska, a te próby będą zupełnie beznadziejne.
Rodzaj superinteligencji, o którym dzisiaj porozmawiamy, leży daleko poza tą drabiną. To eksplozja inteligencji - im mądrzejszy staje się samochód, tym szybciej może zwiększyć swoją inteligencję, stopniowo zwiększając rozpęd. Taka maszyna może zająć lata, aby przewyższyć szympansy inteligencją, ale być może kilka godzin, aby prześcignąć nas o kilka stopni. Od tego momentu samochód może już przeskakiwać cztery stopnie na sekundę. Dlatego powinniśmy zrozumieć, że już niedługo po pojawieniu się pierwszych wiadomości, że maszyna osiągnęła poziom ludzkiej inteligencji, możemy zmierzyć się z rzeczywistością współistnienia na Ziemi z czymś, co będzie znacznie wyższe od nas na tej drabinie (a może, i miliony razy wyższe):
A ponieważ ustaliliśmy, że zupełnie bezużyteczna jest próba zrozumienia mocy maszyny, która jest tylko dwa stopnie nad nami, zdefiniujmy raz na zawsze, że nie ma sposobu, aby zrozumieć, co zrobi ISI i jakie będą tego konsekwencje. to będzie dla nas. Każdy, kto twierdzi inaczej, po prostu nie rozumie, co oznacza superinteligencja.
Ewolucja powoli i stopniowo ewoluowała w biologicznym mózgu przez setki milionów lat, a jeśli ludzie stworzą superinteligentną maszynę, w pewnym sensie przekroczymy ewolucję. Albo będzie to część ewolucji – być może ewolucja działa w taki sposób, że inteligencja rozwija się stopniowo, aż osiągnie punkt zwrotny, który zwiastuje nową przyszłość dla wszystkich żywych istot:
Z powodów, które omówimy później, ogromna część społeczności naukowej uważa, że pytanie nie brzmi, czy dojdziemy do tego punktu krytycznego, ale kiedy.
Gdzie skończymy po tym?
Myślę, że nikt na tym świecie, ani ja, ani ty, nie będzie w stanie powiedzieć, co się stanie, gdy osiągniemy punkt krytyczny. Filozof z Oksfordu i czołowy teoretyk sztucznej inteligencji Nick Bostrom uważa, że wszystkie możliwe wyniki można podzielić na dwie szerokie kategorie.
Po pierwsze, patrząc na historię, wiemy o życiu, co następuje: gatunki pojawiają się, istnieją przez pewien czas, a potem nieuchronnie spadają z równoważni i wymierają.
„Wszystkie gatunki wymierają” było tak samo niezawodną zasadą w historii, jak „wszyscy ludzie kiedyś umrą”. 99,9% gatunków spadło z kłody życia i jest całkiem jasne, że jeśli jakiś gatunek wisi na tej kłodzie zbyt długo, podmuch naturalnego wiatru lub nagła asteroida przewróci belkę. Bostrom nazywa wymieranie stanem atraktora - miejsca, w którym wszystkie gatunki balansują, aby nie upaść tam, gdzie jeszcze żaden gatunek nie powrócił.
I chociaż większość naukowców przyznaje, że ISI będzie w stanie skazać ludzi na wyginięcie, wielu wierzy również, że wykorzystanie możliwości ISI pozwoli jednostkom (i całemu gatunkowi) osiągnąć drugi stan atraktora – nieśmiertelność gatunku. Bostrom uważa, że nieśmiertelność gatunku jest takim samym atraktorem, jak wyginięcie gatunku, to znaczy, jeśli do tego dojdziemy, będziemy skazani na wieczne istnienie. Tak więc, nawet gdyby wszystkie gatunki do tej pory spadły z tego kija w wir zagłady, Bostrom wierzy, że kłoda ma dwie strony i po prostu nie pojawiła się na Ziemi taka inteligencja, która rozumiałaby, jak spaść na drugą stronę.
Jeśli Bostrom i inni mają rację i sądząc po wszystkich dostępnych nam informacjach, mogą mieć rację, musimy zaakceptować dwa bardzo szokujące fakty:
Pojawienie się ISI po raz pierwszy w historii otworzy drogę dla gatunku do osiągnięcia nieśmiertelności i wyjścia z fatalnego cyklu wyginięcia.
Pojawienie się ISI będzie miało tak niewyobrażalnie ogromny wpływ, że najprawdopodobniej zepchnie ludzkość z tego dziennika w jednym lub drugim kierunku.
Możliwe, że gdy ewolucja osiąga taki punkt zwrotny, zawsze kończy związek ludzi ze strumieniem życia i tworzy nowy świat, z ludźmi lub bez.
Prowadzi to do interesującego pytania, którego nie zadałby sobie tylko włóczęga: kiedy dojdziemy do tego punktu krytycznego i gdzie nas on umieści? Nikt na świecie nie zna odpowiedzi na to podwójne pytanie, ale wielu mądrych ludzi próbowało to rozgryźć od dziesięcioleci. Do końca artykułu dowiemy się, skąd pochodzą.
* * *
Zacznijmy od pierwszej części tego pytania: kiedy powinniśmy osiągnąć punkt krytyczny? Innymi słowy: ile czasu zostało, zanim pierwsza maszyna dotrze do superinteligencji?
Opinie różnią się w zależności od przypadku. Wielu, w tym profesor Vernor Vinge, naukowiec Ben Herzel, współzałożyciel Sun Microsystems Bill Joy, futurysta Ray Kurzweil, zgodzili się z ekspertem od uczenia maszynowego Jeremym Howardem, kiedy przedstawił następujący wykres na TED Talk:
Ci ludzie podzielają pogląd, że ISI nadejdzie wkrótce – ten wykładniczy wzrost, który wydaje się nam dzisiaj powolny, dosłownie eksploduje w ciągu najbliższych kilku dekad.
Inni, jak współzałożyciel Microsoftu Paul Allen, psycholog badawczy Gary Marcus, ekspert komputerowy Ernest Davis i przedsiębiorca technologiczny Mitch Kapor, uważają, że myśliciele tacy jak Kurzweil poważnie nie doceniają skali problemu i uważają, że nie jesteśmy tak blisko punkt zwrotny.
Obóz Kurzweila przekonuje, że jedynym niedoszacowaniem, jakie ma miejsce, jest lekceważenie wykładniczego wzrostu, a wątpiących można porównać do tych, którzy patrzyli na powoli rozkwitający internet w 1985 roku i twierdzili, że nie będzie on miał wpływu na świat w najbliższej przyszłości.
Wątpić może, że postępowi trudniej jest zrobić każdy kolejny krok, jeśli chodzi o wykładniczy rozwój inteligencji, co neutralizuje typowy wykładniczy charakter postępu technologicznego. Itp.
Trzeci obóz, w którym znajduje się Nick Bostrom, nie zgadza się ani z pierwszym, ani z drugim, twierdząc, że a) wszystko to może się absolutnie zdarzyć w najbliższej przyszłości; oraz b) nie ma gwarancji, że tak się stanie w ogóle lub że potrwa to dłużej.
Inni, jak filozof Hubert Dreyfus, wierzą, że wszystkie trzy grupy naiwnie wierzą, że w ogóle nastąpi punkt krytyczny i że najprawdopodobniej nigdy nie dotrzemy do ISI.
Co się stanie, gdy zbierzemy wszystkie te opinie razem?
W 2013 roku Bostrom przeprowadził ankietę, w której przeprowadził wywiady z setkami ekspertów AI na serii konferencji na następujący temat: „Jakie będą twoje prognozy dotyczące osiągnięcia AGI na poziomie człowieka?” i poprosił nas o nazwanie optymistycznego roku (w którym będziemy mieli AGI z prawdopodobieństwem 10 procent), realistycznego założenia (rok, w którym będziemy mieli AGI z 50-procentowym prawdopodobieństwem) i pewnego założenia (najwcześniejszy rok, w którym AGI pojawi się od 90-procentowego prawdopodobieństwa). Oto wyniki:
* Średni rok optymistyczny (10%): 2022
* Średni realistyczny rok (50%): 2040
* Średni rok pesymistyczny (90%): 2075
Przeciętni respondenci uważają, że za 25 lat będziemy mieli AGI, a nie nie. 90-procentowe prawdopodobieństwo wystąpienia AGI do 2075 roku oznacza, że jeśli jesteś jeszcze dość młody, najprawdopodobniej stanie się to w twoim życiu.
Osobne badanie przeprowadzone niedawno przez Jamesa Barratta (autora uznanej i bardzo dobrej książki Our Latest Invention, fragmenty z Zwróciłem uwagę czytelników Hi-News.ru) i Ben Hertzel na konferencji AGI, dorocznej konferencji AGI, pokazali po prostu opinie ludzi na temat roku, w którym dostaniemy się do AGI: 2030, 2050, 2100, później lub nigdy. Oto wyniki:
* 2030: 42% respondentów
* 2050: 25%
* 2100: 20%
Po 2100: 10%
Nigdy: 2%
Podobne do wyników Bostroma. W sondażu Barratta ponad dwie trzecie ankietowanych uważa, że AGI pojawi się tutaj do 2050 r., a mniej niż połowa uważa, że AGI pojawi się w ciągu najbliższych 15 lat. Uderzające jest również to, że tylko 2% respondentów w zasadzie nie widzi AGI w naszej przyszłości.
Ale AGI nie jest punktem zwrotnym jak ISI. Kiedy, zdaniem ekspertów, będziemy mieli ISI?
Bostrom zapytał ekspertów, kiedy dotrzemy do ASI: a) dwa lata po dotarciu do AGI (czyli niemal natychmiast z powodu eksplozji inteligencji); b) po 30 latach. Wyniki?
Przeciętna opinia jest taka, że gwałtowne przejście z AGI do ISI nastąpi z prawdopodobieństwem 10%, ale za 30 lat lub mniej nastąpi z prawdopodobieństwem 75%.
Z tych danych nie wiemy, jaką datę respondenci nazwaliby 50-procentową szansą na ASI, ale na podstawie dwóch powyższych odpowiedzi załóżmy, że jest to 20 lat. Oznacza to, że czołowi światowi eksperci AI uważają, że punkt zwrotny nastąpi w 2060 r. (AGI pojawi się w 2040 r. + przejście z AGI do ISI zajmie 20 lat).
Oczywiście wszystkie powyższe statystyki mają charakter spekulacyjny i po prostu reprezentują opinię ekspertów w dziedzinie sztucznej inteligencji, ale wskazują również, że większość zainteresowanych osób zgadza się, że do 2060 r. prawdopodobnie pojawi się sztuczna inteligencja. W zaledwie 45 lat.
Przejdźmy do drugiego pytania. Kiedy dojdziemy do punktu krytycznego, po której stronie fatalnego wyboru nas zadecyduje?
Superinteligencja będzie miała najpotężniejszą moc, a kluczowe dla nas pytanie będzie następujące:
Kto lub co będzie kontrolować tę moc i jaka będzie ich motywacja?
Odpowiedź na to pytanie będzie zależeć od tego, czy ISI otrzyma niesamowicie potężny rozwój, niezmiernie przerażający rozwój, czy coś pomiędzy.
Oczywiście społeczność ekspertów również stara się odpowiedzieć na te pytania. Ankieta Bostroma przeanalizowała prawdopodobieństwo możliwych konsekwencji wpływu AGI na ludzkość i okazało się, że przy 52 procent szans wszystko pójdzie bardzo dobrze, a przy 31 procentach wszystko pójdzie źle lub bardzo źle. Ankieta załączona na końcu poprzedniej części tego tematu, przeprowadzona wśród Was, drodzy czytelnicy Hi-News, wykazała mniej więcej takie same wyniki. W przypadku stosunkowo neutralnego wyniku prawdopodobieństwo wyniosło tylko 17%. Innymi słowy, wszyscy wierzymy, że AGI będzie wielką sprawą. Warto również zauważyć, że badanie to dotyczy pojawienia się AGI – w przypadku ISI odsetek neutralności będzie niższy.
Zanim przejdziemy głębiej do myślenia o dobrych i złych stronach pytania, połączmy obie strony pytania - "kiedy to się stanie?" i „czy to jest dobre czy złe?” do tabeli, która zawiera poglądy większości ekspertów.
Za chwilę porozmawiamy o głównym obozie, ale najpierw zdecyduj o swojej pozycji. Są szanse, że jesteś w tym samym miejscu, co ja, zanim zacząłem pracować nad tym tematem. Jest kilka powodów, dla których ludzie w ogóle nie myślą o tym temacie:
* Jak wspomniano w pierwszej części, filmy poważnie pomieszały ludzi i fakty, prezentując nierealne scenariusze ze sztuczną inteligencją, co doprowadziło do tego, że w ogóle nie powinniśmy poważnie traktować AI. James Barratt porównał tę sytuację do wystosowania przez Centrum Kontroli Chorób (CDC) poważnego ostrzeżenia o wampirach w naszej przyszłości.
* Ze względu na tak zwane błędy poznawcze bardzo trudno jest nam uwierzyć, że coś jest prawdziwe, dopóki nie mamy dowodu. Można śmiało wyobrazić sobie informatyków z 1988 roku, którzy regularnie dyskutują o dalekosiężnych konsekwencjach Internetu i o tym, czym może się stać, ale ludzie prawie nie wierzyli, że zmieni on ich życie, dopóki to się nie stało. Po prostu komputery nie wiedziały, jak to zrobić w 1988 roku, a ludzie po prostu patrzyli na swoje komputery i myśleli: „Naprawdę? Czy to zmieni świat?” Ich wyobraźnię ograniczało to, czego nauczyli się z własnego doświadczenia, wiedzieli, czym jest komputer i trudno było sobie wyobrazić, do czego będzie zdolny komputer w przyszłości. To samo dzieje się teraz z AI. Słyszeliśmy, że stanie się to poważna sprawa, ale ponieważ nie spotkaliśmy się jeszcze z nią twarzą w twarz i generalnie obserwujemy raczej słabe przejawy sztucznej inteligencji w naszym współczesnym świecie, raczej trudno nam uwierzyć, że radykalnie się to zmieni. zmienić nasze życie. To wbrew tym uprzedzeniom liczni eksperci ze wszystkich obozów, a także osoby zainteresowane, sprzeciwiają się próbom przykucia naszej uwagi przez zgiełk codziennego zbiorowego egocentryzmu.
* Nawet gdybyśmy wierzyli w to wszystko – ile razy dzisiaj myślałeś o tym, że resztę wieczności spędzisz w nicości? Trochę, zgadzam się. Nawet jeśli ten fakt jest o wiele ważniejszy niż cokolwiek, co robisz każdego dnia. Dzieje się tak, ponieważ nasze mózgi zwykle skupiają się na małych, codziennych rzeczach, bez względu na to, jak urojona jest długoterminowa sytuacja, w której się znajdujemy. Po prostu jesteśmy stworzeni.
Jednym z celów tego artykułu jest wyciągnięcie cię z obozu o nazwie „Lubię myśleć o innych rzeczach” i umieszczenie cię w obozie ekspertów, nawet jeśli stoisz na skrzyżowaniu dwóch przerywanych linii na placu powyżej, całkowicie niezdecydowany.
W trakcie badań staje się oczywiste, że opinie większości ludzi szybko przesuwają się w stronę „obozu macierzystego”, a trzy czwarte ekspertów przypada na dwa podobozy w obozie macierzystym.
Odwiedzimy oba te obozy w całości. Zacznijmy od zabawy.
Dlaczego przyszłość może być naszym największym marzeniem?
Eksplorując świat AI, znajdujemy zaskakująco wiele osób w naszej strefie komfortu. Ludzie na prawym górnym placu są podekscytowani. Wierzą, że upadniemy po dobrej stronie kłody, a także wierzą, że nieuchronnie do tego dojdziemy. Dla nich przyszłość to tylko to, co najlepsze, o czym można tylko pomarzyć.
To, co odróżnia tych ludzi od innych myślicieli, nie polega na tym, że chcą być po szczęśliwej stronie, ale na tym, że są pewni, że to Ona na nas czeka.
Ta pewność wynika z kontrowersji. Krytycy uważają, że pochodzi z olśniewającego podniecenia, które przyćmiewa potencjalne negatywne strony. Ale zwolennicy twierdzą, że ponure prognozy są zawsze naiwne; technologia trwa i zawsze pomoże nam bardziej niż nam zaszkodzi.
Możesz wybrać dowolną z tych opinii, ale odłóż na bok sceptycyzm i przyjrzyj się szczęśliwej stronie balansu, próbując zaakceptować fakt, że wszystko, o czym czytasz, mogło już się wydarzyć. Gdybyście pokazali łowcom-zbieraczom nasz świat komfortu, technologii i nieskończonej obfitości, wydawałoby się im to magiczną fikcją – a my zachowujemy się dość skromnie, nie mogąc przyznać, że ta sama niezrozumiała przemiana czeka nas w przyszłości.
Nick Bostrom opisuje trzy ścieżki, które może obrać superinteligentny system sztucznej inteligencji:
* Wyrocznia, która potrafi odpowiedzieć na każde pytanie, w tym trudne pytania, na które ludzie nie potrafią odpowiedzieć – na przykład „jak sprawić, by silnik samochodowy był bardziej wydajny?” Google to prymitywny rodzaj „wyroczni”.
* Dżin, który wykona dowolne polecenie wysokiego poziomu - używając asemblera molekularnego do stworzenia nowej, wydajniejszej wersji silnika samochodowego - i będzie czekał na następne polecenie.
* Suweren, który będzie miał szeroki dostęp i możliwość swobodnego funkcjonowania w świecie, podejmowania własnych decyzji i usprawniania procesu. Wymyśli tańszy, szybszy i bezpieczniejszy sposób transportu prywatnego niż samochód.
Te pytania i zadania, które wydają się nam trudne, wydadzą się superinteligentnemu systemowi tak, jakby ktoś prosił o poprawę sytuacji „mój ołówek spadł ze stołu”, w którym po prostu go podnosisz i odkładasz.
Dobrze ujął to Eliezer Yudkowski, amerykański specjalista od sztucznej inteligencji:
„Nie ma trudnych problemów, są tylko problemy, które są trudne dla pewnego poziomu inteligencji. Pójdź o krok wyżej (w zakresie inteligencji), a niektóre problemy nagle przeniosą się z kategorii „niemożliwych” do „oczywistych”. O krok wyżej - a wszystkie staną się oczywiste”.
Jest wielu niecierpliwych naukowców, wynalazców i przedsiębiorców, którzy wybrali strefę pewnego komfortu z naszego stołu, ale potrzebujemy tylko jednego przewodnika, aby chodzić po najlepszych w tym najlepszym ze światów.
Ray Kurzweil jest niejednoznaczny. Niektórzy ubóstwiają jego idee, inni nim gardzą. Niektórzy pozostają w środku – Douglas Hofstadter, omawiając idee książek Kurzweila, wymownie zauważył, że „to tak, jakbyś wziął dużo dobrego jedzenia i małą psią kupę, a potem wszystko wymieszał w taki sposób, że nie sposób zrozumieć co jest dobre, a co złe.”
Niezależnie od tego, czy podobają ci się jego pomysły, czy nie, nie da się ich ominąć bez cienia zainteresowania. Zaczął wymyślać rzeczy jako nastolatek, a w następnych latach wynalazł kilka ważnych rzeczy, w tym pierwszy płaski skaner, pierwszy skaner konwertujący tekst na mowę, dobrze znany syntezator muzyczny Kurzweil (pierwsze prawdziwe pianino elektryczne) oraz pierwszy komercyjnie udany aparat do rozpoznawania mowy. Jest także autorem pięciu sensacyjnych książek. Kurzweil jest ceniony za śmiałe przepowiednie, a jego osiągnięcia są całkiem niezłe - pod koniec lat 80., kiedy Internet był jeszcze w powijakach, przewidywał, że do 2000 roku sieć stanie się globalnym fenomenem. The Wall Street Journal nazwał Kurzweila „niespokojnym geniuszem”, Forbes „globalną maszyną myślącą”, Inc. Magazyn – „prawowity spadkobierca Edisona”, Bill Gates – „najlepsi z tych, którzy przepowiadają przyszłość sztucznej inteligencji”. W 2012 roku współzałożyciel Google Larry Page zaprosił Kurzweila na stanowisko CTO. W 2011 był współzałożycielem Singularity University, który jest prowadzony przez NASA i częściowo sponsorowany przez Google.
Jego biografia ma znaczenie. Kiedy Kurzweil opowiada o swojej wizji przyszłości, brzmi to jak szalony szaleniec, ale naprawdę szalone w tym jest to, że daleko mu do szaleństwa – jest niesamowicie mądrym, wykształconym i zdrowym na umyśle człowiekiem. Możesz myśleć, że myli się w swoich przewidywaniach, ale nie jest głupcem. Przewidywania Kurzweila podziela wielu ekspertów od stref komfortu, Peter Diamandis i Ben Herzel. On myśli, że tak się stanie.
Chronologia
Kurzweil wierzy, że komputery osiągną poziom ogólnej sztucznej inteligencji (AGI) do 2029 roku, a do 2045 będziemy mieli nie tylko sztuczną superinteligencję, ale także zupełnie nowy świat – czas tzw. osobliwości. Jego chronologia sztucznej inteligencji jest nadal uważana za skandalicznie przesadzoną, ale w ciągu ostatnich 15 lat szybki rozwój wysoce skoncentrowanych systemów sztucznej inteligencji (AI) zmusił wielu ekspertów do opowiedzenia się po stronie Kurzweila. Jego przewidywania są wciąż bardziej ambitne niż te z ankiety Bostroma (AGI do 2040, ISI do 2060), ale niewiele.
Według Kurzweila, Singularity of 2045 napędzane jest przez trzy równoczesne rewolucje w biotechnologii, nanotechnologii i, co ważniejsze, AI. Ale zanim przejdziemy dalej – a nanotechnologia podąża za sztuczną inteligencją – poświęćmy chwilę na nanotechnologię.
Kilka słów o nanotechnologii
Zwykle nazywamy technologie nanotechnologiczne, które zajmują się manipulacją materią w zakresie 1-100 nanometrów. Nanometr to jedna miliardowa część metra lub milionowa część milimetra; w zakresie 1-100 nanometrów można umieścić wirusy (średnica 100 nm), DNA (10 nm szerokości), cząsteczki hemoglobiny (5 nm), glukozę (1 nm) i inne. Jeśli nanotechnologia kiedykolwiek stanie się naszym przedmiotem, następnym krokiem będzie manipulowanie pojedynczymi atomami, których wielkość jest mniejsza niż jeden rząd wielkości (~, 1 nm).
Aby zrozumieć, gdzie ludzie napotykają problemy, próbując manipulować materią na taką skalę, przejdźmy do większej skali. Międzynarodowa Stacja Kosmiczna znajduje się 481 kilometrów nad Ziemią. Gdyby ludzie byli olbrzymami i uderzyli w ISS głową, byliby 250 000 razy więksi niż teraz. Jeśli powiększysz cokolwiek od 1 do 100 nanometrów 250 000 razy, otrzymasz 2,5 centymetra. Nanotechnologia jest odpowiednikiem człowieka krążącego wokół ISS, próbującego manipulować przedmiotami wielkości ziarenka piasku lub gałki ocznej. Aby dostać się na kolejny poziom – kontrolę poszczególnych atomów – gigant będzie musiał ostrożnie pozycjonować obiekty o średnicy 1/40 milimetra. Zwykli ludzie będą potrzebować mikroskopu, aby je zobaczyć.
Po raz pierwszy Richard Feynman mówił o nanotechnologii w 1959 roku. Następnie powiedział: „Zasady fizyki, o ile wiem, nie przemawiają przeciwko możliwości kontrolowania rzeczy atom po atomie. W zasadzie fizyk mógłby zsyntetyzować każdą substancję chemiczną, którą zapisał chemik. Jak? Umieszczając atomy tam, gdzie chemik mówi, aby uzyskać substancję.” Na tym polega cała prostota. Jeśli wiesz, jak poruszać pojedynczymi cząsteczkami lub atomami, możesz zrobić prawie wszystko.
Nanotechnologia stała się poważną dziedziną naukową w 1986 roku, kiedy inżynier Eric Drexler przedstawił jej podstawy w swojej przełomowej książce Maszyny tworzenia, ale sam Drexler uważa, że ci, którzy chcą dowiedzieć się więcej o nowoczesnych pomysłach w nanotechnologii, powinni przeczytać jego książkę z 2013 roku. Pełna obfitość”(Radical Obfitość).
Kilka słów o „szarej mazi”
Zagłębiamy się w nanotechnologię. W szczególności temat „szarej mazi” jest jednym z niezbyt przyjemnych tematów w dziedzinie nanotechnologii, którego nie można zignorować. Starsze wersje teorii nanotechnologii proponowały metodę nanomontażu polegającą na stworzeniu bilionów maleńkich nanorobotów, które współpracowałyby ze sobą, aby coś stworzyć. Jednym ze sposobów na stworzenie bilionów nanorobotów jest stworzenie takiego, który może się samoreplikować, czyli od jednego do dwóch, od dwóch do czterech i tak dalej. W ciągu jednego dnia pojawi się kilka bilionów nanorobotów. To jest siła wzrostu wykładniczego. Zabawne, prawda?
To zabawne, ale dokładnie dopóki nie prowadzi do apokalipsy. Problem polega na tym, że siła wzrostu wykładniczego, która sprawia, że jest to całkiem wygodny sposób na szybkie stworzenie bilionów nanobotów, sprawia, że na dłuższą metę samoreplikacja jest przerażająca. Co się stanie, jeśli system ulegnie awarii i zamiast zatrzymać replikację na kilka bilionów, nanoboty nadal będą się rozmnażać? A jeśli cały ten proces zależy od węgla? Biomasa Ziemi zawiera 10^45 atomów węgla. Nanobot powinien mieć około 10^6 atomów węgla, więc 10^39 nanobotów pożre całe życie na Ziemi w zaledwie 130 powtórzeniach. Ocean nanobotów („szarej mazi”) zaleje planetę. Naukowcy uważają, że nanoboty mogą replikować się w 100 sekund, co oznacza, że prosty błąd może zabić całe życie na Ziemi w zaledwie 3,5 godziny.
Mogłoby być jeszcze gorzej - gdyby terroryści i nieprzychylni specjaliści dotarli do rąk nanotechnologii. Mogliby stworzyć kilka bilionów nanobotów i zaprogramować je tak, aby w ciągu kilku tygodni po cichu rozprzestrzeniły się po całym świecie. Następnie za naciśnięciem przycisku, w ciągu zaledwie 90 minut zjedzą wszystko bez żadnych szans.
Chociaż ten horror jest szeroko dyskutowany od lat, dobrą wiadomością jest to, że jest to tylko horror. Eric Drexler, który ukuł termin „szara maź”, powiedział niedawno: „Ludzie kochają horrory, a to jest jedna z horrorów o zombie. Ten pomysł sam w sobie już zjada mózg”.
Kiedy już dotrzemy do sedna nanotechnologii, możemy użyć jej do stworzenia urządzeń technicznych, odzieży, żywności, bioproduktów – krwinek, wirusów i środków zwalczających raka, tkanki mięśniowej i tak dalej – cokolwiek. A w świecie wykorzystującym nanotechnologię koszt materiału nie będzie już związany z jego niedoborem lub złożonością procesu produkcyjnego, ale raczej ze złożonością jego struktury atomowej. W świecie nanotechnologii diament może być tańszy niż gumka do ścierania.
Jeszcze nawet nie jesteśmy blisko. I nie jest do końca jasne, czy nie doceniamy, czy przeceniamy złożoność tej ścieżki. Jednak wszystko idzie do tego, że nanotechnologia nie jest daleko. Kurzweil zakłada, że do lat dwudziestych będziemy je mieć. Państwa świata wiedzą, że nanotechnologia może obiecywać wspaniałą przyszłość i dlatego inwestują w nie wiele miliardów.
Wyobraź sobie, jakie możliwości miałby superinteligentny komputer, gdyby trafił do niezawodnego asemblera w nanoskali. Ale nanotechnologia to nasz pomysł i staramy się na nim jeździć, jest to dla nas trudne. Co jeśli są one tylko żartem dla systemu ISI, a samo ISI wymyśli technologie, które będą wielokrotnie potężniejsze niż wszystko, co możemy w zasadzie założyć? Zgodziliśmy się: nikt nie może sobie wyobrazić, do czego będzie zdolna sztuczna superinteligencja? Uważa się, że nasze mózgi nie są w stanie przewidzieć nawet minimum tego, co się wydarzy.
Co może dla nas zrobić sztuczna inteligencja?
Uzbrojony w superinteligencję i całą technologię, jaką superinteligencja może stworzyć, ISI prawdopodobnie będzie w stanie rozwiązać wszystkie problemy ludzkości. Globalne ocieplenie? ISI najpierw powstrzyma emisje dwutlenku węgla poprzez wynalezienie wielu wydajnych sposobów wytwarzania energii, które nie są związane z paliwami kopalnymi. Następnie wymyśli skuteczny, innowacyjny sposób na usunięcie nadmiaru CO2 z atmosfery. Rak i inne choroby? To żaden problem – opieka zdrowotna i medycyna zmienią się w niewyobrażalny sposób. Głód na świecie? ISI wykorzysta nanotechnologię do stworzenia mięsa identycznego z naturalnym, od podstaw, prawdziwym mięsem.
Nanotechnologia będzie w stanie zamienić stertę śmieci w kadź ze świeżym mięsem lub inną żywnością (niekoniecznie nawet w zwykłej formie – wyobraźmy sobie gigantyczną kostkę jabłka) i rozprowadzać całą tę żywność na całym świecie za pomocą zaawansowanych systemów transportowych. Oczywiście będzie to świetne dla zwierząt, które nie muszą już umierać za jedzenie. ISI może również robić wiele innych rzeczy, takich jak ochrona zagrożonych gatunków, a nawet przywracanie wymarłych z przechowywanego DNA. ISI może rozwiązać nasze najtrudniejsze problemy makroekonomiczne – nasze najtrudniejsze debaty ekonomiczne, kwestie etyczne i filozoficzne, handel światowy – wszystko to będzie boleśnie oczywiste dla ISI.
Ale jest coś wyjątkowego, co ISI może dla nas zrobić. Ponętne i kuszące, które zmieniłyby wszystko: ISI może nam pomóc radzić sobie ze śmiertelnością … Stopniowo rozumiejąc możliwości sztucznej inteligencji, być może ponownie rozważysz wszystkie swoje pomysły dotyczące śmierci.
Nie było powodu, aby ewolucja przedłużała nasze życie dłużej niż teraz. Jeśli żyjemy wystarczająco długo, aby rodzić i wychowywać dzieci do momentu, w którym mogą same sobie radzić, wystarczy ewolucja. Z ewolucyjnego punktu widzenia do rozwoju wystarczy ponad 30 lat i nie ma powodu, aby mutacje przedłużały życie i zmniejszały wartość doboru naturalnego. William Butler Yates nazwał nasz gatunek „duszą przywiązaną do umierającego zwierzęcia”. Niewiele zabawy.
A ponieważ wszyscy kiedyś umrzemy, żyjemy w przekonaniu, że śmierć jest nieunikniona. Myślimy o starzeniu się z biegiem czasu – ciągłym posuwaniu się naprzód i niemożności zatrzymania tego procesu. Ale myśl o śmierci jest zdradliwa: schwytani przez nią zapominamy żyć. Richard Feynman napisał:
„W biologii jest cudowna rzecz: w tej nauce nie ma nic, co mówiłoby o konieczności śmierci. Jeśli chcemy stworzyć maszynę perpetuum mobile, zdajemy sobie sprawę, że znaleźliśmy w fizyce wystarczająco dużo praw, które albo wskazują na niemożliwość tego, albo że prawa są błędne. Ale w biologii nie ma nic, co wskazywałoby na nieuchronność śmierci. To prowadzi mnie do przekonania, że nie jest to takie nieuniknione, a to tylko kwestia czasu, zanim biolodzy odkryją przyczynę tego problemu, tej strasznej uniwersalnej choroby, zostanie wyleczona.”
Faktem jest, że starzenie się nie ma nic wspólnego z czasem. Starzenie się ma miejsce, gdy fizyczne materiały ciała zużywają się. Części samochodowe również ulegają degradacji - ale czy starzenie się jest nieuniknione? Jeśli naprawisz swój samochód, gdy części się zużyją, będzie on trwał wiecznie. Ciało ludzkie nie jest inne - tylko bardziej złożone.
Kurzweil mówi o inteligentnych nanobotach podłączonych do sieci Wi-Fi w krwiobiegu, które mogą wykonywać niezliczone zadania dla ludzkiego zdrowia, w tym regularnie naprawiać lub wymieniać zużyte komórki w dowolnym miejscu ciała. Poprawa tego procesu (lub znalezienie alternatywy sugerowanej przez mądrzejszy ASI) nie tylko utrzyma ciało w zdrowiu, ale może odwrócić proces starzenia. Różnica między ciałem 60-latka i 30-latka to garść fizycznych problemów, które można naprawić za pomocą odpowiedniej technologii. ISI może zbudować samochód, do którego osoba wejdzie w wieku 60 lat i wyjedzie, gdy ma 30 lat.
Nawet zdegradowany mózg można odnowić. ISI z pewnością wiedziałoby, jak to zrobić bez wpływu na dane mózgu (osobowość, wspomnienia itp.). 90-letni mężczyzna cierpiący na całkowitą degradację mózgu mógłby przejść przekwalifikowanie, odnowić się i powrócić do początku swojego życia. Może się to wydawać absurdalne, ale ciało składa się z garstki atomów, a ISI z pewnością z łatwością mogłaby nimi manipulować, jakimikolwiek strukturami atomowymi. To nie jest takie absurdalne.
Kurzweil wierzy również, że sztuczne materiały będą coraz bardziej integrować się z ciałem w miarę upływu czasu. Na początek organy można by zastąpić super-zaawansowanymi maszynowymi wersjami, które przetrwałyby wiecznie i nigdy nie zawodziły. Wtedy moglibyśmy całkowicie przeprojektować ciało, zastępując czerwone krwinki doskonałymi nanobotami, które poruszają się samodzielnie, całkowicie eliminując potrzebę serca. Moglibyśmy również poprawić nasze zdolności poznawcze, zacząć myśleć miliardy razy szybciej i uzyskać dostęp do wszystkich informacji dostępnych dla ludzkości za pośrednictwem chmury.
Możliwości zrozumienia nowych horyzontów byłyby naprawdę nieograniczone. Ludziom udało się nadać seksowi nowy cel, robią to dla przyjemności, a nie tylko dla reprodukcji. Kurzweil wierzy, że możemy zrobić to samo z jedzeniem. Nanoboty mogłyby dostarczać idealne odżywianie bezpośrednio komórkom ciała, umożliwiając przenikanie przez organizm niezdrowych substancji. Teoretyk nanotechnologii Robert Freitas opracował już zamiennik komórek krwi, który po wprowadzeniu do ludzkiego ciała może pozwolić mu nie oddychać przez 15 minut - i to wymyślił człowiek. Wyobraź sobie, kiedy ISI zyska władzę.
W końcu Kurzweil wierzy, że ludzie osiągną punkt, w którym staną się całkowicie sztuczni; czas, kiedy patrzymy na materiały biologiczne i myślimy o tym, jak prymitywne były; czas, kiedy będziemy czytać o wczesnych etapach historii ludzkości, zdumieni, jak zarazki, wypadki, choroby czy po prostu starość mogą zabić człowieka wbrew jego woli. Ostatecznie ludzie pokonają własną biologię i staną się wieczni – to droga do szczęśliwej strony balansu, o której mówiliśmy od samego początku. A ludzie, którzy w to wierzą, są również pewni, że taka przyszłość czeka nas bardzo, bardzo niedługo.
Prawdopodobnie nie zdziwisz się, że pomysły Kurzweila spotkały się z ostrą krytyką. Jego osobliwość w 2045 roku i późniejsze życie wieczne dla ludzi nazwano „wniebowstąpieniem kujonów” lub „inteligentnym stworzeniem ludzi o IQ 140”. Inni kwestionowali optymistyczne ramy czasowe, rozumienie ludzkiego ciała i mózgu, przypominali prawo Moore'a, które jeszcze nie odeszło. Na każdego eksperta, który wierzy w idee Kurzweila, jest trzech, którzy uważają, że się myli.
Ale najciekawsze w tym jest to, że większość ekspertów, którzy się z nim nie zgadzają, na ogół nie mówi, że jest to niemożliwe. Zamiast mówić „bzdura, to się nigdy nie zdarzy”, mówią coś w stylu „to wszystko się stanie, jeśli dotrzemy do ISI, ale to jest problem”. Bostrom, jeden z uznanych ekspertów AI ostrzegających przed zagrożeniami AI, również przyznaje:
„Nie ma prawie żadnego problemu, którego superinteligencja nie może rozwiązać, a nawet pomóc nam rozwiązać. Choroby, bieda, niszczenie środowiska, wszelkiego rodzaju cierpienia – wszystko to superinteligencja z pomocą nanotechnologii może rozwiązać w jednej chwili. Superinteligencja może również dać nam nieograniczoną długość życia, zatrzymując i odwracając proces starzenia za pomocą nanomedycyny lub możliwości przesyłania nas do chmury. Superinteligencja może również stwarzać możliwości nieskończonego wzrostu zdolności intelektualnych i emocjonalnych; może nam pomóc stworzyć świat, w którym będziemy żyć w radości i zrozumieniu, zbliżając się do naszych ideałów i regularnie realizując marzenia.”
To cytat jednego z krytyków Kurzweila, który przyznaje jednak, że to wszystko jest możliwe, jeśli uda nam się stworzyć bezpieczny ASI. Kurzweil po prostu zdefiniował, czym powinna się stać sztuczna superinteligencja, jeśli to w ogóle możliwe. A jeśli jest dobrym bogiem.
Najbardziej oczywistą krytyką zwolenników stref komfortu jest to, że mogą się cholernie mylić, gdy oceniają przyszłość ISI. W swojej książce The Singularity Kurzweil poświęcił 20 stron z 700 potencjalnych zagrożeń ISI. Nie chodzi o to, kiedy dojdziemy do ISI, pytanie o to, jaka będzie jego motywacja. Kurzweil odpowiada na to pytanie z ostrożnością: „ISI wywodzi się z wielu odmiennych wysiłków i będzie głęboko zintegrowany z infrastrukturą naszej cywilizacji. W rzeczywistości będzie ściśle osadzony w naszym ciele i mózgu. Odzwierciedla nasze wartości, bo będzie z nami jednością.”
Ale jeśli odpowiedź brzmi, dlaczego tak wielu inteligentnych ludzi na tym świecie martwi się o przyszłość sztucznej inteligencji? Dlaczego Stephen Hawking mówi, że rozwój ISI „może oznaczać koniec rasy ludzkiej”? Bill Gates mówi, że „nie rozumie ludzi, którym to nie przeszkadza”. Elon Musk obawia się, że „przyzywamy demona”. Dlaczego wielu ekspertów uważa ISI za największe zagrożenie dla ludzkości?
Porozmawiamy o tym następnym razem.