Naukowcy boją się zagrożenia ze strony sztucznej inteligencji

Naukowcy boją się zagrożenia ze strony sztucznej inteligencji
Naukowcy boją się zagrożenia ze strony sztucznej inteligencji

Wideo: Naukowcy boją się zagrożenia ze strony sztucznej inteligencji

Wideo: Naukowcy boją się zagrożenia ze strony sztucznej inteligencji
Wideo: The Great 🇺🇦 Counter-Offensive VS 🇷🇺 Artillery 2024, Kwiecień
Anonim

Samodoskonaląca się sztuczna inteligencja (AI) w przyszłości może zniewalać lub zabijać ludzi, jeśli zechce. Opowiedział o tym naukowiec Amnon Eden, który uważa, że ryzyko związane z rozwojem wolnomyślącej i wysoce inteligentnej świadomości jest bardzo wysokie i „jeśli nie zajmie się sprawami kontroli AI już na obecnym etapie rozwoju, to jutro może po prostu nie nadejść”. Według angielskiej edycji Express ludzkość, według Amnona Edena, znajduje się dziś w „punkcie bez powrotu” do realizacji fabuły słynnego eposu filmowego „Terminator”.

Warto zauważyć, że dr Amnon Eden jest liderem projektu, którego głównym celem jest analiza potencjalnych niszczycielskich skutków sztucznej inteligencji. Naukowiec uważa, że bez właściwego zrozumienia konsekwencji tworzenia sztucznej inteligencji jej rozwój może grozić katastrofą. Obecnie nasze społeczeństwo jest słabo poinformowane o toczącej się w środowisku naukowym debacie na temat analizy potencjalnego wpływu AI. „W nadchodzącym 2016 roku analiza możliwych zagrożeń będzie musiała być znacznie bardziej rozpowszechniona w myśleniu korporacji i rządów, polityków i osób odpowiedzialnych za podejmowanie decyzji” – mówi Eden.

Naukowiec jest przekonany, że science fiction, opisujące niszczenie ludzkości przez roboty, może wkrótce stać się naszym wspólnym problemem, ponieważ proces tworzenia AI wymknął się spod kontroli. Na przykład Elon Musk, przy wsparciu przedsiębiorcy Sama Altmana, postanowił stworzyć nową organizację non-profit o wartości 1 miliarda dolarów, która rozwija sztuczną inteligencję o otwartym kodzie źródłowym, która powinna przewyższyć ludzki umysł. Jednocześnie sam amerykański miliarder Elon Musk zalicza sztuczną inteligencję do „największych zagrożeń dla naszego istnienia”. Steve Wozniak, współzałożyciel Apple, powiedział w marcu zeszłego roku, że „przyszłość wygląda zniechęcająco i bardzo niebezpiecznie dla ludzi… w końcu nadejdzie dzień, w którym komputery będą myśleć szybciej niż my i pozbędą się powolnych ludzi, aby aby firmy mogły pracować wydajniej.”

Obraz
Obraz

Warto zauważyć, że wielu naukowców dostrzega zagrożenie ze strony AI. Dziesiątki znanych naukowców, inwestorów i przedsiębiorców, których działalność jest w taki czy inny sposób związana z rozwojem sztucznej inteligencji, podpisało list otwarty wzywający do zwrócenia większej uwagi na kwestię bezpieczeństwa i społecznej użyteczności pracy w dziedzina sztucznej inteligencji. Astrofizyk Stephen Hawking oraz założyciel Tesli i SpaceX Elon Musk należą do sygnatariuszy tego dokumentu. List wraz z dokumentem towarzyszącym, który został opracowany przez Future of Life Institute (FLI), został napisany wśród rosnących obaw o wpływ sztucznej inteligencji na rynek pracy, a nawet długoterminowe przetrwanie całej ludzkości w środowisko, w którym możliwości robotów i maszyn będą rosły w sposób niemal niekontrolowany.

Naukowcy rozumieją, że potencjał sztucznej inteligencji jest dziś bardzo duży, dlatego konieczne jest pełne zbadanie możliwości jej optymalnego dla nas wykorzystania, aby uniknąć towarzyszących jej pułapek – zauważa list FLI. Konieczne jest, aby systemy sztucznej inteligencji stworzone przez człowieka robiły dokładnie to, czego od nich oczekujemy. Warto zauważyć, że Future of Life Institute został założony dopiero w zeszłym roku przez wielu entuzjastów, wśród których był twórca Skype'a Jaan Tallinn, aby „zminimalizować zagrożenia stojące przed ludzkością” i stymulować badania „optymistyczną wizją”. przyszłości . Przede wszystkim mówimy tutaj o zagrożeniach, jakie niesie rozwój sztucznej inteligencji i robotyki. W skład Rady Doradczej FLI wchodzą Musk i Hawking, a także uznany aktor Morgan Freeman i inne znane osoby. Zdaniem Elona Muska niekontrolowany rozwój sztucznej inteligencji jest potencjalnie bardziej niebezpieczny niż broń jądrowa.

Słynny brytyjski astrofizyk Stephen Hawking pod koniec 2015 roku próbował wyjaśnić swoje odrzucenie technologii AI. Jego zdaniem z biegiem czasu superinteligentne maszyny będą postrzegać ludzi jako materiały eksploatacyjne lub mrówki, które po prostu przeszkadzają w rozwiązaniu ich zadań. W rozmowie z użytkownikami portalu Reddit Stephen Hawking zauważył, że nie wierzy, iż takie superinteligentne maszyny będą „złymi stworzeniami”, które chcą zniszczyć całą ludzkość z powodu swojej intelektualnej wyższości. Najprawdopodobniej będzie można mówić o tym, że po prostu nie zauważą ludzkości.

Obraz
Obraz

„Ostatnio media nieustannie zniekształcają moje słowa. Głównym ryzykiem w rozwoju AI nie jest złośliwość maszyn, ale ich kompetencje. Superinteligentna sztuczna inteligencja wykona świetną robotę, ale jeśli to i nasze cele nie będą się pokrywać, ludzkość będzie miała bardzo poważne problemy”- wyjaśnia słynny naukowiec. Jako przykład Hawking przytoczył hipotetyczną sytuację, w której za działanie lub budowę nowej tamy hydroelektrycznej odpowiada superpotężna sztuczna inteligencja. Dla takiej maszyny priorytetem będzie to, ile energii wygeneruje powierzony system, a los ludzi nie będzie miał znaczenia. „Niewielu z nas depcze mrowiska i depcze mrówki w gniewie, ale wyobraźmy sobie sytuację - kontrolujesz potężną elektrownię wodną, która wytwarza energię elektryczną. Jeśli potrzebujesz podnieść poziom wody i w wyniku twoich działań jedno mrowisko zostanie zalane, to problemy z tonącymi owadami raczej nie będą cię niepokoić. Nie stawiajmy ludzi w miejscu mrówek”- powiedział naukowiec.

Drugim potencjalnym problemem dla dalszego rozwoju sztucznej inteligencji, według Hawkinga, może być „tyrania właścicieli maszyn” – szybki wzrost przepaści w poziomie dochodów pomiędzy bogatymi ludźmi, którzy będą mogli zmonopolizować produkcję inteligentnych maszyn i reszty światowej populacji. Stephen Hawking proponuje rozwiązanie tych ewentualnych problemów w następujący sposób – spowolnienie procesu rozwoju AI i przejście na rozwój nie „uniwersalnej”, ale wysoce wyspecjalizowanej sztucznej inteligencji, która potrafi rozwiązać tylko bardzo ograniczony zakres problemów.

Oprócz Hawkinga i Muska list podpisali noblista i profesor fizyki MIT Frank Wilczek, dyrektor wykonawczy Machine Intelligence Research Institute (MIRI) Luc Mühlhauser, a także wielu specjalistów z dużych firm informatycznych: Google, Microsoft i IBM, a także przedsiębiorców, którzy założyli firmy AI Vicarious i DeepMind. Autorzy listu zauważają, że nie mają na celu straszenia opinii publicznej, ale planują wyeksponowanie zarówno pozytywnych, jak i negatywnych aspektów, jakie wiążą się z tworzeniem sztucznej inteligencji. „Obecnie wszyscy zgadzają się, że badania w dziedzinie sztucznej inteligencji postępują stabilnie, a wpływ sztucznej inteligencji na współczesne społeczeństwo ludzkie będzie tylko wzrastał”, czytamy w liście, „możliwości, które otwierają się przed ludźmi są ogromne, wszystko, co współczesna cywilizacja ma do zaoferowania została stworzona przez inteligencję. Nie jesteśmy w stanie przewidzieć, co będziemy w stanie osiągnąć, jeśli ludzką inteligencję można pomnożyć przez sztuczną inteligencję, ale problem pozbycia się biedy i chorób nie jest już nieskończenie trudny.”

Obraz
Obraz

Liczne osiągnięcia w dziedzinie sztucznej inteligencji są już obecne we współczesnym życiu, w tym systemy rozpoznawania obrazu i mowy, bezzałogowe pojazdy i wiele innych. Obserwatorzy Doliny Krzemowej szacują, że obecnie w tym obszarze realizowanych jest ponad 150 startupów. Jednocześnie zmiany w tym obszarze przyciągają coraz więcej inwestycji, a coraz więcej firm takich jak Google rozwija swoje projekty w oparciu o sztuczną inteligencję. Dlatego autorzy listu uważają, że nadszedł czas, aby zwrócić większą uwagę na wszystkie możliwe konsekwencje obserwowanego boomu dla ekonomicznych, społecznych i prawnych aspektów życia ludzkiego.

Stanowisko, że sztuczna inteligencja może stanowić zagrożenie dla ludzi, podziela Nick Bostrom, profesor Uniwersytetu Oksfordzkiego, znany ze swojej pracy nad zasadą antropiczną. Ten specjalista uważa, że sztuczna inteligencja doszła do punktu, po którym nastąpi jej niekompatybilność z ludźmi. Nick Bostrom podkreśla, że w przeciwieństwie do inżynierii genetycznej i zmian klimatycznych, na które rządy przeznaczają wystarczające środki na kontrolę, „nie robi się nic, aby kontrolować ewolucję sztucznej inteligencji”. Zdaniem profesora, w odniesieniu do sztucznej inteligencji realizowana jest obecnie „polityka próżni prawnej, którą należy wypełnić”. Nawet technologie takie jak autonomiczne samochody, które wydają się nieszkodliwe i użyteczne, rodzą wiele pytań. Na przykład, czy takie auto musi wykonywać hamowanie awaryjne, aby ratować swoich pasażerów i kto będzie odpowiedzialny w razie wypadku z udziałem pojazdu bezzałogowego?

Omawiając potencjalne zagrożenia, Nick Bostrom zauważył, że „komputer nie jest w stanie określić korzyści i szkód dla ludzi” i „nie ma nawet najmniejszego pojęcia o ludzkiej moralności”. Ponadto cykle samodoskonalenia w komputerach mogą zachodzić z taką prędkością, że człowiek po prostu nie może ich śledzić i prawie nic nie można z tym zrobić - mówi naukowiec. „Na etapie rozwoju, kiedy komputery potrafią samodzielnie myśleć, nikt nie jest w stanie z całą pewnością przewidzieć, czy doprowadzi to do chaosu, czy też znacząco poprawi nasz świat” – powiedział Nick Bostrom, podając jako przykład proste możliwe rozwiązanie dla komputera – wyłączenie w krajach o zimnym klimacie ogrzewanie w celu poprawy zdrowia ludzi i zwiększenia ich wytrzymałości, co „może stanąć na czele sztucznej inteligencji”.

Obraz
Obraz

Ponadto Bostrom podnosi również problem chipowania ludzkiego mózgu w celu zwiększenia naszej biointeligencji. „Pod wieloma względami taka procedura może być przydatna, jeśli wszystkie procesy są kontrolowane, ale co się stanie, jeśli wszczepiony chip może się przeprogramować? Do jakich konsekwencji może to prowadzić - do pojawienia się supermana czy pojawienia się komputera, który będzie tylko wyglądał jak człowiek? - pyta profesor. Sposób, w jaki komputery rozwiązują ludzkie problemy, bardzo różni się od naszego. Na przykład w szachach ludzki mózg rozważa tylko wąski zestaw ruchów, wybierając z nich najlepszą opcję. Z kolei komputer rozważa wszystkie możliwe ruchy, wybierając najlepszy. Jednocześnie komputer nie spodziewa się zdenerwować ani zaskoczyć przeciwnika w grze. W przeciwieństwie do człowieka grającego w szachy, komputer może wykonać przebiegły i subtelny ruch tylko przez przypadek. Sztuczna inteligencja potrafi najlepiej kalkulować – wyeliminować błąd z dowolnego systemu, usuwając stamtąd „czynnik ludzki”, ale w przeciwieństwie do człowieka, robot nie jest gotowy do wykonywania wyczynów, które ratowałyby ludziom życie.

Między innymi wzrost liczby inteligentnych maszyn stanowi etap nowej rewolucji przemysłowej. To z kolei oznacza, że w niedalekiej przyszłości ludzkość czeka nieuniknione zmiany społeczne. Z czasem praca stanie się udziałem wysoko wykwalifikowanych specjalistów, ponieważ prawie wszystkie proste zadania mogą wykonywać roboty i inne mechanizmy. Naukowcy uważają, że sztuczna inteligencja „potrzebuje oka i oka”, aby nasza planeta nie zamieniła się w animowaną planetę „Zhelezyaka”, która była zamieszkana przez roboty.

W zakresie coraz większej automatyzacji procesów produkcyjnych przyszłość już nadeszła. Światowe Forum Ekonomiczne (WEF) przedstawiło swój raport, zgodnie z którym automatyzacja doprowadzi do tego, że do 2020 roku pracę straci ponad 5 mln osób pracujących w różnych dziedzinach. To jest wpływ robotów i systemów zrobotyzowanych na nasze życie. Do opracowania raportu pracownicy WEF wykorzystali dane 13,5 miliona pracowników z całego świata. Według nich do 2020 r. łączne zapotrzebowanie na ponad 7 mln miejsc pracy zniknie, natomiast oczekiwany wzrost zatrudnienia w innych branżach wyniesie nieco ponad 2 mln miejsc pracy.

Zalecana: