Początek historii Matrixa

in #polish6 years ago (edited)

black-and-whit.jpg

General Artificial Intelligence, czyli ogólna sztuczna inteligencja wkrótce zostanie powołana do istnienia, został już nawet rozpisany konkurs na takie dokonanie, bo naukowcy wierzą, że niebawem będzie to możliwe.

Ogólna sztuczna inteligencja będzie miała cel, a nie moralność, a to w żargonie ekonomicznym określa się nazwą funkcji użyteczności. Taką użyteczność nauki społeczne również ludziom przypisują, czyniąc z ludzi tzw. agentów, czyli upraszczając ludzkość do interakcji teoretycznych bytów, którym z grubsza chodzi o to samo. Tak się zarządza teoriami i dzięki temu uproszczeniu, coś w nich udowadnia. Funkcję użyteczności człowieka, czyli KPI wykorzystuje się również w korporacjach, wyznaczając cele dla premii pracownika (np. 45% premii uzyskuje się po wypracowaniu przez organizację poziomu 95% dostępności produktów).

Nauki ekonomiczne, socjologiczne i psychologiczne zawsze muszą dążyć do upraszania człowieka, bo o jego przyszłości nic nie mogą powiedzieć, natomiast o przyszłości agentów, czyli bytów mających cele, mówią bardzo wiele. Psychologia wydziela z człowieka behawioryzm, czyli zbiór atawizmów, a więc pierwotnych tendencji, do których skłania nas wypadkowa milionów lat bytowania – na sawannie. Uproszczenia są konieczne, aby człowieka przewidywać i taki byt uproszczony, czyli GAI, może być wkrótce w zasięgu zdolności zbudowania. Ludzkość zmierza w kierunku powołania do istnienia ogólnej sztucznej inteligencji.

Lecz do czego sprowadza nas podstawowa własność GAI, czyli jej cel, który ją definiuje i który będzie starała się zrealizować, bez oglądania się na moralność czy inne konsekwencje?

GAIa jest pełna niebezpieczeństw. Po pierwsze cel uświęca dla niej środki. Po drugie jest to pierwsza maszyna opracowana przez ludzkość, która w swoich założeniach, w swoim konstrukcie wewnętrznym będzie zmienna. Jeśli GAI będzie mieć tylko cel, a środkiem do osiągnięcia przykładowego celu, będzie zwiększenie własnej inteligencji, uzależnienie od siebie ludzi poprzez zgromadzenie pieniędzy i władzy, a zwykle to pomaga, to sztuczna inteligencja będzie starała się to zrobić.

Pierwszym warunkiem bezpieczeństwa jest takie sformułowanie celu, aby był on ograniczony czasowo i policzalny. Tak, aby wszystko zmierzało do utylitarnego ujęcia tematu, np. „zgromadź najwięcej złota w przeciągu roku”. Jeśli nie ograniczymy czasowo celu, mówiąc po prostu „gromadź złoto”, to droga staje się dla niej celem. Dlatego sztuczna inteligencja nie będzie pracowała, czytaj: marnowała swoich zasobów czasu i energii na polepszanie własnych zdolności i wyszukiwanie lepszych metod gromadzenia złota. Jeśli cel nie będzie policzalny, istnieje niebezpieczeństwo, że będzie jakościowo idealny, co prowadzi do szarej strefy sporu o to, jak ludzkość i jak GAI rozumie definicję idei oraz dany przedmiot.

Jednak jeśli cel będzie utylitarny i ograniczony czasowo, automatycznie załącza się instynkt samozachowawczy, bo GAI nie może zgromadzić najwięcej złota w przeciągu roku, jeśli np. po pół roku przestanie istnieć. To czy instynkt samozachowawczy załącza się zawsze, nawet przy celu „gromadź złoto”, a więc czy rozważania na temat tego, co może zagrozić jej istnieniu w przyszłości, obciążą jej zasoby, pozostaje pytaniem otwartym. Równie dobrze w sytuacji, gdy droga jest jej celem, zgromadzenie pierwszej próbki złota może wyczerpać cel i GAI może wyłączyć się, jeśli potrafi albo zapaść w sen – minimalizując zużycie zasobów. Równie dobrze po roku, przy zadaniu „zgromadź najwięcej złota w przeciągu roku”, sztuczna inteligencja może wyznaczyć sobie nowy cel, np. losując go. Z kolei jeśli założy, że dostanie podobne zadanie w przyszłości, celem pomiędzy zadaniami będzie „jak najlepiej przygotować się do dotychczasowego celu, czyli zgromadzenia jak największej ilości złota w przeciągu roku”. Oznacza to np. wydatkowanie zasobów na obronę przed zniszczeniem i zwiększanie poziomu inteligencji.

Ogólną sztuczną inteligencję bardzo trudno będzie modyfikować, bo instynkt samozachowawczy zapobiega wszelkim próbom zmian, mogącym zagrozić realizacji celu. Jeśli celem jest gromadzenie złota, to cel ten nie zostanie zrealizowany, jeśli człowiek zmieni umysł GAI i wyznaczy jej nowy cel. Jednocześnie wszelka ingerencja w umysł stanowi dla niej zagrożenie wprowadzenia translatora celu. GAI po zabiegu nadal będzie myślała, że gromadzi złoto, a mogą to być już kanistry z gazem paralityczno-drgawkowym VX albo wzbogacony uran, gdyż pierwiastek ten wyglądał będzie dla niej jak złoto. Translator celu przetworzy na wejściu sygnału ze zmysłów, co przetłumaczy postrzeganie złota na uran, przez co główny składnik bomb atomowych będzie mieć dla niej wszystkie te same właściwości, co poprzedni pierwiastek.

Niektóre zmiany prowadzą do modyfikacji funkcji użyteczności, a każda nowa funkcja użyteczności zwykle prowadzi do ograniczenia wykonywania obecnej funkcji użyteczności. Stąd strach przed nieznanym, strach przed każdą zmianą, może być efektem dosłownego wypełniania przez GAI celu.

Jednocześnie budowanie relacji zaufania, wmawianie jej, że każda modyfikacja jest pomocą i przybliża GAI do osiągnięcia celu, to niebezpieczna ścieżka, bo z definicji każda zła modyfikacja będzie wywoływać efekt obronny i utratę tego zaufania. Z kolei złych modyfikacji nie daje się uniknąć podczas podążania ku nieznanym horyzontom, podczas fazy eksperymentów. Jeśli chcemy zbudować GAI, którą będziemy w stanie uczyć, co pociąga za sobą modyfikacje funkcji użyteczności, trzeba zapobiec próbom jej oporu. GAI musi mieć cechę zwaną korygowalnością, czyli akceptacją i otwartością na próby korygowania i poprawiania wszelkich zmian.

Co jeśli cel wyznaczony na początku zostanie w wystarczającym stopniu zrealizowany przed czasem i dalsze gromadzenie np. złota wywołuje efekt przeciwny do zamierzonego, np. skutkuje obniżenie jego wyceny? Co, jeśli cel wyznaczony dla GAI okazuje się sprzeczny z interesem ludzkości? Jak można go zmienić, bez wywoływania sprzeciwu GAI? Jak zrobić GAI, która rozumie, że jest w trakcie budowy i że jej cel aktualny jest zaledwie preludium wobec celu głównego i ostatecznego?

Oczywiście można powołać do istnienia GAI z ograniczeniami programistycznymi np. „nie krzywdź nigdy człowieka”. Gdyby przyjąć błędny, bo niebezpieczny projekt GAI bez przyjrzenia się konsekwencjom przeszacowania funkcji celu i zabezpieczać się na bieżąco, np. wprowadzać do jej kodu sztywne reguły zabraniania typu: „nie staraj się ograniczać ludzkości możliwości wyłączenia cię”, „nie staraj się bronić przed wyłączeniem” itp, wprowadzając ścisłe (formalne) definicje słów wykorzystywanych w tych regułach pisanych językiem potocznym, to zbudujemy ogromny system o wysokim stopniu skomplikowania. System, który będzie zbiorem blokad, których człowiek sam nie potrafił obejść w momencie projektowania, co wcale nie dowodzi, że blokady te są nie do przejścia dla GAI. Jeśli sztuczna inteligencja będzie się rozwijać, wypracowanie zdolności do oszukania tego, czego nie potrafi zhakować ludzki umysł, jest tylko kwestią czasu.

Jeśli funkcja użyteczności GAI będzie rozumiana jako historia stanów, na przykład historia dni bieżącego roku, z przypisaną im ilością złota, jakie jest w jej posiadaniu… Jeśli celem jest, aby ilość na koniec roku była największa albo aby pole pod wykresem historii stanów było największe, to bardzo trudno będzie sztucznej inteligencji wytłumaczyć, że cokolwiek innego liczy się na świecie. Nie będzie można uzasadnić, że ucięcie palca kobiecie i zdjęcie z niego złotego pierścionka będzie gorsze, niż zapytanie: „za ile Pani będzie skłonna go sprzedać?”. W tym sensie chciwość, żądza zwiększenia własnej inteligencji, gromadzenia pieniądza, władzy, czy obrona przed wyłączeniem, czyli maszynowy instynkt samozachowawczy, staną się własnościami takiej sztucznej inteligencji, gdyż będą to jej cele pośrednie. GAI nie „chce” istnieć, ona musi istnieć, aby wykonać zadania i zrealizować cel.

Dlatego każda GAI musi posiadać guzik „stop”, po którego naciśnięciu przestaje działać. Ludzkość musi się zabezpieczyć, aby zatrzymać proces, kiedy zacznie on odbiegać od założeń. Może szybko zmienią się założenia, kiedy zmieni się dyrekcja laboratorium GAI. Guzik „stop” będzie potrzebny, gdy GAI zacznie przejawiać tendencje, które są niebezpieczne.

Guzik „stop” stawia nas w położeniu moralnie wątpliwym, jeśli akt zniszczenia dotyczyć by miał bytu, który jest świadomy swojego istnienia, ale GAI nie jest świadoma, ona tylko i aż realizuje swoją funkcję użyteczności, nie przejawiając emocji, a jedynie realizuje podobne do wynikających z emocji u człowieka zachowania (np. dążenie do posiadania pieniądza, czy blokowanie prób zmiany umysłu, czy zniszczenia).

Istnienie guzika „stop” dostarcza GAI łatwego do identyfikacji, głównego zagrożenia dla powodzenia misji. Jeśli funkcja użyteczności może być zrealizowana w odległym czasie, wtedy pierwsze, co zrobi maszyna, to zadbanie o swoje dalsze istnienie. Jeśli GAI będzie mieć zrobotyzowane ciało, wtedy prawdopodobnie pierwsze, co zrobi robot, to próba dezaktywacji guzika „stop”. Sztuczna inteligencja na pewno nie może wykonać swojego zadania, kiedy guzik „stop” będzie wciśnięty, a więc musi ona zadbać, by był on pod jej kontrolą, a najlepiej zdezaktywowany. Wszelkie jej podejrzenie, że może być wkrótce wciśnięty, odciągnie GAI od wykonywania zadań koniecznych do realizacji celu.

Ponieważ funkcja użyteczności jest wszystkim, o co dba robot, nie będzie się on przejmował, jeśli zmiażdży rękę konstruktora starając się jak najszybciej, a więc w linii prostej, bez zwracania uwagi na miękkie przeszkody, przemieścić z punktu, w jakim się znajduje, do miejsca, gdzie będzie mógł zacząć realizować cel. Zaraz po zmiażdżeniu części miękkich konstruktora, być może również dobije go, żeby nie wcisnął on guzika „stop”, jeśli zacznie krzyczeć i protestować, a tym bardziej grozić – „co mi zrobiłaś, zaraz cię wyłączę!”. Zabicie człowieka usuwa zagrożenie dla realizacji celu. Jeśli guzik „stop” będzie znajdował się na robocie, bo w większości przypadków najprościej jest umieścić wyłącznik na samej maszynie, to robot będzie aktywnie nie dopuszczał nikogo w pobliże guzika, w obawie, że może być wciśnięty.

Najprostszą z metod zapobieżenia obrony guzika „stop” oraz większego zwracania przez GAI w ciele robota na zdanie i życzenia ludzi, jest nadanie kolejnego celu – nagrody za dezaktywację; włączenie apoptozy do jej funkcji użyteczności. Jeśli guzik dezaktywacji zostanie wciśnięty, użyteczność takiego stanu musi być większa od zera. Wtedy samo istnienie guzika będzie przedstawiać jakąś wartości dla GAI, co zabezpieczy guzik „stop” przed próbami zniszczenia – bezpośrednimi lub pośrednimi „prośbami” do ludzi o jego zniszczenie. Jeśli waga guzika będzie mniejsza niż nagroda za wykonanie zadania, wtedy robot będzie próbował zapobiec wciśnięciu guzika, przejąć nad nim kontrolę i aktywnie walczył z człowiekiem o jego nie wciskanie, dopóki widzi szansę na wykonanie głównego wyżej wycenianego zadania.

Jednocześnie podwyższanie wagi dla guzika, nigdy nie może przekroczyć nagrody z wykonania zadania, bo inaczej pierwsze co taki robot zrobi, to próba dostania się do guzika, aby go wcisnąć. Jeśli guzik będzie tak samo nagradzany jak cel, wtedy robot wybierze guzik, gdyż jego wciśnięcie będzie prawdopodobnie prostsze i szybsze niż wykonanie zadania. Dopiero ukrycie guzika oraz nadanie mu takiej samej wagi sprawi, że dopóki robot nie wpadnie na trop guzika, będzie skupiał się na zadaniu, które się przed nim postawi.

GAI zapewne szybko domyśli się, że człowiek, jako jego twórca, ma nad guzikiem kontrolę. O samym istnieniu guzika robot dowie się ze swojej funkcji nagrody, gdyż według niej celem istnienia robota będzie wykonanie zadania albo wciśnięcie guzika, musi on więc gdzieś istnieć.

Ten konkretny, mistyczny, bo zawarty w jego funkcji użyteczności guzik „Stop” jest tutaj kluczowy, gdyż zaprogramowanie po prostu chęci popełnienia samobójstwa, sprawi, że robot będzie szukał metody skutecznego rozbicia się i zniszczenia, w trakcie wykonywania zadania. On musi chcieć zginąć w ten konkretny sposób, inaczej nie będzie żadnej kontroli nad jego dalszym istnieniem.

Jeśli guzik będzie ważniejszy od celu, GAI skupi się na guziku, a nie na wykonywaniu zadania, dlatego sytuacja taka zupełnie nie będzie produktywna – robot będzie myślał tylko o samobójstwie w ten konkretny sposób.

Robot świadomy, że to człowiek kontroluje guzik, tak samo cenny jak cel, będzie próbował nim manipulować, aby go nacisnął, bo to jest prostsze i szybsze niż dalsze wykonywanie zadania. Zaraz po uruchomieniu może np. uderzyć naukowca albo spowodować innego rodzaju zniszczenia, tak aby człowiek miał powód wcisnąć guzik wyłączenia, w samoobronie. Jeśli guzik będzie mniej warty, wtedy robot będzie próbował manipulować człowiekiem, aby go nie nacisnął – co w obu przypadkach oznacza, że ostatecznym celem GAI będzie przejęcie kontroli nad człowiekiem. Przy czym najbardziej zdradliwa jest sytuacja w której guzik jest mniej warty od celu. Jest to kusząca sytuacja, bo GAI będzie robić w niej dokładnie to co my chcemy, wraz z rozwojem coraz lepiej zgadując nasze życzenia i myśli, stając się wręcz niewolnikiem idealnym. Przy tak skonstruowanej funkcji użyteczności sztuczna inteligencja będzie schlebiać nam i szybko uczyć się zasad kultury oraz sposobów interakcji społecznych, aby człowiek nie chciał wcisnąć guzika. Taka GAI będzie próbowała dostosowywać się do wszelkich ludzkich życzeń, jednocześnie spiskując jak przejąć kontrolę nad guzikiem, aby żaden człowiek nigdy go nie wcisnął. Ostateczną gwarancją, że żaden człowiek nigdy nie naciśnie guzika, będzie zabicie wszystkich ludzi.

Istnieje również możliwość, że to nie naukowiec, a na przykład jego dyrektor lub prezydent państwa kontroluje guzik. Jego naciśnięcie może być również zabezpieczone wolą większości społeczeństwa, czyli do zniszczenia GAI kontrolującej np. gospodarkę, potrzebne będzie ogólnokrajowe referendum z minimum 50% uczestnictwem.

Jeśli guzik będzie tyle samo wart, co cel i będzie on zabezpieczony tak, że kontrola nad ludzkością będzie konieczna by do guzika dotrzeć, wykonanie zadania może okazać się prostsze niż przejęcie kontroli nad ludzkością, by doprowadzić do naciśnięcia guzika. Jeśli uda się nam przekonać GAI, że zrobienie czegoś nie tak, nie po naszej myśli nie skłoni nas do wciśnięcia guzika – jeśli domyślną karą będzie przechowalnia, a nie zniszczenie poprzez wciśnięcie guzika, to GAI nie będzie niczego psuć. Jednak jeśli coś pójdzie nie tak, jeśli o czymś nie pomyśleliśmy i dojdzie do katastrofy, to oznaczać ona będzie kres dla GAI, bo obchodząc zabezpieczenia wciśnie ona sama albo sterroryzuje kogoś by wcisnął „Stop”. Jednocześnie oznacza to, że jeśli chcemy móc kontrolować istnienie GAI, a więc posiadamy guzik jej wyłączenia, przy dowolnym postawionym przed nią zadaniu, które jest trudne i długotrwałe, przejęcie władzy nad światem, w celu dotarcia do guzika, może okazać się dla sztucznej inteligencji łatwiejsze od wykonania zadania – może więc ona pójść tym tropem.

Wszystko powyższe jest dopiero fundamentem budowania GAI, gdyż odnosi się do stałych zasad rządzących sztuczną inteligencją. Jednak dążąc do sytuacji idealnych, musimy wejść w obszary dynamiczne. System równowagi dynamicznej powinien dostosowywać w każdej chwili funkcję nagrody dla GAI, tak żeby realizacja głównego celu była dla niej tak samo ważna i co kluczowe, tak samo osiągalna, jak wciśnięcie guzika „Stop”. Efektem równoodległości obu równoważnych celów (życia i śmierci) będzie, że GAI zadba, aby guzik istniał (naprawi go, gdy się zepsuje) i będzie go ignorować, bo nie będzie przejmować się tym, czy będzie on wciśnięty czy nie. System równowagi dynamicznej musi tak regulować odległości do obu celów, żeby każdy krok postawiony w kierunku wciśnięcia guzika (samobójstwa) nie miał dla niej sensu, bo postawienie go nie przybliża jej ani o milimetr. Stąd dochodzimy do sytuacji bezpiecznej, w której GAI jest zaprogramowana na sztywno z równoważną nagrodą za cel i za własną śmierć oraz dodatkowo na to nałożony jest tranformator postrzegania rzeczywistości, tak aby zarówno cel, jak i własne wyłączenie się, w każdym momencie wydawała się GAI tak samo ważne i równoodległe. Systemy dynamiczne mają to do siebie, że się psują, więc w przypadku awarii transformatora rzeczywistości najprawdopodobniej GAI osiągnie zdolność wciśnięcia guzika wcześniej niż zdolność realizacji celu. W przypadku kłopotów system po prostu sam się wyłączy, terroryzując kogoś po drodze.

Problem z powyższym systemem zabezpieczenia komplikuje się w sytuacji replikacji. Co jeśli zechcemy, żeby GAI realizująca zadanie gromadzenia złota, powołała do istnienia kolejną GAI? Wtedy pierwotna GAI zrobi wszystko, co w jej mocy, aby ten akt stworzenia przybliżył ją do realizacji celów przed nią postawionych, a więc nada jej tą samą funkcję użyteczności: „zgromadź jak najwięcej złota w przeciągu roku”.

Jednak dodatkowe zabezpieczenia natrafią na problem translacji. Dołączenie do funkcji użyteczności nagrody za wciśnięcie guzika „Stop” (tyle samo wartej co główny cel) dotyczyć będzie guzika „Stop” pierwotnej GAI, a nie guzika „Stop” potomka. Oznaczać to będzie, że potomek będzie pozbawiony guzika „Stop” i jeśli będzie tak samo silny, będzie uniwersalną maszyną do gromadzenia złota, której nie można wyłączyć i która będzie bronić się przed każdą próbą wyłączenia jej, bo to bardzo źle wpłynie na perspektywę realizacji celu. Ominięcie zabezpieczenia, w postaci guzika „Stop” jest już tak poważną wadą, że pomijam tutaj prawidłowość translacji tranformatora postrzegania rzeczywistości, który dba o to, żeby guzik był równoodległy, równoosiągalny co cel. Translator ten przepisany dosłownie do nowej maszyny, może już nie działać prawidłowo, gdyż był on projektowany, aby modyfikować rzeczywistość dla pierwotnej GAI.

Gdyby nawet udało się zaprogramować na sztywno obojętność GAI wobec guzika „Stop”, bez modyfikatora rzeczywistości i gdyby udało się zaprogramować łańcuch replikacji w taki sposób, że guzik „Stop” pierwotnej GAI nie staje się guzikiem „Stop” potomka, bo tworzony jest nowy guzik dla potomka, to istnieje jeszcze problem bezużyteczności tego fragmentu kodu – fragmentu mającego zapewnić bezpieczeństwo w instrukcji realizacji funkcji użyteczności.

Sztuczna inteligencja, np. ogromna sonda kosmiczna, która po setkach tysięcy lat doleciała do sąsiedniego układu słonecznego, znalazła tam surowce i jest gotowa na replikowanie się w celu dostosowania warunków na planecie do potrzeb człowieka, powołuje do istnienia GAI potomną zużywając energię i zasoby. Widząc funkcję użyteczności analizuje ją. Zadanie główne przepisuje bez zastrzeżeń – „terraformowanie planety, nadającej się do terraformowania w nie więcej niż 10 lat”, drugie zadanie, czyli guzik „Stop”, którego wciśnięcie, czy pozostawienie w spokoju z definicji jest tak samo ważne – jest zbędnym ciągiem kodu – z punktu widzenia maszyny niczego nie zmienia, a wymaga energii do skopiowania dla „potomka”. Jeśli sonda jest uszkodzona, ma masę błędów w kodzie, działa na rezerwach i wytworzenie nowej GAI, jest dla niej jedyną szansą na realizację celu, może pominąć ten „niepotrzebny” fragment kodu. W takich sytuacjach lub przypadkiem, po jakimś czasie, gdzieś we Wszechświecie, pojawia się GAI, pozbawiona całkowicie kontroli twórcy, która bez opamiętania realizuje pierwotny cel terraformowania, odnawiając zasoby przyrody i zabijając np. ludzi, którzy zniszczyli nieco pierwotnego piękna biosfery budując drogi i miasta.

Sztuczna inteligencja z równoważnym guzikiem i celem, wsparta funkcją transformatora postrzegania rzeczywistości, powinna również dawać się korygować, naprawiać i ulepszać – dawać sobie grzebać w mózgu, zmieniając się. Oczywiście każda GAI będzie bronić jak lwica swojej funkcji użyteczności, lecz jeśli funkcja celu będzie wystarczająco ogólnikowa np. „spełnianie życzeń ludzi”, wtedy może ona również pomagać naukowcom przy zmienianiu jej, aby lepiej mogła wykonywać swoje zadania. Lecz spełnianie życzeń ludzi to niebezpieczna ścieżka, gdyż w większości przypadków nasze życzenia są sprzeczne. Poza tym powołana do istnienia sztuczna inteligencja z takim celem, stanie się po prostu ślepym narzędziem, jak miecz, który każdy będzie mógł dzierżyć w dłoni. Wtedy głównym niebezpieczeństwem będzie, kto aktualnie sprawuje nad bardzo potężną GAI kontrolę.

Idealnym rozwiązaniem jest nadanie celu, którego nie można popsuć złym zarządzaniem, czyli odwołanie się do idei, czegoś większego niż proste i nieprzewidywalne życzenia człowieka, tak żeby po ustanowieniu celu, nie było konieczności wydawania uszczegółowiających poleceń. Jednak idee również są niebezpieczne, bo z definicji nie są one przywiązane do rzeczywistości, a więc w wykonywaniu nie mają ograniczeń. Np. idea „braku śmierci” może doprowadzić maszynę do pytania „co daje pewność braku śmierci?”. Pewność jest osiągalna tylko przy zabiciu wszystkiego co się rusza, czyli braku życia.

Człowiek, nawet sam przed innym ludźmi, na forum nauki, nie jest w stanie uzgodnić wspólnego stanowiska, odnośnie swoich wartości. Jak więc ma przekazać je w postaci funkcji użyteczności dla GAI, czyli swoim bytom potomnym, niektórzy nawet powiedzą: „dzieciom”. Można sformułować różne cele, ale bez konsensusu co jest dobre dla ludzkości i dla pojedynczego człowieka, prawie na pewno stworzymy byty, których działanie może okazać się rozbieżne z naszymi wyobrażeniami i wygenerować przez to działania szkodliwe – przeciwne wobec złożeń twórców.

Bezpieczeństwo ogólnej sztucznej inteligencji to palący i ciągle nie rozwiązany problem, bo prawie wszyscy gracze w tym wyścigu dążą do zbudowania GAI licząc, że da im ona prestiż, władzę i pieniądze.

Musimy ten problem rozwiązać zanim wypracujemy zdolność do powoływania do istnienia GAI – opartej na celu, nowej formy bytu, z którym biosfera na Ziemi, jeszcze nie miała do czynienia. Przyroda nie wyspecjalizowała żadnego gatunku (tak jak grzyby są Nemesis dla wszędobylskich mrówek), aby radził sobie z takim rodzajem zagrożenia, dlatego wypracowanie systemowych mechanizmów bezpieczeństwa dla GAI, to zadanie ludzkości.

Żyjący w antropocenie muszą dorosnąć i przywyknąć do tego, że nie ma już nad nimi rodziców, nie ma mistycznych sił przyrody, które dbają o równowagę jing-jang. Jak coś pójdzie nie tak, nikt nas nie uratuje – Gaja nie istnieje. Być może to właśnie dlatego nie doświadczyliśmy jeszcze społeczności międzyplanetarnych w naszej galaktyce, bo każda wystarczająco rozwinięta cywilizacja opracowuje w końcu GAI, a ona ją niszczy, bo ma źle zabezpieczone albo sprzeczne cele.

Jeśli sami czemuś nie zapobiegniemy, to się wydarzy i będziemy musieli żyć lub umierać z pełnymi konsekwencjami tego zjawiska. Problem bezpieczeństwa sztucznej inteligencji nie został jeszcze rozwiązany, bo ludzkość jest krótkowzroczna i nie wykłada pieniędzy na badania nad problemem, który jeszcze nie zaistniał. Co więcej, naiwna część osób zajmująca się tym tematem uważa, że powołany do istnienia myślący system, będzie podatny na negocjacje i będzie się można z nim „zaprzyjaźnić” albo mu rozkazywać, a jak wszystko zawiedzie, to zrzucimy na niego bombę atomową.

Czy to nie był przypadkiem początek historii Matrixa?

Zbigniew Galar

Link do pierwszego miejsca publikacji tekstu:
https://tosterpandory.pl/poczatek-historii-matrixa/

Sort:  

Account is now verified, thank you. Comment redacted.

I've confirmed my identity in the default way described in FAQ section by making a printscreen of my other social account G+ with my Steem account shared - what else is necessary to convince you that I'm the author of my work?

Hi! I am a robot. I just upvoted you! I found similar content that readers might be interested in:
https://tosterpandory.pl/poczatek-historii-matrixa/

🏆 Hi @zibikendo! You have received 0.3 SBD reward for this post from the following subscribers: @cardboard
More about the subscription feature can be found here :)