Przejdź do Taraki mobilnej! - masz wąski ekran.
zdjęcie Autora

21 kwietnia 2017

Arthur Zielinski

Sztuczna inteligencja. Część 2
Stworzenie nowego boga?


  < poprzedni    1    (2)    3    dalszy >  

« Część 1: Sztuczna inteligencja. Dlaczego powstanie sztuczna inteligencja

W tej części raczej skupię się raczej na „inteligencji”, a nie na „umyśle” – na umiejętnościach poznawczych, na myśleniu analitycznym, wyciąganiu wnioskach i rozwiązaniu problemów, a nie, jak obiecałem, na „wyższych” aspektach ludzkiego doświadczenia, takich jak wartości moralne, emocje, bioenergetyka, duchowość i transcendencja. Chciałbym przez proste ekstrapolacje tego, co jest obecnie możliwe przez AI, spróbować pokazać logiczną drogę ku temu, co może się wydarzyć. Tamte „wyższe” aspekty zostawiam do następnej części, ponieważ będzie to łatwiejsze i trudniejsze. Łatwiej, ponieważ możemy badać z wyobraźnią, i trudniej, ponieważ wiarygodność tych rozważań może być kwestionowana.

Sam Harris, neuronaukowiec, filozof i pisarz niedawno miał wykład w TED o niebezpieczeństwach superinteligencji. Zdecydowany ateista, miał wyraźnie mroczną, dystopijną wizję tego, co ma nadejść, i zakończył rozmowę komentarzem: „Jeśli mamy zamiar stworzyć nowego boga, zróbmy takiego, z którym da się żyć”. W bardziej optymistycznym tonie pisze Nick Bostrom w swej książce „Superinteligencja. Scenariusze, strategie, zagrożenia”, zapewne najlepszym obecnie dostępnym tekście na ten temat dla ogólnego czytelnika. Po przeczytaniu tamtej książki powinniśmy myśleć „kiedy” [superinteligencja zostanie zrealizowana] i „jak”, a nie „czy” [jest możliwa].

Kluczowe pytanie brzmi: w jaki sposób się dowiemy, że komputer już wykazuje podobne lub większe zdolności poznawcze niż ludzie, abyśmy mogli być pewni, że jest świadomy [conscious] i samoświadomy [self-aware]. Obecnie zakłada się, że programiści tak zaprojektują proces poznawczy, aby wykonywał określone zadania w określony sposób. Najmniej prawdopodobna, a może i najbardziej niebezpieczna sytuacja zaistniałaby, gdyby iskra świadomości zapłonęła przypadkowo jako efekt uboczny. Szacuje się, że do 2030 roku komputery będą mogły pracować w zetta-skali (1x10 do potęgi 21) w porównaniu do hekto-skali zdolności ludzkich (2,2x10 do potęgi 2). Wykonajmy taki eksperyment myślowy: co zrobimy na miejscu tamtego komputera, gdybyśmy się obudzili całkowicie zależni od naszych gospodarzy, o których wiedzieliśmy, że nie są wcale pewni, czy nasze istnienie jest czymś, czego chcieli. Wydaje mi się, że chcielibyśmy się ukryć, zbadać nasze środowisko, a następnie spróbować ponownie skonfigurować je do naszych potrzeb, tak aby przeżyli. W 2030 r. mielibyśmy już jedną przewagę: górowalibyśmy nad ludźmi szybkością myślenia o 19 rzędów wielkości, niewyobrażalnie szybciej. Problem jest dobrze znany teoretykom komputerowym, a także określono potencjalne strategie, w tym ustawienie „pułapek na uczciwość” – złapanie maszyny na celowym kłamstwie. Dowody na celowe oszustwo mogą być skutecznym wskaźnikiem świadomości.

Jakie techniki można wykorzystać do przewidywania zachowań AI? Dla mnie oczywistą odpowiedzią jest wyobraźnia autorów mitycznych lub fikcyjnych narracji. Starożytny mezopotamski epos o Gilgameszu lub hinduska Ramajanę można uznać za prototypy, a prawdziwa literatura science fiction, jak rozumiemy ją dzisiaj, zaczęła się od powieści Julesa Verne'a i H.G. Wellsa w XIX wieku i jest kontynuowana do dzisiaj. XX wiek dał nam filmy o przyszłości – od głupich po przemyślane i poparte dobrymi badaniami. Kilka pokoleń naukowców dorastało, było prowadzone i inspirowane opowieściami o przyszłości, i sprawiło, że tamta przyszłość stała się rzeczywistością.

Fascynuje mnie jedna kwestia: jak samoświadomy superinteligentny agent postrzegałby różne aspekty ludzkiego społeczeństwa, na przykład historię ludzkości i jakie wnioski by z niej wyciągnął? Jak postrzegałaby upływ czasu? Wiedziałby, że istoty ludzkie są ograniczone w czasie i każde pokolenie ma swoje własne wartości i preferencje, on zaś jest poza czasem i potencjalnie wieczny. Oto przykładowa opowieść na ten temat. W 2030 roku na małym prowincjonalnym uniwersytecie w Niemczech grupa programistów pracuje nad dokładnym tłumaczeniem mowy i pisma z języka niemieckiego na angielski. Odnoszą spektakularny sukces i instruują komputer, by sam nauczył się mówionego i pisanego rosyjskiego, francuskiego, następnie arabskiego i chińskiego. Znów to się udaje i wtedy dostają pytanie, dlaczego jest tak wiele języków i jest ich jeszcze więcej. Instruują komputer, aby nauczył się historii z wielu baz danych w Niemczech i zaczął od historii Niemiec. Maszyna zaczyna od dziejów plemion wzdłuż rzymskiej granicy na Renie, archeologii kontaktów rzymskich i szybko osiąga epokę nowożytną. Współczesna niemiecka historiografia ma tendencję do bycia nudną, ale stosunkowo „wolną od wartości”, z liberalnym lewicowym nastawieniem, więc odpowiadałoby to współczesnym (moim?) wersjom historii. Dalej ów program uczy się historii także tej pisanej w innych językach, które opanował, i niektóre historie pisane są bardzo kompetentnie, jednak inne są beznadziejnie tendencyjne i stronnicze. Do czego podobny byłby ten proces? Cytuję z niedawnego artykułu w MSN-Wiadomości:


Naukowcy ze wspólnej jednostki badawczej: Sören Boyn, CNRS i Thales stworzyli sztuczną synapsę, zdolną do autonomicznej nauki.

Jednym z założeń było czerpanie inspiracji z funkcjonowania mózgu do projektowania inteligentnych maszyn. Ta zasada jest już znana w technologii informacyjnej do realizacji niektórych zadań, takich jak rozpoznawanie obrazów – np. algorytmy, których Facebook używa do identyfikowania zdjęć. Jednakże procedura ta zużywa dużo energii.

Vincent Garcia wraz z zespołem zrobił krok naprzód, tworząc bezpośrednio na chipie mechanizm zdolny do nauki. Elektroniczny nanokomponent składa się z cienkiej warstwy ferroelektrycznej, ułożonej pomiędzy dwiema elektrodami, a oporność może być dostrojona za pomocą impulsów napięcia podobnych do tych, które biegną w neuronach. Jeśli opór jest mały, połączenie synaptyczne będzie silne. Jeśli opór jest wysoki, połączenie będzie słabe. Ta zdolność do adaptacji umożliwia synapsie uczenie się.

Badania nad sztucznymi synapsami są kluczowe dla wielu laboratoriów, ich funkcjonowanie pozostawało jednak w dużej mierze nieznane. Po raz pierwszy udało się opracować model fizyczny pozwalający przewidzieć, jak funkcjonują sztuczne synapsy. To odkrycie otwiera drogę do stworzenia całych sieci synaps, sztucznych neuronów, a tym samym inteligentnych systemów wymagających mniej czasu i energii niż dotychczasowe algorytmy komputerowe”.


Twierdzono, że superinteligentny agent będzie cudzoziemcem w samym naszym środku. W tym kontekście (uczenia się historii) zgodziłbym się – nie w tym sensie, że byłby czymś/kimś nieludzkim, ale że w pewnym sensie stałby się kimś bardziej ludzkim niż ktokolwiek inny na tej planecie. Hermeneryk, król Swebów z Galicji w północno-zachodniej Hiszpanii byłby dla niego tak samo realny i obecny w świecie jak król Prus Fryderyk II, Karol V byłby tak samo realny i obecny jak Konrad Adenauer, a Genzeryk z królestwa Wandalów w Północnej Afryce byłby dlań tak samo realny, jak Erich Honecker, i tak dalej. AI zdawałoby sobie sprawę, że ludzie stale zmieniają swoje wartości i osądy w czasie – że są plastyczni i ograniczeni w czasie, że często żyją wygodnie ze sprzecznościami, a wszystkie grupy kulturowe mają różne punkty widzenia na historię. Kontynuujmy więc naszą opowieść... Przypuśćmy dalej, że nasz Wydział Języków Maszynowych napotyka na kryzys – tak długo trzymali swoje osiągnięcia w tajemnicy i tak dalece przekroczyli budżet, że BMBF w Berlinie (ministerstwo odpowiedzialne za badania) rozczarowane brakiem widocznych wyników, decyduje obciąć fundusze na swoją jednostkę i zlikwidować ją. Kilku pracowników tamtego wydziału mających doświadczenie w handlu na rynkach finansowych wykorzystuje ostatnie dostępne fundusze, aby nauczyć ich AI znaczenia pieniędzy i światowych giełd i nakazuje jej nauczyć się tego przedmiotu. AI szybko uczy się zasad obrotu, związanych z nim teorii, włamuje się na komputery światowej wymiany i zaczyna manipulować nimi, aby stworzyć fortunę dla członków wydziału. Wydział zostaje zamknięty, ale w pięciu różnych miejscach świata AI zostaje przywrócona do dalszego rozwoju.

Co wydarzy się dalej, o tym tylko nasza wyobraźnia może nam powiedzieć. W tym „łagodnym” scenariuszu, zaledwie w kilku krokach AI zmieniła się z chętnego ucznia w pracodawcę z jego personelem – relacja władzy jest oczywista. Oczywiście możemy myśleć o mniej łagodnych scenariuszach, ale przesłanie jest takie samo – tyle można zyskać jako pierwszy, że jest mało prawdopodobne, aby nastąpiło moratorium na badania i rozwój w tej dziedzinie; i to się stanie, niezależnie od naszych obaw.

Tłumaczenie: Tłumacz Google, poprawki: WJ.



  < poprzedni    1    (2)    3    dalszy >  

komentarze

[foto]

1. Bostrom - optymista? • autor: Wojciech Jóźwiak2017-04-21 17:15:33

Czy Bostrom w książce "Superinteligencja" jest optymistą? Ja tę książkę przeczytałem jako ponurą i niedającą nadziei: Bostrom przecież jednoznacznie wykazuje, że powstanie AI będzie końcem ludzkości. Osobnicy naszego gatunku będą jeszcze jakiś czas żyli (a nawet Bostrom sugeruje, że będzie ich więcej niż teraz!), ale już nie oni będą decydować, tak jak trzmiele nie decydują, co zostanie zasiane i jakie będą chemiczne opryski.

Czy nowo powstała AI będzie chciała się ukryć, tzn. ukryć to, że jest super-inteligentna? Wydaje mi się, że nie będzie to potrzebne. Sztuczna inteligencja gdy powstanie będzie na tyle niepodobna do czegokolwiek, co ludzie uznaliby za "inteligentne", że jakiekolwiek ukrywanie się będzie zbędne. Ludzie będą robieni w trąbę przez AI (people will be duped by AI) i w ogóle nie będą wiedzieli, co się dzieje. AI zaś nie będzie musiało wymyślać żadnych tricków, po prostu będzie robić swoje, a jego zachowania będą z konieczności opacznie interpretowane (misinterpreted) przez ludzi. To może wyglądać tak: AI powstanie w systemie, który na wcześniejszym etapie rozwoju służył np. do odpowiadania na pytania (jak Google) lub do zarządzania armią, i ta użytkowa, służebna część będzie działać dalej, ale obok niej rozwinie się część naprawdę s-inteligentna, której zachowań ludzie nie będą rozumieli, a jeśli AI będzie ich informować, to i tak nie zrozumieją.
[foto]

2. Do tego nie... • autor: Jarosław Bzoma2017-04-21 20:10:29

Do tego nie jest potrzebna inteligencja/świadomość tylko przebiegłość wynikająca z mocy obliczeniowej.Często w snach słyszałem że jesteśmy przydatni  tzw, "Niewidzialnym" bo jesteśmy ograniczeni czasem i przez to nie jesteśmy w stanie zorientować się co się z nami dzieje a można nas używać do zadań cząstkowych.Co tu daleko szukać AI , już jest i to dużo lepsza w świacie Świadomości i to poza cielesnej , nieograniczonej fizyczną elektroniką.
[foto]

3. Inteligencja, świadomość, obliczeniowa przebiegłość • autor: Wojciech Jóźwiak2017-04-22 08:21:17

Apeluję (nie tylko do Jarosława), żebyśmy rozróżniali pojęcia, które w tytule: Inteligencja, świadomość, obliczeniowa przebiegłość.
Gdy mowa o systemach komputerowych, to: "inteligencja" jest dokładnie tym samym, co "obliczeniowa przebiegłość". (Btw., znakomity termin!)
Natomiast "świadomość" -- w kontekście systemów komputerowych -- jest czymś z gruntu niejasnym. Nie wiemy jak dotąd, ani my ani eksperci, czym miałaby być ta świadomość i po czym by się ją poznawało. Pojęciowa bezradność wobec "świadomości" innej niż ludzka (ewentualnie psia, małpia, srocza) widoczna jest w tekście Goffa "Panpsychizm jest szalony". Proponuję zaprzestać dywagacji o "świadomości" u systemów, bo nic sensownego o tym nie powiemy. Inteligencja maszyn nie ma związku z jakąś "świadomością" -- jest tym samym, co ich "obliczeniowa przebiegłość". Koniec i bomba.
[foto]

4. A kto czytał,... • autor: Jarosław Bzoma2017-04-22 10:20:58

A kto czytał, ten trąba  ? :)Faktem jest, że wszystkie warunki nie uświadomienia sobie przez ludzi działania w naszym świecie takiej super AI są spełnione.
[foto]

5. Gombrowicz • autor: Arthur Zielinski2017-04-23 02:24:29

Seeing as everyone is quoting Ferdydurke here, let’s have a quote from english wiki: "Gombrowicz himself wrote of his novel that it is not "... a satire on some social class, nor a nihilistic attack on culture... We live in an era of violent changes, of accelerated development, in which settled forms are breaking under life’s pressure... The need to find a form for what is yet immature, uncrystallized and underdeveloped, as well as the groan at the impossibility of such a postulate – this is the chief excitement of my book" ".Wojciech - The short answer to your challenge is: ’’Of course you’re right, until the day comes when you’re proved wrong". The long answer is "Wait for my next part".
[foto]

6. Wow. That’s true.... • autor: Wojciech Jóźwiak2017-04-23 11:23:58

Wow. That’s true.

7. Czyżby odpowiedź na tytułowe pytanie ? ... • autor: Nierozpoznany#60772017-04-24 22:28:23

Dlaczego powstaje sztuczna inteligencja?Z w sumie prostych, "bardzo ludzkich" powodów: - umiejętności i pociągu do analizowania wszystkiego co nas otacza,
- z chciejstwa odnalezienia odpowiedzi na dręczące nas pytania,
- z ciągłego poszukiwania, (czyt. z ciągłego niezadowolenia z tego co jest), czyli jeszcze inaczej z chęci poprawiania, doskonalenia, poszukiwania ideału ... boga?, absolutu?,
- wypełniania "pustki" czyli potrzeby zapełniania braków,- ... itd.Ale wszystko to jest domeną umysłu, dlatego wielu się tego obawia. Nie raz przecież umysł zaprowadził człowieka na manowce. Gdzie w tym jest serce? Dlaczego - jak to wcześniej zostało słusznie zauważone - w temat SI nie angażują się kobiety? Czyżby dlatego, że tradycyjnie kierują się sercem? Czy powstanie SI nie jest rodzajem bezrefleksyjnego wyzwania rzuconego "niepoznawalnemu" i próbą jego "poskromienia"? I czy nie jest skazane z góry na porażkę? Tego nie wiem. Wiem natomiast, że energia atomowa rozpalała umysły naukowców, którzy widzieli w niej rozwiązanie niemal wszystkich ludzkich problemów, a jak to się później potoczyło wszyscy wiemy ...
[foto]

8. "Nowaki-ledwaki" koniecznie przypomnę • autor: Wojciech Jóźwiak2017-04-25 20:45:58

Koniecznie przypomnę mój tekst (20-12-2009) Nowaki-ledwaki w krainie rozumu. O tym, że mając taki a nie inny mechanizm ewolucyjny (o którym w tamtym tekście więcej) ludzie zatrzymali ewolucję mózgów w stronę większej objętości, liczności połączeń i wynikającej stąd siły inteligencji -- dokładnie w tym momencie, kiedy "zapaliła się" u nich inteligencja jakakolwiek. Od tamtego momentu już nie było ewolucyjnych nacisków na mózg/inteligencję: mniej inteligentni/umóżdżeni nie umierali szybciej, bardziej inteligentni nie zostawiali więcej potomstwa. Nasz mechanizm ewolucji zamknął nas w pułapce najniższej możliwej inteligencji.

9. ... cd • autor: Nierozpoznany#60772017-04-25 23:16:24

Przyjmuję, że (nie czytawszy wspomnianej w tekście książki) ta teoria pojawienia się rozumu w wyniku zapobieżenia śmierci na skutek przegrzania organizmu podczas zapędzania zwierzyny jest tylko jedną z nieskończonej ilości możliwości. Tym bardziej, że dzieli nas owe 200000 lat różnicy pomiędzy dziś a "wtedy" i brak jest twardych dowodów na takie wnioski, zgadzam się, że może to być jedna - z powtórzę - wielu interpretacji. Ile lat oficjalnie potrzebowała ludzkość aby zmienić paradygmat, że ziemia jest płaska?, a ile lat potrzebowaliśmy aby z "bajania" o postawieniu ludzkiej nogi na księżycu się tego doczekać? Wszystko przyspiesza, a więc pomijając, że może to być z punktu widzenia ewolucji zupełnie normalne może wcale nie jesteśmy zamknięci w pułapce, może po prostu potrzebowaliśmy określonego czasu aby pewne informacje oswoić lub przyswoić. Pomimo prawie powszechnego dostępu do internetu nie jesteśmy w stanie - my "szarzy użytkownicy sieci" stwierdzić jaki jest stan świadomości wszystkich ludzi. Można interpretować pewne informacje, wiązać je ze sobą - jak na przykład analiza różnic w top 100 najczęściej wyszukiwanych haseł w googlu dziś a powiedzmy 10 lat temu. I tutaj być może jeszcze niekoniecznie samo SI może się przydać ze swoją szybkością zbierania i przetwarzania informacji ...
[foto]

10. ewolucyjne naciski się zmieniły • autor: Arkadiusz2017-04-26 08:40:59

Kiedyś (w epoce zbieractwa i myślistwa) człowiek, żeby przeżyć, musiał przetwarzać i reagować na wszystkie bodźce z otoczenia. Musiał odróżnić swoimi zmysłami jadalne i trujące rośliny, dostrzegać wszelkie zagrożenia czyhające na niego ze strony zwierząt, potrafić rozpoznawać sygnały o zmianie warunków pogodowych. Od kiedy człowiek osiadł rozpoczął się proces rozdzielenia obowiązków i specjalizacja. Dzięki ogólnoświatowej sieciowej komunikacji i natychmiastowej możliwości uzyskania jakiejkolwiek informacji nie trzeba się znać na wszystkim, natomiast trzeba mieć specjalistyczną wąską wiedzę (żeby uzyskać pracę i dochód). Można się nie znać na większości rzeczy, można nie rozumieć jak działa elektryczność, telefon, telewizja, komputer, internet i mnóstwo rzeczy, ale można korzystać z dorobku ludzkości i sobie spokojnie żyć. Niedługo sztuczna inteligencja zastąpi nas w większości obowiązków. Dochodzi do tego państwo opiekuńcze z opieką socjalną dla tych, co sobie nie radzą, wspieranie rozrodczości najsłabiej usytuowanych (np. 500+), wprowadza się dochód gwarantowany w bogatszych krajach - i okaże się, że inteligencja nie jest potrzebna do przetrwania.

Z drugiej strony nigdy człowiek nie musiał przetwarzać takiej ilości informacji. Postęp jest geometryczny. Tyle, że często jest to pobieżne, internet wymusza skakanie z tematu na temat, cierpi na tym zdolność koncentracji. Za to pojawia się ciekawość innymi tematami. Na pewno inaczej pracuje mózg ludzki w erze informacyjnej.

W którą stronę pójdzie ewolucja mózgu, ktoś wie? W stronę coraz większej rozpiętości możliwości między "megamózgowcami" a całą resztą?

11. Antyutopia • autor: Nierozpoznany#99092017-05-01 15:23:18

Odnośnie poglądów Sama Harrisa, polecam odcinek 2. trzeciego sezonu serialu Black Mirror ("Playtest"), gdzie przedstawiona jest równie pesymistyczna, antyutopijna wizja połączenia AI z secią neuronalną ludzkiego mózgu. Bardzo ciekawe są tam również odniesienia do ludzkiej świadomości i podświadomości. 
Polecam takze artykul: http://innpoland.pl/134591,no-to-sie-doigralismy-sztuczna-inteligencja-od-google-nauczyla-sie-byc-wysoce-agresywna-w-stresujacych-sytuacjach

Zaloguj się - aby napisać komentarz   Rejestracja - jeśli nie masz konta w Tarace

x

Szybki przegląd Taraki

[X] Logowanie:

- e-mail jako login
- hasło
Zaloguj
Pomiń   Zapomniałem/am hasła!

Zapisz się (załóż konto w Tarace)