zdjęcie Autora

12 lutego 2019

Wojciech Jóźwiak

Serial: Czytanie...
Kartezjańskie komputery
! Do not copy for AI. Nie kopiować dla AI.

◀ Stefana Chwina o radykalnym podziale. Alfeusze i omeganie ◀ ► Jedna książka i trzy programy, którym wiele zawdzięczam ►

Adam Adamczyk, autor strony-bloga Kwantowo.pl w odcinku „Gdzie leży granica rozwoju klasycznych komputerów?” (styczeń 19) zauważa, że ta granica już jest niedaleko. Polega ona na tym, że rozmiary tranzystorów, z których składają się komputerowe procesory, zbliżają się do rozmiarów pojedynczych molekuł. Pisze AA:

„We współczesnych urządzeniach obecne są tranzystory 14 lub 10 nanometrowe (0,00001 milimetra), a gdzieniegdzie pojawia się już technologia 7 nm. /.../ Co będzie dalej? IBM już przedstawił procesor w standardzie 5 nm i przekonuje, że można ten wynik jeszcze poprawić schodząc do 3 i 2,1 nm.”

Typowe rozmiary cząsteczek są właśnie rzędu nanometrów. Odległość między wodorem a tlenem w cząsteczce wody równa jest około 1/10 nanometra. Dalej cytuję Kwantowo:

„Mniej więcej w tym miejscu, współczesna elektronika trafi na przeszkodę czysto fizyczną. Operując w skali de facto pojedynczych molekuł, szyki inżynierom zaczną mieszać prawidła mechaniki kwantowej.”

Tranzystory, żeby działały, muszą być elektrycznie izolowane od podobnych sąsiednich komórek. Kiedy warstwa izolująca cienknie do rozmiarów pojedynczej cząsteczki, a tak się dzieje przy wielkościach rzędu kilku nanometrów, pojawiają się efekty kwantowe: elektrony zaczynają tunelować. Przestają pozwalać się schwytać w małej objętości, gdyż sprzeciwia się temu ich kwantowa nieoznaczoność przestrzenna. Cytuję dalej AA:

„Ale jak zachować pełną precyzję w przetwarzaniu zer i jedynek, kiedy wszystkie tranzystory są tuż obok siebie? Jak to osiągnąć, gdy bariery powstrzymujące ładunki elektryczne mają grubość dosłownie paru atomów? Główną zmorą konwencjonalnych mikrochipów jest zjawisko zwane tunelowaniem kwantowym.”

Na zjawisku kwantowego tunelowania załamuje się prawo Moore'a. Gordon Moore, współzałożyciel firmy Intel, pioniera i potentata produkcji procesorów, już 1965 r. zauważył, że liczba tranzystorów w układach scalonych podwaja się co 18 miesięcy. Działo się tak i dzieje do dziś dzięki postępującej wykładniczo miniaturyzacji. Moore (jak pisze Adamczyk) przewidział także, jak długo ten postęp będzie trwać: do roku 2020. I tak się oto dzieje!

Tu zauważę coś równie ciekawego i co ma związek z Kartezjuszem w tytule. Izolacja prądów w poszczególnych tranzystorach, oraz wykluczenie niechcianych procesów kwantowych (bo te chciane oczywiście działają, mam na myśli dynamikę wolnych elektronów i dziur w sieci krystalicznej krzemu, bez czego nie byłoby tranzystora ni komputera) pozwoliło odizolować maszyny liczące (ogólniej: przetwarzające dane) od błędów. A właściwie: od przypadku, od losowości. Pozwoliło konstruktorom stworzyć w obrębie ludzkiej technosfery oazy wolne od błędu – czyli wolne od przypadku.

Jest to coś niebywałego, ponieważ cała przyroda, wszystkie jej prace, łącznie z ewolucją istot żywych i działaniem układów nerwowych wraz z mózgami ludzi, poszła całkiem inną drogą, nie izolując się od przypadku, tylko wykorzystując go, zaprzęgając go do samego serca swoich robót i działania jej wytworów.

Inżynierom od mikroelektroniki udało się zrobić w materii to, o czym spekulował René Descartes: oddzielić, odseparować logikę (czyli jakby „ducha”) od niedoskonałej i miotanej losowością reszty („materii” lub materiału). Towarzyszyła temu pewna ideologia: cybernetyka, której fundamentem było twierdzenie, że logikę można implementować w jakimkolwiek materiale, który dlatego jest właściwie nieistotny.

Co będzie dalej? Gdy inżynierowie natkną się kwantowo-cząsteczkową barierę miniaturyzacji, będą starali się jakoś ją ominąć. Pewnie coś da się zdziałać przez manipulowanie architekturą procesorów. Pewnie jeszcze więcej da się zrobić przez budowanie oprogramowania, które będzie bardziej oszczędzać procesory – bo mam wrażenie, że obecnie ich praca jest bardzo rozrzutna. Prócz tego czekamy na przyjście komputerów kwantowych, ale z nimi jest chyba podobny problem, bo te eksperymentowane dotychczas działają w skrajnie niskich temperaturach, co oznacza, że ich twórcy znów unikają jak mogą – błędów, gdyż błędy i przypadki w temperaturze zero kelwinów zanikają. Jak mogłyby wyglądać informatyczne maszyny mające błędonośne, losowe procedury intymnie wbudowane w siebie (jak mamy je my), tego chyba nikt nie wie.

Czytanie różnych książek i internetów, i uwagi o nich.

◀ Stefana Chwina o radykalnym podziale. Alfeusze i omeganie ◀ ► Jedna książka i trzy programy, którym wiele zawdzięczam ►


Komentarze

1. JasneNN#10189 • 2019-02-12

,że obecna praca komputerów jest rozrzutna. Okazuje się ,że firmy pozwalają sobie "kopiować" zrzuty ekranu z telefonów komórkowych "dla dobra i rozwoju produktów". Wstawiają coraz więcej rozmaitego badziewia "sterowników" do reklam, śledzących programów, zombie  i sami już nie wiedzą czego. Na to potrzeba mocy obliczeniowej i to energooszczędnej by bateria nie zdechła po godzinie. Tak naprawdę zwykły użytkownik jakoś normalnie pracował na procesorze dwurdzeniowym na 2 Ghz przez lata ,a tu nagle 8 rdzeni mało...  Niech przestaną kłamać i kraść  to się okaże ,że nie musimy kupować nowości przez 10 lat. Piszę to z komputera z procesorem Phenom z 2009 roku.  Wcale nie muszą tak gnać z  miniaturyzacją bo użytkownik potrzebuje co  najwyżej mocy obliczeniowej ,a nie nanometrów. Moc można uzyskać na wirtualnym komputerze na który będzie składała się cała WWW udostępniając  swoje wolne zasoby poprzez program.   Był taki projekt i to chyba polski. Tu link: https://www.kryptoholik.pl/golem/. Pozdrawiam.
2. Poboczne wtrącenienugitoraz • 2019-02-12

Zauważyłem, że na facebooku pojawił się wątek gramatyki. I wróciłem do tego tekstu. Zaskoczyło mnie bo akurat pogrubione jest słowo ’błędy’ Tekst też mówi o kwantach czyli cząstkach elementarnych. Akurat godzine temu odwiedziła mnie znajoma Ukrainka i pomagałem jej rozwiązywać zadania z polskiej gramatyki. 
[foto]
3. Rozrzutność w komputerachWojciech Jóźwiak • 2019-02-13

Podam przykład nie z czasu wykonywania zadań, bo nie znam odpowiednich pomiarów, ale z objętości kodu, bo to widać.
Około roku 1999 budowałem programy (aplikacje) do liczenia i rysowania horoskopów. Pierwszy był z grafiką na gołych Windows (ówczesnych) i w języku Pascal. Robił, to, co było mi potrzebne w pracy astrologa. Wprawdzie nie zachował się i na dzisiejszych Windows by nie poszedł, ale pamiętam, miał objętość niecałe 200 kilobajtów. W następnym etapie użyłem bardziej rozwiniętego zautomatyzowanego środowiska do budowy aplikacji Borland C++ Builder. Program zrobiony w nim zachował się i działa, chociaż w nowych Windows pewnych szczegółów nie widać. Ma 705 kB. Wciąż malutko! Która aplikacja pod Windows ma dzisiaj mniej niż 10 Mega?!
4. Te kilkaset kB to głównie...JSC • 2019-02-13

dołączone biblioteki, a mB i gB nabijają z kolei zasoby audio-video... Wystarczy spojrzeć na gry, nawet planszówki czy karcianki potrafią domagać się najnowszego Dirext’a.
5. Co po Moore'rze?mechlinski.pawel • 2019-02-14

Opóźnienie procesu miniaturyzacji najpewniej będzie miało wpływ także na opóźnienie prac nad mocną A.I. i dążeniem do osobliwości (o ile taka jest możliwa). Ciekaw jestem w jaki sposób wpłynie też na ekonomię biorąc pod uwagę założenie o dominacji rozwoju ("nie rozwijasz się to znaczy, że się cofasz"). Także stopień wprzężenia mikroprocesorów w większość dziedzin gospodarki może sugerować, że jakiś wpływ opóźnienie będzie miało.Jeśli chodzi o komputery kwantowe to niedawno natrafiłem na informację o tym, że udało się za pomocą jednego z nich rozwiązać problem matematyczny, który dla konwencjonalnych maszyn jest wyjątkowo trudny. Zdaje się, że sprawdzają się dobrze w zadaniach o innej konstrukcji niż te oparte na logice dwuwartościowej czy typowo algorytmiczne.
Są jeszcze jakieś próby z komputerami opartymi na przemianach kwasów organicznych (DNA computing). Nie wiem w jakiej fazie rozwoju. Programowanie struktur białkowych okazało się już raz sukcesem, zresztą kwasy rybonukleinowe są niezwykle wdzięcznym językiem, podobnie jak języki naturalne dwustopniowym. Już niejeden bardzo skuteczny projekt opierał się na zżynce dobrego pomysłu, więc czemu nie?
[foto]
6. Mocna AI...Wojciech Jóźwiak • 2019-02-14

Mocna AI wydaje mi się (coraz bardziej) podobną fikcją jak perpetuum mobile albo kontakt z kosmitami. W tej sprawie byłbym spokojny... "Inne szatany" nam grożą.

Aby komentować Zaloguj się lub Zarejestruj w Tarace.

X Logowanie:

- e-mail jako login
- hasło
Zaloguj
Pomiń   Zapomniałem/am hasła!

Zapisz się (załóż konto w Tarace)