12 lutego 2019
Wojciech Jóźwiak
Serial: Czytanie...
Kartezjańskie komputery
! Do not copy for AI. Nie kopiować dla AI.
◀ Stefana Chwina o radykalnym podziale. Alfeusze i omeganie ◀ ► Jedna książka i trzy programy, którym wiele zawdzięczam ►
Adam Adamczyk, autor strony-bloga Kwantowo.pl w odcinku „Gdzie leży granica rozwoju klasycznych komputerów?” (styczeń 19) zauważa, że ta granica już jest niedaleko. Polega ona na tym, że rozmiary tranzystorów, z których składają się komputerowe procesory, zbliżają się do rozmiarów pojedynczych molekuł. Pisze AA:
„We współczesnych urządzeniach obecne są tranzystory 14 lub 10 nanometrowe (0,00001 milimetra), a gdzieniegdzie pojawia się już technologia 7 nm. /.../ Co będzie dalej? IBM już przedstawił procesor w standardzie 5 nm i przekonuje, że można ten wynik jeszcze poprawić schodząc do 3 i 2,1 nm.”
Typowe rozmiary cząsteczek są właśnie rzędu nanometrów. Odległość między wodorem a tlenem w cząsteczce wody równa jest około 1/10 nanometra. Dalej cytuję Kwantowo:
„Mniej więcej w tym miejscu, współczesna elektronika trafi na przeszkodę czysto fizyczną. Operując w skali de facto pojedynczych molekuł, szyki inżynierom zaczną mieszać prawidła mechaniki kwantowej.”
Tranzystory, żeby działały, muszą być elektrycznie izolowane od podobnych sąsiednich komórek. Kiedy warstwa izolująca cienknie do rozmiarów pojedynczej cząsteczki, a tak się dzieje przy wielkościach rzędu kilku nanometrów, pojawiają się efekty kwantowe: elektrony zaczynają tunelować. Przestają pozwalać się schwytać w małej objętości, gdyż sprzeciwia się temu ich kwantowa nieoznaczoność przestrzenna. Cytuję dalej AA:
„Ale jak zachować pełną precyzję w przetwarzaniu zer i jedynek, kiedy wszystkie tranzystory są tuż obok siebie? Jak to osiągnąć, gdy bariery powstrzymujące ładunki elektryczne mają grubość dosłownie paru atomów? Główną zmorą konwencjonalnych mikrochipów jest zjawisko zwane tunelowaniem kwantowym.”
Na zjawisku kwantowego tunelowania załamuje się prawo Moore'a. Gordon Moore, współzałożyciel firmy Intel, pioniera i potentata produkcji procesorów, już 1965 r. zauważył, że liczba tranzystorów w układach scalonych podwaja się co 18 miesięcy. Działo się tak i dzieje do dziś dzięki postępującej wykładniczo miniaturyzacji. Moore (jak pisze Adamczyk) przewidział także, jak długo ten postęp będzie trwać: do roku 2020. I tak się oto dzieje!
Tu zauważę coś równie ciekawego i co ma związek z Kartezjuszem w tytule. Izolacja prądów w poszczególnych tranzystorach, oraz wykluczenie niechcianych procesów kwantowych (bo te chciane oczywiście działają, mam na myśli dynamikę wolnych elektronów i dziur w sieci krystalicznej krzemu, bez czego nie byłoby tranzystora ni komputera) pozwoliło odizolować maszyny liczące (ogólniej: przetwarzające dane) od błędów. A właściwie: od przypadku, od losowości. Pozwoliło konstruktorom stworzyć w obrębie ludzkiej technosfery oazy wolne od błędu – czyli wolne od przypadku.
Jest to coś niebywałego, ponieważ cała przyroda, wszystkie jej prace, łącznie z ewolucją istot żywych i działaniem układów nerwowych wraz z mózgami ludzi, poszła całkiem inną drogą, nie izolując się od przypadku, tylko wykorzystując go, zaprzęgając go do samego serca swoich robót i działania jej wytworów.
Inżynierom od mikroelektroniki udało się zrobić w materii to, o czym spekulował René Descartes: oddzielić, odseparować logikę (czyli jakby „ducha”) od niedoskonałej i miotanej losowością reszty („materii” lub materiału). Towarzyszyła temu pewna ideologia: cybernetyka, której fundamentem było twierdzenie, że logikę można implementować w jakimkolwiek materiale, który dlatego jest właściwie nieistotny.
Co będzie dalej? Gdy inżynierowie natkną się kwantowo-cząsteczkową barierę miniaturyzacji, będą starali się jakoś ją ominąć. Pewnie coś da się zdziałać przez manipulowanie architekturą procesorów. Pewnie jeszcze więcej da się zrobić przez budowanie oprogramowania, które będzie bardziej oszczędzać procesory – bo mam wrażenie, że obecnie ich praca jest bardzo rozrzutna. Prócz tego czekamy na przyjście komputerów kwantowych, ale z nimi jest chyba podobny problem, bo te eksperymentowane dotychczas działają w skrajnie niskich temperaturach, co oznacza, że ich twórcy znów unikają jak mogą – błędów, gdyż błędy i przypadki w temperaturze zero kelwinów zanikają. Jak mogłyby wyglądać informatyczne maszyny mające błędonośne, losowe procedury intymnie wbudowane w siebie (jak mamy je my), tego chyba nikt nie wie.
◀ Stefana Chwina o radykalnym podziale. Alfeusze i omeganie ◀ ► Jedna książka i trzy programy, którym wiele zawdzięczam ►
Komentarze
![[foto]](/author_photo/wj_X15.jpg)
Około roku 1999 budowałem programy (aplikacje) do liczenia i rysowania horoskopów. Pierwszy był z grafiką na gołych Windows (ówczesnych) i w języku Pascal. Robił, to, co było mi potrzebne w pracy astrologa. Wprawdzie nie zachował się i na dzisiejszych Windows by nie poszedł, ale pamiętam, miał objętość niecałe 200 kilobajtów. W następnym etapie użyłem bardziej rozwiniętego zautomatyzowanego środowiska do budowy aplikacji Borland C++ Builder. Program zrobiony w nim zachował się i działa, chociaż w nowych Windows pewnych szczegółów nie widać. Ma 705 kB. Wciąż malutko! Która aplikacja pod Windows ma dzisiaj mniej niż 10 Mega?!
Są jeszcze jakieś próby z komputerami opartymi na przemianach kwasów organicznych (DNA computing). Nie wiem w jakiej fazie rozwoju. Programowanie struktur białkowych okazało się już raz sukcesem, zresztą kwasy rybonukleinowe są niezwykle wdzięcznym językiem, podobnie jak języki naturalne dwustopniowym. Już niejeden bardzo skuteczny projekt opierał się na zżynce dobrego pomysłu, więc czemu nie?
![[foto]](/author_photo/wj_X15.jpg)
Aby komentować Zaloguj się lub Zarejestruj w Tarace.