Komputery to oazy wolne od błędu/przypadku. Inaczej, niż w przyrodzie i inaczej niż pracuje ewolucja. Ale maszyny liczące dochodzą do krawędzi, za którą nieuchronnie zaczyna się kwantowa nieoznaczoność.
Adam Adamczyk, autor strony-bloga Kwantowo.pl w odcinku „Gdzie leży granica rozwoju klasycznych komputerów?” (styczeń 19) zauważa, że ta granica już jest niedaleko. Polega ona na tym, że rozmiary tranzystorów, z których składają się komputerowe procesory, zbliżają się do rozmiarów pojedynczych molekuł. Pisze AA:
„We współczesnych urządzeniach obecne są tranzystory 14 lub 10 nanometrowe (0,00001 milimetra), a gdzieniegdzie pojawia się już technologia 7 nm. /.../ Co będzie dalej? IBM już przedstawił procesor w standardzie 5 nm i przekonuje, że można ten wynik jeszcze poprawić schodząc do 3 i 2,1 nm.”
Typowe rozmiary cząsteczek są właśnie rzędu nanometrów. Odległość między wodorem a tlenem w cząsteczce wody równa jest około 1/10 nanometra. Dalej cytuję Kwantowo:
„Mniej więcej w tym miejscu, współczesna elektronika trafi na przeszkodę czysto fizyczną. Operując w skali de facto pojedynczych molekuł, szyki inżynierom zaczną mieszać prawidła mechaniki kwantowej.”
Tranzystory, żeby działały, muszą być elektrycznie izolowane od podobnych sąsiednich komórek. Kiedy warstwa izolująca cienknie do rozmiarów pojedynczej cząsteczki, a tak się dzieje przy wielkościach rzędu kilku nanometrów, pojawiają się efekty kwantowe: elektrony zaczynają tunelować. Przestają pozwalać się schwytać w małej objętości, gdyż sprzeciwia się temu ich kwantowa nieoznaczoność przestrzenna. Cytuję dalej AA:
„Ale jak zachować pełną precyzję w przetwarzaniu zer i jedynek, kiedy wszystkie tranzystory są tuż obok siebie? Jak to osiągnąć, gdy bariery powstrzymujące ładunki elektryczne mają grubość dosłownie paru atomów? Główną zmorą konwencjonalnych mikrochipów jest zjawisko zwane tunelowaniem kwantowym.”
Na zjawisku kwantowego tunelowania załamuje się prawo Moore′a. Gordon Moore, współzałożyciel firmy Intel, pioniera i potentata produkcji procesorów, już 1965 r. zauważył, że liczba tranzystorów w układach scalonych podwaja się co 18 miesięcy. Działo się tak i dzieje do dziś dzięki postępującej wykładniczo miniaturyzacji. Moore (jak pisze Adamczyk) przewidział także, jak długo ten postęp będzie trwać: do roku 2020. I tak się oto dzieje!
Tu zauważę coś równie ciekawego i co ma związek z Kartezjuszem w tytule. Izolacja prądów w poszczególnych tranzystorach, oraz wykluczenie niechcianych procesów kwantowych (bo te chciane oczywiście działają, mam na myśli dynamikę wolnych elektronów i dziur w sieci krystalicznej krzemu, bez czego nie byłoby tranzystora ni komputera) pozwoliło odizolować maszyny liczące (ogólniej: przetwarzające dane) od błędów. A właściwie: od przypadku, od losowości. Pozwoliło konstruktorom stworzyć w obrębie ludzkiej technosfery oazy wolne od błędu – czyli wolne od przypadku.
Jest to coś niebywałego, ponieważ cała przyroda, wszystkie jej prace, łącznie z ewolucją istot żywych i działaniem układów nerwowych wraz z mózgami ludzi, poszła całkiem inną drogą, nie izolując się od przypadku, tylko wykorzystując go, zaprzęgając go do samego serca swoich robót i działania jej wytworów.
Inżynierom od mikroelektroniki udało się zrobić w materii to, o czym spekulował René Descartes: oddzielić, odseparować logikę (czyli jakby „ducha”) od niedoskonałej i miotanej losowością reszty („materii” lub materiału). Towarzyszyła temu pewna ideologia: cybernetyka, której fundamentem było twierdzenie, że logikę można implementować w jakimkolwiek materiale, który dlatego jest właściwie nieistotny.
Co będzie dalej? Gdy inżynierowie natkną się kwantowo-cząsteczkową barierę miniaturyzacji, będą starali się jakoś ją ominąć. Pewnie coś da się zdziałać przez manipulowanie architekturą procesorów. Pewnie jeszcze więcej da się zrobić przez budowanie oprogramowania, które będzie bardziej oszczędzać procesory – bo mam wrażenie, że obecnie ich praca jest bardzo rozrzutna. Prócz tego czekamy na przyjście komputerów kwantowych, ale z nimi jest chyba podobny problem, bo te eksperymentowane dotychczas działają w skrajnie niskich temperaturach, co oznacza, że ich twórcy znów unikają jak mogą – błędów, gdyż błędy i przypadki w temperaturze zero kelwinów zanikają. Jak mogłyby wyglądać informatyczne maszyny mające błędonośne, losowe procedury intymnie wbudowane w siebie (jak mamy je my), tego chyba nikt nie wie.
By pisać komentarz, zaloguj się lub zarejestruj »