Przewidywania śmierci prawa Moore’a nie są niczym nowym, jednak to dopiero w ostatnich latach głosy te zaczęły przebijać się do mainstreamu. Osobiście jednak byłbym bardziej ostrożny w tego rodzaju przewidywaniach. Owszem prawo Moore’a głoszące, że średnia liczba tranzystorów w układach scalonych, podwaja się co dwa lata może nie być już tak jednoznaczne, ale nadal obowiązuje. Mimo wszystko slogany głoszące definitywny koniec tej zasady są tylko zabiegiem marketingowym, stosowanym przez technologicznych gigantów. Wydaje się, że to Nvidia lubi najbardziej ogłaszać koniec prawa Moore’a, niemal regularnie od kilku lat. W kontekście tego trendu pojawiła się kiedyś dość dobrze obrazująca całą sytuację wypowiedź Petera Lee, szefa działu badawczego Microsoftu.
„The number of people predicting the death of Moore’s law doubles every two years.”
„Liczba osób wróżących śmierć prawa Moore’a podwaja się co dwa lata”.
Oczywiście jest to humorystycznie spostrzeżenie, jedna według mnie całkiem trafne. Dzisiaj jednak nie będziemy zajmować się prawem Moore’a jako takim, na ten temat przygotowałem już kiedyś materiał „Prawo Moore’a 50 lat później”, do którego przeczytania zachęcam. W tym materiale przyjrzymy się technologii, jaką jest fotonika krzemowa, która w przyszłości może stać się czymś ważnym.
Przez lata branża półprzewodników charakteryzowała się ciągłym rozwojem, ten jednak nie może trwać wiecznie. Oczywiście układy stają się coraz mniejsze, jeszcze bardziej wydajne i energooszczędne, jednak na horyzoncie widać już pewne ograniczenia, które nie do końca wiemy, jak pokonać. Ich sztandarowym przykładem jest granica miniaturyzacji. Procesy technologiczne coraz bardziej zbliżają się do fizycznych granic. Wiele wskazuje na to, że tranzystory poniżej 1nm mogą być niestabilne przede wszystkim przez efekty kwantowe, takie jak tunelowanie elektronów. Aby temu zapobiec naukowcy starają się budować tranzystory „inaczej” niż zwykle, to jednak nie zawsze przynosi pożądane efekty. Tutaj też skorzystam z autopromocji – „GAAFET – nieudana rewolucja w budowie tranzystorów?”. Poza tym wspomnieć możemy o problemach z oddawaniem ciepła w coraz to gęściej upakowanych strukturach, ograniczeniach rozdzielczości w maszynach produkujących chipy czy też limity wydajności krzemu.
Krzemowe „limity” to niezwykle ciekawe zagadnienie, o którym większość osób nie zdaje sobie sprawy. Choć materiał ten towarzyszy nam od początku istnienia branży półprzewodnikowej to nie jest on idealny. Głównym problemem, z którym projektanci zmierzą się w przyszłości, będzie niewystarczająca szybkość działania chipów. Już teraz możemy zauważyć między innymi osiągnięcie granicznych częstotliwości działania procesorów. Opisywane przez producentów wartości taktowania mieszczą się zazwyczaj w przedziale od 3GHz do 5GHz. Dzieje się tak, ponieważ układy, których zegary osiągają większe wartości, mają tendencję do przegrzewania się i problemów z niezawodnością. Poza tym ekstremalna miniaturyzacja krzemu prowadzi do opóźnień wewnątrz układu. Wydaje się to dziwne. Bo mogłoby się wydawać, że większe upakowanie i krótsze połączenia między elementami poprawiają komunikację, jednak w rzeczywistości jest odwrotnie. Wartość rezystancji ścieżek wewnątrz układu jest odwrotnie proporcjonalna do pola ich przekroju, czego efektem jest nieintuicyjny wzrost oporu przy każdym kroku miniaturyzacji. Poza tym coraz mniejsze krzemowe rdzenie obarczone są problemem tak zwanego rozpraszania. Im mniejsze są drogi, którymi poruszają się nośniki ładunków, tym gorzej. Choć definicja prądu elektrycznego mówi o „uporządkowanym ruchu ładunków elektrycznych”, to jest to spore uproszczenie i w rzeczywistości wygląda to całkowicie inaczej. Elektrony, jeśli to te w danej chwili traktujemy jako nośniki energii, poruszają się dość losowo, choć mniej więcej w tym samym kierunku. Poza tym ich prędkość jest ślimaczo mała, gdybyśmy mieli możliwość zobaczyć je gołym okiem to czas obserwacji, w której pokonałyby one kilka centymetrów, można by liczyć w minutach. We większych konstrukcjach półprzewodnikowych aspekty te nie mają aż takiego znaczenia, jednak im chip jest mniejszy, tym więcej pojawia się problemów.
Z tego właśnie powodu naukowcy zastanawiają się, czy krzem można zastąpić czymś innym. Do tej pory pojawiło się już kilka ciekawych koncepcji: grafen – który charakteryzuje się dość dobrymi parametrami elektrycznymi, ale jego integracja z istniejącymi rozwiązaniami jest bardzo trudna, arsenek galu – stosowany już do budowy tranzystorów, ale droższy niż konstrukcje krzemowe, dwusiarczek molibdenu – materiał nadal w fazie badań. Poza tym pojawiają się też głosy, że dalsze badania nad krzemem, czy innymi podobnymi mu materiałami są z góry skazane na porażkę, bo cokolwiek wymyślimy to i tak w pewnym momencie będzie to za mało. Każdy nowy materiał w pewnym momencie również osiągnie swoje maksimum i wrócimy do punktu wyjścia. Ci sami ludzie podkreślają często, że skoro na horyzoncie widzimy problemy z szybkością i wydajnością, to wykorzystajmy coś, co zasadniczo pozbawione jest tego problemu, czyli światło.
Optyczne marzenia
A gdyby tak zastąpić prąd elektryczny światłem? Tranzystory elementami optycznymi? Pomysł ten wydaje się całkiem ciekawy, wszakże upraszczając, możemy stwierdzić, że skoro do obliczeń we współczesnych komputerach wykorzystujemy elektrony to, dlaczego by nie zastąpić ich fotonami. Pomysły tego typu nie są niczym nowym, już w latach 70. XX wieku pojawiły się pierwsze koncepcje budowy, czegoś, co można by nazwać optycznym układem scalonym.
Taki układ, choć lepiej byłoby nazwać go systemem, składałby się z czterech głównych elementów: źródła światła – zakładano, że mógłby to być zwykły laser; światłowodów, które łączyłyby poszczególne elementy; modułów konwersji sygnału elektrycznego na światło i odwrotnie, tak aby całość mogła współdziałać z już istniejącymi konstrukcjami, oraz towarzyszących konstrukcji półprzewodnikowych, które pełniłyby funkcje pomocnicze. Co ważne początkowo nie zakładano stworzenia świetlnego układu scalonego jako takiego. Uznano to za zbyt trudne, nie istniała wówczas funkcjonalna koncepcja elementu, który moglibyśmy nazwać fotonicznym tranzystorem, a bez niego nie było mowy o budowie innych, bardziej złożonych konstrukcji.
Poza tym badacze zdawali sobie sprawę z dwóch zasadniczych problemów. Źródło światła nie mogło być oparte na krzemie, ponieważ ten sam w sobie nie może emitować fotonów. Dopiero po odpowiedniej modyfikacji tego pierwiastka w procesie domieszkowania można zmusić go do świecenia, czego przykładem są diody LED. Jednak światło diody LED, nie jest równoznaczne ze stabilną wiązką lasera, która byłaby odpowiednim źródłem dla fotonicznego systemu. Co ciekawe od tamtej pory niewiele się zmieniło i nadal nie wiemy, jak zbudować stabilny laser oparty na krzemie, dlatego do tego celu wykorzystuje się między innymi arsenek galu, azotek galu lub fosforek indowo-galowy. Poza tym w strukturach krystalicznego krzemu występuje niepożądany efekt Pockelsa. Lasery z reguły działają w sposób ciągły, generując stabilną wiązkę światła, jednak w koncepcyjnym systemie wskazane byłoby, aby działaniem takiego lasera można było sterować. Nie chodzi tutaj o samo włączenie lub wyłącznie generowanej wiązki, ale o możliwość kontroli przepływu światła dzięki polu elektrycznemu. Niestety w krzemie jest to niemożliwe, przez co nie da się stworzyć konwerterów świetlno-elektrycznych bazujących na tym materiale.
Te dwa problemy dość mocno komplikowały pierwsze próby stworzenia fonicznego urządzenia z czystego krzemu, przy użyciu tych samych metod, z których korzystał wówczas przemysł półprzewodnikowy. Dlatego też naukowcy postanowili skupić się na innych wspomnianych już wcześniej pierwiastkach.
Komercyjne wykorzystanie światła
Historia fotoniki krzemowej, którą znamy obecnie, rozpoczęła się pod koniec lat 80. XX wieku. To w tamtym czasie pojawiła się praca Richarda Sorefa, opisująca coś co moglibyśmy nazwać fotonicznym złączem PN znanym z klasycznej elektroniki. Ta pasywna struktura dała początek badaniom, dzięki którym stworzono działające konwertery zamieniające światło na sygnał elektryczny. Był to też moment, w którym naukowcy zdali sobie sprawę, że odtworzenie funkcjonalnego układu scalonego bazującego na wiązce lasera, może być po prostu zbyt trudne. Postanowiono skupić się na systemie, który już działał. Trafnie zauważono, że problemem w najbliższej przyszłości będzie przede wszystkim prędkość przesyłu danych między większymi, nie raz znacznie oddalonymi od siebie urządzeniami. Idealnym panaceum miały być tutaj fotony, przesyłane odpowiednim światłowodem, dzięki czemu całkowicie eliminowano wszystkie wady wynikające z dotychczas stosowanych metalowych przewodów.
Kolejne dziesięciolecia to powolny rozwój technologii zmieniającej światło w sygnały elektryczne. Pionierem tej technologii stał się amerykański Intel, który w 2004 roku zaprezentował światu pierwszy wysoce wydajny modulator, przeznaczony dla branży komercyjnej. Urządzenie to miało przepustowość ponad 1GHz i mogło być z powodzeniem stosowane w centrach danych, przyśpieszając transmisję informacji do nieznanych wcześniej poziomów.
Mimo że fotonika krzemowa znalazła swoje zastosowanie w przesyłaniu danych, to nadal obarczona jest znanym od początku problemem. Tak jak wspominałem, do dnia dzisiejszego nie udało się opracować lasera opartego na krzemie, co więcej nadal nie wiemy, czy jest to w ogóle możliwe, przez co wielu nazywa krzemowy laser świętym Gralem fotoniki. Dlatego też źródło wiązki laserowej we współczesnych konstrukcjach realizowane jest w dwojaki sposób. Laser może być zewnętrzny, umieszczony poza fotonicznym systemem lub zintegrowany z nim, jednak zawsze bazuje on na pierwiastku innym niż krzem.
Co dalej?
Fotonika krzemowa z roku na rok staje sią coraz bardziej obecna, komunikacja między serwerami, światłowodowy internet, czy też czujniki lidarowe, o których nie wspomniałem, a które są częścią tej branży. Wszystkie te elementy stały się częścią codzienności, ale jednocześnie może się wydawać, że czegoś tu brakuje. Marzenia z lat 70. o w pełni fotonicznym układzie scalonym są nadal obecne, czego efektem są startupy podejmujące wyzwanie zaprojektowania tego typu elementu, gdzie wewnętrzne okablowanie chipa zrealizowano by za pomocą światłowodów. Jednocześnie nie mówiąc wiele o fotonicznym tranzystorze, przez co ten wydaje się pozostawać daleko poza technologicznym horyzontem. Poza tym wraz z rozwojem technologii pojawiły się kolejne problemy. Dzisiejsze półprzewodnikowe elementy mają rozmiar zaledwie kilku nanometrów, natomiast elementy fotoniczne nie mogą być mniejsze od długości fali światła, która wynosi mniej więcej jeden mikrometr. Problem skalowania jest dość poważny, przez co ewentualne świetlne konstrukcje byłyby dość spore, dlatego też producenci skłaniają się raczej ku hybrydowym konstrukcjom łączącym światło i energię elektryczną. Mowa tutaj o procesorach z bezpośrednim podłączeniem światłowodowym, w ten sposób można pominąć wszystkie etapy pośrednie, sprawiając, że odbierane przez jednostkę centralną dane znajdą się od razu w rdzeniu. Co ciekawe wiemy, że tajwański gigant, czyli TSMC prowadzi badania w tym kierunku, jednak na jakiekolwiek konkluzje musimy jeszcze poczekać, bo tych na próżno szukać w internecie. Znacznie więcej informacji udostępniają rozwijające się startupy, jednym z nich jest Lightmeter, firma budująca układy AI bazujące na fotonach, dla zainteresowanych tym tematem polecam odwiedzić dostępną w sieci witrynę firmy.
Bez wątpienia fotonika krzemowa jest technologią przyszłości, która ma spore szanse zrewolucjonizować nasze życie. Ale jest to też technologia, która niejako nadal poszukuje swojego rynku, na tyle dużego, aby wykorzystać jej potencjał.
Źródła:
- https://www.optica-opn.org/home/industry/2021/december/lightelligence_puts_new_chip_through_its_paces/
- https://worldkings.org/news/world-creators-federation/top-100-global-creator-p46-theodore-maiman-creator-of-laser
- https://www.youtube.com/watch?v=wBqfzj6CEzI
- https://www.gophotonics.com/community/what-is-pockels-effect
- https://www.youtube.com/watch?v=Fml3yuPR2AU
- https://ieeexplore.ieee.org/document/1073206
- https://www.youtube.com/watch?v=29aTqLvRia8&t=189s
- https://www.wired.com/story/chip-ai-works-using-light-not-electrons/
Jak oceniasz ten wpis blogowy?
Kliknij gwiazdkę, aby go ocenić!
Średnia ocena: 5 / 5. Liczba głosów: 5
Jak dotąd brak głosów! Bądź pierwszą osobą, która oceni ten wpis.