Video: The Extreme Physics Pushing Moore’s Law to the Next Level (Listopad 2024)
Každých několik let se objevují příběhy o tom, jak umírá Mooreův zákon - koncepce, že počet tranzistorů v dané oblasti se každé dva roky zdvojnásobí - umírá. Takové příběhy existují už celá desetiletí, stále však vidíme nové čipy s více tranzistory každých pár let, do značné míry podle plánu.
Například v únoru společnost Intel představila 4, 3 miliardy tranzistorových čipů nazývaných Xeon E7v2 nebo Ivytown na 541 milimetrech čtverečních milimetrů pomocí procesu 22nm. Před deseti lety byl špičkový procesor Intel Xeon, známý jako Gallatin, 130 130m čip s 82 miliony tranzistorů na 555 čtverečních milimetrech. To zdaleka nestačí držet krok s zdvojnásobením každé dva roky, ale je to blízko.
To samozřejmě neznamená, že to bude pokračovat navždy, a výroba čipů prochází určitými velkými změnami, které ovlivňují jak výrobu, tak i design čipů, a to vše bude mít trvalý dopad na uživatele.
Nejzřejmější je již dlouhou dobu jasné, že hodinové rychlosti se nezrychlují. Koneckonců Intel představil v roce 2004 čipy Pentium, které běžely na 3, 6 GHz; dnes špičkový procesor Core i7 společnosti běží na 3, 5 GHz s maximální rychlostí turbo 3, 9 GHz. (Samozřejmě, že jsou někteří lidé, kteří se přetaktovali, ale vždy tomu tak bylo.)
Místo toho návrháři reagovali přidáním více jader k čipům a zvýšením účinnosti každého jednotlivého jádra. Dnes je dokonce i nejnižší čip, který můžete získat pro stolní nebo přenosný počítač, dvoujádrový a čtyřjádrové verze jsou samozřejmostí. Dokonce i v telefonech nyní vidíme spoustu čtyřjádrových a dokonce i osmijadrových dílů.
To je skvělé pro běh více aplikací současně (multi-tasking) nebo pro aplikace, které mohou opravdu využít více jader a vláken, ale většina aplikací to stále neudělá. Vývojáři - zejména ti, kteří vytvářejí vývojové nástroje - strávili spoustu času tím, že jejich aplikace fungovaly lépe s více jádry, ale stále existuje mnoho aplikací, které většinou závisí na výkonu s jedním vláknem.
Kromě toho vývojáři procesorů vkládají do aplikačního procesoru mnohem více grafických jader a dalších specializovaných jader (jako jsou například ta, která kódují nebo dekódují video nebo šifrují nebo dešifrují data), což většina odvětví nazývá heterogenní zpracování. AMD, Qualcomm a MediaTek tuto koncepci prosazují, což pro některé věci dává smysl. Určitě to pomáhá při integraci - tím, že čipy jsou menší a méně náročné na sílu; a zdá se, že dává dokonalý smysl v mobilních procesorech - jako je velký.LITTLE přístup, který ARM použil tam, kde kombinuje silnější, ale energeticky náročnější jádra s těmi, která mají jen malou moc. Pro mnoho z nás je získání čipů, které spotřebovávají méně energie při stejném výkonu - a proto i mobilní zařízení, která s dobíjením baterie vydrží déle, velký problém.
Použití ohromného počtu jader - ať už grafických jader nebo specializovaných jader x86 - má jistě obrovský dopad na vysoce výkonné výpočty, kde věci jako desky Tesla společnosti Nvidia nebo Xeon Phi (Knight's Corner) společnosti Intel mají obrovský dopad. Ve skutečnosti většina nejlepších superpočítačů dnes používá jeden z těchto přístupů. Stále však funguje pouze pro určité druhy použití, především pro aplikace primárně pro aplikace, které používají příkazy SIMD (jediná instrukce, více dat). Jinak tento přístup nefunguje.
A nejde jen o to, že čipy nemohou běžet rychleji. Na straně výroby existují další překážky pro umístění více tranzistorů na matrici. Během posledního desetiletí jsme viděli nejrůznější nové techniky výroby čipů, přecházející od tradiční směsi křemíku, kyslíku a hliníku k novým technikám, jako je „napjatý křemík“ (kde inženýři natahují atomy křemíku), nahrazující atomy křemíku brány s materiály s kovovými bránami s vysokým K / a v poslední době se pohybují od tradičních rovinných bran k 3-D branám známým jako FinFET nebo „TriGate“ v Intel Parlance. První dvě techniky nyní používají všichni pokročilí výrobci čipů, přičemž slévárny plánují představit FinFET v příštím roce po zavedení Intelu v roce 2012.
Jednou alternativou je tzv. FD-SOI (plně ochuzený křemík na izolátoru), což je technika, kterou zvláště tlačila společnost ST Microelectronics, která používá tenkou izolační vrstvu mezi silikonovým substrátem a kanálem pro zajištění lepšího elektrického řízení malých tranzistorů v teorie přináší lepší výkon a nižší výkon. Ale zatím se nezdá, že by měl téměř podnět velkých výrobců, které FinFET mají.
V poslední době Intel dělal velký kus toho, jak daleko je v oblasti výroby čipů, a skutečně začal dodávat objemovou výrobu svých Core mikroprocesorů na 22nm procesu s technologií TriGate asi před dvěma lety a plánuje dodávat 14nm produkty ve druhé polovině tohoto roku. Mezitím velké slévárny čipů plánují koncem letošního roku objemovou výrobu 20nm pomocí tradičních planárních tranzistorů, se 14 nebo 16nm produkty s finFETs naplánovanými na příští rok.
Intel předváděl snímky, které ukazují, jak daleko je na čipové hustotě, jako je tenhle od svého analytického dne:
Slévárny však nesouhlasí. Zde je snímek z poslední výzvy TSMC pro investory, který říká, že může příští rok tuto mezeru uzavřít.
Zjevně to prozradí pouze čas.
Mezitím je použití menších velikostí zápustky obtížnější pomocí tradičních litografických nástrojů používaných k leptání čar do křemíkového čipu. Ponorná litografie, kterou toto odvětví používá už léta, dosáhla svého limitu, takže prodejci se nyní obracejí k „dvojím vzorům“ nebo dokonce k více průchodům, aby získali jemnější rozměry. Ačkoli jsme v poslední době viděli trochu pokroku, dlouho očekávaný posun k extrémní ultrafialové (EUV) litografii, která by měla nabídnout lepší kontrolu, zůstává roky pryč.
Věci jako FinFET a vícenásobné modelování pomáhají vyrábět další generace čipů, ale při zvyšování nákladů. Řada analytiků skutečně říká, že náklady na jeden tranzistor výroby při 20 nm nemusí být zlepšením oproti nákladům na 28 nm kvůli potřebě dvojitého vzorování. A nové struktury jako FinFET budou pravděpodobně také dražší, alespoň na začátku.
Výsledkem je, že mnoho tvůrců čipů se dívá na ještě exotičtější metody zvyšování hustoty, i když tradiční techniky Moore's Law nefungují.
Flash paměť NAND využívá nejmodernější procesní technologii, takže se s běžným horizontálním škálováním již potýká s vážnými problémy. Řešením je vytvoření vertikálních řetězců NAND. Jednotlivé paměťové buňky se nezmenší, ale protože můžete na sebe narovnat tolik na sebe - všechny na stejném podkladu - získáte mnohem větší hustotu ve stejné stopě. Například 16-vrstvový 3D NAND čip vyráběný při 40nm procesu by byl zhruba ekvivalentní s konvenčním 2D NAND čipem vyrobeným v 10nm procesu (nejpokročilejší nyní používaný proces je 16nm). Samsung říká, že již vyrábí svůj V-NAND (Vertical-NAND) a Toshiba a SanDisk budou následovat to, co nazývá p-BiCS. Micron a SK Hynix vyvíjejí také 3D NAND, ale zdá se, že se v příštích několika letech soustředí na standardní 2D NAND.
Nezapomeňte, že to není totéž, co se týká ukládání 3D čipů. Paměť DRAM také zasahuje měřítkovou stěnu, ale má jinou architekturu, která vyžaduje jeden tranzistor a jeden kondenzátor v každé buňce. Řešením je naskládat na sebe několik vyrobených paměťových čipů DRAM, vyvrtat otvory skrz substráty a poté je spojit pomocí technologie nazývané průchody křemíkem (TSV). Konečný výsledek je stejný - vyšší hustota při menším půdorysu - je to však spíše pokročilý proces balení než nový proces výroby. Průmysl plánuje použít stejnou techniku k ukládání paměti na vrchol logiky, nejen k oříznutí stopy, ale také ke zlepšení výkonu a snížení výkonu. Jedním z řešení, které získalo velkou pozornost, je hybridní paměťová kostka společnosti Micron. Nakonec by bylo možné použít 3D stohování čipů k vytvoření výkonných mobilních čipů, které kombinují CPU, paměť, senzory a další komponenty do jednoho balíčku, ale stále existuje mnoho problémů, které je třeba vyřešit s výrobou, testováním a provozem těchto tzv. Heterogenních 3D komíny.
Ale je to další generace technik, o kterých výrobci čipů hovořili, se zdají mnohem exotičtější. Na konferencích o čipech se hodně dozvíte o službě Directed Self Assembly (DSA), ve které se nové materiály skutečně sestaví do základního tranzistorového vzoru - alespoň pro jednu vrstvu čipu. Zní to trochu jako sci-fi, ale vím, že řada vědců, kteří se domnívají, že to opravdu není zdaleka vůbec.
Mezitím se další vědci dívají na třídu nových materiálů - známých jako polovodiče III-V v tradičních výrobních stylech; zatímco jiní se dívají na různé polovodičové struktury, aby doplnili nebo nahradili FinFET, jako jsou nanowire.
Další metodou snižování nákladů je výroba tranzistorů na větších oplatkách. Průmysl prošel takovými přechody před přechodem z 200 mm oplatky na 300 mm oplatky (průměr asi 12 palců) asi před deseti lety. Nyní se hodně mluví o přechodu na destičky 450 mm, přičemž většina velkých výrobců destiček a dodavatelé nástrojů vytvářejí konsorcium pro zkoumání nezbytných technologií. Takový přechod by měl snížit výrobní náklady, ale bude znamenat vysoké kapitálové náklady, protože bude vyžadovat nové továrny a novou generaci nástrojů pro výrobu čipů. Intel má závod v Arizoně, který by byl schopen výroby 450 mm, ale opozdil objednávání nástrojů, a mnoho z prodejců nástrojů také zpožďuje své nabídky, takže je pravděpodobné, že první skutečná výroba destiček 450 mm nebude až do 2019 nebo 2020 nejdříve.
Zdá se, že je to stále těžší a dražší. Ale to je případ výroby polovodičů od začátku. Velkou otázkou je vždy, zda zlepšení výkonu a hustota navíc stojí za dodatečné náklady ve výrobě.
ISSCC: Rozšíření Mooreova zákona
Jak rozšířit Mooreův zákon, bylo hlavním tématem minulé měsíce konference International Solid State Circuits (ISSCC). Mark Horowitz, profesor a zakladatel Rambusu na Stanfordské univerzitě, poznamenal, že důvodem, proč máme dnes všechno ve výpočtech, je to, že výpočetní technika se stala levnou díky Mooreovmu zákonu a Dennardovým pravidlům o škálování. To vedlo k očekáváním, že výpočetní zařízení budou stále levnější, menší a výkonnější. (Stanford vykreslil výkon procesorů v průběhu času na cpudb.stanford.edu).
Poznamenal však, že hodinová frekvence mikroprocesorů se přestala rozšiřovat kolem roku 2005, protože hustota energie se stala problémem. Inženýři dosáhli skutečného limitu výkonu - protože nedokázali žetony nijak zahřát, takže nyní jsou všechny výpočetní systémy omezeny na výkon. Jak poznamenal, škálování energie - napájecí napětí - se mění velmi pomalu.
Prvním sklonem odvětví k řešení tohoto problému je změna technologie. „Bohužel nejsem optimistický, že najdeme technologii, která nahradí CMOS za práci na počítači, “ řekl pro technické i ekonomické problémy. Jediným způsobem, jak zvýšit počet operací za sekundu, je tedy snížení energie za operaci, řekl, což naznačuje, že proto má dnes každý vícejádrový procesor, a to i ve svých mobilních telefonech. Problém je však v tom, že nemůžete přidávat jádra, protože jste rychle zasáhli bod snižujících se výnosů, pokud jde o výkonovou energii a oblast matrice. Návrháři CPU o tom věděli již nějakou dobu a CPU optimalizovali dlouhou dobu.
Horowitz řekl, že bychom neměli zapomenout na energii spotřebovanou pamětí. Ve své prezentaci ukázal rozpis energie pro současný, neidentifikovaný 8jádrový procesor, ve kterém CPU jádra spotřebovala asi 50 procent energie a paměť na vyžádání (L1, L2 a L3 cache) použila dalších 50 procent. To nezahrnuje ani externí systémovou paměť DRAM, která by mohla skončit až o 25 procent více z celkové spotřeby energie systému.
Mnoho lidí mluví o používání specializovaného hardwaru (jako jsou ASIC), což může být tisíckrát lepší, pokud jde o energii na operaci ve srovnání s univerzálním CPU. Ale jak Horowitz poznamenal, účinnost zde přichází zčásti, protože se používá pro specifické aplikace (jako je zpracování modemu, zpracování obrazu, komprese videa a dekomprese), které v zásadě příliš nemají přístup k paměti. To je důvod, proč to tolik pomáhá s energií - nejde ani tak o hardware, ale o přesun algoritmu do mnohem omezenějšího prostoru.
Špatnou zprávou je, že to znamená, že aplikace, které můžete vytvářet, jsou omezeny. Dobrou zprávou je, že byste mohli být schopni vytvořit obecnější motor, který by zvládl tyto druhy aplikací s „vysokou lokalitou“, což znamená, že nepotřebují přístup k paměti. Hovoří o tom jako o vysoce lokálním výpočetním modelu a „aplikacích šablony“, které na něm mohou běžet. To samozřejmě vyžaduje nový programovací model. Stanford vyvinul jazyk specifický pro danou doménu, překladač, který dokáže tyto šablony vytvářet a používat je na FPGA a ASIC.
Také na konferenci ISSCC Ming-Kai Tsai, předseda představenstva a generální ředitel společnosti MediaTek, řekl, že lidé se ptají od počátku 90. let, jak dlouho Mooreův zákon skutečně vydrží. Ale jak řekl Gordon Moore na ISSCC v roce 2003, „Žádný exponenciál není navždy. Ale můžeme to navždy oddálit.“ Odvětví odvádí skvělou práci, která Mooreův zákon více či méně podporuje, řekl. Náklady na tranzistor pokračovaly v historickém poklesu. Za cenu 100 gramů rýže (asi 10 centů) jste v roce 1980 mohli koupit pouze 100 tranzistorů, ale do roku 2013 byste si mohli koupit 5 milionů tranzistorů.
Tsai řekl, že mobilní zařízení dosáhly stropu, protože procesory nemohou běžet efektivně při rychlostech nad 3 GHz a protože se technologie baterií příliš nezlepšila. MediaTek na tomto problému pracuje pomocí vícejádrových procesorů a heterogenního multiprocesování (HMP). Uvedl, že společnost představila první skutečný 8jádrový procesor HMP v roce 2013 a začátkem tohoto týdne oznámila čtyřjádrový procesor využívající technologii PTP (Performance, Thermal and Power) k dalšímu zvýšení výkonu a snížení výkonu. Mluvil také o rychlém pokroku v připojení. Mnoho mobilních aplikací, které dříve nebyly možné, je nyní životaschopných kvůli těmto vylepšením v sítích WLAN a WWAN, řekl.
MediaTek pracuje na různých technologiích pro „Cloud 2.0“, včetně řešení bezdrátového nabíjení, „Aster“ SoC pro nositelné nosiče (měří pouze 5, 4 x 6, 6 mm) a heterogenních systémů jako součást nadace HSA, uvedl. Cloud 2.0 bude podle Tsai charakterizován mnoha dalšími zařízeními - zejména nositelnými - s mnohem větším počtem rádií; do roku 2030 více než 100 rádií na osobu.
Hlavní výzvou pro Cloud 2.0 bude energie a šířka pásma, uvedl Tsai. První bude vyžadovat inovativní integrované systémy, hardware a softwarová řešení; lepší technologie baterií; a nějakou formu sběru energie. Druhý bude vyžadovat efektivnější využití dostupného spektra, adaptivních sítí a spolehlivějšího připojení.
Ať už se výroba čipů stane cokoli, je jisté, že povede k novým aplikacím a novým rozhodnutím, kterým budou čelit výrobci čipů, návrháři produktů a koneční uživatelé.