Das Thema der Aktualisierung des Moore'schen Gesetzes durch Auffinden komplexerer AbhÀngigkeiten der Evolution von Computersystemen, die zur Diskussion gestellt werden, wird heute von Forschern auf dem Gebiet der Plasmonik- und Nanophotonik-Technologien gut verstanden.
Wichtig: Die meisten Links im Artikel fĂŒhren zu Materialien in englischer Sprache. In Russland gibt es nicht so viele einheimische Forscher der Photonik, und diejenigen, die es gibt, möchten lieber auf Englisch veröffentlicht werden.
Wenn Sie das Thema in Ruhe bei einer Tasse Tee studieren möchten , können Sie sich den Bericht von Dmitry Fedyanin anhören - einer der fĂŒhrenden russischen Forscher zur Anwendung von Nanophotonik-Technologien in Computersystemen.
Dmitry Fedyanin ist Senior Researcher am MIPT.
Und dann werden wir einen interessanten Artikel analysieren, in dem eine Gruppe von Autoren ein Ă€uĂerst originelles Konzept der ProduktivitĂ€tswachstumsmetrik vorschlĂ€gt, eine Alternative zum klassischen Mooreschen Gesetz. Die Idee ist dank der Analyse der natĂŒrlichen physikalischen Grenzen der vorhandenen Technologien fĂŒr den Betrieb von Prozessorkernen sowie der experimentell bestĂ€tigten Aussichten auf neue Systeme auf Basis der Nanophotonik gereift.
Die stĂ€ndigen Anforderungen des modernen Industriesystems an die Verbesserung der Recheneffizienz und der Kommunikationsbandbreite haben die Halbleitertechnologien in ihrem gegenwĂ€rtigen Zustand an ihre Grenzen gebracht. Dies hat zur Entstehung neuer Technologien gefĂŒhrt, die herkömmliche Lösungen ĂŒbertreffen können. Wir sprechen von photonischen PrĂ€prozessoren oder Beschleunigern, Elektronen-Photonen-Hybridschaltungen und neuronalen Netzen. Die BemĂŒhungen, die Entwicklung der Leistung von Computersystemen zu beschreiben und vorherzusagen, erlauben es jedoch nicht, die tatsĂ€chlich beobachtete Entwicklungsrate genau vorherzusagen und dadurch zu erklĂ€ren. Das heiĂt, alle vorgeschlagenen Indikatoren weichen einige Jahre nach ihrem ursprĂŒnglichen Vorschlag letztendlich von ihrem Entwicklungsverlauf ab. Diese Diskrepanz erfordert eine ausgeglichene Metrik.Dies wĂŒrde eine ganzheitliche Reihe von TriebkrĂ€ften fĂŒr die Entwicklung von Computersystemen beinhalten.
Das ursprĂŒngliche Konzept einer neuen Metrik namens FĂ€higkeit zur Latenz-Mengen-BestĂ€ndigkeit (CLEAR) wurde von einem internationalen Forscherteam (Shuai Sun, Vikram K. Narayana, Mario Miscuglio, Lionel C. Kimerling, Tarek El-Ghazawi, Volker J. Sorger) vorgeschlagen. Laut den Autoren des Artikels (siehe hier) Diese Metrik deckt die Dynamik von Ănderungen der Synchronisationsraten, der Energieeffizienz, der Skalierung der physischen GröĂe von Computern und der wirtschaftlichen Kosten ab. Laut den Autoren ist CLEAR heute die einzige Metrik, die die historische Entwicklung von Computersystemen korrekt beschreibt. Selbst bei unterschiedlichen Optionen und gegenseitigen technologischen Kombinationen entspricht CLEAR der beobachteten konstanten Wachstumsrate, einschlieĂlich der dominanten Computertechnologien, die fĂŒr die zukĂŒnftige Implementierung vorgeschlagen werden (Prognose). CLEAR wird den Lesern als Leitfaden zur quantitativen Vorhersage des ProduktivitĂ€tswachstums von Computersystemen jetzt und in Zukunft prĂ€sentiert.
Trotz der Tatsache, dass die Entwicklung der Rechenleistung im Allgemeinen stĂ€ndig zunimmt, verlangsamt sich die beobachtete Leistungsgeschwindigkeit von GerĂ€ten, die auf der bestehenden Halbleiterindustrie basieren, merklich, insbesondere bei der 14-nm-Technologie (siehe hier und hier ). Dies ist sowohl auf natĂŒrliche physikalische EinschrĂ€nkungen als auch auf die wachsenden wirtschaftlichen Kosten des kontinuierlichen industriellen Chipherstellungsprozesses zurĂŒckzufĂŒhren.
Aus diesen GrĂŒnden wurde das Mooresche Gesetz als Fahrplan fĂŒr die Halbleiterindustrie mehrmals ĂŒberarbeitet, um diese Hindernisse zu beseitigen (siehe hier)). In Ă€hnlicher Weise weicht die Dynamik der Entwicklung (AbhĂ€ngigkeit von der Zeit) anderer Beziehungen physikalischer GröĂen, wie beispielsweise der Indikator fĂŒr die Effizienz der Nutzung der Rechenleistung ( Kumi-Gesetz ) oder der Indikator fĂŒr die Rechenleistung, der sich aus dem VerhĂ€ltnis von Energieverbrauch, GröĂe und Kosten ( Makimoto-Gesetz ) ergibt, gleichermaĂen ab Im Vergleich zur beobachteten Geschwindigkeit der Technologieentwicklung (Abb. 1) kann die im Indikator gewĂ€hlte Zeitfunktion (z. B. Multicore, Herstellungskosten) in der Praxis kein exponentielles Wachstum liefern.
Beispielsweise ist die Leistung eines Prozessors mit N Kernen immer noch durch das VerhĂ€ltnis 1 / ((1-p) + p / N) begrenzt , wobei p der Parallelisierungsgrad ist (siehe.hier ). Daher wird es immer schwieriger, die Entwicklung der Leistung von Computersystemen zu verfolgen, wenn wir nur das Moore'sche Gesetz (oder andere vorhandene Vorhersagemetriken) verwenden, bei dem nur ein oder mehrere treibende Faktoren zur Beschreibung der Leistung eines Computersystems verwendet werden (siehe hier ). DarĂŒber hinaus Ă€ndern sich die Vorteile verschiedener Hardware-Implementierungen (z. B. elektrisch, optisch) im Laufe der Zeit auf unterschiedliche Weise, was die evolutionĂ€re Vorhersage noch schwieriger macht.
Beispielsweise können integrierte Photonik und möglicherweise Plasmonik bestimmte KommunikationskanĂ€le auf einer Platine oder sogar auf einem Chip erweitern. Infolgedessen werden Probleme mit der WĂ€rmeableitung erheblich verringert und die Datenbandbreite erhöht, wobei die elektronische digitale Effizienzbarriere durch konzeptionelle AnsĂ€tze wie WellenlĂ€ngenmultiplex ( WDM ), optischen Drehimpuls oder höhere Modulationsformate wie Polarisationsamplitudenmodulation ĂŒberwunden werden kann . Modulation (zum Beispiel QAM ), bei der Phasen- und Amplitudenpolarisation gleichzeitig verwendet werden (siehe hier und hier ).
In Bezug auf Kompromisse mit anderen Technologien nimmt ein elektronischer Transistor mit einem 14-nm-Prozessknoten eine FlĂ€che ein, die 3 GröĂenordnungen kleiner ist als ein Ringmodulator einer photonischen Mikroscheibe. Die Photonik bietet jedoch eine Verbindung auf Kanalebene ohne kapazitive Lade- / EntladungsdrĂ€hte, obwohl sie in Bezug auf die obigen synergistisch ist einzigartige Eigenschaften, die DatenĂŒbertragungsraten bis zu Tbit / s unterstĂŒtzen (siehe hier ). Abbildung 1. Die Art der Entwicklung von Computersystemen von 1946 bis heute kann in Form von vier verschiedenen Indikatoren dargestellt werden: (a) Mooresches Gesetz - basierend auf dem Wachstum der Anzahl von Komponenten auf einem Chip, gemessen in Einheiten der numerischen Anzahl von Transistoren; (b)
Kumis Gesetz - spiegelt die Energieeffizienz pro Recheneinheit wider, Bit / (s * Joule); (c) Makimoto-Index, der "Intelligenz", Leistung, GröĂe und Kosten des Systems enthĂ€lt - gemessen in Einheiten von MIPS / (W * mm3 * $); und (d) den in Gleichung (4) definierten CLEAR-Score, der die Systemlatenz zusĂ€tzlich zum Makimoto-Score und die mit der EinfĂŒhrung der neuen Technologie verbundenen wirtschaftlichen Kosten berĂŒcksichtigt: MIPS / (s * W * mm3 * $). Photonische CLEAR-Daten basieren auf Intels Vorhersage der Siliziumphotonik. Gestrichelte Linien reprĂ€sentieren die lineare Anpassung (logarithmisch) basierend auf der anfĂ€nglichen Wachstumsrate, wobei sich die jĂ€hrliche ProduktivitĂ€t verdoppelt.
Laut den Autoren ist der 5-Faktor-Indikator CLEAR (dessen Name die AbkĂŒrzung Capability-to-Latency-Energy-Amount-Resistance darstellt) bei weitem die zuverlĂ€ssigste Beschreibung der Entwicklung der Rechenleistung wĂ€hrend des bekannten historischen Zeitraums, beginnend mit dem Beginn der Entstehung von Computertechnologien in den 1940er Jahren. und bis heute. Dieser Indikator deckt sowohl physikalische als auch wirtschaftliche Faktoren ab, die mit dem Entwicklungstempo verschiedener Rechenoptionen verbunden sind. Somit kann CLEAR als technologieunabhĂ€ngiger quantitativer Indikator verwendet werden, da es sowohl grundlegende physikalische als auch wirtschaftliche AbhĂ€ngigkeiten umfasst.
Basierend auf Beobachtungen und Analysen ziehen die Autoren zwei wichtige Schlussfolgerungen:
- , ;
- ( ) , (.. CLEAR) ( ) .
Die Weiterentwicklung der Grundlagenphysik, das Management der Halbleitertechnologie und die wirtschaftlichen Kosten erfordern stĂ€ndige Ănderungen und Anpassungen, um die Technologie der Computersysteme schrittweise voranzutreiben. Seit der GrĂŒndung der Halbleiterindustrie hat das Moore'sche Gesetz die zugrunde liegenden Faktoren mehrmals geĂ€ndert: Von der ZĂ€hlung von Transistoren entfaltet sich die Branche aufgrund von EinschrĂ€nkungen der ChipgröĂe und der erhöhten KomplexitĂ€t des Gesamtsystems (siehe hier ).
Der zweite Sprung trat auf, als die Taktfrequenz aufgrund der durch das Dennard-Skalierungsgesetz beschriebenen EinschrĂ€nkungen der Verlustleistung der Leistungsdichte an ihre Grenzen stieĂ (siehe hier)). Wenn sich die Skalierung von Transistoren grundlegenden physikalischen Grenzen nĂ€hert, nimmt die Anzahl der Transistoren zu diesem Zeitpunkt aufgrund der ParallelitĂ€t, die in mehrkernigen und massiv parallelen heterogenen Architekturen implementiert ist, weiter zu. Dies erhöht den Engpass in der Verbindung, was dazu fĂŒhrt, dass bestimmte Bereiche des Chips ( "dunkles Silizium" ) deaktiviert werden mĂŒssen . Somit hat sich die Wachstumsrate von einer anfĂ€nglichen Verdoppelung alle 12 Monate auf jetzt etwa 24 Monate geĂ€ndert.
In jĂŒngster Zeit ist eine neue treibende Kraft aus einem völlig anderen Bereich hervorgegangen, der die Entwicklung von Computersystemen beeinflusst: integrierte Photonik und hybridisierte Nanophotonik, bei der die Weiterleitung des Lichtsignals durch passive integrierte photonische Komponenten erfolgt, wĂ€hrend die elektrooptischen aktiven Komponenten durch neue Lösungen verstĂ€rkt werden:
- rekonfigurierbare Materialien;
- Starke Wechselwirkungen von Licht mit Materie wie Plasmonik oder Photonik ENZ (Epsilion nahe Null), die zusammen eine Datenverbindung und Bandbreite bieten, die die herkömmliche Elektronik auf zwei Ebenen ĂŒbertreffen: dem Chip und dem Kern (siehe hier ).
Bei diesen neuen Technologien ist es nicht möglich, einfach die Anzahl der Komponenten pro Chip zu zĂ€hlen oder den Platzbedarf und die Kosten als separate Metrik zu skalieren, da sie die tatsĂ€chliche LeistungsĂ€nderung nicht genauer widerspiegeln. Von groĂer Bedeutung ist auch der Trend zur Entstehung anderer Technologien, wie sie beispielsweise in der optischen Kommunikation verwendet werden, bei denen mehrere Signale mit unterschiedlichen WellenlĂ€ngen in denselben physikalischen Kanal gepackt werden und somit die Auslastung der Hardware verbessern. Dies ist ein wesentlicher Faktor bei der Bewertung der Systemleistung. Folglich ist eine ganzheitliche Metrik erforderlich, die mehrere treibende KrĂ€fte berĂŒcksichtigt, um einen genauen Vergleich des Beitrags verschiedener technologischer Lösungen zur Entwicklung von Computersystemen zu ermöglichen.
Ein einziger Indikator fĂŒr die Entwicklung von Computersystemen
Um eine technologieunabhÀngige Metrik zu erhalten, sammelten die Autoren Daten zur Leistung von Desktops, Laptops, MobilgerÀten, Servern, Workstations und Supercomputern seit den 1940er Jahren und verglichen sie mit herkömmlichen Metriken (Abbildung 1).
Insbesondere nimmt das Moore'sche Gesetz die Anzahl der Transistoren als einzigen ausreichenden Faktor an (Gleichung 1), wĂ€hrend das Kumi'sche Gesetz bereits auf zwei Faktoren beruht: Energie und Anzahl der Berechnungen, wodurch die Basis fĂŒr den Indikator, gemessen in Bits / (s * J), zusammengefasst wird. (Gleichung 2). Millionen von Anweisungen pro Sekunde (MIPS) pro GröĂen-Kosten-Leistungseinheit werden als Makimoto-Metrik bezeichnet, die bereits als 4-Faktor-Metrik definiert ist (Gleichung 3).
Moores Gesetz = Anzahl der Transistoren [Menge] (1)
Kumis Gesetz= Berechnungen / Energie [Bit / (s * J)] (2)
Makimoto-Score = Intelligenz / (GröĂe * Kosten * Leistung) [MIPS / (mm3 * $ * W)] (3)
Die Werte dieser drei Indikatoren zeigen ein Ă€hnliches Wachstumsmuster : Der AufwĂ€rtstrend verfolgt ihre Rohdaten gut, aber nur fĂŒr einen begrenzten Zeitraum, und weicht schlieĂlich von ihnen ab. Dies deutet darauf hin, dass die zugrunde liegenden Faktoren die tatsĂ€chliche treibende Kraft, die die Entwicklung von Computersystemen dominiert, nicht vollstĂ€ndig erfassen konnten.
Analyse der Trendlinien in Abb. 1 zeigt, dass die Anzahl der Transistoren ursprĂŒnglich (1950er - 1960er Jahre) Moores Gesetz des zweifachen jĂ€hrlichen Wachstums gut widerspiegelt (gestrichelte hellgrĂŒne Linie, Abb. 1). Die Skalierung der Energieeffizienz (dh das Kumi-Gesetz) wurde jedoch in der nĂ€chsten Zeit (1960er bis 1970er Jahre) zum dominierenden Faktor, da das einfache HinzufĂŒgen weiterer Transistoren durch die GröĂe und KomplexitĂ€t des Chips begrenzt war. Aus diesem Grund begann das Moore'sche Gesetz vom 2X / Jahr-Trend abzuweichen, wĂ€hrend das Makimoto'sche Gesetz seine ursprĂŒngliche Wachstumsrate beibehielt. Seit den spĂ€ten 1970er Jahren haben Faktoren wie GröĂe und Leistungsskalierung aufgrund von Problemen mit deutlich komplexeren Herstellungsprozessen, Energieverlust und WĂ€rmeableitung allmĂ€hlich ihre Grenzen erreicht.Mit dem Aufkommen von ParallelitĂ€t (d. H. Mehrkernprozessoren) und wirtschaftlicher Skalierung auf dem Markt weicht schlieĂlich auch die Makimoto-Metrik ab (seit 1978). Die in Abb. 1 reprĂ€sentiert erste Prognosen des ProduktivitĂ€tswachstums fĂŒr jedes Gesetz. Diese Trendlinien zeigen, wie sich jeder zusĂ€tzliche Faktor, der durch die entsprechenden Gesetze eingefĂŒhrt wird, auf seine eigene ursprĂŒngliche Prognosemetrik auswirkt, die als Abweichung von der ursprĂŒnglichen Prognose angezeigt wird. Indem dieser Trend als theoretische Obergrenze fĂŒr die Geschwindigkeit der Technologieentwicklung betrachtet wird, ist es jetzt möglich zu verstehen, ob der âbehaupteteâ Trend tatsĂ€chlich âtatsĂ€chlichâ ist oder nicht. Das heiĂt, ist das derzeitige Gesetz der Grund fĂŒr die Verlangsamung der Technologieentwicklung oder beginnen neue ProduktivitĂ€tsfaktoren zu dominieren.ebenfalls abgelehnt (seit 1978). Die in Abb. 1 reprĂ€sentiert erste Prognosen des ProduktivitĂ€tswachstums fĂŒr jedes Gesetz. Diese Trendlinien zeigen, wie sich jeder zusĂ€tzliche Faktor, der durch die entsprechenden Gesetze eingefĂŒhrt wird, auf seine eigene ursprĂŒngliche Prognosemetrik auswirkt, die als Abweichung von der ursprĂŒnglichen Prognose angezeigt wird. Indem dieser Trend als theoretische Obergrenze fĂŒr die Geschwindigkeit der Technologieentwicklung betrachtet wird, ist es jetzt möglich zu verstehen, ob der âbehaupteteâ Trend tatsĂ€chlich âtatsĂ€chlichâ ist oder nicht. Das heiĂt, ist das derzeitige Gesetz der Grund fĂŒr die Verlangsamung der Technologieentwicklung, oder beginnen neue ProduktivitĂ€tsfaktoren zu dominieren.ebenfalls abgelehnt (seit 1978). Die in Abb. 1 reprĂ€sentiert erste Prognosen des ProduktivitĂ€tswachstums fĂŒr jedes Gesetz. Diese Trendlinien zeigen, wie sich jeder zusĂ€tzliche Faktor, der durch die entsprechenden Gesetze eingefĂŒhrt wird, auf seine eigene ursprĂŒngliche Prognosemetrik auswirkt, die als Abweichung von der ursprĂŒnglichen Prognose angezeigt wird. Indem dieser Trend als theoretische Obergrenze fĂŒr die Geschwindigkeit der Technologieentwicklung betrachtet wird, ist es jetzt möglich zu verstehen, ob der âbehaupteteâ Trend tatsĂ€chlich âtatsĂ€chlichâ ist oder nicht. Das heiĂt, ist das derzeitige Gesetz der Grund fĂŒr die Verlangsamung der Technologieentwicklung, oder beginnen neue ProduktivitĂ€tsfaktoren zu dominieren.Wie sich jeder zusĂ€tzliche Faktor, der durch die einschlĂ€gigen Gesetze eingefĂŒhrt wird, auf seine eigene ursprĂŒngliche Prognosemetrik auswirkt, wird als Abweichung von der ursprĂŒnglichen Prognose angezeigt. Indem dieser Trend als theoretische Obergrenze fĂŒr die Geschwindigkeit der Technologieentwicklung betrachtet wird, ist es jetzt möglich zu verstehen, ob der âbehaupteteâ Trend tatsĂ€chlich âtatsĂ€chlichâ ist oder nicht. Das heiĂt, ob das derzeitige Gesetz der Grund fĂŒr die Verlangsamung der Technologieentwicklung ist oder neue ProduktivitĂ€tsfaktoren zu dominieren beginnen.Wie sich jeder zusĂ€tzliche Faktor, der durch die einschlĂ€gigen Gesetze eingefĂŒhrt wird, auf seine eigene ursprĂŒngliche Prognosemetrik auswirkt, wird als Abweichung von der ursprĂŒnglichen Prognose angezeigt. Indem dieser Trend als theoretische Obergrenze fĂŒr die Geschwindigkeit der Technologieentwicklung betrachtet wird, ist es jetzt möglich zu verstehen, ob der âbehaupteteâ Trend tatsĂ€chlich âtatsĂ€chlichâ ist oder nicht. Das heiĂt, ist das derzeitige Gesetz der Grund fĂŒr die Verlangsamung der Technologieentwicklung, oder beginnen neue ProduktivitĂ€tsfaktoren zu dominieren.ob das derzeitige Gesetz der Grund fĂŒr die Verlangsamung der Technologieentwicklung ist oder ob neue ProduktivitĂ€tsfaktoren zu dominieren beginnen.ob das derzeitige Gesetz der Grund fĂŒr die Verlangsamung der Technologieentwicklung ist oder ob neue ProduktivitĂ€tsfaktoren zu dominieren beginnen.
Daher gibt es bis heute keinen eindeutigen bekannten Indikator, der:
- die jĂŒngsten LeistungsĂ€nderungen erklĂ€ren;
- Geben Sie Anleitungen zur Vorhersage der zukĂŒnftigen Leistung.
Die von den Autoren eingefĂŒhrte CLEAR-Metrik umfasst ProduktivitĂ€tsfaktoren aus einer Vielzahl von Technologieoptionen, die sowohl physische als auch wirtschaftliche EinschrĂ€nkungen umfassen. Die Hauptbehauptung der Autoren ist, dass die Faktoren, aus denen CLEAR besteht, nicht zufĂ€llig ausgewĂ€hlt werden, sondern fĂŒr technologische und wirtschaftliche Trends von grundlegender Bedeutung sind:
CLEAR = FÀhigkeit / (Verzögerung * Energie * Menge * Widerstand) [[MIPS / (s * W * mm3 *) $)]] (4)
oder im Original:
CLEAR = (FĂ€higkeit) / (Latenz * Energie * Menge * Widerstand) [[MIPS / (s * W * mm3 * $)]]
Die Autoren, die eine Formel fĂŒr den CLEAR-Indikator formuliert haben, bestimmen eine konstante Wachstumsrate wĂ€hrend der gesamten Entwicklung von Computersystemen, die das Leistungswachstum ĂŒber sieben Jahrzehnte um 4 GröĂenordnungen abdeckt. DarĂŒber hinaus hat sich die tatsĂ€chlich beobachtete Entwicklungsrate alle 12 Monate konstant verdoppelt. Diese 5-Faktor-Bewertung wird basierend auf dem Konzept von Leistung und Kosten bestimmt. CLEAR kann auf GerĂ€te-, Schema- und Systemebene angewendet werden.
Auf Systemebene ist CLEAR beispielsweise wie folgt strukturiert:
FÀhigkeit C ist die Systemleistung, die anhand des Produkts aus Millionen von Befehlen pro Sekunde (MIPS) und BefehlslÀnge gemessen wird.
minimale Verzögerung L.bezieht sich auf die Taktfrequenz und ist durch das Zeitfenster zwischen zwei benachbarten Taktzyklen begrenzt;
Energie E stellt den Energieverbrauch eines solchen Systems dar, um eine bestimmte Leistung zu erhalten, ausgedrĂŒckt in Watteinheiten;
Die GröĂe A reprĂ€sentiert das rĂ€umliche Volumen (dh die physikalische GröĂe) des Systems und ist eine Funktion der Prozessdimension;
Der Widerstand R quantifiziert den wirtschaftlichen Widerstand gegen die MarkteinfĂŒhrung neuer Technologien. GrundsĂ€tzlich verwenden die Autoren ein Wirtschaftsmodell, das auf der Erfahrungskurve der Boston Consulting Group (BCG) basiert und die Beziehung zwischen Gesamtproduktion und StĂŒckkosten erklĂ€rt (siehe hier ).
Die Autoren leiten eine lineare Beziehung zwischen der logarithmischen Skala der Einheit von Preis und Zeit ab und bestÀtigen diese Beziehung durch Vergleich der historischen Daten (siehe hier und hier ) mit CLEAR.
Die Autoren stellen fest, dass die MIPS-Metrik als MaĂ fĂŒr die Leistung aufgrund ihrer AnfĂ€lligkeit fĂŒr den zugrunde liegenden Befehlssatz durch Metriken wie Gleitkommaoperationen (FLOPS) ersetzt wird. CLEAR wurde im Laufe der Geschichte auf verschiedene Prozessorarchitekturen angewendet, fĂŒr die andere Leistungsmetriken in bekannten Benchmark-Suiten (wie SPEC oder LINPAC) nicht verfĂŒgbar sind. Um MIPS jedoch zu einer reprĂ€sentativen Leistungsmetrik zu machen, gewichteten die Autoren jeden Befehl mit seiner LĂ€nge (d. H. Multiplizierten ihn), wodurch die relative Gesamtmetrik in Bit / s angegeben wurde.
Trends bei der Entwicklung von Computersystemen
Nach dem Vergleich aller vier in Abb. 1 stellen wir fest, dass, wenn eine Metrik relevantere Faktoren enthĂ€lt, ihre anfĂ€ngliche Abweichung vom ursprĂŒnglichen Trend spĂ€ter auftritt. Im Gegensatz zu CLEAR, das die genaue Ăbereinstimmung der Daten in allem anzeigt. Wir stellen daher empirisch fest, dass die Rechenleistung mit einer festen Rate von etwa einer Verdoppelung pro Jahr stĂ€ndig wĂ€chst und unabhĂ€ngig von der Technologie ist. Wenn wir neue Rechenmaschinen testen, beispielsweise solche, die auf integrierter Photonik basieren, wie von IBM vorhergesagt (siehe hier ), stellen wir fest, dass solche Technologien den Entwicklungstrend der Entwicklung tatsĂ€chlich mit einem jĂ€hrlichen zweifachen Wachstum fortsetzen könnten (rote Sterne in Abb. 1).
DarĂŒber hinaus werden Sie feststellen, dass die relative Abweichung von der 2X / Jahr-Trendlinie zur Klassifizierung einer Computersystemmetrik verwendet werden kann. Beispielsweise zeigen die zusĂ€tzlichen Overhead-Kosten (d. H. Physische GröĂe, ParallelitĂ€t, KĂŒhlung, geringe Skaleneffekte und Herstellungskosten) auf Supercomputern die schlechtesten CLEAR-Werte im Vergleich zu allen anderen Computertypen wie Laptops und MobilgerĂ€ten höhere ProduktivitĂ€t (gepunktete Kreise, Abb. 1 c, d). Die hohe ParallelitĂ€t der in Supercomputern verwendeten Multicore-Technologien wurde durch die RĂŒckkehr von der Berechnung zu der im Amdahlschen Gesetz beschriebenen Energie in Frage gestellt (siehe hier)). Obwohl Supercomputer eine Petaflop-Leistung bieten, Ă€hnelt die gesamte Infrastruktur einer Computerinfrastruktur vor fĂŒnf bis dreiĂig Jahren, was die Skalierbarkeit der Zukunft in Frage stellt.
CLEAR-Analyse
Um ein detaillierteres VerstÀndnis der relativen Auswirkungen jedes der 5 CLEAR-Faktoren zu erhalten, zerlegten die Autoren den Indikator in gegensÀtzliche Einzelfaktoren, um die tatsÀchlichen treibenden KrÀfte im Laufe der Zeit aufzudecken.
Kombinationen von Faktoren, die in Fig. 1 verwendet werden. 2 stellen C gegen LEAR, CLE gegen AR und CLEA gegen R dar (Fig. 2, C = FĂ€higkeit, L = Verzögerung, E = Energie, A = Menge, R = Widerstand). ZusĂ€tzlich wird die Ausschlussrate C 'im Vergleich zu allen anderen Faktoren gezeigt, da der einzige Skalierungsfaktor in den frĂŒhen Jahren der Halbleiterindustrie die Anzahl der Komponenten auf einem Chip ist. Es ist wichtig zu beachten, dass die relativen Positionen jedes Datenpunkts wichtiger sind als die exakten Werte sowohl in der X- als auch in der Y-Achse. Daher werden beide Achsen auf eins normiert, sodass jeder Fall verglichen werden kann.
Da die blau und rot schattierten Bereiche lineare Wachstums- bzw. SĂ€ttigungsbereiche darstellen, können aufeinanderfolgende Drehpunktverschiebungen nach rechts leicht erfasst werden, wenn die Anzahl der fĂŒr die x-Achse berĂŒcksichtigten Faktoren (d. H. Die relative Zeit) zunimmt. Um dies zu verstehen, können die Faktoren auf der X-Achse als Antriebskraft des Indikators angesehen werden, wĂ€hrend die Werte auf der Y-Achse die tatsĂ€chlichen Verfolgungsbedingungen der betreffenden AntriebskrĂ€fte angeben. Folglich bedeutet eine lineare DomĂ€ne, dass Faktoren auf der X-Achse immer noch die Entwicklung der Technologie dominieren, wĂ€hrend sich die treibende Kraft der Technologie beim Eintritt in die SĂ€ttigungsdomĂ€ne auf andere Faktoren zu verlagern beginnt. Dieses Ergebnis stimmt mit der Beobachtung ĂŒberein, dass die Entwicklung eines Computersystems immer mit dieser konstanten Geschwindigkeit wĂ€chst und eine Diskrepanz mit dem Indikator nur dann auftritt, wennwenn andere treibende KrĂ€fte auftreten.
Abbildung 2. Analyse der Antriebskraft LĂSCHEN.
Der CLEAR-Indikator ist in vier Gruppen unterteilt, von denen jede aus zwei Teilen besteht: einem Koeffizienten, der Faktoren bei der Entwicklung der Technologie zeigt (X-Achse), und einem Offenlegungsfaktor, der die FĂ€higkeit zeigt, einen ausgewĂ€hlten Faktor oder eine Kombination von Faktoren (Y-Achse) zu verfolgen. Die Ergebnisse zeigen, dass eine spĂ€tere Abweichung von der normalisierten Entwicklung beobachtet wird, wenn mehr Faktoren berĂŒcksichtigt werden, um die Leistung von Computersystemen zu beschreiben. (a) schwer fassbare Geschwindigkeit C 'gegen Verzögerungsenergie-Mengen-Kosten (LEAR); (b) FĂ€higkeit C gegen Verzögerung-Energie-Menge-Kosten (LEAR); (c) FĂ€higkeit zur Verzögerungsenergie (CLE) gegenĂŒber Mengenkosten (AR); (d)Verzögerungs-Energie-Mengen-FĂ€higkeit (CLEA) gegenĂŒber Kosten R. Die X- und Y-Achse sind zum besseren Vergleich auf eins normiert. Lineare Wachstums- und SĂ€ttigungsbereiche sind mit blauen bzw. roten Schatten bedeckt.
Anwendung LĂSCHEN
Es ist wichtig, dass die FĂ€higkeit, die Entwicklung verschiedener Technologien nahtlos zu verfolgen, es CLEAR ermöglicht, zukĂŒnftige technologische Substitutionen vorherzusagen und den Standard fĂŒr zukĂŒnftige Technologien zu bestimmen, einschlieĂlich ihrer Hybridisierung beispielsweise zwischen Elektronik und Photonik (siehe hier , hier , hier und hier ).
Technologischer Wandel
In-Chip-photonische Verbindungen haben kĂŒrzlich eine hohe DatenĂŒbertragungskapazitĂ€t (ĂŒberlegen gegenĂŒber herkömmlichen elektrischen Verbindungen) gezeigt, wenn sie mit aktiven plasmonischen Vorrichtungen hybridisiert wurden (siehe hier ). WĂ€hrend optisches Datenrouting als mögliche Lösung zur Beseitigung von KommunikationsengpĂ€ssen zwischen Rechenkernen angesehen wird und hĂ€ufig in Rechenzentren und Supercomputern verwendet wird, muss die integrierte Photonik im Mainstream-Verbrauchersektor noch implementiert werden. Dies scheint zunĂ€chst ĂŒberraschend, da frĂŒhere Studien ĂŒberlegene Eigenschaften der Photon-Plasmon-Hybridisierung nahegelegt haben. Die Frage ist also, warum integrierte Photonik nicht in Massenmarktprodukten verwendet wird.
Um diese Frage zu beantworten, vergleichen wir CLEAR fĂŒr elektronische Bindungen mit hybriden Photon-Plasmon-Bindungen in AbhĂ€ngigkeit von der Evolutionszeit und der Signalausbreitungsentfernung (Abb. 3). Hier erfolgt die Manipulation des Lichts mit plasmonischen "aktiven" Bausteinen (Quelle, Modulator, Detektor, Schalter) (siehe hier und hier)), wĂ€hrend die Lichtausbreitung durch verlustarme Photonik auf der Basis von Silizium- oder Siliziumnitridplattformen verarbeitet wird. Die Elektronik wird mit dieser Variante eines Plasmon-Photon-Hybrids verglichen, da die Trennung von aktiver und passiver FunktionalitĂ€t in einem plasmon-photonischen Hybrid zu einer höheren Leistung fĂŒhrt (d. H. Geringere Latenz, höherer Durchsatz, geringere Energie pro Bit-Funktion). Die resultierenden OberflĂ€chenkurven zeigen, dass CLEAR-Elektronik und Plasmon-Photonik eine Break-Even-Linie (Schnittpunkt von OberflĂ€chen, Abb. 3) aufweisen, die sowohl zeitlich als auch in der Entfernung der Signalausbreitung skaliert ist. Interessanterweise ist die Elektronik auch heute noch mit einer ChipgröĂe von 1 cm bei der InformationsĂŒbertragungslĂ€nge der Photonik voraus.Daher wird Elektronik im Gegensatz zur Photonik immer noch kommerziell fĂŒr Kristalle verwendet. Investitionen und Entwicklungen in der Elektronik im letzten halben Jahrhundert haben somit technologische Nachhaltigkeit (Eintrittsbarrieren) fĂŒr andere Technologien geschaffen. Diese Skalierung hat dazu gefĂŒhrt, dass der Transistor nur ein Milliardstel der Kosten einer photonischen Vorrichtung oder weniger kostet.hier ). Abbildung 3. Vergleich der CLEAR-Indikatoren fĂŒr elektrische (blau) und hybride photon-plasmonische (rot) Verbindungen auf einem Chip in AbhĂ€ngigkeit von der LĂ€nge der Verbindung und dem Zeitpunkt der Technologieentwicklung. ChipgröĂe = 1 cm, VerbindungslĂ€nge und Schreibjahr (2019) sind rot markiert. Die folgenden Modelle wurden bereitgestellt. a) ein Modell der Bandbreite basierend auf der Anzahl der Transistoren und optischen GerĂ€te auf einem Chip, das als das ursprĂŒngliche Modell des Moore'schen Gesetzes angesehen werden kann; b) ein Energieeffizienzmodell basierend auf dem Kumi-Gesetz, das durch die Landauer-Grenze kB * T * ln (2) â 2,75 sJ / Bit begrenzt ist (kB ist die Boltzmann-Konstante; T ist die Temperatur); beim)
ein wirtschaftliches Nachhaltigkeitsmodell, das auf Modellen der technologischen Entwicklung bis 2019 basiert und nach dem die Kosten eines elektronischen Kanals weniger als eine Milliarde oder ein Millionstel der Kosten eines Hybridkanals betragen; d) ein ParallelitĂ€tsmodell (nach 2006), das die Multicore-Architektur und die EinschrĂ€nkungen von "dunklem Silizium" in elektrischen Verbindungen beschreibt. Der gelbe Punkt befindet sich an der Schnittstelle der beiden Technologien im Zeitraum von 2019, als die Hybrid-Plasmon-Photonics-Technologie gerade die GröĂe eines Chips erreicht hat und die beste CLEAR-Leistung auf einem Chip zu zeigen beginnt.
Wenn sich Technologie und Herstellungsprozesse verbessern, verringert sich die Break-Even-Distanz (dh CLEAR) fĂŒr die Ăbertragung kleiner Informationsmengen zu einem Preis aufgrund der flacheren Kostenkurve der Elektronik im Vergleich zur Photonik, wobei letztere einem Leistungsgesetz ĂŒber die Zeit folgt. DarĂŒber hinaus beginnen die Kosten mit der Skalierung der Dichte der elektrischen Verbindung zu steigen, was mit zusĂ€tzlichen Kosten aufgrund grundlegender physikalischer Probleme an Transistorknoten von weniger als 10 nm verbunden ist (siehe hier ). Im Gegensatz dazu ist eine hybride photon-plasmonische Verbindung derzeit aufgrund der beginnenden Skalierung, die das Ziel des American Institute for Integrated Photonics Manufacturing ( AIM Photonics) ist, kostspielig). Aufgrund der jĂŒngsten Fortschritte in der Nanophotonik ist jetzt eine Skalierung möglich. Das Konzept der Verbesserung der Wechselwirkung von Licht mit Materie ermöglicht die Erzeugung kompakter WellenlĂ€ngen in optoelektronischen Bauelementen mit den Vorteilen einer hohen Energieeffizienz und einer hohen Betriebsgeschwindigkeit aufgrund der geringen elektrischen KapazitĂ€t (siehe hier ). Infolgedessen wird erwartet, dass sich die Gewinnschwelle zwischen Elektronik und Hybrid-Photon-Plasmon-Technologien weiter verkĂŒrzt, wenn wir uns entlang der Zeitachse bewegen. Zum Beispiel ist der CMOS-basierte Silizium-Photonik-Chip, den IBM bereits 2015 demonstriert hat, kurz vor der Gewinnschwelle (siehe hier)). Integrierte Photonik kann Elektronik nur ersetzen, wenn die Geschwindigkeit ihrer CLEAR-Leistung dem allgemeinen Entwicklungstrend von Computersystemen entspricht.
Schlussfolgerungen
Wie aus den obigen Ăberlegungen hervorgeht, kann CLEAR nicht nur aufgrund seiner breiten hierarchischen Anwendbarkeit (GerĂ€te, Verbindungen, Systemebenen), sondern auch aufgrund seiner FĂ€higkeit, sich an eine bestimmte technologische Anwendung anzupassen, als universeller technischer und wirtschaftlicher Indikator angesehen werden. Zum Beispiel zur Netzwerkhybridisierung innerhalb eines Kristalls. CLEAR kann nicht nur als Leistungsmetrik verwendet werden, um die Entwicklung einer Technologieplattform vorherzusagen, sondern es ist auch möglich, die GesamtfĂ€higkeit der Technologieplattform (en) unter verschiedenen Verwendungsbedingungen zu vergleichen, indem jedem Faktor in Gleichung (4) Gewichte hinzugefĂŒgt werden .
In dieser ursprĂŒnglich vorgeschlagenen CLEAR-Metrik wirken sich alle fĂŒnf Faktoren linear auf den CLEAR-Wert aus. FĂŒr eine bestimmte Anwendung, die entscheidend von einem bestimmten Faktor (oder einer Kombination von Faktoren) abhĂ€ngt, kann jedoch jeder Faktor in CLEAR unterschiedlich gewichtet werden. Um die Vergleichbarkeit selbst unter solchen "abgestimmten" Metriken sicherzustellen, muss möglicherweise sichergestellt werden, dass die Summe aller Koeffizienten gleich 5 ist, Ă€hnlich wie bei der Normalisierung auf Eins, wie beispielsweise dem Integral der Wellenfunktion in der Quantenmechanik. Beispielsweise kann ein tragbares GerĂ€tesystem starke Energie- (E) und VolumenbeschrĂ€nkungen (A) aufweisen, was zu einer CLEAR-Metrik C 0,8 L 0,8 E 1,2 A 1,2 R fĂŒhrtfĂŒr solche Technologie. In der Tat wĂ€re es interessant, Trends aus verschiedenen abgestimmten Metriken mit der FĂ€higkeit zu vergleichen, Technologien in der Zukunft vorherzusagen.
DarĂŒber hinaus können wir zukĂŒnftige KommunikationskanĂ€le oder -netzwerke als dynamisch rekonfigurierbar wahrnehmen, sodass der Chip seinen idealen Betriebspunkt in AbhĂ€ngigkeit von der aktuellen Anwendung, Last, dem Leistungsmodus usw. Ă€ndern kann. Solche dynamischen datengesteuerten Systeme ( DDDAS)) sind aufgrund ihrer kombinierten kognitiven VerarbeitungsfĂ€higkeit gefragt. Es wird erwartet, dass die Anpassung von Computersystemen an eine Vielzahl von EinschrĂ€nkungen mit neuen informationstheoretischen Systemen wie neuromorphem und Reservoir-Computing zusammenwirkt, bei denen die Anpassung und Abstimmung von "Gewichten" maschinelles Lernen, RestkalkĂŒlarithmetik oder sogar eingebettete Siliziumphotonik des optischen Rechnens ermöglicht. (siehe hier , hier , hier und hier ).
Es ist auch erwĂ€hnenswert, dass CLEAR, wie es bei allen frĂŒheren prĂ€diktiven Leistungsmetriken fĂŒr Technologieplattformen geschehen ist, möglicherweise von seinem ursprĂŒnglichen Trend abweicht, wenn in der neuen Technologie einzigartigere physische Merkmale verwendet werden. GegenwĂ€rtig deckt CLEAR alle vorherrschenden Leistungsfaktoren in modernen Technologien angemessen ab, was es ermöglicht, die Entwicklung von Computersystemen zum Zeitpunkt dieses Schreibens genau vorherzusagen.
Somit kann CLEAR nicht nur ein Werkzeug zur Kartierung und Prognose von potenziellen Kunden sein, sondern auch den Weg fĂŒr hardwarebasierte intelligente und kognitive Computersteuerungsplattformen ebnen, bei denen Kompromisse zwischen Leistung und Kosten in Echtzeit ĂŒberprĂŒft und optimiert werden.
Infolgedessen kann CLEAR als neues Moore'sches Gesetz angesehen werden, das die Trends bei der Entwicklung von Technologien auf verschiedenen Ebenen der hierarchischen Anwendung ganzheitlich widerspiegelt.