Unfälle. Für manche ist alles, was passiert, ein bloßer Unfall. Und jemand behauptet, dass es keine Unfälle gibt. Sie können viele Stunden lang über dieses Thema philosophieren und streiten, aber es wird immer noch viele Schlussfolgerungen geben. Wenn wir von metaphysischen zu realeren Gedanken übergehen, können wir sehen, dass Zufallszahlen in vielen Aspekten unseres Lebens Anwendung gefunden haben: von Spielautomaten bis zu Informationscodierungssystemen. Der Prozess, bei dem eine Folge von Zufallszahlen / Symbolen erzeugt wird, die nicht vorhergesagt werden kann, wird als Zufallszahlengenerierung (RNG) bezeichnet. Im Laufe der langen Geschichte der Menschheit wurden viele RNG-Methoden entwickelt. Einige sind recht einfach und unkompliziert: Würfel, Münzen (Kopf / Zahl), ein Kartenspiel usw.
Andere verwenden viel komplexere physikalische Prozesse: Beispielsweise ist aufgrund der hochfrequenten Bewegungen von Elektronen der elektrische Widerstand des Drahtes nicht konstant, d.h. variiert zufällig. Durch Messen dieses Hintergrundrauschens kann eine Folge von Zufallszahlen erhalten werden. RNG-Techniken beschränken sich jedoch nicht nur auf die Physik. Eine Gruppe von Wissenschaftlern der Schweizerischen Hochschule Zürich (kurz ETHZ) hat eine neue Methode zur Erzeugung von Zufallszahlen auf Basis der DNA-Synthese entwickelt. Wie genau wurde dies erreicht, wie zufällig werden die Zahlen erhalten und können sie vorhergesagt werden? Die Antworten auf diese Fragen erwarten uns im Bericht der Wissenschaftler. Gehen.
Grundlagen der Forschung
Was ist eine der Hauptbeschränkungen von Würfeln als Zufallszahlengenerator? Die Tatsache, dass diese Zahlen nicht so hoch sein werden (36 Kombinationen von Würfeln, wenn übertrieben, d. H. Ohne Wahrscheinlichkeiten und andere Dinge). Je weniger Variationen wir haben, desto einfacher ist es, das mögliche Ergebnis vorherzusagen. Für eine komplexere und folglich sichere Codierung auf der Basis von RNG ist es daher erforderlich, dass die generierten Zahlen größer sind und sie selbst komplexer sind. Dies ist eine sehr vereinfachte Erklärung, die jedoch das Wesentliche der Sache vermittelt.
Varianten von Kombinationen von zwei WĂĽrfeln.
Daher ist die Verwendung dieser physikalischen Prozesse, die nicht genau vorhergesagt werden können, zur Grundlage vieler moderner RNG-Methoden geworden. Es sei jedoch daran erinnert, dass es zwei Hauptbereiche von RNG gibt - die Erzeugung von Zufallszahlen (wirklich zufällig) und Pseudozufallszahlen. Im ersten Fall wird eine nicht deterministische (chaotische) Quelle verwendet, um Zufallszahlen zu erzeugen. Die zweite erzeugt eine deterministische Folge von Zahlen, die von der Eingabe (Startwert) abhängt. Wenn der eingegebene Startwert bekannt ist, kann die gesamte Folge von Zufallszahlen reproduziert werden. Auf den ersten Blick scheint das Pseudo-RNG weniger effizient zu sein, aber diese Methode hat bessere statistische Eigenschaften und kann häufig Zufallszahlen viel schneller als das RNG erzeugen.
Es liegt auf der Hand, dass nicht nur physikalische Prozesse oder Softwarealgorithmen, sondern auch chemische Reaktionen zur Erzeugung wirklich zufälliger Zahlen geeignet sind. Einerseits sind chemische Reaktionen statistische Prozesse, bei denen die Bildung chemischer Produkte in Abhängigkeit von der Aktivierungsenergie der Reaktion einer bestimmten Wahrscheinlichkeitsverteilung folgt. Andererseits ist die Fähigkeit, einzelne Moleküle nach der Synthese zu identifizieren, praktisch Null, obwohl das Ergebnis der Reaktion statistisch vorhergesagt werden kann.
Die Verwendung von Chemie zur Erzeugung von Zufallszahlen wurde bereits erforscht. Zum Beispiel in dieser Arbeitbeschreibt ein Gerät, das einen beeindruckenden Entropiepool nachweisbarer Makrostaten wachsender Kristalle im Verlauf chemischer Reaktionen bietet. Das Problem ist, dass die Unfähigkeit, einzelne Moleküle zu identifizieren, zu einem Verlust der Zufälligkeit bei der Analyse stochastischer chemischer Prozesse führt. Mit anderen Worten, chemische Reaktionen scheinen für RNGs nicht geeignet zu sein. Wie die Autoren der Arbeit, die wir heute betrachten, erklären, ist die Situation bei der DNA-Synthese jedoch völlig anders.
Die synthetische DNA-Produktion ist ein stochastischer chemischer Prozess mit einem wichtigen Vorteil: Einzelne Moleküle in der synthetisierten DNA-Sequenz können mithilfe moderner Sequenzierungstechnologien (NGS aus der Sequenzierung der nächsten Generation) leicht identifiziert und analysiert werden). Die Sequenzierung selbst gibt es seit den 1970er Jahren, aber aktuelle Techniken ermöglichen es Ihnen, einzelne Moleküle zu lesen und somit DNA als Quelle für die Erzeugung von Zufallszahlen zu verwenden.
Forschungsergebnisse
Es sollte beachtet werden, dass in der Biologie Verfahren zur Identifizierung der globalen Schemata einer mikrobiellen Komponente die Synthese zufälliger Nukleotide an bestimmten Primerpositionen erfordern, um hypervariable Regionen (zum Beispiel für das 16S-rRNA-Gen) für die taxonomische Klassifizierung zu bewerten. Andere Anwendungen der zufälligen Nukleotidsynthese finden sich in der Strichcodierung, bei der mit Hilfe molekularer eindeutiger Identifikatoren (UMI eindeutiger molekularer Identifikatoren ) die Verdrängungsamplifikations- PCR * eliminiert werden kann .
Polymerasekettenreaktion (PCR) * - eine Methode, mit der Sie einen signifikanten Anstieg kleiner Konzentrationen bestimmter Fragmente von Nukleinsäure (DNA) in biologischem Material erzielen können.Wissenschaftler stellen fest, dass solche zufälligen Nukleotide mit dem Buchstaben N gekennzeichnet sind (gemäß den NC-IUB-Standards, d. H. Dem Nomenklaturkomitee der internationalen Gemeinschaft für Biochemie). Folglich nutzten die Wissenschaftler die Gelegenheit, für jede Position, die durch den Buchstaben N im Design der verwendeten DNA angegeben ist, ein zufälliges Nukleotid zu synthetisieren.
Bild Nr. 1 Die
in der Studie verwendeten DNA-Stränge wurden so entworfen, dass eine zufällige Region von 64 Nukleotiden aus einer vorbestimmten Region des Vorwärtsprimers * an einem Ende und einer vorbestimmten Region des Rückwärtsprimers am anderen Ende fließt (1).
Primer * ist ein kurzes Nukleinsäurefragment.Die Gesamtlänge des manipulierten DNA-Strangs betrug 105 Nukleotide, einschließlich zweier Primerregionen und einer zufälligen Region.
Bild Nr. 2 Der
entworfene DNA-Strang wurde später mithilfe moderner Festkörpersynthesetechnologien physikalisch implementiert (Bild Nr. 2).
Das Mischen der Bausteine ​​von DNA-Nukleotiden hat auch im Bereich der DNA-Speicherung Anwendung gefunden. Frühere Studien haben gezeigt, dass die Erweiterung des * DNA- Alphabets durch erste Bestimmung des Mischungsverhältnisses aller vier DNA-Nukleotide an bestimmten Positionen in der DNA-Sequenz die logische Speicherdichte erhöhen kann, indem zusammengesetzte Buchstaben für die DNA-Synthese verwendet werden.
* — : A ( ), T (), G () C ().Die zufälligen DNA-Sequenzen wurden dreimal synthetisiert: zweimal von Microsynth und einmal von Eurofins Genomics . Das erste Unternehmen erhielt die zusätzliche Aufgabe, Bausteine ​​vor dem Zusammenführen zu mischen (Synthese 1). Das zweite Unternehmen produzierte die Synthese ohne zusätzlichen Eingriff in den Prozess (Synthese 2).
Als Ergebnis ergab Synthese 1 204 & mgr; g getrocknete DNA, die aus der 3'- bis 5'-Richtung synthetisiert wurde. Um die Zufälligkeit zu bestimmen, wurde ein DNA-Pool sequenziert und anschließend digital gefiltert.
Wenn Sie die Zusammensetzung von DNA-Strängen als Funktion der Position in einer zufälligen Region betrachten (Bild 3), sehen Sie zwei allgemeine Trends:
- : G , A C;
- : A C 60 , G 5' 3', T 5' 3'. Microsynth ( ), Eurofins ( ).
Bild 3 Die
beobachteten Trends geben einen ersten Hinweis auf die Zuverlässigkeit der Daten und können teilweise durch die chemischen Prozesse erklärt werden, die während der DNA-Synthese auftreten. Die Diskrepanz zwischen dem Prozentsatz der Nukleotide G, T und A, C (Nukleotid-Ungleichwertigkeit) kann durch mehrere Faktoren verursacht werden. Laut Microsynth werden die Volumina einzelner Bausteine ​​während der Synthese nicht auf den nächsten Mikroliter genau gesteuert.
Folglich können Konzentrationsunterschiede zu einer weniger gleichmäßigen Verteilung der Nukleotide entlang der Kette führen. Darüber hinaus ist die Effizienz der Bindung für jeden Baustein unterschiedlich und hängt von Variablen wie der Verwendungsdauer der Reagenzien für die Synthese durch die Hersteller oder den an jeden Baustein gebundenen Schutzgruppen ab. Das Ergebnis der unterschiedlichen Bindungseffizienz ist höchstwahrscheinlich mit der ungleichmäßigen Verteilung der vier Nukleotide verbunden.
Eine Abnahme von G und eine Zunahme von T von 5 'auf 3' (Nichtäquivalenz von Positionen) kann das Ergebnis eines chemischen Verfahrens sein, das der DNA-Strang während der Synthese durchläuft. Während die DNA-Synthese in der 3'-5'-Richtung abläuft, werden die Nukleotide an Position 60 (Bild 3) zuerst dem DNA-Strang hinzugefügt. Da die synthetisierten DNA-Fragmente in der Synthesekammer verbleiben, bis die gewünschte Länge des DNA-Strangs erreicht ist, verbleiben die zu Beginn der Synthese dem DNA-Strang zugesetzten Nukleotide am längsten in der Syntheseumgebung. Somit haben diese Nukleotide die meisten Syntheseschritte und daher die meisten Oxidationsschritte durchlaufen.
Dieses Leistungsmerkmal der chemischen DNA-Synthese kann eine Erklärung für Trend Nr. 2 (Positionsungleichäquivalenz) sein, wenn die G-Zusammensetzung entlang der Kette in 5'-3'-Richtung abnimmt und die T-Zusammensetzung in 5'-3'-Richtung zunimmt.
Die Oxidation kann zu einem Phänomen führen, das als G-T-Transversion ( 3e ) bezeichnet wird und bei dem die G-Base chemisch so verändert wird, dass sie während der DNA-Replikationsschritte durch eine T-Base ersetzt werden kann.
Zusätzlich zu den oben beschriebenen Trends können Unterschiede in den Kurven in den Diagrammen mit Unterschieden verbunden sein in einer Synthesestrategie (mit und ohne Mischen von Bausteinen).
Es gibt zwei potenzielle Hauptquellen für Verzerrungen, die sich auf die Ergebnisse auswirken können: Abdeckungsverzerrungen (bei denen einige der untersuchten Elemente außerhalb des ROI liegen) und Verzerrungen aufgrund von Fehlern.
Die erste Option wird hauptsächlich durch einen Fehler ausgedrückt, der mit der räumlichen Anordnung auf dem Synthesechip und der Stochastizität der PCR verbunden sein kann. Die zweite Option ist das Ergebnis von Insertionen, Deletionen (chromosomale Umlagerungen, wenn ein Teil des Chromosoms verloren geht) oder Substitutionen fehlerhafter Nukleotide während der Synthese-, PCR- und Sequenzierungsschritte.
In dieser speziellen Studie beeinflusst die Bedeckungsverzerrung die Verteilung der Nukleotide nur dann, wenn eine signifikante Diskrepanz zwischen der Bedeckung jeder zufälligen Sequenz besteht. Die Analyse der Daten zeigte jedoch, dass diese Variante des Fehlers nicht die Ursache für die beobachtete Nichtäquivalenz von Nukleotiden und Nichtäquivalenz von Position sein kann.
In Bezug auf die Verzerrung aufgrund von Fehlern ist es äußerst schwierig, zwischen Synthese- und Sequenzierungsfehlern zu unterscheiden, da die beiden Prozesse nicht vollständig getrennt werden können, da der Zugang zur molekularen Morphologie der DNA nur durch DNA-Sequenzierung möglich ist. Studien haben jedoch gezeigt, dass bei entsprechender Datenverarbeitung Sequenzierungsfehler an zufälligen Orten auftreten.
Während der DNA-Synthese kann das Wachstum von Strängen unterbrochen werden, bis die gewünschte Länge erreicht ist, und somit einen Fehler im Pool verursachen. Der Sequenzierungsprozess zeigte jedoch keinen signifikanten Effekt auf das Ergebnis ( 3a - 3c ). Daher wird eine Verzerrung aufgrund von Fehlern ausschließlich durch den Prozess der DNA-Synthese und nicht durch die Sequenzierung verursacht.
Durch Normalisierung der Synthese 1 ( 3a ) wurde eine Wärmekarte erhalten, die das Vorherrschen der Bindung von zwei Nukleotiden ( 3d ) veranschaulicht . Außerdem können Sie den dritten Fehler erkennen: das Überwiegen der Nukleotidbindung.
Die Bindung einer einzelnen Base an ein vorhandenes Nukleotid hängt teilweise von der Art des vorhandenen Nukleotids ab: Es ist weniger wahrscheinlich, dass G an A bindet, wenn es frei ist, an A, T, C oder G zu binden; Darüber hinaus ist es wahrscheinlicher, dass G an G bindet, wenn es frei an A, T, C oder G binden kann.
Unter dem Gesichtspunkt der Synthese kann diese Ungenauigkeit ganz einfach korrigiert werden. Beispielsweise können Sie anstelle von G mehr T-Blöcke hinzufügen (wodurch sich das Zielverhältnis der A-, G-, T- und C-Nukleotide ändert), wodurch die Vorspannung durch Transversion erhöht wird.
Aufgrund der Komplexität dieses Prozesses beschlossen die Forscher jedoch, im Rahmen der Studie keine "physischen" Änderungen vorzunehmen, sondern einen rechnergestützten Nachbearbeitungsalgorithmus zu verwenden, um die während der DNA-Synthese entstandenen Verzerrungen zu beseitigen und die Zuverlässigkeit und Reproduzierbarkeit des gesamten Verfahrens zu erhöhen.
In der Phase der Datenverarbeitung (d. H. In der Phase der Vorbereitung des RNG) wurde der aus Synthese 1 (Microsynth) erhaltene Pool verwendet. Obwohl diese Variante die stärkste Verschiebung zeigt, die sich aus der Umwandlung ergibt, zeigen die glatten Kurven das gleichmäßigste Mischen und Verbinden während der Syntheseschritte.
Das Lesen der Zufälligkeit von synthetisierten DNA-Strängen erfordert das Lesen einzelner Stränge, was mittels Sequenzierung durchgeführt wurde (in diesem Fall wurde das iSeq100-System verwendet). Nach der Sequenzierung wurden die Ausgabedaten (digitale Datei) verarbeitet, um die richtigen (d. H. Keine Fehler) Sequenzen aus dem Pool auszuwählen.
Zu den möglicherweise aufgetretenen Fehlern gehören Lösch-, Einfüge- und Ersetzungsfehler. Sie können dazu führen, dass der DNA-Strang zu kurz oder zu lang ist oder eine beschädigte Base enthält. Um die Auswirkung von Fehlern (insbesondere Fehlern aufgrund von Deletion) auf die Zufälligkeit zu minimieren, wurden alle Sequenzen auf 60 Nukleotide reduziert. Aus den erhaltenen Strängen wurden nur diejenigen ausgewählt, die die richtige Länge zufälliger Nukleotide enthielten.
Nachdem der Pool computergestützter DNA begrenzt war (nur Sequenzen mit einer Länge von 60 Nukleotiden), wurden die DNA-Nukleotide unter Verwendung des folgenden Schemas auf Bits abgebildet: A → 0, C → 0, T → 1, G → 1. Als Ergebnis wurde der digitalisierte DNA-Strang wurde in binär konvertiert.
Die nach dem Abgleich erhaltenen Bitstrings (Bitströme) wurden anschließend unter Verwendung der statistischen NIST-Testsuite auf Zufälligkeit überprüft. Wissenschaftler behaupten, dass ihre Methode zur Bewertung der Chancen äußerst schwierig war: Die Sequenz wurde nur dann als ausreichend zufällig angesehen, wenn alle Tests separat erfolgreich bestanden wurden (wenn mindestens ein Test fehlschlug, wurde die Sequenz ausgeschlossen).
Die Auswertung der anfänglichen Bitströme unter Verwendung der statistischen NIST-Testsuite ergab, dass nicht alle Tests erfolgreich bestanden wurden. Dies bedeutet, dass die resultierenden Bitströme nicht die gleichen statistischen Eigenschaften wie eine vollständig zufällige Sequenz haben, d.h. Sie enthalten immer noch Redundanz und Voreingenommenheit. Daher war eine zusätzliche Bitverarbeitung erforderlich, um die Verschiebung zu beseitigen, die im Stadium der DNA-Synthese aufgetreten war.
Um das Problem der Verschiebung der Ausgangsbits zu lösen (wenn einige Zahlen größer sind als andere), entschieden sich die Wissenschaftler für den von Neumann-Algorithmus. Der Algorithmus betrachtet die Bits nacheinander paarweise und führt dann eine von drei Aktionen aus: Wenn zwei aufeinanderfolgende Bits gleich sind, werden sie entfernt (ignoriert); die Folge "1, 0" wird in eins umgewandelt; Die Folge "0, 1" wird in Null umgewandelt.
Im Rahmen dieser Studie wurde erwartet, dass der von Neumann-Algorithmus wie folgt funktioniert:
- Wenn die Eingabe "0, 1" oder "1, 0" ist, wird die erste Ziffer zur Ausgabe, und die zweite Ziffer wird verworfen.
- Wenn die Eingabe "0, 0" oder "1, 1" ist, erfolgt keine Ausgabe, sodass beide Eingangsziffern verworfen werden.
Einer der größten Nachteile dieser Methode ist der große Datenverlust: Etwa 75% der Eingabedaten werden aufgrund ihres Betriebs verworfen. Folglich muss der Eingang groß genug sein, um weitere Verluste auszugleichen.
Bild 4
Der Effekt der Offset-Nivellierung (Diagramm oben) ist deutlich sichtbar, wenn der Unterschied zwischen den Rohbitströmen (mit Offset) und den verarbeiteten Bitströmen (ohne Offset) analysiert wird.
Die kumulative Summe jedes rohen Bitstroms (jeweils 60 Nukleotide lang) und jedes verarbeiteten Bitstroms (jeweils weniger als 60 Nukleotide lang) wurde berechnet, indem jede 0 zu "-1" und jede 1 zu "1" zugewiesen wurde. Ferner wurden alle Bitströme ohne Versatz zu einem Bitblock zusammengefasst.
Wissenschaftler stellen fest, dass obwohl der Datenverlust signifikant ist (mehr als 75% aller Bits gehen verloren) und die Recheneffizienz ziemlich niedrig ist (die durchschnittliche Datenausgaberate ist viermal langsamer als die durchschnittliche Dateneingaberate), die Beseitigung der Vorspannung perfekt durchgeführt wurde (am Ausgang ist die Vorspannung vollständig abwesend).
Der nach der Verarbeitung mit dem von Neumann-Algorithmus erhaltene Bitblock wurde ĂĽber das NIST-System neu bewertet.
Tabelle 1: Statistische NIST-Testergebnisse.
Alle verarbeiteten Bitströme haben die statistischen NIST-Tests mit einer bestandenen Punktzahl von> 54/56 für jeden Test bestanden, was das statistisch erforderliche Minimum (52/56) überschreitet. Eine weitere Auswertung des Bitstroms ergab, dass der P-Wert ≥ 0,001 ist. Daraus folgt, dass die Sequenz mit einem Konfidenzniveau von 99,9% zufällig ist.
Bild 5
Das obige Diagramm ist ein vollständiger Prozess zur Erzeugung von Zufallszahlen mithilfe der DNA-Synthese. Wie wir uns erinnern, wurden als Ergebnis der Synthese 204 μg DNA erhalten, was ungefähr 4 × 10 15 DNA-Strängen entspricht. Der Prozess der Synthese dieser DNA-Menge dauert etwa 8,75 Stunden, und die Produktionskosten betragen etwa 100 US-Dollar.
Die trockene DNA-Probe enthält eine theoretische Entropie von 28 PB (wenn die Daten keine Verzerrung aufweisen) und 7 PB Zufälligkeit, wenn der Versatz unter Verwendung des von Neumann-Algorithmus entfernt wird (d. H. Nach 75% Bitverlust). Im Gegensatz zum Speichern von Daten unter Verwendung von DNA ist die Synthese selbst daher kein Engpass (ein leistungsbegrenzender Faktor) bei der Zufallszahlengenerierung, da sie Zufälligkeit mit einer Rate von 225 Gigabyte pro Sekunde zu einem Preis von 0,000014 USD / GB erzeugen kann.
Die Sequenzierung ist jedoch im Gegenteil ein Engpass in Bezug auf Zeit und Kosten der Verarbeitung. Das in dieser Arbeit verwendete iSeq-System verfügt über effizientere Optionen (z. B. NovaSeq 6000), mit denen in 36 Stunden bis zu 20 Milliarden Sequenzlesevorgänge ausgeführt werden können. Die finanziellen Kosten sind beeindruckend (22.000 US-Dollar). Unter Berücksichtigung aller Stufen des RNG kann das Ergebnis daher mit einer Geschwindigkeit von 300 Kilobyte pro Sekunde zu einem Preis von 600 USD pro GB erzielt werden. Durch die Kombination mehrerer Synthese- und Sequenzierungsläufe können die Kosten gesenkt werden.
Um die Nuancen der Studie genauer kennenzulernen, empfehle ich Ihnen, den Bericht von Wissenschaftlern und zusätzliche Materialien zu lesen.
Epilog
Zufallsgeneratoren gibt es schon seit Tausenden von Jahren (die ältesten im Iran gefundenen Würfel sind etwa 5200 Jahre alt), auch wenn die damaligen Menschen ihr volles Potenzial nicht kannten. Moderne Technologie und wissenschaftlicher Fortschritt haben es ihnen ermöglicht, komplexe Algorithmen und Geräte zu entwickeln, die Zufälligkeiten erzeugen können, die eine Person nicht vorhersagen kann. Wenn die Person jedoch zurückfällt, holt die Technologie auf. Mit anderen Worten, wo es eine Chiffre gibt, gibt es auch einen Entschlüsseler. Daher führt die schrittweise Verbesserung der Informationscodierungsverfahren, bei denen Zufallszahlengeneratoren verwendet werden, zu einer parallelen Verbesserung der Verfahren zum Hacken solcher Systeme. Dieses endlose Rennen von Schlössern und Schlössern erfordert, dass beide Seiten ständig neue Methoden entwickeln.
Viele moderne RNGs basieren auf physikalischen Prozessen und Algorithmen. Chemische Reaktionen standen jedoch viele Jahre lang am Rande, da angenommen wurde, dass sie keine verlässliche Grundlage für ein RNG darstellen könnten. In dieser Arbeit haben Wissenschaftler gezeigt, dass die DNA-Synthese als chemischer Prozess nicht nur eine würdige Version der Basis für ein RNG sein kann, sondern auch seine "physikalischen" Konkurrenten in vielen Aspekten übertreffen kann.
Natürlich ist diese Methode immer noch ein Rohdiamant, der in Form zusätzlicher Forschung gemahlen werden muss, um die Produktivität zu steigern und die Kosten zu senken. Dennoch ist die Erzeugung von Zufallszahlen mittels DNA derzeit eine äußerst vielversprechende Richtung.
Vielen Dank fĂĽr Ihre Aufmerksamkeit, bleiben Sie neugierig und haben Sie eine gute Arbeitswoche, Jungs.
Ein bisschen Werbung
Vielen Dank für Ihren Aufenthalt bei uns. Gefällt dir unser Artikel? Möchten Sie weitere interessante Inhalte sehen? Unterstützen Sie uns, indem Sie eine Bestellung aufgeben oder Freunden Cloud-VPS für Entwickler ab 4,99 US-Dollar empfehlen , ein einzigartiges Analogon von Einstiegsservern, die wir für Sie erfunden haben: Die ganze Wahrheit über VPS (KVM) E5-2697 v3 (6 Kerne) 10 GB DDR4 480 GB SSD 1 Gbit / s ab 19 $ oder wie teilt man den Server richtig? (Optionen verfügbar mit RAID1 und RAID10, bis zu 24 Kernen und bis zu 40 GB DDR4).
Ist Dell R730xd 2x im Equinix Tier IV-Rechenzentrum in Amsterdam billiger? Nur wir haben 2 x Intel TetraDeca-Core Xeon 2x E5-2697v3 2,6 GHz 14C 64 GB DDR4 4 x 960 GB SSD 1 Gbit / s 100 TV von 199 US-Dollar in den Niederlanden!Dell R420 - 2x E5-2430 2,2 GHz 6C 128 GB DDR3 2x960 GB SSD 1 Gbit / s 100 TB - Ab 99 US-Dollar! Lesen Sie, wie Sie die Infrastruktur von bldg aufbauen. Klasse mit Dell R730xd E5-2650 v4 Servern fĂĽr 9000 Euro fĂĽr einen Cent?