Spricht man mit Experten über die aktuellen Prozessorgenerationen, gehen die Meinungen über die grundlegenden Architekturen ein gutes Stück auseinander. So bieten Arm-CPUs und GPUs zwar interessante technische Features, doch halten sie einem Kosten-Nutzen-Vergleich mit ihren x86-Brüdern und -Schwestern stand? Diesem Aspekt geht der heutige Beitrag ein wenig näher auf den Grund.
Eine Gegenüberstellung „Arm- versus x86-Prozessoren“ habe ich mir Mitte November letzten Jahres bereits gegönnt. In dem zugehörigen Blogpost konnte ich Aspekte wie Kompatibilität und Sicherheit näher betrachten. Das Fazit seinerzeit war recht eindeutig: Bestehende – aber auch künftige – Applikationen sind eher im Bereich der Standard-x86-CPUs zu finden. Weil Entwickler mit dieser Architektur vertraut sind, die Besonderheiten der Prozessoren besser und länger kennen und vieles mehr.
Aber auch bei der Sicherheit punkten speziell die Intel-CPUs der neueren Generation mit ihrer Intel SGX-Technologie. Damit lassen sich speziell Cloud-Anwendungen gut absichern, indem besonders sensible Daten in einer sogenannten Enklave vor fremden Zugriffen von außen geschützt werden.
Podcast-Tipp: Im Intel-Podcast spricht Markus Leberecht über sichere Cloud-Umgebungen.
x86-Anwendungen stehen in großem Umfang zur Verfügung
Diese und weitere Aspekte kommen immer dann ins Spiel, wenn von Kosten-Nutzen-Rechnungen die Rede ist. Egal, ob Betreiber von Rechenzentren oder Cloud-Infrastrukturen, alle haben vor allem drei Buchstaben im Visier: TCO, oder „Total Cost of Ownership“. Oder auf neudeutsch: Was kostet mich die Anschaffung eines Zentralrechners, und zwar inklusive aller Zusatz- und Folgekosten? Dazu zählt in Fällen wie einem neuen Hochleistungsrechner nicht nur die blanke Hardware, sondern auch das Betriebssystem, die darauf benötigten Programme, die Wartung, die Schulung der Mitarbeiter, und so fort.
Empfehlung >>Videoblog: " Die agile Softwareentwicklung spiegelt unsere Gesellschaft ganz gut wider"Damit wird relativ schnell klar, dass x86-Systeme in vielen Fällen einem vergleichsweise genauso leistungsfähigen Gerät in Sachen TCO überlegen sind. Selbst wenn auf einem Arm- oder ähnlichem Prozessorsystem die vorhandenen Anwendungen und Betriebssysteme lauffähig sind, kann man doch davon ausgehen, dass bestimmte Anpassungen vorzunehmen sind. Das betrifft vor allem Applikationen, die bestimmte Funktionen der x86-Plattform nutzen, die entweder gar nicht oder nur eingeschränkt auf dem alternativen Rechnersystem vorhanden sind.
Beispiele gefällt? Dazu gehören spezielle KI-Funktionen wie Intel Deep Learning Boost, genauso wie maßgeschneiderte Bibliotheken wie Intel OpenVINO, die das Optimum aus der jeweiligen Programmierumgebung herausholen.
x86-Systeme bieten von Anfang an eine steile Lernkurve
Neben der hohen Kompatibilität und dem guten Support nützlicher Funktionen und Tools, bieten x86-Systeme unter Kosten-Nutzen-Aspekten einen weiteren Vorteil: Ihre Lernkurve ist recht steil. Denn IT-Administratoren bewegen sich auf bekanntem Terrain, sei es aus technologischer oder technischer Sicht. So sind die meisten Admins mit x86-Systeme „aufgewachsen“, benötigen also keine langen Vorlaufzeiten, um sich in das neue System hineinzudenken. Und die Pflege und den Support desselben können sie ebenfalls vom ersten Tag an übernehmen, selbst wenn der neue Hochleistungsrechner mit noch eher unbekannten Features ausgestattet ist.
Empfehlung >>Das war der E&U Virtual Summit von Atos und Google CloudCISC-Systeme weisen einen besseren Multiplattform-Ansatz als RISC-Rechner auf
Neben diesen eher technischen Kompatibilitätsaspekten kommt noch ein weiterer Gesichtspunkt ins Spiel, der für CISC-Systeme auf x86-Basis spricht. So ist ein CISC-Befehlssatz zwar ein wenig mächtiger als sein RISC-Pendant, auf dem die meisten Arm-Systeme basieren. Jedoch, und da kommt der Begriff Multiplattform ins Spiel, macht diese Vielfalt an CPU-Befehlen die Kraft einer solchen Plattform aus.
Denn damit lassen sich Applikationen, die dem CISC-Befehlssatz zugrunde liegen, schneller und müheloser auf einer Vielzahl an unterschiedlichen Rechnersystemen installieren und ausführen. Weil sie eben dieselben bekannten Befehle nutzen. Und das ist gerade in Zeiten verschmelzender Rechenzentren- und Cloud-Systemen ein erheblicher Vorteil. Auch hier bekommt der Begriff TCO eine ganz neue Relevanz. Denn Systeme, auf denen Applikationen ohne größere Anpassungen lauffähig sind, nehmen schneller und effektiver ihren Betrieb auf. Und das freut nicht nur die Abteilung „Rechnungswesen“.
Disclaimer: Für das Verfassen und Veröffentlichen dieses Blogbeitrags hat mich die Firma Intel beauftragt. Bei der Ausgestaltung der Inhalte hatte ich nahezu freie Hand.
Freue mich, wenn Sie den Beitrag teilen!
Tipps, um Ihre elektrische Installa...
Unternehmen im Kreis Pinneberg : Wa...
Maintal wird durch neue WLAN-Hotspo...
Neue U-Bahn-Werkstatt und -Waschhal...