Des Apfels Kern: ARM oder x86?

Die Freundschaft zwischen Intel und Apple ist fest und unumstößlich. Nicht einmal Apples Wahl, das ARM Designs für das phoniPod zu nutzen, konnte Intel davon abbringen, neue CPUs vorab durch Apple auszuliefern. Das ist so und bleibt so bis in alle Ewigkeit. Das geht so weit, das Apple jetzt an einer eigenen x86er Implementation arbeiten darf und eigene x86er Chips entwickeln und fertigen darf. Oder etwa nicht?

Die Frage ist müßig, weshalb das x86er Design so viel Strom in Wärme umwandeln muss, weshalb die Dies so groß sind. Liegt es am Microcode? An Intel? An der Gesamtsituation? Der Atom zeigt zwar, es geht im Prinzip auch sparsamer, jedoch ohne die Integer-Leistung die man bisher von Intel gewohnt war. Und die Kunden kaufen trotzdem! Doch es geht noch sparsamer, und selbst Microsoft sieht sich genötigt Windows 8 für ARM CPUs fit zu machen. Klappt das? Kaum eine ARM-CPU gleicht einer anderen, jeder kann eigene Erweiterungen zum Kern hinzufügen. Ein Albtraum für Kernel-Entwickler wenn man keinen Linux-Kernel einsetzt.

Und nun kommt der nächste Paukenschlag mit vorgesetzten Crescendo: Apple sucht CPU Designer die Kerne implementieren können!

So toll ist die Neuigkeit nun nicht, schließlich hat Apple bereits mit PA-Semi eine Prozessor-Schmiede gekauft, mit Instrinsity jemanden, der Design optimiert. Und man sollte auf keinen Fall vergessen, das Apple als Mitglied von AIM selbst einmal erfolgreich CPUs mit entwickelt hat. Doch man ist im Vor-CES Hype und Apple benötigt dringend Presse-Präsenz. Also mahlen die Mühlen der Gerüchte.

Laut semiaccurate - Evidence points to Apple designing ARM laptops wurden die Stellenausschreibungen nicht etwa von der phoniPod-Fraktion ausgegeben, sondern stammen aus der Macintosh Abteilung. Keine Frage, die Stellen dürften für die Mac Books, die demnächst mal wieder erneuert werden, noch viel zu früh kommen. 4 bis 10 Jahre dürften vergehen, bis der Samen Früchte hervorbringt. Doch bei Apple weiß man nie, wie lange der Samen schon keimt. Und welcher? Ein eigenes ARM- oder ein eigenes x86er-Design? Welche Grafikeinheit kommt dazu? Welche Funktionseinheiten?

Was soll man aus den Stellenausschreibungen heraus lesen? Apple hat zwei Design-Teams aufgekauft und via Head-Hunter einen fähigen Mann (Papermaster) eingestellt. Apple hat auch viele Leute aus den Teams verloren, Papermaster, Dobberpuhl, und Andere. Sucht man hier Leute, um ein Produkt abzurunden? Oder Leute um ein neues Produkt zu erschaffen?

Wie sehen CPU Dies aus, wenn die Produkte auf den Markt kommen? Schon heute beherbergt das Die neben den "Rechenwerken" auch die Speicheranbindung, Schnittstellen-Logik und Grafik. x86er neben der eigentlichen CPU noch mehr oder weniger einen Emulator, Microcode. x86er CPUs werden komplett in Software emuliert (qemu). Wäre es undenkbar, das eine Entsprechung von qemu mit auf den Die wandert? Wird das eine ebenso selbstverständliche Funktionseinheit werden, wie die FPU, Vektor-Einheit, Cache und Speicheranbindung?

Egal. Displays werden billiger. Ich kann mir gut vorstellen, das die Premium-Marke Apple einen 25 bis 33cm Laptop heraus bringt, der zugeklappt, als ARM-Tablet aka iPaddle funktioniert, aufgeklappt entsprechende Applikationen auf den selben Daten per Intel-CPU nutzt. Oder das steckbare Display mit ARM-Kern kann abgezogen und als iPaddle genutzt werden, während der eigentliche Laptop weiter läuft und das Display per VNC gestreamt wird. Wenn ich ehrlich bin, erwarte ich aber etwas noch besseres, wirklich innovatives von Apple. Und da liegt Apples Problem: Egal was man bringt, in der Vorstellung der Mac-Fanatiker ist es bestenfalls eine milde Enttäuschung.

Kommentare

Darstellungsoptionen

Wählen Sie hier Ihre bevorzugte Anzeigeart für Kommentare und klicken Sie auf „Einstellungen speichern“ um die Änderungen zu übernehmen.

Noch nie war ein

Noch nie war ein Hardwareemulator sinnvoll. Auf Dauer haben die Software Emulatoren immer die Leistung der Hardwareemulatoren übertroffen, da zusätzlich der Programmcode nach einer bestimmten Zeit meistnativ ist, ist es grundsätzlich sinnfrei einen Hardwareemulator auf den Die zu packen.

x86 hat dieses strukturelle Problem, was sich nur durch Abkehr vom x86 Befehlssatz lösen läßt. ARM ist auch nicht der Weisheit letzter Schluß, da gibt es sinnvoller RISC Architekturen. MIPS, SPARC oder auch Power wären eine bessere Wahl.

Programmierbar?

Vielleicht ersinnt man ja einen LLVM ByteCode Prozessor als MicroCode-Implementation vor dem RISC Design. Darf man das Ergebnis im L3 ablegen, kann man es auch effektiv wieder verwenden. Mal als blöde Idee.

Andere RISC Architekturen haben ein Problem. Ich kenne keine die weit unter 1Watt Abwärme sinnvoll funktioniert, ausser ARM. ARM hadert dafür mit 64bit. Ist aber in weiten Grenzen konfigurierbar.

Mit dem Tegra2 Fieber, das die Auto-Branche erfaßt hat, seh ich sogar die embbeded PowerISA verlieren. Bei Power.org wird es ruhiger und ruhiger.

Ist es nicht letztendlich Intel vs. ARM?

RISC, CISC und LLVM

Es ist vollkommen egal wie man diesen Zwischencode nennt. Entscheidend ist, daß jede Form von Microcode die Ausführung verlangsamt und die Transistorzahl nach oben treibt. Der große Vorteil eines RISC Prozessors ist die fixe Wortlänge, die selten und dann auch nur wieder in Form von ganzzahligen Vielfachen übertroffen wird. CISC ist dagegen das totale Chaos, da kann man keine schlanken Befehlsdekoder implementieren. Intel wird in absehbarer Zeit mit den x86 Design vom Markt verschwinden, da sie mit Erreichen der absoluten Minimums nicht mehr mit viel Geld einen Vorsprung in der Strukturgröße werden aufrechterhalten können.

Apropos: IBM hatte den PPC405LP im Programm, der war für Handy, PDAs und Co. vorgesehen und hat nur 500mW Peak benötigt.

Zu ARM: die sind ja ganz nett, aber an absoluter Leistung kommt einfach nichts herüber.

TraceCache & Co

Hallo,

[quote]Darf man das Ergebnis im L3 ablegen, kann man es auch effektiv wieder verwenden. Mal als blöde Idee.[/quote]
Das macht Intel schon so. (Beim P4 wars der Trace-Cache beim Nehalem der gabs es dann den Loop Stream Detector, zugegeben eher klein, und bei Sandy Bridge nun den den uOp-Cache für 1500 uOps).

Weit unter einer 1W Abw'rme gibt es IMHO auch bei anderen Architekturen, aber eben bei entsprechend mäsiger Performance. Und ganz unter 1W schaffen es m.W. auch die Cortex A* nicht, wenn man nicht nur den Kern alleine nimmt (ebenso wie bei der Konkurzne). Aber es stimmt schon ARM war immer ziemlich vorne dabei.

Bis dann

R"udiger

"Apple setzt nicht auf Intel wegen des x86-Befehlssatzes, sondern weil sie bei Intel keine eigene Hardware für den "Mac" entwickeln "

Nö. Apple nimmt Intel, damit Windows auf den Apple-PC's läuft.

Und was die zukünftigen Produkte aus dem Hause Apple angeht: Apple ist heute mit den i-Dingsdas da wo man vor knapp 10 Jahren (mein Gott, wie die Zeit vergeht) mit dem Mac auch schon war. Pseudo-exklusive, proprietäre Geräte, die gegen immer mehr "Standard"-Konkurrenz antreten müssen. Damals war's WinTel, heute ist es Google's Android, demnächst auch auf Tablets. Und wenn schon die Apple-verliebten Jungs von arstechnica dem Androiden auf Tablets gute bis sehr gute Noten ausstellen, wird's für Apple eng (http://arstechnica.com/gadgets/reviews/2011/01/galaxy-tab-review-android...). In spätestens einem halben Jahr hat Android - wie bei den Smart Phones - iOS überholt. Und ganz ehrlich, der Unterschied zwischen dem was ein iPhone oder ein Android-Smartphone kann ist gleich null oder geht sogar klar für die Androiden aus, zumindestens wenn man Preis und leistung in's Verhältnis setzt. Und es sind eben die Server-Dienste, die Google bietet, denen Apple nix aber auch gar nix entgegenzusetzen hat.

Apple ist derzeit eine riesige Blase, und irgendwann macht's bumm.

Der Wunsch...

ist wohl Vater des Gedankens, dass Arstechnica dem Galaxy Tab "gute bis sehr gute Noten" ausstellt. Die Bewertung des Galaxy Tab im Artikel als "grobe Skizze" welche "mangelhaft", aber wenigstens kein Schrott, wie billige Android-Tabletts ist, lässt diese Interpretation des Textes kaum zu.

Davon abgesehen halte ich einen vergleich des übergroßen Smartphones Galaxy Tab mit dem beinahe vollwertigen Computer iPad für ziemlich sinnfrei.

Zum Thema Windows auf Apple-PC-Hardware siehe unten.

Verschiedenes

Dass Apple CPU Designer sucht, die Kerne implementieren können, ist nichts neues. Das habe ich hier in den letzten Jahren schon mehr, als einmal erwähnt. Auch, dass diese in der Mac-Abteilung angesiedelt sind, ist nicht neu. Auch PA Semi ist in die Mac-Hardware-Abteilung eingegliedert worden, nicht in die Device-Hardware-Abteilung (Aussage von Papermaster).

Job-Angebote, die auf einen CPU-Kern hinweisen, hat Apple schon vor dem Kauf von PA Semi gepostet. Damals war die Beschreibung des Aufgabenbereichs aber noch etwas verklausuliert, sodass nur vermutet werden konnte, dass es sich wirklich um CPU-Kern-Design handeln kann. Dass es sich um CPU-Kern handeln musste, konnte man nur erkennen, wenn man sich darüber im Klaren war, dass es beim "Mac", vielleicht nicht kurzfristig, aber zum mindesten auf mittlere Sicht, die Notwendigkeit gibt, von der absolut ungeeigneten Intel-Hardware wegzukommen. Dass es mit Intel zu dem Stillstand kommen würde, zu dem es gekommen ist, war damals schon abzusehen.

Dass die x86-Dies so groß sind im Vergleich zu ARM hat verschiedene Gründe. Der x86-Translator macht aber einen großen Teil aus. Ein Blick auf den Floorplan des Bobcat (z.B. hier) zeigt, dass die Behauptung, dass die x86-Übersetzung nur einen nicht mehr nennenswerten Teil des Prozessors ausmacht, falsch (gelogen) ist. Die x86-Translationseinheit ist beim Bobcat in etwa so groß, wie die Integrer Recheneinheit und das Microcode-ROM noch einmal so groß, wie die FPU. Im Vergleich dazu ist die Decoder-Einheit eines modernen Prozessors auf dem Floorplan praktisch nicht auszumachen, weil zu klein. Auf die Fläche, die ein x86-Kern einnimmt passen also schon mindestens eineinhalb Prozessorkerne mit einer modernen Architektur bzw. die doppelte Anzahl an Recheneinheiten.
Ein Bobcat-Kern ist übrigens nur halb so groß, wie ein Atom-Kern.

Im Vergleich zum x86 besitzt die ARM-Architektur nur eine geringe Zahl von Erweiterungen. Im Gegensatz zum x86 gibt es hier auch keine konkurrierenden Erweiterungen für die gleiche Anwendung (z.B. die ersten Versuche eines SIMD-Erweiterung von Intel und AMD namens MMX und 3Dnow oder die "Virtualisierungstechnologie" genannten Erweiterungen, die verschiedene Bugs im x86-Befehlssatz umgehen sollen, die Zugriff von User-Prozessen auf einen Hypervisor ermöglichen, von Intel und AMD).

Ein x86 wird der eigene Apple-Kern ganz sicher nicht werden. Der einzige Vorteil, den Apple derzeit mit Intel hat, wäre dahin. Apple setzt nicht auf Intel wegen des x86-Befehlssatzes, sondern weil sie bei Intel keine eigene Hardware für den "Mac" entwickeln müssen. Da, wo sie mit Intel alleine nicht weiterkommen, hilft dann nVidia aus.
Außerdem wird in einigen der Job-Anzeigen von einer modernen Prozessorarchitektur gesprochen, womit x86 rausfiele.

Meiner Meinung nach war einer der Gründe für den Wechsel auf Intel, dass die Developer (allen voran Adobe) auf Linie gebracht werden sollten. Mit Intel ist CarbonCFM weggefallen, dann mit 64bit-Intel Carbon (Mach-O) als GUI-Umgebung. Mit dem Mac-App-Store ist gerade die dritte Stufe gezündet, wer kein reines Cocoa benutzt, nicht die vorgegebenen Installations-Tools etc. kommt nicht in den App-Store für "PC-Programme" (Zitat Jobs). Adobes derzeitige Produktreihe z.B. ist, so, wie sie zur Zeit aussieht, nicht für den App-Store qualifiziert, da sie auf AIR setzt.

Das neue AppleTV zeigt, was möglich ist, wenn man statt auf Intel zu setzen, auf anständige Hardware setzt. Das Gerät ist gleicher Leistung günstiger und sparsamer als sein Vorgänger und daher auch ein Verkaufserfolg. Das wird wohl nicht das einzige Produkt bleiben, bei dem Apple von Intel weg wechselt. Wenn Sie aber wieder eigenen Hardware entwickeln, bleiben nur die vielen Nachteile, die die verkorkste x86-Architekur im Vergleich zu einer modernen Prozessorarchitektur besitzt.

Übrigens ist die Tabelle in dem semiaccurate-Artikel falsch. Zwischen dem Prozessor im iPhone 3GS und dem A4 gibt es, was die Produktentwicklung betrifft, keinen Unterschied. D.h. beim A4 müsste genauso, wie beim 3GS-Prozessor das Feld "Core Layout" gelb sein (und das Feld SoC-Design müsste grün sein, denn schon beim 3GS-Prozessor stammte das SoC-Layout von Apple). Der Unterschied liegt lediglich darin, dass Apple erstmals den Prozessor offiziell als Apple-Prozessor bezeichnet. Aus technischer Sicht ist das nur interessant als Ausblick für zukünftige Produkte.
Außerdem finde den Sprung vom Thema "CPU-Kern-Designer werden für die Mac-Hardware-Abteilung gesucht", zu den CPUs der iDevices im Artikel etwas abwegig.

Nadelstiche

Erst mal vielen Dank für die Infos und deine Ansichten.

Der Vorteil von Intel war, dass man auf der Apple Hardware auch Windows installieren kann. Ich denke, gerade am Anfang, direkt nach dem "Switch" war das ein Killer-Kriterium. Apple baute zwar schöne Computer, aber konnte man Vertrauen in Apple setzen? Das war relativ Problemlos, wenn man sich klar machte, das die damals durchaus potente Hardware ohne Probleme mit Windows lief. Wenn also Apple sein Versprechen nicht gehalten hätte, oder die Software fehlt, dann eben Windows. Man verlor höchstens "80 - 150" Mücken für eine Fenster-Lizenz, mehr nicht.

Was Apple ingesamt zugute kommt, ist jedoch das die Ansprüche der Nutzer sich gewaltig gewandelt haben. War früher das einzige Credo Wintel-Kompatibel, ist es heute: "Läufts im Browser"

Apple hat davon profitiert, das Microsoft die Leitkultur verloren hat. Dank Firefox. Die Anbieter waren gezwungen, wenn nicht offene Standards, dann zumindest für einige Browser zu optimieren. Und eben nicht nur für den IE.

Und so gehen heute die Konsumenten davon aus, das man alles machen kann, solange ein Browser läuft. Das eröffnet ganz andere Möglichkeiten. Und nachdem die Konsumenten an den App-Store gewöhnt wurden, kann man das Prinzip nun auf den PC übertragen und die Hardware damit vom x86er Stigma befreien. Denn mit dem vorgeschriebenen Entwicklungssystem ist eben eine "Transition" Möglich, ohne das der Konsument davon etwas mit bekommt.

Ich bin gespannt, wie die Reise weiter geht.

Windows

Ich möchte Dich und Benutzerplutzer an der Stelle noch einmal daran erinnern, dass es Anfangs nach dem Switch gar nicht möglich war, Windows auf der Apple-PC- (aka Intel-"Mac"-) Hardware zu installieren. Das dafür nötige CSM-Modul wurde erst ein viertel Jahr nach dem Switch per Firmware-Update nachgerüstet.

Nein, Apple setzt nicht auf Intel wegen der Möglichkeit Windows zu installieren. sondern weil Apple so keinen Cent in Hardware-Entwicklung für den "Mac" stecken muss.
Dass man Windows auf einem Intel-"Mac" installieren kann, ist eher ein Nebeneffekt, der von Apple ursprünglich gar nicht gewünscht war. Man hatte ja sogar die Firmware soweit angepasst (sprich: trotz Nutzung von Intels Tianocore EFI-Frameworks, in dem das CSM eigentlich intrgiert ist, das CSM weglassen) um dem Kunden weiszumachen, dass er trotz Intel immer noch ein "besonderes" Stück Hardware bekommt, keinen pissnormalen Standard-PC. Ihr seid ja auch drauf reingefallen, ich erinnere mich gut die Einführung von mcnix (Zitat "nicht ganz alltägliche Plattform").

Das CSM und damit die Möglichkeit, Windows zu installieren, wurde von Apple auch erst nachgerüstet, nachdem die ersten Hacks (rEFIt) rauswaren, die die Installation von Windows ermöglichten. Ich bin mir ziemlich sicher, dass man bei Apple nicht glücklich darüber war, dass das diese Hacks nur wenige Monate nach Erscheinen des Intel-"Macs" raus waren, denn das CSM-Modul haben die ganz sicher mit Absicht weggelassen.

Naja

Dass "anfangs nach dem Switch" vieles nicht möglich war liegt einfach daran, daß der Intel-Switch aus reiner Not schnellstens durchgeprügelt werden musste, weil weiterer Zeitverzug dazu geführt hätte, daß selbst der letzte Dödel die "Argumente" von Herrn Jobs (performance pro Watt - eine echte Lachnummer) als das entlarvt hätte was sie waren. Dann hätte es nämlich die neuen G4's, G5's und diverse andere PowerPC-Prozessoren (7448, MPC8641D, 970FX, neue G5, Pwrficient) im Massenmarkt gegeben, neben denen die Kreationen aus dem Hause Intel selbst für die Apple-DAU's erbärmlich ausgesehen hätten. Ich erinnere an den Test des Core Solo Mac Mini in der c't, der die Redakteure damals kopf-schüttelnd zurückließ mit der Frage, was das denn bitte soll.

Und das erste was dann pronto nachgeliefert wurde war - Boot Camp. Was'n Zufall. Wer mal den Vergleich der Profi-Applikationen (vor allem natürlich Adobe CS) auf beiden Plattformen hat wird OS X schnellstens dahin treten wo es gehört.

Nein.

So schnell dahin geprügelt war der Switch nicht. Da ist nichts aus reiner Not passiert. Der war schon auf langer Hand geplant.
Ganz im Gegenteil ist der Switch ja sogar um ein halbes Jahr vorgezogen worden. Ursprünglich wurde der Wechsel auf der WWDC 2005 angekündigt für Mitte 2006 und sollte sich dann hinziehen bis Ende 2007. Tatsächlich erschienen aber die ersten Geräte im Januar 2006 und der letzte Mac (der PowerMac G5) wurde im Oktober 2006 durch einen Intel-PC abgelöst.

Das CSM (Compatibility Support Module, es stellt das bekannte BIOS-Interface bereit), welches für den Start von Windows notwendig ist, wurde mit Absicht weggelassen. In dem Framework, das Apple für EFi benutzt, ist dieses standardmäßig enthalten. Das Framework stammt von Intel und wird auch von Intel für die eigenen Boards verwendet. Dort ist das CSM das Standardmodul, welches immer geladen wird, sodass man gar nicht merkt, dass diese Boards ein EFI haben und kein reines BIOS ohne EFI-Aufsatz.

Das CSM wurde in der Absicht weggelassen, dass eben kein Windows installiert werden kann. So ist das Gerücht entstanden, welches sich auch hartnäckig hält, dass ein Intel-"Mac" kein ganz normaler Standard-Windows-PC sei, sondern besondere Hardware von Apple (die nur irgendwie Intel-Technik verwendet).
Das CSM wegzulassen war Teil der großen Kundenverarschung, wie die von Dir angesprochene Performance-pro-Watt-Lüge, die gefakten Benchmarks, mit denen die Intel-Dinger als x-fach schneller verkauft wurden, obwohl sie im echten Leben kaum schneller oder gar langsamer sind etc.

Die Möglichkeit, Windows zu installieren hat man auch mit Absicht weggelassen, denn sie bedeutet ein hohes Risko für Apple. Wenn Windows auf der Hardware läuft, kann das bedeuten dass Software-Hersteller das als Argument nehmen, dass sie keinen Mac-OS-X-Port ihrer Software herstellen müssen, denn die läuft ja auch so auf einem "Mac". Seit dem Wechsel zu Intel weist Apple dieses Risiko in jedem seiner Geschäftsberichte aus.

Boot Camp ist gar nichts. Boot Camp ist nur ein Assistent, der die Festplatte partitioniert (eine Funktion, die im System eh schon vorhanden ist) und eine (nicht mal notwendige, da Standard-Intel-Hardware) Treiber-CD brennt. Das einzig wichtige Stück Software in Boot Camp ist das Startvolume-Kontrollfeld für Windows, das dafür sorgt, dass der Computer mit einem einzigen Klick wieder Mac OS X startet und nicht Windows oder eine Boot-Auswahl o.ä..
Die Wahl des Namens "Boot Camp", mit seiner durchaus negativen Konnotation, ist wohl auch kein Zufall. Nach dem Motto, Windows auf einem "Mac" zu installieren ist Schinderei und eine Qual.

Davon abgesehen war Boot Camp über ein Jahr lang nur als Public-Beta-Software erhältlich und wird erst seit August 2007 mit Leopard bei einer Standard-Installation des Systems automatisch mit installiert (außer bei einem Intel-"Mac" mit Mac OS X Server, da gibt es kein Boot Camp).

Switch-Plan

> So schnell dahin geprügelt war der Switch nicht. Da ist nichts aus reiner
> Not passiert. Der war schon auf langer Hand geplant.
> Ganz im Gegenteil ist der Switch ja sogar um ein halbes Jahr vorgezogen
> worden. Ursprünglich wurde der Wechsel auf der WWDC 2005 angekündigt
> für Mitte 2006 und sollte sich dann hinziehen bis Ende 2007. Tatsächlich
> erschienen aber die ersten Geräte im Januar 2006 und der letzte Mac
> (der PowerMac G5) wurde im Oktober 2006 durch einen Intel-PC abgelöst.

Ganz so kann ich das nicht nachvollziehen. Damals gab es einige Ungereimtheiten, die auch heute nicht geklärt sind. Während Apple mit den G5 auf 64bit setzte und das bereits ausgeschlachtet hatte, setzte man bei Intel, obwohl dort die Core 2 Duos angekündigt waren, noch schnell auf die 32bit-Systeme. Ob das der miniMac mit dem unsäglichen Core Solo war, oder die iMacs mit dem Core Duo, ohne die 2.

Wieso hatte Apple den Schrott auf den Markt geworfen, vorgezogen und entgegen dem Plan, wenn man plangemäß eigentlich die Core 2 Duos hätte einsetzen können und den Switch damit völlig unangreifbar hätte machen können?

Fürchtete sich Apple, das IBM mit einem verbesserten PowerPC dem Switch die Show stehlen würde? Ich gehe zwar davon aus, das IBM das in Hardware hätte machen können, wenn man gewollt hätte. Aber mit welchem OS?

War es nur die Angst, das die Kundschaft nicht so lange warten würde und sich inzwischen Windows-Kisten gekauft hätte? Die Kundschaft, die danach noch lange die PowerPCs gepflegt hatte, damit man die Adobe Suite nutzen konnte?

Ungereimtheiten

Ich sehe da keine großen Ungereimtheiten mehr. Sobald klar war, dass man den vorhandenen x86-32-bit-Kernel auch für x86-64-Hardware verwenden konnte, wurde der Switch begonnen und größtenteils im Rahmen des normalen Produktzyklus (bis auf iMac und 15"-PowerBook) durchgezogen um schnell die Mac-Hardware-Entwicklung einzustellen.

Die reine Not

Die ersten x86-Entwickler-Systeme, die Apple zur verfügung stellte liefen noch mit Pentium IV-Prozessoren. Da war nix mit 64 bit. Und es gab ja sogar noch kleine Upgrade-Firmen (Daystar, wenn ich mich nicht irre), die den 7448 in Powerbooks/Powermacs eingepflanzt haben, was auch deutlich mehr Performance brachte. Gibt's auch immer noch zu kaufen, zumindest für die Powermacs. Und die Dual-Core G4, Low-power-G5 und notebook-taugliche 970FX waren ja auch schon verfügbar + Pwrficient am Horizont. Es mussten also entweder neue PPC-Macs her (was den Switch verhindert hätte, denn das wäre dann wirklich eine Lachnummer gewesen) oder eben der Intel-Switch durchgeprügelt werden.

Vielleicht bringt wikileaks ja mal "Was Sie schon immer über den Switch wissen wollten" - interessiert aber nicht mehr wirklich.

Nein.

Die Developer Tansition Kits waren mit einem Pentium IV 660 Prozessor bestückt. Der hat eine 64-bit-Erweiterung. Im Gegensatz zu den zuerst in den Intel-"Macs" eingesetzten Core-Prozessoren.
Ich denke, dass die Entscheidung, schon mit dem Core statt später mit dem Core 2 an den Markt zu gehen, gefallen sein könnte, als die Intel-Ingenieure, die den Kernel portiert haben, den Bug gefunden haben, der es ermöglicht, wie beim PowerPC einen 32-bit-Kernel im 64-bit-Modus laufen zu lassen, obwohl das eigentlich beim x86 gar nicht möglich sein sollte. Damit war klar, dass es für Apple keinen Unterschied macht, ob der erste Intel-Prozessor 32- oder 64-bit ist, denn sie konnten trotz fehlender 64-bit-Erweiterung mit dem Switch anfangen und dann auch für die 64-bit-Systeme beim 32-bit-Kernel bleiben. (Einen 64-bit-Kernel gibt es für Mac OS X erst seit Snow Leopard und auch nur optional.)

Dass bzw. ob neue PowerPC-Prozessoren verfügbar waren, ist irrelevant, solange Apple die nicht verbaut.

Verschiedene Macs mit PowerPC-Prozessoren sind gerade mal ein paar Monate vor dem Switch erschienen, nachdem der Switch schon angekündigt war:
Der iMac G5 iSight ist im Oktober 2005 erschienen und wurde schon im Januar 2006 durch ein Intel-Gerät abgelöst. (Technisch sind die beiden Geräte übrigens absolut identisch, bis auf das Mainboard und den Rückdeckel wegen der anderen Verteilung der Anschlüsse auf dem Mainboard. Ansonsten werden in beiden Geräten die selben Teile verwendet).
Das letzte PowerBook und der PowerMac G5 Quad sind auch erst im Oktober 2005 eingeführt worden Der PowerMac lief aber länger, weil der Mac Pro erst im August 2006 eingeführt wurde. Interessant übrigens, dass gerade die High-End Geräte als letztes auf Intel umgestellt wurden.

Zwei Seiten des Erfolgs

Du magst ja durchaus Recht haben, mit den Gründen, weshalb Apple sich an Intel band. Mittelfristig war klar, das Intel immer "schnelle" Prozessoren liefern wird und nach den Desasters mit den 500MHz Freescales (ebenso bei den 1000er nochmals kurz) und IBMs 3GHz Debakel, an dem wohl nur Apple allein Schuld ist, verstehe ich durchaus den Wunsch mal auf absehbare Zeit keinen Ärger mit dem Prozessor zu haben.

Zum Erfolg gehören aber immer zwei Seiten. Es genügt nicht, was der Hersteller anbietet. Gefragt ist auch, was der Anwender erwartet. Vielleicht ist es Wunsch, aber ich bin der festen Überzeugung, das etliche Leute sich einen Intel-Mac gekauft haben, weil es zum einen tolle Geräte waren, man, falls Apple scheitert, aber mit Windows auf der Hardware weiter arbeiten kann. Bei meinem Zahnarzt stehen 3 iMacs Core Duo auf denen Windows läuft. ;-)

Die Gründe, die Apple zu Intel bewegten und die Gründe weshalb das ein Erfolg bei den Konsumenten wurde, müssen nicht Deckungsgleich sein.

Dumm nur,

dass Apple sich mit dem Wechsel zu Intel wieder Ärger mit dem Prozessor eingehandelt hat. Im Vergleich zu dem Stillstand, der seit dem Wechsel zu Intel herrscht, ging es zum G4- und G5-Zeiten zügig voran.

Der derzeitige Erfolg des "Macs" beim Konsumenten hat auch nichts mit dem Wechsel zu Intel zu tun. Das ging schon 2004, also vor dem Wechsel zu Intel los und nur ein einstelliger Prozentsatz hat überhaupt Windows in irgendeiner Form auf seinem "Mac" installiert (auf PowerPC-Macs gab es prozentual mehr Installationen von Virtual PC, als es jetzt Installationen von Parallels und VMWare auf Intel-"Macs" gibt; wg. dem veränderten User-Profil weg von den Profi-Anwendern). Der derzeitige Erfolg des "Macs" hat in erster Linie etwas mit dem iPod zu tun und dem damit einhergehenden Imagewandel für Apple.

Ich glaube kaum, dass Dein Zahnarzt die iMacs gekauft hat und ist dann auf Windows gewechselt ist. Er hat sicherlich die iMacs wegen des Gehäusedesigns gekauft, in der Absicht gekauft, die ausschließlich unter Windows zu betreiben. Glücklicherweise für Apple machen das die allerwenigsten. Eine Plattform lebt von der Software-Unterstützung. Wenn alle (oder ein großer Prozentsatz) "Macs" nur gekauft würden, um darauf Windows zu betreiben, wäre das der Tod der Mac-Plattform.

BTW. wurde heute auf der Microsoft-Keynote offiziell Windows 8 für ARM angekündigt und auf einer anderen Keynote hat nVidia angekündigt, dass man mit ARM-SoCs in den Desktop- und Server-Bereich vorstoßen will.

Entwicklungsgeschwindigkeit

dass Apple sich mit dem Wechsel zu Intel wieder Ärger mit dem Prozessor eingehandelt hat. Im Vergleich zu dem Stillstand, der seit dem Wechsel zu Intel herrscht, ging es zum G4- und G5-Zeiten zügig voran.

Sorry, das stimmt so aber nicht.
Mit dem Core2 hatte Intel mit G5 gleichgezigen, bzw. schon einen kleinen Vorsprung (FPU-Code war auf dem G5 schneller, branchy Code auf dem Core2, wobei in letzterem Fall der Unterschied sogar etwas größer war). Und das bezieht sich alles auf eignen Code jeweils mit dem aktuellesten gcc (wobei sich bei beiden Plattformen seit dem gcc 4.0 nicht viel getan hat).

Der Core i7 9xx ist dann aber ein großer Schritt gegenüber dem Core2 (Danke SMT ca. eine Faktor 2!). Nicht zuletzt weil es die erste konsequente AMD64-CPU von Intel ist (Beim Core2 gingen einige Performance verbessernde Tricks nur im 32bit-Mode und trotzdem war der 64bit Mdoe schon etwas schneller).

Umgekehrt ist der Fortschritt bei IBM auch nicht größer. so dass IBM mit ihren HighEnd-CPU (heute dem Power 7) ca. eine Faktor 2 Vorsprung auf Intel hat. Wieviel davon davon bei einem Power 7lite ankäme (der ursprüngliche G5 war ja auch ein gutes Stück schwächer als der Power 4) und wann man diesen kaufen könnten (sofern Apple weiterhin PPCs verbauen würde), sind auch noch offene Fragen.

Stillstand gibt es bei Intel allenfalls was das festhalten an x86 bzw. AMD64 angeht. Aber darum herum machen die Intel-Ingenieure einen verdammt guten Job. (Was könnten diese auf einer sauberen Architektur leisten)

Intel wird auch auf absehbare Zeit weiter Performanceverbesserungen liefern müssen. Zum einen treibt AMD (wenn auch momentan etwas gebremst), zum anderen müssen sie schneller werden, um weiterhin CPUs zu verkaufen. Und das gibt es nur zwei Richtungen: Sparsamer oder schneller, wobei sparsamer indirekt schneller mit einschließt (einfach die sparsam CPU entsprechend hochtakten und schon hat man schneller).

So traurig es ist, PPC hat den Desktop verloren. wenn PPC den Desktop zurück gewinnt, dann via Abstraktionen wie Java, LLVM oder .Net, mit allen Performanceeinbußen die damit verbunden sind. Aber nativ, wird es wohl keinen PPC-Desktop mehr geben.

Bis dann

R"udiger

Nein

Wenn man sich einfach die Steigerung der Werte bestimmter Benchmarkergebnisse im gleichen Zeiträumen von G4-, G5- und Intel-basierter Macs ansieht, kann man feststellen, dass sich die Entwicklung mit Intel im Vergleich zur PowerPc-Zeit deutlichst verlangsamt hat.

Die Werte stiegen beim PowerBook z.B. innerhalb 1000 Tagen auf das zweieinhalbfache, während sie sich beim MacBook pro im gleichen Zeitraum nicht einmal auf das anderthalbfache stiegen. Noch krasser ist es beim MacBook da gibt es seit Intel eine Steigerung von insgesamt vielleicht 30%, die Geschwindigkeit des iBooks steigerte sich in der halben Zeit um 50%. Beim MacPro ist die Steigerung zwar insgesamt in etwa die gleiche, wie beim PowerMac G4 und G5. Beim MacPro entsteht diese Steigerung aber nur durch Vervielfachung der Kerne, während sich bei den PowerMacs noch die Geschwindigkeit der einzelnen Kerne steigerte.
Wenn du magst, kann ich Dir die entsprechenden Tabellen und Graphen für Geekbench-Ergebnisse schicken.

Die geringen Steigerungen sind kein Phänomen der Zeit, sondern einfach ein Problem, dass Apple sich mit dem Wechsel zu Intel eingehandelt hat. Bei den POWER-CPUs hat sich in der Zeit, in der sich bei Intel die Geschwindigkeit nur durch Erhöhen der Zahl der Kerne verbessert hat, auch die Geschwindigkeit pro Kern deutlich erhöht. Bei ARM geht's auch steil bergauf, während es beim x86 gar nicht mehr voran geht.

Das Strohfeuer, dass Anfang/Mitte der 2000er beim x86 gebrannt hat, ist langst abgebrannt.
Geschwindigkeitssteigerungen beim x86-PC gibt es eigentlich nur noch bei den Grafik-Prozessoren. Nicht umsonst setzt Apple beim MacBook statt auf Core-i immer noch auf Core-2-Prozessoren, die sie mit schnellerer integrierter Grafik von nVidia kombinieren können.

Doch

Hallo,

Ich hab mir mal die Mühe gemacht nachzurechen:

PowerPC G3:
========================================

Gestartet 1997 mit maximal 300 Mhz
Zuletzt verbaut 2002 mit 1 Ghz

Macht 1.73 mal eine Verdopplungder Leistung, nach Moores Law also ca 3.5 Jahre. Es hat aber in Wahrheit 4-5 Jahre beracht.

PowerPC G4
========================================

Gestartet 1999 mit (effiektiv) maximal 400 Mhz
zuletzt verbaut 2004 mit 1.67 GHz (7447)
oder 2005 mit 2 Ghz (7448)

Macht 2.32x eine Verdopplung der Leistung, nach Moores Law etwa 4.5 Jahre. Kommt besser hin, hinkt aber immer noch hinterher.

PowerPC G5
======================================

Gestartet 2003 mit maximal 2 GHz
zuletzt verbaut 2005 mit 2x2.5 GHz

Macht 1.32x eine Verdopplung der Leistung, nach Moores Law etwa 2.5 Jahre. Passt ziemlich genau, vielleicht sogar etwas besser wegen des großerem Caches. Aber gefühlt war die Leistungsteigerung in dieser Zeit geringer, da die Taktraten nahezu stagnierten und man noch steigende Taktraten gewohnt war.

Vergleich von G3 gegen G5 auf Basis von RGBench
==================================================

Ich nehmen hier mal meine eignene Rechner als Referenz:

PowerMac G3 B&W 350 MHz G3 von 1999 (CPU aber wohl seit 1998 verfügbar): 475 Punkte

PowerMac Quad G5: 2x4400 Punkt pro CPU.

Macht eine Leistungssteigerung pro CPU von 18.5. fach, d.h. 4.2 x eine Verdoppelung, oder nach Moores Law ca. 8.5 Jahre. Ergo es lief etwas besser als Moores law (ca. 1 Jahr Vorsprung). Dieser ist dann aber den Architekturverbesserungen vom G3 zum G4 zum G5 geschuldet.

Und nun Intel
===================================

Aber der Nehalem ist auch gut doppelt so schnell wie der Core2 (pro Kern).Und zwischen Nehalem und Core2 liegen auch gut 2 Jahre. Und bezieht man ein das die ersten Core maximal DualCores waren und man beim Nehalem gleich von Anfangs an Quads bekam, ist Moore sogar übererfüllt.
Ich habe kürzlich einen Core i7 930 gebencht:
8 Threads a 6500 Punkte = 52000 Punkte
Dagegen ein Core2Duo 2 GHz aus einem MacProQuad:
2 Threads a 4500 Punkte = 9000 Punkte.

Machte eine Steigerung auf das 5.8 fache in nicht mal 4 Jahren (und da sind die HexaCores noch aussen vor!).
Ich kann jetzt schon nicht erkennen, dass es hier bei Intel langsamer geht, unabhängig davon ob Intel jetzt mit Sandy-Bridge zulegen kann oder lahmt. Sie haben 1 bis 2 Jahre Vorsprung vor Moores Law (1 Jahr wenn man den 930er nimmt, 2 Jahre bei den HexaCores).

Ergo: Ich kann nicht erkennen, wo die CPU-Entwicklung bei Intel langsamer wäre als seinerzeit bei PPC oder auch heutzutage bei IBM mit dem Power 7 (der wie der Power 6 ca eine Faktor 2 Vorsprung hat.)

Bis dann

R"udiger

PS:

Zur Rechnung beim PowerPC. Soweit meine Erinnerung reicht, haben die Verbesserungen inerhalb einer CPU-Serie immer nur den Verlust an MIPS/MHz durch das wachsenden Gap zwischen Hauptspeichergeschwindigkeit und CPU-Takt ausgeglichen. Daher hab ich mal Taktsteigerungen mit Leistungssteigerungen innerhalb einer generation gleichgesetzt.
Einzige Ausnahme ist wohl der 970 MP, der nur kaum im Takt über dem 970 lag dafür aber doppelte Caches hatte.

Moores Law habe ich hier immer mit 2 Jahren angesetzt.

Nein.

Ich schrieb ja, dass es beim PowerMac vs. MacPro auf den ersten Blick in etwa gleich auszusehen scheint (die Kurve (Trendlinie) beim MacPro ist flacher aber nicht gravierend flacher). Allerdings ist hier beim Mac Pro die Steigerung alleine der Vervielfachung der Zahl der (echten und virtuellen) Kerne zuzuschreiben, bei den PowerPCs war zusätzlich auch noch eine Steigerung pro Kern zu sehen.
In meinen Kurven sind die Hexacores schon enthalten.

Bei den iMacs und den Books insbesondere bei den MacBooks (ohne Pro im Vergleich zum iBooks) sieht das ganz anderes aus. Da zeigen die Trendlinien der PowerPC-Modelle die doppelte und dreifache Steigerung im Vergleich zu den Intel-Dingern.

Übrigens führt die Verdoppelung der Threads über virtuelle Kerne beim Geekbench nicht zu einer Verdoppelung der Werte.

P.S. Davon abgesehen verwendet ich für die Zeitachse immer nur das Einführungsdatum (nicht eingeführt am und das letzte Modell gebaut bis).

Doch doch ;-)

Hallo,

In meinen Kurven sind die Hexacores schon enthalten..

Kann man die irgendwo sehen? Oder hab ich einen Link übersehen?

Allerdings ist hier beim Mac Pro die Steigerung alleine der Vervielfachung der Zahl der (echten und virtuellen) Kerne zuzuschreiben.

Sorry, da kann was nicht hinkommen. die i7 sind deutlich schneller als die Core2:
Core2Quad: 4 Threads: 4x 7300 Punkte = 29200 Punkte
i7 930: 4 Threads: 4x 11400 Punkte = 45600 Punkte (+56%)
i7 930: 8 Threads: 8x 6500 Punkte = 52000 Punkte (+78%)

Und dabei hat der Core2Quad 200 MHz mehr Takt, und die höhergetakteten Core i7 9xx und die HexaCores sind noch außen vor. Ich sehe hier eine deutlich Steigerung durch das verbesserte Design beim i7.

Bzgl. Notebooks hast du aber insofern recht, als dort die Steigerungen schw'cher ausgefallen sind, das die Effizienz beim Nehalem nicht in gleichem Maße gestiegen ist, wie die Leistung (36% mehr Leistungsaufnahme für knapp 80% mehr Rechenleistung). Durch die Begrenzungen beim Notebookdesign ist die Steigerung hier begrenzt.

Im Übrigen, die hauptsächliche Leistungssteigerung beim G5 kam auch von der Verdopplung der Kerne und nicht von Taktsteigerungen o.ä.. Ergo kann ich hier keine Vorteil mehr sehen.

Und die Frage ist auch wie gut ein Power6lite wirklich gewesen wäre. Ob der Notebook-Tauglich geworden w're und wie viel an Leistung er beim "downsizen" gegebüber dem Power6 verloren hätte (entsprechendes gilt natürlich auch für den Power7).

Übrigens führt die Verdoppelung der Threads über virtuelle Kerne beim Geekbench nicht zu einer Verdoppelung der Werte.

Selbstverständlich nicht. (Siehe meine Zahlen oben). Wobei diese Benchmark noch optimiert werden könnte, als immer gleiche Benchmarkporgramme gleichzeitig laufen. Ich hatte zu P4 Zeiten eine Versuche mit "verwirbelten Reihenfolgen gemacht. Da lag der SMT-Gewinn dann höher.
Dennoch bringt SMT zusätliche Performance.

Davon abgesehen verwendet ich für die Zeitachse immer nur das Einführungsdatum

ich eigentlich auch. Mit zuletzt verbaut, meinte ich das Erscheinungsdatum der zuletzt verbauten Version der jeweiligen CPU.

Bis dann

R"udiger

Meine Tabellen und Graphen

Vor einiger Zeit wurde mal eine Liste sämtlicher Geekbench-Ergebnisste für alle Macs seit dem PowerMac G3 veröffentlicht. Ich hatte mir die Mühe gemacht, diese Tabelle nach Modell-Typen aufzusplitten und um eine Zeitachse zu ergänzen und dann grafisch auszuwerten.
Die Tabellen und Graphen habe ich zwar nirgendwo veröffentlicht, aber, wie gesagt, kann ich Sie Dir, wenn Du magst, per E-Mail schicken. Ralf hat meine Adresse.

Schick mal

Hallo,

Schick sie mit ruhig mal. Meien Resultate kanns du auf der RGBench-Seite sehen, wobei dort noch die letzten Einträge fehlen (Core i7 und ARM)) Muss ich demächst man nachtragen.

Email findest du unter http://www.ppcnux.de/?q=info.

Bis dann

R"udiger

Moore ist vorbei

Mein Senf zu dem ganzen. Es hat durchaus etwas mit der Zeit zu tun. Meiner Meinung nach ist Moore mit dem Pentium 4 gestorben, als Intel unfähig war die Taktfrequenzen mit vertretbarem Aufwand und vernünftiger Abwärme über 4GHz zu bringen. Trotz Strukturverkleinerung und den damit eigentlich einhergehenden Verbesserungen bei der Spannung gelang es der Chipindustrie nicht, die Taktfrequenzen der einzelnen Kerne zu erhöhen. Die Lösung war und ist, zusätzliche Recheneinheiten und Optimierungen einzubringen, nötigenfalls die Anzahl der Kerne zu erhöhen, um eine theoretische Mehrleistung auf das Papier zu bekommen.

Leistung ist somit nur durch Parallelisierung möglich, und da skaliert IBM mit dem Power am besten, AMD schon deutlich schlechter, aber immer noch besser als Intel. Die holen nun langsam auf.

Und nun betrachten wir die Tatsache, das die Massen-CPUs bei Taktraten um 1,6 GHz liegen, denn die Massen-CPUs sind Mobile-CPUs und dort herrscht der Atom vor. Kaum eine, die an die 3GHz heran reicht. Kommt die Verbesserung im Ende nicht allein durch fettere Caches und schnellere Anbindung des Speichers und der Festplatten?

Scheinbar ist den Verbrauchern auch klar, das die CPU-Leistung in der Regel für produktive Verwaltungsarbeit letztendlich von jedem Prozessor ausreichend ist, der aktuell auf dem Massen-Markt ist. Wer guckt noch auf die CPU? Die wenigsten noch auf die GPU, Hauptsache der TFT hat 17 Zoll, Auflösung egal.

Ich befürchte, das gute Leistungen ebenso passe sind wie matte Bildschirme. Es wird teuer werden produktive Rechner für rechenintensive Aufgabe zu kaufen. Wer Leistung will, kann sich die in der Cloud kaufen. Der Computer-Markt wird zum Tummelplatz von Surf-Gadgets.

No Moore

Auch, wenn das Ganze mit Moore nichts zu tun hat, hat es eben nichts mit der Zeit zu tun. Während es beim x86 und bei Intel im speziellen nicht weiter geht, geht es beim POWER, ARM etc. eben doch weiter voran, auch auf per-Kern-Basis gerechnet.

Moore ist nicht vorbei

Hallo,

Du sitzt einem weitverbreiteten Misverständnis von Moore-Law auf: Moores Law sagt, das sich alle 1.5 bis 2 Jahre die Zahl der Transistoren in einer CPU verdoppeln!
Und da dies nur mit Strukturverkleinerung wirtschaftlich machbar ist, ging damit bis zum 90nm Prozess auch Taktsteigerungen einher. Und das Mehr an Transistoren wurde dabei in einem erheblichen Maße zur Kompensation die wachsenden Gaps zwischen CPU-Takt und Speichertakt eingesetzt (Stichwort Caches).

Da Leistungssteigerungen durch mehr Takt aber nicht mehr gehen, setzt man das mehr an Transistoren eben in mehr Cores um. In der Konsequenz hatte man in beiden Fällen eine Leistungssteigerung etwas analog zur Transistorenzahl. Im Gegenteil am Anfang der MultiCoreära ging es sogar schneller, sofern man die MultiCores effizient nuzten konnte.

Parrallel zu beiden Trends (früher mehr Cache und nun mehr Cores) war auch immer eine Verbesserung des Core-Design drin. Das aber bei weitem alleine nicht die Leisungssteigerungen gebracht hat.

Ergo, in der Konsequenz sind wir uns einig, aber es ist nicht Moores Law, das nicht mehr gilt, sondern wie dieses in Leistungssteigerung umgesetzt werden soll.

Bis dann

R"udiger

Miß-Interpretation

OK, es ist ein Mißverständnis Moores Gesetzt mit der Leistungsfähigkeit eines Chips gleichzusetzen.

Aber, es ist zu einem Synonym dafür geworden. Es war Intels Marketing Moore mit Takt und Leistungsfähigkeit gleich zu setzen, worauf hin AMD dann die Intel-Äquivalent-Quasi-Takt-Bezeichnung einführte, die nichts mit dem tatsächlichen Takt zu tun hatte.

Leistungsfähigkeit geht auch anders. Auch das ist klar.

Moore geht dann zumindest demnächst in Rente, mal sehen ob man 28nm Fertigung und darunter noch hin bekommt. viel weiter wird es nicht gehen, dann ist Schluß.

Bleibt die Leistungsfähigkeit. Womit wir wieder bei Takt und Anzahl der Recheneinheiten sind. Und die Frage, wie man Recheneinheiten und Kerne definiert. Darf man einen Out-of-Order Kern mit 4 Integer Einheiten mit einem In-Order-Kern mit einer Integer-Einheit gleich setzen? Man müsste also Rechenleistung / Chipfläche / "Verbrauch" bilden?

Naja...

Auch, wenn Intel immer wieder auf Moore pocht, stimmt das ja auch nicht ganz. Beim Wechsel vom Pentium 4 (bzw. PeD) zum Core 2 und gleichzeitiger Verkleinerung der Strukturen von 90 auf 65 nm, hat sich die Zahl der Transistoren nicht etwa verdoppelt, sondern vom 230 auf 170 Mio verringert. Zur Verdoppelung kam es dann erst zusammen mit 45 nm Strukturgröße.

In der zweiten Generation des Core (laut Intel, ausnahmsweise mal korrekterweise, ist das Sandy Bridge; Core, Core 2 und Nehalem zählen als eine Generation) benutzt Intel wieder mal einen großen Teil der zusätzlichen Transistoren für die x86-Übersetzungseinheit. Sandy Bridge besitzt einen Cache für dekodierte x86-Befehle. Incl. Verwaltung kostet das wieder einen erklecklichen Batzen an Transistoren. Das bringt zwar keinen Geschwindigkeitsvorteil, aber es ermöglicht, dass die x86-Übersetzungseinheit zwischendurch mal abgeschaltet werden kann. (Womit Intel hintenrum doch zugibt, dass die Verwendung von x86-Befehlen eben doch weitaus mehr Strom kostet, das immer behauptet.)

Darstellungsoptionen

Wählen Sie hier Ihre bevorzugte Anzeigeart für Kommentare und klicken Sie auf „Einstellungen speichern“ um die Änderungen zu übernehmen.