Intel soll Apples A5 fertigen

Da kommt Intel mit dem Zauber einer 22nm Tri-Gate Fertigung und schon sind alle aus dem Häuschen. Zwar kann ich mir nicht vorstellen, das ausgerechnet Apple in den Fettnapf tritt, ein neues Produktionsverfahren zu testen, zu sehr dürften die negativen Erfahrungen mit Motorola, Freescale und IBM nach hängen. Aber die Aktionäre drücken, Android kommt. Also muss Apple seine eigene CPU auch modern fertigen lassen ... bei ... Intel?

The Register - Intel switches ARM stance from 'No' to 'Maybe' argumentiert, bei Intel hätte sich etwas getan, von bedingungsloser Ablehnung der Fertigung anderer Prozessor-Architekturen außer Intels eigenen, würde man über Nachfragen nun intensiv nachdenken.

Der Kunde ist schnell ausgemacht. Apple. Apple steht auf der Liste von Samsung als erstklassiger Abnehmer, sowohl von Flash als auch von CPUs. Samsung hingegen ist nicht nur Wettbewerber zu Apple bei den Mobiltelefonen, sondern auch bei allem anderen. Intel hingegen fertig nur CPUs und Flash. Na gut, ab und zu zaubert ein entferntes, vergessenes Entwicklungslabor auch mal ein brauchbares CPU Design, ich gebe es ja zu.

Der Streit zwischen Apple und Samsung steigt die Spirale ja gerade hoch, beide müssen dem Gegner Prototypen liefern. Es ist abzusehen, das es entweder einen geheimen Vergleich geben wird, oder das eine Firma an die andere eine Unsumme bezahlen wird. Egal wer, in allen Fällen scheint das Verhältnis gerissen zu sein. Apple kann kein starkes Mobil-Samsung mit Android dulden. Die auch noch CPU-Designs optimieren. Und Samsung wird gerne Apples Marktanteil haben wollen, wieso auch nicht.

Und das Intel dem nicht völlig abgeneigt gegenüber steht, könnte darin liegen, das Samsung der eigentliche Konkurrent für Intel in der IT-Branche ist, nicht AMD. Apple beliefern hieße Samsung schaden. Und Apple hätte ein effizientes Fertigungsverfahren. Im Grunde eine Win-Win-Win Situation?

Kommentare

Darstellungsoptionen

Wählen Sie hier Ihre bevorzugte Anzeigeart für Kommentare und klicken Sie auf „Einstellungen speichern“ um die Änderungen zu übernehmen.

Aspekt vergessen: OS

Ich habe einen Aspekt ausser acht gelassen. Das OS. Intel gehen die Betriebssysteme aus. Zwar wird Linux prächtig unterstützt, was sicherlich zum Zerwürfnis mit Microsoft beigetragen hat, Intel verliert das Windows-Monopol und mit MeeGo hat man zwar ein MID / Handy-OS, aber keiner will die Hardware. Dafür drückt Google Android & ChromeOS auf den Markt, aber das ist Hardware-Transparent und läuft auch auf ARM. Da die Cloud alles erledigt braucht es keine heissen Intel Cores.

Bleibt MacOS X und iOS. Wenn Apple ein CPU Design liefert, das zwar auf ARM basiert, aber einen Apple Chip dar stellt, könnte Intel vielleicht doch interesse haben, den Chip zu fertigen. Könnte man so den Namen Intel doch in Zusammenhang mit dem iPhone bringen, wenn auch nur als Fertiger. Aber ein Schritt wäre getan. Und vor allem trifft es Microsoft & nVidia mit Windows auf ARM.

Kann Apple Intel klar machen, das mit der x86er Architektur bei Smartphones und iPaddles kein Land erreichbar ist?

Verschiedenes

Ich denke nicht, dass das Ganze etwas mit dem A5 zu tun hat.

Ich könnte mir aber vorstellen, dass die Aussagen von Smith einen konkreten Hntergrund haben: Sony und Apple haben sich für die PlayStation 4 und den Nachfolger des Macs gegen Intel entschieden. Sony hat ja schon bei der PS 3 auf einen Spezialchip gesetzt und wird sicherlich für die PS 4 wieder einen verwenden, Apple entwickelt seit einiger Zeit an einem eigenen Prozessorkern. Beide dürften derzeit auf der Suche nach einem Fertiger sein. 
Dabei scheint man bei Intel der Meinung zu sein, diese Entscheidung habe etwas damit zu tun, dass Intel keine Custom-Chips baut. Intel hatte ja u.a. nach dem Apples Intel-Switch klargestellt, dass Apple niemals andere Chips bekommen wird, als die, die Intel für jeden anderen PC-Hersteller auch anbietet. Vgl. http://www.golem.de/0511/41748-2.html (3.-5. Frage)
Nachdem Apple und Sony also für ihre zukünftigen Produkte abgewunken haben, versucht man auf dem Wege noch eine Offerte zu machen: Wenn Ihr einen Spezialchip mit Intel-Cores wollt, dann machen wir das. Wenn Ihr aber wollt, dass wir eure Spezialchips mit unserer überlegenen Fertigungstechnik fertigen, dann stellt euch auf schwierige Verhandlungen ein.
Letztendlich geht es darum, dass Intel irgendwie doch noch einen x86 in die PS 4 und den Mac-Nachfolger drücken möchte, nachdem sie gemerkt, dass der Zug abgefahren ist.

-------

Interessant finde ich übrigens, dass Intel sich offensichtlich zu den Gerüchten Über ein MacBook Air mit A5-Prozessor äußert. Die Beziehung sei gut und Apples bestes Team arbeite mit Intel zusammen. Dass die Beziehung gut ist kann ich mir beim besten Willen nicht vorstellen, nachdem Apple mit Sandy Bridge von nVidia Chipsätzen weg gezwungen wurde (was zu schlechterer Leistung bei deutlich schlechterer Akkulaufzeit geführt hat) und Apples _bestes_ Team arbeitet ganz sicher nicht am "Mac", sondern an den wichtigen Produkten, wie iPhone und iPad.

-------

Nachdem jetzt auch der A5 von Chipworks seziert wurde, ist mir aufgefallen, dass der im Gegensatz zum A4 keinen von Intrinsity optimierten Kern zu haben scheint. Der Kern im A4 unterscheidet sich jedenfalls deutlich von den Kernen in anderen SoCs mit Cortex A8-Kern (abgesehen von denen von Samsung), die Kerne im A5 sehen aber genauso aus, wie auf der Abbildung, die man bei ARM Ltd findet. 

Der A9-Kern ist dabei gerade mal 0,2 qmm größer, als ein A8-Kern, trotz OoOE und SMP (und immer noch weniger, als halb so groß, wie der Kern eines ATOM).

Intel ist zu vielen fähig

Auch Non-x86 CPUs herzustellen. Ich darf mal an StrongArm erinnern. Man könnte ja auch behaupten, Intel müssen einfach den Microcode Overhead weg lassen und hätte dann tolle RISC Chips. Nunja. Aber bitte fangt jetzt nicht an, über den x86-Microcode herzufallen. Wir sind alle im Bilde und kennen jedwedes Argument.

Dann hat Intel do Firmen und IP eingekauft, mit denen man zusätzliche Eigenschaften in Cores schmuggeln kann, allen voran die Funkmodule für Smartphones. Es ist also nicht so, als dass sich Intel nicht umsehen würde, Cores nach Wunsch maßzuschneidern. Man muss bei Intel immer darauf gefaßt sein, das das eine oder andere vergessene Labor doch die Entwicklung und den Zug der Zeit mit macht und ein gutes Produkt vorweisen kann. Dann vielleicht auch Custom-Design CPUs, und bei der Architektur kann Intel eigentlich großzügig sein. Mit IA64, i386 und AMD64 zähle ich mindestens 3, dazu kommen die GPU-Anteile und, und, und.

Und wenn alle Stricke reissen, holt man sich eine ARM Lizenz, wie schon einmal.

"Fähig sein" vs. wollen

Natürlich wäre Intel dazu fähig, anderes, als x86 zu produzieren. Die müssen nur ihr Geschäftsmodell (welches zu einer extrem hohen Gewinnmarge führt) über den Haufen werfen und die Entwicklermannschaft (bzw. den Teil, der Entscheidungen fällt) komplett austauschen. Dann könnten die auch anständige CPUs produzieren.

StrongARM wurde 2006 an Marvell verkauft und Intel hat mehrfach verlauten lassen, dass man nicht die Absicht hat, jemals wieder ARM-Chips herzustellen.

Dass durch einfaches Weglassen des x86-Translators ein Intel Core zu einem tollen RISC-Chip wird, wage ich zu bezweifeln. Das x86 Overhead manifestiert sich nicht nur in der zusätzlichen Einheit im Frontend, auch das Backend ist darauf abgestimmt, umgewandelte x86-Befehle zu verarbeiten. Die internen (umgewandelten x86) Befehle sind nämlich nicht RISC, sie besitzen nur einige der Eigenschaften der echten RISC-Befehle.

i386 und AMD64 kann man nicht als zwei Architekturen zählen. AMD64 ist nur eine Erweiterung von i386 mit PAE. Nicht umsonst heißt AMD64/Intel64/EM64T in den Intel Developer-Dokumenten "IA32e". Natürlich sind die Unterschiede beim x86 größer, als zwischen 32- und 64-bit-Versionen von anständigen CPU-Architekturen. Aber es bleibt die gleiche Architektur.

Intel, ARM und PS4

Ich halte es für ausgeschlossen, dass Intel jemals etwas anderes (CPUs) als x86 fertigen wird.

Das wäre nämlich das Eingeständnis von Intel, dass sie anderen Architekturen nichts entgegenzusetzen haben.

Wäre aber irgendwo witzig, Intel fertigt überlegene RISC-CPUs mit einer der führenden Fertigungstechnologien. Wenn man IBM mal außer Acht lässt, wo Apple sicher nicht mehr anfragt ;-)

Und lustigerweise gibt es Gerüchte wonach Sony mit IBM an einer Über-CELL arbeitet:

http://www.smarthouse.com.au/Gaming/Industry/F5C6F8A6?page=1

Daran kann ich aber nicht glauben.

Herbeten

Viel Substanz hat der Artikel nicht. Im Gegenteil, ich fürchte hier werden Enten gefüttert. Ich bilde mir ein einmal gelesen zu haben, das Toshiba dort schon längst andere Dinge produziert, SoC zum Beispiel. Und Sony hat die Chip-Fertigung zwar wieder gekauft, aber nicht um dort den Cell zu produzieren.

SPEs sind erledigt. Nicht, dass sie unbrauchbar wären, aber das potentielle Einsatzgebiet erledigen die Shader-Einheiten von Grafikkarten billiger und besser.

Die 16 SPE dürften so erwartbar gewesen sein im Jahre 2008 / 2009, als der PowerXcell kam und nicht von Sony eingesetzt wurde. Kann sein, das Sony die SPEs der Kompatibilität wegen möchte, kann ich mir aber nicht vorstellen, dass Sony kompatible sein möchte. Das Angriffsvektor ist zu groß.

Die GPU muss mit auf das CPU-Die, ansonsten produziert der Wettbewerb kostengünstiger und Sony ist wieder am A... Das bringt IBM sicherlich fertig, läßt sich das auch bezahlen. Und das ist der größte Hacken an der Geschichte: Sony hat kein Geld dafür. Insbesondere die Aussicht, nochmals komplett zu versagen, dürfte Investitionen in einen Super-PS4 Chip rasch verebben lassen.

So dürfte Sony nur übrig bleiben, halbwegs aktualisierte Varianten in einer besseren Fertigung zu bekommen, denen man leicht modifizierte Standard-Komponenten bei mengt.

Das ganze kann man eh vergessen, wenn man sich ansieht, wohin Sony läuft. BluRay ist für die 3-Welt Länder ohne Broadband Internet. Ansonsten kommt alles Digital über das Netz. Und damit der Nutzer keine Daten bei sich hat, nichts besitzen kann, benötigt man ein dummes Terminal ohne Speicher, das Streams aus dem Internet an zeigt. Fertig. Dazu braucht man keinen Cell mit 16SPEs. Da genügt eine SPE.

*Hüstel*

"SPEs sind erledigt. Nicht, dass sie unbrauchbar wären, aber das potentielle Einsatzgebiet erledigen die Shader-Einheiten von Grafikkarten billiger und besser."

Ahem, nö. Ich glaube Du hast die Problematik nicht durchdrungen, die IBM zu dem Design des CELL mit den SPE's gebracht hat, nämlich extrem limitierte Bandbreite (im Vergleich zu den CPU's) von und zum Speicher. Die Ingenieure von IBM haben schlicht erkannt, daß das heute *der* limitierende Faktor für die Performance ist, wo Gigahertz-Multi-Cores mit Wahnsinns-Caches am Ende gegen die ziemlich dicke Wand des Bus-Systems laufen und die Fensterchen beim Task-Switch dann halt doch wieder ruckeln. Der Witz bei den SPU's ist ja gerade , daß sie direkt auf das RAM zugreifen können, ohne durch irgendeine Bus-Logik durch zu müssen und eigenständig DMA initiieren können (genau wie der "eigentliche" Kern) . Das erfordert dann eine andere Programmierung, vermeidet aber den dicksten Flaschenhals. Und die Shader auf einer GPU oder einer APU müssen genau da natürlich auch durch bzw. haben aus gutem Grund ohnehin nur Zugriff auf das Video-RAM.

IBM PowerPC A2 ist mit

IBM PowerPC A2 ist mit seinen 16 Cores effektiver als jede GPU! Man braucht nur eine relativ einfache GPU extern in Kombination mit einem PowerPC A2 und hängt jeden anderen Prozessor ab. Insbesondere wenn man das unter dem Aspekt Performance/Watt betrachtet. Ein PowerPC A2 ist sehr viel einfacher zu programmieren als ein Cell Prozessor, wohl auch aus diesem Grund hat IBM den Cell eingestellt. Und ein OpenCL Backend für einen 16 Core Prozessor ist bei IBM auch schnell geschrieben.

Darstellungsoptionen

Wählen Sie hier Ihre bevorzugte Anzeigeart für Kommentare und klicken Sie auf „Einstellungen speichern“ um die Änderungen zu übernehmen.