Thunderbolt == LightPeak(?) Update

Alle sind ganz aufgeregt, Apple stellt mal wieder erneuerte Laptops vor, mit Prozessoren die schon lange auf Intels Roadmap stehen, und alle sind gespannt was kommt. Diesmal wird etwas neues kommen: Thunderbolt

Was ist Thunderbolt? Thunderbolt ist eine Hochgeschwindigkeits-Ein-Ausgabeschnittstelle die DisplayPort Geräte unterstützt. Auf jeder Mac-Zine-Fan-Site wird kolportiert, dass Thunderbolt Intels wahnsinnig schnelle LightPeak Schnittstelle ist, unter anderem Namen.

Oder auch nicht? Vielleicht mach ich mich jetzt lächerlich. Aber ich habe da so meine Zweifel.

Update: Ich habe mich lächerlich gemacht. Thunderbolt sei ein Markenname eingetragen auf Intel. Und das mit dem USB-Stecker hat sich auch geklärt, das USB Gremium fand es nicht so toll, das Intel LightPeak in die USB-Verbindung integrieren wollte. Es könnte also sein, das Intel doch gerne Apples kostenlosen Mini-DisplayPort übernommen hat. Womit der Rest des Artikels falsch ist, und zu meiner Demütigung online bleibt. :Update

Nicht nur, dass ich es komisch finde, dass Intel am selben Tag ebenfalls eine Pressekonferenz an setzt. Wäre es LightPeak könnte man das doch mit Apple verlautbaren. Apple kocht gern sein eigenes Namessüppchen, das wundert mich nicht. Hingegen aber die Buchsen. War LightPeak nicht Lichtleiter in USB 3 Stecker verbaut? Apple bastelt die angeblich zu Metallkontakten in Display-Port Buchsen um. Aber sonst ist alles LightPeak? Sprich, zumindest das gleiche Protokoll? Wozu dann andere Buchsen und Stecker? Damit Apple Adapter verkaufen kann? OK, gutes Argument.

Ich sehe Intel und Apple im Moment nicht unbedingt als dicke Freunde, und das Intel LightPeak mit MacOS X gezeigt hat, bedeutet eventuell, dass man Microsoft noch weniger mag. Mich würde es aber nicht wundern, wenn Apple den DisplayPort aufgebohrt und zum General-Purpose-Port umgestrickt hätte. Da es sich eh um ein MicroPaket-Protokoll handelt, ist das nicht unmöglich. Und bei einer Bandbreite von ca. 2 GByte/s bei 4 Leitungen wandern da auch Daten etwas schneller als USB3 mit 625 MB/s oder Gigabit-Ethernet.

So würde Apple mit seinem Mini-DisplayPort Anschluss nur Treiber benötigen, um Daten von NAS-Systemen oder anderen Rechnern auf den Laptop zu transferieren.

Völlig im Brummkreisel gefangen bin ich, wenn ich daran denke, das Intel noch nicht einmal USB3 in die Chipsätze integriert hat, und nun den Nachfolger von USB3 zusammen mit Apple vorstellen soll: LightPeak. Überspringt man USB3, weil AMD damit schon feste den Markt bearbeitet und springt gleich auf LightPeak um?

Aber: Es kann natürlich auch sein, dass Intel-Buddy Apple das LightPeak-Protokoll auf Extra-Pins im Mini-DisplayPort gelegt hat, auf Metallkontakte, und so seinen eigenen, zum optischen Intel-LightPeak mit USB3 Stecker-Buchsen-Format inkompatiblen Thunderbolt-Aschluss auf den Markt wirft.

Kommentare

Darstellungsoptionen

Wählen Sie hier Ihre bevorzugte Anzeigeart für Kommentare und klicken Sie auf „Einstellungen speichern“ um die Änderungen zu übernehmen.

Sehr guter Artikel

Eigentlich nichts neues, sondern IMHO "Trivialwissen", das ich schon ewig "predige" und hier abgestritten wird.

z.B.
Again, there is no magic pixie dust here, and the impact of the ISA alone on power consumption in processors that draw many tens of watts is negligible. A multicore ARM chip and a multicore Xeon chip that give similar performance on compute-intensive workloads will have similar power profiles;
http://arstechnica.com/business/news/2011/02/nvidia-30-and-the-riscifica...

Aber auch die andere Seite stimmt bzw. ist bekannt, dass in Bereichen, in denen es nicht auf absolute Performance ankommt Intel es schwer haben wird (geht auf der nächsten Seite weiter) und immer weniger Leute (im Consumer-Bereich vor allem), die absolute "Power" brauchen.

http://arstechnica.com/business/news/2011/02/nvidia-30-and-the-riscifica...

LOL ! ROFLMAO !

So, jetzt muss ich auch mal was sagen.

Herrn Stokes als Experten zu zitieren - kann man machen, der Mann hat ja Ahnung. Andererseits ist die Apple-Hörigkeit von arstechnica ja schon peinlich, insofern sollte man da schon mal ganz genau nachlesen. Und was lesen wir da:

"and the impact of the ISA alone on power consumption in processors that draw many tens of watts is negligible"

Da hat der Mann ja Recht. Wenn ein Prozessor alleine 40, 50, 60 Watt zieht (er redet ja schliesslich von Intel....) kommt's auf die paar Watt für das Dekodieren nicht mehr an. Darum geht's aber nicht. Es geht um Prozessoren von ARM, AMD, NVidia usw., die das was Intel mit fuffzich Watt macht mit unter zehn machen. Insofern: Eigentor Nr. 1

"A multicore ARM chip and a multicore Xeon chip that give similar performance on compute-intensive workloads will have similar power profiles;"

Oha, da sind soviele Hintertürchen drin, der Satz ist ja eine einzige Nebelkerze und komplett inhaltslos. "similar performance" ? "compute-intensive workloads" ? "similar power profiles" ? Kann der Mann nicht einfach sagen, worum's geht ? JAVA-Anwendungen, wo ARM mit Jazelle Intel die Rücklichter zeigt ? Grafik, wo Intel mit der bekannt leistungsfähigen (ähem) Chipsatz-Grafik "vergleichbar" zu Tegra ist (machen ja beide irgendwie das selbe...) oder wie ? Ein "power profile" hat i.a. nicht viel mit tatsächlichem Verbrauch zu tun (deshalb mag Intel das auch so doll), sondern da geht's um die Verteilung des Verbrauchs auf die CPU-Einheiten, den Verlauf der Verbrauchs über die Zeit usw. Da kann man dann zwei Kurven übereinander legen und die sehen auch ähnlich aus, aber nicht vegessen, vorher die Y-Achsen anzugleichen..........

Ganz konkret kann ich nur sagen, daß ich mit meinem ollen G4 (der noch nicht mal der modernste verfügbare G4 war - danke, Steve) und einem popeligen Kern + Schnarch-Bus-Architektur unter Ubuntu absolut "similar", also vergleichbar zu dem unterwegs bin, was heute in der x86-Welt state-of-the-art mit Turbo-Boost, Multi-Core Hyper-Dings und Speed-Bla ist. Und das ist für die x86-ISA einfach nur peinlich.

Parallelwelt

Mit dem G4 musst du in einer Parallelwelt leben.
Gegen moderne Intels kommt einem ein G4 wie ein Taschenrechner vor. Lass die Kiste doch mal etwas schaffen z.B. mit x264 und dem HighProfile (x264 ist übrigens dem Quicktime H.264 Encoder extrem überlegen in Bildqualität; auch im Featureset, bei dem der Apple Encoder AFAIR noch in der Steinzeit hängt). Ein x264 Entwickler, den Steve Jobs schon in einem anderem Zusammenhang zitiert hat, wundert sich z.B. über die schlechte Leistung kommerzieller Encoder in einem Post im Vergleich zu x264 (bekannt unter anderem als Handbrake -> FrontEnd). http://www.heise.de/newsticker/meldung/Freier-H-264-Encoder-x264-nun-off...
In Codec Shooutouts ist x264 ebenso seit Jahren immer vorne. Nutze das mal und dann siehst du, welchen Taschenrechner du nutzt.

Virtualisierung:
Das ist in der x86 Welt ein großes Thema - gerade bei Servern - , da eben viele x86 Betriebsysteme genutzt werden und entsprechend virtualisiert werden. Google nutzt übrigens ebenfalls x86 Server.

Ansonsten bist du nicht der, der mal so einen Quatsch zu 64 Bit verzapft haben soll? Dann werfe mal einen Blick auf dieses Projekt:
http://linuxpae64.sourceforge.net/
(wobei das Projekt praktisch kaum Sinn hat; da ist dann eher schon hier das interessanter (wenn überhaupt): https://sites.google.com/site/x32abi/ )
Daher spare ich mir auf den "Kram" einzugehen und bin mal draussen.

Dein "Trivialwissen", bezogen aus Marketinglügen.

Ja, manchmal scheint selbst ein Hannibal Stokes eine Meinung zu haben, die in keinem Bezug zu den Fakten und der Logik steht. Für jemanden, wie Dich ist das ein gefundenes Fressen. Mich wundert in erster Linie, wie jemand, der so viel Fachwissen besitzt, diese Marketinglügen von Intel (und AMD) sich zueigen machen kann. Letztendlich widerlegt Hannibal seine eigene, weiter vorne geäußerte Meinung aber auch im Verlauf des Artikels.
Natürlich kann eine CPU, die zusätzliche große Ausführungseinheiten besitzt, um Code für die verkorkste x86-ISA in etwas umzuwandeln, mit dem ein moderner Prozessorkern einigermaßen umgehen kann, nicht genauso gut in Sachen Performance pr Watt sein, wie eine CPU die ohne diese zusätzlichen Einheiten auskommt. Die zusätzlichen Einheiten verbrauchen nämlich Strom, ohne zur Rechenleistung beizutragen. Die beiden (simple und complex) x86-Translationseinheiten besitzen bei aktuellen x86ern in etwa die Größe einer Festkommaeinheit und einer Fließkommaeinheit (wie man mit einem Blick auf den Floorplan z.B. eine AMD Bobcat feststellen kann).
Und eben weil es keinen "magic pixie dust" gibt, bleibt dier Performance-pro-Watt Nachteil (von Faktor 10 oder mehr; mit ARM sind es Tage Akkulaufzeit, wo es beim x86er Stunden sind) des x86ers auch bei steigender Performance des ARM. Für ARM steigt der Strombverbrauch bei steigender Performance ja nicht steiler an, als der Stromverbrauch für x86 bei steigender Performance ansteigt. Für beide gilt der selbe Faktor, die Kurve ist die gleiche. Nur dass die ARM-Kurve halt insgesamt deutlich unter der x86-Kurve liegt.

Hallo Ut

Deine Antwort überrascht mich nicht und zeigt mal leider wieder, dass du offenbar wenig Ahnung bzgl. des Themas hast und du daher nicht so eine große Klappe über solche Themen risikieren solltest. Zudem widersprichst du damit noch Leuten _mit_ Ahnung (wie z.B. J. Stokes).
Dieter Nuhr hat mal den Spruch gebracht: Wenn man keine Ahnung hat, einfach mal Fresse halten.
Und du hast offenbar hier keine/wenig Ahnung, davon aber ganz viel. :-))

Ich glaube die damalige RISC/PowerPC-Propaganda ist schwer in deinem Hirn eingebrannt.

Du bist ein klassischer Dunning-Kruger-Effekt :)
Bevor du fragst: Googlen hilft.

Sorry für die deutlichen Worte: Aber das ist mein Eindruck - und da stehe ich wohl nicht allein da (außerhalb dieses Forums) :-)

@RSaalmueller: Ich scheue nicht den Wettbewerb. Wettbewerb ist eine gute Sache und ich freue mich über die ARM-Entwicklung (ich mag ARM!). Hier das ist aber anders. Dort wo sich vor allem Ut auslässt, ist es ein Schauplatz, der schon lange nicht mehr im so im Fokus steht und entschieden ist - zumindest seit Jahren, jetzt und in nächster Zeit. Ich habe versucht das in meinem letzten Post darzustellen.
Das ist Märchenstunde was Ut zum Teil betreibt und nur weil Ut die Märchenstunde wiederholt und wiederholt, bleibt es ein Märchen. Das wird langweilig immer und immer wieder dem zu entgegnen. Ut meint ja auch - wenn es noch nicht aufgefallen ist - zu Themen in Nebensätzen ständig x86 Bashing (noch nicht mal fundiertes Bashing) zu betreiben, auch wenn es nicht angebracht ist bzw. überhaupt nicht zum Thema gehört. Dazu gibt es genügend Beispiele.
Mich stört auch, dass hier Ut teilweise extremen Bldösinn verzapft - der selbst für normalgebliebene x86 Hater ziemlich direkt erkennbar sein sollte - aber fast nie richtig gestellt wird (Beispiel fällt mir spontan nicht ein; beim durchwühlen alter Posts würde ich aber viele finden bzw. das obige gehört ebenso dazu mit den Sticheleien). Wahrscheinlich weil einem das Bashing so gefällt? Ganz selten (viel zu selten) widerspricht dann mal R"udiger oder fragt nach. Ich glaube Benutzerplutzer hat auch schon mal Kontra gegeben.
Also du bist z.B. kein x86-Freund - das ist auch völlig OK - aber offenbar nicht so extrem "abgespaced" wie Ut. Auch oder gerade R"udiger ist noch ziemlich normal geblieben. Das er Non-x86 bevorzugt er lieber mag, ist völlig in Ordnung. Deswegen würde R"udiger aber noch lange nicht alles was Intel geleistet hat als Blödsinn hinstellen und jeglichen Fortschritt abstreiten.

Allgemein:
Kommt ihr eigentlich mit Meego nicht in Konflikte? Meego ist das System, das OpenSourcler von den mobilen Systemen am ehsten wollen. Aber die größte treibende Kraft dahinter ist ausgerechnet Intel.

Ach ja - weil mir das Gefasel von Ut so auf den Senkel geht (eher ging - mittlerweile lache ich einfach mal kurz drüber und dann fertig, wenn ich mal ab und an hier wieder vorbeischaue und etwas in der Art lese), werde ich hier in eine x86-Fanboyrolle gedrückt. Wenn ich dann das Gefasel von Ut teilweise lese *würg*. Da nimmt man ja automatisch schon eine Gegenposition ein bei dem Gefasel. Dabei bin ich kein x86 Fanboy. Ich habe nur einfach die Realität, die mit Sicherheit deutlich näher an meiner Version, als an UTs Version liegt, akzeptiert - genauso wie die Vorteile, die x86 bietet (und von denen ich und viele andere auch tatsächlich profitieren; z.B. Virtualisierung der ganzen x86 Systeme). Ich finde die ARM-Entwicklung spannend und es kann noch richtig interessant werden - ja. Und ja - gerade so ein Macbook Air _kann_ mal auf ARM Basis interessant werden. :-)

Intel steht hinter Meego?

Richtig wird es doch eigentlich, wenn man schreibt: Intel steht hinter GNU/Linux. Intel steht seit langen in einer Haß-Liebe zu Microsoft. Auf der einen Seite war man damals darauf angewiesen, das Microsoft kein 64-bit Windows für die Athlons heraus bringt. Auf der anderen Seite hat man schon lange die Vorherrschaft von MS geächtet. Nachdem Intel die eigenen Multimedia-Libs zurück nehmen mußte, damals, in grauer Vorzeit.

Intel hat die besten Linux-Treiber, selbst die Grafik ist gut abgedeckt, wenn die Grafik an sich auch eher mäßig ist. Kann man nicht mosern. Auch die Virtualisierung ist beachtlich, da hat man Apple und den PowerPC längst links liegen gelassen. Aber hinter dem steht eben auch ein riesiger Markt der viel antreibt, viel optimiert, in jede Richtung. Nicht nur Intel.

Zurück zu Meego, denn das ist interessant. Der Atom und Meego waren ja als MID gedacht, Multimedia-Internet-Devices zum herumtragen. Das was jetzt das iPaddle ist. Nur fand, aus gutem Grund, Intel niemand, der ein OS dafür entwickelt hätte, noch jemand, der die Hardware vermarkten wollte. Keiner hatte damals eine Ahnung, wie Fingerbedienung geht, Stiftbedienung ist oft genug gescheitert. Und die Laufzeit war zu kurz, das wäre gefloppt. Meego, toll. Toll? Wenn ich mir ansehe, wie wenige Leute hinter der ARM Distribution des OpenMoko stehen, eine komplette debian Distribution mit einer halbwegs brauchbaren Oberfläche, dann frag ich mich allerdings, was Intel eigentlich so macht. Ja. Ab einer gewissen Größe überschreitet der Verwaltungs- und Planungsaufwand die Manpower der Entwicklung. Ist mir auch klar. Da geht die meiste Zeit drauf, Design-Vorgaben und Richtlinien einzuhalten.

Ich war kurz davor mir einen 6-Kern AMD Desktop zu kaufen, bis ich die Watt-Zahlen der Sandy-Bridge sah. Aber deshalb möchte ich für Paddles und Netbooks dennoch lieber ARM Prozessoren. Wie die Paddles zeigen, kann man damit Arbeiten (war Uts Aussage, auch wenn die für dich nicht zählt), und im Netbook-Formfaktor wären wohl sehr lange laufzeiten drin. Zum Filmchen-Gucken, Skype, EMail, Browsen & Co gut genug. Und Gimp wird schon noch laufen.Editor sowieso. Ich hätte gerne mehr Auswahl, Wettbewerb. Intel allein genügt mir ganz einfach nicht.

Eine Bitte an Ut und zu G A S T. Ignoriert euch bitte zum Wohle der restlichen Leser. Mal die Nettiquette lesen, am nächsten Tag posten, wenn es immer noch sein muss. Aber wir kennen wirklich eure Standpunkte, auch dass Ihr auch nicht riechen könnt. ... oder ist es wie bei einem alten Ehepaar, das ohne den Streit auch nicht aus kommt?

MeeGo

Nach dem, was ich bislang von MeeGo gesehen habe, ist es von Leuten gemacht worden, die in etwa die Meinung von BenutzerPlutzer haben: Ein Tablett ist zu nichts zu gebrauchen, als zum willigen Konsumieren. Daher haben sie MeeGo genau so eingerichtet, dass es zu nichts zu gebrauchen ist, als zum willigen konsumieren.

So wenig ich von Microsoft halte, die Entscheidung von Nokia auf Windows Phone zu wechseln, ist in Anbetracht von MeeGo plausibel. Mit Intel hatte Nokia einen Partner, der niemals für ein Tablett geeignete Hardware wird liefern können und dazu eine Software entwickelt, deren Hauptziel zu sein scheint, dem PC keine Konkurrenz machen zu wollen (den einzigen Bereich, in dem Intel-Hardware konkurrenzfähig ist, weil es dort, nachdem Apple den Bereich aufgegeben hat, keine Konkurrenz mehr gibt).
Mit M$ haben sie jetzt einen Partner, der aus eigenem Interesse versuchen muss, konkurrenzfähige Software zu liefern und können sich selber auf die Hardware-Entwicklung auf Basis anständiger Prozessoren konzentrieren (und natürlich auf die einfachen Mobiltelefone, wo sie noch Marktführer sind).

Deine Ermahnung

Wenn Du hier jemanden ermahnen musst, dann nur den G a s t und nicht mich. Nicht ich bin es, der hier hier nur postet um Streit anzufangen und der hier andere beleidigt.
Damit, dass Du die Ermahnung auch an mich richtest, verlangst von mir, dass ich diese immer wieder wiederholten Marketinglügen so stehen lasse. Das ist ja die Methode: Marketinglügen verbreiten, die Leute, die diesen widersprechen und dagegen argumentieren durch Diffamieren mundtot machen. Dann stehen die Marketinglügen alleine da und werden zu "objektiven Tatsachen".

Nun...

Hier versucht sich also jemand aus einer Sachdiskussion mit persönlichen Beleidigungen zu entziehen, anstatt Argumente zu widerlegen oder eigene Argumente in die Diskussion einzubringen.
Das ist nicht das erste mal und Du bist da auch nicht der einzige, dem das so passiert.
Das kommt wohl daher, dass ich eine unpopuläre und den gängigen von Marketinglügen widersprechende Aussagen mit Fakten belegen kann und Du unterschwellig merkst, dass Du einer Diskussion nicht gewachsen bist. Du kannst nicht zugeben, dass ich recht habe, daher das Ausweichen auf Beleidigungen.

Da lachen ja du Hühner

Also mir fällt spontan kein Punkt ein, in dem du in deinen Behauptungen mal Recht hattest bzw. richtig gelegen hast (eher das Gegenteil).
Ich muss nichts zugeben, da es nichts zuzugeben gibt, da ich eben tendenziell weitaus richtiger liege und du ziemlich daneben. ;-)

Beleidigung?
Du kamst mit Marketinglügen usw. obwohl gerade du offenbar das Paradebeispiel für dessen Anfälligkeit bist. Ich kann es mir nur so erklären, dass du dich in etwas verrannt hast und einfach nicht zugeben willst, dass du in vielen Punkten völlig falsch liegst. Dabei ist es keine Schande falsch zu liegen. Stattdessen wird sich weiter darin verbissen. Gerade du bist es auch der, der meist persönlich wird und auch mit dem Wort "Marketinglügen" um sich schmeisst.

Hier könnte man halb Silicon Valley zusammentrommeln und du würdest eh keinem glauben :-))

Ich wollte eben übrigens ein Großteil des Postings, wieder löschen - bzw. eine andere/entschärfte Version posten, da es ja um die Sache und nicht um dich gehen sollte - aber es ging nicht mehr. Konnte das Posting nicht mehr bearbeiten.

Beleidigung

Ich finde es gut, dass Du das Posting nicht mehr ändern konntest. So kann jeder sehen, was Du für einer bist: Jemand, das auf Beledigungen ausweichen muss, weil er bei er Sache nicht mithalten kann.

Marketinglügen als das zu bezeichnen, was sie sind, nämlich Marketinglügen, ist keine persönliche Beleidigung. Außerdem präsentiere ich Fakten, die belegen, dass es sich bei den Marketinglügen tatsächlich um Marketinglügen handelt. (Ein Blick auf den Floorplan eines Bobcat widerlegt die Behauptung, dass die x86 Translators nur ein oder zwei Prozent des Prozessorkerns belegen. Verkaufszahlen von Parallels und VMWare widerlegen die Behauptung, dass x86-Virtualisierung ein wichtiger Faktor beim "Mac" wäre. etc. pp.)

Aber dass Fakten Dich nicht von Deiner Meinung abbringen können, dass ich per sé unrecht habe und sowieso immer daneben liege etc., ist jetzt auch nichts neues. Wie wäre es, wenn Du mal versuchen würdest, meine Fakten mit anderen Fakten (nicht aus dem Internet zusammengeklaubte, Deiner Meinung entsprechenden Meinungen, welche ebenfalls nicht mit Fakten belegt sind) zu widerlegen versuchst? So geht das bei einer Sachdiskussion (von der ich allerdings nicht glaube, dass es Dir daran gelegen wäre).

Die Behauptung, dass ich für angebliche Marketinglügen (Dinge, sich die für Dich falsch darzustellen scheinen, weil Sie zu den erwiesenen Marketinglügen im Widerspruch stehen) anfällig sei, ist absurd, in Anbetracht der Tatsache, dass ich die Dinge immer hinterfrage (was Du aber offenbar nicht nachvollziehen kannst, da Du das nie tust).

Du präsentierst leider

Du präsentierst leider keine Fakten, sondern nur das, was du glaubst.

On a modern processor, if x86 decode hardware takes up twice as many transistors as RISC decode hardware, then you're only talking about a difference of, say, 4% of the total die area vs. 2%. (I used to have the exact numbers for the amount of die area that x86 decode hardware uses on the Pentium 4, but I can't find them at the moment.) That's not a big enough difference to affect performance.
http://arstechnica.com/old/content/2005/11/5541.ars

Allein, dass dir bei deinen Vergleichen kein Licht aufgeht...

Again, there is no magic pixie dust here, and the impact of the ISA alone on power consumption in processors that draw many tens of watts is negligible. A multicore ARM chip and a multicore Xeon chip that give similar performance on compute-intensive workloads will have similar power profiles; to believe otherwise is to believe in magical little ARM performance elves.
http://arstechnica.com/business/news/2011/02/nvidia-30-and-the-riscifica...

Aber es macht ohnehin kein "KLICK". Daher erstmal ciao.

Dann hinterfragen wir das mal

Zum ersten Zitat:
1. Der Satz den Du hervorhebst, bezieht sich auf die Auswirkung des x86 Overhead auf die Performance. Ich rede aber von der Auswirkung auf den Stromverbrauch bzw. Performance/Watt.
2. In dem Zitat wird von der Fläche gesprochen, die der x86 Overhead an der Gesamt-Diefläche verbraucht, ich aber spreche von der Fläche die der x86-Overhead im Vergleich zum Prozessorkern verbraucht.
3. Was genau bezeichnet Hannibal hier als Decode-Hardware? Ist der Instrukctions Cache Teil der Decoder-Hardware oder nicht? Gehört der Reorder-Buffer und die Branch Prediction dazu? etc. pp. Es schreibt ja selber, dass er keine genauen Zahlen hat. Würde man diese Einheiten zu der RISC-Dekoder dazurechnen, könnte es schon hinkommen, dass ein x86-Dekoder nur doppelt so groß ist, wie ein RISC-Dekoder bei einem OoOE-Prozessor.
4. Den "modernen Prozessor", den Hannibal hier anspricht, handelt es sich um Pentium iV. Der Pentium iV hatte eine relativ kleine x86 Übersetzungseinheit. Diese wurde vor den L1 Instruktions-Cache gelegt. Instruktionen, die hunderte Male gebraucht wurden, mussten so nur einmal dekodiert werden. Daher konnte der x86 Translator relativ schwach ausgelegt werden (man brauchte den Platz für die langen Pipelines).
Für den Pentium 2 schreibt Hannibal in seinem Buch "Inside the Machine" wurden 40% des Prozessorkerns für x86 Translation verwendet (im Gegensatz zu dem Wert in Deinem Zitat ist das ein Wert, an den er sich nicht nur irgendwo aus den Tiefen des Gedächtnisses zu erinnern meint).
Core basiert direkt auf dem Design des Pentium 2. Vom Pentium 2 zum Core wurden nicht nur die Recheneinheiten, sondern auch die x86 translator erweitert, sodass das Verhältnis ungefähr gleich geblieben sein müsste.
5. Das Verhältnis von Dekodier-Hardware im Verhältnis zur Gesamt-Diefläche hat sich seit 2005/Pentium IV auch deshalb verschoben, weil auf einen Die mittlerweile nicht nur ein Prozessorkern sitzt, sondern bis zu acht davon.

Außerdem empfehle ich Dir noch einmal einen Blick auf den Floorplan des AMD Bobcat, welchen AMD veröffentlicht hat. Dort sind die x86 Translationseinheiten farbig markiert und als solche bezeichnet (x86 Decode in rot und Ucode ROM in gelb). Diese Einheiten sind zusammen ziemlich genauso groß, wie die Fix- und die Fließkommaeinheit des Bobcat zusammen. Wirf im Vergleich dazu mal einen Blick auf den Floorplan eines ARM Cortex A9. Wie auch bei anderen RISC-Prozessoren sind die Decoder dort so klein, dass man sie auf einem Bild nicht als Fläche markieren kann.

Die Fakten sprechen dagegen, dass die Dekoder Hardware beim x86 ist in Vergleich zur Dekoder Hardware bei RISC-Prozessoren nur doppelt so groß ist. Sie ist eher zehn oder zwanzig mal so groß.

Zum zweiten Zitat:
Darauf hatte ich schon geantwortet.
Damit ein ARM, der die Performance eines Xeon liefert, genauso viel Strom verbrauchen kann, würde das bedeuten, dass beim ARM der Stromverbrauch mit höherer Performance weitaus mehr ansteigen müsste, als beim x986. Da der Anstieg des Stromverbrauchs mit Anstieg der performance aber durch die Physik bestimmt wird, wird der Stromverbrauch beim ARM mit dem gleichen Faktor ansteigen, wie er beim x86 ansteigt. Womit er beim Performance-Niveau eines Xeon immer noch um Faktor 10 niedriger liegt.
Hier liegt Hannibal ganz einfach falsch, weil im Widerspruch zur Physik und zur Logik.

Übrigens sind Deine beiden Zitate durchaus keine Fakten, sondern Meinungen/Schlüsse eines Autors, welche nicht durch Fakten untermauert werden und daher auch nicht überprüft werden können.

kurze Antwort

Der x86 Decoder hat in etwa die selbe Größe in der Abbildung wie ROB. Sieht IMHO wegen der seltsamen Form nicht handoptimiert aus, sondern nach der Nutzung eines Tool wie Synopsis (schlechter als handoptimiert).
Und du zählst den Ucode ROM dazu. Seltsam, dass der nicht rechteckig ist. Angenommen der gehört dazu. Was ist schlimm daran? ROM frisst so gut wie keinen Strom.
Der x86er ist eben einen Tick größer. Aber eben nur einen Tick und keine Dimensionen. Viel zu wenig, um von dem Effekt zu sprechen, an den du glaubst.
Im Gegenzug hat gerade Intel die beste Fertigung und einen wesentlich mächtigeren Befehlssatz, der deutlich mehr kann. Und daher läuft es darauf hinaus, was Hannibal geschrieben hat.
Und nein: Er liegt bei der Physik auch nicht daneben. Ein ARM hat deutlich weniger Power pro-MHz als eine leistungsfähige Intel-CPU. Daher braucht ein ARM auch viel mehr Takt, um das auszugleichen (nicht gerade der beste Weg).
x86 haben viele Vorteile: Compiler, Betriebsysteme, Software und sind auf ihren Bereich optimiert. ARM sind ebenso auf ihren Bereich optimiert. Es ist richtig, dass ARMs immer leistungsfähiger werden aber in höheren Regionen verbrauchen sie auch mehr Saft. Der Weg über die MHz ist nicht der beste Weg. Ab einem bestimmten Punkt wird der Befehlssatz komplexer um die Performance zu verbessern. Und der Weg über mehr und mehr Cores ist auch nicht die pauschale Lösung, um das zu umgehen.

Rätselraten

Ich nehme an, du wolltest auf den Artikel von John Hinweisen? Ein Proposal wäre angebracht.

Nur kurz dazu: Er hat unrecht.

Theoretisch benötigt man, um die selbe Leistung ab zu liefern, ähnliche Resourcen. Es kommt aber auf die Umsetzung an. Es ist eben nicht egal, ob ich mit Schiff, Zug und LKWs Dinge in einem gewissen Umfang stetig zum Kunden bringe (Frequenz * Volumen). Oder ob ich diese mit Flugzeugen & Rennautos zustelle.

Intel muss eben wegen Windows die Altlasten mit herum schleppen, Altlasten die vor allem Chipfläche benötigen und die Komplexität erhöhen. ARM kann bei geplanten Server-Produkten ganz auf Durchsatz und Einfachheit bauen, dafür eben mehr produktive Einheiten auf den Chip verbauen. Vielleicht kann der ARM Chip bei den gewohnten Intel-dominierten Benchmarks nicht absolut mithalten (Performance / Watt dann wohl doch), aber er kann anders Punkten, in der Bandbreite.

Je mehr, Stück für Stück, Parallelität Einzug hält, um so schneller wird Intel ins Grab steigen. Intel ist bereits jetzt die Spezial-Nischen-Lösung für singuläre Probleme. Im Moment mit dem Vorteil, das wir nur Singulär denken und programmieren. Das wird sich massiv ändern.

Nicht nur mittels Parallelität

ARM hat bislang nur deshalb keine High-Performance-Chips designt, weil der Markt nicht da war. Das könnte sich ändern, sobald Windows für ARM verfügbar wird. Wenn ARM den Markt sieht, werden die evtl. Prozessoren auf Single-Thread-Performance trimmen und die werden dann ganz sicher deutlich sparsamer und billiger sein, als entsprechende x86er. Der PowerPC im Mac hat auch immer mit den x86ern im PC mithalten können, obwohl eher Halbherzig entwickelt, weil der Mac für den PowerPC nur einer von vielen Bereichen war, während beim x86 alle Ressourcen in die PC-Chips gesteckt hat.

Nur kurz dazu: Du hast Unrecht.

Du hast Unrecht. In Desktoprechner usw. (also dort wo x86 dominiert) spielt der "x86-Overhead" so gut wie keine Rolle. Auch moderne RISC-CPUs sind nicht mehr so einfach gestrickt, wie früher mal und haben auch "Overhead" (das wäre auch bei ARM der Fall, wenn man da versucht in andere Leistungsbereiche vorzudringen). Das wird jeder IMHO mit fundiertem (!!!) Wissen bestätigen, der neutral ist und keine Fanboybrille aufhat. Du und vor allem dein Kollege und andere hier argumentieren auf einem Wissenstand, der vielleicht mal vor Jahren (90iger) gestimmt hat.
Das sind auch Schlachtfelder, die mehr oder weniger uninteressant geworden sind. Sich hier über x86 aufzuregen ist Zeitverschwendung. Es ist völlig OK, wenn man andere Architekturen bevorzugt aber hier so einen Kindergarten abziehen, über den Leute mit Wissen sich die Tränen vor Lachen aus den Augen wichen... muss nicht sein. Selbst wenn es stimmen würde (was es aber nicht tut - zumindest nicht so wie hier dargestellt), ist es letztlich uninteressant, da es nur die Hardware ist, die kein Selbstzweck ist.
Wie gesagt x86 hat enorme Vorteile in seinem Segment. Angepasste Software und Compiler und vor allem Kompatibilität + Virtualisierung der ganzen x86 Betriebsysteme - egal ob es schmeckt oder nicht schmeckt. Ich stimme zu, dass das nicht in allen Umfeldern relevant ist. Und schon gar nicht dort, wo ARM seine stärken hat. Im Privatbereich und durchaus auch in anderen Segmenten reicht das in Zukunft evtl, so dass es dann für bestimmte Anwendungen auch egal ist, wenn ein x86 mehr Leistung hat (dann zählen die anderen Vorteile, die ARM hat).

First, there's simply no way that any ARM CPU vendor, NVIDIA included, will even approach Intel's desktop and server x86 parts in terms of raw performance any time in the next five years, and probably not in this decade. Intel will retain its process leadership, and Xeon will retain the CPU performance crown. Per-thread performance is a very, very hard problem to solve, and Intel is the hands-down leader here. The ARM enthusiasm on this front among pundits and analysts is way overblown—you don't just sprinkle magic out-of-order pixie dust on a mobile phone CPU core and turn it into a Core i3, i5, or Xeon competitor. People who expect to see a classic processor performance shoot-out in which some multicore ARM chip spanks a Xeon are going to be disappointed for the foreseeable future.
http://arstechnica.com/business/news/2011/02/nvidia-30-and-the-riscifica...

Hier wird ein Krieg auf Schauplätzen auf dieser Seite geführt, der sonst nicht existiert und eigentlich auch völlig uninteressant ist. Das ist nur die Hardware und da ist die Sache ziemlich eindeutig bzw. Intel/x86 hat gewonnen. Interessanter sind andere Dinge, wie das System und die Software, die auf der Hardware laufen.
Diese Grabenkämpfe sind lächerlich und Leute mit echtem Wissen lachen maximal drüber. So wird und wurde der Mac auch immer in erster Linie wegen seinem System gekauft und nicht, weil da irgendeine bestimmte Hardware im Gehäuse steckt (Ausnahmen bestätigen die Regel).

Es ist aber richtig, dass ARM in seinem Bereich große Vorteile hat - und der Bereich wird wie oben schon geschrieben und auch im Ars-Artikel größer. Spannend ist, wie auch im Artikel, wie und ob Intel da gegen halten wird. _Momentan_ ist aber hier ARM fest im Sattel. Mir gefällt auch die Situation, dass ARM momentan so stark im kommen ist.
Für Netbook typische Aufgaben sind bzw. werden ARM durchaus Optionen (auch wenn die _derzeit_ noch nicht wirklich schnell sind; ich kenne eine ARM-Laptop).

Eigentlich wollte ich hier aus Zeitgründen nicht mehr posten.

Just the facts, Watson

Das Problem ist nur, daß es auf Desktops - bis auf die paar Spinner, die noch PowerPC-Maschinen mit einem modernen OS betreiben - keinen Vergleich mehr gibt, warum wissen wir alle - Danke, Steve. Da kann man dann locker-flockig alles behaupten.

Zu den Compilern: Die XLC-Compiler von IBM holen auf einem G5 nochmal locker 10-20% mehr Performance raus als der gcc.

Zur Virtualisierung: Die G5 konnten schon Virtualisierung (weil von POWER abgeleitet), als Intel das noch nicht mal buchstabieren konnte. Unter Linux läuft KVM schon immer mit den G5, da die in der Hardware alles nötige haben.

Bei der Überflugs-Lektüre des arstechnica-Geschreibsels habe ich in der Tat fast Tränen in den Augen. Xeon als "performance-Leader" kann man wirklich nur dann propagieren, wenn man alles aus dem POWER + SPARC-Bereich einfach ignoriert. Intel's "process leadership" führt bei IBM wohl zu Lachkrämpfen, aber gut. Von mir aus.

Der x86-Overhead spielt keine Rolle.

Ich verstehe das Energieproblem nicht, wir haben doch Strom aus der Steckdose.

Die in Deinem ersten Absatz geäußerte Meinung hat nichts mit "fundiertem Wissen" zu tun. Das ist wiederholen von Marketinglügen, welche Intel und AMD Anfang der 2000er massiv verbreitet haben als Propaganda "x86 everywhere". Das gilt auch für die Behauptung, dass die RISC-vs-CISC-Diskussion eine Diskussion um den Wissensstand der 90er wäre.
Glücklicherweise ist es zum x86 everywhere nicht gekommen. Mit den geänderten Rahmenbedingungen, wie der Entwicklung in Richtung mobile Computer ist die RISC-vs-CISC-Diskussion aktueller denn je.
Steigende Komplexität von RISC-Prozessoren hat nichts mit dieser Diskussion zu tun. Denn so komplex ein RISC-Prozessor auch sein mag, durch die RISC-Prinzipien werden die zusätzlichen Recheneinheiten, die beim x86 zum Dekodieren benötigt werden und einen erklecklichen Teil des Prozessorkerns für sich beanspruchen, bei diesen Prozessoren nicht gebraucht.

Kurze Anmerkung

Ich beziehe mich mit meinen Kram auf den Mac bzw. das klassische x86 "Einsatzgebiet" (inkl. Server). Nicht auf den ultra mobilen Markt (Handys & Co). Das sollte aber klar sein.

Natürlich

Auch in dem Bereich ist der x86-Overhead eine erhebliche Ressourcenverschwendung (die beim "Mac" viele Nachteile und keine nennenswerten Vorteile bringt, bei Servern bestenfalls den Vorteil der geringener Kosten bei der Erstanschaffung).

Wäre schade

> Eigentlich wollte ich hier aus Zeitgründen nicht mehr posten.

Noch besser wäre es, wenn du ab und zu mal einen Artikel schreiben würdest. Zumindest eines mußt du uns zu gute halten, wir scheuen die Diskussion nicht.

Ich kann und will auch, gebe ich zu, nicht Glauben, dass Komplexität keine Nachteile mit sich bringt. Und das ist es, was du letztendlich behauptest. Nur weil sich ein System durchgesetzt hat und dies optimiert wird und reibungslos funktioniert, heißt dass nicht, dass es keine andere Lösung geben muss. Auch die Nadeldrucker sind verschwunden. Und ich möchte über den Tellerrand Intel/x86/AMD64 hinaus sehen.

Wenn du im vollen Umfang recht hättest, dürfte es ARM nicht geben, denn Intel könnte mit entsprechend leistungs(schwachen/fähigen) Produkten doch locker mit ARM mithalten, das Feld mit den satten Gewinnen subventionieren und ARM aus den Markt drängen. Geht nicht. Weshalb? Weil die Annahme nicht stimmt?

Ich bestreite weder, das es Anwendungen gibt, die für Intel/AMD64 optimal sind. Ebenso andere Anwendungen und Probleme, die andere Architekturen besser lösen können. Weswegen hoffentlich jede Uni ihren Supercomputer zusammen stellt und es keinen Einheitsbrei gibt.

Ich würde gerne diskutieren, ob Intel/x86 nicht schon längst Geschichte wäre, hätte sich nicht Intel/AMD64 durchgesetzt? Und wenn nicht Intel soviel Macht und Geld gehabt hätte, dann AMD/AMD64. Intel steht zwar nicht umsonst auf dem strahlenden Platz, aber alles haben die auch nicht erfunden. Und wenn es nicht AMD64 gegeben hätten, dann ist dir hoffentlich klar, das wir heute mit IA64 arbeiten würden, teilweise, und ansonst tatsächlich noch mit x86 und maximal 3 GB Arbeitsspeicher. Wettbewerb ist nicht schlecht, oder?

Und weil du das MacBook Air ins Spiel gebracht hast, ein Paradebeispiel für mich. Die Einsatzgebiete, in denen das produktive Arbeiten mit einem MacBook Air den teuren Core Prozessor rechtfertigt, dürften an einer Hand ab zu zählen sein. Oder sehr persönliche Gründe haben. Ein Quant mehr Leistung würde ein 38cm Laptop (15" MacBook Pro) rechtfertigen. Ein Quant mehr Mobilität ein 25cm (10 Zoll) Netbook mit Atom oder ARM.

Und ich werde das Gefühl nicht los, das du den Wettbewerb verhindern willst, mit dem Argument, das Intel/x86 doch gut genug für alles sei und es Andere nicht besser machen können. Ich würde es aber, vor allem aus Wettbewersgründen gerne versuchen, einen Laptop mit Multi-Core ARM und Linux. Auch wenn der nicht besser ist. Aber ich hätte gerne die Möglichkeit eine Auswahl treffen zu können. Ist das, selbst als einziger Grund, nicht legitim genug?

Licht über Kupfer

Intel hat Light Peak verbockt. Daher kommt Light Peak "erst mal" über Kupferleitungen. http://news.cnet.com/8301-13924_3-20025179-64.html
In Anbetracht dessen macht es Sinn, auch "erst mal" keine neue Schnittstellenbuchse einzuführen, sondern ungenutzte Leitungen der vorhandenen Displayport-Schnittstelle zu nutzen. Es wird sowieso nie Geräte, außer Displays gegen, die an Thunderbold angeschlossen werden können.

Hö?

Hö????
Optische Kabel sind ebenso in den Spezifikationen drin. Bei Kupferkabeln dreht es sich wohl hauptsächlich um die Kosten.
Die können aber zumindest mal um 10 W zu transportieren.
Geräte wird es auch dazu geben. Daisy-Chain ist möglich.
Es ist ein "Verlängerungsmedium" für den PCI-E Bus.
http://www.intel.com/technology/io/thunderbolt/index.htm
http://www.lacie.com/de/technologies/technology.htm?id=10039

Intel hats verbockt

Intel war wohl nicht in der Lage, die angekündigten optischen Module zu entwickeln, die für die Verwendung von optischen Kabel gebraucht würden. Ansonsten ist Thunderbold technisch keine große Herausforderung.
Intel hat versagt. Wie immer, wenn es nicht möglich ist unlauterem Wettbewerb innerhalb von monopolartigen Strukturen die Konkurrenz an die Wand zu fahren.

Die Antwort von Dir war mir klar...

Mögliche Kostengründe, der Vorteil mit dem Strom usw. ... alles das zählt nicht.
Die Technik kommt von Intel. Intel ist böse. Daher muss an allem Intel die Schuld haben. Intel muss unfähig sein. So einfache Schwarzweißmalerei muss man auspacken.
Umgekehrt wäre es ganz toll, wenn die Technologie irgendwie in Zusammenhang mit PowerPC oder so stehen würde :-))
Alles klar^^

Ja.

Intel bringt nur Schrott auf den Markt. Aber da kann ich doch nichts für.

Ganz genau. Der Schrott

Ganz genau.
Der Schrott läuft nur leider so gut. :(

Aber ich bin mal weg.
Happy Bashing!

Ja.

Kommt halt drauf an, was man "so gut" nennt. Deine Ansprüche sind wohl doch extremst viel niedriger, als meine.

Doch noch einen letzten.

Deine Ansprüche können nicht sonderlich hoch sein, da du lange die Meinung vertreten hast, dass ein G4 reicht. Dabei musste ich immer noch einen PC haben, da mir der G4 eben nicht gereicht hat, da er eben so langsam war. Durch den Intel-Switch konnte ich leistungsmäßig erstmals mit einem Apple Laptop überhaupt in Betracht ziehen auf einen extra PC zu verzichten.

Nur weil Apple in der Codequalität geschlampt hat, was schon zu PPC-Zeiten angefangen hat, hat dies nichts mit der Architektur zu tun.

Übrigens:
"If we had just grabbed the Intel Pentium chip and done a one-way and two-way pizza box with Solaris on it, Linux never would have happened," McNealy said. "Google today would be running on Solaris." Oracle is still offering and developing Solaris.
http://www.infoworld.com/d/the-industry-standard/mcnealy-sun-could-have-...

Code-Qualität

Zur Einführung von Snow Leopard hast Du noch behauptet, dass das Wegfallenlassen von PowerPC gut für die Code-Qualität wäre, weil Apple sich so auf x86 konzentrieren könnte. Auch da hast Du mal wieder gehörig daneben gelegen.

Außerdem hat die Verschlechterung der Code-Qualität durchaus etwas mit x86 zu tun, wenn auch nur indirekt. Das hat den gleichen Grund, aus dem auch zu Intel gewechselt worden ist. Ein weiterer Hinweis dafür, dass der Wechsel zu Intel nicht aus technischen Gründe gemacht wurde, wie Du gerne glauben möchtest, sondern weil Apple kein Interesse am Mac mehr hat und deshalb kein Geld mehr in die Mac-Plattform investieren möchte. So gibt es für den "Mac" halt nur noch Hardware-Schrott von Intel (während fleißig in die Entwicklung von Prozessor-SoCs und andern Hardware für iOS-Devices investiert wird) und den Code-Abfall aus den iOS-Projekten.

Nope

Schlechtere Codequalität bzw. ungefixte Bugs hat nichts mit Intel selber zu tun (eher im Gegenteil); falls da ein Zusammenhang besteht eher mit dem Zusatzaufwand den eine Portierung und das Pflegen mehrere CPU-Architekturen mit sich bringt (was bei einem Switch nunmal der Fall ist). Zum einen ist das System heute mächtiger, zum anderem ist Apple ein wenig überfordert, da Apple heute viel mehr macht als früher. Es ist klar, dass Apple mit iOS nicht den Anschluss verlieren möchte. Die Entscheidung für Intel ist wohl zu einem Zeitpunkt gefallen, als ein so großer Erfolg von iOS noch die vorhersehbar war (zudem hat sich bestimmt die Roadmap bei Apple durchaus geändert). Intel hätte es IMHO auch ohne iOS gegeben.
Ich habe aber den Eindruck, dass Apple sich fängt. Allein schon die Meldung, dass Apple mal endlich Security-Spezialisten einen Blick auf Lion gewährt, stimmt mich positiv.

Darstellungsoptionen

Wählen Sie hier Ihre bevorzugte Anzeigeart für Kommentare und klicken Sie auf „Einstellungen speichern“ um die Änderungen zu übernehmen.