Alle Beiträge von Florian Schmidt

Schön, dass Sie sich hierher verirrt haben. Oder haben Sie direkt danach gesucht? Wie auch immer: Hier finden Sie News, Kolumnen und Berichte über Technik im Allgemeinen und PC-Hardware im Speziellen.

Intel Broadwell & Skylake: Preise gesichtet

Intel-Roadmap – Broadwell, Skylake-S und -K, Broadwell-E
Dieser Roadmap nach gibt es schon bald frische Intel-Prozessoren für Desktop-Plattformen.

Update (16. Mai 2015): So viel kostet Broadwell für Desktop
Der Start der Broadwell-Prozessoren für Dekstop-Systeme steht unmittelbar bevor – am 2. Juni 2015 soll es soweit sein. Schon jetzt führen einige Online-Händler die Chips in ihren Shops auf und nennen sogar Preise. So kostet der Core i7-5775C als Boxed-Version wohl  499,99 US-Dollar (USD). Den Core i5-5675C gibt es für 379,99 USD. Das sind vergleichsweise hohe Startpreise. Bemerkenswerter ist jedoch, dass der für Herbst 2015 geplante Broadwell-Nachfolger bereits gelistet ist. Die Skylake-Generation debütiert mit dem Core i7-6700 und Core i5-6500, die 388 respektive 250 kanadische Dollar kosten.

Original-Meldung vom 5. Mai 2015
Nachdem kürzlich Details zur Skylake-Generation von Intel publik wurden, gibt es nun eine Roadmap, die diverse neue Prozessoren für das dritte und vierte Quartal 2015 ankündigt. Schon im laufenden zweiten Quartal bringt Intel der Roadmap zufolge Broadwell-Chips für Desktop-Plattformen (Sockel 1150) auf den Markt; dabei handelt es sich um die Modelle Core i7-5775C und Core i5-5675C. Deren integrierte Grafikeinheit „Iris Pro Graphics 6200“ schafft laut Folie 4K-Auflösung bei 60 Hertz, den Stromverbrauch gibt Intel mit 65 Watt (TDP). In bestimmten Situationen sollen es nur 37 Watt sein (cTDP). Als Untersatz dienen Chipsätze der 90er-Serie; entsprechende BIOS-Updates haben bereits einige Mainboard-Hersteller angekündigt. Beide Chips sind übrigens in der nächst höheren Preisklasse eingeordnet als ihre direkten Vorgänger. Das ist in sofern ungewöhnlich, als dass Intel in den vergangenen Jahren die alten Modelle durch die neuen ersetzt hatte, das alte Preisschild aber in der Regel dran ließ. Die genannten Prozessoren werden wohl die letzten für den Sockel 1150 sein – sozusagen die „Söhne des Haswell“.

Die Skylake-S/K-Prozessoren sind ab dem dritten Quartal erhältlich. Sie debütieren als Core i5-6500, i5-6600, i5-6600K sowie als Core i7-6700 und 6700K.  Allen Anschein nach benötigen sie einen frischen Sockel: den 1151, der mit einem Chipsatz der 100er-Serie zusammenarbeitet. Damit dringt auch der neue DDR4-Speicher in Intels Mainstream-Plattform – bisher gibt es den Standard nur im High-end-Bereich bei Intel. Für letzteren gibt es Anfang 2016 einen Generationswechsel: Dann nämlich beerbt Broadwell-E die aktuelle Haswell-E-Reihe, laut Roadmap.

Meine Meinung: Schenkt man den Angaben Glauben, dürfte Intel bereits zur Technikmesse Computex (2. bis 6. Juni 2015) die Broadwell-Chips für Dekstop vorstellen – endlich. Doch die sind eh nur eine Übergangslösung beziehungsweise der krönende Abschluss der Sockel-1150-Plattform. Wesentlich spannender dürfte Skylake-S sein, denn damit kommt DDR4-Arbeitsspeicher in die bezahlbare Mittelklasse an. Wie hoch der Geschwindigkeitsvorteil gegenüber den Vorgänger ist, muss sich zeigen. Davon hängt aber stark ab, ob die Kunden bereit sind, Geld für eine komplett neue Plattform (Mainboard, RAM) auszugeben. Ich bin da aktuell noch eher skeptisch.

Blau, blauer, … : Die Ultra-HD-Blu-ray kommt

Ultra-HD-Blu-ray
Das offizielle Logo kennzeichnet Blu-rays, die für Ultra-HD-Inhalte geeignet sind.

Die Blu-ray Disc Association (BDA) ist eine Vereinigung, die neue Standards bezüglich der Blu-ray-Scheibe definiert. Die jüngste Übereinkunft kommt als Ultra-HD-Blu-ray auf den Markt. Dabei handelt es sich um einen Datenträger, der speziell für ultrahochauflösende Inhalte (Ultra HD, 3840×2160 Pixel) geschaffen wurde. Eine Ultra-HD-Blu-ray fasst 66 Gigabyte (GB, zweilagig) oder gar beachtliche 100 GB (dreilagig), der Durchmesser einer Scheibe bleibt unverändert bei 12 Zentimeter. Auch die Datenübertragungsraten haben sich erhöht. Den Angaben nach unterstützt der neue Datenträger HDR-Filme für kontrastreiche Aufnahmen, die Standards BT-2020 und Rec.2020 für 10 Bit pro Pixel bei 60 Bildern pro Sekunde. Weniger präzise ist die BDA bezüglich der Soundfeatures – die aktuellen Formate DRT:X und Dolby Atmos sind aber heißen Kandidaten. Besonders interessant hört sich die Funktion „digitale Brücke“ an: Gekaufte Inhalte sollen sich damit plattformübergreifend auf stationären und mobilen Geräten schauen lassen – wie das genau funktioniert, ist noch unklar. Offen bleibt auch ein Standard für 3D-Inhalte in Ultra-HD-Auflösung – das scheint kein so wichtiges Thema mehr zu sein. Zum Ende des Jahres werden die ersten kompatiblen Abspielgeräte erwartet.

Meine Meinung: Auch wenn in den meisten Haushalten maximal ein Full-HD-Fernseher steht, ist es höchste Zeit für einen Standard bei Blu-rays für Ultra-HD-Inhalten; die großen Streaming-Anbieter sind hier bereits weiter. Gut: Die BDA beschränkt sich nicht nur auf eine schärfere Bildqualität dank vierfacher Pixelanzahl gegenüber Full HD, sondern setzt mit 10-Bit-Technik (mehr Farbvielfalt) und der digitalen Brücke vielversprechende Akzente. Schade aber, dass die Ultra-HD-Blu-ray erst zum Weihnachtsgeschäft 2015 Fahrt aufnimmt.

Intel Skylake: Details zur GT4-Grafikeinheit

Intel Skylake – Modelldetails
Das Skylake-Line-up samt einigen Details.

Bisher gibt es von Intel folgende in bestimmten Prozessorserien integrierte Grafikeinheiten: GT1, GT2, GT3 und GT3e (wie GT3, aber mit 128 MiByte L4-Zwischenspeicher). Mit Intels Skylake-Generation (speziell für Mobile) kommen offenbar schnellere Grafikeinheiten hinzu: die GT4 und GT4e. Auf einer geheimen Folie, die man Intel zuschreibt, übertreffen die neuen Grafikeinheiten die alten dank 72 sogenannten Execution Units um bis zu 50 Prozent. Dazu sei angemerkt, dass die Werte in syntetischen Benchmarks (3DMark Vantage, 3DMark 11) ermittelt wurden, in denen schon in der Vergangenheit Intel-Grafikeinheiten relativ gut abgeschnitten haben. Die Spieleleistung sollte gegenüber dem Vorgänger trotzdem besser ausfallen – nicht zuletzt wegen Verbesserungen in der Architektur (Gen9). Des Weiteren erhöht sich mit Skylake für den Mobile-Bereich die Akkulaufzeit beziehungsweise der Energiebedarf scheint sich zu reduzieren.  Eine weitere Folie gibt mehr Infos preis: Demnach bringt Intel die Grafikeinheit GT4e auch auf den Sockel 1151. Für Skylake-U ist der Vorgänger GT3e mit 64 MiByte Speicher vorgesehen. Die Broadwell-U-Chips müssen ohne L4-Speicher auskommen  und setzen auf die GT3.

Meine Meinung: Mehr Grafikleistung bei gleichzeitig reduziertem Strombedarf für lange Akkulaufzeiten liest sich wunderbar. Ob Intel es tatsächlich schafft, alle genannten Vorteile umzusetzen, wage ich allerdings zu bezweifeln. Ich tippe darauf, dass die GT4 und GT4e einen messbaren Grafikschub bringen, aber in der Praxis ein Notebook genauso früh schlapp macht wie mit einer Vorgänger-Grafikeinheit.

Windows 10 ohne WMC: Wenn alte Zöpfe plötzlich verschwinden

Während der ereignisreichen Microsoft Build 2015 und kurz danach gab es viele Neuigkeiten zum kommenden Betriebssystem Windows 10. Unter anderem will Microsoft das Windows Media Center (kurz WMC) einstellen. Das hat Gründe und Folgen. Ein Kommentar dazu.

Zunächst etwas zur Historie: Das WMC kam als Neuerung mit Windows XP beziehungsweise war Bestandteil vom 2003 erschienenen Windows XP Media Center Edition. Bis zum Release von Windows Vista gab es zwei größere Updates des WMC. Dann folgten Versionsupdates, die vorrangig die Software an damals neuen Technologien anpassten, etwa die Unterstützung von 16:10- und 16:9-Bildschirmen, von Satellitenfernsehen und des H.264-Codecs für HDTV. Das Windows Media Center sollte als Betriebssystem für Wohnzimmer-PCs dem Markt neuen Schwung geben – und Microsoft wollte davon profitieren. Blöd für den Software-Riesen war nur, dass die Windows-Nutzer dem Windows Media Center eher wenig Beachtung schenkten. Die mäßige Nutzung rechtfertigte nur geringe Ressourcen in die Entwicklung des Programms. Statt mit neuen Ideen und Funktionen dem Windows Media Center frischen Atem einzuhauchen und es wieder attraktiver zu machen, setzte es förmlich Staub an. Bei Windows 8 separierte Microsoft deshalb das WMC und bot es als Download an – anfangs kostenlos, später nahm das Unternehmen rund 10 Euro für die Software. Klar, dass das Interesse weiter sank.

Wie mit anderen mehr oder weniger würdevoll gealterten Microsoft-Programmen setzt der neue Microsoft-Chef und Steve-Ballmer-Nachfolger Satya Nadella bei Windows 10 die Schere scharf an, trennt alte Zöpfe und macht seine Vision zur Wirklichkeit: „Windows 10 ist nicht einfach ein neues Windows, sondern eine neue Generation von Windows“, läutete Nadella die Build-Konferenz ein. Starke Worte. Doch während es für den in Rente geschickten Internet Explorer mit Microsoft Edge bereits einen Erben gibt, bleibt das Windows Media Center ohne Nachfolger. Das Kritische dabei: Der Windows Media Player und das WMC sind software-seitig eng miteinander verknüpft. So liefert das Windows Media Center bestimmte Codecs, die der Windows Media Player mitbenutzt, aber selbst nicht enthält. Folglich kann Windows 10 mit Bordmitteln etwa Film-DVDs nicht wiedergeben. In Zeiten, in denen das Streamen von Multimedia-Inhalten immer mehr Verbreitung findet, ist der Schritt nachvollziehbar. Aber sicher nicht für jeden …

Vergisst Microsoft etwa seine Anhänger, die von Anfang an dabei waren, und deren Gewohnheiten es nun abrupt ändern will? Nein, zum Glück aller Beteiligten nicht. Denn Microsoft hat angekündigt, einen Ersatz bereit zu stellen. Damit ist jedoch kein WMC-Nachfolger gemeint, sondern die Möglichkeit, Film-DVDs wiederzugeben. Wann die kommt und was sie gegebenenfalls kostet, ließ das Unternehmen bislang offen. Bis zum Windows-10-Start ist ja auch noch etwas Zeit.

Windows 10 ist aller Wahrscheinlichkeit nach kein schlichter Fensterputz (Vorsicht, Wortspiel), sondern das nächste große Ding in der Software-Welt – davon bin ich schon jetzt überzeugt. Die vermutlich schwierigste Herausforderung dabei ist, das Gleichgewicht zu halten. Wie viel Bewährtes kann Microsoft wie stark modifizieren oder neu entwickeln, um neue Kunden zu gewinnen und treue Fans nicht zu vergraulen? Das Windows Media Center ist nur ein Beispiel, nur ein alter Zopf. Aufregend, wie wohl die fertige „Windows-10-Frisur“ ausschauen wird.

Nvidia GTX 980 Ti: Halber Titan X & Fiji-Besieger?

Nvidia Geforce GTX 980
Vermutlich schaut die Geforce GTX 980 Ti ähnlich aus wie das abgebildete Modell ohne Ti-Suffix.

Nvidias kommende Oberklasse-Grafikkarte, die vermutlich die Bezeichnung Geforce GTX 980 Ti trägt, steht wohl kurz vor der Veröffentlichung. Während es bislang hieß, Nvidia warte auf einen günstigen Zeitpunkt für den Start, soll letzterer aktuellen Meldungen nach spätestens Ende Mai 2015 erfolgen.  So möchte Nvidia dem Konkurrenten AMD und dessen Grafikkarten der Fiji-Serie (Vorstellung im Sommer 2015) zuvorkommen. Anscheinend basiert die Geforce GTX 980 Ti auf den gleichen Grafikchip wie die 1.200 Euro teure Geforce GTX Titan X, dem GM200 mit einer Besonderheit.  Während bei der Titan X der GM200-400 zum Einsatz kommt, rechnet bei der Geforce GTX 980 Ti wohl eine leicht abgespeckte Variante namens GM200-310. Als sicher gelten jedoch satte 3.072 Shader-Einheiten. Ein weiterer Unterschied betrifft den Grafikspeicher: Von den verbauten 12 Gigabyte bei der Titan X bleiben bei der neuen GTX 980 Ti nur noch die Hälfte übrig. Das ist immerhin 50 Prozent mehr als bei der gleichnamigen Nvidia-Grafikkarte ohne Ti-Suffix. Details zu Taktraten sind bislang nicht bekannt.

Meine Meinung: Bezüglich der Technik brauche ich kaum Worte zu verlieren. Die Geforce GTX 980 Ti dürfte in der Praxis ein superschneller Pixelbeschleuniger sein – und es bleibt spannend, ob AMD mit seiner Fiji-Generation überhaupt mithalten kann. Den Extra-Turbo lässt sich Nvidia aber bestimmt fürstlich bezahlen. Bereits Modelle mit GTX-980-Chip kosten derzeit über 500 Euro. Das ist weit jenseits dessen, was ich maximal für eine Grafikkarte ausgeben möchte. Schade …

Intel Future Showcase 2015: Alle Highlights

Beim Intel Future Showcase (7. Mai 2015, Berlin) gab der bekannte Prozessorhersteller Einblicke in kommende Technologien, die unser Leben bereichern – oder als Prototyp in irgendeiner Schublade enden. Bei keinem vorgestellten Gerät oder Vorserienprodukt glaube ich persönlich an letzterem Fall. Dieses Jahr standen Neuheiten aus dem SmartHome- und Wearable-Bereich im Mittelpunkt. Daneben gab es Neues aus dem Intel-NUC-Umfeld.

Außerdem feiert 2015 das Moore’sche Gesetz sein 50-jähriges Jubiläum. Erschaffen hat es der Chemiker, Physiker und Intel-Mitbegründer Gordon E. Moore. Das Gesetzt besagt, dass sich die Anzahl der Transistoren in einem Mikrochip alle 24 Monate in etwa verdoppelt. Mit neuen Techniken (Lithographie, 3D-Tri-Gate-Transistoren) gelang es Intel bisher, das Gesetz einzuhalten und nicht an physische Grenzen zu stoßen. Rund 1,3 Milliarden Transistoren vereint die fünfte Generation der Core-Prozessoren (14 Nanometer) auf einer Fläche von 131 Quadratmillimetern.

AscTec-Drohne (1)

Bild 1 von 19

Diese Drohne von AscTec fliegt dank Intel RealSense-Technik durch die Lüfte, ohne mit einem Gegenstand oder Lebewesen zu kollidieren. Dem Start-up nach soll das Gerät ausdrücklich nicht für militärische Zwecke dienen. Bei Bedarf lässt sich beispielsweise eine Action-Cam an der Drohne anbringen für spektakuläre Luftaufnahmen.

AMD Radeon R9-390X (Fiji): Klein dank Wasserkühler

AMD Radeon R9-390X – Design
Für eine High-end-Grafikkarte fällt die R9-390X offenbar sehr kurz aus – dank High Bandwidth Memory.

Update (7. Mai 2015): Fiji-Design gesichtet
Die Radeon R9-390X kommt voraussichtlich in zwei Versionen auf den Markt: Zum einen will AMD eine klassische Version mit Luftkühler bringen, zum anderen ist ein kompaktes Modell mit Wasserkühler geplant, berichtet chiphell.com. Weil durch den Einsatz von neuer HBM-Technik keine Speicherbausteine um die GPU platziert werden müssen, fällt die Grafikkarte selbst vergleichsweise kurz aus – 20 Zentimeter Länge behauptet die Quelle. Der Wasserkühler bedeckt offenbar die komplette Karte und somit auch die hitzigen Spannungswandler, für die demnach kein separater Lüfter benötigt wird.

Original-Meldung vom 1. Mai 2015
Während Nvidia mit der Maxwell-Generation seit Monaten neue Grafikkarten auf den Markt hat (etwa GTX 980 und 960), warten die AMD-Fans weiterhin vergeblich auf den Konter. Das derzeitige Top-Modell Radeon R9-290X hat schon über 1,5 Jahre auf den Buckel und hingt der Konkurrenz nicht nur in Sachen 3D-Leistung, sondern auch bei der Energieeffizienz hinterher. Gleichzeitig gibt es mit AMDs Freesync-Technik und DirectX 12 von Microsoft wichtige Techniken, die entweder nur wenige AMD-Grafikkarten unterstützen oder nur zu Teilen. Höchste Zeit also, dass die unter dem Codename Fiji bekannte neue Grafikkartengeneration erscheint. Frische Infos deuten auf einen Release im August hin; zur Spielemesse E3 im Juni könnte eine offizielle Ankündigung erfolgen.

AMD Radeon R9-390X – Specs
Die Webseite videocardz.com hat inoffizielle Infos zur Radeon R9-390X von AMD veröffentlicht. Inwiefern diese wahr sind, lässt sich derzeit nicht endgültig klären.

Was bietet AMDs R9-390X?
Die Info zum Termin stammt von hotchips.org, wonach AMD am 25. August eine Präsentation über neue Grafiktechnologie und Speicher halten will.  Es ist denkbar, dass es dabei um das kommende Top-Modell R9-390X mit sogenannter HBM-Technik geht. Das Kürzel steht für High Bandwidth Memory; der gestapelte Speicher (produziert von Hynix) soll bei der R9-390X mit 4.096 Bit angebunden sein.  Gerüchten zufolge erlaubt das maximal 4 Gigabyte Grafikspeicher, wobei AMD dank eines Verbunds wohl die doppelte Menge unterbringen möchte. Von den für 3D-Berechnungen wichtigen Stream-Prozessoren sind vermutlich 4.096 an Bord. Für eine Oberklasse-Grafikkarte typisch bekommt die Karte über zwei externe Anschlüsse Strom. Wobei noch unklar ist, ob je ein 6- und 8-Pin-Stecker oder zwei 8-Pin-Stecker vorgesehen sind.

Meine Meinung: Es wird höchste Zeit, dass AMD die Fiji-Generation auf den Markt bringt. Denn  auch wenn die aktuellen Modelle keineswegs schlecht sind, hat Konkurrent Nvidia momentan die besseren Grafikkarten im Angebot – auf 3D-Leistung und Energieeffizienz bezogen. Außerdem belebt Konkurrenz den Markt: Also los AMD, haltet eure Fans (ich bin auch einer) nicht noch länger hin!

Spam 2015: Amerika ist erneut Nummer 1

Spam 2015
Das Spam-Aufkommen in Deutschland ist in den vergangen Quartalen stetig gesunken, laut SophosLabs.

Meine Meinung: Die Grafik spricht für sich. Und Platz 1 ist mal ausnahmsweise nicht der beste Rang. Generell gilt: Öffnen Sie keine Links oder angehängte Inhalte in E-Mails, deren Absender Sie nicht kennen beziehungsweise vertrauen. Häufig kopieren die Versender dreist Designs und Logos namhafter Unternehmen, um eine täuschend echte E-Mail zu versenden. Besonders Geldinstitute fragen beispielsweise keine persönlichen Daten via E-Mail ab; so was erfolgt per klassischem Postweg oder in einer Filiale. Als intensiver Gmail-Nutzer kann ich zum E-Mail-Dienst von Google sagen, dass die integrierten Spam-Schutzmechanismen sehr gut funktionieren. Teilweise zu gut: Ein regelmäßiger Blick in den Spam-Ordner kann sich lohnen, um verloren geglaubte Nachrichten zu finden.

Apple Watch – ein Wearable auf Zeit

Viel wurde bereits über Apples neuestes (Must-have-)Produkt geschrieben. Reviews, Tests, Meinungen von Apple- und auch von Android-Nutzern. Und meist lautet der Tenor in etwa so: hübsches Spielzeug, aber zu teuer und zu wenig Nutzen. Ich hatte bereits eine Apple Watch am Handgelenk und stimme der vorigen Aussage in Teilen zu. Hier möchte ich aber auf einen weiteren, oft übersehenden Punkt eingehen – auf die Zeit.

Eins muss man Apple ja lassen: Ob MacBook, iPhone oder die neue Apple Watch – in puncto Design macht dem Hersteller so schnell keiner was vor. Die smarte Uhr ist wirklich ein schickes Accessoire und ein echter Blickfang. Ich hab mich beim Tragen der Apple Watch (die normale Variante und die Sport-Version) selbst erwischt, wie Gefühle des Verlangens über mich kamen. Zum Glück bin ich Realist genug, um mich davon nicht blenden zu lassen. Mindestens 400 Euro nimmt Apple für seine Watch, die ohne weiteres Apple-Gerät (iPhone oder iPad) kaum smarter als ist einer der trendigen Selfie-Sticks. Denn wie die mobilen Stative für Selbstporträts leistet die Apple Watch ohne gekoppeltes Smartphone nicht wesentlich mehr als ein herkömmlicher Chronometer. Dafür geht der Apple Watch nach nicht mal einem Tag die Puste aus und muss an die Ladestation. Wenig smart. Die Bedienung gelingt per Touchscreen oder der sogenannten Digital Crown. Ein geschickter Ansatz, wenngleich er nicht so intuitiv wirkt wie die Steuerung beim iPhone oder iPad. Auch wenig smart. Und dann gibt es bereits die ersten „Skandale“ um die Apple Watch: Scratchgate und Tattoogate, bei denen das Gehäuse – vor allem bei der normalen Apple Watch – besonders kratzanfällig und die Funktionalität des Wearables bei tätowierten Menschen eingeschränkt ist. Sie ahnen, was an dieser Stelle stehen sollte.

Wie anfangs geschrieben geht es hier aber weniger darum, ein Produkt schlecht zu machen. Die Apple Watch könnte tatsächlich DIE Smartwatch sein, die den ganzen Markt richtig in Schwung bringt und die aktuelle Fragmentierung in Fitness-Armbänder und Smartwatches auflöst. In der Vergangenheit gelang dies Apple mehrfach – mit dem iPod, dem iPhone und dem iPad. Warum also nicht auch bei der Apple Watch? Ich denke, Apples Plan wird aufgehen. Mit der Zeit. Beziehungsweise mit einer „Apple Watch 2“, die die Kinderkrankheiten der ersten Generation vergessen lässt. So betrachte ich die aktuelle Apple Watch als ein Wearable auf Zeit, das sicher seine Käufer findet, aber erst mit dem Nachfolger ein echter Erfolg wird.

Ich selbst bin übrigens Android-Nutzer; das sollte an dieser Stelle nicht unerwähnt bleiben. Ich gestehe aber, dass ich von einigen Apple-Produkten angetan bin. Dennoch bleibe ich (vorerst) standhaft. Denn wenn ich für ein MacBook, iPhone oder eine Apple Watch ein kleines Vermögen ausgeben muss, erwarte ich halt auch ein perfektes Produkt. Wenn ich das vielleicht erst mit einer zweiten oder dritten Gerätegeneration bekomme, kann ich warten. Ich habe Zeit.

AMD Zen: Roadmaps offenbar Fakes

Update (3. Mai 2015): Alles fake?
Der Betreiber von planet3dnow.de wurde von AMD direkt angeschrieben wegen der geleakten Präsentationsfolien. Sie seien falsch und wurden zumindest bei planet3dnow.de auf Bitten von AMD gelöscht.

AMD-Zen-Aufbau
So soll AMDs ZEN-Kern aufgebaut sein.

Update (30. April 2015): Neue Roadmaps & Details
Nicht-offizielle Roadmaps sind zwar immer mit Vorsicht zu genießen, doch im Zweifel darf man ja auch mal träumen. Im Forum von planet3dnow.de sind AMDs Pläne für Desktop- und Mobile-Prozessoren aufgetaucht. Demnach stellt der Chip-Hersteller komplett auf 14-Nanometer-Technik um. Die „Summit Ridge“-Reihe stellt die Flaggschiff-Prozessoren mit bis zu acht Rechenkernen und ohne integrierter Grafikeinheit. Die in der Mittelklasse angesiedelte „Bristol Ridge“-Serie bringt AMD als APU heraus; hier sind vier Kerne und eine als „Next Generation GCN Graphics Compute Unit“ an Bord. Für Mini-Computer & Co. ist die neue „Basilisk“-APU vorgesehen, die nur noch über zwei Rechenkerne verfügt. Den Mobile-Bereich will AMD 2016 offenbar mit auf Energieeffizienz getrimmten Bristol-Ridge-, Basilisk- und – exklusiv für Mobile – Styx-APUs versorgen. Bis auf die letztgenannte Baureihe setzen alle auf Zen-Kerne, deren Aufbau eine dritte Folie genauer beleuchtet. Vier Kerne bilden offenbar eine Einheit, die sich einen gemeinsamen Level-3-Cache (8 Megabyte) teilen muss.

Original-Meldung vom 28. April 2015

AMD Zen
AMD Zen (rechts) weist eine neue Mikroarchitektur auf.

Im Vorfeld des „AMD Financial Analyst Day“ (6. Mai 2015) ist eine Präsentationsfolie zu AMDs kommender Mikroarchitektur Zen an die Öffentlichkeit gelangt, die Aufschluss über den Prozessoraufbau gewährt. Demnach spart sich AMD die Aufteilung der sogenannten Integer-Einheit, wie es noch bei den Zen-Vorgängern der Fall war. Die Anzahl der Pipelines steigt von vier auf sechs. Anscheinend kann  ein Rechenkern zwei Integer-Threads gleichzeitig beackern – so lassen sich die Pfeile im Diagramm zumindest deuten. Folglich wird ein physischer Kern als zwei logische erkannt. Bezüglich der Gleitkommaeinheit passt AMD wohl nur die Anbindung der FMACs an; statt 128 Bit stehen Zen die doppelte Menge zur Verfügung. Der Quelle nach schrumpft die Kern-Fläche beim Zen auf zehn Quadratmillimeter (Vergleich: Bulldozer – 19,42 Quadratmillimeter).

Meine Meinung: Bisher liest sich das geleakte Material zu AMD Zen wenig spektakulär. Der vermutliche Wechsel von CMT zu SMT dürfte die Leistung beim Multitasking erhöhen – aber Konkurrent Intel setzt bereits seit Jahren auf SMT. Die Bit-Verdopplung auf 512 beim AVX-Befehlssatz sorgt zwar theoretisch für mehr Power bei Multimedia-Anwendungen, 3D-Bearbeitung & Co. Praktisch muss sich dies aber erst mal beweisen. Ich bin gespannt und drück AMD die Daumen.