39178

Grafikchips in CPU integriert, USB 3.0 und kabellose Energieübertragung

02.12.2008 | 12:55 Uhr |

Nehalem- und Swift-Architektur: Das Ende der Stand-Alone-Grafikchips

Als AMD den Grafikkartenhersteller ATI übernahm, vermuteten viele Branchenbeobachter, dass das vereinigte Unternehmen an einer Fusion von CPU und GPU (= Grafikchip) arbeiten würde. Diese Arbeit ist schon weiter fortgeschritten, als man vermuten könnte.

Die Fakten: Im Bereich der Desktop-PCs bekommen Grafikchips nach wie vor eine große Aufmerksamkeit, während On-Board-Grafikchips im Vergleich dazu bei PC-Nutzern eher selten verwendet werden. Aber schon im Notebook-Bereich vertrauen – nach einer Einschätzung von Mercury Research - über 75 Prozent der Nutzer auf einen integrierten Chip. Die Gründe hierfür sind: Extrakosten für eine echte Grafikkarte, die schwierige Installation im Notebook und der größere Energieverbrauch mit der daraus resultierenden kürzeren Akkulaufzeit. Die Integration der Grafikkarten-Funktion in die CPU eliminiert alle diese Probleme.

Chip-Produzenten erwarten, dass die Leistung dieser kombinierten Prozessoren irgendwo zwischen den heutigen integrierten Grafikchips und richtigen Grafikkarten liegen wird. Experten glauben, dass die Leistungsfähigkeit aufholen und damit heutige Grafikkarten überflüssig machen kann. Eine Idee besteht darin, zum Beispiel 4 Kerne einer 16-Core-CPU für Grafikprozesse zu reservieren, was beeindruckende Spiele-Erfahrungen nach sich ziehen könnte.

Der Zeitplan: Intels bald erscheinende Nehalem-Chip-Architektur beinhaltet einen Grafikprozessor innerhalb des CPU-Gehäuses, aber außerhalb des eigentlichen Prozessors. AMDs Swift (auch bekannt als Shrike-Plattform), das erste Ergebnis der kombinierten CPU-Linie, entwickelt dieses Design noch weiter und wird für das Jahr 2009 erwartet.

Es bringt gewisse Herausforderungen mit sich, den Grafikprozessor mit der CPU auf denselben Chip zu packen: Die Hitzeentwicklung könnte eine davon sein, aber das bedeutet nicht, dass diese Probleme unlösbar sind. Die beiden Nachfolger von Intels Nehalem, Auburndale und Havendale, beide für das zweite Halbjahr 2009 angekündigt, könnten die ersten Prozessoren sein, die GPU und CPU auf einem Chip vereinen, aber das Unternehmen äußerst sich bis jetzt noch nicht dazu.

USB 3.0 beschleunigt Datenübertragung mit externen Peripherie-Geräten

Die USB-Steckverbindung ist einer der größten Erfolge in der Geschichte des Computers; bis heute wurden mehr als 2 Milliarden USB-Geräte verkauft. Aber im Zeitalter der Terabyte-Festplatten ist der Datendurchsatz von 480 Megabit pro Sekunde, den USB 2.0 maximal schafft, nicht mehr ausreichend.

Die Technologie: USB 3.0 , auch bekannt als „Superspeed USB“ verspricht eine um den Faktor 10 erhöhte Datenübertragungsrate; der theoretisch mögliche Datendurchsatz soll auf ein theoretisches Maximum von 4,8 Gigabit pro Sekunde angehoben werden. Damit könnte man die Datenmenge einer kompletten CD-R in einer Sekunde kopieren. Die USB-3.0-Geräte werden einen etwas anderen Stecker haben, der aber voll kompatibel zu den jetzigen USB-Steckern sein soll (und umgekehrt). USB 3.0 soll die Energieeffizienz der USB-Geräte wesentlich verbessern: Statt 100 Milliampere können nun bis zu 900 Milliampere bereitgestellt werden. Dies bringt schnellere Ladezeiten für iPods mit sich – und vielleicht für noch verrücktere Gadgets als die bisherigen USB-Raketenabschussrampen und USB-Getränkekühler auf unseren Schreibtischen.

Der Zeitplan: Die USB-3.0-Spezifikation ist fast fertig; die Marktreife soll im Jahr 2010 erreicht werden. In der Zwischenzeit wird sich eine ganze Gruppe von High-Speed-Anschlüssen auf den PC stürzen: Display Port, eSata und HDMI. Alle diese stehen in Zusammenhang mit HD-Video. Sogar Firewire wird ein großes Update auf eine Geschwindigkeit von 3,2 Gigabit pro Sekunde erleben. Die Schnittstellen-Vermehrung wird die Rückseite des PCs im ersten Moment vielleicht in eine etwas rätselhaften Landschaft verwandeln, aber dafür werden wir in Zukunft mehrere Möglichkeiten für Hochgeschwindigkeitsverbindungen mit Peripheriegeräten haben.

Kabellose Energieübertragung

Die kabellose Energieübertragung war ein Traum seit der Zeit, als Nikola Tesla von einer Welt träumte, die gespickt ist mit Tesla-Turbinen . Abgesehen von den Fortschritten bei der Aufladung kabelloser elektrischer Zahnbürsten hat die kabellose Energieübertragung bisher keinen nennenswerten Eingang in die Consumer-Elektronik gefunden.

Die Technologie: In diesem Sommer haben Forscher bei Intel eine Methode demonstriert, die am Massachusetts Institute of Technology (MIT) entwickelt wurde und mit der man elektrische Energie über ein paar Meter übertragen kann – ohne Kabel und ohne Gefahr für Menschen in der näheren Umgebung (soweit bisher bekannt). Intel nennt die Technologie „ Wireless resonant energy link “; sie funktioniert auf die Weise, dass ein spezielles 10-Megahertz-Signal durch eine Drahtspule gesendet wird. Eine ähnliche Drahtspule in der Nähe schwingt auf derselben Frequenz mit und verursacht einen Elektronenfluss. Obwohl dieses Design sehr simpel ist, kann es für eine 60-Watt-Glühbirne 70% der Energie liefern.

Der Zeitplan: Ein paar Hindernisse bleiben noch übrig; eines davon ist die Tatsache, dass das Intel-Projekt Wechselstrom verwendet. Um Peripheriegeräte aufzuladen, ist Gleichstrom notwendig und die Größe der Apparatur muss noch wesentlich kleiner werden. Einige gesetzliche Regulierungen müssen vor der Markteinführung eines solchen Systems erlassen werden und das System selbst muss gründlich unter Sicherheitsaspekten überprüft werden.

Wenn alle diese Dinge in einem vernünftigen Zeitraum geklärt werden, könnte man sich eine solche kabellose Energieübertragung zu unseren Notebooks schätzungsweise in den nächsten 6 bis 8 Jahren vorstellen. Dann wäre es kein Problem, wenn der örtliche Flughafen oder das Starbucks-Cafe den Energiesender direkt in die Gebäudewand einbaut, damit man schnell sein Notebook aufladen kann, ohne überhaupt die Tragetasche zu öffnen.

PC-WELT Marktplatz

0 Kommentare zu diesem Artikel
39178