Die CPU-Architektur ist leider für das Echtzeitdecoden von MPeg nicht besonders gut geignet. Dafür eignen sich Decoderchips wesentlich besser. Einen HTPC mit Full-Feature DVB1 Karte (mit Mpeg2 Decoder onboard) sollte z.B. schon mit einem PII laufen, da die gesamte Bilderzeugung von der TV-Karte übernommen wird (VDR-Prinzip), die CPU ist nur für die interne Verwaltung zuständig. Schließlich arbeiten in einem SAT-Receiver ja auch keine Gigaherzboliden.
Erst wenn auf dem Rechner andere Compressionsformate wie DIVX (Mpeg4) wiedergegeben werden sollen, muss die CPU von Mpeg4 nach Mpeg2 transcodieren. Da man das gerne in Echtzeit und ohne Unterbrechung hätte, wird die CPU natürlich entsprechend mehr beansprucht, d.h. es müssen genug Reserven für die normalen CPU Aufgaben vorhanden sein.
Ähnliches gilt ebenfalls für HTPCs mit Budget-Karten (ohne Mpeg2 Decoder), hier muss auch die CPU den Mpeg2 stream decodieren. Wer also gleichzeitig aufnehmen und schauen will (z.B. Timeshift) sollte das bei der Wahl seiner CPU bedenken. Das reine Aufnehmen ist nicht das große Problem, da der Mpeg-Stream nahezu 1 zu 1 auf die Platte gepackt wird. Erst wenn die Bilder wiedergegeben werden müssen, kommt es zu Problemen, wenn die CPU zu schwach ist.
HDTV wird in Mpeg4 codiert, also nach einem ähnlichen Verfahren wie DivX. Super, werden jetzt manche sagen, DivX kann mein Rechner jetzt schon. Ja, aber maximal mit PAL-Auflösung 576i (768*576=442368 Bildpunkte), also im 4:3 Format. Außerdem ist PAL ein Halbbildverfahren (interlaced), d.h. es werden nacheinander die geraden und ungraden Zeilen übertragen. Die Anzahl der Bildpunkte, die im Moment berechnet werden müssen, darf man also noch mal durch Zwei teilen.
HDTV wird aber definitiv in 16:9 gesendet, in Europa höchstwarscheinlich mit 720p (1280*720=921600 Bildpunkte) im Vollbildverfahren (auch als Progressive Scan bekannt), also mehr als viermal so viel. Da kann man sich etwa vorstellen, was die CPU zu leisten hat.
Nicht umsonst lassen sich die vereinzelt erschienenen DVDs im HDTV-Format nur auf entsprechenden Rechnern abspielen.
Wenn die ersten TV-Karten mit HDTV-Decoderchip herrauskommen (auch DVB2 genannt und zunächst nur für Satellit, also DVB-S2) wird sich das auch wieder relativieren. Da die Chips sowohl Mpeg2 als auch Mpeg4 decodieren können (Schließlich wird ja nicht das gesamte Fernsehprogramm umgestellt), wird die CPU auch nicht mehr so stark gebraucht. (Ohne Werbung machen zu wollen, was diese Chips können kann man
hier schon absehen)
Mal unabhängig von HDTV, solltest du dir erst überlegen, welche TV-Karte du dir kaufst. Eine FF-Karte mit Mpeg2 Decoder (Allerdings kannst du dann nur ein Linuxsystem mit VDR einsetzten) oder eine Budget, ohne .
Als nächstes, ob du auch Filme, die in anderen Formaten (DivX, XviD, etc. ) codiert sind, damit abspielen willst.
Ein aktuelles VIA-System mit 1,2GHz (z.B M12000) mit FF-Karte kann unter Linux problemlos die obengenannten Aufgaben erfüllen, bei HDTV kommt es dann darauf an, was die neuen TV-Karten an CPU-Last benötigen.
Sparky
P.S: Für alle, die sich für HDTV und was das ist interessieren, vielleicht werden sie
hier etwas schlauer.