Nvidia will 4K-Auflösung in Spielen etablieren

NvidiaMomentan zieht die kommende Volcanic-Islands-Serie von AMD einen Großteil der Aufmerksamkeit auf sich. Immerhin wurden die neuen Grafikkarten auf einem Event offiziell angekündigt und es geistern bereits diverse Benchmarks des Flaggschiffs, namentlich Radeon R9 290X, durch das Internet. Sollten sich diese bewahrheiten, so hätte die Geforce GTX Titan einen Gegenspieler, der mindestens genauso schnell rendert. Wir berichteten außerdem über den Catalyst 13.9 sowie die Beta-Version des Catalyst 13.10, die beide bereits mit dem am 17. Oktober erscheinenden Betriebssystem Windows 8.1 kompatibel sind. Überdies erntet das Unternehmen viel Lob mit den immer besser werdenden Linux-Grafiktreibern.

Doch die Konkurrenz aus dem Hause Nvidia ruht nicht. Die Kalifornier, deren tragbare Shield-Spielekonsole zurzeit mit Lieferengpässen zu kämpfen hat, bieten mittlerweile zum Beispiel ein Free2Play-Paket für Geforce-GTX-650-Grafikkarten an. Darüber hinaus arbeitet der Prozessorhersteller aus Santa Clara an der Geforce GTX 750 Ti, die wohl in den nächsten Wochen das Licht der Öffentlichkeit erblicken wird. Dafür spricht auch, dass die Grafikkarte inzwischen in die Datenbank des Überwachungstools AIDA64 eingetragen wurde.

Nvidia 4K-Auflösung - Banner

Auf der diesjährigen Internationalen Funkausstellung (IFA) in Berlin war vor allem die Ultra-HD-Auflösung von 3.840 mal 2.160 Bildpunkten ein gewichtiges Thema. Der Hype um die sogenannte 4K-Auflösung ist inzwischen allerdings wieder etwas abgeebbt, denn bislang gibt es kaum entsprechendes Material. Die meisten TV-Sender senden aktuell nur in 720p und Blu-ray-Disks sind in der Regel bei 1080p am Ende. Demzufolge machen Fernsehgeräte in 2160p aktuell noch keinen wirklichen Sinn. Der Branchenverband Bitkom geht jedoch davon aus, dass Ultra HD im Jahr 2016 den Massenmarkt erreicht haben wird.

Aktuell ist der Computer wohl die einzige Plattform, die bereits flächendeckend mit der 4K-Auflösung umgehen kann. Der Grafikspezialist Nvidia hat inzwischen auf seiner Internetseite angekündigt, die neue Auflösung in Computerspielen zu fördern. Ultra HD ist jedoch viermal so aufwendig wie die beliebte Full-HD-Auflösung, weswegen zurzeit wohl nur die schnellsten Single-GPU-Grafikkarten und Multi-GPU-Systeme schnell genug für aktuelle Computerspiele in 2160p sind. Dies wird sich jedoch mit den zukünftigen 20-Nanometer-Grafikkarten ändern, doch dies ist zum gegenwärtigen Zeitpunkt noch Zukunftsmusik.


Kommentar schreiben

  • Loggen Sie sich oben mit ihren Benutzerdaten ein, um Kommentare zu verfassen.
  • Falls Sie noch kein Mitglied sind, können Sie sich in unserem Forum registrieren.

8 Kommentare

8.) rizawi 04.10.2013 - 03:46 Uhr
TVs haben eine viel niedriger Pixeldichte und lassen sich damit viel billiger fertigen, ausserdem kann man da viel einfacher Superlative verkaufen. Die können jedes Jahr ein noch grösseres Modell verkaufen und jeder will iwo eine grosse Glotze in seinem Wohnzimmer. Ausserdem schreiben sie einfach alle 2 Jahre ne neue Technologie drauf wie Pixel Plus, Pixel Ultra, Super Pixel, etc.
Monitore haben das Problem, das sie kleiner sind, aber mehr DPI benötigen, weshalb es teurer ist sie zu produzieren. Ausserdem ist es ein Zubehörteil, viele kaufen für ihren PC einen 200€ Monitor, der halt 1080p kann und das war's.
Dieses Zubehörteil steht meist in irgend einer Ecke, man kann also damit keinen virtuellen Schwanzvergleich betreiben, was sicher bei über 50% der TV Käufe eine Rolle Spielt.

Auf der technischen Seite haben 99.9% der TV Medien 24fps, das ist weniger als die Hälfte von 60Hz, ein 100Hz TV mit einem billigen Videoprozessor für 10€ das Stück Reinkosten, bläst dir alles was das TV zu bieten hat auf das maximal mögliche auf. BRs sprechen für sich selbst, da sie schon die maximale Qualität haben. Den Unterschied sehen nur die wenigstens zwischen einem guten und einem schlechten Bild, eher noch an den Farben und der Tiefenschärfe durch hohe Bitraten als an der eigentlichen Res, darüber gibts dolle Studien.
Man arbeitet aktuell offensichtlich eher am Design der Geräte und daran fehlende Bildinformationen zu ersetzen, als daran einfach gleich mehr Bildinformation zu liefern.

Wer sich den Kapitalismus mal in Reinkultur angucken will, muss nur mal in nen Saturn gehen, die lassen da 365Tage im Jahr 500 TV Geräte laufen, vom billigescheiss für die Küche bis zum 120" Brecher, aber in der Ecke für PC Monitore stehen vielleicht 10 Geräte fürs Büro, maximal 1 halbwegs ordentliches Gerät, eig. nie etwas gescheites. Da sieht man womit das Geld verdient wird...
Wer da aktuell 4k sucht, sucht vergebens, aber wenn ist es der TV am Ende des Hauptgangs, das ist der Wohnzimmerkönig. Bis in einer Mediamarktfiliale ein 4k Monitor für PC steht wird es 2020 sein.

Im Vergleich würde ich vielleicht schätzen, wenn man einen unspektakulären 24" Monitor und einen 48" TV für jeweils 100€ produziert, kann man den 24" Monitor vielleicht für 312€ und 67 cent dem Endkunden auf Amazon anbieten, aber den 48" Fernseher für 999€ glatt.
7.) Mr.Smith 04.10.2013 - 00:42 Uhr
Ja da gebe ich dir recht.

Und klar gibt es paar 120Hz Monitore aber alle mit TN Panel.Und mit IPS hast du recht und hoffentlich kommt ein Panel was 120Hz hat und die eigenschaften vom IPS und das zu ein guten Preis.

Habe das gefühl,das der Monitor Markt irgendwie langsamer ist,als der TV Markt.Habe ich zumindest das gefühl.

Den einen Eizo Monitor gefällt mir sehr gut.Zwar nur 60Hz aber gut ist der.
6.) rizawi 04.10.2013 - 00:14 Uhr
gibt doch mittlerweile einige 120Hz Monitore (alleine Prad zeigt 83)? Schwieriger finde ich es allgemein ergonomische Monitore zu finden(k.a. wie man sich einen Monitor kaufen kann bei dem man die Höhe, Neigung und Drehung nicht verstellen kann) und ich verstehe auch den ganzen Breitbildwahn nicht. Albern sind diese ganzen Witzangaben auf Geräten, wie 600hz , HD ready, dynamischer Kontrast und was weiss der Geier was man sich so ausdenken könnte...

Was IPS angeht ist es aktuell einfach teuer. Es gibt eig. kein gescheites 120Hz IPS Panel das ich kenne, einfach weil IPS Panels oft nicht so hohe Reaktionszeiten haben und damit für Spiele und 3D ghostingtechnisch ein Horror sind. Interessant dafür wäre mal S-IPS/ AH-IPS / E-IPS, was aber neuer und damit noch teurer ist -> ich geb auch keine 2000€+ für einen 30" Monitor aus.
Davon abgesehen gibt es trotz verbesserter Technik einfach keine Geräte mit mehr als 60Hz. Die Geräte sind für einen anderen Konsumentenkreis attraktiv, den interessieren solche Technologien nicht...

Was die Quali angeht bin ich mit TN eig. zufrieden, man könnte nur deutlich mehr auf der Palette anbieten in Punkto Bilddiagonale und Auflösung. 27" ist bei 3D Monitoren schon so ziemlich das Grösste, mehr als 1080p sind quasi nicht vorhanden und gerne verwendet man iwelche statischen Füsse wie bei einem TV. Bis vor einem Jahr war der VG278H quasi der einzige in seiner Klasse, was ich schon traurig fand, auch wenn das durchaus ein sehr gutes Gerät ist wie sein Nachfolger... Mittlerweile bieten auch einige andere gute Geräte an über 24", aber keine Quantensprünge, eher Kopien und oft genug durch Designfehler unbenutzbar...
5.) Mr.Smith 03.10.2013 - 14:07 Uhr
Das geilste ist,alle Schreien nach höcheren Auflösungen ob TV,Handys oder sonst wo aber es gibt kaum Mediums,die es nutzen und vom Preis braucht man auch nicht zu reden für ein 4K TV.Auch Oled TV kosten ein vermögen obwohl die vom Bildqualität 1A sind.

Was auch sehr schade ist,das es keine oder sogut wie kaum gute Monitore gibts,die 120Hz können und dazu ein guten Panel(Rede von IPS u.s.w und nicht von TN^^) haben zum Zocken.

Selbst die TV's haben schon mehr Hz als jeder PC Monitor.Und was bringt ein Monitor der über 2000x Auflösung,TN Panel und läuft nur auf 60Hz? Dann lieber Full HD Auflösung,IPS Panel und 120Hz.Das wäre geil und wenn einer Fragt,warum 120Hz,der soll ein 60Hz und daneben ein 120Hz Moni stellen.Denn unterschied sieht man sofort und ich würde sofort ein nehmen :)
4.) rizawi 03.10.2013 - 02:32 Uhr
Weil ich Magenkrämpfe und nichts besseres zu tun hatte, hab ich mal Zahlen geschubst und zusammengefasst, was sich hauptsächlich darum dreht was Sinn macht in Punkto Auflösung, Entfernung und Sichtwinkel.
Das ist teils ein Antwortpost von mir aus einem anderen Forum und ich bin zu faul das jetzt komplett zu editieren. Grob geht es auch darum, warum Konsolen aus der letzten und der kommenden Generation dem gesamten Gaming ein Bein stellen, da es ja wie einige auch hier wissen werden schon wieder um die endgültige Auflösung und Details einiger kommender Spiele geht(Ryse mit 900p sagt dem gesunden Menschenverstand, das auch die PS4 nur mit 1080p und kaum AA daher käme, wäre Ryse nicht exklusiv und das ist gerade mal die aktuelle Cryengine):

Warum der PC seit ca. 2000 eine Auflösung von 2048x1536 unterstützt und man sich auf 4k freut? Es heisst virtuelle Realität, das gilt besonders auf Open World, Shooter, Simulation, Strategie, etc., ebend alles was grafisch ansprechend sein soll. Wäre Grafik egal, würden sich die Leute nicht drüber freuen, wenn dann wirklich in einem Spiel der Putz bröselt und Steine auf dem Boden aussehen, als könnte man sie wirklich aufheben.
Was ist also der erste Schritt zu maximalem Detailgrad? Natürlich das Ausgabegerät und damit zählt in erster Linie die DPI Zahl (denn der Monitor ist das Erste auf dem Weg vom Auge zur Grafik, ohne gescheites Ausgabegerät ist eine Titan nur eine teure Heizung) und daraus folgt:
Punkt 1:
Auf 25cm Entfernung kann das menschliche Auge ca. 300dpi wahrnehmen, bei 50cm sind es noch 150, bei 1m sind es noch 75dpi, 2m 37.5dpi, 3m 25dpi etc.(Anmerkung: eig. ppi, aber dpi ist das gängige Mass auch wenn es sich um Pixel und nicht um Punkte handelt). Bei einem 30" Monitor bedeutet das für die üblichen 50cm Entfernung also, das man eine Auflösung von 3920x2205 benötigt um das Auge auszureizen, was in etwa 4k entspricht(3840x2160). Bei 1m reichen bereits 1080p, bei 2m 540p, etc.

Punkt 2: erst ab einem Abstand von maximal 3 mal der Bilddiagonale, sind Unterschiede von 720p zu PAL erkennbar, erst ab dem 2.5 Fachen sind sie deutlich. Das heisst bei einem 40" Fernseher kann man aus 3m Entfernung nur durch Artefaktbildung überhaupt sehen, das man 576i guckt, der Unterschied zu 720i bis 1080p ist optisch nicht vorhanden(Anmerkung: natürlich sieht man den Unterschied 576i zu 1080p auf einem LCD TV, denn der kann kein PAL, der Vergleich bezieht sich auf eine gleich grosse Röhre).
Zu gut deutsch, z.b. ein Konsolenspieler verliert schon alleine durch die Entfernung zu seinem TV in etwa sagenhafte 80% an Bildinformation, wenn er nicht mehr als 40" hat oder näher als 3m dran sitzt. (Dies ist eine Referenzgleichung, nur durch annähern des Betrachters an den Monitor kann dieses Problem überwunden werden, was aber bei aktuellen grösseren Geräten mit teils gigantischen Pixelmasken(schwarze Linien zwischen den Pixeln) und niedrigen dpi Werten unansehnlich ist. Nicht zu vergessen der grafische Abfall, der ohne Kantenglättung in weit weniger als 1080p aus der Konsole kommt.

Punkt 3: das menschliche Auge hat ein Sichtfeld von annähernd 180° horizontal und +60° bis -70° vertikal(130°)(oh wunder, 180:130 ist ~4:3, wer also 16:9 und breiter geil oder natürlich findet, hat scheinbar zu viel gesoffen, aber dazu gleich).
Das heisst jedenfalls erst mal, man sollte mit den Augen mittig vor dem Monitor sein oder ein ganz kleines bisschen über der Normalen. Ausserdem heisst das für einen 30" Monitor bei 50cm Entfernung, das man gerade mal ein Blickfeld von 67° hat horizontal und 41° vertikal. Klingt ziemlich schlecht?, gerade mal ca. 1/3 von dem was das Auge kann? Aber abwarten, bei einem 40° Fernseher entspricht das bei 3m Entfernung noch sage und schreibe: horizontal 16.8° zu vertikal 9.5°. Ziemlich furchtbar: Im Vergleich zu einem PC Monitor auf 30" mit 1080p, verliert ein Konsolenspieler bei 3m Entfernung zu 40" also insgesamt sage und schreibe 98% Bildinformation.
Das erklärt vielleicht auch, warum man lieber Augen, Ohren oder besser gleiche den ganzen Kopf zu macht, wenn Konsolenspieler anfangen von Grafik zu reden, denn Leute mit noch 2% Sehvermögen würde man im RL kein Auto mehr fahren lassen, 3 schwarze Punkte auf die Schulter drucken und 2 3 mal am Tag Essen auf Rädern schicken.

Fazit:
Man kann das jetzt genau so fürs TV sagen, durch die Entfernung von 3 oder mehr Metern zum Gerät, geht so viel von HD und co. verloren, das es schon wieder sinnlos ist.
Ich hab es ausgerechnet, um das Bild von einem 30" 4k Monitor bei 50cm auf einem 3m entfernten TV gleichwertig zu geniessen, bräuchte man ein 160" 4k Gerät.
Ich weiss ja nicht was ihr alle dazu denkt, aber bei 4m Diagonale was in etwa 2m Höhe und 4m Breite entspricht bei 16:9, gehen mir in meiner Wohnung die Wände aus und vor allem muss der TV dann zum Falten sein, das ich durch die Türen komme. Nicht zu vergessen das bei diesem gerät vermutlich da wo bei anderen der Netzstecker rein kommt ein kleines rundes Loch ist mit der Aufschrift: "insert plutonium here"

Davon ausgehend, das wir wohl gerade mal eine Marge unter 1% für Geräte über 80" haben und das der Abstand zum TV im Schnitt wohl eher zwischen 3 und 5m liegt, ist 1080p im Wohnzimmer mehr als ausreichend und 4k vollkommen sinnlos. Damit fehlt ein gigantischer Markt, den man nur durch Werbelügen erschliessen kann um 4k rentabel zu machen, aber nur schwer und nur so lange bis es doch mal raus kommt was es für ein Unfug ist. (aber bisher hat's ja oft genug geklappt, ich kenne durchaus Leute die behauptet haben sie hätten jetzt ein besseres Bild mit Ihrem Rückprojektionsfernseher, ihrem 1366x768 34" LCD o.ä., selbst ein Tamagotchi macht ein Schärferes Bild als eine dieser Technologien)

An der Rechnung zu 4k starb übrigens 3D im aktuelle Anlauf, bei einem 40" Fernseher auf 3m Entfernung ist einfach der Sichtwinkel viel zu klein, das ist wie so ein Wackelbild auf 10x5cm im Vergleich zu 3D im Kino und weit nicht so beeindruckend, wie wenn man es an einem gescheiten PC guckt oder halt auf einer Blick füllenden Leinwand.

Viel wichtige fände ich übrigens, das man sich in Film und Fernsehen erst mal damit beschäftigt die Bildraten zu erhöhen, denn bei 24fps sehe ich das Bild ruckeln auf einem guten Pannel ohne aktivierten Bildverbesserungsmodus und das stört mich 10 mal mehr als eine schlechte Auflösung und ich fand es wirklich eine Schande, das HFR nach dem Hobbit so verrissen wurde, obwohl heute jede Billigglotze mehr als 100Hz kann.

Zum Gaming, rein theoretisch: Es würde viel mehr Sinn machen dem Spieler erst mal höherwertigen Inhalt zu bieten und lieber Technologien wie die Rift zu fördern, statt Grafikchips mit einer Wahnsinns Auflösung zu töten. Ich finde es gut 4k zu fördern und zu unterstützen, aber wenn ich Ingame niedrige Texturauflösungen hab, wenig Polygone und die Schatten aussehen wie das Blatt einer Säge, hilft mir das alles nichts. Zu gut deutsch, man erkauft die 4k in Shootern mit Defiziten an anderen Stellen wie z.b. fehlender Umgebungsphysik. Selbst in einigen extrem schlauchartigen Leveln, schafft man 4k mit einer Titan gerade so, das es spielbar ist. Man müsste aktuell permanent aufrüsten, nur um 4k auf Ultra spielen zu können und da reden wir noch nicht von Open World und Spielen die Latenz erfordern in maximalen Details. Wie aus meinem Post hervor geht, wird die PS5(ja, die nach der PS4) noch nicht mal 4k können, wozu auch? Da geht der Support von einem riesigen Markt flöten, für den aktuell 90% der populärsten Spiele produziert werden. GTA V ist absolut einfallslos, hohl und hässlich, aber der amerikanische Markt dominiert, denn wir alle wissen welche 3 genannten Eigenschaften der amerikanische Standardbürger mit GTA V teilt, da ist er quasi zu Hause. Daran wird sich auf die Schnelle nichts ändern, also kann man lediglich um den Markt kämpfen, aber das ist David gegen Goliath.
Wenn Nvidia jetzt ernsthaft bis 2016 4k "etablieren" will, frage ich mich mit wessen finanziellen Mitteln? Andererseits kann Nvidia solche Sätze reissen, im Gaming werden die jetzt zusammen mit Intel Konsolen bashen, aber bashing allein verkauft gar nichts.

abschliessendes Fazit: Warum reden wir also eig. über 4k? Weil's geht. Warum wollen einige 4k? Weil's geht.
Und was ist das Problem dabei? Nur einer aus 1.000.000 rüstet so weit auf, "weils geht", deshalb sind Dual GPU Karten Sondereditionen, die Titan Enthusiast/Premium, 4k Monitore rar, etc. . Es macht keinen Sinn einem Standardkunden etwas anzubieten, was er bei Bestem Willen nicht sieht und so lange die nächsten 2 3 Grafikgenerationen nicht so einen Sprung machen, das man 4x so viele Pixel und gleichzeitig linear mehr Ingamedetail haben kann, seh ich da schwarz. Um nicht zu sagen: ich kauf mir eh erst einen 4k Monitor wenn er in 30-32" kommt, ergonomisch dem VG278 entspricht den ich aktuell habe und 240Hz unterstützt. Das ist fast schon ein Designerprodukt und keine Massenware...
Das ganze Thema "4k weils geht" unterstreicht das Bluraykonsortium, was sich nach wie vor über keinen Standard geeinigt hat, einfach weil eine petition für eine HFR oder 4k Bluray weltweit nur 1000 Leute unterschreiben, von denen sie dann vielleicht 100 kaufen. Da ist es schon teurer einen zu beschäftigen der die Petition liest, als am Ende durch den verkauf eingenommen wird.

Quelle der Ausgangswerte für meine Berechnungen und auch so sehr interessant:
http://inwa.beepworld.de/grenzaufloesung.htm

P.S. iwie befürchte ich das Buch was ich hier verfasst hab wird keine Sau lesen :D ...
3.) Phenocore 02.10.2013 - 20:10 Uhr
Anstatt 4K zu fördern, sollte Nvidia lieber Content fördern, der noch bessere Grafik liefert als bisher. Das ein 3D-Model nicht so aussieht, wie im realen Leben, obwohl dies vom Spiel erwünscht ist, werde ich sowohl in 1080P als auch in 4K erkennen.

Ob 1080P oder 4K werde ich hingegen nicht erkennen, solange ich nicht zu nah am Bildschirm sitze.

Aber real aussehende Welten zu erschaffen ist halt teur und aufwendig, da "fördert" man mit ein wenig Werbung lieber 4K um seine High-End-Grafikkarten weiterhin Auslasten zu können und damit genug Käufer für diese zu finden...
2.) Overclocked 02.10.2013 - 03:34 Uhr
rizawis comment ... herrlich :D
1.) rizawi 01.10.2013 - 18:53 Uhr
Im Zuge der Studie das Konsolenspieler von 3m Entfernung 720p von 1080p nicht unterscheiden können, stellt sich die Frage wozu im Wohnzimmer 2160p überhaupt gebraucht wird.
Am PC ist die Technik ja wohl ein Alter Hut, mein 19" Monitor konnte 2000 schon ne Auflösung von 2048*1536, wenn auch nur noch bei unschönen 60Hz und einige Spiele haben das sogar gut gepackt mindestens auf 1600x1200 bei 75Hz(also schon in etwa FHD und mehr vor über 10 Jahren). Im Profibereich gab es damals durchaus schon Geräte die mehr konnten, wenn auch manche aus mehreren Panels bestanden oder Röhren...

Ich bin der Meinung auf unter 1m Entfernung machen Auflösungen von 1600p oder höher nur Sinn auf 30" oder grösser für Gaming/Film und bei Entfernungen von mehr als 1m, sollte auch die Grösse des TV Gerätes äquivalent steigen, sonst hat man davon gar nichts. Ich behaupte der Pöbel würde 2160p zu 1080p nur eindeutig auf einer Bildgrösse von über 80" identifizieren können, bei einem Abstand von 3m oder höher.

Es ist auch kein Mediamarkt, wo die natürlich den Klopper zwischen die schlechten Geräte stellen und dann da Promo-Material einspielen. Der Normalo sollte immer bedenken, das er auf der Glotze auch noch Fernsehen will und seit HD+ Betrug ist und nicht gescheit funktioniert und Sky horrend Kohle kostet, sollte man sich zu den 10-20k € Anschafungskosten für ein Gerät das 480i Fernsehen halbwegs ansehnlich auf 2160p aufbläst, auch schon mal mit den Zusatzkosten anfreunden um dann wirklich mal Material der Res gucken zu können.

Da stellen sich jetzt die einzig relevanten Fragen, wer bezahlt das, wer hat so viel Platz und wer braucht das überhaupt?
Es hat sich am PC nicht durchgesetzt, weil der Markt zu klein war, warum sollte das im TV Bereich anders sein? Die Leute die die meiste Zeit haben, legen Wert darauf das ihr Programm so wenig wie möglich Inhalt hat, da spielt dann auch die Auflösung keine Rolle, selbst wenn das Amt natürlich einen 4k Fernseher bezahlen würde, freies Recht auf Medien, und viele Rentner eh net wissen wo hin mit ihrem Schotter....
Das ist nicht sonderlich anders als mit 3D. 20Mio "mutige" probieren das im Kino mal aus (seit 1930 immer mal wieder) und sagen: "boar, das so was möglich ist". Dann sehen sie es mal zu Hause bei iwem und stellen fest: "naja, so wie im Kino ist das jetzt auch nicht und die 5 Filme kann man ja auch nicht das ganze Jahr 100 mal gucken".

Von dem allen ausgehend basiert die Prognose bis 2016 nur auf einem, man muss den Leuten irgend etwas neues verkaufen, warum und wozu spielt keine Rolle, Hauptsache viel verkaufen.
Wenn also die Produktion von 4k Panels bis 2016 so billig wird, das Hans Wurst für 500€ das Einsteigermodell in seine Bude hängen kann, nur um damit auf die Kacke hauen zu können wie Scharf RTL in 4k ist, wird sich das vielleicht durchsetzen, aber genau so gut kann das auch mal in die andere Richtung gehen und ein paar Berichte verreissen das ganze, schon sitzen wir bis 2030 auf 1080p.
Was dann davon tatsächlich gesendet wird, um noch mal zum TV zu kommen steht auf einem ganz anderen Blatt. So lang wir in Dtl. staatlich kontrolliertes Assi TV für alle haben, statt wie alle anderen dezenten Länder einen kostenlosen 24/7 Nachrichtenkanal und sonst payTV, werden wir nie auch nur nahe am Zahn der Zeit sein. Sich nur für deutsches TV einen aktuellen Fernseher kaufen ist zum Fenster raus geworfenes Geld hoch 10 und damit ist es per se sinnvoll nicht Massenmarkt fähig bis vielleicht 2050 hier in Dtl.. Denn das Altersheim will ich sehen, wo dann Abends Avatar in 3D 4k läuft. Hansi Hinterlader und seine Freunde bläst man lieber nicht auf solche Auflösungen auf, da vergeht einem nur der Appetit...