O-LED-Monitore? Ist das was?

pit234a

Well-Known Member
Zunächst wollte ich im Abschnitt über HW posten, gehe aber nun doch hierher, weil meine Frage wenig konkret ist.

Ein Monitor spackt gelegentlich, was nach Aus-Ein dann wieder geht, weshalb ich auch den Monitor und nicht Kabel oder GraKa verdächtigte. Ein Tausch der beiden Monitore wäre der nächste Schritt, aber bisher tritt das Problem so selten auf, das ich das noch nicht gemacht habe.
Vorsorglich habe ich mal nachgesehen, was denn Monitore heute so kosten, wenn denn der Fall der Fälle so eintritt. Dabei bin ich darauf gestoßen, dass besonders teuer Monitore angeboten werden, die mit O-LED-Technologie werben.
So seit zehn oder fünfzehn Jahren warte ich darauf, dass sich dies endlich durchsetzt, bin also eine Art O-LED Fan, ohne je einen solchen Monitor real gesehen zu haben.

Als Fan und aus purem Enthusiasmus wäre ich also bereit, die teuren Preise zu stemmen und auf O-LED Monitore zu setzen.
Als Empfänger von ALG und zukünftiger Renter, will ich aber nicht unsinnig Geld ausgeben. (Das soll aber nun kein Jammern sein, zwei Monitore kann ich mir schon noch leisten.)

Deshalb also die Fragen:
Habt ihr damit schon Erfahrung gemacht?
Inwiefern ist der höhere Preis gerechtfertigt?
Ist das hauptsächlich für Gamer interessant, die ja gerne mal mehr für HW ausgeben, oder kann mich das auch im Büro-Alltag und beim Ansehen von Filmen beglücken?
 
Letztendlich kannst du das für dich nur selbst entscheiden, aber vielleicht helfen ein paar Überlegungen. In den letzten Jahren gab es im Bereich Monitore vor allem vier Entwicklungen:

1. Deutlich mehr DPI und damit ein feineres Bild.
2. Größere Farbräume, was insgesamt eine "angenehmere" Darstellung bringt.
3. Schnellere Panels mit deutlich mehr als 60 Hertz Bildwiederholrate. Teilweise mit dynamischer Bildwiederholrate, was gerade bei Filmen und Spielen hilft.
4. Deutlich mehr Kontrast.

Die ersten drei Punkte sind ziemlich unstrittig. Ich kenne niemanden, der einen Wechsel auf einen 4k-Monitor mit 130 DPI und mehr bereut hat. Ganz im Gegenteil, alle fragen sich, warum sie das nicht früher gemacht haben. Das Gleiche gilt für Farbräume. Selbst wenn man nichts mit Grafik macht, nicht spielt und keine Filme schaut, bedeutet ein größerer Farbraum eine natürlichere Darstellung des Desktops, von Webseiten und so weiter. Genauso lassen mindestens 120 Hertz den Desktop insgesamt wesentlich flüssiger wirken.

Daher würde ich, unabhängig dessen, was ich mit dem Monitor mache, den ersten drei Punkten immer Priorität einräumen. Ich würde keinen Monitor mehr kaufen, der nicht mindestens 130 DPI hat. Mehr ist besser. Er sollte den DCI-P3 Farbraum zu mindestens 90% abdecken. Damit hat man mehr Abdeckung, als das für Desktopinhalte genutzte sRGB und eine sehr gute Farbdarstellung. Und ich würde nicht mehr unter 120 Hertz gehen. Dynamische Bildwiederholrate aka Variable Refresh Rate aka VRR halte ich für wichtig, wenn man viel spielt oder Filme schaut. Für den normalen Desktopbetrieb nicht.

Das können die verbreiteten und günstigen IPS-Panels, sowie die etwas kontrastreicheren VA-Panels alles sehr gut. Der Knackpunkt ist der Kontrast. Ich habe 2024 meinen damals extrem guten, 2016 gekauften Eizo IPS-Monitor durch einen LG-Monitor mit VA-Panel ersetzt. Der Eizo war nach Jahren des Dauerbetriebs während Corona einfach durch. Das war für den Desktopbetrieb ein Unterschied wie Tag und Nacht, der deutlich günstigere (aber nicht billige) LG war ein bedeutender Sprung gegenüber dem acht Jahre alten Eizo. Auf für Spiele ist er sehr brilliant und hat eine extrem gute Darstellung. Aber Dinge kommen selten allein und ein paar Wochen später verreckte mein treuer TV. Ich konnte im Rabatwahn vor der Fußball-EM einen LG C3 55" OLED TV für 950€ kaufen. Im direkten Vergleich nehmen sich der Monitor und der OLED im Desktopbetrieb wenig. Aber Spiele und noch mehr Filme sind auf dem OLED schon deutlich brillianter. Filme sind sogar ein ganz neues Erlebnis.

Ich würde mich heute wieder so entscheiden. Klassiche IPS- oder VA-Technik für einen hauptsächlich im desktopbetrieb genutzten Monitor. Günstig, erpropt und keine Probleme mit Einbrennen. OLED für Spiele - wofür ich letztendlich nicht genug spiele - und Filme. Teurer, aber je nach angezeigtem Material zwischen brillianter und massiv besser. Zu dem Preis, dass man in einigen Jahren rausfinden wird, wie gut die Hersteller die Einbrennproblematik und Langlebigkeit wirklich im Griff haben.

Noch ein Wort zu Inhalten: Ich schaue viele Filme. Das OLED-TV profitiert gar nicht mal so sehr von Auflösung. Tatsächlich steckt in vielen älteren Filmen kaum mehr reale Auflösung als FullHD drin. Um bei 4k wirklich mehr Details zu haben, muss man schon aktuelle Produktionen schauen und die sollten auch noch in ausreichender Bitrate kommen, die ja bei Streaminganbietern immer so eine Sache ist. Aber der OLED-TV mag sauberes Color Grading und da sind UHDs bzw. 4k-Streams oft wesentlich besser als Blurays und FullHD-Streams, da sie ein besseres Wiedergabeequipment annehmen. OLED braucht für den vollen Genuss einfach gutes Material und wenn man das nicht hat, kann man sich das Geld auch sparenl.

HDR halte ich für sinnlos. Ich habe sehr, sehr wenige Inhalte gesehen, wo HDR in Form von DolbyVision abseits des HDR-Logos beim Start einen sichtbaren Unterschied brachte. Stranger Things 5 war eines der wenigen Beispiel, die für DolbyVision sprechen. Man kann HDR daher mitnehmen, wenn es nichts kostet. Aber Geld würde ich eher in objektbasierten Surround (Dolby Atmos oder DTS:X) investieren, denn das vollbringt wahre Wunder. Nachdem ich nach Jahren des Experimentierens mit Surround im Heimkino aufgegeben hatte und zum Schluss gekommen war, dass ein gutes Stereosetup abseits von Laborbedingungen im nicht-optimalen Raum und und bei eher lümmelhafter Sitzposition oft besser als aufwändig eingemessenes 5.1 oder 7.1 ist, bringt schon eine billige 3.1-Soundbar mit Kamera zur Positionserkennung mehr Transparenz und Immersion, als ich mit klassischem Surround jemals erreicht habe.
 
Die ersten drei Punkte sind ziemlich unstrittig. Ich kenne niemanden, der einen Wechsel auf einen 4k-Monitor mit 130 DPI und mehr bereut hat. Ganz im Gegenteil, alle fragen sich, warum sie das nicht früher gemacht haben. Das Gleiche gilt für Farbräume. Selbst wenn man nichts mit Grafik macht, nicht spielt und keine Filme schaut, bedeutet ein größerer Farbraum eine natürlichere Darstellung des Desktops, von Webseiten und so weiter. Genauso lassen mindestens 120 Hertz den Desktop insgesamt wesentlich flüssiger wirken.

Das unterschreibe ich sofort.

Bei Monitoren muss man aber sehr aufpassen, OLEDs leiden nach wie vor unter Burn-In (auch in diesem Test aus 2026): im Office-Betrieb 12 Monate bis zur Sichtbarkeit, 24 Monate bis es im Alltag störend ist.
 
Ich hab neulich das hier angeguckt.

Da drinne wird sehr gut erklaert, was die Vor- und Nachteile von OLEDs sind:




TRIGGERWARNUNG: Die Videos von 3003 sind so ein wenig seltsam. Muss man sich drauf einlassen. ABER: WIRKLICH WIRKLICH gut erklaert.



Oh, und ansonsten muss ich noch eine Warnung vor SAMSUNG aussprechen: Ich sitze hier auf der Arbeit vor zwei verfickten 4K-Fernsehern... Die haben die aber als Monitor verkauft.
 
Letztendlich kannst du das für dich nur selbst entscheiden, aber vielleicht helfen ein paar Überlegungen. In den letzten Jahren gab es im Bereich Monitore vor allem vier Entwicklungen:

1. Deutlich mehr DPI und damit ein feineres Bild.
2. Größere Farbräume, was insgesamt eine "angenehmere" Darstellung bringt.
3. Schnellere Panels mit deutlich mehr als 60 Hertz Bildwiederholrate. Teilweise mit dynamischer Bildwiederholrate, was gerade bei Filmen und Spielen hilft.
4. Deutlich mehr Kontrast.

Ich kann Yamagi hier zu 100% zustimmen.

Das einzige evtl. relevante was er nicht erwähnt hat was die letzten 10 Jahre auch besser geworden ist ist "leuchtstärke" - auch ein eckdatum das man je nach Einsatzweck auch noch im Blick haben sollte. Die meisten modernen Geräte, OLED meine ich sowieso, sind hier inzwischen sehr gut, aber es gibt vereinzelnd auch noch "Gurken".

Das ist immer dann relevant wenn man in sehr hellen Räumen oder Outdoor die Geräte nutzt wo das Sonnenlicht für eine zu starke Umgebungshelligkeit sorgt. Privat könnten hier so Wintergärten vor allem relevant sein oder Terassen oder so, oder natürlich bei Notebooks usw wenn man das Gerät mitnimmt, arbeiten im Zug, Flugzeug evtl. auch.
 
Nutze seit zwei Jahren einen 4K 42" OLED TV als zweiten Monitor und auch einen 2K-42" an anderer Stelle im Einsatz. Die werden beide auf 2K gefahren. Die Aufloesung hat gerade mit zunehmendem Alter der Augen immer weniger Einfluss bzw. mit der Sitzentfernung vor dem Datensichtgeraet fuer mich zu tun. Beim Heimkino (120" RGB-Laser) sehe ich mit ~4 Meter Sichtabstand unterschiede zwischen 4K und 2K Inhalten, aber ich finde diese nicht so groß als wuerde dies eine Umstellung auf 4K-BluRays rechtfertigen. Da waere mir der Ton (Atmos) wichtiger, habe aber wenig gutes gehoert und schaue auch gern alte Filme.

Ich sehe bisher keine Einbrennungen beim OLED, ist nicht mehr wie zu den Anfaengen der OLEDs. Wenn es also ein OLED werden kann, dann los. Und mitmachen beim Bildschirmschoner-revival. ;]
 
Das einzige evtl. relevante was er nicht erwähnt hat was die letzten 10 Jahre auch besser geworden ist ist "leuchtstärke" - auch ein eckdatum das man je nach Einsatzweck auch noch im Blick haben sollte. Die meisten modernen Geräte, OLED meine ich sowieso, sind hier inzwischen sehr gut, aber es gibt vereinzelnd auch noch "Gurken".
Das ist ein guter Punkt, an den ich gar nicht bedacht hatte. Das merkt man auch bei Laptops gut. Mein 2018er Thinkpad T480s mit inzwischen recht durchgenudeltem 300 Nits Display konnte man schon am Fenster vergessen, das neue 2025er Framework 13 ist auch auf Balkon und Terrasse kein Problem.
 
Da waere mir der Ton (Atmos) wichtiger, habe aber wenig gutes gehoert und schaue auch gern alte Filme.
Bei alten Filmen wird das prinzipbedingt nichts. Wenn man eine am Stück aufgenommene Soundspur hat, kann man zwar per Softwaremagie Pseudo-Atmos raufmixen, aber für gute Ergebnisse braucht man die einzelnen Samples um sauber Objekte definieren zu können. Und die gibt's halt erst seit maximal zehn Jahren. Da ist man schnell wieder bei der Frage, was sich abseits der eigenen Sehgewohnheiten und Interessen lohnt.
 
Oh! Sag uns am Ende bitte, was es geworden ist! :)
das könnte aber noch was dauern, denn noch funktioniert der alte ja und ich will nur mal vorab schauen...
Aber wer weiß, es wäre nicht das erste Mal, dass mich die Neugier übermannen würde.
Da ist man schnell wieder bei der Frage, was sich abseits der eigenen Sehgewohnheiten und Interessen lohnt.
Meine Situation ist die, dass mein Arbeits-Desktop PC auch mein Fernsehgerät ist. Einen eigenen TV habe ich nicht. Je nachdem, wie oder was ich mache, läuft auf einem Monitor ein Film in HD und auf dem anderen sehe ich im Firefox etwas nach oder lese in langweiligen Momenten (Liebesszenen zB) mal ne Mail.
HD deshalb, weil ich fast nur Filme und Serien aus ARD, ZDF, 3SAT, ORF und deren jeweiligen Ableger ansehe, manchmal auch einen Tatort aus der Schweiz. AFAIK, ist da HD das Maximum. Auch der Sound ist da nicht so bedeutend, obwohl ich seit Jahren schon weiß, dass guter Sound wichtiger ist, als gute Auflösung der Monitore, bzw Filme. Alleine, im Altern werden nicht nur die Augen schwach und weil ich nicht die Nachbarschaft beschallen will, mit dem, was ich gerade sehe oder höre, nutze ich seit langer Zeit schon Kopfhörer. Derzeit einen von Sennheiser, mein zweiter von denen nach meinem AKG, der deutlich besser war, aber Kabelgebunden. Das ist mäßig, geht aber für Tatort, Blues aus den sechzigern und vielleicht die Stones, aber eher enttäuschend für ein Konzert von Haydn. Wobei jemand, der nicht mehr gut hört, hier nicht als Kritiker auftreten darf.

Auf meinem Schreibtisch müsste ich Klimmzüge machen, um mehr als zwei 34" nebeneinander zu platzieren. Das ist dann noch halbwegs angenehm im Sitzabstand zu meistern, lässt aber gleichzeitig schon die Frage nach Curved aufkommen, die ich hier aber nicht gestellt habe. Das kann man sich ja mal kurz und bündig irgendwo im Ausstellungsraum ansehen.
Derzeit schaudere ich eher davor zurück, weil es meine Sehgewohnheit ändern würde, aber Frage nachgeschoben:

Kann man einfach auf Curved umsteigen oder wird einem da (zu Beginn) eher schwindlig?
 
Ad OLED: Ich würd mich da Yamagi anschließen und eher nach den Speccs als der Technologie ausschau halten. Das eventuell besser Bild (Kontroast, Schwarz) ist für mich eigentlich nur in Standbildern sichtbar, also nicht wirklich relevant für mich. Klar bei manchen Anwendungsfällen (wer ständig nur dunkle Horrorgames zockt) mag das nen Unterschied machen, für mich ist allerdings keiner erkennbar (im Bewegtbild).

Was Curved betrifft: Ich hab den Umstieg nie bereut, er ist jetzt auch nicht so wahnsinnig groß, und wenn dann positiv. Ich würde sagen man merkt den Umstieg nicht so wirklich, erst wenn man wieder etwas auf einem uncurved zu tun hat, fällt es einem negativ auf.
 
HD deshalb, weil ich fast nur Filme und Serien aus ARD, ZDF, 3SAT, ORF und deren jeweiligen Ableger ansehe, manchmal auch einen Tatort aus der Schweiz. AFAIK, ist da HD das Maximum.
Die Qualität der Mediatheken der deutschen öffentlich-rechtlichen Sender ist völlig ausreichend, aber weit ab von dem, was mit wirklich guten Material möglich ist. Was irgendwo auch kein Wunder ist und daher nicht als Gemecker verstanden werden soll. 3 Gigabyte H264 für 90 Minuten Film sind einfach ein anderer Schnack als 35 Gigabyte H264 für den gleichen Film auf Bluray. Außerdem haben die Mediatheken tatsächlich immer noch mehr reale Bandbreite als viele direkt kostenpflichtige Mittelklasse-Streamingabos. Trotzdem würde ich ganz persönlich mir dafür keinen OLED kaufen, das lohnt sich nicht. Aber wie gesagt, dass muss man letztendlich für sich selbst entscheiden.

Aber falls hier jemand von den öffentlich-rechtlichen Sendern mitliest: Moderne Codes wären schön. AV-1 spart Lizenzgebüren und bringt bedeutend mehr Qualität bei gleicher Bitrate.
 
Außerdem haben die Mediatheken tatsächlich immer noch mehr reale Bandbreite als viele direkt kostenpflichtige Mittelklasse-Streamingabos.
nicht direkt so wichtig, aber angenehm: ich lade mir die Filme alle paar Wochen Massenweise down und schaue mir das dann von SSD im PC an.
Könnte ja sein, dass sie vorzeitig aus der Mediathek verschwinden...
Einen 90min Tatort von knapp über 3GB in etwa 40 Sekunden auf dem PC zu haben, ist aber schon recht cool.
 
Ehrlich gesagt ist absolut nichts an Tatort cool. :-)
Aber ich verstehe, was Du sagen willst.
Du hast es verstanden, aber trotzdem so gesagt, dass ich reagieren muss: Tatort ist nicht cool, es ist TRADITION.
Die Tradition ist, sich Montags darüber zu unterhalten: "war der Tatort gestern mal wieder schlecht!", "so schlecht fand ich den gar nicht", "aber der xyz regt mich auf" und so weiter.
Den Rest der Woche geht es dann meist ums Wetter oder die Politik. Irgendein Grund zum Jammern findet sich immer.
 
Tatort ist nicht cool, es ist TRADITION.
Ich fand Tatort schon immer furchtbar.
Und wenn eine Tradition furchtbar ist, darf man sie auch ruhig mal ablegen. :-)

Die Tradition ist, sich Montags darüber zu unterhalten: "war der Tatort gestern mal wieder schlecht!", "so schlecht fand ich den gar nicht", "aber der xyz regt mich auf" und so weiter.
Eine Situation, in der ich genötigt werde mir Tatort-Meinung anzuhören, würde ich generell vermeiden.
Aber es ist natürlich nicht verboten, in solchen Grenzen seinen Hang zum Masochismus auszuleben. :-)

Doch - im Vergleich zu guten Serien lässt einen Tatort völlig kalt.
So kann man es natürlich auch betrachten. :-)
Da ich aber generell eher kein Freund von Serien bin, kann ich auch das nicht so richtig nachvollziehen.
 
wenn ich da so schaue, haben die 34" Curved beinahe alle 21:9 mit ca 1,5fach weniger Pixel, als meine bisherigen 4K in 16:9
Pixel ist nicht sooo wichtig, aber es bedeutet auch, dass ich damit wieder ein wenig Arbeit habe und ich frage mich, ob da ein Tatort noch cool aussieht.
Also HD ist ja 16:9, oder verstehe ich da was falsch?
 
Hd ist 1920:1080. also 120x(16:9)
aber eben nicht 21:9 und nicht ganzzahlig vielfach zu 3440 x 1440, was die neuen 34" curved als Standard haben, sofern ich bisher gefunden habe.
Daher meine Frage, wie das sich darstellt. Wenn ich dann breite Ränder habe, finde ich das nicht so cool, weil verschwendeter Platz.
 
Ich habe diesen Monitor im Auge.

Samsung 32“ 6K 165 Hz

Hoffentlich kommt der ohne Features wie „Backlight Bleeding“.

Mein jetziger 4K Monitor war das 4. Modell, drei habe ich zuvor wegen übermäßigem Backlight Bleeding zurückgeschickt.
 
aber eben nicht 21:9 und nicht ganzzahlig vielfach zu 3440 x 1440, was die neuen 34" curved als Standard haben, sofern ich bisher gefunden habe.
Daher meine Frage, wie das sich darstellt. Wenn ich dann breite Ränder habe, finde ich das nicht so cool, weil verschwendeter Platz.
21:9 ist abgeleitet von ultrabreiten Kino-Bildformaten wie Cinemascope. Die gängigen Player wie mpv und VLC skalieren Material auf, bis es auf einer Kante den Bildschirm ausfüllt. Bei HD-Material in 16:9 auf einem 21:9-Display mit 3440x1440 heißt das, dass es in der Höhe auf 1440 Pixel aufskaliert wird und den Bildschirm vertikal ausfüllt. Horizontal ergeben sich links und rechts zum Ausgleich des unterschiedlichen Seitenverhältnis schwarze Balken.

Schwarze Balken an den Seiten gehen meist, je breiter der Bildschirm ist, umso weniger stören sie. Nur oben und unten sind sie widerlich, weil man meist eh schon nicht wahnsinnig viel Höhe hat und das Gefühl bekommt eine Briefmarke anzuschauen.
 
Bei HD-Material in 16:9 auf einem 21:9-Display mit 3440x1440 heißt das, dass es in der Höhe auf 1440 Pixel aufskaliert wird und den Bildschirm vertikal ausfüllt. Horizontal ergeben sich links und rechts zum Ausgleich des unterschiedlichen Seitenverhältnis schwarze Balken.
Das ist gerade, was ich mich gefragt hatte, bzw, was ich befürchte, denn, davon abgesehen, dass 3440x1440 weniger Pixel sind, als 3840x2160, ist das doch deutlich niedriger, also vertikale Auflösung misst nur etwa 2/3.
Ich habe gerade mal eine VM damit laufen lassen und muss sagen, dass mir das nicht gut gefällt, vielleicht, weil es ungewohnt ist. Wenn ich mir vorstelle, dass dieses Rechteck nun auf 34" aufgezogen wird, will mir das nicht gefallen.
Dazu habe ich eben aufs Geradewohl mal vier, fünf mp4 aus der ARD-Mediathek angespielt. Diese sind immer 16:9, aber, um dies zu füllen werden auch schwarze Balken oben und unten hinzugefügt (nicht immer, bei manchen Produktionen halt). Vielleicht wird sich das einmal ändern, aber derzeit ist das halt so und wenn ich nicht jedes mp4 erst noch manuell nachbearbeiten möchte, um die geschwärzten Bereiche zu entfernen, bedeutet das doch genau die von dir beschriebene "Briefmarken"-Darstellung.
Das will ich nicht.
 
Das ist gerade, was ich mich gefragt hatte, bzw, was ich befürchte, denn, davon abgesehen, dass 3440x1440 weniger Pixel sind, als 3840x2160, ist das doch deutlich niedriger, also vertikale Auflösung misst nur etwa 2/3.
Ich habe gerade mal eine VM damit laufen lassen und muss sagen, dass mir das nicht gut gefällt, vielleicht, weil es ungewohnt ist. Wenn ich mir vorstelle, dass dieses Rechteck nun auf 34" aufgezogen wird, will mir das nicht gefallen.
Dazu habe ich eben aufs Geradewohl mal vier, fünf mp4 aus der ARD-Mediathek angespielt. Diese sind immer 16:9, aber, um dies zu füllen werden auch schwarze Balken oben und unten hinzugefügt (nicht immer, bei manchen Produktionen halt). Vielleicht wird sich das einmal ändern, aber derzeit ist das halt so und wenn ich nicht jedes mp4 erst noch manuell nachbearbeiten möchte, um die geschwärzten Bereiche zu entfernen, bedeutet das doch genau die von dir beschriebene "Briefmarken"-Darstellung.
Das will ich nicht.

So viel nachbearbeiten kann man da ja auch garnicht wenn man nicht eine Verzerrung haben möchte, es kommt halt auf das org. Drehformat an in dem der Film gedreht worden ist, das ist imho eine harte Grenze um die man nicht voran kommt (+ ggf. spätere Bearbeitungen des Materials zb wenn ne 90er 4:3 Serie später auf DVD übertragen wurde, gabs da ganz gruselige sachen).

Wenn ich mal wieder ein paar alte Darkwing Duck folgen schaue in 4:3 muss ich mit großen Balken links/rechts leben wenn ich nicht möchte das Darkwings Schnabel auf einmal viel breiter ist als im original.

Das hat man ja auch z.B. wenn man alte DOS-Spiele gerne spielt die meist auf eine feste Auflösung definiert sind, das ist teilweise ne Wissenschaft für sich.
 
So viel nachbearbeiten kann man da ja auch garnicht wenn man nicht eine Verzerrung haben möchte,
oh, keine Ahnung, ob das heute noch so ist, aber "früher" habe ich so etwas durchaus häufiger gemacht und zwar mit avidemux.
In der GUI wird das aktuelle Bild dargestellt und ohne etwas zu Strecken oder zu Dehnen kannst du das Bild beschneiden. Wenn du genau den geschwärzten Bereich weg schneidest, hat dein neues Bild ein anderes Seitenverhältnis, aber keine Verzerrungen.
Die schwarzen Balken werden ja bei der "Ausstrahlung" dem originalen Bild hinzugefügt. Meist erhält man im Ergebnis, also befreit von den zusätzlichen schwarzen Balken, ein sehr gutes Pixelverhältnis und oft sogar in gängigen Standard-Formaten. Die Kameras arbeiten ja doch meist mit diesen Standard-Formaten.
 
Zurück
Oben