Kameratechnik

Kameratechnik

Kamerasignalausgabe in 10 Bit oder 8 Bit?

Kürzlich habe ich mir die DVX 200 von Panasonic gekauft. Da die Kamera intern nur in 8 Bit aufnimmt, habe ich mir für die Zukunft vorgenommen einen externen Rekorder zu kaufen. Die Hersteller geben den Output über HDMI in 10 Bit an, in der Betriebsanleitung steht wage: „Output in 10 Bit in almost every Format“. Was heisst das nun? ist die Ausgabe von 4k in 10 bit möglich oder nur in HD? Ein Problem das bei vielen Kameras herrscht. Man weiss nicht genau, in welchem Format wie viel Bit als Output über SDI oder HDMI übertragen werden. Nicht einmal der technische Support von Panasonic konnte mir schlüssige Angaben machen. Darum habe ich mir gedacht ich teste das Ganze einfach kurz. Hier also eine Anleitung wie ihr einen klaren Unterschied zwischen 10 und 8 Bit aufzeigen können. Vorweg nur durch ein leicht gegradetes Bild in einer normalen Aufnahem habe ich keinen Unterschied erkennen können.

Darum habe ich mir eine weisse Fläche mit ganz leichter Gradiation gegen aussen geschnappt und diese mit der Kamera intern in 8 Bit und extern in 10 bit aufgezeichnet. Danach habe ich angefangen eine Tonwertspreizung durchzuführen.(Die eher dunklen Teile der grauen Fläche abzudunkeln und die hellen aufzuhellen.) Dadurch habe ich einen klaren Unterschied zwischen 8 und 10 Bit erhalten. Dies ist darauf zurückzuführen, dass bei 10 Bit viel mehr Abstufungswerte verfügbar sind als bei 8 Bit. Das Resultat der dvx 200 ist, dass nur die HD Signale in 10 Bit anliegen und die 4K Signale in 8 Bit auch wenn 10 angeschrieben stehen.

Die eindrücklichen Resultate hier:

Das Bild hat nur 8 Bit:

Bildschirmfoto 2016-08-24 um 11.07.52

Das Bild hat 10 Bit:

Bildschirmfoto 2016-08-24 um 11.08.11

Das Bild mit 8 Bit vor dem Grading:

Bildschirmfoto 2016-08-24 um 11.24.36

Das Bild mit 10 Bit vor dem Grading:

Bildschirmfoto 2016-08-24 um 11.24.49

Vor dem Grading ist kein Unterschied zu erkennen

Kameratechnik

Rec 709 Hypergamma oder Log fürs Fernsehen

Grundsätzlich gibt es viele verschiedene Modis ein Bild aufzunehmen. Ähnlich wie im Kino geht auch im Fernsehen der Trend dahin, möglichst viele Farben und Dynamik aufzuzeichnen. Nur, wie fast immer im Leben, die eierlegende Wollmilchsau gibt es auch hier nicht.

grundproblem

Wo liegen die Probleme?

Beim aufzeichnen im Standardmodus mit einem Gamma von 0.45 und Standard Rec 709 ist die Wiedergabe am Monitor analog der Aufnahme auf dem Set. Die Datenrate kann dabei schon stark komprimiert sein, das Farbprofil stimmt genau und auch die Kontraste sind analog unserer Sehgewohnheiten. Eine Erweiterung des Kontrastes ist aber nicht mehr möglich

Beim Aufzeichnen mit Log oder Raw und Cinegammut (erweiterte Farben) stehen weit mehr Möglichkeiten zur Veränderung des Bildes in der Nachbearbeitung zur Verfügung. Das Bild kann in der Helligkeit, in der Dynamik und in den Farben nach Lust und Laune angepasst werden. Die Probleme liegen darin, dass das Bild an einem Standardmonitor nicht akkurat wiedergegeben wird. In der Aufzeichnung sind ausserdem höhere Bitraten notwendig. Es ist schwierig das Bild richtig zu belichten, da die Vorschau am Monitor nur mit einem Lookuptable das ungefähr fertige Bild zeigt. Look Up Tables können aber bei Sony nur im Cine EI Modus verwendet werden. Eine Farbkorrektur ist zwingend!!

Von der Realität zum Abbild

ablauf
Durch die Kamera kommende Photonen werden gebündelt und von den einzelnen Pixeln aufgefangen und in einen Transportstrom umgewandelt.

Dieser Strom wird in einem analog Digitalkonverter in Grau und Farbabstufungen konvertiert.

Je mehr Bittiefe zur Verfügung steht, desto mehr Dynamikumfang kann schlussendlich aufgenommen werden. Die Bittiefe nimmt exponentiell zu!

Als Beispiel:
8 Bit= 255 Stufen 10 Bit= 1024 Stufen 12Bit=4096Stufen 14Bit = 16384 Stufen

Der Transportstrom hat keine Abstufungen, er hat einen weichen Übergang von schwarz auf weiss (Er ist analog). Nach der Digitalisierung sind davon nur noch Grauabstufungen vorhanden. Mit mehr Bit und damit mit mehr Quantisierungsmöglichkeiten kann einerseits mehr Dynamikumfang generiert werden und andererseits können auch feinere Quantisierungen erreicht werden.
digi
Umwandlung einer analogen Signalkurve in digitale Abstufungen

Ein Analog-Digitalwandler wird in seiner Qualität deshalb oft auch nach seiner Bittiefe analysiert. Würden wir danach das Bild direkt abspeichern hätten wir ein Raw. Diese Datenmengen sind für uns aber zu gross, deshalbgibt es ein Gamma.

Gamma

Am Anfang kommen die Bits, desto mehr Bits verfügbar sind umso besser können die Bits verteilt werden d.h. mehr Dynamikumfang bessere Farben.
Bits sind hexadezimal und haben deswegen stufenmässig einen grossen Impact:

Bei 10 Bit kann das Bild also viel feiner abgestuft werden in seinen Grauwerten.

Die Problematik der Linearität:

Licht ist exponentiell, unser Fernsehsystem linear, auch die Kamerasensoren arbeiten linear. Die Problematik besteht also darin etwas exponentielles in etwas lineares zu verpacken. Dabei stossen wir auf folgende Problematik

linear log

Gehen wir von einer Bittiefe von 8 Bit aus:

Exponentiell in Linear verpackt: 1/2/4/8/16/32/64/128/255
Von 1 auf 2 ist genau so eine Blende wie von 128 auf 255. Folglich stehen exponentiell von 128 bis 255 für eine Blende 126 Stufen mehr zur Verfügung wie von Bitvalue 1 auf 2. Erinnern wir uns an die Kerzen stellen aber beide Wertänderungen eine Blende dar.
Im tiefsten Bereich steht also nur eine Abstufungsmöglichkeit für eine Blende zur Verfügung: Dies führt zwangsläufig zu Bandings. Bei der höchsten Möglichkeit stehen dafür 126 Stufen zur Verfügung. Dies ist viel mehr als nötig.
waste

Der Gamma von 0.45 hilft hier die Bitwerte gleichmässiger zu verteilen. Dies endet je nach Hersteller und Einstellungen in den folgenden Werten:
1/11/15/21/28/38/53/72/99/136/186/255

Die Problematik von Log Aufnahme für das Fernsehen

Das System im Haus SRF arbeitet mit maximal 8 Bit. Beim einlesen wird also Material, welches in 10 Bit anliegt in 8 Bit konvertiert. Was heisst das konkret. Nehmen wir eine Bild in 10 Bit Log auf wird dies etwa gleichmässig quantifiziert (vereinfacht). Ein Log von Sony besteht aus 14 Blendenabstufungen bedeutet 1024/14= 73 Stufen für jede Blende. Dies reicht sehr gut aus um keine sichtbaren Abstufungen in den einzelnen Blenden zu bekommen. Rechnen wir dies jetzt aber um, was bei der Einfügung in unser System zwangsläufig passiert, bekommen wir folgendes: 255/14= 18 Stufen für eine Blende. Dies reicht in den meisten Fällen nicht aus, einen stufenloses Bild zu generieren. Vor allem weil das Bild danach in einen linearen Raum mit einem Gamma von 0.45 umgerechnet werden muss. Ein grosses Problem ist dabei die Spreizung der Tonkurve wenn im Bild zu wenig Dynamik anliegt

hystogramm
Hier die Tonwertspreizung liegen mehr Bit an für ein Grading als gefordert für das Endformat ist eine Farbkorrektur viel besser machbar. Beim Fernsehen löiegen aber meist nur 8 Bit an.

Hypergamma

Für solche Probleme gibt es eine Zwischenlösung. Diese bietet einen leicht erweiterten Dynamikumfang und ist in den Farben leicht entsättigt. Dabei werden die gleichen Bitraten eingesetzt wie beim Rec 709 Standard. In der Postproduktion kann ohne grossen Aufwand ein Fernsehakkurates Bild generiert werden.

Bei Sony heisst diese Art von Gammakurve Hypergamma. Doch auch bei diesen Gammakurven gibt es verschiedene Arten.

Hypergamma

Diese Zahlenkombinationen sehen anfangs sehr verwirrend aus. Sie sind jedoch leicht aufzuschlüsseln. Die ersten 3 Ziffern stehen für die Prozentzahl an mehr Dynamik verglichen zum Normalen Rec 709 Gamma. Als Beispiel HG8 8009G33 800% Dynamikumfang anstatt wie bei REC 709 100% Die nächste Ziffer steht für das Clipping. Bei 0 clipt das Bild bei 100% bei 9 bei 109%. Bei der Ausstrahlung wird das Bild automatisch bei 100% abgeschnitten. Bei einer grösseren Nachbearbeitung kann man also gut mit 109 % arbeiten, ansonsten 100%. Das G mit der folgezahl steht für die Belichtung der Graukarte. Nach Waveform bei HG8 8009G33 also 33 %. Dies ist ein wichtiger Indikator für die Auswahl der Hypergammakurven. Ist ein riesen Dynamikumfang mit sehr vielen Highlights verfügbar, lohnt es sich eine Kurve mit einer tiefen Graukartenbelichtung auszuwählen. Sind in den tiefen mehr Details vorhanden und nur wenige und nicht stark ausgeprägte Highlights lohnt es sich einen hohen Graukartenwert zu wählen. Es stehen mehr Details in den tiefen Tönen zur Verfügung.
Überhaupt ist die Aufteilung der verfügbaren Bits der Schlüssel für das richtige Bild, egal in welchem Modus.

Zusammenfassend muss man sich gut überlegen, welcher Aufnahmemodus für die Produktion wohl der Beste ist. Für den Cinemodus hier noch weitere Anhänge die in der Belichtung helfen. Eine Zwischenlösung wäre auch in der Dynamik den S-log auszuwählen die Farbmatrix aber nicht auf Cinegamut umzustellen. Somit muss nur die Dynamik in Kontrast und nicht in der Fabre gerichtet werden, was einiges vereinfacht.Gamut

Log Daten

Log reflectance

Kameratechnik

Der richtige Abstand zum Fernseher

Um in den Genuss einer besseren Auflösung zu kommen ist der Abstand zum Bildschirm enorm wichtig. Nicht umsonst definiert sich HD grundsätzlich auch in der Aussage dem Zuschauer mit dem Abstand der dreifachen Bildhöhe eine subjektivere Einbeziehung in den am Bildschirm gezeigten Inhalt zu ermöglichen.  Doch worin begründet sich diese Aussage? Es ist die Fähigkeit des Menschen Details zu erkennen. Zur Berechnung des Bildabstandes geht man davon aus, dass der Durchschnittsbürger ein schwarz/weisses Linienpaar mit dem Abstand von 1mm ab der Distanz von 3.5m nicht mehr unterscheiden kann. Durch diese Aussage kann der Abstand zum Fernseher in Bezug auf die Bildschirmhöhe geschehen.

Berechnet man dies anhand einer Bildhöhe von 60 cm, kommt man auf das Resultat, dass unter 1080 Pixeln Auflösung ein Abstand von ca. 1.75 m zum Bildschirm nötig ist. Dies entspricht der dreifachen Bildschirmhöhe. Da das heutige HD aber lediglich in 720p ausgestrahlt wird errechnet sich dabei ein anderer Bildschirmabstand. Dieser sollte dann ca. 5 mal die Bildschirmhöhe betragen. Bei der Ausstrahlung von SD muss der Faktor von 1.33… für die Entzerrung von 4/3 in 16/9 noch eingerechnet werden. Es resultiert ein Abstand von  7 mal der Bildschirmhöhe.

Doch die Rechnung ist nicht ganz so einfach. Nicht miteinbezogen wurde, dass es sich nicht um Standbilder, sondern um bewegte Bilder handelt. Hier wiederum ist das Format mit einer vertikalen Auflösung von 720 Pixeln im Vorteil. Da es nur die Hälfte der Auflösung in Pixeln bieten kann, hat es dafür eine wesentlich bessere zeitliche Auflösung, die sich von dem 1080 Format durch die 50 Vollbilder anstatt den  50 Halbbildern unterscheidet.

Für eine kurze Einführung in Halbbilder hier ein Link zu Wikipedia: http://de.wikipedia.org/wiki/Zeilensprungverfahren

Wieso sind diese Vollbilder so wichtig, dafür gibt es zwei Gründe: Einerseits können moderne Flattscreen-Bildschirme mit LCD Technologie nur noch Vollbilder darstellen, andererseits hat man festgestellt, dass Vollbilder wesentlich effizienter komprimiert werden können. Es bestände die Möglichkeit ein Signal in 1080 i25 zum Heimanwender zu schicken. Die Problematik beruht darin, dass man dabei das Deinterlacing dem Endkunden überlässt und dies zwingend ist. Nun kann man sich vorstellen, dass die Qualität nun massgeblich von der Qualität des Deinterlacers abhängt und dieser lang nicht so professionell sein kann wie ein beim Programmanbieter vorhandener professioneller Deinterlacer.

Dies führt dazu, dass die meisten Fernsehstationen zwar in der Akquise das Format 1080i25 verwenden vor der Ausstrahlung dieses Signal aber in ein 720p50 konvertieren.

Um in Zukunft also in den Genuss von HD Fernsehen zu kommen sollte der Standard 1080p50 angestrebt werden. Dann nämlich deckt sich die volle zeitliche Auflösung mit der vollen bildlichen Auflösung und dem HD-Fernsehen steht nichts mehr im Weg.

Durch die Einführung von  h.265 HEVC, welche doppelt so effizient komprimieren soll wie h.264, sollte die Übertragung von 1080p50 auch kein Problem mehr darstellen, denn die doppelt so gute Komprimierung lässt bei gleicher Bitrate eine doppelt so grosse zeitliche oder Bildliche Auflösung zu. Es ist also kein Mehr an Bandbreite nötig um das Signal zu übertragen.

Bis sich jedoch HEVC in der Übertragung zum Endkunden etablieren wird, dürfte es doch noch einige Zeit dauern. Dies lässt auch erahnen wie weit wir noch von einer Etablierung von UHDTV entfernt sind.

interlaced versus progressiv

Vergleich eines progressiven und eines Interlaced Bildes, Quelle: EBU

 

 

 

Kameratechnik

The real advantage of UHDTV

Kaum ist HD noch nicht einmal flächendeckend auf dem Markt wird schon an einem noch grösseren Bild gearbeitet. Die Rede ist von Ultra HD spezifiziert mit3840*2160 Pixeln oder noch einmal doppelt soviel 7680* 4320 Pixeln. Eine unvorstellbare Grösse, wonach sich auch die Distanz zum Bildschirm festlegen lässt. Es sind nämlich nur 1.5 beziehungsweise 0.75 mal die Bildschirmhöhe. Man klebt also förmlich am Bildschrirm. Alles wird immer durch die schiere Grösse und die Anzahl Pixel bemessen, selbst beim Kino spricht man nur noch von 2k und 4k und schlussendlich 8k. Doch meiner Ansicht nach liegen die grossen Vorteile und Veränderungen von UHDTV nicht in der schieren Grösse, sondern in den Spezifikationen der Bittiefe und dabei der veränderten Gammavorentzerrung. In der Darstellung von viel mehr Farbtiefe durch einen wesentlich erweiterten Colorgammut und nicht zuletzt in der erhöhten Framrate, welche bei einer sich bewegnden Kamera oder Szene ein unverzichtbares Muss ist die zeitliche Auflösung zu gewährleisten.

 

Der Farbraum

UHDTV bietet einen Farbraum, welcher der visuellen Wahrnehmung von Farben sehr nahe kommt. Dabei wurden im Gegensatz zu den Veränderungen von Rec 601 (SD) zu Rec 709(HD), bei der nur eine kleine Ausdehnung des Gamuts durchgeführt wurden, eine wesentliche Erweiterung angestrebt. Dies bietet uns natürlich ein wesentlich erweitertes Fernseherlebnis, nicht zu vergessen sind aber auch die Nachteile, wie eine Abwärtskompatibilität zu HDTV Material. Durch den sehr grossen Gamut unterschied dürfte diese Konvertierung nicht leicht sein. Des weiteren werden natürlich wesentlich mehr Bits zur stufenlosen Darstellung benötigt. Dadurch wird natürlich auch mehr Dynamik möglich.

Farbraum

Die Bittiefe:

UHDTV ist mit einer Bittiefe von 10 oder sogar 12 Bit angedacht. Dies bedeutet, dass anstatt der bisher vorhandenen 8 bit mit 255 Farb- und Helligkeitsabstufungen nun 1024 oder sogar 4096 bei 12 Bit darstellbar sind. Nun die Auswirkungen sind, dass uns ganz bestimmt Möglichkeiten für eine erhöhte Dynamik zur Verfügung stehen sollten. Dabei kommt es aber auf die Abtastung und die Umsetzung des exponentiell verlaufenden Lichtes dar. Ausserdem   müssen mehr Abstufungen zur Verfügung stehen, da der Farbraum wesentlich erweitert wurde. Auch hier gilt immer noch das Weber Fechner  Theorem, dass Helligkeitsabstufungen von mehr als 1% sichtbar sind. Somit wird man auch bei UHDTV nicht um eine Vorentzerrung herumkommen.

bildschirmfoto-2013-10-18-um-03-26-05Quelle: SMPTE

Hier Zeigt sich der Unterschied einer Logarithmischen Funktion, in der die Dynamik in hellen und dunklen Bildanteilen gleich ist und einer Potenzfunktion, welche in hellen Bildanteilen mehr Dynamik aufweist als in dunklen Bildanteilen.

Framrate:

Die Halbbilder sollten sich ja schon bei HD Fernsehen verabschieden und sind jetzt schliesslich bei UHDTV nicht mehr Spezifiziert. Dies ist durchaus sinnvoll. Bildschirme welche Habbilder benötigen, werden je länger je mehr wegfallen. Durch eine grosse Auflösung werden für ein optimales Sehvermögen aber automatisch mehr Bilder in der Sekunde notwendig. Tests haben gezeigt, dass bei sich Bewegenden Szenen oder sich bewegender Kamera eine solch grosse Auflösung nur Sinn macht mit 50 Vollbildern aufwärts. Deshalb ist UHDTV bereits bis 120 Bilder in der Sekunde  spezifiziert. Nicht zu vergessen sind aber auch hier die Nachteile: Mit 120 Bildern in der Sekunde ist eine Kamera in ihrer Empfindlichkeit sehr eingeschränkt.

 

Übertragung der Signale:

Momentaner HD Standard sind 3G SDI Übertragungen, dabei wird mit 3gbit/s gearbeitet. Nun lässt sich gut vorstellen, dass solche Grössen und Bildraten diese Datenraten bei weitem überschreiten, nicht zuletzt wegen der Bittiefe. Es müssen also Lösungen gefunden werden. Sei es durch eine Unterabtastung, Übertragung eines komprimierten Signales, oder eine Bündelung mehrerer Kanäle. Ausserdem dürften die anfallenden Datenmengen, noch nicht mit den heutigen Speicherlösungen kompatibel sein. ES werden wesentlich effizientere Codecs, wie z.B HEVC benötigt.

bildschirmfoto-2013-10-18-um-03-24-12Quelle: SMPTE

Hier zeigen sich die für UHDTV nötigen Übertragungsraten

Zustandsanalyse:

Wennn heute von UHDTV Kameras auf dem Komsumermarkt gesprochen wird, muss weiterhin mit einer Mischform von UHDTV und HDTV gerechnet werden.  Es werden die nötigen Diplays und Kamerasensoren mit der nötigen Hard und Software für richtiges UHDTV mit dem nötigen Gamut und Dynamikrange benötigt. Ausserdem müssen dazu wesentlich schlankere Codierungsalgorythmen auf den Markt. Die Auflösung von 4k kann zwar schon erreicht werden, dies ist  nicht die einzige Voraussetzung.

 

 

Kameratechnik

Rolling Shutter

Grundsätzlich gibt es momentan zwei verschiedene Arten von digitalen Bewegtbildkameras. Einerseits gibt es die bisher herkömmliche Methode einer 3-Chip Kamera, welche die drei Primärfarben durch ein Prisma auf je einen Sensor aufteilt und mit drei CCD Sensoren oder drei CMOS Sensoren ausgestattet ist. Andererseits sind Kameras mit nur einem CMOS Sensor neu auf dem Markt. Aufgrund der Bauart werden CMOS Kameras eher für digitale Filme verwendet und CCD Kameras für die elektronische Berichterstattung. Viele neue professionelle Kameras, vorgesehen für die Berichterstattung, werden inzwischen mit 3 CMOS Sensoren ausgestattet, so zum Beispiel die Sony PDW 680, welcher mit 3 CMOS Sensoren anstatt mit 3 CCD Sensoren ausgestattet wurde .CMOS Sensoren sind günstiger herzustellen, was sich vor allem bei grösseren Sensoren bemerkbar macht.

Unterschied zwischen 3 Sensoren und einem Sensor
Um bei Kameras mit nur einem Sensor die Farben zu trennen, wird auf den Pixeln ein Farbmosaik mit den Farben rot, grün und blau aufgebracht. Durch eine auf- wändige Interpolation wird aus dieser Farbmaske das endgültige Signal berechnet. Die grünen Filter kommen dabei doppelt so häufig vor wie blau und rot, da aus grün die besten Helligkeitswerte gezogen werden können.
Im Gegensatz zum CCD Chip, indem die Ladungen zur Digitalisierung abtranspor- tiert werden, kann beim CMOS Chip die Ladung pro Pixel genau adressiert werden. Somit ist eine einfachere Auslesung im progressiven oder im interlaced Verfahren möglich. Durch die direkte Verstärkung im Bildpunkt vor dem Abtransport ist der Signal-Rausch Abstand noch relativ gross und die Umwandlung in Spannung ohne grosse Verluste zu realisieren. Im Gegensatz hierzu steht der CCD Sensor bei dem die Ladungen reihenweise verschoben werden und erst ausserhalb des Sensors in Spannung umgesetzt werden. Somit ist ein kleinerer Signal-Rausch Abstand vorhanden, welcher die Bildqualität schmälert.  Ein weiterer Vorteil des CMOS Sensor ist das teillineare Auslesen, mit welchem der Szenenkontrast wesentlich höher gehalten werden kann, als bei der rein linearen Auslesung des CCD Sensors.
Nachteile der CMOS Technologie befinden sich in der Grösse der Pixel, welche durch die vielen Transistoren klein gehalten werden. Dieser Nachteil muss durch Linsen, welche die Fläche der Pixel vergrössern gelöst werden. Ein weiterer Punkt ist die Tatsache, dass jeder Transistor ein leicht unterschiedliches Signal produziert trotz gleich anliegender Information und somit Rauschen entsteht. Dies muss durch Filter direkt am Sensor korrigiert werden.
Vorteile des Video CCD Sensors befinden sich in der hohen Lichtempfindlichkeit, da die Ladungen zur Auslesung abtransportiert werden und der Pixel bereits neue Ladung sammeln kann. Dabei muss keine absolute Dunkelphase am Pixel selbst anliegen und die Lichtempfindlichkeit wird erhöht. Dies ist jedoch nur beim Frame Interline Transfer möglich. Diese Art des Auslesens ist in Videokameras verbreitet. Im Gegensatz zum CMOS Sensor, welcher durch die einzelne Pixeladressierung zum Auslesen zwangsläufig eine Dunkelphase benötigt.

Auflösungsverlust durch Interpolation
Beim Aufnahmeverfahren mit einem Sensoren muss mit Verlusten durch die Interpolation gerechnet werden. Durch die aufliegende Farbmaske, welche in einem Array aus zwei grünen, einem blauen und einem roten Pixel bestehen, muss das fertige vollaufgelöste RGB Bild entstehen. Dies wird im Fachjargon als debayering bezeichnet.
Dies bedeutet, dass durch das Nichtanliegen von vier grünen, vier roten und vier blauen Farbfiltern in einem Array die volle Auflösung interpoliert werden muss. Dadurch schmälert sich die Auflösung bei einer Single Sensor Kamera. Bei einer Kamera mit nur einem Chip hängt die Qualität der Abtastung wesentlich von der Rechenleistung der Kamera und der Güte des Algorithmus ab, der zur Wiederherstellung des RGB Signals verwendet wird. Ausserdem ist durch diese Interpolation und die einzelnen Farben auf dem Chip mit einem erhöhten Aliasing zu rechnen.  Dies basiert auf dem Unterschied der Grünanteile im Gegensatz zu den Rot-Blauanteilen. Darum ist die Frequenz für die Blaurotanteile halb so gross, wie diejenige der Grünanteile. Somit lässt sich kein einheitlicher Aliasfilter einsetzen.

Fazit
Inzwischen haben sich CMOS-Bildsensoren in vielen Anwendungen durchgesetzt. Hochauflösenden Fernseh- und Kinokameras ermöglicht die CMOS Technologie hohe Bildraten, niedrige Rauschwerte und eine geringe Leistungsaufnahme.
Ein grosser Nachteil des CMOS Sensors ist das Rolling–Shutter Problem. Im Unterschied zum CCD Sensor, welcher das Bild erst kurz vor dem nächsten Bild ausliest, liest ein CMOS Sensor das Material kontinuierlich Pixel für Pixel aus. Dabei entsteht das Problem einer nicht gleichzeitigen Auslesung, die wiederum ungewollte Bewegungsartefakte hervorruft. Das ganze wird auch als Rolling Shutter bezeichnet.  Ein weiteres Problem ist die Gewinnung des Signals durch einen Farbfilter vor dem Sensor, welcher durch Berechnung das RGB Signal ermittelt. Je nach Algorithmus muss die Auflösung des Sensors wesentlich grösser sein, als die Auflösung des Ausgangssignals.

Test                                                                                                                                                     Im Gegensatz zu CCD Sensoren tritt bei CMOS Sensoren die Problematik des Rolling Shutters auf. Vertikale Kanten werden bei deren Bewegung oder Bewegung der Kamera verzerrt. Blitzlichter beleuchten nicht den ganzen Sensor. Es entstehen unschöne Artefakte.Die Testeinrichtung, die den Rolling Shutter Effekt misst wurde speziell für dieses Bedürfnis entwickelt und konstruiert. Das eigentliche Problem ist die Reproduzierbarkeit. Der Balken musste jedes Mal genau mit de gleichen Beschleunigung von links nach rechts durch das Bild fahren. Um dies zu erreichen konnte nur eine aufwändige Motorisierung des Balkens vorgenommen werden. Eine zweite, viel einfachere Idee, war die Kamera um 90 Grad zu kippen und den Balken durch die Erdanziehungskraft immer mit der gleichen Geschwindigkeit durch das Bild laufen zu lassen. Dies stellte sich als wesentlich einfacher heraus. Der Balken läuft auf zwei Rohren, die durch zwei Führungsrohre stabilisiert werden. Dahinter befindet sich ein Brett mit senkrechten Linien, welche die ungefähre Abweichung des Balkens aufzeigen.  Als Referenz wurde die Sony PDW 700 mit 3 CCD Sensoren ausgewählt. Die Überprüfung der Testeinrichtung wurde mit mehreren CCD Kameras vorgenommen.

rolling-shutter1

Kameratechnik

Empfindlichkeit und Rauschverhalten bei einer Kamera

Je grösser der Pixel desto lichtempfindlicher die Kamera.Dieser Grundsatz ist eigentlich ganz logisch, je mehr Platz ein Pixel hat, desto mehr Lichtmenge kann er aufnehmen. Kameras scheinen immer empfindlicher zu werden, obwohl die Auflösung immer besser wird und damit die Pixel immer kleiner. Was die meisten vergessen, Empfindlichkeit muss immer zusammen mit dem Rauschen betrachtet werden. Eine Kamera mit hohem Rauschanteil kann empfindlicher wirken, am Ende aber das schlechtere Resultat abliefern, da der Rauschanteil im Bild zu hoch gewählt wurde. Nicht zu letzt zu erwähnen ist die automatische Rauschunterdrückung, welche visuell für ein niedrigeres Rauschen sorgt und teilweise nicht vollständig kontrollierbar ist.
Die Empfindlichkeit einer Kamera entscheidet darüber wie viel Licht eine Kamera für brauchbare Bilder benötigt. Kameras aus dem Filmbereich werden in ASA oder ISO gemessen. Während Kameras für den Videobereich und für das Fernsehen mit einem Blendenwert auf eine bezogene Beleuchtung von meist 2000 Lux klassifiziert werden.
Für den Test werden die Kameras mit ISO oder ASA Angaben in der Empfindlichkeit auf ihre Sensor Grundempfindlichkeit eingestellt und anschliessend nach TV- Norm gemessen. Um eine Messung durchzuführen werden die Kameras mit einer 0.45 Gammakurve ohne Highlightkompression auf eine Kodakweisskarte mit ca. 90% Remission eingeleuchtet. Die Optik wird defokussiert und die Blende auf einen Pegel von 100% angepasst. Die daraus resultierende Blende ist die Empfindlichkeit bei 2000 Lux Eine Besonderheit stellt der Unterschied der Skalen verschiedener Objektive und Kamerahersteller dar. Während einige Hersteller die Öffnung zur Brennweite rechnerisch angeben, messen andere das ankommende Licht hinter den Linsen. Durch die Messung hinter den Linsen entsteht ein wesentlich genaueres Resultat, während bei der Angabe in f fast zwangsläufig noch Abzüge durch Linsen zu machen sind und Ungenauigkeiten entstehen. Ein Blende in T ist gegenüber der Angabe in f also immer zu bevorzugen.
Für die genauen Werte der Empfindlichkeit in Abhängigkeit zu den Rauschwerten wurde folgende Tabelle entwickelt.Die Prozentwerte stellen den Messwert bei der jeweiligen Signalamplitude dar. Dabei sind die Rauschwerte als Abweichung zum Normalsignal zu sehen und können nicht als absolut betrachtet werden. In der Tabelle können Vergleiche zwischen Rauschwerten und der Grundempfindlichkeit einer Kamera gemacht werden. So lässt sich feststellen, ob die gewählte Grundempfindlichkeit zu hoch oder zu niedrig gewählt wurde. Des Weiteren kann auch die Empfindlichkeit an sich verglichen werden.Somit lässt sich eine Aussage darüber machen, welche Kamera für Lichtsituationen mit wenig Licht geeignet ist und welche Kamera dafür als ungeeignet erscheint. Betrachtet man die Rauschwerte mit Rauschunterdrückung stellt man fest, dass bei der Rauschunterdrückung jeweils Rauschen in hellen Bildanteilen zu Gunsten der dunklen Bildanteile erhöht wird. Es lässt sich in der Tabelle ermitteln, welche Kamera eine gute Rauschunterdrückung besitzt und die Rauschwerte mindert und welche Kamera die Rauschartefakte nur unwesentlich unterdrückt. Die Werte in der Tabelle dienen als Vergleichswert und können nicht mit anderen Tests verglichen werden. Die Formel zur Berechnung der Rauschabweichung sind vermerkt.Es zeigt sich, dass grossformatige Kameras in ihrer Grundempfindlichkeit sehr tief angesetzt sind und sehr wenig Rauschen aufweisen, im Gegensatz zu kleineren Sensoren. Desto kleiner die Kamera desto mehr wird das Verhältnis zwischen Rauschen und Empfindlichkeit ausgereizt.
rauschverhalten

Kameratechnik

Auflösung oder Schärfe die Zukunft des Fernsehens

Spricht man von Auflösung, darf diese nicht mit Schärfe gleichgesetzt werden. Auflösung wird als die Darstellbarkeit von feinen Details verstanden, schärfe jedoch bemisst sich an dem Kontrast bei groben Strukturen. Die bestmögliche Schärfe kann somit mit der klaren Abgrenzung zwischen dem maximalen Weisswert und dem maximalen Schwarzwert erreicht werden. Und hat mit der Anzahl Pixeln nur begrenzt zu tun.

Um nun die Schärfe und die Auflösung in einem darzustellen, dient eine Funktion namens Modulationstransferfunktion. Mit ihr lässt sich die Schärfe ins Verhältnis zum vorhandenen Detailreichtum setzen.

Transferfunktion

Hier dargestellt der Kontrast zur Detailauflösung bei HD. Desto grösser die Fläche unter der Kurve desto besser ist die Schärfe und die Auflösung.

Unter UHDTV wird nun einerseits eine Erhöhung der Auflösung spezifiziert, diese soll sich im ersten Schritt mindestens verdoppeln. Meist wird dieses Argument als Hauptargument für die Umstellung zu UHDTV gesehen, überlegt man sich das Ganze jedoch genauer wird man beim Betrachten der Funktion feststellen, dass sich der Schärfeeindruck dabei nicht verbessern kann, lediglich die Detailauflösung wird um das Doppelte erhöht.

Transferfunktion

Um nun nicht nur das Detailreichtum, sondern auch die Schärfe zu erhöhen, wird ein grösserer Abstand zwischen Schwarz und Weiss benötigt, dies bedeutet , dass die maximale Dynamik erhöht werden muss. Dieser Umstand ist meiner Meinung nach wichtiger als die Erhöhung der Detailauflösung, da damit nun für das Auge Schärfere Bilder möglich sind.

bildschirmfoto-2013-12-04-um-09-58-29

Hier in der MTF Funktion dargestellt Erhöhung der Dynamik, der Schärfeeindruck wird wesentlich verbessert. Die Erhöhung der Auflösung jedoch bringt lediglich mehr Details und lässt uns unter Anderem den Abstand zum Bildschirm verringern, was ich aber nicht unbedingt als notwendig erachte.

Durch die bessere Quantisierung  mit 10 oder sogar 12 Bit, welche für UHDTV vorgesehen sind kann mehr Dynamik generiert werden.  Ausserdem ist bei UHDTV vorgesehen die Quantifizierung  noch besser auszunutzen und somit ebenfalls mehr Dynamik zu generieren. Dabei wird entweder Linear mit Vorentzerrung oder Logarithmisch quantifiziert. Die Ausweitung des Farbgamut trägt ebenfalls wesentlich dazu bei, die Dynamik zu erhöhen.  Die höhere Sättigung der Farben ermöglicht eine Erhöhung der visuellen Schärfe. Am Ende erscheinen die Faktoren Erweiterung des Farbgamut, Erhöhung der Dynamik durch mehr Bit als wichtiger Faktor welcher neben der ganzen Aufstockung der Detailauflösung mit mehr Pixel fast vergessen geht, für mich aber der wichtigste Faktor in einem weiteren Schritt zur Verbesserung der Bildqualität darstellt.

 

Kameratechnik

HD Auflösung bei Kameras

SD und HD unterscheiden sich, wie sicherlich die meisten wissen, vor allem in der Anzahl Pixel voneinander. Dies bedeutet, dass sich die Detailauflösung der HD-Kameras massiv verbessert. Um mit der gleichen Sensorgrösse ca. fünfmal so viele Pixel bedienen zu können verändert sich aber logischerweise auch die Grösse der Pixel auf dem Sensor. Diese werden massiv kleiner. Die Folge von kleineren Pixeln scheint anfänglich kein Problem darzustellen. Bei genauerer Betrachtung stellt sich aber heraus, dass die Grösse der Pixel auch Einfluss auf die Empfindlichkeit der Kamera hat und wesentlich bessere Optiken benötigt. Je kleiner nämlich der Pixel, desto besser muss die Optik einer Kamera auflösen. Nun sind wir in der heutigen Zeit an einem Punkt angelangt, an dem gut und gerne Sensoren von weniger als 1/3 Zoll Grösse in Kameras eingesetzt werden. Im Gegenzug werden bei grossformatigen Kameras Sensorgrössen von super 35mm und mehr eingesetzt. Sieht man sich aber die Preise der Kameras  und der Optiken an, stellt man fest, dass für die grösseren Sensoren wesentlich teurere Optiken vorhanden sind, als für Kameras mit kleineren Sensoren. Hier stellt sich die Frage, ab welchem Bereich Optiken die nötige Detailauflösung für HD nicht mehr liefern können und sich somit von der Standardauflösung nur noch unmerklich abheben.

Um aufzuzeigen wie unterschiedlich die Auflösungsanforderungen von Optiken bei verschiedener Anzahl Pixel und unterschiedlichen Sensorgrössen sein kann, hier eine kurze Berechnung.

Super 35 und Full HD: (1920 Pixel / 2lp ) / 24.4mm = 39lp/mm

Super 35 und SD: (726 Pixel / 2lp ) / 24.4 =  15lp/mm

2/3 Zoll und Full HD: (1080 Pixel / 2lp) / 5.4mm = 100lp/mm

2/3 Zoll und SD: (726 Pixel / 2lp) / 9,6mm = 37.5lp/mm

1/3 Zoll und Full HD: (1920 Pixel  /2 lp) / 4.9mm = 196lp/mm

1/3 Zoll und SD: (726 Pixel/ 2lp) / 4.9mm= 73lp/mm

Unter lp/mm, versteht man die Anzahl Linienpaare ( Annahme einer schwarzen und einer weissen Linie nebeneinander) Bezogen auf einen Millimeter Sensorfläche ergibt dies lp/mm

Es zeigt sich, dass der Unterschied von kleinen zu grossen Sensoren und von SD zu HD enorm ist. Die Auflösung der Optik für einen HD Sensor mit der gleichen Grösse wie ein SD Sensor muss also viel besser sein.

Doch denken wir an das fertige Bild. Wie viel Detail muss eine Kamera also auflösen können, um am Bildschirm HD Detailreichtum zu zeigen.

Auch hier rechnen wir mit Linienpaaren, in diesem Punkt aber gänzlich ohne die Sensorgrösse miteinzubeziehen. Wir rechnen lediglich mit der Bildhöhe und der Anzahl vorhandenen Pixel, was uns Linienpaare pro Bildhöhe generiert.

1080 Pixel / 2lp= 540 lp/mm

576 Pixel / 2lp=  288 lp/mm

Ein Aufmerksamer Leser stellt sich die Frage, warum 2 Linienpaare dividiert werden. Dies hängt mit dem Nyquist-Theorem zusammen. Darin wird festgehalten, dass es zur wahrheitsgetreuen Auflösung von Strukturen eines Bildes doppelt so viele Pixel braucht wie die feinste vorhandene Frequenz. Dies führt auch zu der Aussage, dass eine Kamera unter HD am besten gar nicht mehr Auflösung bietet wie die 540 lp/mm, ansonsten entstehen Artefakte und nicht wahrheitsgetreue Inhalte.

Als Ergebnis aus den Tests lässt sich feststellen, dass Kameras mit 1/3 Zoll Sensor durchaus fähig sind Full HD Bilder zu generieren, dies beschränkt sich aber meist auf die Bildmitte und auf die förderliche Blende. Bei grossformatigen Single-Sensor Kameras, merkt man dass die Qualität vor allem vom Debayering der Kamera abhängt. Eine Canon C 300 bietet z.B eine brillante Auflösung, die Canon XF 105 hingegen bietet knapp SD Auflösung. Bei Single Sensor Kameras macht sich bei schlechtem Debayering oder zu wenig Pixel auf dem Sensor zusätzlich das Farbbanding bemerkbar. Es zeigt sich dass die qualitativ hochwertigen Kameras auch bei starkem Abblenden ihre Detailauflösung nicht verlieren und auch über das Bildzentrum hinaus die Detailauflösung gewährleisten.

Beispiel Canon C 300

canon-c-300

Beispiel Sony PMW 300

pmw300

Beispiel Canon xf 105

canon-xf-105