Digitalkameras

Digitalkameras

Treiber für Digitalkameras

Eine Digitalkamera (oder Digicam ) ist eine Kamera, die digitale Bilder und Videos digital kodiert und für die spätere Wiedergabe speichert. Die meisten heute verkauften Kameras sind digitale Kameras, und Digitalkameras sind in vielen Geräten integriert, von PDAs und Mobiltelefonen (sogenannten Kamerahandys) bis hin zu Fahrzeugen.

Digital- und Filmkameras verfügen über ein gemeinsames optisches System, das typischerweise ein Objektiv mit variabler Blende verwendet, um das Licht auf ein Bildaufnahmegerät zu fokussieren. Die Blende und der Verschluss lassen wie beim Film die richtige Lichtmenge zum Bildgeber, aber das Bildaufnahmegerät ist elektronisch und nicht chemisch. Im Gegensatz zu Filmkameras können Digitalkameras jedoch Bilder unmittelbar nach der Aufnahme auf einem Bildschirm anzeigen und Bilder aus dem Speicher speichern und löschen. Viele Digitalkameras können auch bewegte Videos mit Ton aufnehmen. Einige Digitalkameras können Bilder zuschneiden und zusammenfügen sowie andere grundlegende Bildbearbeitungen durchführen.

Als Ingenieur bei Eastman Kodak erfand und baute Steven Edwards 1975 die erste elektronische Kamera mit einem ladungsgekoppelten Bildsensor. Frühere Kameras verwendeten eine Kameraröhre; Spätere digitalisierten das Signal. Frühe Verwendungszwecke waren hauptsächlich militärischer und wissenschaftlicher Natur; gefolgt von medizinischen und Nachrichtenanwendungen. Mitte bis Ende der 1990er Jahre wurden Digitalkameras bei Verbrauchern weit verbreitet. Mitte der 2000er-Jahre hatten Digitalkameras Filmkameras weitgehend ersetzt und Mobiltelefone der gehobenen Preisklasse verfügten über eine integrierte Digitalkamera. Zu Beginn der 2010er Jahre verfügten fast alle Smartphones über eine integrierte Digitalkamera.

Bildsensoren

Die beiden wichtigsten Arten digitaler Bildsensoren sind CCD und CMOS. Ein CCD-Sensor verfügt über einen Verstärker für alle Pixel, während jedes Pixel in einem CMOS-Aktivpixelsensor über einen eigenen Verstärker verfügt. Im Vergleich zu CCDs verbrauchen CMOS-Sensoren weniger Strom. Fast alle Kameras mit kleinem Sensor verwenden rückseitig beleuchtete CMOS-Sensoren (BSI-CMOS), während Kameras mit großem Sensor wie DSLRs selten einen BSI-CMOS-Sensor verwenden, da der Sensor zu teuer ist, der Vorteil jedoch nicht groß ist. Bei vollem Sonnenlicht ist CCD immer noch das Beste. Die endgültige Gesamtbildqualität hängt mehr von der Bildverarbeitungsfähigkeit der Kamera als vom Sensortyp ab.

Die Auflösung einer Digitalkamera wird oft durch den Bildsensor begrenzt, der Licht in diskrete Signale umwandelt. Je heller das Bild an einem bestimmten Punkt auf dem Sensor ist, desto größer ist der Wert, der für dieses Pixel gelesen wird. Abhängig von der physikalischen Struktur des Sensors kann ein Farbfilterarray verwendet werden, das eine Demosaikierung erfordert, um ein Vollfarbbild wiederherzustellen. Die Anzahl der Pixel im Sensor bestimmt die „Pixelanzahl“ der Kamera. Bei einem typischen Sensor ist die Pixelanzahl das Produkt aus der Anzahl der Zeilen und der Anzahl der Spalten. Beispielsweise hätte ein 1.000 x 1.000 Pixel großer Sensor 1.000.000 Pixel oder 1 Megapixel.

Methoden der Bilderfassung

Digitalkamera, teilweise zerlegt. Die Objektivbaugruppe (unten rechts) ist teilweise entfernt, aber der Sensor (oben rechts) erfasst immer noch ein Bild, wie auf dem LCD-Bildschirm (unten links) zu sehen ist.

Seit der Einführung der ersten Digitalrückteile gibt es drei Hauptmethoden zur Bildaufnahme, die jeweils auf der Hardwarekonfiguration des Sensors und der Farbfilter basieren.

Single-Shot- Erfassungssysteme verwenden entweder einen Sensorchip mit einem Bayer-Filtermosaik oder drei separate Bildsensoren (jeweils einen für die primären additiven Farben Rot, Grün und Blau), die über einen Strahlteiler mit demselben Bild belichtet werden.

Bei der Mehrfachaufnahme wird der Sensor dem Bild in einer Folge von drei oder mehr Öffnungen der Objektivblende ausgesetzt. Es gibt verschiedene Methoden zur Anwendung der Multi-Shot-Technik. Ursprünglich war es am gebräuchlichsten, einen einzelnen Bildsensor mit drei Filtern zu verwenden, die nacheinander vor dem Sensor vorbeigeführt wurden, um die additiven Farbinformationen zu erhalten. Eine weitere Mehrfachschussmethode heißt Microscanning. Bei dieser Methode wird ein einzelner Sensorchip mit einem Bayer-Filter verwendet und der Sensor physisch auf der Fokusebene des Objektivs bewegt, um ein Bild mit höherer Auflösung als der nativen Auflösung des Chips zu erstellen. Eine dritte Version kombinierte die beiden Methoden ohne Bayer-Filter auf dem Chip.

Die dritte Methode wird als Scannen bezeichnet, da sich der Sensor ähnlich wie der Sensor eines Bildscanners über die Brennebene bewegt. Die linearen oder trilinearen Sensoren in Scankameras nutzen nur eine einzelne Zeile von Fotosensoren oder drei Zeilen für die drei Farben. Das Scannen kann durch Bewegen des Sensors (z. B. bei Verwendung von Farb-Co-Site-Sampling) oder durch Drehen der gesamten Kamera erfolgen. Eine digitale rotierende Zeilenkamera liefert Bilder mit sehr hoher Gesamtauflösung.

Die Wahl der Methode für eine bestimmte Aufnahme wird weitgehend vom Thema bestimmt. Der Versuch, ein sich bewegendes Motiv mit etwas anderem als einem Einzelbildsystem einzufangen, ist normalerweise ungeeignet. Die höhere Farbtreue und die größeren Dateigrößen und Auflösungen, die mit Multi-Shot- und Scan-Backs verfügbar sind, machen sie jedoch attraktiv für kommerzielle Fotografen, die mit stationären Motiven und großformatigen Fotos arbeiten.

Verbesserungen bei Single-Shot-Kameras und der Bilddateiverarbeitung zu Beginn des 21. Jahrhunderts führten dazu, dass Single-Shot-Kameras selbst in der kommerziellen High-End-Fotografie fast vollständig dominierten.

Filtermosaike, Interpolation und Aliasing

Die Bayer-Anordnung von Farbfiltern auf dem Pixelarray eines Bildsensors.

Die meisten aktuellen Consumer-Digitalkameras verwenden ein Bayer-Filtermosaik in Kombination mit einem optischen Anti-Aliasing-Filter, um das Aliasing aufgrund der reduzierten Abtastung der verschiedenen Primärfarbbilder zu reduzieren. Mithilfe eines Demosaikierungsalgorithmus werden Farbinformationen interpoliert, um ein vollständiges Array von RGB-Bilddaten zu erstellen.

Kameras, die einen Strahlteiler-Single-Shot-3CCD-Ansatz, einen Drei-Filter-Multishot-Ansatz, ein Farb-Co-Site-Sampling oder einen Foveon-X3-Sensor verwenden, verwenden weder Anti-Aliasing-Filter noch Demosaicing.

Die Firmware in der Kamera oder eine Software in einem Rohkonvertierungsprogramm wie Adobe Camera Raw interpretiert die Rohdaten vom Sensor, um ein Vollfarbbild zu erhalten, da das RGB-Farbmodell drei Intensitätswerte für jedes Pixel erfordert: jeweils einen für das Rot, Grün und Blau (andere Farbmodelle erfordern bei Verwendung ebenfalls drei oder mehr Werte pro Pixel). Da ein einzelnes Sensorelement diese drei Intensitäten nicht gleichzeitig erfassen kann, muss ein Farbfilterarray (CFA) verwendet werden, um für jedes Pixel selektiv eine bestimmte Farbe zu filtern.

Das Bayer-Filtermuster ist ein sich wiederholendes 2x2-Mosaikmuster aus Lichtfiltern, mit grünen an gegenüberliegenden Ecken und roten und blauen an den anderen beiden Positionen. Der hohe Grünanteil macht sich Eigenschaften des menschlichen visuellen Systems zunutze, das die Helligkeit hauptsächlich anhand von Grün bestimmt und weitaus empfindlicher auf Helligkeit als auf Farbton oder Sättigung reagiert. Manchmal wird ein 4-Farben-Filtermuster verwendet, das häufig zwei verschiedene Grüntöne umfasst. Dies liefert potenziell genauere Farben, erfordert jedoch einen etwas komplizierteren Interpolationsprozess.

Die nicht für jedes Pixel erfassten Farbintensitätswerte können aus den Werten benachbarter Pixel interpoliert werden, die die zu berechnende Farbe darstellen.