-
Basler Vertrieb
Europa, Mittlerer Osten, Afrika
Nord-, Mittel- und Südamerika
Asien-Pazifik
Finden Sie hier Ihren lokalen Ansprechpartner und weitere Kontaktdaten.
Basler Support -
Angebotswarenkorb
Ihr Anfragewarenkorb ist derzeit leer. Bitte fügen Sie mindestens ein Produkt hinzu, um eine Angebotsanfrage absenden zu können. Falls Sie unserem Vertriebsteam direkt eine Nachricht senden möchten, verwenden Sie bitte dieses Formular.
Angebot anfordern -
- Produkte
- Lösungen
- Downloads
- Vertrieb & Support
-
Vision Campus
-
Kamera-Technologie
- Vergleich zwischen Sonys IMX CMOS-Sensorreihen
- Warum sollte ich meine Kamera farbkalibrieren?
- Experten-Tipps zur Auswahl des Objektivs für ein Vision System
- Expert Tips für Embedded Vision Systems
- Was ist multispektrale Bildgebung?
- Vergleich von CMOS-Kameras
- Farbe in der Bildverarbeitung
- Processing Boards in Embedded Vision
- Was ist Bildverarbeitung
- 3D-Technologien in Bildverarbeitung
- Was ist Embedded Vision
- Warum CMOS-Sensoren?
- Was ist Time of Flight?
- Was ist Bildqualität?
- Kamerabaugrößen
- Wie funktionieren Industriekameras?
- CMOS vs. CCD: Sensortechnologie
- Echtzeitfähigkeit
- NIR: Durchblick trotz wenig Licht
- Hochempfindliche Industriekameras
- Schnittstellen und Standards
-
Märkte und Applikationen
- Kameras für die Fluoreszenzmikroskopie
- Welche Rolle spielt Computer Vision in der Industrie 4.0?
- Was ist Deep Learning?
- Roboter mit Vision Technologie
- Blockchain für IoT Sensorhersteller
- Wie verändert IoT den Einzelhandel?
- Wie lernen Maschinen?
- IoT-Anwendungen in der Smart City
- Vorteile von Kameras in Medizin
- Laborautomation mit Vision
- Medizin mit Vision
- Bildverarbeitung in Industrie 4.0
- Industrielle Bildverarbeitung
- Automatische Optische Inspektion
- Farbkalibrierung in der Medizintechnik
-
Vision Systeme und Komponenten
- Software in der Bildverarbeitung
- Bildvorverarbeitung verstärkt und verschlankt Bildverarbeitungssysteme
- Wie finde ich die richtige Beleuchtung für mein Vision System?
- Was ist ein Machine Vision SDK
- Beleuchtung
- Wie finde ich das richtige Objektiv?
- Komponenten eines Vision Systems
- Qual der Wahl: die richtige Kamera
- Bildverarbeitungssysteme – die Basics
-
Kamera-Technologie
- Über uns
-
Produkte
Hardware für Computer VisionKameras Objektive Beleuchtung Bildeinzugskarten Kabel Zubehör Netzwerk- und PeripheriegeräteSoftware für Computer Visionpylon Camera Software Suite VisualApplets Weitere SoftwarePortfoliosEmbedded Vision Portfolio Medical & Life Sciences Portfolio CoaXPress ProduktportfolioFlächenkamerasBasler ace 2 Basler ace Basler MED ace Basler boost Basler beat Basler dart Basler pulse Basler scoutBasler aceNeue Features für die aceZeilenkamerasBasler racerBasler racerBasler racer - die richtige WahlBasler blazeblaze FAQ Use Case: 3D Bildverarbeitung zur Objektinspektion Basler blaze Software Use Case: ToF-Technologie trifft auf Etikettier-Roboter Use-Case-Kine-RoboticsBasler StereokameraAngebot Basler StereokamerasObjektiveObjektive mit FestbrennweiteBildeinzugskartenUSB 3.0 Interface Cards GigE Interface Cards CXP-12 Interface Cards imaWorx microEnable 5 marathon microEnable 5 ironmanpylon Camera Software Suitepylon Open-Source-Projekte pylon Data FAQ pylon Drivers & GenTL pylon SDKs pylon ViewerWeitere SoftwareBasler blaze Software Framegrabber-Software Basler Microscopy Software Basler Video Recording Software Basler Application Software für Robotik drag&bot Robotik-Software
-
Lösungen
MärkteFabrikautomation Medical & Life Sciences Bildgeführte Robotik Warehouse Automation Weitere AnwendungenFabrikautomationAutomobilindustrie Elektronik & Halbleiter Photovoltaik Nahrungsmittel & Getränke Pharma- & Healthcare-Produkte Druck & EndlosmaterialWeitere AnwendungenSport & Entertainment Sicherheit und Überwachung Agrar Retail Verkehr & TransportRetailGeldautomaten Check-Out-Systeme Rücknahmeautomaten SB-Automaten Recognition/Biometrie People Counting, Tracking & Profiling Shelf InspectionEmbedded VisionEmbedded Vision Portfolio Embedded Vision Services Embedded Vision Ecosystem & SupportEmbedded Vision PortfolioKameras für Embedded Vision Embedded Vision Kits Software für Embedded Vision Embedded Vision für NVIDIA Embedded Vision für NXP
- Downloads
-
Vertrieb & Support
Vertrieb & SupportVertrieb Support Kontakt Knowledge Base Aftersales Services Basler Produkt-Dokumentation Framegrabber Dienstleistungen ToolsKnowledge BaseSony Pregius S Sensoren Deep Learning ICX618 Replacement IoT und IIoT / Industrie 4.0 CoaXPress 2.0 – Schnittstellenvergleich PGI-Feature-Set EMVA1288 Standard OPC UA Häufig gestellte Fragen (FAQs) Basler blaze - Häufig gestellte Fragen (FAQ)Framegrabber DienstleistungenBeratung Entwicklung Integration Deep Learning CNN Dienstleistungspakete
-
Vision Campus
Vision CampusKamera-Technologie Schnittstellen und Standards Märkte und Applikationen Vision Systeme und KomponentenKamera-TechnologieVergleich zwischen Sonys IMX CMOS-Sensorreihen Warum sollte ich meine Kamera farbkalibrieren? Experten-Tipps zur Auswahl des Objektivs für ein Vision System Expert Tips für Embedded Vision Systems Was ist multispektrale Bildgebung? Vergleich von CMOS-Kameras Farbe in der Bildverarbeitung Processing Boards in Embedded Vision Was ist Bildverarbeitung 3D-Technologien in Bildverarbeitung Was ist Embedded Vision Warum CMOS-Sensoren? Was ist Time of Flight? Was ist Bildqualität? Kamerabaugrößen Wie funktionieren Industriekameras? CMOS vs. CCD: Sensortechnologie Echtzeitfähigkeit NIR: Durchblick trotz wenig Licht Hochempfindliche IndustriekamerasMehr anzeigenweniger anzeigenSchnittstellen und StandardsSystem-Setup mit CoaXPress 2.0 Was ist CoaXPress? Welche Schnittstelle für Embedded Vision? Multi-Kamerasysteme mit GigE 2.0 USB 3.0 – Schnittstelle der Zukunft Was ist eine Schnittstelle? Camera Link Gigabit Ethernet (GigE) GenICam Standard USB 3.0 und USB3 VisionMärkte und ApplikationenKameras für die Fluoreszenzmikroskopie Welche Rolle spielt Computer Vision in der Industrie 4.0? Was ist Deep Learning? Roboter mit Vision Technologie Blockchain für IoT Sensorhersteller Wie verändert IoT den Einzelhandel? Wie lernen Maschinen? IoT-Anwendungen in der Smart City Vorteile von Kameras in Medizin Laborautomation mit Vision Medizin mit Vision Bildverarbeitung in Industrie 4.0 Industrielle Bildverarbeitung Automatische Optische Inspektion Farbkalibrierung in der MedizintechnikMehr anzeigenweniger anzeigenVision Systeme und KomponentenSoftware in der Bildverarbeitung Bildvorverarbeitung verstärkt und verschlankt Bildverarbeitungssysteme Wie finde ich die richtige Beleuchtung für mein Vision System? Was ist ein Machine Vision SDK Beleuchtung Wie finde ich das richtige Objektiv? Komponenten eines Vision Systems Qual der Wahl: die richtige Kamera Bildverarbeitungssysteme – die Basics
-
Über uns
Soziale VerantwortungBeruf und Familie Gesundheitsmanagement HanseBelt Initiative Nachwuchsförderung UmweltpolitikInvestorenAktie Finanzinformationen Finanzkalender Hauptversammlung Corporate Governance Kontakt zu Investor Relations NachhaltigkeitAktieAktueller Kurs Basis-Daten Aktionärsstruktur Analystenempfehlungen Aktienrückkaufprogramme DividendenpolitikFinanzinformationenAd Hoc Meldungen Corporate News Finanzberichte Stimmrechtsmitteilungen Präsentationen Equity StoryEquity StoryGeschäftsmodellCorporate GovernanceErklärung zum Kodex Vorstand Aufsichtsrat Director's Dealings Abschlussprüfer Satzung Vergütungsbericht
How does the YUV color coding work?
A CCD or a CMOS sensor alone is not able to detect the color of incident light. In reality, each pixel array cavity simply detects the intensity of the incident light as long the exposure is active. It cannot distinguish how much they have of each particular color of light. But when a color pattern filter is applied to the sensor, each pixel becomes sensitive to only one color - red, green or blue. As the human eye is more sensitive to green light than both red and blue light it has positive effects the array has twice as many green as red or blue sensors. The following images shows the color distribution and arrangement of a “Bayer Pattern” filter on a sensor with a size of x * y (with x and y being multiples of 2).

Since the arrangement of the colors in the Bayer pattern filter is known, an application can use the transmitted raw pixel information to interpolate full RGB color information for each pixel in the camera sensor. Instead of transmitting the raw pixel information, it is also common to use a color coding group known as YUV. The block diagram below illustrates the process of conversion inside a Basler color camera that is capable of this feature. To keep things simple, we assume that the sensor collects pixel data at an 8 bit depth.

As a first step, an algorithm calculates the complete RGB values for each and every pixel. This means, for example, that even if a pixel is sensitive to green light only, the camera gets full RGB information for the pixel by interpolating the intensity information out of adjacent red and blue pixels. This is, of course, just an approximation of the real world. There are many algorithms for doing RGB interpretation and the complexity and calculation time of each algorithm will determine the quality of the approximation. Basler color cameras have an effective built-in algorithm for this RGB conversion.
A disadvantage of RGB conversion is that the amount of data for each pixel is inflated. If a single pixel normally has a depth of 8 bits, after conversion it will have a depth of 8 bits per color (red, green and blue) and will thus have a total depth of 24 bits.
YUV coding converts the RGB signal to an intensity component (Y) that ranges from black to white plus two other components (U and V) which code the color. The conversion from RGB to YUV is linear, occurs without loss of information and does not depend on a particular piece of hardware such as the camera. The standard equations for accomplishing the conversion from RGB to YUV are:
Y = 0.299 R + 0.587 G + 0.114 B
U = 0.493 * (B - Y)
V = 0.877 * (R - Y)
In practice, the coefficients in the equations may deviate a bit due to the dynamics of the sensor used in a particular camera. If you want to know how the RGB to YUV conversion is accomplished in a particular Basler color camera, please refer to the camera’s user manual for the correct coefficients. This information is particularly useful if you want to convert the output from a Basler color camera from YUV back to RGB.
The diagram below illustrates how color can be coded with the U and V components and how the Y component codes the intensity of the signal.

This type of conversion is also known as YUV 4:4:4 sampling. With YUV 4:4:4, each pixel gets brightness and color information and the “4:4:4” indicates the proportion of the Y, U and V components in the signal.
To reduce the average amount of data transmitted per pixel from 24 bits to 16 bits, it is more common to include the color information for only every other pixel. This type of sampling is also known as YUV 4:2:2 sampling. Since the human eye is much more sensitive to intensity than it is to color, this reduction is almost invisible even though the conversion represents a real loss of information. YUV 4:2:2 digital output from a Basler color camera has a depth that alternates between 24 bits per pixel and 8 bits per pixel (for an average bit depth of 16 bits per pixel).
As shown in the table below, when a Basler camera is set for YUV 4:2:2 output, each quadlet of image data transmitted by the camera will contain data for two pixels. K represents the number of a pixel in a frame and one row in the table represents a quadlet of data transmitted by the camera.

For every other pixel, both the intensity information and the color information are transmitted and this results in a 24 bit depth for those pixels. For the remaining pixels, only the intensity information is preserved and this results in an 8 bit depth for them. As you can see, the average depth per pixel is 16 bits.
On all Basler color cameras, you are free to choose between an output mode that provides the raw sensor output for each pixel or a high quality YUV 4:2:2 signal. Some cameras provide RGB / BGR data as well.