-
Basler Vertrieb
Europa, Mittlerer Osten, Afrika
Nord-, Mittel- und Südamerika
Asien-Pazifik
Finden Sie hier Ihren lokalen Ansprechpartner und weitere Kontaktdaten.
Basler Support -
Angebotswarenkorb
Ihr Anfragewarenkorb ist derzeit leer. Bitte fügen Sie mindestens ein Produkt hinzu, um eine Angebotsanfrage absenden zu können. Falls Sie unserem Vertriebsteam direkt eine Nachricht senden möchten, verwenden Sie bitte dieses Formular.
Angebot anfordern -
- Produkte
- Lösungen
- Downloads
- Vertrieb & Support
-
Vision Campus
-
Kamera-Technologie
- Vergleich zwischen Sonys IMX CMOS-Sensorreihen
- Warum sollte ich meine Kamera farbkalibrieren?
- Experten-Tipps zur Auswahl des Objektivs für ein Vision System
- Expert Tips für Embedded Vision Systems
- Was ist multispektrale Bildgebung?
- Vergleich von CMOS-Kameras
- Farbe in der Bildverarbeitung
- Processing Boards in Embedded Vision
- Was ist Bildverarbeitung
- 3D-Technologien in Bildverarbeitung
- Was ist Embedded Vision
- Warum CMOS-Sensoren?
- Was ist Time of Flight?
- Was ist Bildqualität?
- Kamerabaugrößen
- Wie funktionieren Industriekameras?
- CMOS vs. CCD: Sensortechnologie
- Echtzeitfähigkeit
- NIR: Durchblick trotz wenig Licht
- Hochempfindliche Industriekameras
- Schnittstellen und Standards
-
Märkte und Applikationen
- Kameras für die Fluoreszenzmikroskopie
- Welche Rolle spielt Computer Vision in der Industrie 4.0?
- Was ist Deep Learning?
- Roboter mit Vision Technologie
- Blockchain für IoT Sensorhersteller
- Wie verändert IoT den Einzelhandel?
- Wie lernen Maschinen?
- IoT-Anwendungen in der Smart City
- Vorteile von Kameras in Medizin
- Laborautomation mit Vision
- Medizin mit Vision
- Bildverarbeitung in Industrie 4.0
- Industrielle Bildverarbeitung
- Automatische Optische Inspektion
- Farbkalibrierung in der Medizintechnik
-
Vision Systeme und Komponenten
- Software in der Bildverarbeitung
- Bildvorverarbeitung verstärkt und verschlankt Bildverarbeitungssysteme
- Wie finde ich die richtige Beleuchtung für mein Vision System?
- Was ist ein Machine Vision SDK
- Beleuchtung
- Wie finde ich das richtige Objektiv?
- Komponenten eines Vision Systems
- Qual der Wahl: die richtige Kamera
- Bildverarbeitungssysteme – die Basics
-
Kamera-Technologie
- Über uns
-
Produkte
Hardware für Computer VisionKameras Objektive Beleuchtung Bildeinzugskarten Kabel Zubehör Netzwerk- und PeripheriegeräteSoftware für Computer Visionpylon Camera Software Suite pylon vTools VisualApplets Weitere SoftwarePortfoliosEmbedded Vision Portfolio Medical & Life Sciences Portfolio CoaXPress ProduktportfolioKamerasFlächenkameras Zeilenkameras 3D-Kameras CoaXPress 2.0-Kameras Customized Basler Kameras Kameras für Embedded VisionFlächenkamerasBasler ace 2 Basler ace Basler MED ace Basler boost Basler beat Basler dart Basler pulse Basler scoutBasler aceNeue Features für die aceZeilenkamerasBasler racerBasler racerBasler racer - die richtige WahlBasler blazeblaze FAQ Use Case: 3D Bildverarbeitung zur Objektinspektion Basler blaze Software Use Case: ToF-Technologie trifft auf Etikettier-Roboter Use-Case-Kine-RoboticsBasler StereokameraAngebot Basler StereokamerasObjektiveObjektive mit FestbrennweiteBildeinzugskartenUSB 3.0 Interface Cards GigE Interface Cards CXP-12 Interface Cards imaWorx microEnable 5 marathon microEnable 5 ironmanpylon Camera Software Suitepylon vTools pylon Open-Source-Projekte pylon Data FAQ pylon Drivers & GenTL pylon SDKs pylon ViewerWeitere SoftwareBasler blaze Software Framegrabber-Software Basler Microscopy Software Basler Video Recording Software Basler Application Software für Robotik drag&bot Robotik-Software
-
Lösungen
MärkteFabrikautomation Medical & Life Sciences Bildgeführte Robotik Warehouse Automation Weitere AnwendungenFabrikautomationAutomobilindustrie Elektronik & Halbleiter Photovoltaik Nahrungsmittel & Getränke Pharma- & Healthcare-Produkte Druck & EndlosmaterialWeitere AnwendungenSport & Entertainment Sicherheit und Überwachung Agrar Retail Verkehr & TransportRetailGeldautomaten Check-Out-Systeme Rücknahmeautomaten SB-Automaten Recognition/Biometrie People Counting, Tracking & Profiling Shelf InspectionEmbedded VisionEmbedded Vision Portfolio Embedded Vision Services Embedded Vision Ecosystem & SupportEmbedded Vision PortfolioKameras für Embedded Vision Embedded Vision Kits Software für Embedded Vision Embedded Vision für NVIDIA Embedded Vision für NXP
- Downloads
-
Vertrieb & Support
Vertrieb & SupportVertrieb Support Kontakt Knowledge Base Aftersales Services Basler Produkt-Dokumentation Framegrabber Dienstleistungen ToolsKnowledge BaseSony Pregius S Sensoren Deep Learning ICX618 Replacement IoT und IIoT / Industrie 4.0 CoaXPress 2.0 – Schnittstellenvergleich PGI-Feature-Set EMVA1288 Standard OPC UA Häufig gestellte Fragen (FAQs) Basler blaze - Häufig gestellte Fragen (FAQ)Framegrabber DienstleistungenBeratung Entwicklung Integration Deep Learning CNN Dienstleistungspakete
-
Vision Campus
Vision CampusKamera-Technologie Schnittstellen und Standards Märkte und Applikationen Vision Systeme und KomponentenKamera-TechnologieVergleich zwischen Sonys IMX CMOS-Sensorreihen Warum sollte ich meine Kamera farbkalibrieren? Experten-Tipps zur Auswahl des Objektivs für ein Vision System Expert Tips für Embedded Vision Systems Was ist multispektrale Bildgebung? Vergleich von CMOS-Kameras Farbe in der Bildverarbeitung Processing Boards in Embedded Vision Was ist Bildverarbeitung 3D-Technologien in Bildverarbeitung Was ist Embedded Vision Warum CMOS-Sensoren? Was ist Time of Flight? Was ist Bildqualität? Kamerabaugrößen Wie funktionieren Industriekameras? CMOS vs. CCD: Sensortechnologie Echtzeitfähigkeit NIR: Durchblick trotz wenig Licht Hochempfindliche IndustriekamerasMehr anzeigenweniger anzeigenSchnittstellen und StandardsSystem-Setup mit CoaXPress 2.0 Was ist CoaXPress? Welche Schnittstelle für Embedded Vision? Multi-Kamerasysteme mit GigE 2.0 USB 3.0 – Schnittstelle der Zukunft Camera Link Gigabit Ethernet (GigE) GenICam Standard USB 3.0 und USB3 VisionMärkte und ApplikationenKameras für die Fluoreszenzmikroskopie Welche Rolle spielt Computer Vision in der Industrie 4.0? Was ist Deep Learning? Roboter mit Vision Technologie Blockchain für IoT Sensorhersteller Wie verändert IoT den Einzelhandel? Wie lernen Maschinen? IoT-Anwendungen in der Smart City Vorteile von Kameras in Medizin Laborautomation mit Vision Medizin mit Vision Bildverarbeitung in Industrie 4.0 Industrielle Bildverarbeitung Automatische Optische Inspektion Farbkalibrierung in der MedizintechnikMehr anzeigenweniger anzeigenVision Systeme und KomponentenSoftware in der Bildverarbeitung Bildvorverarbeitung verstärkt und verschlankt Bildverarbeitungssysteme Wie finde ich die richtige Beleuchtung für mein Vision System? Was ist ein Machine Vision SDK Beleuchtung Wie finde ich das richtige Objektiv? Komponenten eines Vision Systems Qual der Wahl: die richtige Kamera Bildverarbeitungssysteme – die Basics
-
Über uns
Soziale VerantwortungBeruf und Familie Gesundheitsmanagement HanseBelt Initiative Nachwuchsförderung UmweltpolitikInvestorenAktie Finanzinformationen Finanzkalender Hauptversammlung Corporate Governance Kontakt zu Investor Relations NachhaltigkeitAktieAktueller Kurs Basis-Daten Aktionärsstruktur Analystenempfehlungen Aktienrückkaufprogramme DividendenpolitikFinanzinformationenAd Hoc Meldungen Corporate News Finanzberichte Stimmrechtsmitteilungen Präsentationen Equity StoryEquity StoryGeschäftsmodellCorporate GovernanceErklärung zum Kodex Vorstand Aufsichtsrat Director's Dealings Abschlussprüfer Satzung VergütungsberichtKarriereJobbörse Dein Einstieg Arbeiten bei Basler Deine Vorteile Deine Bewerbung Standorte Stellen
Glossar
-
1080p
1080p ist der Kurzbegriff für eine Reihe von HDTV-Standards, die durch eine Auflösung von 1080 horizontale Linien und progressive Scan gekennzeichnet sind. Im Unterschied zu 1080i wird bei 1080p das Bild nicht im Zeilensprungverfahren dargestellt. Der Begriff 1080p impliziert in vielen Fällen auch das Seitenverhältnis von 16:9, so dass die horizontale Auflösung 1920 Pixeln entspricht. Häufig wird die Bildwiederholrate in Bildern pro Sekunde als zusätzliche Zahl angehängt, z. B. 1080p24. Im Marketingbereich wird statt 1080p auch häufig von Full HD gesprochen.
Mehr zu 1080p -
5x5-Debayering
Debayering-Algorithmen bedienen sich der Farbinformationen aus umliegenden Pixeln, um fehlende Farben auszugleichen. Das Ergebnis dieser Analyse hängt ab von der Anzahl der umgebenden Pixel. Werden die zwei nächstgelegenen Pixel zur Berechnung der tatsächlichen Farbe herangezogen, spricht man von einer 2x2-Umgebung; sind es die vier nächstgelegenen Pixel, spricht man von einer 4x4-Umgebung usw. Je mehr Pixel bei der Berechnung berücksichtigt werden, desto präziser wird die Farbdarstellung eines Bildes und desto weniger Farbfehler treten auf. Der PGI Debayering-Algorithmus basiert auf einer 5x5-Umgebung.
Aus technischen Gründen wird bei einigen Sensoren / Modellen ein 4x4-Debayering angewendet.
Mehr zu 5x5-Debayering -
720p
720p bezeichnet die geringste in der Fernsehnorm für High Definition Television vertretene Auflösung. 720 steht dabei für die vertikale Auflösung in Linien (oder Pixel-Reihen), das p kennzeichnet die progressive Bilddarstellung (im Gegensatz zur Darstellung nach dem Zeilensprung-Verfahren). Bei einem Seitenverhältnis von 16:9 ist die horizontale Auflösung bei 720p 1280 Pixel.
Mehr zu 720p -
Acquisition Cards | Bildeinzugskarte
Eine Bildeinzugskarte (oder Acquisition Card) ist eine Komponente des Vision Systems, welche die von der Kamera akquirierten Bilder an den Host-PC weiterleitet. Darunter fallen Framegrabber, PC-Karten und Interface Cards mit verschiedenen Kamera-Schnittstellen. Je nach Karte werden die Bilder im Zuge der Bildvorverarbeitung optimiert, um Bildqualität und Datendurchsatz zu erhöhen sowie die CPU zu entlasten.
Mehr zu Acquisition Cards -
Acquisition Cards
Siehe Bildeinzugskarte
Mehr zu Acquisition Cards -
ADC | Analog-Digital-Wandler
Analog-to-digital converter (ADC) oder Analog-Digital-Wandler. Ein elektronisches Gerät, das eine Spannung in eine proportionale digitale Zahl umwandelt.
Mehr zu ADC -
API
Application Programming Interface (API) bzw. Programmierschnittstelle für Anwendungen. Eine Reihe von Programmroutinen, durch die eine Anwendungssoftware mit der Kamera kommunizieren kann.
Mehr zu API -
Basler Design-in Sample
Mehr zu Basler Design-in Sample -
Bayer BG 12 / Bayer GB 12
Sowohl das „Bayer BG 12“ als auch das „Bayer GB 8“ sind Datenformate zur Übertragung von Bildinhalten. Wenn eine Farbkamera auf das Bayer BG 12 / Bayer GB 12 Pixeldatenformat eingestellt ist, werden 2Byte (d.h. 16 Bits) der Daten pro Pixel mit 12 effektiven Bits ausgegeben. Die Helligkeitsinformation befindet sich in den 12 niederwertigsten Bits, die 4 höchstwertigen Bits werden mit Nullen aufgefüllt. Die Pixeldaten sind beim Bayer BG12 Format nicht verarbeitet oder interpoliert, d.h. es handelt sich um Rohdaten.
Die Reihenfolge der Daten in Bayer BG12 Format orientiert sich an der Anordnung der Farbpixel auf dem Sensor in Form des Bayer-Patterns. Im Bayer-Pattern wechseln sich Zeilen mit grünen und blauen Pixeln ab mit Zeilen, in denen im Wechsel rote und grüne Pixel angeordnet sind. Das heißt, dass z. B. beim Bayer BG12-Format zeilenweise jeweils ein 12Bit-Wert für jedes blaue und grüne Pixel über eine Zeile hinweg im Wechsel übertragen werden. Es folgen dann jeweils ein 12Bit Wert für jedes grüne und rote Pixel der nächsten Zeile und so weiter, bis alle Zeilen des Farbsensors ausgelesen sind.
Der einzige Unterschied zwischen Bayer BG 12 Format und Bayer GB 12 Format ist, dass die Datenübertragung beim Bayer BG 12 Format mit einem blauen und beim GB12 Format mit einem grünen Pixel startet.
Mehr zu Bayer BG 12 / Bayer GB 12 -
Bayer BG 12 Packed / Bayer BG 12 p
“Bayer BG 12 Packed / Bayer BG 12 p“ ist ein Datenformat zur Übertragung von Bildinhalten. Wenn eine Farbkamera auf das Bayer BG 12 Packed Pixeldatenformat eingestellt ist, werden 12 Bits der Daten pro Pixel ausgegeben. Dabei werden jeweils die Daten von 2 Pixeln in 3 Bytes gepackt. Gegenüber dem ungepackten Bayer BG12 Format spart man so 4Bit Bandbreite pro Pixel. Beim Bayer BG 12 Packed Format, werden die Pixeldaten weder verarbeitet noch interpoliert, d.h. es handelt sich um Rohdaten.
Die Reihenfolge der Daten in Bayer BG 12 Packed Format orientiert sich an der Anordnung der Farbpixel auf dem Sensor in Form des Bayer-Patterns. Im Bayer-Pattern wechseln sich Zeilen mit grünen und blauen Pixeln ab mit Zeilen, in denen im Wechsel rote und grüne Pixel angeordnet sind. Das heißt, dass beim BG 12 Packed-Format zeilenweise jeweils ein 12Bit-Wert für jedes grüne und blaue Pixel über eine Zeile hinweg im Wechsel übertragen werden. Es folgen dann jeweils ein 12Bit Wert für jedes rote und grüne Pixel der nächsten Zeile und so weiter, bis alle Zeilen des Farbsensors ausgelesen sind.
Mehr zu Bayer BG 12 Packed / Bayer BG 12 p -
Bayer BG 8 / Bayer GB 8
Sowohl Bayer „BG 8“ als auch „Bayer GB 8“ sind Datenformate zur Übertragung von Bildinhalten. Wenn eine Farbkamera auf das Bayer BG 8 / Bayer GB 8 Pixeldatenformat eingestellt ist, werden 8 Bits der Daten pro Pixel ausgegeben. Die Reihenfolge der Daten orientiert sich dabei an der Anordnung der Farbpixel auf dem Sensor in Form des Bayer-Patterns. Im Bayer-Pattern wechseln sich Zeilen mit grünen und blauen Pixeln ab mit Zeilen, in denen im Wechsel rote und grüne Pixel angeordnet sind. Das heißt, dass z. B. beim Bayer BG8 Format zeilenweise jeweils ein 8Bit-Wert für jedes blaue und grüne Pixel über eine Zeile hinweg übertragen werden. Es folgen dann jeweils ein 8Bit Wert für jedes grüne und rote Pixel der nächsten Zeile und so weiter, bis alle Zeilen des Farbsensors ausgelesen sind. Die Pixeldaten werden dabei nicht verarbeitet oder interpoliert. Damit handelt es sich bei den Bayer BG8 und GB8 Formaten um Rohdatenformate.
Der einzige Unterschied zwischen Bayer BG 8 und Bayer GB 8 ist, dass die Datenübertragung beim Bayer BG 8 Format mit einem blauen und beim GB8 Format mit einem grünen Pixel startet.
Mehr zu Bayer BG 8 / Bayer GB 8 -
Bayer-Matrix
Eine regelmäßige Matrix roter, grüner und blauer Farbfilter über den Pixeln eines Sensors. Jedes Pixel ist von einem Farbfilter bedeckt, wobei seine nächsten Nachbarpixel von Farbfiltern der jeweils anderen Farben bedeckt sind. Die nächsten Nachbarn eines "grünen" Pixels sind beispielsweise "rote" und "blaue" Pixel. Siehe auch Farbbildung und Farbinterpolation.
Mehr zu Bayer-Matrix -
BCON for LVDS-Schnittstelle
Die BCON for LVDS-Schnittstelle enthält daneben aber auch die Kamerasteuerung über I²C und verschiedene Triggermöglichkeiten.
Mehr zu BCON for LVDS-Schnittstelle -
Bildeinzugskarte | Acquisition Cards
Eine Bildeinzugskarte ist eine Komponente des Vision Systems, welche die von der Kamera akquirierten Bilder an den Host-PC weiterleitet. Darunter fallen Framegrabber, PC-Karten und Interface Cards mit verschiedenen Kamera-Schnittstellen. Je nach Karte werden die Bilder im Zuge der Bildvorverarbeitung optimiert, um Bildqualität und Datendurchsatz zu erhöhen sowie die CPU zu entlasten.
Mehr zu Bildeinzugskarte -
Bildrate
Die Anzahl an Bildern pro Sekunde, die beispielsweise aufgenommen oder übertragen werden.
Mehr zu Bildrate -
Bildschärfe-Optimierung
Die Bildschärfe-Optimierung durch PGI liefert grundsätzlich bereits eine ausgezeichnete Bildschärfe. Darüber hinaus lässt sich mithilfe eines zusätzlichen Schärfefaktors die Bildschärfe weiter verbessern. Diese zusätzliche Optimierung ist hilfreich für besonders anspruchsvolle Anwendungen, die mit automatischer Zeichenerkennung (OCR - Optical Character Recognition) arbeiten.
Mehr zu Bildschärfe-Optimierung -
Bildsensor
Ein elektronisches Bauteil mit einer großen Zahl lichtempfindlicher Flächen, den Pixeln, in denen Photonen elektrische Ladungen erzeugen, die wiederum in ein elektrisches Signal umgewandelt werden.
Mehr zu Bildsensor -
Binning
Binning beschreibt eine Technik, bei der mehrere benachbarte Pixel zu einem Pixelblock mit dem Ziel zusammengefasst werden, eine besseres Signal/Rausch Verhältnis zu erlangen.
Mehr zu Binning -
Blooming
Ein Artefakt, der in Bildern auftauchen kann, die von einem CCD-Sensor aufgenommen worden sind. Blooming entsteht, wenn die Ladung, die in einem Pixel durch das Licht erzeugt wird, die Full-Well-Kapazität überschreitet und dadurch in die Nachbarpixel "überläuft".
Mehr zu Blooming -
Camera Link
Camera Link ist eine robuste und leistungsstarke Schnittstelle für Industriekameras aller Leistungsklassen. Die Bandbreite an Produkten mit Camera Link-Schnittstelle reicht von sehr kleinen Kameras bis zu Kameras mit Megapixel-Auflösung und einer Bildrate von häufig mehr als 100 Bilder pro Sekunde. Camera Link ist zurzeit die empfohlene Standard-Schnittstelle für Datenraten von 100 MB/s bis zu ungefähr 800 MB/s.
Ein Vorteil der Camera Link Schnittstelle ist ihre Leistungsfähigkeit und die einfache und sichere Handhabung. Camera Link ist speziell für Industrie-Kameras konzipiert und definiert einen einheitlichen Standard für alle Komponenten der Camera Link-Lösung.
Mehr zu Camera Link -
Camera Link HS
Camera Link HS wurde als der jüngste Hochgeschwindigkeitsstandard veröffentlicht. Er definiert sowohl den CX4-Stecker als auch den SFP+-Stecker als unterstützte Bauformen. Die Leitungslänge der optischen Verbindung liegt bei mehreren hundert Metern bis Kilometern. Insbesondere für Zeilenkameraanwendungen ergeben sich hierdurch ein hochgenauer Bildeinzug und -steuerung.
Mehr zu Camera Link HS -
Carrier Board (Trägerplatine)
Mehr zu Carrier Board (Trägerplatine) -
CCD
Ein CCD (Charge-Coupled Device) ist ein elektronisches Bauteil zur Bewegung elektrischer Ladung. Ursprünglich für die Datenspeicherung entwickelt, wird das CCD heute fast ausschließlich als lichtempfindlicher Sensor verwendet.
Mehr zu CCD -
CCD-Sensor
Ein CCD-Sensor wandelt Licht (Photonen) in elektrische Signale (Elektronen) um. Hauptvorteil des CCD-Sensors gegenüber anderen Sensortechnologien sind sein geringes Rauschen, der hohe Füllfaktor und ein gutes Signal-Rausch-Verhältnis. Die hohe Bildqualität von CCD-Sensoren machen Kameras mit diesen Sensoren zur guten Wahl für Anwendungen der Bildverarbeitung. Für weitere Informationen siehe auch das White Paper "Der kleine Unterschied auf dem Weg vom Licht zum Signal".
Mehr zu CCD-Sensor -
CCT+
Das Basler Camera Configuration Tool Plus (CCT+) ist ein Windows-basiertes Werkzeug zur Konfiguration von Basler-Kameras, die dem Camera Link-Standard entsprechen. CCT+ ist für 32 und 64 Bit Betriebssysteme und Framegrabber verfügbar. Für die neueren Camera Link-Kameras von Basler gibt es die Basler pylon Software.
Mehr zu CCT+ -
Charge-Coupled Device
Ein Charge-Coupled Device (CCD) ist ein elektronisches Bauteil zur Bewegung elektrischer Ladung. Ursprünglich für die Datenspeicherung entwickelt, wird das CCD heute fast ausschließlich als lichtempfindlicher Sensor verwendet.
Mehr zu Charge-Coupled Device -
CMOS
Complementary Metal-Oxide-Semiconductor (CMOS) beschreibt eine Technologie zur Herstellung integrierter Schaltkreise. Sie wird für Mikroprozessoren, Mikrocontroller, statische RAM-Bausteine und andere digitale Logikbausteine verwendet. Ebenso werden zahlreiche analoge Schaltkreise, wie z. B. Bildsensoren (CMOS-Sensoren), Datenwandler und hochintegrierte Sende- und Empfangsbausteine für unterschiedliche Arten der Datenübertragung in CMOS Technologie hergestellt. CMOS wurde 1967 von Frank Wanlass patentiert (US patent 3356858).
Mehr zu CMOS -
CMOS-Sensor
Die Hauptaufgabe von CCD- und CMOS-Sensoren ist, Licht (Photonen) in elektrische Signale (Elektronen) zu verwandeln. Durch ihren Geschwindigkeitsvorteil (Bildrate) und ihre höhere Auflösung (Anzahl der Pixel) im Vergleich zu CCD-Sensoren haben CMOS-Sensoren ihren Weg in die industrielle Bildverarbeitung genommen. Verbesserungen der CMOS-Technologie und die starke Nachfrage der Industrie für Großserien wie beispielsweise dem Automobilmarkt machen CMOS-Bildsensoren immer attraktiver für Anwendungen der Bildverarbeitung. Für weitere Informationen, siehe White Paper "Der kleine Unterschied auf dem Weg vom Licht zum Signal".
Mehr zu CMOS-Sensor -
C-Mount
Der C-Mount ist ein genormter Gewindeanschluss für Kameraobjektive. Das Gewinde hat einen Nenndurchmesser von 1 Zoll (24,5 mm) und eine Steigung von 1/32 Zoll. Das Auflagemaß dieses Objektivanschlusses beträgt 17.526mm (0.69 Zoll).
Mehr zu C-Mount -
CoaXPress | CXP
Der CoaXPress (CXP) Standard wurde ursprünglich von verschiedenen Unternehmen aus der industriellen Bildverarbeitungsbranche aus der Taufe gehoben. Ziel war es, eine schnelle Datenschnittstelle zu entwickeln, die auch die Möglichkeit bietet, eine große Datenmenge über größere Distanzen zu überbrücken. Erste CoaXPress-Schnittstellen wurden auf der führenden Messe für die industrielle Bildverarbeitung „Vision“ im Jahr 2008 in Stuttgart vorgestellt. Nach drei weiteren Jahren Entwicklung wurde CXP 1.0 dann offiziell 2011 als Standard freigegeben. Seitdem hat sich der Standard in der industriellen Bildverarbeitung etabliert. Dann erfolgte eine Weiterentwicklung dieses Standards zu CoaXPress 2.0.
Eine Schnittstelle nach CoaXPress 1.0/1.1 Standard unterstützt Datenraten von immerhin 6,25 Gbps. Der CoaXPress 2.0 Standard gibt mit bis zu 12,5 Gbps doppelt so hohe Übertragungsgeschwindigkeit vor. Damit können im Vergleich mit anderen leistungsfähigen Standards noch höhere Auflösungen und Bildraten erreicht werden. Verglichen mit der Vorgänger-Schnittstelle benötigt der neue Standard nur halb so viele Kabel, um die gleiche Datenmenge zu übertragen. Durch die Möglichkeit des Triggerns und der Stromversorgung (Power over CXP) über CXP, ist nur ein CoaXPress-Kabel erforderlich, für das auch – ein weiteres Plus – eine maximale Kabellänge von 40 m erlaubt ist.
Mehr zu CoaXPress -
Cobot
Ein Cobot ist ein neuer Typus kleinerer und kostengünstiger Roboter, der Seite an Seite mit Menschen arbeiten kann. Cobots sind speziell für kleinere Unternehmen von Vorteil, da sie deutlich einfacher zu installieren, programmieren und zu warten sind. Vision Guidance – die Steuerung über optische Sensoren – ist in diesem Zusammenhang besonders wichtig, um Objekte zuverlässig zu erkennen.
Mehr zu Cobot -
CS-Mount
Ein Gewindeanschluss für Kameraobjektive. Er ist identisch zum C-Mount, mit Ausnahme des Auflagemaßes von 12,526 mm (0,493 Zoll).
Mehr zu CS-Mount -
Debayering
Ein Standard-Bildsensor erzeugt zunächst nur Schwarz-Weiß-Aufnahmen. Erst durch eine Farbmatrix entsteht ein Farbbild. Die wohl bekannteste und am weitesten verbreitete Matrix ist die Bayer-Matrix. Der Vorgang wird daher auch als Bayering bezeichnet. Bei diesem Verfahren werden die Farbpunkte wie ein Mosaik zusammengesetzt. Allerdings sind die Farbwerte dieses Mosaiks unvollständig. Um nun ein korrektes Farbbild zu erhalten, müssen diese Farbwerte über einen komplizierten Algorithmus wieder rekonstruiert werden. Diesen Vorgang nennt man Demosaicing oder – benannt nach dem Bayer-Sensor – Debayering.
Debayering kann entweder direkt über die Firmware der Kamera durchgeführt werden, oder nachträglich über die Raw-Daten in der Postproduktion. Für Industrieanwendungen empfiehlt sich das Debayering mittels der Firmware.
Mehr zu Debayering -
Deep Learning
Unter Deep Learning versteht man sogenannte Neuronale Netze (Artificial Neural Networks, ANN). Um Bilddaten zu verarbeiten ist ein ANN in verschiedenen Schichten aufgebaut. Besteht es aus mehr als drei Schichten, spricht man von „deep“. Die am weitesten verbreiteten ANNs sind Convolutional Neural Networks (CNN), welche auf mathematischen Faltungsoperationen beruhen.
Deep Learning ermöglicht viele neue Anwendungen, die zuvor nicht möglich waren, wie z.B. die Klassifizierung von Zellen im Bereich Medizin & Life Sciences. Ein anderes Beispiel ist die Erhöhung von Präzision und Robustheit in industriellen Anwendungen.
Mehr zu Deep Learning -
DirectShow
Ein Bildverarbeitungsprogramm mit DirectShow -Schnittstelle kann Daten von jedem Bildeingabegerät entgegennehmen, das seinerseits entsprechende Unterstützung bietet.
Mehr zu DirectShow -
DNS
Domain Name System
Mehr zu DNS -
Dunkelfeld
Man spricht von Dunkelfeld, wenn Licht in einem flachen Winkel auf das Zielobjekt fällt. So werden beispielsweise Kratzer, Kanten, Markierungen oder Kerben auf Oberflächen sichtbar.
Mehr zu Dunkelfeld -
Dynamikbereich
Der Dynamikbereich beschreibt das Verhältnis des größten Signals zum kleinsten Signal (das vom Rauschen unterschieden werden kann) in einem Bild. Der Dynamikbereich beschreibt die Fähigkeit einer Kamera, ein Bild zu erzeugen, das gleichzeitig sowohl sehr wenig und sehr viel Licht enthält bei minimalem Rauschen und mit minimaler Interferenz.
Mehr zu Dynamikbereich -
Embedded System
Dort übernimmt es bestimmte Teilaufgaben dieses Gerätes.
Mehr zu Embedded System -
Embedded Vision System
Technisch kann es auf einem Single Board Computer, einem System–on-Module (SoM) oder einem individuell angepassten Processing Board basieren, die jeweils mit zusätzlicher Kameratechnik ergänzt werden.
Mehr zu Embedded Vision System -
EMVA
Die European Machine Vision Association (EMVA) ist ein Zusammenschluss von Firmen und Körperschaften, die im Bereich Machine Vision und Standardisierungen in diesem Bereich aktiv sind. Von der EMVA wurden z. B. der EMVA1288 und der GenICam Standard definiert und veröffentlicht.
Mehr zu EMVA -
EMVA1288
Der Standard "EMVA 1288" der European Machine Vision Association beschreibt eine einheitliche Methode, die Spezifikationsparameter für Kameras und Bildsensoren der industriellen Bildverarbeitung zu messen, zu berechnen und darzustellen. Der EMVA-Standard beschreibt eine wohldefinierte Methode zum Messen der häufigsten Rausch-Quellen. Er enhält auch eine verbindliche und detaillierte Beschreibung aller Mess-Einrichtungen, Umwelt-Bedingungen und Testanforderungen.
Eine Version des EMVA 1288-Standards kann von der Webseite der EMVA heruntergeladen werden: www.standard1288.org.
Basler setzt sich als Mitglied der EMVA dafür ein, Messmethoden für Bildqualität und Empfindlichkeit von Kameras und Sensoren der industriellen Bildverarbeitung zu standardisieren und unterstützt den EMVA1288-Standard in vollem Umfang. Alle Messungen, die von Basler durchgeführt werden, entsprechen zu 100% diesem wichtigen Standard.
Mehr zu EMVA1288 -
Erstausrüster
Unter einem Erstausrüster (oder OEM, engl. für Originalausrüstungshersteller) versteht man einen Hersteller fertiger Komponenten oder Produkte. Die Produkte werden in den eigenen Fabriken produziert, aber nicht selbst in den Handel gebracht. OEM bezieht sich auf die Firma, die das Produkt ursprünglich hergestellt hat.
Mehr zu Erstausrüster -
Ethernet
Ethernet ist der Sammelbegriff für eine Reihe Standards für drahtgebundene Computer-Netzwerke, die sowohl Software (Protokolle usw.) als auch Hardware (Kabel, Verteiler, Netzwerkkarten usw.) definiert. Ethernet wurde 1980 kommerziell eingeführt und hat als IEEE 802.3 Standard inzwischen konkurrierende Standards für lokale Datennetze (LANs) fast vollständig verdrängt. Es ermöglicht den Datenaustausch in Form von Datenpaketen zwischen den an ein lokales Netz (LAN) angeschlossenen Geräten (Computer, Drucker und dergleichen) über Datenpakete, die auch Quell- und Zieladresse sowie Daten zur Fehlererkennung enthalten. Das ursprüngliche 10BASE5 Ethernet verwendete noch Koaxialkabel als Übertragungsmedium. Inzwischen werden hauptsächlich Datenleitungen als twisted-pair- oder als Glasfaser-Verbindungen ausgeführt und zusammen mit Hubs und Switches verwendet. Derzeit sind Übertragungsraten von 10 Megabit/s, 100 Megabit/s (Fast Ethernet), 1000 Megabit/s (Gigabit-Ethernet) bis hin zu 10 Gigabit/s spezifiziert. In seiner traditionellen Ausprägung erstreckt sich das LAN dabei nur über ein Gebäude; auch Ethernet über Glasfaser hat eine lediglich begrenzte Reichweite.
Mehr zu Ethernet -
European Machine Vision Association
Die European Machine Vision Association (EMVA) ist ein Zusammenschluss von Firmen und Körperschaften, die im Bereich Machine Vision und Standardisierungen in diesem Bereich aktiv sind. Von der EMVA wurden z. B. der EMVA1288 und der GenICam Standard definiert und veröffentlicht.
Mehr zu European Machine Vision Association -
Event Reporting
Event Reporting“ ist eine Funktion der Kamera zur Steuerung der Bildaufnahme Mit dieser Funktion kann die Kamera unter bestimmten Bedingungen ein Ereignis erzeugen. Eine entsprechende Ereignismeldung wird dann an den PC gesendet.
Ein Ereignis könnte z. B. ein „Overtriggering“ sein. Bedingung für dieses Ereignis wäre, dass die Kamera ein Trigger-Signal zur Bildaufnahme erhält, aber noch nicht bereit zur Bildaufnahme ist. In diesem Fall würde die Kamera eine entsprechende Ereignismeldung an den PC senden.
Mehr zu Event Reporting -
Exposure Active Signal
Das „Exposure Active Signal“ ist ein Digitalsignal, das über einen Ausgang der Kamera zur Steuerung der Bildaufnahme ausgegeben wird.
Das Exposure Active--Signal wird aktiviert (i.d.R. auf „High“ gesetzt), wenn die Belichtungszeit für eine Bildaufnahme beginnt. Das Signal wird wieder deaktiviert, wenn die Belichtungszeit endet. Das Exposure Active-Signal kann z. B. als Trigger für einen Blitz verwendet werden und ist auch hilfreich, wenn Sie ein System bedienen, wo die Kamera oder das Objekt zwischen zwei Aufnahmen bewegt wird. Zur Vermeidung von Bewegungsunschärfe kann dann das Signal ausgewertet werden, um Bewegung während der Belichtung zu vermeiden.
Mehr zu Exposure Active Signal -
Farb-Anti-Aliasing
Farbfehler, insbesondere entlang scharfer Kanten, sind ein häufiger Nebeneffekt von weniger wirkungsvollen Debayering-Algorithmen. Diese Fehler nehmen an Häufigkeit und Intensität in Bildbereichen mit hoher Raumfrequenz zu. Sie entstehen beispielsweise wenn die Abstände zwischen schwarzen und weißen Linien so gering sind, dass sie in die Nachbarpixel übergehen, oder an scharfen Kanten mit einer hellen und einer dunklen Seite. PGI Farb-Anti-Aliasing analysiert und korrigiert Farbfehler für alle möglichen Frequenzen unterhalb des theoretischen Limits, der Nyquistfrequenz.
Mehr zu Farb-Anti-Aliasing -
Farbbildung
Ein Bildsensor kann nur Grauwerte liefern. Um Farbinformationen zu erhalten, wird jedes Pixel des Sensors mit einem Farbfilter abgedeckt, so dass das Pixel den Grauwert für die Farbe seines Farbfilters (Primärfarben) liefern kann. Um die gesamte Farbinformation zu bekommen, werden Farbfilter verschiedener Farben (z. B. rot, grün, blau) verwendet. Sie werden den Pixeln der Sensoren in einer regelmäßigen Matrix zugewiesen (z.B. zu einer Bayer Matrix), sodass die benachbarten Pixel von den Farbfiltern der unterschiedlichen Primärfarben bedeckt werden. Die nächsten Nachbarn eines "grünen" Pixels sind besispielsweise "rote" und "blaue" Pixel. Die Grauwerte für die Primärfarben, die nicht gemessen wurden, können dann für jedes Pixel von den Grauwerten, die von den benachbarten Pixeln geliefert werden, interpoliert werden. Als Alternative können statt der Farbfilter verschiedener Farben auf einem einfachen Sensor, verschiedene Sensoren verwendet werden, wobei jeder Sensor nur von einem Farbfilter einer Farbe bedeckt ist.
Mehr zu Farbbildung -
Farbfilter
Farbige, lichtdurchlässige Abdeckung über einem Pixel. Nur Licht in der Farbe des Farbfilters kann zum Pixel durchdringen.
Mehr zu Farbfilter -
Farbinterpolation
Beschreibt die Methode, mit der die volle Farbinformation für jedes Pixel berechnet wird. Zur Berechnung werden die Helligkeitswerte jedes Pixels und seiner unmittelbaren Nachbarpixel verwendet.
Mehr zu Farbinterpolation -
Field Programmable Gate Array (FPGA)
Dadurch kann das FPGA für bestimmte Anwendungen optimiert werden und eignet sich damit insbesondere auch für Vision Systeme.
Mehr zu Field Programmable Gate Array (FPGA) -
Fixed-Box-Kameras
Fest installierte Kameras z.B. für die Videoüberwachung. Baslers Fixed-Box-IP-Kameras weisen außergewöhnliche Bildqualität, sehr hohe Lichtempfindlichkeit und schnelle Bildraten bei unterschiedlichen Kompressionsverfahren auf.
Mehr zu Fixed-Box-Kameras -
Fixed-Dome-Kameras
Fest installierte Kamera mit Kuppelgehäuse, vorzugsweise zur Installation unter der Decke. Baslers IP Fixed-Dome-Kameras besitzen ein schlagfestes Aluminiumgehäuse für die Videoüberwachung unter extremen Bedingungen im Innen- und Außenbereich. Basler IP Fixed-Dome-Kameras lassen sich einfach an Wänden oder im Deckenbereich installieren. Eine eingebaute 3-Achsen-Halterung ermöglicht eine flexible Ausrichtung der Kamera.
Mehr zu Fixed-Dome-Kameras -
Flächenkamera
Flächenkameras zeichnen sich durch einen rechteckigen Sensor mit mehreren Bildzeilen aus, die gleichzeitig belichtet werden.
Mehr zu Flächenkamera -
Flash Window Signal
Das „Flash Window Signal“ ist ein Digitalsignal der Kamera zur Steuerung externer Beleuchtung. Das Flash Window Signal zeigt den Zustand der Bildaufnahme bei einer Kamera mit Rolling Shutter an. Das Signal dient dazu, das Zeitfenster zu markieren, innerhalb dessen ein Lichtpuls (z. B. Blitzlicht) getriggert werden muss, um für die Bildaufnahme des gesamten Sensors wirksam zu sein.
Das Signal wird aktiv, wenn das Zeitfenster für den Lichtpuls beginnt und wieder inaktiv, wenn es endet. Beim Rolling Shutter kann eine blitzartige Beleuchtung helfen, den Rolling-Shutter-Effekt bei bewegten Objekten zu vermeiden.
Mehr zu Flash Window Signal -
F-Mount
Das F-Bajonett ist ein Bajonett-Anschluss für Kameraobjektive, der von Nikon ursprünglich für Spiegelreflexkameras eingeführt wurde. Das Auflagemaß des F-Bajonetts beträgt 46,5 mm.
Mehr zu F-Mount -
FPS
Einheit für die Bildrate. Die Bildrate gibt die Frequenz an, mit der ein Videostrom aktualisiert wird. Sie wird in fps (Frames pro Sekunde) gemessen. Eine höhere Bildrate ist von Vorteil, wenn der Videostrom Bewegungen abbildet, da sie für eine durchgehend hohe Bildqualität sorgt.
Mehr zu FPS -
Framegrabber
Eine elektronische Einheit, die in einem PC eingebaut ist und die Verbindung mit einer Kamera herstellt. Der Framegrabber (FG) empfängt Videoströme, die von der Kamera gesendet werden. Er kann sie aufbereiten und dem PC zur weiteren Verarbeitung bereitstellen. Kontrollsignale zu und von der Kamera laufen ebenfalls über den Framegrabber. Ein Framegrabber wird beispielsweise für Kameras benötigt, die mit dem Camera Link-Standard konform sind.
Mehr zu Framegrabber -
Frames per Second
Einheit für die Bildrate. Die Bildrate gibt die Frequenz an, mit der ein Videostrom aktualisiert wird. Sie wird in fps (Frames pro Sekunde) gemessen. Eine höhere Bildrate ist von Vorteil, wenn der Videostrom Bewegungen abbildet, da sie für eine durchgehend hohe Bildqualität sorgt.
Mehr zu Frames per Second -
Frame Start Trigger Delay
„Frame Start Trigger Delay“ ist eine Funktion der Kamera zur Steuerung der Bildaufnahme. Mithilfe dieser Funktion kann der Anwender für die Bildaufnahme seiner Kamera eine Verzögerung in Mikrosekunden definieren. Nach dem Empfang des Triggersignals durch die Kamera wird bis zum Bildeinzug diese vordefinierte Zeit abgewartet. Dadurch kann z. B. bei Bildaufnahme über einem Transportband der Bildausschnitt justiert werden, ohne ein u. U. schon bestehendes Triggersignal des Bandes verändern zu müssen.
Mehr zu Frame Start Trigger Delay -
Full HD
Full HD oder 1080p ist der Kurzbegriff für eine Reihe von HDTV-Standards, die durch eine Auflösung von 1080 horizontale Linien und progressive Scan gekennzeichnet sind. Im Unterschied zu 1080i wird bei 1080p das Bild nicht im Zeilensprungverfahren dargestellt. Der Begriff 1080p impliziert in vielen Fällen auch das Seitenverhältnis von 16:9, so dass die horizontale Auflösung 1920 Pixeln entspricht. Häufig wird die Bildwiederholrate in Bildern pro Sekunde als zusätzliche Zahl angehängt, z. B. 1080p24.
Mehr zu Full HD -
Full-Well-Kapazität
Diese Größe beschreibt die größte Ladung, die ein Pixel halten kann, bevor ein Überlaufen der Ladung in benachbarte Pixel innerhalb des Sensors das sogenannte Blooming erzeugt. Für die maximale Dynamik eines Sensors oder einer Kamera spielen der Bereich zwischen Full-Well-Capacity und Dunkelrauschen eine entscheidende Rolle.
Mehr zu Full-Well-Kapazität -
GenApi
Eine Programmierschnittstelle zur Konfiguration von Kameras für die industrielle Bildverarbeitung. Die GenAPI ist Bestandteil des GenICam-Standards.
Mehr zu GenApi -
GenICam Explorer
Der GenICam Explorer ist in die Software microDisplay X integriert. Das Tool erkennt angeschlossene Kameras automatisch und ermöglicht den direkten Zugriff auf die GenICam Schnittstelle der Kamera. Über eine grafische Benutzeroberfläche lassen sich die Kameraverbindung, Link-Topologie sowie die Kamera selbst und die Framegrabber-Firmware konfigurieren und steuern sowie die Einstellungen speichern. Die neuen GUI-Optionen stellen eine Alternative zur Konfiguration über SDK dar.
Der GenICam Explorer ist neben GigE Vision auch für die Kameraschnittstellen CoaXPress und Camera Link HS erhältlich und für alle gängigen Kameramodelle einsetzbar.
Mehr zu GenICam Explorer -
GenICam™
GenICam ist ein Standard der EMVA zur Kontrolle von Machine Vision Kameras über eine generische Programmierschnittstelle unabhängig vom Schnittstellentyp (z. B. GigE Vision, FireWire, CameraLink, USB), vom Kameratyp und vom Bildformat.Dieser Ansatz erlaubt es, beliebige mit dem GenICam-Standard konforme Kameras ohne herstellerspezifische Konfigurationen an eine Schnittstelle anzuschließen.
Das Herzstück von GenICam ist eine Beschreibung der Kamera-Eigenschaften in einer XML-Beschreibungsdatei (descriptor file). Mithilfe dieser Datei erzeugt ein Übersetzer eine Programmierschnittstelle (Application Programmable Interface, GenAPI) oder die Elemente einer grafischen Benutzeroberfläche (GUI). Dadurch kann der Benutzer einfach auf die verfügbaren Eigenschaften und Funktionen der Kamera zugreifen. GenTL, ein Modul von GenICam sorgt für einen einheitlichen Mechanismus zum Aufnehmen und Übertragen der Kamerabilder über einen Datenstrom. Der GigE Vision-Standard erfordert, dass Kameras mit GigE-Schnittstelle eine XML-Beschreibungsdatei zur Verfügung stellen. Eine solche Beschreibungsdatei gibt es auch für Basler-IEEE 1394-Kameras und Camera Link-Kameras.
Mehr Informationen zu GenICam finden Sie unter www.GenICam.org.
Mehr zu GenICam™ -
GenTL
Ein Modul des GenICam-Standards, das einen einheitlichen Mechanismus zur Aufnahme und Streaming von Kamerabildern bereitstellt.
Mehr zu GenTL -
Gigabit Ethernet
Gigabit Ethernet (GigE) ist ein Standard zur kabelgebundenen Datenübertragung, basierend auf dem Ethernet Standard. Derzeit ist Gigabit Ethernet die Schnittstelle mit der größten Flexibilität in Bezug auf Bandbreite, Kabellänge und Multi-Kamera-Unterstützung. Es unterstützt Kabellängen von bis zu 100m, Stromversorgung über das Datenkabel (PoE) und eine Datenrate von 1000Mbit/s. Für digitale Kameras aus dem Bereich der professionellen Bildverarbeitung ist Gigabit Ethernet (GigE) die Schnittstelle, die in den letzten Jahren am schnellsten gewachsen ist. Es handelt sich um eine universell einsetzbare digitale Schnittstelle, die als erste digitale Schnittstelle auch bestehende analoge Kamera-Systeme in fast jeder Anwendung zu ersetzen kann.
Mehr zu Gigabit Ethernet -
GigE Vision
Durch Nutzung des Gigabit-Ethernet-Standards können Industriekameras einfach an vorhandene Netzwerksysteme angeschlossen werden.
Mehr zu GigE Vision -
H.264
H.264-Kompression ist mittlerweile Standard in fast allen IP-Kameras und Aufnahmeservern. Mit H.264 konnte die große Lücke zwischen MJPEG (hohe Bildqualität, hoher Bandbreiten- und Speicherbedarf) und MPEG-4 (geringere Bildqualität, geringerer Bandbreiten- und Speicherbedarf) geschlossen werden. Außerdem bietet H.264 eine zweite Ebene von Möglichkeiten: die sogenannten Profile. Die Codecs dieser Profile sind unterschiedlich effizient und beeinflussen sowohl die Qualität des übertragenen Videostreams als auch den Bandbreiten- und Speicherbedarf. Es gibt mittlerweile verschiedene H.264-Profile. Allerdings sind nur drei dieser Profile in Überwachungsanwendungen üblich: Baseline Profile (BP), Main Profile (MP) und High Profile (HiP). Jeder Hersteller entscheidet selbst, welche dieser Profile er in seinen Kameras implementiert.
Mehr zu H.264 -
HD
HD oder 720p bezeichnet die geringste in der Fernsehnorm für High Definition Television vertretene Auflösung. 720 steht dabei für die vertikale Auflösung in Linien (oder Pixel-Reihen), das p kennzeichnet die progressive Bilddarstellung (im Gegensatz zur Darstellung nach dem Zeilensprung-Verfahren). Bei einem Seitenverhältnis von 16:9 ist die horizontale Auflösung bei 720p 1280 Pixel.
Mehr zu HD -
Hellfeld
Mit dem Begriff Hellfeld wird die Einbauposition der Beleuchtung beschrieben: Das Licht leuchtet direkt auf das Objekt, fast parallel zur optischen Achse der Kamera.
Mehr zu Hellfeld -
High Profile
Ein bestimmtes H.264 Profil. Das High Profile wird für Blu-Ray-Filme in HD-Auflösung verwendet und ist wesentlich effizienter als die Profile Baseline und Main. Das High Profile generiert zuverlässige Videodaten mit weniger Kompressionsartefakten als die beiden anderen Profile. Zwar muss der Videoencoder in der Kamera leistungsfähiger sein als für die anderen Profile, dafür werden aber sowohl weniger Bandbreite, als auch weniger Speicherplatz benötigt.
Mehr zu High Profile -
I2C
Es handelt sich um einen seriellen Datenbus, der geräteintern für die Kommunikation zwischen verschiedenen Modulen benutzt wird.
Mehr zu I2C -
ICX618 Replacement-Kamera
Eine Replacement-Kamera kann eine ältere Kamera im System beziehungsweise in der Endanwendung ersetzen, ohne dass dafür zwingend weitere Hardware getauscht werden muss und ohne dass größere Anpassungen in der Parametrierung oder Aufnahmegeometrie erforderlich sind.
Damit dies möglich wird, müssen Sensorgröße und –auflösung der Replacement-Kamera denen der alten Kamera entsprechen. Darüber hinaus muss die Replacement-Kamera in gleicher Aufnahmesituation nahezu identische Bilddaten erzeugen wie die zu ersetzende Kamera. Selbstverständlich müssen auch die mechanischen Schnittstellen der Replacement-Kamera mit denen der abzulösenden Kamera kompatibel sein.
Die Basler ace U Kamera acA640-121gm ist die erste 1:1-Replacement-Kamera im Markt, die die gleichen Bildeigenschaften von Kameras mit dem abgekündigten Sony CCD-Sensors ICX618 aufweist.
Mehr zu ICX618 Replacement-Kamera -
IEEE1394 (FireWire)
Kameras mit FireWire- oder IEEE1394 –Schnittstelle sind seit den 90er Jahren auf dem Markt und werden in vielen Anwendungen der Bildverarbeitung verwendet. Die Bezeichnung FireWire ist dabei die von Apple verwendete Markenbezeichung für diesen Standard. Anfangs waren die Kameras mit IEEE1394a ausgestattet. Dieser Standard bedeutete eine Bandbreitenbegrenzung von 32 MB/s, so dass etwa Datenmengen entsprechend einer 1 Megapixel-Auflösung mit 30 Bildern pro Sekunde reibungslos übertragen werden konnten. Der IEEE1394b Standard von heute stellt die doppelte Bandbreite zur Verfügung. Die Verkabelung und die Hardware sind standardisiert und weit verbreitet. Daher kann die IEEE1394-Schnittstelle in vielen Fällen kostengünstig eingesetzt werden.
Mittelfristig wird der IEEE1394 auf dem PC-Markt an Bedeutung verlieren und die Hardware nur mehr schwierig zu beschaffen sein.
Mehr zu IEEE1394 (FireWire) -
IEEE1588 (PTP)
Das PTP ermöglicht eine höhere zeitliche Genauigkeit – als Hardware-Implementierung im Bereich von Nanosekunden und in Software-Ausführung immer noch im Bereich weniger Mikrosekunden.
Mehr zu IEEE1588 (PTP) -
IIoT | Industrial Internet of Things
IIoT beschreibt miteinander verbundene und kommunizierende Sensoren, Instrumente oder andere Netzwerk-Geräte in industriellen Anwendungen. Durch diesen Verbund können Daten gesammelt und ausgewertet und somit die Produktivität gesteigert werden. Basler fasst unter dem Begriff IIoT alle Vision-relevanten Sensoren zusammen, die innerhalb einer Fabriksautomationsumgebung Informationen erzeugen und teilen. IIoT-Sensoren werden Industrie 4.0-Umgebungen unterstützen.
Mehr zu IIoT -
Industrie 4.0
Bezogen auf Vision Solutions bedeutet dies, dass Kamera und PC/Embedded Boards in der Lage sind, aktiv mit anderen Komponenten entlang der Fertigungsreihe zu kommunizieren. Standards wie OPC UA und Time Sensitive Networks, sowie die passende Kombination aus Vision Hardware (Kameras, Smarte Beleuchtung, usw.), Software zur Bildverarbeitung, Kommunikationsstandards und Cloud- bzw. Edge-Funktionen sind wichtig, um reibungslose Abläufe zu gewährleisten.
Mehr zu Industrie 4.0 -
Interface Cards
Interface Cards stellen eine robuste Bilderfassung sicher, optimieren gegebenenfalls die Bilddaten per Bildvorverarbeitung und übertragen diese sicher an den Host-PC. Die Karten gibt es mit unterschiedlichen Schnittstellen.
Mehr zu Interface Cards -
Interlaced scan
Bezeichnet das alternierende Auslesen eines Bildsensors für abwechselnd die geraden und die ungeraden horizontalen Bildzeilen.
Mehr zu Interlaced scan -
Internet der Dinge – Internet of Things – IoT | IoT
IoT ist ein Sammelbegriff für verschiedenste Technologien, die eine Vernetzung zwischen elektronischen Systemen ermöglichen. Bei dem Internet der Dinge werden feste, physische Objekte (Things) miteinander verknüpft und verbunden, und bekommen so eine virtuelle Repräsentation.
Die industrielle Anwendung von IoT trägt den Namen IIoT (Industrial Internet of Things).
Mehr zu Internet der Dinge – Internet of Things – IoT -
Internet Protocol
Das Internet Protocol (IP) ist ein in Computernetzen weit verbreitetes Netzwerkprotokoll und stellt die Grundlage des Internets dar. Es ist die Implementierung der Internetschicht des TCP/IP-Modells bzw. der Vermittlungsschicht (engl. Network Layer) des OSI-Referenzmodells.
Mehr zu Internet Protocol -
IP-Adresse
Jedes an ein Netzwerk angeschlossenes Gerät hat eine eigene Adresse, die sogenannte IP-Adresse. Diese ist vergleichbar mit einer Telefonnummer.
Mehr zu IP-Adresse -
IR-cut filter
Infrared Cut Filter (IR-cut filter) oder IR-Sperrfilter werden zum Blocken von Licht verwendet, dessen Wellenlänge oberhalb des sichtbaren Spektralbereichs liegt. IR Cut Filter arbeiten entweder mittels Reflektion oder Absorption der zu blockierenden Wellenlängen. Sie werden häufig vor Bildsensoren von Digital- und Videokameras verwendet, um den Einfall infraroten Lichts auf den Sensor zu verhindern, der aufgrund der Empfindlichkeit vieler Sensoren zu reduziertem Bildkontrast führen kann. IR-Sperrfilter für diesen Verwendungszweck werden meistens als Reflexionsfilter ausgeführt.
Mehr zu IR-cut filter -
Line Scan
Zeilenkameras besitzen einen Sensor, der aus nur 1, 2 oder 3 Pixelzeilen besteht.
Mehr zu Line Scan -
LVDS
Mehr zu LVDS -
MIPI Alliance
Mehr zu MIPI Alliance -
MIPI Camera Serial Interface 2 (MIPI CSI-2)
Mehr zu MIPI Camera Serial Interface 2 (MIPI CSI-2) -
Mono 12
„Mono 12“ ist ein Datenformat zur Übertragung von Bildinhalten bei Monochrom-Kameras. Wenn eine Monochrom-Kamera auf das mono 12 Format eingestellt ist, werden 2Bytes (also 16 Bits) Helligkeitsdaten pro Pixel mit 12 effektiven Bits ausgegeben. Die Helligkeitsinformationen befindet sich in den 12 niederwertigsten Bits, die 4 höchstwertigen Bits werden mit Nullen aufgefüllt. Die Pixeldaten sind beim Mono 12 Format nicht verarbeitet oder interpoliert, d.h. es handelt sich um Rohdaten.
Mehr zu Mono 12 -
Mono 12 Packed / Mono 12 p
„Mono 12 Packed / Mono 12 p“ ist ein Datenformat zur Übertragung von Bildinhalten bei Monochrom-Kameras. Wenn eine Monochrom-Kamera auf das Mono 12 Packed Format eingestellt ist, werden 12 Bits Helligkeitsdaten pro Pixel ausgegeben. Dabei werden jeweils die Daten von 2 Pixeln in 3 Bytes gepackt. Gegenüber dem ungepackten Mono 12 Format spart man so 4Bit Bandbreite pro Pixel. Beim Mono 12 Packed Format, werden die Pixeldaten weder verarbeitet noch interpoliert, d.h. es handelt sich um Rohdaten.
Die Daten werden beim Mono 12 Packed Format in der Reihenfolge der Pixel auf der Kamera Zeile für Zeile ausgegeben.
Mehr zu Mono 12 Packed / Mono 12 p -
Multicast
Über eine Multicast-Verbindung kann ein Server (z.B. eine Basler IP-Kamera) Videostreams an das gesamte angeschlossene Subnetz übertragen.
Mehr zu Multicast -
Multi-Streaming und Multi-Encoding
Mit Multi-Streaming und Multi-Encoding sind bis zu vier Video-Streams mit beliebiger Kompressionsformatkombination möglich. So kann beispielsweise ein Video-Stream mit H.264-Kompression, ein zweiter mit MJPEG-Kompression und ein dritter und vierter mit MPEG-4-Kompression kodiert werden. Es können auch bis zu vier Video-Streams mit dem gleichen Kompressionsformat, z.B. H.264, kodiert werden.
Mehr zu Multi-Streaming und Multi-Encoding -
OEM
Unter einem Erstausrüster (oder OEM, engl. für Originalausrüstungshersteller) versteht man einen Hersteller fertiger Komponenten oder Produkte. Die Produkte werden in den eigenen Fabriken produziert, aber nicht selbst in den Handel gebracht. OEM bezieht sich auf die Firma, die das Produkt ursprünglich hergestellt hat.
Mehr zu OEM -
PC-Karten
Über PC-Karten werden Kameras an den Host-PC angeschlossen, um eine reibungslose Bilderfassung und Datenübertragung über diverse Schnittstellen zu gewährleisten. Die PC-Karten übertragen die Bilddaten an den Host-PC.
Mehr zu PC-Karten -
PGI
Basler’s PGI Feature-Set ist eine In-Kamera-Bildoptimierung für Farbkameras, basierend auf einer einzigartigen Kombination aus 5x5-Debayering (bei einigen Modellen 4x4 Debayering), Farb-Anti-Aliasing, Rauschunterdrückung und Bildschärfe-Optimierung.
Da PGI direkt in der Kamera integriert ist, erzielen Sie höchste Bildqualität bei der vollen Geschwindigkeit der Kamera und ohne zusätzliche Prozessorlast.
Mehr zu PGI -
PoE | Power over Ethernet
Power over Ethernet (PoE) bezeichnet ein Verfahren, mit dem netzwerkfähige Geräte über das 8-adrige Ethernet-Kabel mit Strom versorgt werden können. Im engeren Sinne wird heute mit PoE meist der IEEE-Standard 802.3af („DTE Power over MDI“) gemeint, der im Juni 2003 in seiner endgültigen Fassung verabschiedet wurde. Vorher gab es bereits einige herstellerspezifische Implementierungen, die ebenfalls unter der Bezeichnung Power over Ethernet gehandelt wurden.
Mehr zu PoE -
Primärfarben
Farben, von denen andere Farben abgeleitet werden können. Mischt man beispielsweise rotes (Primärfarbe) und grünes Licht (Primärfarbe) mit gleicher Intensität, entsteht gelbes Licht (Sekundärfarbe).
Mehr zu Primärfarben -
PTP
Das PTP ermöglicht eine höhere zeitliche Genauigkeit – als Hardware-Implementierung im Bereich von Nanosekunden und in Software-Ausführung immer noch im Bereich weniger Mikrosekunden.
Mehr zu PTP -
Rauschunterdrückung
Rauschen ist ein unvermeidbarer Bestandteil eines Bildes. Es entsteht aus verschiedenen Quellen wie zum Beispiel dem Photonenrauschen, dem Sensorrauschen oder dem lokalen Rauschen. Zwischen einem Rohbild und einem fertigen Farbbild liegen meist viele Rechenschritte. Jeder dieser Rechenschritte kann das Rauschen verringern oder – wie in den meisten Fällen – verstärken. Die PGI-Rauschunterdrückung vermeidet diese Verstärkung, indem sie die diese Rechenschritte parallel ausführt.
Mehr zu Rauschunterdrückung -
RGB-D (Rot/Grün/Blau-D für Depth/Tiefe)
Durch die Fusion beider Daten erzeugt man farbige 3D-Punktwolken, die für Bildverarbeitung und –interpretation in einer Reihe von Anwendungen nützlich sein können.
Mehr zu RGB-D (Rot/Grün/Blau-D für Depth/Tiefe) -
RoHs
Sammelbegriff für EG-Richtlinie 2002/95/EG plus ihre Umsetzung in nationales Recht. Mit der RoHS (Restriction of hazardous substances) sollen die Verwendung stark umweltgefährdende Stoffe in Produkten verhindert werden. Solche Stoffe sind beispielsweise Blei, Cadmium, sechswertiges Chrom, Quecksilber, polychlorierte Biphenyle, polybromierte Diphenylether.
Mehr zu RoHs -
ROI | Region of Interest
Region of Interest (ROI), früher bekannt als AOI (Area of Interest). Ein rechteckiger Ausschnitt des Kamerasensors, der ausgelesen werden soll. Seine Position auf dem Sensor und die Zahl der Pixelzeilen und Spalten können gewählt werden. Während der Bearbeitung wird nur die Pixelinformation des ausgewählten Sensor-Ausschnitts aus der Kamera übertragen. Eine kleinere ROI führt i.d.R. zu höheren maximalen Bildwiederholraten.
Mehr zu ROI -
ROI-Level 1
ROI-Integrationslevel, der einige Auflösungen unterstützt (z.B. CIF, PAL usw.).
Mehr zu ROI-Level 1 -
ROI-Level 2
ROI-Integrationslevel, der alle Auflösungen unterstützt, wobei die Konfiguration nur über das WebInterface möglich ist.
Mehr zu ROI-Level 2 -
ROI-Level 3
ROI-Integrationslevel, der alle Auflösungen unterstützt, wobei die Konfiguration über das WebInterface oder die Video-Management-Software möglich ist.
Mehr zu ROI-Level 3 -
ROI-Level 4
ROI-Integrationslevel, der eine digitale Schwenk-/Neigefunktion durch Bewegen der ROI unterstützt.
Mehr zu ROI-Level 4 -
ROI-Level 5
ROI-Integrationslevel, der die Skalierung der Bildgröße über die Video-Management-Software unterstützt.
Mehr zu ROI-Level 5 -
SDK
Software Development Kit
Mehr zu SDK -
Sensor
Ein elektronisches Bauteil mit einer großen Zahl lichtempfindlicher Flächen, den Pixeln, in denen Photonen elektrische Ladungen erzeugen, die wiederum in ein elektrisches Signal umgewandelt werden.
Mehr zu Sensor -
Sequencer
Der „Sequencer“ ist eine Funktion der Kamera, mit der eine vorher definierte Abfolge von Konfigurationseinstellungen der Kamera, sogenannte sequence sets, auf eine Abfolge von Bildaufnahmen angewendet werden kann.
Während die Kamera ein Bild nach dem anderen aufnimmt, wird zwischen den Aufnahmen die Konfiguration der Kamera entsprechend der sequence sets geändert. Durch die Sequencer-Funktion kann einfach auf unterschiedliche Anforderungen und Bedingungen für die Bildaufnahme reagiert werden, wie beispielweise auf unterschiedliche Beleuchtungen oder Bildausschnitte (AOI).
Die Vorkonfiguration der unterschiedlichen Bildeinstellungen erlaubt eine erheblich gesteigerte Bildrate.
Mehr zu Sequencer -
Signal-Rausch-Verhältnis
Das Signal-Rausch-Verhältnis (auch Störabstand a oder (Signal-)Rauschabstand aR, abgekürzt SRV oder S/R beziehungsweise SNR oder S/N von englisch signal-to-noise ratio) ist ein Maß für die technische Qualität eines Nutzsignals, das von einem Rauschsignal überlagert ist. Es ist definiert als das Verhältnis der mittleren Leistung des Nutzsignals zur mittleren Rauschleistung des Störsignals.
Mehr zu Signal-Rausch-Verhältnis -
Single Board Computer (SBC)
Mehr zu Single Board Computer (SBC) -
Smart Factory
Mehr zu Smart Factory -
SoC (System-on-Chip)
Das SoC enthält neben Hauptprozessor(en) viele integrierte Schaltkreise für spezielle Funktionen, wie z. B. Schnittstellen- oder I/O-Funktionen in einem Chip.
Mehr zu SoC (System-on-Chip) -
SoM (System-on-Module)
Es ist als fertiges Modul erhältlich und kann durch ein Carrier Board (Trägerplatine), auf das es aufgesteckt wird, an die individuellen Anforderungen des Anwenders angepasst werden.
Mehr zu SoM (System-on-Module) -
Tag/Nacht-Funktionalität
Eine echte Tag/Nacht-Funktionalität mittels eines automatisch verschiebbaren IR-Sperrfilters sorgt für einen Hochqualitäts-Farbmodus bei Tageslicht und einen Schwarz-Weiß-Modus bei Nacht oder geringer Beleuchtung.
Mehr zu Tag/Nacht-Funktionalität -
TCP
Transmission Control Protocol
Mehr zu TCP -
TWAIN
Ein Bildverarbeitungsprogramm mit TWAIN-Schnittstelle kann Daten von jedem Bildeingabegerät entgegennehmen, das seinerseits entsprechende Unterstützung bietet.
Mehr zu TWAIN -
UDP
User Datagram Protocol
Mehr zu UDP -
Unicast
Eine Unicast-Verbindung ist eine Punkt-zu-Punkt-Verbindung zwischen zwei Netzwerk-Partnern (z.B. einer Basler IP-Kamera und einem PC).
Mehr zu Unicast -
Vandalismussicherheit
Fähigkeit eines Geräts oder Teil eines Geräts, mutwilligen Zerstörungsversuchen standzuhalten. Basler IP Fixed-Dome-Kameras besitzen ein schlagfestes Aluminiumgehäuse für die Videoüberwachung unter extremen Bedingungen im Innen- und Außenbereich.
Mehr zu Vandalismussicherheit -
VBR
Variable Bit Rate
Mehr zu VBR -
VGA | Video Graphics Array
Ein Grafikkartenstandard. VGA (Video Graphics Array) definiert bestimmte Kombinationen von Bildauflösung und Farbtiefe sowie Bildwiederholfrequenz. VGA enthält unter anderem einen Grafikmodus mit 640 x 480 Pixeln.
Mehr zu VGA -
VoIP
Voice over IP
Mehr zu VoIP -
Weißabgleich
Der Weißabgleich dient dazu, eine Farb-Kamera an vorherrschende Lichtverhältnisse anzupassen.
Mehr zu Weißabgleich