Sie verwenden einen veralteten Browser und können nicht alle Funktionen dieser Webseite nutzen. Hier erfahren Sie, wie Sie Ihren Browser aktualisieren können.

OK
Karriere | Investoren
  • Embedded Vision – Neues Konzept mit neuen Anwendungen

    Wie ist ein Embedded System aufgebaut und welche Eigenschaften hat es? Das und mehr erfahren Sie in unserem White Paper.

    White Paper lesen
  • Entdecken Sie Embedded Vision!

    Embedded Vision ist in aller Munde. Auch Steve will mitmischen. Begleiten Sie ihn bei seinem ersten Embedded Vision-Projekt.

    Film ab!

Was ist Embedded Vision?

In den letzten Jahren hat ein Miniaturisierungstrend in vielen Bereichen der Elektronik stattgefunden. So sind beispielsweise ICs (integrierte Schaltkreise) immer höher integriert und Leiterplatten der Elektroindustrie immer kleiner und leistungsfähiger geworden. Damit wurden auch PCs, Mobiltelefone und Kameras immer kompakter und ebenfalls leistungsfähiger. Auch in der Welt der Vision Technologie ist dieser Trend zu beobachten.

Ein klassisches Machine Vision System besteht aus einer Industriekamera und einem PC:

Beide waren noch vor wenigen Jahren deutlich größer. Doch innerhalb kurzer Zeit wurden PCs von immer geringerer Baugröße möglich, und mittlerweile gibt es Single Board Computer (SBC, Einplatinencomputer), also Computer die auf einem Board Platz finden. Auch die Kameraelektronik wurde immer kompakter und die Kameras in Folge immer kleiner. Auf dem Weg zu noch höherer Integration, werden heute kleine Kameras ohne Gehäuse angeboten, die sich gut in kompakte Systeme eindesignen lassen.

Durch diese zwei Entwicklungen, der Verkleinerung des PCs und der Kamera können heute Vision Systeme für neue Applikationen in einem kompakten Design entworfen werden. Ein solches Embedded Vision System nennt man Embedded (eingebettetes) System.

  • Aufbau und Einsatz eines Embedded Vision Systems

    Aufbau und Einsatz eines Embedded Vision Systems Aufbau und Einsatz eines Embedded Vision Systems

    Ein Embedded Vision System besteht z.B. aus einer Kamera, einer sogenannten Boardlevel-Kamera, die an ein Processing Board angeschlossen wird. Processing Boards übernehmen die Aufgaben des PCs der klassischen Machine Vision Welt. Da Processing Boards sehr viel günstiger sind, als klassische Industrie-PCs, können Vision Systeme kleiner und ebenfalls kostengünstiger werden. Als Schnittstellen für Embedded Vision Systeme eignen sich vor allem USB, Baslers BCON for MIPI oder BCON for LVDS.

    Embedded Vision Systeme werden in einer Vielzahl von Anwendungsbereichen und Geräten eingesetzt, zum Beispiel in der Medizintechnik, in Fahrzeugen, in der Industrie und in der Unterhaltungselektronik. Embedded Systeme erlauben es, neue Produkte zu realisieren und dadurch innovative Möglichkeiten in verschiedensten Bereichen zu schaffen.

     
  • Welche Embedded Systeme gibt es?

    Welche Embedded Systeme gibt es?

    Den Kern aller Embedded Processing Lösungen stellt ein sogenannter SoC (System-on-Chip) dar. Hierbei handelt es sich um einen einzelnen Chip, auf dem CPU (ggf. mehrere Kerne), Grafikprozessor, Controller, weitere Spezialprozessoren (DSP, ISP) und andere Komponenten integriert sind.

    Durch diese effizienten Bauteile, den SoCs, sind Embedded Vision Systeme erst in einer solch geringen Größe und zu niedrigen Kosten wie heute verfügbar geworden.

    Als Embedded Systeme gibt es populäre Single Board Computer (SBC), wie z.B. den Raspberry Pi® oder das DragonBoard®. Hierbei handelt es sich um Mini-Computer mit den üblichen Schnittstellen (USB, Ethernet, HDMI usw.) und einem ähnlichen Feature-Umfang wie ein klassischer PC oder Laptop, wenngleich natürlich mit weniger leistungsstarker CPU.

    Embedded Vision Lösungen können aber auch mit einem sogenannten SoM (System-on-Module, auch Computer-on-Module, CoM, genannt) umgesetzt werden. Ein SoM ist im Prinzip eine Leiterplatte, auf der die Kernelemente einer Embedded Processing Plattform wie SoC , Speicher, Power-Management usw. zusammengefasst sind. Für eine individuelle Anpassung des SoMs (z.B. mit den passenden Schnittstellen) an die jeweilige Applikation benötigt man ein individuelles sog. Carrier Board. Dieses wird über bestimmte Konnektoren mit dem SoM verbunden und kann relativ einfach designt und hergestellt werden. Die SoMs sind einerseits günstig, da sie von der Stange erhältlich sind, andererseits sind sie - bzw. das Gesamtsystem - durch das Carrier Board auch gut individualisierbar.

    Bei großen Stückzahlen können auch vollkommen individuelle Processing Boards in Form eines Full Custom Designs sinnvoll sein.

     
  • Besonderheiten von Embedded Vision System vs. Standard Vision System

    Besonderheiten von Embedded Vision System vs. Standard Vision System

    Die meisten der erwähnten Single Board Computer und SoMs enthalten nicht die in Standard-PCs üblichen Prozessoren aus der x86-Familie. Vielmehr basieren dort die CPUs oft auf der ARM-Architektur.

    Als Betriebssystem verbreitet ist in der Welt der ARM-Prozessoren das Open-Source-Betriebssystem Linux. Für Linux existiert eine große Menge an Open-Source-Anwendungsprogrammen, aber auch zahlreiche frei verfügbare Programmbibliotheken. Zunehmend finden aber auch x86-basierte Single Board Computer Verbreitung. Ein wichtiges Kriterium für den Rechner ist in jedem Fall der verfügbare Raum für das Embedded System.

    Besonderheiten von Embedded Vision System vs. Standard Vision System

    Für den Softwareentwickler gestaltet sich die Programmentwicklung für ein Embedded System deutlich komplexer als etwa für einen Standard-PC. Während bei der Standard-Softwareentwicklung der Entwicklungs-PC prinzipiell auch die Zielplattform darstellt (also den Typ Rechner, auf dem später das Programm laufen soll) kann bei der Embedded-Softwareentwicklung das Zielsystem wegen seiner beschränkten Ressourcen (CPU-Leistung, Speicher) in der Regel nicht zur Entwicklung genutzt werden. Daher wird zur Embedded-Softwareentwicklung ebenfalls ein Standard-PC genutzt, auf dem das Programm mit u.U. sehr komplexen Spezial-Tools codiert und kompiliert wird. Das kompilierte Programm muss dann anschließend auf das Embedded System kopiert werden und dann z. B. remote gedebuggt werden.

    Bei der Entwicklung der Software ist zu beachten, dass das Hardware-Konzept des Embedded Systems auf eine bestimmte Anwendung ausgerichtet ist und sich dadurch deutlich vom universell verwendbaren PC unterscheidet.

    Dennoch ist die Grenze zwischen Embedded und Desktop-Computer-System teilweise schwer zu ziehen. Man denke nur an den beliebten Raspberry Pi, der einerseits viele Merkmale eines Embedded Systems aufweist (ARM-basiert, Einplatinen-Aufbau), aber andererseits auch ganz unterschiedliche Aufgaben bewältigen kann und nach Anschluss von Monitor, Maus und Tastatur ein universeller Computer ist.

     
  • Was sind die Vorteile von Embedded Vision Systemen?

    Vorteile von Embedded Vision Systemen

    Im Einzelfall kommt es immer auch darauf an, wie das Embedded Vision System aufgebaut ist. Ein SBC (Single Board Computer) ist oftmals eine gute Wahl, da man ein Standardprodukt verwendet. Es handelt sich um einen kleinen kompakten Computer, der leicht zu handhaben ist. Auch ist diese Lösung praktisch für Entwickler, die bisher wenig mit Embedded Vision zu tun hatten.

    Andererseits handelt es sich beim Single Board Computer aber um ein System, das ungenutzte Komponenten enthält und dadurch im Allgemeinen nicht den schlanksten Systemaufbau erlaubt – in Punkto Herstellkosten ist dieser Ansatz also nicht der günstigste und eignet sich eher für kleine Stückzahlen, bei denen die Entwicklungskosten niedrig bleiben müssen, die Herstellkosten aber nicht so sehr ins Gewicht fallen.

    Den schlanksten Aufbau erhält man durch ein auf den individuellen Anwendungsfall hochoptimiertes System, ein Full Custom Design. Hier muss man aber mit hohem Integrationsaufwand und - damit verbunden - mit hohen Entwicklungskosten rechnen. Diese Lösung bietet sich folglich für hohe Stückzahlen an.

    Einen Kompromiss zwischen einem SBC und einem Full Custom Design stellt ein Ansatz mit einem von der Stange erhältlichen System-on-Module (SoM) und einem für den Anwendungsfall individualisierten Carrier Board (siehe auch oben: „Welche Embedded Systeme gibt es?“) dar. Die Herstellkosten sind nicht so optimiert wie bei einem Full Custom Design (Ein Aufbau mit einem Carrier Board plus einem mehr oder weniger generischen SoM ist eben etwas komplexer) dafür halten sich die Hardwareentwicklungskosten im Rahmen, da mit dem SoM der wesentliche Teil der Hardwareentwicklung bereits erledigt ist. Ein modulbasierter Ansatz eignet sich daher sehr gut für mittlere Stückzahlen, bei denen Herstell- und Entwicklungskosten gut ausbalanciert werden müssen.

    Die Vorteile von Embedded Vision Systemen auf einem Blick:

    • Schlanker Systemaufbau
    • Leichtgewichtig
    • Kostengünstig, da keine unnötige Hardware
    • Geringe Herstellkosten
    • Niedriger Energieverbrauch
    • Platzsparend
     
  • Welche Schnittstellen kommen für eine Embedded Vision Anwendung in Frage?

    Embedded Vision ist für viele Applikationen die Technologie der Wahl. Dementsprechend weitgefächert sind die Design-Anforderungen. Je nach Spezifikation bietet Basler eine Vielzahl an Kameras mit verschiedenen Sensoren, Auflösungen und Schnittstellen.

    Die drei verschiedenen Schnittstellen-Technologien, die Basler für Embedded Vision Systeme im Portfolio hat, sind:

    • USB 3.0 für Plug-and-play-Integration in Windows- oder Linux-basierte Systeme (x86 oder ARM)
    • Basler BCON for MIPI für einfache Integration und schlankes System-Design via MIPI CSI-2 Interface an Linux ARM-basierte Systeme
    • Basler BCON for LVDS für ein schlankes System-Design via LVDS-Anbindung insbesondere an FPGA-basierte Systeme

    Alle Technologien arbeiten mit dem gleichen Basler pylon SDK, was den Wechsel zwischen den Schnittstellen-Technologien sehr vereinfacht.

    Knowledge Base dart Portfolio

    USB 3.0

    USB 3.0 ist die passende Schnittstelle für eine einfache Plug-and-play-Kameraverbindung und ideal für Kameraverbindungen zu Single Board Computern. Mit dem Basler pylon SDK bekommen Sie innerhalb von Sekunden einfach Zugang zur Kamera (z.B. zu Bildern und Einstellungen), da USB 3.0-Kameras standardkonform und GenICam-kompatibel sind.

    Vorteile

    • Einfache Verbindung zu Single Board Computer mit USB 2.0- oder USB 3.0-Verbindung
    • Felderprobte Lösungen mit Raspberry Pi®, NVIDIA Jetson TK1 und vielen anderen Systemen
    • Aber auch rentable Lösungen für SoMs mit dazugehörigen Basisplatinen
    • Stabiler Datentransfer mit einer Bandbreite von bis zu 350 MB/s
    Knowledge Base dart BCON Portfolio

    BCON

    BCON steht für Basler Connectivity und damit für die Ergänzung von etablierten Datenübertragungsstandards aus der Embedded Industrie (wie z.B. LVDS oder MIPI CSI-2) um erprobte und leistungsstarke Machine Vision Features. Dank Integration in die Welt der Machine Vision Standards (GenICam) und dank des pylon SDKs werden die Basistechnologien so mit einer bis dato unerreichten einfachen Handhabung ausgestattet.

    Basler Kameras mit BCON-Technologie (BCON for LVDS und BCON for MIPI) werden mit dem gleichen 28-poligen-ZIF-Anschlussstecker für Flachbandkabel ausgestattet. Über diesen Anschluss wir die gesamte Kamerafunktionalität realisiert:

    • Die Bilddatenübertagung via D-PHY (BCON for MIPI) bzw. LVDS (BCON for LVDS)
    • Die Kamerakonfiguration über I²C (BCON for LVDS) bzw. CCI (BCON for MIPI)
    • Stromversorgung des Kameramoduls mit 5 V
    • I/O-Funktionen z.B. zum externen Triggern der Kamera oder zum Ansteuern eine Lichtquelle

    BCON for MIPI

    BCON for MIPI ermöglicht eine direkte Verbindung zu einem Embedded Prozessor mit MIPI CSI-2 Schnittstelle. MIPI CSI-2 ist eine von der Mobile Industry Processor Interface Alliance (MIPI) standardisierte Kameraschnittstelle. CSI-2 steht dabei für Camera Serial Interface der 2. Generation. CSI-2 ist die zurzeit wichtigste Kameraschnittstelle für mobile Applikationen und wird z.B. genutzt, um Handy-Kameramodule an den Handyprozessor anzuschließen. Da auch nahezu alle im Embedded Bereich genutzte Prozessoren (SoC, System-on-Chip) über typischerweise zwei CSI-2-Schnittstellen verfügen, bietet sich MIPI als ideale breitbandige (bis zu 750 MB/s) und kostengünstige Lösung zum direkten Anschluss von dart Kameramodulen an Embedded SoCs an, da weitere Hardware nicht benötigt wird.

    Dank BCON wird diese ursprünglich für Consumer-Handymodule entwickelte Technologie jetzt um wichtige Machine Vision Features (wie z.B. Einzelbildeinzug und differenzierteste Kamerakonfigurationsmöglichkeiten) erweitert und in den GenICam-Standard integriert: aus MIPI wird BCON for MIPI.

    Zusammen mit den von Basler für die unterstützten Plattformen gelieferten Treibern und der pylon Camera Software Suite lassen sich dart Kameramodule quasi plug-and-play ohne zusätzlichen Integrationsaufwand in Betrieb nehmen.

    Vorteile

    • Einfache Integration des dart Moduls in eine Embedded Applikation, dank des einfach zu installierenden Basler Driver Package.
    • Volle GenICam-Kompatibilität
    • pylon als Standard-API – Wie alle anderen Basler Kameras, wird auch die dart MIPI von dem unified pylon SDK mit genau dem gleichen API unterstützt. Das bedeutet, dass das dart Modul mit nur wenigen Zeilen Code in eine Applikation integriert werden kann. Außerdem kann bereits bestehender Code wiederverwendet, bzw. von einer anderen Kameraschnittstellentechnologie oder einem anderen Betriebssystem einfach auf BCON for MIPI unter Linux ARM portiert werden.
    • Development Kit ist vorhanden
    • Sehr schlanker und kostengünstiger Aufbau: das dart Modul mit BCON for MIPI-Schnittstelle lässt sich über ein kostengünstiges Flachbandkabel quasi direkt und ohne weitere Hardware an den CSI-2 Eingang des Ziel-SoCs anschließen.
    • Stabiler, zuverlässiger Bilddatentransfer mit einer Bandbreite bis zu 750 MB/s

    BCON for LVDS

    BCON for LVDS – Baslers eigens entwickelte LVDS-basierte Schnittstelle ermöglicht eine direkte Kameraverbindung zu Processing Plattformen mit LVDS-Eingängen, hierbei handelt es sich vor allem um Logikbausteine wie FPGAs (Field Programmable Gate Arrays) bzw. FPGA-SoCs (FPGAs mit integrierten CPU-Kernen). Die Möglichkeit einer direkten Kamera-zu-FPGA-Verbindung erlaubt extrem schlanke und kostengünstige Gesamtlösungen.

    Baslers pylon SDK ist auch auf die BCON for LVDS-Schnittstelle abgestimmt. Daher ist es sehr einfach, Kameraeinstellungen, wie beispielsweise die Belichtungszeit, Gain oder Pixelformate, aus einer Anwenderapplikation heraus mithilfe des pylon APIs zu ändern. Die Bildaufnahme der Applikation muss individuell implementiert werden, da sie von der jeweils eingesetzten Hardware abhängig ist.

    Vorteile

    • Direkte Verbindung über LVDS-basierten Bilddatentransfer an FPGA
    • Mit dem pylon SDK ist die Kamerakonfiguration über Standard-I²C-Bus ohne weitere Programmierung möglich.
    • Volle Kompatibilität mit dem GenICam-Standard.
    • Die Datenprotokolle sind offen und umfassend dokumentiert
    • Development Kit mit Referenzimplementierung vorhanden
    • Flexibles Flachbandkabel und kleiner Anschluss für Applikationen mit höchsten Platz-Beschränkungen.
    • Bildverarbeitung direkt auf der Kamera. Das bringt höchste Bildqualität, ohne die stark begrenzten Ressourcen des nachgeschalteten Processing Boards zu belasten.
    • Stabiler, zuverlässiger Datentransfer mit einer Bandbreite bis zu 252 MB/s
     
  • Wie kann ein Embedded Vision System entwickelt werden und wie kann die Kamera integriert werden?

    Auch wenn es gerade für Entwickler, die noch nicht viel mit Embedded Vision zu tun hatten, ungewohnt ist, ein Embedded Vision System zu entwickeln, gibt es dafür viele Möglichkeiten. Insbesondere der Umstieg von Standard Machine Vision System auf Embedded Vision System kann erleichtert werden. Basler bietet dazu neben seinem Embedded Produktportfolio viele Tools, die die Integration vereinfachen.

    Erfahren Sie in unserem simpleshow Video, wie Sie ein Embedded Vision System entwickeln können und wie leicht es sein kann, eine Kamera zu integrieren.

     
  • Maschinelles Lernen in Embedded Vision Anwendungen

    Maschinelles Lernen in Embedded Vision Anwendungen

    Embedded Vision Systeme haben oft die Aufgabe, von der Kamera aufgenommene Bilder zu klassifizieren: An einem Fließband zum Beispiel in runde und eckige Kekse. In der Vergangenheit steckten Softwareentwickler viel Zeit und Energie in die Entwicklung intelligenter Algorithmen, die das Ziel haben, einen Keks anhand seiner Eigenschaften (Features) in Sorte A (rund) oder B (eckig) zu unterteilen. In diesem Beispiel mag das noch relativ einfach klingen, doch je komplexer die Features eines Objekts, desto schwieriger wird es.

    Algorithmen des maschinellen Lernens (z.B. Convolutional Neural Networks, CNNs) hingegen benötigen keine Features als Eingabe. Präsentiert man dem Algorithmus große Mengen an Bildern von runden und eckigen Keksen, zusammen mit der Information, welches Bild welche Sorte darstellt, lernt der Algorithmus automatisch, wie er die beiden Keksarten unterscheiden kann. Zeigt man dem Algorithmus dann ein neues, unbekanntes Bild, entscheidet er sich aufgrund seiner „Erfahrung“ der gesehenen Bilder für eine der beiden Sorten. Besonders schnell laufen die Algorithmen auf Graphical Processor Units (GPU’s) und FPGAs (Field Programmable Gate Arrays).

     

Welche Produkte liefert Basler für Embedded Vision?

Basler dart

Basler dart

Welche Kamera eignet sich für meine Embedded Vision Anwendung?

Entdecken Sie die bewährten Basler Kameras und Kameramodule für verschiedenste Embedded Vision Systeme
Einfache Integration von Vision in Ihre Anwendung – Mit Baslers Embedded Vision Kits

Embedded Vision Kits

Suchen Sie nach der richtigen Kamera zur Integration in Ihr Embedded Projekt? Basler vereinfacht diesen Prozess für Sie mit einem Evaluation und einem Development Kit für Baslers dart Kameras.

Erfahren Sie mehr über Baslers Embedded Vision Kits
Basler pylon Software für Embedded Vision Anwendungen

Basler pylon Software für Embedded Vision Anwendungen

Mit der pylon Camera Software Suite stellt Basler sein bewährtes und nutzerfreundliches SDK auch für seine Embedded Vision Produkte zur Verfügung.

Erfahren Sie hier mehr über pylon für Embedded Vision Anwendungen
Komponenten für Embedded Vision

Komponenten für Embedded Vision

Ein Embedded Vision System besteht nicht nur aus Kamera und Processing Board. Für eine stabile Lösung benötigen Sie optimal auf die Kamera und die Anwendung abgestimmte Komponenten.

Entdecken Sie Baslers umfangreiches Portfolio an Komponenten für Embedded Vision Systeme