
Die richtige Auswahl einer Kamera für eine Machine-Vision-Anwendung
Die Auswahl der richtigen Kamera für eine Machine-Vision-Anwendung beginnt niemals bei einer Marke, einem Katalog oder einer beliebigen Anzahl an Megapixeln. In einem gut konzipierten Machine-Vision-System ergibt sich die Kamerawahl aus der Anwendung. Das klingt logisch, doch in der Praxis sehen wir noch häufig, dass Ingenieure zu früh auf Auflösung, Schnittstelle oder Preis fokussieren, während die grundlegenden Fragen noch nicht klar definiert sind. Was genau soll das System sehen? Welches Detail ist kritisch? Wie groß ist das Bildfeld? Bewegt sich das Produkt? Und soll das System nur etwas erkennen oder auch messen, lesen oder klassifizieren?
Gerade diese erste Analyse macht den Unterschied zwischen einem System, das auf dem Papier gut aussieht, und einem System, das in der Produktion wirklich stabil funktioniert. Die Auswahl einer industriellen Kamera sollte daher Schritt für Schritt aufgebaut werden. Aus der Erfahrung im Bereich Machine Vision hat sich folgende Reihenfolge bewährt: zuerst die Wahl des Sensors, dann die Berechnung der erforderlichen Pixelauflösung, anschließend die Bestimmung des Field of View, daraus abgeleitet die minimale Chipgröße, danach die benötigte Bildrate und schließlich die Auswahl der passenden Schnittstelle.
Diese Vorgehensweise verhindert einen häufigen Konstruktionsfehler: die Auswahl einer Kamera, die sich später hinsichtlich Optik, Bandbreite oder Lichtempfindlichkeit als ungeeignet erweist. Die Auflösung sollte sich aus der Anwendung ableiten und nicht aus der Versuchung heraus entstehen, „zur Sicherheit“ möglichst viele Megapixel zu wählen. Eine Überdimensionierung führt in vielen Fällen zu kleineren Pixeln, höheren Anforderungen an das Objektiv und einer weniger robusten Bildgebung.
1. Beginnen Sie immer mit der Anwendung
Eine Kamera ist kein einzelnes Bauteil, sondern Teil eines vollständigen Machine-Vision-Systems. Deshalb beginnt die Auswahl immer bei den Anforderungen der Anwendung. Die wichtigsten Fragen sind: Wie groß ist das gesamte Inspektionsgebiet, welches ist das kleinste relevante Detail, ob Farbinformation wirklich erforderlich ist, wie schnell der Prozess abläuft und ob das Objekt während der Aufnahme stillsteht oder sich bewegt. In der Praxis bestimmt vor allem das kleinste relevante Detail den weiteren Entwurf. Das kann ein Kratzer, eine Kante, ein Code, ein Maßunterschied, ein OCR-Zeichen oder das Vorhandensein beziehungsweise Fehlen eines Bauteils sein. Ist dieses Merkmal nicht eindeutig definiert, wird die restliche Kamerawahl zwangsläufig unsicher.
2. Die erste grundlegende Entscheidung: der SensorDie Auswahl der Kamera beginnt mit dem Sensor. Dabei werden unter anderem Auflösung, Pixelgröße, Sensorformat, Shutter-Typ sowie die Entscheidung zwischen monochrom und Farbe berücksichtigt. Insbesondere letzterer Punkt ist in vielen industriellen Anwendungen entscheidend. | ![]() |
3. Einfluss einer Farbkamera auf die effektive Auflösung: das Bayer-Muster
Die meisten industriellen Farbkameras sind Single-Chip-Kameras mit einem Bayer-Filtermuster. Dabei erfasst nicht jeder Pixel vollständige RGB-Informationen. Jeder Pixel misst nur eine Farbkomponente: Rot, Grün oder Blau. Die beiden fehlenden Komponenten werden anschließend durch Interpolation berechnet. Grundsätzlich ist das eine clevere und weit verbreitete Technik, sie hat jedoch Auswirkungen auf die Bildqualität. Die erste Folge ist, dass die effektive Detailauflösung niedriger ist als bei einer monochromen Kamera mit der gleichen Pixelanzahl. Ein monochromer Sensor nutzt jeden Pixel direkt für räumliche Detailinformationen, während ein Bayer-Sensor dies nicht in gleicher Weise tut, da ein Teil der Farbinformation softwareseitig rekonstruiert werden muss.
Die zweite Folge ist eine geringere Lichtempfindlichkeit, da Farbfilter einen Teil des einfallenden Lichts blockieren. Dadurch ist Farbbildgebung in vielen Fällen anspruchsvoller in Bezug auf Beleuchtung und Signal-Rausch-Verhältnis. In der Praxis bedeutet dies, dass eine Farbkamera häufig mehr nominelle Pixel benötigt, um das gleiche Detailniveau wie eine monochrome Kamera zu erreichen. Für präzise Messungen, kleine Merkmale, geringe Kontraste und hohe Geschwindigkeiten ist monochrom daher in der Regel die sicherere Wahl.
4. Rolling shutter oder global shutter?
Neben der Wahl zwischen monochrom und Farbe ist auch der Shutter-Typ entscheidend. In der Machine Vision wird in der Regel zwischen Rolling Shutter und Global Shutter gewählt.
Beim Rolling Shutter werden die Bildzeilen nicht gleichzeitig belichtet, sondern zeilenweise ausgelesen. Das ist gut geeignet, wenn Objekte stillstehen oder sich langsam bewegen und wenn während der Aufnahme nur geringe Dynamik vorhanden ist. Rolling-Shutter-Sensoren sind häufig kostengünstig und weit verbreitet. Beim Global Shutter werden alle Pixel gleichzeitig belichtet. Das ist besonders wichtig bei bewegten Objekten, schnellen Förderbändern, Pick-and-Place-Anwendungen, Roboterführung und bei Messaufgaben, bei denen Form- oder Positionsverzerrungen nicht akzeptabel sind. Global Shutter verhindert, dass gerade Linien schief dargestellt werden oder sich Objektformen durch das sequentielle Auslesen des Sensors verformen.
In der Praxis lässt sich die Wahl einfach zusammenfassen: Für statische oder langsam bewegte Anwendungen kann Rolling Shutter gut funktionieren, für dynamische industrielle Anwendungen ist Global Shutter jedoch in der Regel die sicherste und robusteste Wahl.
5. Übertragen Farbkameras immer dreimal so viele Daten?
Nein, nicht unbedingt. Das ist eine wichtige Nuance, die in vielen Texten zu stark vereinfacht dargestellt wird.
Es stimmt zwar, dass ein vollständiges RGB-Bild deutlich mehr Daten enthält als ein monochromes Bild. Wenn eine Kamera beispielsweise in 24-Bit-RGB statt in 8-Bit-Monochrom ausgibt, ist der Datenstrom etwa dreimal so groß.
Dann gilt also:
• Mono8 = 8 bit pro pixel
• RGB8 = 24 bit pro pixel
In diesem Fall ist der Datenstrom von RGB tatsächlich etwa dreimal so groß.
Eine Single-Chip-Farbkamera mit Bayer-Muster muss ihre Daten jedoch nicht zwangsläufig als vollständiges RGB-Bild ausgeben. Viele Kameras übertragen rohe Farbdaten als Bayer8, Bayer10 oder Bayer12. In diesem Fall wird pro Pixel nur ein Farbwert übertragen, und der rohe Datenstrom ist häufig vergleichbar mit dem einer monochromen Kamera mit derselben Bittiefe.
Die technisch korrekte Schlussfolgerung lautet daher: Eine Farbkamera überträgt nicht automatisch dreimal so viele Daten wie eine monochrome Kamera. Das hängt vom gewählten Pixelformat und davon ab, ob die Kamera rohe Bayer-Daten oder eine vollständige RGB-Ausgabe liefert.
6. Die erforderliche Pixelauflösung bestimmen
| Sobald klar ist, welcher Sensortyp benötigt wird, kann die erforderliche Auflösung berechnet werden. Dabei gilt in der Machine Vision eine einfache, aber wirkungsvolle Regel: Das kleinste relevante Merkmal und das gewünschte Field of View bestimmen gemeinsam, wie viele Pixel benötigt werden. Die folgenden Berechnungen sind Beispiele, um die Methode zu veranschaulichen. In der Praxis hängt die tatsächlich erforderliche Auflösung jedoch auch von Kontrast, Beleuchtung, Objektivqualität, Produktvariation, Toleranzen und der in der Anwendung geforderten Robustheit ab. Für Inspektionsanwendungen gilt in der Regel: • mindestens 3 Pixel pro relevantem Detail • vorzugsweise 5 Pixel pro Detail für ein robusteres System Die Grundformel lautet: Erforderliche Auflösung in Pixeln = FOV / kleinstes Detail × Anzahl Pixel pro Detail Beispiel: Defekterkennung Angenommen, das Inspektionsgebiet ist 300 mm breit und das kleinste Defektmerkmal, das zuverlässig erkannt werden muss, ist 1 mm groß. Wenn man für dieses Beispiel von einem robusten Ansatz mit 5 Pixeln pro Defekt ausgeht, ergibt sich für die erforderliche horizontale Auflösung: 300 / 1 × 5 = 1500 Pixel. In der Breite werden also mindestens etwa 1500 Pixel benötigt. |
Dies ist ein Rechenbeispiel, um den Ansatz zu veranschaulichen. In einer realen Anwendung kann die endgültige Auslegung höher ausfallen, beispielsweise aufgrund von Kontrastverlust, Produktvariation oder Anforderungen an die Zuverlässigkeit.
7. OCR wird anders berechnet als eine gewöhnliche Merkmalsinspektion
Bei OCR ist der Ansatz ein anderer. Hier geht man in der Regel nicht von Linienstärke oder der kleinsten Defektgröße aus, sondern von der minimalen Zeichenhöhe und der Anzahl an Pixeln, die die verwendete OCR-Software benötigt, um ein Zeichen zuverlässig zu erkennen. Das kann je nach Softwareplattform, Library, Schriftart, Kontrast und Druckqualität variieren. In der Praxis wird häufig mit einer Richtgröße von beispielsweise 25 × 15 Pixeln pro Zeichen gearbeitet, doch das ist kein allgemeingültiges Gesetz. Es ist ein praktischer Ausgangspunkt, der später immer mit realen Bildern und dem gewählten OCR-Tool validiert werden muss.
Beispiel: OCR-Anwendung auf einem Etikett von 20 × 80 mm
Angenommen:
• das Etikett hat eine Abmessung von 20 × 80 mm;
• der kleinste zu lesende Text hat eine Zeichenhöhe von 5 mm;
• die verwendete OCR-Software benötigt etwa 25 Pixel Zeichenhöhe für eine zuverlässige Erkennung.
Dann bestimmst du zunächst den erforderlichen Maßstab: 25 Pixel / 5 mm = 5 Pixel pro mm
Wenn das Field of View in der Breite der Etikettenbreite von 80 mm entspricht, ergibt sich die minimale erforderliche Breitenauflösung zu: 80 × 5 = 400 Pixel
Für die Höhe von 20 mm gilt: 20 × 5 = 100 Pixel
Theoretisch ergibt sich daraus eine Auflösung von etwa 400 × 100 Pixeln für den Etikettenbereich. Auch dies ist ein Rechenbeispiel, um die Methodik zu verdeutlichen. In der Praxis wird jedoch selten exakt auf dieser unteren Grenze ausgelegt. Es muss auch Spielraum für Etikettenposition, Rotation, Druckvariationen, Kontrastverluste und Toleranzen in der Produktpräsentation berücksichtigt werden. Für eine robuste OCR wird daher in der Regel bewusst zusätzliche Auflösungsreserve eingeplant.
8. Das Field of View bestimmen
Das Field of View, oder FOV, ist der sichtbare Bereich des Objekts, der auf dem Sensor abgebildet wird. Das FOV wird durch die Produktabmessungen bestimmt, aber auch durch Positionstoleranzen, mechanische Variationen und die mögliche Notwendigkeit, mehrere Merkmale gleichzeitig zu erfassen. Ein häufiger Fehler ist es, das FOV zu knapp auszulegen. In der Theorie erscheint das effizient, in einer Produktionslinie führt es jedoch schnell zu Problemen bei kleinen Verschiebungen, Verdrehungen oder Toleranzabweichungen. Eine robuste Vision-Anwendung berücksichtigt daher immer eine praktische Reserve.
9. Vom Field of View zur minimalen Chipgröße
Wenn FOV und erforderliche Auflösung bekannt sind, kann bestimmt werden, welches Sensorformat geeignet ist. Dabei ist die Beziehung zwischen Sensorbreite, Vergrößerung und Field of View von großer Bedeutung.
Das bedeutet in der Praxis: Vergrößerung = Sensorgröße / FOV
Die Chipgröße bestimmt somit auch, welche Objektivvergrößerung erforderlich ist. Ein größerer Sensor ist in vielen Fällen vorteilhaft, da bei gegebener Auflösung oft größere Pixel zur Verfügung stehen. Größere Pixel bedeuten in der Regel eine bessere Lichtempfindlichkeit, ein günstigeres Signal-Rausch-Verhältnis und weniger extreme Anforderungen an das Objektiv. Gleichzeitig muss das Objektiv jedoch in der Lage sein, diesen größeren Sensor vollständig und scharf auszuleuchten. Auch hier spielt Erfahrung eine wichtige Rolle: Viele Entwickler unterschätzen, wie stark das Objektiv die endgültige Systemauflösung beeinflusst. Kleine Pixel erfordern ein Objektiv mit hoher optischer Leistung über das gesamte Bildfeld.
10. Die erforderliche Bildrate bestimmen
Erst nachdem Auflösung, FOV und Sensorkonzept festgelegt sind, bestimmst du die Bildrate. Die erforderliche Bildrate hängt davon ab, wie schnell sich das Objekt verändert oder bewegt. Ein Frame ist schließlich eine vollständige Aufnahme, und die Anzahl der Bilder pro Sekunde muss zur Dynamik des Prozesses passen. In einem getakteten System lässt sich dies oft einfach berechnen: fps ≥ Anzahl Produkte pro Sekunde × Anzahl Bilder pro Produkt Bei kontinuierlich bewegten Produkten spielt zusätzlich die Belichtungszeit eine große Rolle. Eine Kamera kann ausreichend fps haben und dennoch ein unbrauchbares Bild liefern, wenn die Belichtungszeit zu lang ist und sich das Produkt während der Aufnahme zu weit bewegt. Ein praktischer Richtwert ist, dass sich ein Objekt während der Belichtung um weniger als etwa ein Pixel bewegen sollte, um Bewegungsunschärfe zu vermeiden.
11. Von Auflösung und fps zur Datenrate
Wenn Auflösung, Bittiefe und fps bekannt sind, kann die erforderliche Datenrate berechnet werden: Daten pro Sekunde = Breite × Höhe × Bits pro Pixel × fps. Das ist der entscheidende Faktor für die Auswahl der Schnittstelle. Nehmen wir als Beispiel eine Kamera mit 2448 × 2048 Pixeln bei 30 fps. Bei 8 Bit monochrom ergibt sich eine Datenrate von etwa 1,20 Gbit/s, also rund 150 MB/s. Bei Bayer8 ist die rohe Datenrate vergleichbar. Bei vollständigem RGB mit 24 Bit steigt diese auf etwa 3,61 Gbit/s, also rund 451 MB/s. Dabei sollte immer eine Reserve eingeplant werden, da die rohe Datenrate nicht der tatsächlich nutzbaren Bilddatenrate entspricht. Paketoverhead, Header und Protokollinformationen verringern den effektiven Durchsatz. Daher sollte die Schnittstelle immer konservativ ausgelegt werden.
12. Wählen Sie erst danach die passende Schnittstelle
In der Praxis gehören USB3 Vision, GigE Vision und CoaXPress zu den am häufigsten verwendeten Kamera-Schnittstellen in der Machine Vision. Welche Schnittstelle am besten geeignet ist, hängt von Bandbreite, Kabellänge, Robustheit, Systemarchitektur und der industriellen Umgebung ab.
USB3 Vision
USB3 Vision ist eine weit verbreitete Wahl für kompakte Systeme und Anwendungen, bei denen sich die Kamera in der Nähe des Host-PCs befindet. Die Schnittstelle ist zugänglich, schnell und kosteneffizient. Für Laborsysteme, Testaufbauten und einfache Standalone-Vision-Lösungen ist USB3 Vision häufig eine naheliegende Wahl. In industriellen Umgebungen kann sie ebenfalls gut funktionieren, ist jedoch in Bezug auf Kabellänge und mechanische Robustheit in der Regel weniger tolerant.
GigE Vision
GigE Vision ist einer der beliebtesten Standards in der Machine Vision. Er nutzt bestehende Ethernet-Infrastruktur und ist daher vielseitig einsetzbar. Aus praktischer Erfahrung ist GigE Vision oft besser für industrielle Umgebungen geeignet als USB3 Vision, insbesondere wenn längere Kabellängen, Integration in den Maschinenbau und eine robuste Installation wichtig sind. Für viele industrielle Anwendungen wird daher häufig GigE Vision bevorzugt, da diese Schnittstelle eine gute Balance zwischen Leistung, Kosten, Flexibilität und Zuverlässigkeit bietet.
CoaXPress
CoaXPress wurde für hohe Datenraten über Koaxialkabel entwickelt und ist daher besonders interessant für anspruchsvolle industrielle Anwendungen mit hoher Auflösung, hohen Bildraten oder Zeilenkameras. Auch CoaXPress ist in vielen Fällen besser für industrielle Umgebungen geeignet als USB3 Vision, vor allem aufgrund der robusten Verkabelung und der hohen, zuverlässigen Datenübertragung. Dem gegenüber steht, dass für CoaXPress in der Regel eine Framegrabber-Karte im Host-PC erforderlich ist. Das bedeutet, dass neben der Kamera und der Verkabelung auch zusätzliche Hardware benötigt wird. In der Praxis führt dies zu höheren Kosten und häufig auch zu einer komplexeren Systemarchitektur. CoaXPress ist daher vor allem dann interessant, wenn die erforderliche Leistung tatsächlich über dem Leistungsbereich von GigE Vision oder USB3 Vision liegt.
Eine praktische zusätzliche Anmerkung ist, dass es bei GigE Vision und USB3 Vision sinnvoll ist, keine Hubs zu verwenden, wenn maximale Leistung erforderlich ist. Diese können die effektive Datenübertragung begrenzen oder beeinträchtigen.
13. Auswahl zwischen einer Smart Camera und einem PC-basierten Machine-Vision-System
Neben der Auswahl von Sensor, Auflösung und Schnittstelle ist es auch wichtig zu bestimmen, ob die Anwendung am besten mit einer Smart Camera oder mit einem PC-basierten Machine-Vision-System umgesetzt wird. Eine Smart Camera vereint Kamera, Prozessor und Vision-Software in einem kompakten Gehäuse. Das macht diese Lösung besonders attraktiv für relativ einfache Anwendungen, bei denen die Installation kompakt bleiben soll und ein geringer Integrationsaufwand gewünscht ist. In der Praxis werden Smart Cameras vor allem bei übersichtlichen, geradlinigen Inspektionen eingesetzt, bei denen eine einzelne Kameraperspektive ausreicht und nur geringe Rechenleistung erforderlich ist. Typische Beispiele sind einfache Anwesenheitsprüfungen, Positionsdetektion, grundlegendes Codelesen, einfache OCR, Etikettenprüfung oder eine einfache OK/NOK-Inspektion. In solchen Anwendungen kann eine Smart Camera eine effiziente und kostengünstige Lösung sein. Wird die Anwendung jedoch komplexer, erfordert mehrere Kameraperspektiven, hohe Auflösungen oder hohe Bildraten, oder werden aufwendigere Bildverarbeitung und umfassende Datenintegration benötigt, ist ein PC-basiertes Machine-Vision-System in der Regel die bessere Wahl. Ein PC-basiertes System bietet mehr Rechenleistung, mehr Flexibilität, mehr Erweiterungsmöglichkeiten und in der Regel auch mehr Freiheit bei der Softwarewahl, Datenspeicherung und Kommunikation mit anderen Systemen.
Die praktische Abwägung ist daher recht klar: Für einfache, einzelne Inspektionen kann eine Smart Camera eine ausgezeichnete Wahl sein, aber für komplexere oder anspruchsvollere Anwendungen ist ein PC-basiertes Machine-Vision-System in der Regel die zukunftssicherere Lösung.
14. Praktische Entscheidungsreihenfolge
In der Praxis ist dies die beste Reihenfolge für die Kamerawahl:
- Definieren Sie die Anwendung.
- Bestimmen Sie das kleinste relevante Detail.
- Wählen Sie zwischen monochrom und Farbe.
- Wählen Sie Rolling Shutter oder Global Shutter basierend auf der Bewegungsdynamik.
- Berücksichtigen Sie bei Farbe die geringere effektive Auflösung durch Bayer-Interpolation.
- Berechnen Sie die erforderliche Pixelauflösung.
- Bestimmen Sie das FOV inklusive Reserve.
- Wählen Sie darauf basierend eine geeignete Sensor- bzw. Chipgröße.
- Überprüfen Sie, ob das Objektiv diesen Sensor und die Pixelgröße unterstützen kann.
- Bestimmen Sie die erforderliche Bildrate und die maximale Belichtungszeit.
- Berechnen Sie die Datenrate.
- Wählen Sie erst danach die Schnittstelle.
- Bestimmen Sie abschließend, ob eine Smart Camera ausreicht oder ein PC-basiertes Machine-Vision-System erforderlich ist.
Fazit
Die richtige Auswahl einer Kamera für eine Machine Vision Poject beginnt immer bei der Anwendung und niemals beim Katalog. Zunächst wird festgelegt, welches Detail sichtbar oder erkennbar sein muss. Danach wird entschieden, ob monochrom oder Farbe funktional erforderlich ist. Anschließend wird bestimmt, welcher Shutter-Typ zur Bewegungsdynamik der Anwendung passt. Danach werden die erforderliche Auflösung berechnet, das Field of View festgelegt, eine passende Chipgröße gewählt und überprüft, ob das Objektiv diese Kombination tatsächlich unterstützt. Anschließend werden die erforderliche Bildrate bestimmt, die Datenrate berechnet und darauf basierend die passende Schnittstelle ausgewählt. Für viele industrielle Anwendungen bleibt eine monochrome Kamera die beste Wahl, da jeder Pixel direkt zur Detaildarstellung und Lichtempfindlichkeit beiträgt. Eine Farbkamera ist sinnvoll, wenn Farbe wirklich relevant ist, erfordert jedoch stets zusätzliche Aufmerksamkeit hinsichtlich effektiver Auflösung, Beleuchtung und Datenverarbeitung. Bei Bayer-Farbkameras muss zudem verstanden werden, dass die effektive Detailauflösung niedriger ist als bei monochromen Sensoren und dass die Datenrate nicht automatisch dreimal höher ist, sofern nicht vollständiges RGB ausgegeben wird.
Auch die Wahl zwischen Rolling Shutter und Global Shutter ist entscheidend für ein robustes Machine-Vision-System. Bei stillstehenden oder langsam bewegten Objekten kann Rolling Shutter gut funktionieren, bei schnellen oder dynamischen industriellen Prozessen ist Global Shutter jedoch in der Regel die sicherere Wahl.
Bei der Wahl der Schnittstelle gehören USB3 Vision, GigE Vision und CoaXPress zu den am häufigsten verwendeten Standards. In der Praxis wird für viele industrielle Anwendungen häufig GigE Vision bevorzugt. GigE Vision bietet eine gute Balance zwischen Leistung, Kosten, Integrationsmöglichkeiten und Robustheit in industriellen Umgebungen. Insbesondere wenn längere Kabellängen, zuverlässige Kommunikation und eine einfache Integration in Maschinen oder Produktionslinien erforderlich sind, ist GigE Vision in vielen Fällen die logischste Wahl.
CoaXPress ist technisch eine sehr leistungsfähige Lösung für hohe Auflösungen und hohe Geschwindigkeiten, erfordert jedoch in der Regel eine Framegrabber-Karte. Das bedeutet, dass neben Kamera und Verkabelung auch zusätzliche Hardwarekosten und häufig eine komplexere Systemarchitektur entstehen. Daher ist CoaXPress vor allem dann interessant, wenn die erforderliche Leistung tatsächlich über den Möglichkeiten von GigE Vision oder USB3 Vision liegt. Auch die Entscheidung zwischen einer Smart Camera und einem PC-basierten Machine-Vision-System gehört zum Designprozess. Smart Cameras eignen sich vor allem für einfache, übersichtliche Inspektionen mit nur einer Kameraperspektive und begrenztem Rechenbedarf, während PC-basierte Systeme mehr Flexibilität und Rechenleistung für komplexere Anwendungen bieten.
Der Kern einer guten Kamerawahl liegt daher nicht in möglichst vielen Pixeln oder der schnellsten Schnittstelle, sondern in einer fundierten technischen Ableitung aus der Anwendung. Genau hier machen Wissen, Erfahrung und praktische Expertise in Machine-Vision-Systemen den entscheidenden Unterschied.
Sie finden die passende Kamera nicht?
Werfen Sie einen Blick auf unsere vollständige Übersicht aller Machine Vision Kameras. Wenn Sie Unterstützung bei der Auswahl der richtigen Kamera für Ihre Anwendung benötigen, kontaktieren Sie uns gerne für technische Beratung.

