„Wir suchen eine 9 MP oder 12 MP Kamera für diese AI Anwendung.“

Dies ist ein logischer Ausgangspunkt und eine Frage, die in vielen Machine Vision Projekten gestellt wird. Mehr Pixel sollten mehr Detail liefern und mehr Detail sollte die Erkennungsleistung verbessern. Auf den ersten Blick scheint diese Annahme schwer zu widerlegen.

In der Praxis ist die Kamerauflösung jedoch selten der Faktor, der bestimmt, ob ein AI basiertes Inspektionssystem zuverlässig arbeitet. Die Kamera definiert nicht die nutzbare Information im System. Sie erfasst nur das, was die optische Konfiguration und die Anwendungsbedingungen ermöglichen.

Warum Megapixel oft der falsche Ausgangspunkt sind

Die meisten industriellen AI Modelle, wie YOLO, arbeiten mit einer festen Eingangsauflösung. Übliche Werte sind 640×640 oder 1024×1024 Pixel.

Das bedeutet, dass ein Bild mit beispielsweise 4000×3000 Pixeln vor der Verarbeitung skaliert wird. Ein großer Teil der ursprünglichen Detailinformation geht verloren, bevor das Modell das Bild verarbeitet. Aus Sicht des Modells existieren diese zusätzlichen Megapixel nicht.

In der Praxis bedeutet dies, dass eine höhere Kamerauflösung häufig nicht zu besseren Erkennungsergebnissen führt. Die Begrenzung verschiebt sich vom Sensor zur Skalierung innerhalb der AI Pipeline.

Was in den meisten AI Pipelines tatsächlich passiert

Die meisten industriellen AI Modelle, wie YOLO, arbeiten mit einer festen Eingangsauflösung. Übliche Werte sind 640×640 oder 1024×1024 Pixel.

Das bedeutet, dass ein Bild mit beispielsweise 4000×3000 Pixeln vor der Verarbeitung skaliert wird. Ein großer Teil der ursprünglichen Detailinformation geht verloren, bevor das Modell das Bild verarbeitet. Aus Sicht des Modells existieren diese zusätzlichen Megapixel nicht.

In der Praxis bedeutet dies, dass eine höhere Kamerauflösung häufig nicht zu besseren Erkennungsergebnissen führt. Die Begrenzung verschiebt sich vom Sensor zur Skalierung innerhalb der AI Pipeline.

Die Erkennungsleistung wird durch die Pixelrepräsentation bestimmt

Die entscheidende Frage ist, wie groß ein Merkmal innerhalb der Modelleingabe nach der Skalierung erscheint.

Ein Defekt muss eine ausreichende Anzahl von Pixeln im skalierten Bild einnehmen, um zuverlässig erkannt zu werden. Wird er zu klein, nimmt die Stabilität der Erkennung ab, unabhängig von der ursprünglichen Kamerauflösung. Mehr Megapixel lösen dieses Problem nicht, es sei denn, die effektive Pixeldichte im Modell steigt ebenfalls.

Dadurch entsteht eine direkte Beziehung zwischen Sichtfeld, Kamerauflösung und Eingangsgröße des Modells. Ein größeres Sichtfeld verteilt die Pixel über eine größere Fläche, wodurch die Anzahl der Pixel pro Merkmal reduziert wird. Ohne Kompensation an anderer Stelle im System bleibt die Erkennungsleistung begrenzt.

Warum Kameras mit höherer Auflösung oft überdimensioniert sind

In vielen Projekten wird die Auflösung erhöht, ohne den Rest des Systems anzupassen. Dies führt zu Kameras, die technisch leistungsfähig sind, aber praktisch nicht ausgenutzt werden.

Höher auflösende Sensoren haben häufig kleinere Pixelgrößen. Dadurch steigt zwar die theoretische Detailauflösung, gleichzeitig sinkt jedoch die Empfindlichkeit und die Anforderungen an die Beleuchtung steigen.

Gleichzeitig erhöht die Verarbeitung größerer Bilder die Rechenlast, ohne dass sich die nutzbare Information für das Modell verbessert.

In der Praxis führt dies zu höheren Kosten, mehr Systemkomplexität und keinem messbaren Gewinn in der Erkennungsleistung. Das System ist in einem Bereich überdimensioniert, während es in anderen Bereichen limitiert bleibt.

Die Optik bestimmt, ob Auflösung zu nutzbarem Detail wird

Selbst wenn eine höhere Auflösung erforderlich ist, ist sie nur dann sinnvoll, wenn das optische System diese auch unterstützt.

Die Leistung des Objektivs bestimmt, ob das Detail überhaupt den Sensor erreicht. Ist das Auflösungsvermögen des Objektivs geringer als die Sensorauflösung, enthalten zusätzliche Pixel keine zusätzliche Information. Sie erfassen lediglich eine unscharfe Version desselben Bildes.

Auch die Vergrößerung spielt eine wichtige Rolle. Wenn die optische Konfiguration nicht genügend Detail auf den Sensor projiziert, bleibt das kleinste erkennbare Merkmal zu klein, unabhängig von der Anzahl der Megapixel.

In der Praxis bedeutet dies, dass eine höhere Kamerauflösung ohne passende Objektivauswahl selten zu einer besseren Systemleistung führt.

Belichtung und Exposure bestimmen weiterhin die Bildqualität

Die Bildqualität wird nicht nur durch die räumliche Auflösung bestimmt, sondern auch durch die Signalqualität.

Sensoren mit höherer Auflösung verwenden in der Regel kleinere Pixel, die weniger Licht erfassen. In dynamischen Anwendungen wird die Belichtungszeit durch die Geschwindigkeit des Objekts begrenzt. Eine kürzere Belichtungszeit reduziert Bewegungsunschärfe, verringert jedoch auch die Lichtmenge, die den Sensor erreicht.

Dadurch steigt der Bedarf an stabiler und häufig intensiverer Beleuchtung. Wird die Beleuchtung nicht entsprechend angepasst, kompensiert das System durch eine Erhöhung des Gains. Dies führt zu Rauschen und reduziert den Kontrast, was die Zuverlässigkeit der Erkennung direkt beeinflusst.

Unter diesen Bedingungen kann eine höhere Auflösung die Bildqualität sogar verschlechtern, anstatt sie zu verbessern.

Wann eine höhere Auflösung sinnvoll ist

Es gibt Anwendungen, in denen Kameras mit höherer Auflösung klare Vorteile bieten, jedoch immer im Zusammenhang mit dem Gesamtsystem.

Bei der Detektion sehr kleiner Defekte kann eine höhere Pixeldichte erforderlich sein, damit Merkmale nach der Skalierung sichtbar bleiben. In Systemen mit Tiling oder Region of Interest Strategien ermöglicht eine höhere Auflösung die Verarbeitung kleinerer Bildbereiche mit ausreichend Detail.

Ebenso kann zusätzliche Kameradaten sinnvoll genutzt werden, wenn Modelle mit höheren Eingangsauflösungen arbeiten.

Der entscheidende Punkt ist, dass Auflösung nur dann Mehrwert liefert, wenn sie mit Sichtfeld, Optik und Verarbeitungsstrategie abgestimmt ist.

Die Kamerawahl ist eine Systementscheidung

Der Einstieg über Megapixel führt häufig zu unnötiger Komplexität und instabilen Ergebnissen. Ein robusterer Ansatz ist es, zunächst die Anforderungen der Anwendung zu definieren.

Das kleinste zu erkennende Merkmal bestimmt die erforderliche Pixeldichte. Das Sichtfeld definiert, wie diese Pixel im Bild verteilt werden. Die Geschwindigkeit des Objekts begrenzt die Belichtungszeit und damit die Anforderungen an die Beleuchtung. Oberflächeneigenschaften bestimmen, ob zusätzliche Filter oder spezielle Beleuchtung erforderlich sind.

Erst wenn diese Randbedingungen klar sind, wird die Kameraspezifikation sinnvoll.

In der Praxis bedeutet dies, dass die Kamerawahl nicht getrennt von Objektiv, Beleuchtung und Anwendungsbedingungen betrachtet werden kann. Sie als isolierten Parameter zu behandeln, ist eine der häufigsten Ursachen für unzureichende Machine Vision Systeme.

Weiter mit der Kamerawahl

Eine detailliertere Erklärung, wie Kameraparameter mit realen Systemanforderungen zusammenhängen, einschließlich Sensorgröße, Pixelgröße und Schnittstellen, finden Sie hier:
Machine Vision Camera Selection Guide

Zugehörige Komponenten in diesem System

Die Kameraleistung ist immer mit der optischen Konfiguration verbunden. In vielen Anwendungen erfordert eine Verbesserung der Ergebnisse Anpassungen bei:

  • Machine Vision Objektiven
  • industrieller Beleuchtung
  • optischen Filtern

 

Eine strukturierte Übersicht über das Zusammenspiel dieser Komponenten finden Sie ebenfalls auf der Machine Vision Shop Startseite.