“We zijn op zoek naar een 9 MP of 12 MP camera voor deze AI applicatie.”
Dit is een logisch startpunt en een vraag die in veel machine vision projecten terugkomt. Meer pixels zouden meer detail moeten opleveren en meer detail zou de detectieprestaties moeten verbeteren. Op het eerste gezicht lijkt deze aanname moeilijk te weerleggen. In de praktijk is camera resolutie echter zelden de factor die bepaalt of een AI gebaseerd inspectiesysteem betrouwbaar functioneert. De camera bepaalt niet welke informatie bruikbaar is in het systeem. Hij legt alleen vast wat de optische opstelling en de applicatiecondities mogelijk maken.
Waarom megapixels vaak het verkeerde startpunt zijn
Veel industriële AI modellen, zoals YOLO, werken met een vaste input resolutie. Veelvoorkomende waarden zijn 640×640 of 1024×1024 pixels. Dit betekent dat een beeld dat wordt vastgelegd op bijvoorbeeld 4000×3000 pixels eerst wordt geschaald voordat het model inferentie uitvoert. Een aanzienlijk deel van het oorspronkelijke detail gaat verloren voordat het model het beeld verwerkt. Vanuit het perspectief van het model bestaan die extra megapixels simpelweg niet.
In de praktijk betekent dit dat het verhogen van de camera resolutie vaak niet leidt tot betere detectieprestaties. De beperking verschuift van de sensor naar de schaalstap binnen de AI pipeline.
Wat er daadwerkelijk gebeurt in de meeste AI pipelines
De meeste industriële AI modellen, zoals YOLO, werken met een vaste input resolutie. Veelvoorkomende waarden zijn 640×640 of 1024×1024 pixels. Dit betekent dat een beeld dat wordt vastgelegd op bijvoorbeeld 4000×3000 pixels eerst wordt geschaald voordat het model inferentie uitvoert. Een aanzienlijk deel van het oorspronkelijke detail gaat verloren voordat het model het beeld verwerkt. Vanuit het perspectief van het model bestaan die extra megapixels simpelweg niet.
In de praktijk betekent dit dat het verhogen van de camera resolutie vaak niet leidt tot betere detectieprestaties. De beperking verschuift van de sensor naar de schaalstap binnen de AI pipeline.
Detectieprestaties worden bepaald door pixelrepresentatie
De relevantere vraag is hoe groot een feature wordt weergegeven binnen de modelinput na het schalen. Een defect moet voldoende pixels beslaan in het geschaalde beeld om betrouwbaar gedetecteerd te worden. Wordt het te klein, dan neemt de detectiestabiliteit af, ongeacht de oorspronkelijke camera resolutie. Het verhogen van megapixels lost dit niet op, tenzij ook de effectieve pixeldichtheid binnen het model toeneemt. Dit creëert een directe relatie tussen field of view, camera resolutie en model inputgrootte. Een groter field of view verdeelt de pixels over een groter oppervlak, waardoor het aantal pixels per feature afneemt. Zonder dit elders in het systeem te compenseren, blijft de detectieprestatie beperkt.
Waarom hogere megapixel camera’s vaak overgespecificeerd zijn in AI vision
In veel projecten wordt de resolutie verhoogd zonder de rest van het systeem aan te passen. Dit leidt tot camera’s die technisch capabel zijn, maar praktisch niet volledig benut worden. Hogere resolutie sensoren hebben vaak kleinere pixel sizes. Hoewel dit theoretisch meer detail oplevert, vermindert het de gevoeligheid en verhoogt het de eisen aan gecontroleerde belichting. Tegelijkertijd zorgt het verwerken van grotere beelden voor extra rekenbelasting zonder dat de beschikbare informatie voor het model toeneemt.
We zien vaak dat dit resulteert in hogere kosten, meer systeemcomplexiteit en geen meetbare verbetering in detectieprestaties. Het systeem is op één punt overgespecificeerd, terwijl het op andere punten beperkt blijft.
Optiek bepaalt of resolutie bruikbaar detail wordt
Zelfs wanneer een hogere resolutie nodig is, wordt deze alleen nuttig als het optische systeem dit kan ondersteunen. De prestaties van het objectief bepalen of het detail überhaupt de sensor bereikt. Als het oplossend vermogen van het objectief lager is dan de sensorresolutie, bevatten extra pixels geen extra informatie. Ze registreren slechts een vervaagde versie van hetzelfde beeld. Vergroting speelt hierbij een vergelijkbare rol. Als de optische opstelling onvoldoende detail op de sensor projecteert, blijft de kleinste detecteerbare feature te klein, ongeacht het aantal megapixels.
In de praktijk betekent dit dat camera resolutie zonder een juiste keuze van objectief zelden leidt tot betere systeemprestaties.
Belichting en exposure blijven bepalend voor beeldkwaliteit
Beeldkwaliteit wordt niet alleen bepaald door ruimtelijke resolutie, maar ook door signaalkwaliteit. Hogere resolutie sensoren gebruiken doorgaans kleinere pixels, die minder licht opvangen. In dynamische applicaties wordt de exposure time beperkt door de snelheid van het object. Het verkorten van de belichtingstijd vermindert motion blur, maar reduceert ook de hoeveelheid licht die de sensor bereikt. Dit vergroot de behoefte aan stabiele en vaak intensere belichting. Als de belichting hier niet op wordt aangepast, compenseert het systeem door de gain te verhogen. Dit introduceert ruis en verlaagt het contrast, wat direct invloed heeft op de betrouwbaarheid van de detectie. Onder deze omstandigheden kan een hogere resolutie de beeldkwaliteit juist verslechteren in plaats van verbeteren.
Wanneer hogere resolutie wél zinvol is
Er zijn situaties waarin camera’s met meer megapixels duidelijke voordelen bieden, maar deze zijn altijd gekoppeld aan het totale systeemontwerp.
Bij het detecteren van zeer kleine defecten kan extra pixeldichtheid nodig zijn om ervoor te zorgen dat features zichtbaar blijven na het schalen. In systemen die werken met tiling of region of interest strategieën maakt een hogere resolutie het mogelijk om kleinere beeldsecties met voldoende detail te verwerken. Ook wanneer modellen werken met hogere input resoluties, kan de extra data van de camera effectief benut worden.
De kern is dat resolutie alleen waarde toevoegt wanneer deze in balans is met field of view, optiek en verwerkingsstrategie.
Camerakeuze is een systeemniveau beslissing
Beginnen bij megapixels leidt vaak tot onnodige complexiteit en instabiele resultaten. Een betrouwbaardere aanpak is om eerst de applicatie eisen te definiëren. De kleinste detecteerbare feature bepaalt de benodigde pixeldichtheid. Het field of view bepaalt hoe deze pixels over het beeld worden verdeeld. De snelheid van het object begrenst de exposure time en daarmee de eisen aan belichting. Oppervlakte eigenschappen bepalen of extra filtering of specifieke belichtingstechnieken nodig zijn. Pas wanneer deze randvoorwaarden duidelijk zijn, wordt de cameraspecificatie zinvol.
In de praktijk betekent dit dat de camerakeuze niet los gezien kan worden van objectief, belichting en applicatiecondities. Het behandelen van de camera als een geïsoleerde parameter is een van de meest voorkomende oorzaken van slecht presterende machine vision systemen.
Ga verder met camerakeuze
Een meer gedetailleerde uitleg van hoe cameraparameters zich verhouden tot echte systeembeperkingen, inclusief sensor size, pixel size en interfacekeuzes, vind je hier:
→ Machine Vision Camera Selection Guide
Gerelateerde componenten in dit systeem
Camera prestaties zijn altijd gekoppeld aan de optische opstelling. In veel applicaties vereist het verbeteren van resultaten aanpassingen in:
- machine vision objectieven
- industriële belichting
- optische filters
Een gestructureerd overzicht van hoe deze componenten samenhangen is ook te vinden op de homepage van Machine Vision Shop.