
De juiste keuze van een camera voor een machine vision-applicatie
De juiste camera kiezen voor een machine vision-applicatie begint nooit bij een merk, een catalogus of een willekeurig aantal megapixels. In een goed ontworpen machine vision-systeem volgt de camerakeuze uit de applicatie. Dat klinkt logisch, maar in de praktijk zien we nog vaak dat engineers te vroeg focussen op resolutie, interface of prijs, terwijl de echte basisvragen nog niet scherp zijn gesteld. Wat moet het systeem exact zien? Welk detail is kritisch? Hoe groot is het beeldveld? Beweegt het product? En moet het systeem alleen iets detecteren, of ook meten, lezen of classificeren?
Juist die eerste analyse maakt het verschil tussen een systeem dat op papier goed lijkt en een systeem dat in productie werkelijk stabiel presteert. De keuze van een industriële camera moet daarom stap voor stap worden opgebouwd. Vanuit ervaring in machine vision werkt de volgende volgorde het best: eerst de keuze van de sensor, daarna het berekenen van de benodigde pixelresolutie, vervolgens het bepalen van het field of view, op basis daarvan de minimale chipgrootte, daarna het vereiste aantal beelden per seconde en tenslotte de keuze van de meest geschikte interface.
Die volgorde voorkomt een veelgemaakte ontwerpfout: een camera kiezen die later optisch, qua bandbreedte of qua lichtgevoeligheid niet goed blijkt te passen. Resolutie moet namelijk uit de applicatie volgen, niet uit de verleiding om “voor de zekerheid” zoveel mogelijk megapixels te kiezen. Over-specificatie leidt in veel gevallen juist tot kleinere pixels, hogere eisen aan de lens en minder robuuste beeldvorming.
1. Start altijd bij de applicatie
Een camera is geen los component, maar een onderdeel van een volledig machine vision-systeem. Daarom begint de selectie altijd bij de applicatie-eisen. De belangrijkste vragen zijn: hoe groot is het totale inspectiegebied, wat is het kleinste relevante detail, of kleurinformatie echt nodig is, hoe snel het proces verloopt en of het object stilstaat of beweegt tijdens de opname. In de praktijk bepaalt vooral het kleinste relevante detail de rest van het ontwerp. Dat kan een kras zijn, een rand, een code, een maatverschil, een OCR-karakter of een aanwezigheid of afwezigheid van een onderdeel. Als die feature niet eenduidig is gedefinieerd, wordt de rest van de camerakeuze onvermijdelijk onzeker.
2. De eerste fundamentele keuze: de sensorDe selectie van de camera begint met de sensor. Daarbij kijk je onder meer naar resolutie, pixelgrootte, sensorformaat, shuttertype en de keuze tussen monochroom en kleur. Vooral dat laatste punt is in veel industriële toepassingen doorslaggevend. | ![]() |
3. Invloed van een kleurcamera op effectieve resolutie: het Bayer-patroon
De meeste industriële kleurcamera’s zijn single-chip camera’s met een Bayer-filterpatroon. Daarbij meet niet iedere pixel volledige RGB-informatie. Elke pixel meet slechts één kleurcomponent: rood, groen of blauw. De twee ontbrekende componenten worden later door interpolatie berekend. In de basis is dat een slimme en veelgebruikte techniek, maar hij heeft wel gevolgen voor de beeldkwaliteit. Het eerste gevolg is dat de effectieve detailresolutie lager ligt dan bij een monochrome camera met hetzelfde aantal pixels. Een monochrome sensor gebruikt immers iedere pixel direct voor ruimtelijke detailinformatie. Een Bayer-sensor doet dat niet op dezelfde manier, omdat een deel van de kleurinformatie softwarematig moet worden gereconstrueerd.
Het tweede gevolg is dat de lichtgevoeligheid lager is, omdat kleurfilters een deel van het invallende licht blokkeren. Daardoor is kleur in veel gevallen kritischer voor belichting en signaal-ruisverhouding. In de praktijk betekent dit dat een kleurcamera vaak meer nominale pixels nodig heeft om hetzelfde detailniveau te halen als een monochrome camera. Voor nauwkeurige metingen, kleine features, lage contrasten en hoge snelheid is monochroom daarom meestal de veiligere keuze.
4. Rolling shutter of global shutter?
Naast de keuze tussen monochroom en kleur is ook het shuttertype belangrijk. In machine vision wordt meestal gekozen tussen rolling shutter en global shutter.
Bij een rolling shutter worden de beeldlijnen niet allemaal exact op hetzelfde moment belicht, maar lijn voor lijn uitgelezen. Dat is prima bruikbaar wanneer objecten stilstaan of langzaam bewegen en wanneer de camera of het product tijdens de opname nauwelijks dynamiek vertoont. Rolling shutter-sensoren zijn vaak gunstig geprijsd en breed beschikbaar. Bij een global shutter worden alle pixels gelijktijdig belicht. Dat is vooral belangrijk bij bewegende objecten, snelle transportbanden, pick-and-place-toepassingen, robotgeleiding en metingen waarbij vorm- of positievertekening onacceptabel is. Global shutter voorkomt dat rechte lijnen scheef worden afgebeeld of dat objectvormen vervormen door de opeenvolgende uitlezing van de sensor.
De keuze is in de praktijk eenvoudig samen te vatten: voor statische of langzaam bewegende toepassingen kan rolling shutter goed werken, maar voor dynamische industriële toepassingen is global shutter meestal de veiligste en meest robuuste keuze.
5. Versturen kleurcamera’s altijd drie keer meer data?
Nee, niet per definitie. Dat is een belangrijke nuance die in veel teksten te zwart-wit wordt weergegeven.
Het is wel waar dat een volledig RGB-beeld veel meer data bevat dan een monochroom beeld. Als een camera uitstuurt in bijvoorbeeld 24-bit RGB in plaats van 8-bit monochroom, is de datastroom ongeveer drie keer zo groot.
Dan geldt dus:
• Mono8 = 8 bit per pixel
• RGB8 = 24 bit per pixel
In dat geval is de datastroom van RGB inderdaad ongeveer drie keer zo groot.
Maar een single-chip kleurcamera met Bayer-patroon hoeft zijn data niet per se als volledig RGB-beeld uit te sturen. Veel camera’s sturen ruwe kleurdata uit als Bayer8, Bayer10 of Bayer12. In dat geval wordt per pixel slechts één kleurmonster verstuurd en is de ruwe datastroom vaak vergelijkbaar met die van een monochrome camera met dezelfde bitdiepte.
De technisch correcte conclusie is dus: een kleurcamera verstuurt niet automatisch drie keer meer data dan een monochrome camera. Dat hangt af van het gekozen pixel-formaat en van de vraag of de camera ruwe Bayer-data of volledig RGB-uitvoer levert.
6. Bepaal de benodigde pixelresolutie
| Zodra duidelijk is welk sensortype nodig is, kan de benodigde resolutie worden berekend. Daarbij geldt in machine vision een eenvoudige maar krachtige regel: de kleinste relevante feature en het gewenste field of view bepalen samen hoeveel pixels nodig zijn. De onderstaande berekeningen zijn voorbeelden om de methode te laten zien. In de praktijk hangt de exacte benodigde resolutie ook af van contrast, belichting, lenskwaliteit, productvariatie, toleranties en de robuustheid die in de applicatie nodig is. Voor inspectietoepassingen geldt meestal: • minimaal 3 pixels per relevant detail; • bij voorkeur 5 pixels per detail voor een robuuster systeem. De basisformule is: Benodigde resolutie in pixels = FOV / kleinste detail × aantal pixels per detail Voorbeeld: defectdetectie Stel dat het inspectiegebied 300 mm breed is en dat het kleinste defect dat betrouwbaar zichtbaar moet zijn 1 mm groot is. Als je voor dit voorbeeld uitgaat van een robuuste benadering met 5 pixels per defect, dan wordt de benodigde horizontale resolutie: 300 / 1 × 5 = 1500 pixels. Je hebt dan in de breedte minimaal ongeveer 1500 pixels nodig. |
Dit is een rekenvoorbeeld om de aanpak te illustreren. In een echte applicatie kan de uiteindelijke ontwerpkeuze hoger uitvallen, bijvoorbeeld vanwege contrastverlies, productvariatie of eisen aan de betrouwbaarheid.
7. OCR berekenen doe je anders dan gewone feature-inspectie
Bij OCR is de benadering anders. Daar ga je doorgaans niet uit van lijndikte of kleinste defectgrootte, maar van de minimale karakterhoogte en van het aantal pixels dat de gebruikte OCR-software nodig heeft om een karakter betrouwbaar te herkennen. Dat kan verschillen per softwareplatform, library, lettertype, contrast en printkwaliteit. In de praktijk wordt vaak gewerkt met een richtlijn van bijvoorbeeld 25 × 15 pixels per karakter, maar dat is geen universele wet. Het is een praktisch uitgangspunt dat later altijd met echte beelden en de gekozen OCR-tool gevalideerd moet worden.
Voorbeeld: OCR-toepassing op een label van 20 × 80 mm
Stel:
• het label heeft een afmeting van 20 × 80 mm;
• de kleinste tekst die gelezen moet worden heeft een karakterhoogte van 5 mm;
• de gebruikte OCR-software vraagt ongeveer 25 pixels karakterhoogte voor betrouwbare herkenning.
Dan bepaal je eerst de benodigde schaal: 25 pixels / 5 mm = 5 pixels per mm
Als het field of view in de breedte overeenkomt met de labelbreedte van 80 mm, dan wordt de minimale breedteresolutie: 80 × 5 = 400 pixels
Voor de hoogte van 20 mm geldt: 20 × 5 = 100 pixels
Theoretisch kom je dan uit op ongeveer 400 × 100 pixels voor het labelgebied. Ook dit is een rekenvoorbeeld om de methodiek duidelijk te maken. In de praktijk ontwerpen we zelden exact op deze ondergrens. Je wilt namelijk ook marge voor labelpositie, rotatie, printvariatie, contrastverlies en toleranties in de productpresentatie. Voor robuuste OCR wordt daarom meestal bewust extra resolutieruimte genomen.
8. Bepaal het field of view
Het field of view, of FOV, is het zichtbare gebied van het object dat op de sensor wordt afgebeeld. Het FOV wordt bepaald door de productafmetingen, maar ook door toleranties in positie, mechanische variatie en eventuele noodzaak om meerdere features tegelijk te zien. Een veelgemaakte fout is het FOV te krap kiezen. In theorie lijkt dat efficiënt, maar in een productielijn ontstaan dan snel problemen bij kleine verschuivingen, verdraaiingen of tolerantieverschillen. Een robuuste vision-opstelling houdt daarom altijd rekening met praktische marge.
9. Van FOV naar minimale chipgrootte
Als FOV en benodigde resolutie bekend zijn, kun je bepalen welk sensorformaat geschikt is. Daarbij is de relatie tussen sensorbreedte, vergroting en field of view heel belangrijk.
Dat betekent in de praktijk: vergroting = sensorafmeting / FOV
De chipgrootte bepaalt dus mede welke lensvergroting nodig is. Een grotere sensor is in veel gevallen gunstig, omdat je bij een gegeven resolutie vaak grotere pixels krijgt. Grotere pixels betekenen meestal betere lichtgevoeligheid, een gunstiger signaal-ruisgedrag en minder extreme eisen aan de lens. Tegelijk moet de lens wel in staat zijn om die grotere sensor volledig en scherp uit te lichten. Ook hier geldt ervaring als belangrijke factor: veel ontwerpers onderschatten hoeveel invloed de lens heeft op de uiteindelijke systeemresolutie. Kleine pixels vragen om een lens met hoge optische prestaties over het volledige beeldveld.
10. Bepaal het aantal beelden per seconde
Pas nadat resolutie, FOV en sensorconcept bekend zijn, bepaal je de frame rate. De vereiste frame rate hangt af van hoe snel het object verandert of beweegt. Een frame is immers een complete opname, en het aantal frames per seconde moet aansluiten op de dynamiek van het proces. Bij een getakt systeem kun je vaak simpel rekenen: fps ≥ aantal producten per seconde × aantal beelden per product Bij continu bewegende producten speelt daarnaast de belichtingstijd een grote rol. Een camera kan voldoende fps hebben, maar toch een onbruikbaar beeld leveren als de exposure te lang is en het product tijdens de opname te ver beweegt. Een praktisch uitgangspunt is dat een object tijdens de belichting minder dan ongeveer één pixel mag verschuiven om motion blur te vermijden.
11. Van resolutie en fps naar datastroom
Als resolutie, bitdiepte en fps bekend zijn, kun je de benodigde datastroom berekenen: Data per seconde = breedte × hoogte × bits per pixel × fps. Dat is de sleutel voor de interfacekeuze. Neem als voorbeeld een camera van 2448 × 2048 pixels op 30 fps. Bij 8 bit monochroom kom je uit op ongeveer 1,20 Gbit/s, oftewel circa 150 MB/s. Bij Bayer8 is de ruwe datastroom vergelijkbaar. Bij volledig RGB 24 bit loopt dit op tot ongeveer 3,61 Gbit/s, oftewel circa 451 MB/s. Daarbij moet je altijd marge nemen, want de ruwe datasnelheid is niet hetzelfde als de netto bruikbare beelddata. Pakketoverhead, headers en protocolinformatie verlagen de effectieve throughput. Daarom moet je bij interfacesnelheid altijd conservatief ontwerpen.
12. Kies daarna pas de juiste interface
In de praktijk zijn USB3 Vision, GigE Vision en CoaXPress drie van de meest gebruikte camera-interfaces binnen machine vision. Welke interface het meest geschikt is, hangt af van bandbreedte, kabellengte, robuustheid, systeemarchitectuur en de industriële omgeving.
USB3 Vision
USB3 Vision is een veelgebruikte keuze voor compacte systemen en opstellingen waarbij de camera dicht bij de host-pc staat. Het is toegankelijk, snel en kostenefficiënt. Voor laboratoriumsystemen, testopstellingen en eenvoudige standalone vision-oplossingen is USB3 Vision vaak een logische keuze. In een industriële omgeving kan het prima werken, maar qua kabellengte en mechanische robuustheid is het doorgaans minder vergevingsgezind.
GigE Vision
GigE Vision is een van de populairste standaarden in machine vision. Het gebruikt bestaande Ethernet-infrastructuur en is daardoor breed inzetbaar. Vanuit praktijkervaring is GigE Vision vaak beter geschikt voor industriële omgevingen dan USB3 Vision, vooral wanneer langere kabellengtes, integratie in machinebouw en robuuste installatie belangrijk zijn. Voor veel industriële toepassingen gaat de voorkeur daarom vaak uit naar GigE Vision, omdat deze interface een goede balans biedt tussen prestaties, kosten, flexibiliteit en betrouwbaarheid.
CoaXPress
CoaXPress is ontwikkeld voor hoge datasnelheden over coaxkabels en is daardoor bijzonder interessant voor veeleisende industriële toepassingen met hoge resolutie, hoge fps of lijncamera’s. Ook CoaXPress is in veel gevallen beter geschikt voor industriële omgevingen dan USB3 Vision, juist vanwege de robuuste bekabeling en de hoge betrouwbare datadoorvoer. Daar staat tegenover dat voor CoaXPress doorgaans een framegrabberkaart nodig is in de host-pc. Dat betekent dat naast de camera en bekabeling ook extra hardware nodig is. In de praktijk brengt dit dus meer kosten en vaak ook een complexere systeemopbouw met zich mee. CoaXPress is daarom vooral interessant wanneer de vereiste prestaties echt boven het bereik van GigE Vision of USB3 Vision liggen.
Een praktische extra opmerking is dat het voor GigE Vision en USB3 Vision verstandig is om geen hubs te gebruiken als maximale prestaties nodig zijn. Dat kan de effectieve dataoverdracht beperken of verstoren.
13. Keuze tussen een smart camera en een pc-gebaseerd machine vision-systeem
Naast de keuze van sensor, resolutie en interface is het ook belangrijk om te bepalen of de toepassing het best wordt uitgevoerd met een smart camera of met een pc-gebaseerd machine vision-systeem. Een smart camera combineert camera, processor en vision-software in één compacte behuizing. Dat maakt deze oplossing aantrekkelijk voor relatief eenvoudige toepassingen waarbij de installatie compact moet blijven en waarbij beperkte integratie-inspanning gewenst is. In de praktijk vinden smart camera’s vooral hun toepassing bij overzichtelijke, rechttoe rechtaan inspecties waarbij één cameraview voldoende is en waarbij niet veel rekenkracht nodig is. Denk aan eenvoudige aanwezigheidscontroles, positiedetectie, basiscodelezing, eenvoudige OCR, labelcontrole of een beperkte OK/NOK-inspectie. In dat soort toepassingen kan een smart camera een efficiënte en kosteneffectieve oplossing zijn. Wanneer de applicatie complexer wordt, meerdere camerastandpunten nodig heeft, hoge resoluties of hoge beeldsnelheden vraagt, of wanneer zwaardere beeldverwerking en uitgebreide data-integratie nodig zijn, komt een pc-gebaseerd machine vision-systeem meestal beter tot zijn recht. Een pc-gebaseerd systeem biedt meer verwerkingskracht, meer flexibiliteit, meer uitbreidingsmogelijkheden en doorgaans ook meer vrijheid in softwarekeuze, dataopslag en communicatie met andere systemen.
De praktische afweging is daarom vrij duidelijk: voor eenvoudige, enkelvoudige inspecties kan een smart camera een uitstekende keuze zijn, maar voor complexere of zwaardere toepassingen is een pc-gebaseerd machine vision-systeem meestal de meer toekomstvaste oplossing.
14. Praktische beslisvolgorde
In de praktijk is dit de beste volgorde voor camerakeuze:
1. Definieer de applicatie.
2. Bepaal het kleinste relevante detail.
3. Kies monochroom of kleur.
4. Kies rolling shutter of global shutter op basis van de bewegingsdynamiek.
5. Houd bij kleur rekening met lagere effectieve resolutie door Bayer-interpolatie.
6. Bereken de benodigde pixelresolutie.
7. Bepaal het FOV inclusief marge.
8. Kies op basis daarvan een geschikte sensor- of chipgrootte.
9. Controleer of de lens deze sensor en pixelmaat aankan.
10. Bepaal het benodigde aantal fps en de maximale exposure.
11. Bereken de datastroom.
12. Kies daarna pas de interface.
13. Bepaal tenslotte of een smart camera volstaat of dat een pc-gebaseerd machine vision-systeem nodig is.
Conclusie
De juiste keuze van een camera voor een machine vision project begint altijd bij de applicatie en nooit bij de catalogus. Eerst bepaal je welk detail zichtbaar of herkenbaar moet zijn. Daarna kies je of monochroom of kleur functioneel nodig is. Vervolgens bepaal je welk shuttertype past bij de bewegingsdynamiek van de toepassing. Daarna bereken je de benodigde resolutie, bepaal je het field of view, kies je een passende chipgrootte en controleer je of de lens deze combinatie werkelijk aankan. Vervolgens bepaal je de vereiste frame rate, reken je de datastroom door en kies je op basis daarvan de juiste interface. Voor veel industriële toepassingen blijft een monochrome camera de beste keuze, omdat iedere pixel direct bijdraagt aan detailweergave en lichtgevoeligheid. Een kleurcamera is waardevol wanneer kleur echt relevant is, maar vraagt altijd om extra aandacht voor effectieve resolutie, belichting en dataverwerking. Bij Bayer-kleurcamera’s moet bovendien goed worden begrepen dat de effectieve detailresolutie lager ligt dan bij monochroom en dat de datastroom niet automatisch drie keer hoger is, tenzij er volledig RGB wordt uitgestuurd.
Ook de keuze tussen rolling shutter en global shutter is bepalend voor een robuust machine vision-systeem. Bij stilstaande of langzaam bewegende objecten kan rolling shutter goed functioneren, maar bij snelle of dynamische industriële processen is global shutter meestal de veiligere keuze.
Bij de interfacekeuze behoren USB3 Vision, GigE Vision en CoaXPress tot de meest gebruikte standaarden. In de praktijk gaat voor veel industriële toepassingen de voorkeur vaak uit naar GigE Vision. GigE Vision biedt een goede balans tussen prestaties, kosten, integratiemogelijkheden en robuustheid in industriële omgevingen. Vooral wanneer langere kabellengtes, betrouwbare communicatie en eenvoudige integratie in machinebouw of productielijnen belangrijk zijn, is GigE Vision in veel gevallen de meest logische keuze.
CoaXPress is technisch een zeer krachtige oplossing voor hoge resoluties en hoge snelheden, maar hiervoor is doorgaans wel een framegrabberkaart nodig. Dat betekent dat CoaXPress naast de camera en bekabeling ook extra hardwarekosten en vaak een complexere systeemopbouw met zich meebrengt. Daardoor is CoaXPress vooral interessant wanneer de vereiste prestaties echt boven het bereik van GigE Vision of USB3 Vision liggen.
Ook de keuze tussen een smart camera en een pc-gebaseerd machine vision-systeem hoort bij het ontwerp. Smart camera’s zijn vooral geschikt voor eenvoudige, overzichtelijke inspecties met één cameraview en beperkte rekenbehoefte, terwijl pc-gebaseerde systemen meer flexibiliteit en rekenkracht bieden voor complexere toepassingen.
De kern van een goede camerakeuze is dus niet zoveel mogelijk pixels of de snelste interface, maar een goed onderbouwde technische afleiding vanuit de applicatie. Dat is precies waar kennis, ervaring en praktijkinzicht in machine vision-systemen het verschil maken.
Kunt u de juiste camera niet vinden?
Bekijk dan onze volledige selectie machine vision camera’s op de pagina alle camera’s. Heeft u hulp nodig bij het selecteren van de juiste camera voor uw toepassing, neem dan gerust contact op met onze vision specialisten.

