<img alt="" src="https://secure.leadforensics.com/11743.png" style="display:none;">

Optische Parameter für Bildverarbeitungsanwendungen, Teil 1

Objektive erklärt

In dieser Reihe von Blogs werden wir die Bildverarbeitungsoptik diskutieren, die Funktionsweise von Objektiven untersuchen und Sie bei der Auswahl der richtigen Optik für Ihre Bildverarbeitungsanwendung unterstützen.

Objektive werden oft als Zubehörteil angesehen und die Kamera ist die wichtigste Komponente eines Bildverarbeitungssystems. In der Realität sind Objektive genauso wichtig wie Kameras, und es gibt eine Reihe wichtiger Parameter, die bei der Erstellung Ihres Bildverarbeitungssystems berücksichtigt werden müssen.

Wir werden zunächst die grundlegenden Parameter rund um die Optik in einem Bildverarbeitungssystem durchgehen, wobei sowohl grundlegende als auch komplexe optische Konzepte behandelt werden und Beispiele zur Lösung von Problemen in der Bildverarbeitung gegeben werden.

Optical & Image Quality Parameters for Machine Vision Optics

Jede dieser Variablen kann als Hebel angesehen werden, die sich auf die Gesamtbildqualität Ihres Bildverarbeitungssystems auswirken. Je nach Ihrer Bildverarbeitungsanwendung muss jede Variable gedrückt oder gezogen werden, um die richtigen Komponenten für Ihr System auszuwählen.

 

Sichtfeld (FoV – Field of View)

Dies ist der grundlegendste Parameter, auf den Sie beim Zusammenstellen eines Systems stoßen, und bezieht sich auf den tatsächlichen Bereich, den Sie sehen möchten. Es ist möglicherweise einfacher, sich das Sichtfeld als den „Rahmen“ vorzustellen, den die Kamera erfasst.

Um zu wissen, welches Sichtfeld für Sie geeignet ist, sollten Sie zunächst über das Objekt nachdenken, das Sie erfassen möchten. Je größer das Objekt ist, das Sie erfassen, desto größer ist das Sichtfeld, das Sie benötigen.

Stellen Sie sich zum Beispiel vor, Sie möchten ein sehr großes Objekt erfassen, bei dem drei interessierende Bereiche weit voneinander entfernt sind.

Eine Möglichkeit wäre, zu versuchen ein Sichtfeld zu implementieren, das breit genug ist, um alle drei Bereiche mit einer Kamera zu sehen, was zu einer geringeren Detailgenauigkeit führen könnte. Um dem entgegenzuwirken, benötigen Sie ein Objektiv und eine Kamera mit einer Auflösung, die hoch genug ist, um den für Ihre Anwendung erforderlichen Detaillierungsgrad beizubehalten.

Alternativ können Sie drei separate Kameras mit jeweils eigenen kleineren und damit genaueren Sichtfeldern verwenden. Der Vorteil dieses Ansatzes besteht darin, dass Kamera und Objektiv aufgrund eines höheren Detaillierungsgrades in dem zu analysierenden Bereich höchstwahrscheinlich leistungsfähigere Ergebnisse erzielen. Der Nachteil ist die Verwendung von drei Systemen, die teurer sind und mehr Zeit für die Einrichtung benötigen.

Um das minimal auflösbare Detail eines Objekts zu ermitteln, muss das Verhältnis des Sichtfelds zur Sensorgröße berechnet werden. Dies ist als Primärvergrößerung (PMAG) des Systems bekannt und kann mit der folgenden Formel berechnet werden:

PMAG Primary Magnification Equation Calculation Algorithm for Machine Vision Optics

Arbeitsabstand (WD – Working Distance)

Der Arbeitsabstand ist der Abstand vom nächsten Punkt des Zielobjekts zur Vorderseite des Objektivs. Dies ist nicht zu verwechseln mit der gesamten Wegstrecke (TT – Total Track), die sich auf die Entfernung vom Objekt zum hinteren Ende Ihres Bildverarbeitungssystems bezieht.

Optical Working Distance Parameter for Machine Vision & Photography

Obwohl der Arbeitsabstand von Natur aus, keine Einschränkung darstellt, kann er sehr wichtig sein für viele Bildverarbeitungsanwendungen. Generell ist zu beachten, extreme Arbeitsabstände (sowohl kurze als auch lange) können sich auf die anderen wichtigen Parameter im Zusammenspiel auswirken.

Wenn beispielsweise ein Bildverarbeitungssystem unter rauen Bedingungen wie extremen Temperaturen, Staub und Schmutz oder ätzenden Substanzen installiert werden soll, wäre ein längerer Arbeitsabstand wünschenswert, um das System zu schützen. Ziel ist es, Kamera und Objektiv weiter von diesen extremen Umgebungsbedingungen zu entfernen, was einen längeren Arbeitsabstand bedeutet. Dies bedeutet natürlich, dass Sie das Sichtfeld in Bezug auf die Vergrößerung berücksichtigen müssen, um das Objekt so klar wie möglich zu erkennen.

Andererseits finden viele Bildverarbeitungsanwendungen in klaustrophobischen Industrieumgebungen mit begrenztem Raum statt und daher muss natürlich ein viel kürzerer Arbeitsabstand verwendet werden. Wenn sich Ihre Arbeitsabstände verringern, werden Kompromisse bei Beleuchtung und Auflösung wirksam und die Kosten können sich dramatisch erhöhen, damit Ihr optisches System die gewünschte Leistung erbringt.

Ein guter Ausgangspunkt ist es, Ihre Kamera im Verhältnis zu ihrer Größe 2-5x vom Objekt entfernt zu platzieren. Dies ermöglicht die wünschenswerte Flexibilität und den Platzbedarf für ein angemessen ausgelegtes System, das die für Ihre Bildverarbeitungsanwendung erforderlichen optischen Leistungen erbringen kann.

 

Sensorauflösung

Dieser Begriff wird häufig verwendet und ist Ihnen vielleicht bekannt. Die Auflösung wird vereinfacht als das kleinste auflösbare Detail definiert, das von einer Kamera und einem Objektiv, die zusammenarbeiten, erfasst wird. Eine Kamera und ein Objektiv haben jeweils ihre jeweiligen nativen Auflösungen.

Sensor Resolution Calculation Equation Pixels Horizontal Vertical Diagram Machine Vision

Die Auflösung einer Kamera hängt vom verwendeten Sensor ab und ist eine einfache Berechnung. Gemessen in Megapixeln ist die Sensorauflösung die Anzahl der horizontalen Pixel multipliziert mit der Anzahl der vertikalen Pixel. Der Sony IMX296-Sensor ist beispielsweise 1440p x 1080p = 1.555.200 Pixel. Dies ist auf 1,6 Megapixel (MP) gerundet.

 

Sensorauflösung = Horizontale Pixel x Vertikale Pixel

 

Wir helfen Ihnen, die richtige Entscheidung zu treffen

Bleiben Sie auf dem Laufenden mit dieser Reihe von Blogs, während wir weiterhin die Optik ins Rampenlicht rücken, die verbleibenden grundlegenden Parameter untersuchen und später Aberrationen, Verzerrungen und eine ultimative Anleitung zur Auswahl des richtigen Objektivs erläutern.

Auf unseren Seiten zu Objektiven und Kameras finden Sie die besten Bildverarbeitungsprodukte auf dem Markt von branchenführenden Marken wie Kowa, VST, Computar, Tamron und Theia.

Weiterlesen

MASCHINENVISION GIBT COMPUTERN DIE KRAFT ZU SEHEN

Mit Machine Vision können Computer Barcodes, Datenmatrixcodes, direkte Teilemarkierungen, optische Zeichenerkennung und optische Zeichenüberprüfung lesen – Erfahren Sie hier mehr über die Computer Vision-Technologie

Erfahren Sie mehr
machine-vision-strip-cta.png