DE19919584A1 - 3D recording method and arrangement - Google Patents

3D recording method and arrangement

Info

Publication number
DE19919584A1
DE19919584A1 DE1999119584 DE19919584A DE19919584A1 DE 19919584 A1 DE19919584 A1 DE 19919584A1 DE 1999119584 DE1999119584 DE 1999119584 DE 19919584 A DE19919584 A DE 19919584A DE 19919584 A1 DE19919584 A1 DE 19919584A1
Authority
DE
Germany
Prior art keywords
array
luminous
structured
receiver
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE1999119584
Other languages
German (de)
Inventor
Klaus Koerner
H Tiziani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE1999119584 priority Critical patent/DE19919584A1/en
Priority to PCT/DE2000/000991 priority patent/WO2000066972A1/en
Priority to DE10081176T priority patent/DE10081176D2/en
Priority to AU43913/00A priority patent/AU4391300A/en
Priority to EP00925063A priority patent/EP1188035A1/en
Publication of DE19919584A1 publication Critical patent/DE19919584A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques

Abstract

The invention relates to a device for detecting objects in a three-dimensional manner. The inventive device comprises at least two illustration systems which are provided with projection lenses facing the object. At least one illustration system is configured as an observation system for observing objects and at least one illustration system is provided with an elementary means that can be moved in front of the projection lens. The elementary image of the elementary means moves through the object space on an image point line. According to the invention, the elementary means is configured as a moveable elementary means with a lateral component in relation to the optical axis of the projection lens. The observation system is arranged along the image point line for observation.

Description

1. Technisches Anwendungsgebiet1. Technical field of application

Das technische Anwendungsgebiet besteht in der Bestimmung der 3D-Form oder 3D-Gestalt von Körpern oder Objekten im Raum oder sogar kompletten Szenen mit mindestens einem Bildaufnehmer in einem optischen Aufnahmesystem. Die dazu notwendige Anordnung wird im weiteren als 3D-Aufnahme-Anordnung und das Verfahren wird als 3D-Aufnahme-Verfahren bezeichnet. Die Anwendung dieser 3D-Aufnahme-Anordnung und dieses Verfahrens erfolgt erstens im Sinne der 3D-Meßtechnik. Als Ergebnis der Berechnung wird aus optisch gewonnenen Signalen die 3D-Punktwolke von Objektoberflächen in einer Szene als digital vorliegender Datensatz mit Bezug zu einem Nullpunkt der 3D-Aufnahme-Anordnung ermittelt. Die errechnete Punktwolke kann beispielsweise in einem CAD-System weiterverarbeitet werden.The technical field of application consists in the determination of the 3D shape or 3D shape of Bodies or objects in the room or even complete scenes with at least one image sensor in an optical recording system. The arrangement required for this is referred to below as 3D recording arrangement and the method is referred to as a 3D recording method. The This 3D recording arrangement and this method are used first in the sense of 3D measurement technology. The result of the calculation is the optically obtained signals 3D point cloud of object surfaces in a scene as a digital data record with reference to determined a zero point of the 3D recording arrangement. The calculated point cloud can can be further processed in a CAD system, for example.

Eine weitere, mögliche meßtechnische Applikation stellt die Positionsbestimmung eines Fahrzeuges im Freien dar, ohne die Notwendigkeit das Fahrzeug durch eine interne oder externe Beleuchtungseinrichtung der 3D-Aufnahme-Anordnung beleuchten zu müssen.Another possible measurement application is the position determination of a vehicle outdoors without the need for an internal or external vehicle To illuminate lighting device of the 3D recording arrangement.

Das zweite Anwendungsgebiet stellt das Gewinnen von 3D-Bildern als Punktwolke von Objektoberflächen in einer Szene im Nah- und im Fernbereich für 3D-Wiedergabe-Geräte und 3D-Wiedergabe-Verfahren dar. Dabei können auch die Farben der Objektoberflächen erfaßt werden. Dieses Verfahren betrifft vor allem den Multimedia- und Fernsehbereich im Studio. Es kann aber auch bei Außenaufnahmen eingesetzt werden.The second area of application is the acquisition of 3D images as a point cloud Object surfaces in a close-up and far-away scene for 3D playback devices and 3D rendering process. The colors of the object surfaces can also be detected. This procedure mainly affects the multimedia and television area in the studio. But it can also be used for outdoor shots.

Weiterhin kann das Verfahren und die Anordnung zur digitalen 3D-Schwarzweiß- und zur digitalen 3D-Farbaufnahme im Nah- und im Fernbereich im Sinne der Fotografie angewendet werden, wobei ein digitaler Datensatz erzeugt wird, der zu einem 3D-Bild weiterverarbeitet werden kann. Furthermore, the method and arrangement for digital 3D black and white and digital 3D color imaging can be used in the near and far range in the sense of photography, whereby a digital data record is generated that can be processed into a 3D image.  

2. Stand der Technik2. State of the art

Die 3D-Form von Oberflächen wird häufig mit Streifen-Triangulationsverfahren vermessen. Dabei wird in der Regel das Objekt oder die Szene unter einem großen Einfallswinkel beleuchtet, beispielsweise zwischen 30° und 60°. Dies führt jedoch häufig zu störenden Abschattungen des Objekts oder von Details von Objektoberflächen in der Szene.The 3D shape of surfaces is often measured using strip triangulation methods. Doing so usually illuminates the object or scene from a large angle of incidence, for example between 30 ° and 60 °. However, this often leads to disturbing shadowing of the object or of Details of object surfaces in the scene.

Es sind vielfältige 3D-Meßanordnungen mit kohärentem Licht bekannt. Der Einfluß des Speckle-Phänomens begrenzt jedoch den Einsatz dieser Verfahren. Dies wurde von H. J. Tiziani in der Arbeit "Automatisierung der optischen Qualitätsprüfung" in Technisches Messen, 55. Jahrgang, Heft 1211988, S. 481-491 auf Seite 488 dargestellt. Es werden auch Interferenzstreifen-Felder für die Streifen-Projektionstechnik eingesetzt. Diese werden durch die Überlagerung kohärenter Planwellen erzeugt und weisen ebenfalls Speckle-Effekte auf, s. Technisches Messen, 62. Jahrgang, Heft 9/1995, S. 328-330. Diese Speckle-Effekte begrenzen die sinnvolle Höhenauflösung häufig auf weniger als 1/40 der effektiven Wellenlänge.A variety of 3D measuring arrangements with coherent light are known. The influence of the However, the speckle phenomenon limits the use of these methods. This was done by H. J. Tiziani in the work "Automation of optical quality inspection" in technical measuring, 55th year, Booklet 1211988, pp. 481-491 on page 488. There will also be interference fringe fields for the Strip projection technology used. These are caused by the overlay of coherent plane waves generates and also have speckle effects, s. Technical measurement, 62nd year, issue 9/1995, Pp. 328-330. These speckle effects often limit the sensible height resolution to less than 1/40 of the effective wavelength.

Bei der herkömmlichen optischen 3D-Messung stellen diskontinuierliche Oberflächen oft ein Problem dar. Beispielsweise können größere Absätze oder Stufen in der Oberfläche des Objektes zu einer Verletzung des Sampling-Theorems führen. Abhilfe schafft hier das Gray-Code-Verfahren, bei dem eine Folge von Binär-Bildern aufprojiziert wird. Zusätzlich werden anschließend - besonders bei höheren Genauigkeitsforderungen - Sinusgitter auf die Objektoberfläche abgebildet, wobei die bekannte Phasenschiebemethode zur Anwendung kommt. Ein Beispiel stellt das Modulare optische 3D-Meßsystem optoTOP der Fa. Breuckmann GmbH in D-88709 Meersburg dar. Weiterhin ist das COMET-500-System der Fa. Steinbichler Optotechnik GmbH in D-83115 Neubeuern zu nennen.In conventional optical 3D measurement, discontinuous surfaces often pose a problem For example, larger paragraphs or steps in the surface of the object can become one Violation of the sampling theorem. The Gray Code process, where a sequence of binary images is projected on. In addition, especially afterwards higher accuracy requirements - sinusoidal grating mapped onto the object surface, the known phase shift method is used. An example is the modular optical 3D measuring system optoTOP from Breuckmann GmbH in D-88709 Meersburg. Furthermore, that is COMET-500 system from Steinbichler Optotechnik GmbH in D-83115 Neubeuern.

Die Firma ABW in D-72636 Frickenhausen bietet programmierbare Linienprojektoren mit bis zu 1280 Linien für das absolut messende Moire-Verfahren an. Projektoren auf LCD-Basis arbeiten noch relativ langsam und der zu beobachtende Streifenkontrast auf dem Objekt ist schlechter als bei Projektoren mit Gitterstrukturen auf Glasplatten.ABW in D-72636 Frickenhausen offers programmable line projectors with up to 1280 Lines for the absolutely measuring Moire method. LCD-based projectors still work relatively slow and the streak contrast to be observed on the object is worse than with projectors with lattice structures on glass plates.

Die Firma Gottfried Frankowski Meßtechnik in D-14513 Teltow bietet die Digitale Lichtprojektion auf der Basis von beleuchteten Mikrospiegeln, Digital Light Mirror Devices, auch als DMD bekannt, an. Es können Gitterbilder mit einer Folgefrequenz von etwa 10 Hz erzeugt und eingelesen werden. Diese Frequenz ist jedoch für die Hochgeschwindigkeits-Bildaufnahme noch nicht ausreichend. Weiterhin werden bei der Messung Flächenelemente gleicher relativer Leuchtdichte innerhalb eines Musters leuchtender Streifen verschoben. Diese Flächenelemente werden nacheinander durch verschiedene beleuchtete Mikrospiegel dargestellt und bilden eine strukturiert leuchtenden Fläche. Die relative Leuchtdichte ist auf die mittlere Leuchtdichte des Umfeldes bezogen. Für die Flächenelemente gleicher relativer Leuchtdichte werden kurze Verschiebungsstrecken, beispielsweise von der Länge von vier oder acht Mikrospiegelabmessungen, realisiert, die einer Streifenperiode in der Ebene des Digital Light Mirror Devices entsprechen. Durch die senkrechte Ausrichtung des Digital Light Mirror Devices zur optischen Achse des Beleuchtungsobjektivs werden die Flächenelemente oder die Orte gleicher Leuchtdichte in einer ebene senkrecht zur optischen Achse des Beleuchtungsobjektivs auf Verschiebungsstrecken verschoben. Dabei entspricht die Verschiebung um einen Streifen einer Änderung der Phase im abgebildeten Streifenfeld um 360°. Dieser Wert ist für die phasenauswertende Streifenprojektionsmeßtechnik auf der Grundlage der Triangulation für die Bestimmung der Punktwolke einer Objektoberfläche geeignet. Jedoch können keine Objekte mit einer in Bezug zur Brennweite des Beleuchtungsobjektivs großen Tiefe vermessen werden, wenn sehr feine Streifen zum Erreichen eines hohen Tiefenauflösungsvermögens abgebildet werden. Der Tiefenmeßbereich ist hierbei durch die Ausdehnung der Öffnungsblende DB des Beleuchtungsobjektivs begrenzt.The company Gottfried Frankowski Meßtechnik in D-14513 Teltow offers digital light projection on the basis of illuminated micro mirrors, digital light mirror devices, also known as DMD. Grid images with a repetition frequency of approximately 10 Hz can be generated and read. However, this frequency is not yet sufficient for high-speed imaging. Furthermore, surface elements of the same relative luminance are shifted within a pattern of luminous stripes during the measurement. These surface elements are represented one after the other by different illuminated micromirrors and form a structured illuminated surface. The relative luminance is related to the mean luminance of the environment. For the surface elements of the same relative luminance, short displacement distances, for example of the length of four or eight micromirror dimensions, are realized, which correspond to a strip period in the plane of the digital light mirror device. Due to the vertical alignment of the digital light mirror device to the optical axis of the lighting lens, the surface elements or the locations of the same luminance are shifted on a plane perpendicular to the optical axis of the lighting lens on displacement paths. The shift by one stripe corresponds to a change in phase in the stripe field shown by 360 °. This value is suitable for the phase-evaluating stripe projection measurement technique based on the triangulation for determining the point cloud of an object surface. However, objects with a great depth in relation to the focal length of the illumination objective cannot be measured if very fine stripes are imaged to achieve a high depth resolution. The depth measurement range is limited here by the expansion of the aperture diaphragm D B of the illumination lens.

Um einen großen Schärfentiefebereich bei der Vermessung von tiefen Objekten zu erreichen, wird bei allen genannten Verfahren in der Regel mehr oder weniger stark abgeblendet, sowohl bei der Beleuchtung als auch bei der abbildung der Objektoberfläche. Es wird meistens mit kleinen Objektivöffnungen, beispielsweise mit einer relativen Lichtstärke von 1 : 8 bis 1 : 22 gearbeitet. Dies erfordert starke Lichtquellen, beispielsweise in Form von Blitzlampen oder starken Halogenlampen, oder es ist nur die Ausleuchtung vergleichsweise kleiner Felder möglich, beispielsweise 200 mm × 200 mm bis 500 mm × 500 mm.In order to achieve a large depth of field when measuring deep objects, at All of the above methods are usually dimmed to a greater or lesser extent, both in the case of the Illumination as well as in the illustration of the object surface. It mostly comes with small ones Lens openings, for example, worked with a relative light intensity of 1: 8 to 1:22. This requires strong light sources, for example in the form of flash lamps or strong halogen lamps, or only relatively small fields can be illuminated, for example 200 mm × 200 mm to 500 mm × 500 mm.

Auf dem 2. ABW-Workshop 3-DBVITAE vom 25.-26.1.1996 wurde von R. Lampalzer, G. Häusler und Schielzeth auf den Vorteil einer großen Beleuchtungsapertur zur Verringerung des Speckle-Rauschens durch die Gewinnung räumlicher Inkohärenz hingewiesen.At the 2nd ABW workshop 3-DBVITAE from January 25-26, 1996, R. Lampalzer, G. Häusler and Schielzeth on the advantage of a large lighting aperture to reduce the Speckle noise indicated by the acquisition of spatial incoherence.

In der Vergangenheit kam es durch die Verwendung von zwei Kameras zu Problemen mit der lateralen Genauigkeit bei der Generierung der 3D-Punktwolke. Neue Entwicklungen, beispielsweise von der Firma gom in D-38106 in Braunschweig, führten zu einer Serie von 3D-Sensoren auf der Basis der Projektion von unterschiedlichen Streifenmustern und der Erfassung mit zwei Kameras aus unterschiedlichen Blickwinkeln. Jedoch es bleibt das Problem einer begrenzten Tiefenausdehnung des Meßraumes bestehen, wenn zum Erreichen einer hohen Tiefenauflösung Gitter mit einer kleinen Gitterperiode abgebildet werden.In the past there were problems with using two cameras lateral accuracy in the generation of the 3D point cloud. New developments, for example from the company gom in D-38106 in Braunschweig, led to a series of 3D sensors on the Based on the projection of different stripe patterns and the acquisition with two cameras different angles. However, the problem of limited depth expansion remains of the measuring room if, to achieve a high depth resolution, grids with a small one Grid period are mapped.

Ein neues Verfahren mit drei Kameras mit parallel angeordneten optischen Achsen und einem geeigneten Basisabstand löst das Problem der Erfassung der 3D-Szene durch die Auswertung stereoskopischer Bilder mittels Hochleistungsrechner, s.VDI-Nachrichten Nr. 21 vom 22. Mai 1998, Seite 15, "Reise in die strahlende Ruine". Diese so gewonnenen 3D-Informationen werden zum Steuern eines Roboters, des Roboter "Pioneer", in der Tschernobyl-Ruine und zur 3D-Erfassung der baulichen Gegebenheiten und des Umfeldes angewendet. Nur mit Hochleistungs-Rechentechnik ist eine echtzeitnahe 3D-Bildrekonstruktion möglich. Das Bauvolumen dieser Anordnung ist durch die drei Kameras vergleichsweise groß.A new process with three cameras with optical axes arranged in parallel and one suitable base distance solves the problem of capturing the 3D scene through the evaluation stereoscopic images using high-performance computers, see VDI News No. 21 of May 22, 1998, Page 15, "Journey to the Radiant Ruin". The 3D information thus obtained becomes the Control a robot, the robot "Pioneer", in the Chernobyl ruin and for 3D acquisition of the structural conditions and the environment applied. Only with high-performance computing technology real-time 3D image reconstruction possible. The build volume of this arrangement is through the three Cameras comparatively large.

Im Tagungsband "Optische Formerfassung" GMA-Bericht 30, DGZfP - VDINDE-GMA Fachtagung 28./29. April 1997, Langen, Bundesrepublik Deutschland, S. 199-209, wird von den Autoren, R. Schwarte, H. Heinol, z.Xu, J. OIk und W. Tai darauf hingewiesen, daß für die schnelle Formerfassung im ca. 20 cm- bis 50 m-Bereich kein präzises, flexibles und kostengünstiges Verfahren zur Verfügung steht. Diese Aussage gilt besonders für den Bereich von 20 cm bis 2 m, da hier auch die Laufzeitverfahren nur eine Tiefen-Meßgenauigkeit von 2 mm bis 20 mm aufweisen. Die in oben genannter Veröffentlichung dargestellte technische Lösung auf der Basis eines Photomischdetektors PMD wird als gegenwärtig noch nicht geeignet angesehen, im genannten Nahbereich eine hohe Tiefen-Genauigkeit zu realisieren. Auch wird der technische Aufwand z. Z. noch als recht hoch eingeschätzt. In the conference proceedings "Optical form registration" GMA report 30, DGZfP - VDINDE-GMA conference 28/29 April 1997, Langen, Federal Republic of Germany, pp. 199-209, by the authors, R. Schwarte, H. Heinol, z.Xu, J. OIk and W. Tai noted that for quick shape detection In the approx. 20 cm to 50 m range, no precise, flexible and inexpensive method is available stands. This statement applies particularly to the range from 20 cm to 2 m, since here too Runtime methods only have a depth measurement accuracy of 2 mm to 20 mm. The one in above Technical publication presented technical solution based on a photonic mixer PMD is currently not considered suitable, a high one in the mentioned close range Realize depth accuracy. The technical effort z. Currently still quite high assessed.  

Im o. g. Tagungsband "Optische Formerfassung" wird auf den Seiten 211-222, von den Autoren W. Schreiber, V. Kirchner und G. Notni das Konzept für ein selbsteinmessendes, optisches 3D-Meßsystem auf der Basis strukturierter Beleuchtung dargestellt. Es gestattet, ausgehend von der Erfahrungen in der Photogrammetrie, die gleichzeitige Bestimmung von Systemparametern und Koordinaten aus den Meßwerten. Es wird eine hohe Meßgenauigkeit für die Objektkoordinaten mit einem relativen Fehler von bis zu 10-5 erreicht. Dazu muß jedoch eine mehrmalige Meßwertaufnahme erfolgen, wobei Gray-Code-Sequenzen und Streifen mit sinusähnlichem Profil in Verbindung mit Phasenschiebechniken eingesetzt werden. Dies bedeutet einen erheblichen Zeitaufwand für die Durchführung der Messung aufgrund des notwendigen Einsatzes mehrerer Gitter in einer Meßfolge. Auch muß das Objekt, aufeinanderfolgend von mehreren Projektoren, in unterschiedlichen Positionen oder vom gleichen Projektor aus in verschiedenen Richtungen beleuchtet werden. Auch dies ermöglicht keine hochdynamische Messung oder eine echtzeitnahe 3D-Erfassung von Objekten.In the above-mentioned conference volume "Optical shape detection" on pages 211-222, by the authors W. Schreiber, V. Kirchner and G. Notni, the concept for a self-measuring, optical 3D measuring system based on structured lighting is presented. Based on the experience in photogrammetry, it allows the simultaneous determination of system parameters and coordinates from the measured values. A high measuring accuracy for the object coordinates is achieved with a relative error of up to 10 -5 . To do this, however, the measured value must be recorded several times, using gray code sequences and strips with a sinusoidal profile in conjunction with phase shifting techniques. This means that a considerable amount of time is required to carry out the measurement due to the need to use several gratings in one measurement sequence. The object must also be illuminated in succession from several projectors in different positions or from the same projector in different directions. This also does not allow highly dynamic measurement or real-time 3D detection of objects.

Die Grundzüge dieses optischen Verfahrens sind unter dem Titel "Optische Dreikoordinatenmessung mit strukturierter Beleuchtung" in Technisches Messen, 62. Jahrgang, Heft 9/1995, S. 321-329 von W. Schreiber, J. Gerber und R. Kowarschik dargestellt. Der Referenzpunkt für das Koordinatensystem liegt dabei im Bereich des Objektes. In Bild 2 dieser letztgenannten Veröffentlichung wird eine Anordnung mit parallelen Achsen für das Beleuchtungs- und das Abbildungsobjektiv und einer zweiseitig zentralperspektivischen Abbildung dargestellt. Jedoch läßt sich abgeschätzen, daß sich hierbei aufgrund des angegebenen Apparates und des mathematischen Modells die Umsetzung der Auswerte-Algorithmen in straight forward-Algorithmen sehr schwierig gestaltet, so daß eine Echtzeit-Auswertung mittels spezieller Hochgeschwindigkeits-Prozessoren auf diesem Weg kaum möglich ist.The basic principles of this optical method are under the title "Optical three-coordinate measurement with structured lighting "in Technisches Messen, 62nd year, issue 9/1995, pp. 321-329 by W. Schreiber, J. Gerber and R. Kowarschik. The reference point for the coordinate system lies in the area of the object. Figure 2 of this latter publication shows a Arrangement with parallel axes for the lighting and imaging lens and one two-sided central perspective illustration. However, it can be estimated that based on the specified apparatus and the mathematical model, the implementation of the Evaluation algorithms in straight forward algorithms designed very difficult, so that a Real-time evaluation using special high-speed processors hardly possible in this way is possible.

Da die Kamera und der Projektor räumlich getrennt sind, ist die Realisierung eines kompaktes 3D-Meßmoduls nicht möglich.Since the camera and the projector are spatially separated, the implementation is compact 3D measuring module not possible.

Die Daimler-Benz Aerospace stellte 1997 die 2. Generation einer Laserkamera auf der Basis der Laufzeitmessung des Lichtes dar. Die Meßgenauigkeit liegt nur bei etwa 2% des Meßbereiches und wird damit für meßtechnische Applikationen im Nahbereich als ungeeignet angesehen. Die Gewinnung der Farbinformation von der Szene gilt hierbei als praktisch ausgeschlossen.In 1997, Daimler-Benz Aerospace introduced the 2nd generation of a laser camera based on the Runtime measurement of the light. The measuring accuracy is only about 2% of the measuring range and is therefore considered unsuitable for metrological applications at close range. The Obtaining the color information from the scene is considered practically impossible.

In der Arbeit "General approach for the description of optical 3D-measuring system" der Autoren P. Andrä, W. Jüptner, W. Kebbel und W. Osten in SPIE Vol. 3174, S. 207-215 wird eine allgemeine Beschreibung optischer Methoden für die 3D-Koordinatenmessung gegeben. Die Ableitung von geeigneten Algorithmen für die Hochgeschwindigkeitsauswertung von Bildserien für die 3D-Messung ist hierbei nicht gegeben, stellte aber auch nicht das Ziel dieser Arbeit dar.In the work "General approach for the description of optical 3D-measuring system" by the authors P. Andrä, W. Jüptner, W. Kebbel and W. Osten in SPIE Vol. 3174, pp. 207-215 becomes a general Description of optical methods for 3D coordinate measurement given. Deriving from suitable algorithms for high-speed evaluation of image series for 3D measurement is not given here, but was also not the goal of this work.

Eine 3D-Echtzeitkamera wurde im Poster P28 der 99. Tagung der Deutschen Gesellschaft für angewandte Optik vom 2.6. bis 6.6.1998 in Bad Nenndorf von G. Bohn, L. Cloutot, G. Häusler, M. Hernandez, C. Horneber, R. Lampalzer, S. Seeger unter Einsatz eines ferroelektrischen Displays vorgestellt. Dieses ferroelektrische Display ist in 0,1 ms umschaltbar und wird in Verbindung mit einer astigmatischen Abbildung zur Generierung von sinusförmigen Streifen fester Ortsfrequenz verwendet. Die Meßzeit des Prototypen beträgt zur Zeit 320 ms. Eine absolute Kodierung des Raumes mittels strukturiertem Licht ist damit bisher jedoch nicht möglich. Die erreichbare Genauigkeit ist gegenwärtig auf etwa 1/2000 des Meßbereiches begrenzt.A 3D real-time camera was used in poster P28 of the 99th conference of the German Society for applied optics from 2.6. until June 6, 1998 in Bad Nenndorf by G. Bohn, L. Cloutot, G. Häusler, M. Hernandez, C. Horneber, R. Lampalzer, S. Seeger using a ferroelectric display presented. This ferroelectric display can be switched in 0.1 ms and is used in conjunction with a astigmatic mapping used to generate sinusoidal strips of fixed spatial frequency. The measurement time of the prototype is currently 320 ms. An absolute coding of the room by means of  So far, structured light has not been possible. The accuracy that can be achieved is present limited to about 1/2000 of the measuring range.

In der Patentschrift WO9214118 wird eine 3D-Meßanordnung beschrieben, die als "konfokal" bezeichnet wird, die den Kontrast eines auf die Objektoberfläche projizierten Streifenmusters auswertet. Dabei werden sowohl das Beleuchtungs- als auch das Abbildungsobjektiv oder ein gemeinsames Objektiv jeweils auf die gleiche Ebene im Raum des Objektes fokussiert. Es ist jedoch keine Möglichkeit angegeben, für Objektabstände im Dezimeter- und im Meterbereich eine hohe Genauigkeit zu erzielen. Mit der Auswertung des Kontrastes des projizierten Streifenmusters läßt sich bei mittleren und großen Objektabständen mit handelsüblichen Projektionsobjektiven mit einem Öffnungsblendendurchmesser von bis zu 30 mmbekannterweise keine hohe Genauigkeit in der Tiefe erreichen. Dabei wird ein beleuchtetes Transmissionsgitters auf einer Verschiebungsstrecke, beispielsweise von der Länge von einigen Millimetern verschoben. Dies erfolgt in Richtung parallel zur optischen Achse des Beleuchtungsobjektivs, um die Lage der Schärfefläche im Raum des Objektes zu verändern, im Sinne eines Scannens. Dadurch ändert sich auch die Streifenbreite im abgebildeten Streifenfeld. Zusätzlich wird durch einen Piezo-Aktuator, der mit dem beleuchteten Gitter verbunden ist, das beleuchtete Gitter in Schritten der halben Gitterkonstante gestellt. So detektieren die Elemente eines Bildempfängers, die zu diesen Gitterelementen optische konjugiert liegen, eine Hell-Dunkel-Verteilung. Die Größe der Amplitude des entstehenden Signals wird zur Bestimmung der Kontrastfunktion benutzt. Das Bestimmung des Ortes des Maximums der Kontrastfunktion über der z-Position des beleuchteten Gitters dient der Bestimmung der z-Position eines jeden Objektpunktes. Diese Methode der Bestimmung der z-Position von Objektpunkten für die Gewinnung der Punktwolke ermöglicht jedoch keine sehr hohe Tiefenauflösung.Patent specification WO9214118 describes a 3D measuring arrangement which is called "confocal" is referred to as the contrast of a striped pattern projected onto the object surface evaluates. Both the lighting and the imaging lens or a common lens focused on the same plane in the space of the object. However, it is no possibility specified, a high for object distances in the decimeter and meter range Achieve accuracy. With the evaluation of the contrast of the projected stripe pattern can be for medium and large object distances with standard projection lenses with a It is known that aperture diameters of up to 30 mm are not very accurate in depth to reach. An illuminated transmission grating is placed on a displacement path, for example, shifted by the length of a few millimeters. This is done in the direction parallel to optical axis of the lighting lens to the position of the focus in the space of the object to change, in the sense of a scan. This also changes the stripe width in the picture Strip field. In addition, a piezo actuator connects to the illuminated grille is, the illuminated grid is placed in steps of half the grid constant. This is how the elements are detected of an image receiver which are optically conjugated to these grating elements, one Light-dark distribution. The size of the amplitude of the resulting signal is used to determine the Contrast function used. Determining the location of the maximum of the contrast function over the The z position of the illuminated grating is used to determine the z position of each object point. This method of determining the z-position of object points for the extraction of the point cloud does not allow a very high depth resolution.

Zur Verbesserung der lateralen Auflösung bei der Abbildung der Objektoberfläche kann gemäß der Patentschrift WO 92 14 118 der Empfänger als Zeilen- oder Matrix-Empfänger auch in Schritten unterhalb des mittleren Bildelementabstandes, also des Pixel Pitch', lateral bewegt werden. Dies ist keine mit der Verschiebung des Bildempfängers in z-Richtung, also in achsparalleler Richtung, gekoppelte Bewegung. Die laterale Bewegung wird allein mit dem Ziel durchgeführt, die laterale Auflösung bei der Aufnahme der Objektoberflächen zu erhöhen.To improve the lateral resolution when imaging the object surface, according to the Patent WO 92 14 118 of the recipient as a line or matrix receiver also in steps below the average pixel distance, i.e. the pixel pitch, are moved laterally. This is none with the displacement of the image receiver in the z-direction, i.e. in the axis-parallel direction, coupled movement. The lateral movement is carried out solely with the aim of the lateral one Increase resolution when recording the object surfaces.

Allgemein läßt sich feststellen, daß in der phasenauswertenden Streifenprojektionsmeßtechnik auf der Grundlage der Triangulation stets die Öffnungsblende oder die Pupille des Beleuchtunggsobjektivs von der Öffnungsblende oder Pupille des Abbildungsobjektivs räumlich getrennt ist. Die Öffnungsblende mit einem Zentrum kann im Objektraum des körperlich vorhanden sein oder als Bild der Öffnungsblende. Das Bild der Öffnungsblende wird als Pupille bezeichnet. Der Abstand d der Blenden- oder Pupillenzentren im Raum des Objektes kann 5 mm, aber auch durchaus auch einen Meter betragen.In general, it can be stated that in the phase-evaluating fringe projection measuring technique on the The triangulation is always based on the aperture diaphragm or the pupil of the lighting lens is spatially separated from the aperture diaphragm or pupil of the imaging lens. The Aperture with a center can be physically present in the object space or as an image the opening panel. The image of the aperture diaphragm is called the pupil. The distance d the Aperture or pupil centers in the space of the object can be 5 mm, but it can also be one Meters.

Es sind Arrays mit vertikal abstrahlenden Laserdioden bekannt geworden, die als ein adressierbares, strukturiert leuchtendes Array anzusehen sind. Die Elemente, hier die vertikal abstrahlenden Laserdioden, sind einzeln elektronisch in ihrer Leuchtdichte, bzw. Helligkeit steuerbar. Arrays with vertically radiating laser diodes have become known as an addressable, structured illuminated array can be seen. The elements, here the vertically radiating ones Laser diodes can be individually controlled electronically in their luminance or brightness.  

3. Mit der Erfindung gelöste Aufgabe3. Problem solved with the invention

Die Erfindung löst die Aufgabe der flächenhaften Prüfung der 3D-Gestalt technischer und natürlicher Oberflächen von Objekten im Raum und Szenen mit einem absoluten Bezug zur 3D-Aufnahme-Anordnung. Die Gestalt von Objektoberflächen in einer Szene kann mit hoher Meßgenauigkeit in der Tiefe und mit hoher Geschwindigkeit gemessen werden.The invention solves the task of testing the 3D shape in a more technical and natural way Surfaces of objects in space and scenes with an absolute reference to 3D recording arrangement. The shape of object surfaces in a scene can be high Measuring accuracy can be measured in depth and at high speed.

Weiterhin wird die benötigte Lichtleistung für die Ausleuchtung von Objektoberflächen in einer Szene zum Teil stark reduziert, bzw. es kann die Bildaufnahmefrequenz bei hoher Lichtleistung erhöht werden. Durch das Auswerteverfahren wird eine hohe Auflösung der effektiven Wellenlänge in der Tiefe erreichbar.Furthermore, the light output required for illuminating object surfaces in a scene sometimes greatly reduced, or the image recording frequency can be increased with high light output will. The evaluation method ensures a high resolution of the effective wavelength in the Depth attainable.

Technisch wird die Prüfung der Oberflächengestalt von Werkstücken des Maschinenbaus, des Fahrzeugbaus und auch der Luft- und Raumfahrt weiter verbessert. Damit ist die Applikation in der automatisierten Produktion, in der Robotik, im Bauwesen, in der Medizin, beispielsweise bei der geometrischen Vermessung von Menschen, biologischen Objekten und auch im künstlerischen Bereich bei Plastiken oder Stuckwerken gegeben.Technically, the examination of the surface shape of workpieces in mechanical engineering, Vehicle construction and also the aerospace industry further improved. The application is now in the automated production, in robotics, in construction, in medicine, for example in geometric measurement of people, biological objects and also in artistic Area given for plastics or stucco.

Weiterhin wird die Aufgabe der Hohlraum- und der Innenraum-Inspektion gelöst. Labyrinthe in unterschiedlicher Größe und auch verstrahlte oder kontaminierte Innenräume, die dem Menschen aufgrund von ernsthaften gesundheitlichen Gefahren oder aufgrund der geringen Abmessungen nicht zugänglich sind, können durch Roboter begangen werden, die mit einer oder mehreren 3D-Aufnahme-Anordnungen ausgerüstet sind. Dabei kann es sich um rollende, schreitende, saugende, schwimmende, fliegende, kriechende und krabbelnde Roboter handeln. Auch ist der Unterwassereinsatz für die Schiffswrack-Inspektion mit der 3D-Aufnahme-Anordnung grundsätzlich möglich.Furthermore, the task of cavity and interior inspection is solved. Labyrinths in different sizes and also contaminated or contaminated interiors that humans due to serious health risks or due to the small dimensions are accessible, can be committed by robots using one or more 3D recording arrangements are equipped. It can be rolling, striding, robots sucking, swimming, flying, crawling and crawling. The is too Basically underwater use for shipwreck inspection with the 3D recording arrangement possible.

Auch die elektronische Unterstützung von sehbehinderten Menschen zur Orientierung im Raum ist mit einer miniaturisierten 3D-Aufnahme-Anordnung möglich.Electronic support for visually impaired people for orientation in the room is also included a miniaturized 3D recording arrangement possible.

Bei Recyclingprozessen ist eine Möglichkeit der automatisierten Demontage von Altgeräten, alten Karosserien sowie die Trennung von Abfallprodukten auch in einer für den Menschen gefährlichen Umgebung gegeben.In recycling processes, automated dismantling of old devices is one option Bodies as well as the separation of waste products also in a dangerous for humans Given environment.

Das unterschiedliche Reflexionsvermögen von technischen Oberflächen, welches beispielsweise durch eine ausgeprägte Textur verursacht wird, kann kompensiert werden.The different reflectivity of technical surfaces, which for example caused by a pronounced texture can be compensated.

Die Erfindung ermöglicht das schnelle und kontinuierliche Erfassen der Punktwolke von Objekten und Szenen durch aktive Beleuchtung mittels strukturiertem Licht und die schnelle, praktisch gleichzeitige Erfassung von selbstleuchtenden oder künstlich oder natürlich beleuchteten Objekten und Szenen mittels einer einzigen 3D-Aufnahme-Anordnung. Die schnelle und kontinuierliche Erfassen der Punktwolke von Objekten und Szenen kann bei Verwendung geeigneter Hardware und Software im Videotakt erfolgen. The invention enables the point cloud of objects and to be recorded quickly and continuously Scenes through active lighting using structured light and the fast, practically simultaneous Detection of self-illuminating or artificially or naturally illuminated objects and scenes using a single 3D recording arrangement. The fast and continuous detection of the Point cloud of objects and scenes can be created using suitable hardware and software Video clock.  

4. Erreichte Verbesserungen und Vorteile gegenüber dem Stand der Technik4. Improvements and advantages achieved compared to the prior art

Die Erfindung ermöglicht die schnelle Erfassung und Prüfung der 3D-Gestalt von Körpern in Szenen mit großer Tiefenausdehnung in Bezug zu deren Ausdehnung, vorzugsweise mit Abmessungen im Bereich oberhalb eines Millimeters.The invention enables the rapid acquisition and testing of the 3D shape of bodies in scenes with great depth in relation to their extent, preferably with dimensions in Area above one millimeter.

Die Beleuchtung des Objektes erfolgt unter einem vergleichsweise geringen Triangulationswinkel, beispielsweise um 10° oder kleiner. Die bei der Erfassung räumlicher Strukturen störenden Lichtschatten aufgrund eines relativ großen Triangulationswinkels von 30° bis beispielsweise 60° werden so weitgehend vermieden. Der in seiner 3D-Form zu erfassende Körper oder die gesamte Szene stehen vorzugsweise senkrecht zur optischen Achse des Aufnahmeobjektivs. Das ermöglicht, aufgrund der optimalen Abbildungsbedingungen eine hohe laterale Auflösung und den Einsatz tomographischer oder tiefenscannender Verfahren. Die 3D-Punktwolke besitzt einen absoluten geometrischen Bezug zu einem Nullpunkt der 3D-Aufnahme-Anordnung.The object is illuminated at a comparatively small triangulation angle, for example by 10 ° or less. The disturbing in the detection of spatial structures Light shadows due to a relatively large triangulation angle from 30 ° to 60 °, for example are largely avoided. The body to be recorded in its 3D form or the whole The scene is preferably perpendicular to the optical axis of the taking lens. This allows, due to the optimal imaging conditions, a high lateral resolution and use tomographic or depth scanning method. The 3D point cloud has an absolute geometric reference to a zero point of the 3D recording arrangement.

Außerdem können nichttechnische Objekte in ihrer räumlichen Struktur erfaßt werden, wobei der Raum, in welchem sich die Objekte befinden, in unterschiedlichen Tiefen zeitlich nacheinander strukturiert beleuchtet wird. Bei entsprechend hoher Dynamik der für die 3D-Aufnahme eingesetzten Komponenten können auch sich bewegende Objekte und Szenen, einschließlich Personen und Tiere, aufgenommen werden. Dabei sind grundsätzlich mehrere 3D-Aufnahme-Anordnungen gleichzeitig einsetzbar, und es kann die Farbe der Objektpunkte bei Verwendung von farbtüchtigen Bildaufnehmern verarbeitet werden. Eine weitere Verbesserung stellt die deutliche Erhöhung der Auswertegeschwindigkeit bei der 3D-Erfassung dar. Es besteht die technische Möglichkeit, die 3D-Punktwolke des Objektes oder der Szene im Video-Takt zur Verfügung zu stellen.In addition, non-technical objects can be recorded in their spatial structure, the Space in which the objects are located at different depths one after the other is illuminated in a structured way. With a correspondingly high dynamic of those used for 3D recording Components can also include moving objects and scenes, including people and animals, be included. There are basically several 3D recording arrangements at the same time can be used, and it can change the color of the object points when using color Image recorders are processed. Another improvement is the significant increase in Evaluation speed in the 3D acquisition. There is the technical possibility that To provide a 3D point cloud of the object or scene in video rhythm.

Die Anwendung der Erfindung ermöglicht die nahezu vollständige Ausnutzung der hohen Leistungsfähigkeit optischer Abbildungsysteme für die Prüfung der 3D-Oberflächengestalt. Die Realisierung einer hohen Beleuchtungsapertur sichert ein geringes Speckle-Rauschen in den Pixeln der Kamera.The application of the invention enables the almost complete utilization of the high Efficiency of optical imaging systems for the examination of the 3D surface shape. The Realization of a high illumination aperture ensures a low speckle noise in the pixels the camera.

Andererseits können komplette Szenen mit bewegten Objekten echtzeitnah als 3D-Szenen aufgenommen werden. Die Grenze für das erfaßbare Volumen stellt die verfügbare Lichtenergie, die Lichtstärke der verwendeten Objektive sowie die photometrische Empfindlichkeit der verwendeten Bildempfänger dar. Der in der Tiefe erfaßbare Raum kann bei geeigneter Beleuchtung durchaus bis zu 20 m betragen. Die Begrenzung erfolgt letztlich durch das Signal-Rausch-Verhältnis im Lichtempfänger bzw. im Bildempfänger.On the other hand, complete scenes with moving objects can be real-time as 3D scenes be included. The limit for the detectable volume is the available light energy Luminous intensity of the lenses used and the photometric sensitivity of the lenses used Image receivers. The room can be recorded in depth with suitable lighting up to 20 m. The limit is ultimately due to the signal-to-noise ratio in the Light receiver or in the image receiver.

Durch die zusätzliche Erfassung von selbstleuchtenden Objekten und Szenen, beispielsweise im Hintergrund eines künstlich beleuchteten Objektes, können Objektoberflächen in einer Szene von einem Nahpunkt bis zur Unendlich-Position in einem Aufnahmevorgang in Echtzeit und in Farbe aufgenommen werden, wobei die 3D-Daten als Punktwolke berechnet werden können, so daß ein 3D-Datensatz zur Verfügung steht. Through the additional detection of self-illuminating objects and scenes, for example in the Background of an artificially illuminated object, object surfaces can be in a scene from a near point to infinity in one shot in real time and in color are recorded, the 3D data can be calculated as a point cloud, so that a 3D data set is available.  

5. Grundzüge des Lösungsweges5. Outlines of the solution

Es werden die Grundzüge des Verfahrens und der Anordnung beschrieben. Mittels einer transmissiven oder reflektierenden, gerasterten Struktur mit mehreren Maxima und Minima der Transmission oder Reflexion und einer Strahlungsquelle wird ein strukturiert leuchtendes Array mit lokalen Extrema der Leuchtdichte erzeugt. Diese gerasterte Struktur wird im weiteren als strukturiert leuchtendes Array bezeichnet. Dem strukturiert leuchtenden Array ist mindestens ein möglichst hochgeöffnetes Beleuchtungsobjektiv mit einer positiven Brennweite zu dessen Abbildung nachgeordnet. So entsteht durch die Abbildung des strukturiert leuchtenden Arrays im Objektraum auf dessen Oberfläche eine strukturierte Beleuchtung.The basic features of the method and the arrangement are described. By means of a transmissive or reflective, rastered structure with multiple maxima and minima of Transmission or reflection and a radiation source is a structured luminous array with local extremes of luminance. This screened structure is referred to below as structured luminous array. The structured illuminated array is at least one possible highly open lighting lens with a positive focal length for imaging subordinate. This is how the structured, luminous array appears in the object space the surface of which is structured lighting.

Grundsätzlich kann das strukturiert leuchtende Array auch selbstleuchtend sein und lokale Extrema der Leuchtdichte aufweisen.In principle, the structured, luminous array can also be self-luminous and local extremes the luminance.

Zu dem erfinderischem Zweck ist bei der Abbildung des strukturiert leuchtenden Arrays in die Tiefe des Objektraumes eine möglichst geringe Ausdehnung des Schärfebereiches realisiert, so daß die räumlich strukturierte Beleuchtung sich mehr in einem scheibenförmigen Volumen befindet. Zum Beleuchtungsobjektiv ist mindestens ein Objektiv zur Abbildung des Objektes oder der Szenen, das Abbildungsobjektiv angeordnet. Beleuchtungs- und Abbildungsobjektiv sind vorzugsweise von gleicher Bauart und weisen somit auch die gleiche Brennweite auf. Auch fallen die Brennebenen der beiden Objektive im Objektraum vorzugsweise zusammen und die beiden Objektive sind vorzugsweise in geringem Abstand voneinander angeordnet mit vorzugsweise parallelen Achsen. Gegebenfalls können die Linsen sogar in einem gemeinsamen Gehäuse untergebracht sein.For the inventive purpose, the structured, luminous array is depicted in depth the object space realizes the smallest possible extent of the focus area, so that the spatially structured lighting is more in a disc-shaped volume. To the Illumination lens is at least one lens for imaging the object or the scenes Imaging lens arranged. Illumination and imaging lens are preferably the same Construction and therefore have the same focal length. The focal planes of the two also fall Lenses in the object space are preferably together and the two lenses are preferably in a small distance apart with preferably parallel axes. If necessary the lenses can even be housed in a common housing.

Die Objektive weisen vorteilhafterweise ein großes Bildfeld auf. Das Objektiv sollte jeweils in einem großen Tiefenbereich gut korrigiert sein. Durch die Koinzidenz der Brennebenen im Objektraum können die Objektive stets auf die gleiche Objekt- und Bildebene eingestellt werden und bilden dann durch den geringen Abstand der Objektivachsen in einem Bereich, vorzugsweise mit einem Abstand deutlich unterhalb des einhundertfachen Pupillendurchmessers des Beleuchtungsobjektivs - typisch ist der dreifache bis zehnfache Pupillendurchmesser - zumindest einen identischen Teil des Objektfeldes im Objektraum, in der Regel verkleinernd, in den Array-Raum ab. In diesem Raum bestehen getrennte Bildfelder, jedoch in einer vorzugsweise gemeinsamen Ebene, die vorzugsweise senkrecht auf der optischen Achse steht. Die Schärfeflächen der beiden Objektive im Objektraum fallen vorzugsweise in einem möglichst großen Bereich zusammen.The lenses advantageously have a large image field. The lens should be in one large depth range should be corrected well. Through the coincidence of the focal planes in the object space the lenses can always be set to the same object and image level and then form due to the small distance between the lens axes in one area, preferably at a distance well below the hundredfold pupil diameter of the illumination lens - is typical three to ten times the pupil diameter - at least an identical part of the object field in the object space, usually scaling down, into the array space. There are separate ones in this room Image fields, but in a preferably common plane, which is preferably perpendicular to the optical axis. The focus areas of the two lenses in the object space preferably fall into the largest possible area.

Das Abbildungsobjektiv weist im Array-Raum einen vorzugsweise telezentrischen Strahlengang im strengen Sinne auf, d. h. die Austrittspupille liegt sehr weit vom Objektiv entfernt, beispielsweise um 100 m. Dagegen fallen objektseitig der Brennpunkt und das Zentrum der Eintrittspupille zusammen. Das Beleuchtungsobjektiv weist im Array-Raum vorzugsweise einen ebenfalls gut korrigierten telezentrischen Strahlengang auf. Es ist jedoch auch grundsätzlich möglich, daß dieses Beleuchtungsobjektiv im Array-Raum einen parallelen Strahlengang mit einer dezentrierten Eintrittspupille aufweist.The imaging lens has a preferably telecentric beam path in the array space strict sense, d. H. the exit pupil is very far from the lens, for example around 100 m. In contrast, the focal point and the center of the entrance pupil coincide on the object side. The illumination lens preferably has a likewise well corrected one in the array space telecentric beam path. However, it is also possible in principle that this Illumination lens in the array space a parallel beam path with a decentered Has entrance pupil.

In der Bildebene des Abbildungsobjektivs ist ein weiteres Array, das Empfänger-Array angeordnet. Auch dieses Array befindet sich vorzugsweise in einem telezentrischen Strahlengang. Dieses Empfänger-Array kann ein gerasterter Bildempfänger, beispielsweise eine Empfänger-Matrix oder aber auch ein mikrooptisches Array sein. Das mikrooptische Array in der Bildebene des Beleuchtungsobjektivs ist vorzugsweise ein Mikrolinsen-Array aus diffraktiven oder refraktiven Elementen.Another array, the receiver array, is arranged in the image plane of the imaging lens. This array is also preferably located in a telecentric beam path. This Receiver array can be a rastered image receiver, for example a receiver matrix or  but also be a micro-optical array. The micro-optical array in the image plane of the Illumination objective is preferably a microlens array made of diffractive or refractive Elements.

Die Telezentrie des Abbildungsobjektiv im Array-Raum sichert, daß beim Bewegen des Empfänger-Arrays parallel zur Achse des Abbildungsobjektivs, also in der üblichen Notation in z-Richtung - hier die zA-Richtung, die Abbildungsstrahlen eine feste Position zu den Elementen des Empfänger-Arrays beibehalten, also die Abbildungsstrahlen nicht lateral auswandern. Im Objektraum weisen das Beleuchtungs- und das Abbildungsobjektiv dagegen einen vorzugsweise zentralperspektivischen Strahlengang auf, um einen großen Raumbereich erfassen zu können.The telecentricity of the imaging lens in the array space ensures that when the receiver array is moved parallel to the axis of the imaging lens, i.e. in the usual notation in the z direction - here the z A direction, the imaging beams have a fixed position with respect to the elements of the receiver -Arrays are maintained, i.e. the imaging beams do not migrate laterally. In the object space, on the other hand, the illumination and the imaging lens have a preferably central perspective beam path in order to be able to capture a large area.

Im Fall der Verwendung eines Mikrolinsen-Arrays im Abbildungsstrahlengang als Empfänger-Array sind dem Mikrolinsen-Array weitere Komponenten, beispielsweise ein Bildempfänger, nachgeordnet.In the case of using a microlens array in the imaging beam path as the receiver array are further components, for example an image receiver, arranged downstream of the microlens array.

Durch das gemeinsame Bewegen des strukturiert leuchtenden Arrays und des Empfänger-Arrays mittels eines Bewegungs-Systems, parallel zur optischen Achsen des Beleuchtungsobjektivs, also in der zA-Richtung, werden nach und nach alle Bereiche des Objektes oder der Szene in der Tiefe in der jeweiligen Schärfefläche beleuchtet und abgebildet. Dabei ist das Bewegungssystem vorzugsweise als translatorisch arbeitendes Bewegungssystem ausgeführt. Es entsteht eine strukturierte Beleuchtung in jeweils genau der Ebene des Objektes oder der Szene durch die Abbildung des strukturiert leuchtenden Arrays, welche durch das Abbildungsobjektiv scharf auf das Empfänger-Array abgebildet wird. Durch die Anpassung der Leuchtdichte der Strahlungsquelle an die jeweilige Entfernung der Schärfefläche von der 3D-Aufnahme-Anordnung wird die bekannte Abnahme der Beleuchtungsstärke auf der Objektoberfläche in Abhängigkeit von deren Entfernung ausgeglichen.By moving the illuminated array and the receiver array together using a movement system, parallel to the optical axes of the lighting lens, i.e. in the z A direction, all areas of the object or scene are gradually increased in depth each focus area illuminated and illustrated. The movement system is preferably designed as a translatory movement system. Structured lighting is created in precisely the level of the object or scene by imaging the structured, luminous array, which is imaged sharply on the receiver array by the imaging lens. The known decrease in illuminance on the object surface is compensated for as a function of its distance by adapting the luminance of the radiation source to the respective distance of the focus surface from the 3D recording arrangement.

Dabei wird das folgende Bewegungsregime für das strukturiert leuchtende Array und das Empfänger-Array realisiert: Die Beträge der Bewegung der beiden Arrays parallel zur optischen Achse des Beleuchtungs- und des Abbildungsobjektivs, die zA-Richtung, sind bei einem Beleuchtungs- und Abbildungsobjektiv mit gleicher Brennweite gleich.The following movement regime is implemented for the structured, luminous array and the receiver array: The amounts of movement of the two arrays parallel to the optical axis of the illumination and imaging lens, the z A direction, are the same for an illumination and imaging lens Focal length equal.

Das strukturiert leuchtende Array führt mittels einer Linearführung zusätzlich und vorzugsweise zeitgleich zur Bewegung parallel zur optischen Achse des Beleuchtungsobjektivs eine laterale Bewegung aus, also senkrecht zur optischen Achse des Beleuchtungsobjektivs.The structured, luminous array additionally and preferably guides by means of a linear guide a lateral one simultaneously with the movement parallel to the optical axis of the illumination objective Movement off, i.e. perpendicular to the optical axis of the lighting lens.

Bei einem elektronisch steuerbaren strukturiert leuchtenden Array erfolgt die laterale Verschiebung der Elemente gleicher Leuchtdichte, bzw. die Verschiebung der Orte der lokalen Extrema der Leuchtdichte vorzugsweise zeitgleich zu der Bewegung parallel zur optischen Achse des Beleuchtungsobjektivs durch eine elektronische Steuerung der Transmission, der Reflexion - oder der Leuchtdichte bei einem selbstleuchtenden Array - jeweils in den Elementen des Arrays. Auf dem elektronisch steuerbaren Array, welches ein elektronisch steuerbares Liniengitter darstellen kann, werden die lokalen Extrema der Leuchtdichte durch lokale Extrema der Transmission, der Reflexion - oder durch eine direkte Steuerung der Leuchtdichteverteilung bei einem selbstleuchtenden Array - erzeugt.In the case of an electronically controllable structured, luminous array, the lateral displacement takes place the elements of the same luminance, or the displacement of the local extremes of the Luminance preferably at the same time as the movement parallel to the optical axis of the Lighting lenses by electronic control of transmission, reflection - or Luminance in a self-illuminating array - in each case in the elements of the array. On the electronically controllable array, which can represent an electronically controllable line grid, the local extrema of the luminance are determined by local extrema of the transmission, the reflection - or by directly controlling the luminance distribution in a self-illuminating array - generated.

Für die Gitterelemente oder die Elemente gleicher Leuchtdichte, bzw. die Orte der lokalen Extrema der Leuchtdichte des strukturiert leuchtenden Arrays, bzw. auch der Orte gleicher Phase der Leuchtdichtverteilung wird so eine lineare Bewegung erzeugt, die parallel zu einer Geraden gA ausgerichtet ist. Diese Gerade gA ist so definiert, daß diese stets den Brennpunkt des Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg, definiert als Quotient aus Brennweite des Beleuchtungsobjektivs im Array-Raum und Abstand des Brennpunktes des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs, aufweist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist, die beispielsweise in dessen Brennebene im Array-Raum liegt.For the grid elements or the elements of the same luminance, or the locations of the local extremes of the luminance of the structured luminous array, or also the locations of the same phase of the luminance distribution, a linear movement is thus generated which is aligned parallel to a straight line g A. This straight line g A is defined such that it always intersects the focal point of the illumination lens in the array space and has the rise, defined as the quotient of the focal length of the illumination lens in the array space and the distance of the focal point of the imaging lens in the object space from the axis of the illumination lens , with this increase in the straight line g A being related to a straight line perpendicular to the axis of the illumination lens, which lies, for example, in its focal plane in the array space.

Im Fall der parallelen Lage der beiden Achsen von Beleuchtungs- und Abbildungsobjektiv entspricht der Abstand der beiden Achsen von Beleuchtungs- und Abbildungsobjektiv dem Abstand des Brennpunktes des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs.In the case of the parallel position of the two axes of the illumination and imaging lens the distance between the two axes of the illumination and imaging lens the distance of the Focal point of the imaging lens in the object space from the axis of the lighting lens.

Die Gerade gA schneidet - bei einer gegebenen Anordnung mit zwei parallelen Achsen von Beleuchtungs- und Abbildungsobjektiv und zusammenfallenden Brenn- und Hauptebenen der beiden Objektive - stets sowohl den Brennpunkt des Beleuchtungsobjektivs auf der Seite des strukturiert leuchtenden Arrays als auch auf der gleichen Seite des Arrays den Hauptpunkt des Abbildungsobjektivs. Punkte entlang dieser Geraden werden in diesem Fall auf eine zur Objektivachse des Beleuchtungsobjektivs parallele Gerade gO abgebildet.The straight line g A - for a given arrangement with two parallel axes of the illumination and imaging lens and coincident focal and main planes of the two lenses - always intersects both the focal point of the illumination lens on the side of the structured, luminous array and on the same side of the array the main point of the imaging lens. In this case, points along this straight line are mapped onto a straight line g O parallel to the objective axis of the illumination objective.

Die Bilder der zur Geraden gA parallelen Geraden, welche die Orte der Elemente des strukturiert leuchtenden Arrays enthalten, bilden im Objektraum mit der Geraden gO ein Geradenbündel, wobei der Schnittpunkt aller Geraden dieses Bündels bei der beschriebenen Anordnung stets im Brennpunkt des Abbildungsobjektivs im Objektraum liegen soll. Gleichzeitig schneiden alle Abbildungsstrahlen des Abbildungsobjektivs bei Telezentrie im Array-Raum ebenfalls den Brennpunkt des Abbildungsobjektiv im Objektraum und bilden so ein Strahlenbündel. Die Geraden des Geradenbündels und die Strahlen des Strahlenbündels koinzidieren. So detektieren, bei einer achssenkrechten Objektoberfläche im Array-Raum und einer Bewegung des strukturiert leuchtenden Arrays in Richtung der Geraden gA die zu den jeweiligen Abbildungsstrahlen gehörenden Bildpunkte auf dem Empfänger-Array jeweils den gleichen Betrag der Phasenverschiebung. Diese Phasenverschiebung entspricht der Verschiebung von leuchtenden Flächenelementen des strukturiert leuchtenden Arrays oder der Verschiebung der Leuchtdichteverteilung auf dem strukturiert leuchtenden Array. Ein paralleles Verschieben dieser Objektoberfläche führt zum gleichen Betrag der Phasenverschiebung in den Signalen, die in allen Bildpunkten detektiert werden können. Dies bedeutet, daß die Tiefenempfindlichkeit der beschriebenen 3D-Aufnahme-Anordnung in einer achssenkrechten Ebene im Objektraum eine Konstante ist, also keine laterale Abhängigkeit aufweist. Die Tiefenempfindlichkeit kann durch die effektive Wellenlänge der 3D-Aufnahme-Anordnung beschrieben werden. Die effektive Wellenlänge wird hier als der Betrag der Verschiebung Δz2 π eines Objektpunktes auf einem Abbildungsstrahl definiert, bei dem sich die Phase genau um 2π im selben Abbildungsstrahl verändert hat, mit zOB als der zur Achse des Beleuchtungsobjektivs parallelen Koordinate im Objektraum.The images of the straight lines parallel to the straight line g A , which contain the locations of the elements of the structured luminous array, form a bundle of straight lines in the object space with the straight line g O , the intersection of all straight lines of this bundle in the arrangement described always being in the focal point of the imaging lens in the object space should lie. At the same time, all imaging beams of the imaging lens in telecentricity in the array space also intersect the focal point of the imaging lens in the object space and thus form a bundle of rays. The straight lines of the bundle of straight lines and the rays of the bundle of rays coincide. Thus, with an object surface perpendicular to the axis in the array space and a movement of the structured, luminous array in the direction of the straight line g A, the pixels belonging to the respective imaging beams on the receiver array each detect the same amount of phase shift. This phase shift corresponds to the shift of luminous surface elements of the structured luminous array or the shift of the luminance distribution on the structured luminous array. A parallel shift of this object surface leads to the same amount of phase shift in the signals, which can be detected in all pixels. This means that the depth sensitivity of the described 3D recording arrangement in a plane perpendicular to the axis in the object space is a constant, that is to say has no lateral dependency. The depth sensitivity can be described by the effective wavelength of the 3D recording arrangement. The effective wavelength is defined here as the amount of the shift Δz 2 π of an object point on an imaging beam in which the phase has changed exactly by 2π in the same imaging beam, with z OB as the coordinate in the object space parallel to the axis of the illumination objective.

Auf der Grundlage der in einer achssenkrechten Ebene konstanten Tiefenempfindlichkeit wird die Weiterverarbeitung von errechneten Phasenwerten zur 3D-Punktwolke stark vereinfacht. In diesem Fall können die Berechnungen besonders schnell erfolgen. Es können straight forward-Algorithmen zur Anwendung kommen. On the basis of the depth sensitivity, which is constant in a plane perpendicular to the axis, the Further processing of calculated phase values to the 3D point cloud is greatly simplified. In this In this case, the calculations can be carried out particularly quickly. It can use straight forward algorithms come into use.  

Eine Anordnung mit zwei starr angeordneten Objektiven ist technisch mit großer Genauigkeit bezüglich der Parallelität der Achsen und der Lage der Brennebenen realisierbar und auch vergleichsweise wirtschaftlich herstellbar und wird deshalb zunächst vorzugsweise dargestellt.An arrangement with two rigidly arranged lenses is technically very precise realizable with respect to the parallelism of the axes and the position of the focal planes and also comparatively economical to produce and is therefore preferably presented first.

Die 3D-Aufnahme-Anordnung kann jedoch auch wie folgt aufgebaut sein: Dem strukturiert leuchtenden Array ist ein Beleuchtungsobjektiv zum Zweck der Abbildung zugeordnet, wobei das strukturiert leuchtende Array schiefwinklig zur Achse des Beleuchtungsobjektivs bewegbar ist. Die geradlinige Bewegungsrichtung des strukturiert leuchtenden Arrays definiert die Lage einer Geraden gA und ist zur Lage der Achse des Beleuchtungsobjektivs konstruktiv unveränderlich gemacht. Die Anordnung ist so aufgebaut, daß die Gerade gA möglichst genau den Brennpunkt im Raum des Arrays sowie die Hauptebene des Beleuchtungsobjektivs in einer endlichen Entfernung von dessen optischer Achse schneidet, nämlich dort, wo die Achse des Abbildungsobjektivs liegen soll. Die reale oder gedankliche Abbildung der Geraden gA durch das Beleuchtungsobjektiv in den Objektraum erzeugt die zur Achse des Beleuchtungsobjektivs parallele Gerade gO. Diese Geraden gO durchstößt die Brennebene des Beleuchtungsobjektivs im Objektraum. Der objektseitige Brennpunkt des Abbildungsobjektivs ist in den Durchstoßpunkt der Geraden gO durch die Brennebene des Beleuchtungsobjektivs möglichst genau einjustiert, wobei die Achse des Abbildungsobjektivs vorzugsweise parallel zur Achse des Beleuchtungsobjektivs ausgerichtet ist, so daß die Achse des Abbildungsobjektivs mit der Lage der Geraden gO zusammenfällt. Die Gerade gA weist so, mehr oder weniger gut angenähert, den Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand des Brennpunktes des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs auf, wobei dieser Anstieg auf eine senkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist.However, the 3D recording arrangement can also be constructed as follows: the structured, luminous array is assigned an illumination lens for the purpose of the illustration, the structured, luminous array being movable at an oblique angle to the axis of the illumination lens. The linear direction of movement of the structured, luminous array defines the position of a straight line g A and is made structurally unchangeable with respect to the position of the axis of the lighting objective. The arrangement is constructed such that the line g A intersects the focal point in the space of the array and the main plane of the illumination lens at a finite distance from its optical axis, as precisely as possible, namely where the axis of the imaging lens is to lie. The real or mental mapping of the straight line g A through the lighting lens into the object space produces the straight line g O parallel to the axis of the lighting lens . This straight line g O penetrates the focal plane of the lighting lens in the object space. The focal point of the imaging lens on the object side is adjusted as precisely as possible in the point of intersection of the straight line g O through the focal plane of the lighting lens, the axis of the imaging lens preferably being aligned parallel to the axis of the lighting lens, so that the axis of the imaging lens coincides with the position of the straight line g O . The line g A shows, more or less well approximated, the increase with the amount of the quotient of the focal length of the illumination lens and the distance of the focal point of the imaging lens in the object space from the axis of the illumination lens, this increase being perpendicular to the axis of the illumination lens is related.

Das Bewegungsregime für die 3D-Aufnahme-Anordnung ist zum einen durch ein System mit zwei Linearführungen realisierbar, deren Achsen vorzugsweise senkrecht zueinander ausgerichtet sind. Die bewegten Komponenten dieser Linearführungen, auch als Schlitten bezeichnet, sind unabhängig voneinander in den Linearbewegungen steuerbar. Eine Miniaturisierung dieser Komponenten ist möglich. Es können lineare Direktantriebe verwendet werden, beispielsweise elektrodynamische Tauchspulsysteme oder Linearmotore. Die Bewegungsrichtung der bewegten Komponente der ersten Linearführung ist parallel zur Richtung der optischen Achse, der zA-Koordinate, die der Bewegungskomponente der zweiten Linearführung in einer dazu achssenkrechten Richtung, der xA -Richtung. Diese beiden Linearführungen erzeugen so die Bewegung der Elemente des strukturiert leuchtenden Arrays parallel zur Geraden gA. Dabei ist das Empfänger-Array der ersten Linearführung zugeordnet, die in Richtung der optischen Achse arbeitet. Der Schlitten der ersten Linearführung trägt also das Empfänger-Array und vorzugsweise die zweite Linearführung und der Schlitten dieser zweiten Linearführung das strukturiert leuchtende Array.The movement regime for the 3D recording arrangement can be realized on the one hand by a system with two linear guides, the axes of which are preferably oriented perpendicular to one another. The moving components of these linear guides, also referred to as slides, can be controlled independently of one another in the linear movements. Miniaturization of these components is possible. Linear direct drives can be used, for example electrodynamic moving coil systems or linear motors. The direction of movement of the moving component of the first linear guide is parallel to the direction of the optical axis, the z A coordinate, that of the movement component of the second linear guide in a direction perpendicular to it, the x A direction. These two linear guides thus generate the movement of the elements of the structured, luminous array parallel to the straight line g A. The receiver array is assigned to the first linear guide, which works in the direction of the optical axis. The carriage of the first linear guide therefore carries the receiver array and preferably the second linear guide and the carriage of this second linear guide carries the structured, luminous array.

Andererseits kann auch eine einzige Linearführung mit einem Schlitten, der gleichzeitig auf diesem Schlitten das strukturiert leuchtende Array und das Empfänger-Array trägt, eingesetzt werden. Die Bewegungsrichtung dieses Schlittens ist parallel zur Geraden gA - also nicht achssenkrecht, sondern schiefwinklig zu den Objektivachsen. Im letztgenannten Fall gibt es jedoch, entsprechend der Schlittenbewegung, auf dem Empfänger-Array eine Verschiebung des Bildes zu den Pixeln des Empfänger-Arrays. Diese Verschiebung kann im Bildauswerte-Algorithmus pixelweise zurückgerechnet werden. Eine hohe Rechengeschwindigkeit ist dann erreichbar, wenn die Schlittenbewegung und die Aufnahme von Bildern synchronisiert sind und Bilder in Abhängigkeit von der Schlittenposition nur dann aufgenommen werden, wenn die aufgetretene Verschiebung des Bildes auf dem Empfänger-Arrays jeweils mindestens ein ganzes Pixel oder ein davon ganzzahliges Vielfaches beträgt. Die Ablage der Bilddaten im Datensatz erfolgt stets unter Berücksichtigung der aufgetretenen Bildverschiebung, so daß im Ergebnis eine Kompensation der Verschiebung des Bildes mit Hilfe numerischer Methoden erfolgt ist. So wird beispielsweise ein bestimmter realer Abbildungsstrahl im Objektraum durch die Zuordnung der abgelegten Daten im Bilddaten-Satz verfolgt, der aus mehreren Schichten, beziehungsweise Datenfeldern besteht. Jede Schicht entspricht dabei einem aufgenommenen Bild. So bleibt ein realer Abbildungsstrahl, der von einem bestimmten Element des strukturiert leuchtenden Arrays ausgeht, im gesamten Bewegungsvorgang der beiden Arrays stets einem Element mit gleichen Indizes, also gleicher Position, in jeder Schicht oder jedem Datenfeld des gesamten Bilddatensatzes zugeordnet.On the other hand, it is also possible to use a single linear guide with a slide which simultaneously carries the structured, luminous array and the receiver array on this slide. The direction of movement of this slide is parallel to the line g A - not perpendicular to the axis, but at an oblique angle to the objective axes. In the latter case, however, there is a shift of the image to the pixels of the receiver array on the receiver array in accordance with the carriage movement. This shift can be calculated back pixel by pixel in the image evaluation algorithm. A high computing speed can be achieved if the carriage movement and the recording of images are synchronized and images are only recorded depending on the carriage position if the displacement of the image on the receiver array occurred at least one whole pixel or an integral multiple thereof is. The image data is always stored in the data record, taking into account the image shift that has occurred, so that the result is a compensation of the image shift using numerical methods. For example, a specific real imaging beam in the object space is tracked by the assignment of the stored data in the image data set, which consists of several layers or data fields. Each layer corresponds to a picture taken. In this way, a real imaging beam, which emanates from a certain element of the structured, luminous array, is always assigned to an element with the same indexes, that is to say the same position, in every layer or data field of the entire image data set in the entire movement process of the two arrays.

Damit sich bei dem Verfahren mit nur einer Linearführung die effektiv erfaßte Objektbreite durch die laterale Verschiebung des Empfänger-Arrays nicht verringert, wird in Abhängigkeit von der Verschiebungslänge ein längeres Empfänger-Array eingesetzt. Die zusätzlich benötigte Länge des Empfänger-Arrays ist allein von der Anzahl der aufgenommenen Bilder pro Bewegungsvorgang des Schlittens, auch als Scan bezeichnet, abhängig.So that in the method with only one linear guide, the effectively detected object width is determined by the lateral displacement of the receiver array is not reduced, depending on the Shift length a longer receiver array is used. The additionally required length of the Receiver arrays is solely dependent on the number of images captured per movement of the Sled, also known as a scan, dependent.

Bei einem Bewegungs-System mit zwei Linearführungen wird wie folgt vorgegangen: Die laterale und lineare Bewegung des strukturiert leuchtenden Arrays erfolgt mittels des Schlittens der zweiten Linearführung und beginnt vorzugsweise an einem hochstabilen Nullpunkt. Das strukturiert leuchtende Array kann ein beleuchtetes Liniengitter darstellen, dessen Translation durch ein hochgenaues Längenmeßsystem erfaßt werden kann. Vorzugsweise wird die Gitterbewegung jedoch hochgenau mittels eines zweiten Liniengitters phasenmäßig erfaßt, so daß die auf den Nullpunkt bezogene absolute Gitterphase auch in Bruchteilen von 2π bekannt ist. Hochauflösende Interpolationstechniken sind aus der inkrementalen Längenmeßtechnik bekannt. Damit kann die Gitterphase selbst die Referenz für das Abtasten der von der Objektoberfläche aus dem Objektraum aufgenommenen optischen Signale darstellen. So kann die Phase dieser Signale hochgenau bestimmt werden. Das ist sehr wesentlich, da in der Phase der optischen Signale in Verbindung mit den Geometrie-Parametern der Anordnung die Information über die jeweilige Objektposition enthalten ist.For a motion system with two linear guides, the procedure is as follows: the lateral and linear movement of the structured, luminous array takes place by means of the carriage of the second Linear guide and preferably starts at a highly stable zero point. The structured shining Array can represent an illuminated line grid, whose translation by a highly precise Length measuring system can be detected. However, the grating movement is preferably highly precise phase-detected using a second line grid, so that the reference to the zero point absolute lattice phase is also known in fractions of 2π. High resolution interpolation techniques are known from the incremental length measurement technique. This allows the lattice phase itself Reference for scanning those recorded from the object surface from the object space represent optical signals. The phase of these signals can thus be determined with high precision. This is very essential because in the phase of the optical signals in connection with the geometry parameters the arrangement contains the information about the respective object position.

Die Fläche des Empfänger-Arrays befindet sich bei Objektiven gleicher Bauart vorzugsweise in der gleichen Ebene wie die Fläche des strukturiert leuchtenden Arrays. Außerdem führt das strukturiert leuchtende Array, hier das beleuchtete Liniengitter, durch das Bewegungssystem oder bei einem elektronisch steuerbaren Array die lokalen Extrema der Leuchtdichte führen zusätzlich zur Bewegung in der Tiefe eine laterale Bewegung aus, so daß als resultierende Bewegung des Liniengitters oder der lokalen Extrema der Leuchtdichte eine lineare Bewegung parallel zu der bereits genannten Geraden gA erfolgt. Durch diese Bewegung ändert sich die Phase eines Signals, welches im Bildpunkt eines Objektpunktes beobachtet werden kann.In the case of lenses of the same type, the area of the receiver array is preferably in the same plane as the area of the structured, luminous array. In addition, the structured, luminous array, here the illuminated line grid, through the movement system or, in the case of an electronically controllable array, the local extrema of the luminance also perform a lateral movement in addition to the movement in depth, so that the resulting movement of the line grid or the local extrema Luminance there is a linear movement parallel to the line g A already mentioned. This movement changes the phase of a signal that can be observed in the image point of an object point.

Andererseits wird durch dieses Bewegungsregime, die Geometrie der Anordnung und die Telezentrie der Objektive im Array-Raum erreicht, daß ein Beleuchtungsstrahl eines leuchtenden Elementes einer bestimmten Phase und ein Abbildungsstrahl, die sich in einer beliebigen Schärfefläche schneiden, sich in allen Schärfeflächen schneiden. So ist auch gegeben, daß beim Bewegen der beiden Arrays die Bilder der leuchtenden Elemente gleicher Phase und die der empfangenden Elemente der beiden Arrays bei einer idealen Anordnung im gesamten Objektraum stets zusammenfallen. Dabei sind Objektive mit geringer Verzeichnung und sehr geringen Fehlern und eine möglichst geringe Brennweitendifferenz der beiden Objektive und eine möglichst präzise Justierung grundsätzlich von Vorteil und reduzieren den numerischen Korrekturaufwand erheblich. Die Abweichungen vom Idealzustand können innerhalb gewisser Grenzen toleriert werden.On the other hand, this movement regime, the geometry of the arrangement and the telecentricity the lenses in the array space achieve that an illuminating beam of a luminous element certain phase and an imaging beam that intersect in any focus cut in all sharpness areas. This also means that when moving the two arrays the  Images of the luminous elements of the same phase and those of the receiving elements of the two Arrays always coincide with an ideal arrangement in the entire object space. Are Lenses with low distortion and very few errors and the lowest possible Difference in focal length of the two lenses and the most precise adjustment possible Advantage and significantly reduce the numerical correction effort. The deviations from Ideal conditions can be tolerated within certain limits.

Durch die Bewegung des Liniengitters parallel zur Geraden gA und die "feste Kopplung der Schärfeflächen" der beiden Objektive im Objektraum zu einer gemeinsamen Schärfefläche erfolgt das "Mitführen der Phase im Abbildungsstrahl". Dies bedeutet, die Phase bleibt in jedem Abbildungsstrahl konstant, der von einem in der gemeinsamen Schärfefläche mitbewegten Punkt der Objektoberfläche in das Abbildungsobjektiv gelangt, auch wenn sich die Lage dieser Schärfefläche in der Tiefe des Array-Raums ändert. Ein gedachter, im Abbildungsstrahl in der Schärfefläche stetig mitlaufender Objektpunkt würde demzufolge beim Bewegen des Liniengitters keine Phasenänderung im detektierbaren Signal erfahren, da beispielsweise immer der gleiche Ausschnitt des Streifens im zum Abbildungsstrahl zugehörigen Bildpunkt detektiert wird.The movement of the line grating parallel to the straight line g A and the "fixed coupling of the focus areas" of the two lenses in the object space to a common focus area results in the "carrying along of the phase in the imaging beam". This means that the phase remains constant in each imaging beam that reaches the imaging lens from a point on the object surface that is moved in the common focus area, even if the position of this focus area changes in the depth of the array space. An imaginary object point, which runs continuously in the imaging beam in the focus area, would consequently experience no phase change in the detectable signal when the line grid is moved, since, for example, the same section of the strip is always detected in the image point associated with the imaging beam.

Dagegen ist im Bildpunkt eines feststehenden Objektpunktes beim Bewegen des beleuchteten Liniengitters stets ein periodisches Signal zu beobachten. In diesem periodischen Signal selbst und durch seine Lage in Bezug auf die Phase des beleuchteten Liniengitters ist die Information über die aktuelle zOB-Position dieses Objektpunktes im Objektraum eindeutig enthalten.In contrast, a periodic signal can always be observed in the image point of a fixed object point when the illuminated line grid is moved. The information about the current z OB position of this object point in the object space is clearly contained in this periodic signal itself and due to its position in relation to the phase of the illuminated line grid.

Das Ziel besteht darin, durch das Variieren der Lage der Schärfeflächen in der Tiefe bis zu jedem Objektpunkt und einen kleinen Betrag darüber hinaus, um das Signal auch im Umfeld des Objektpunktes erfassen zu können, die Objektphase jeder zu einem Objektpunkt zugehörigen achssenkrechten Ebene zu bestimmen. Dies wird durch die Detektion eines modulierten periodischen Signals mit einem Modulationsmaximum in jedem abgebildeten Objektpunkt, also im zugehörigen Bildpunkt, erreicht. Das periodische Signal entsteht beim Durchgang der beiden koinzidierenden Schärfeflächen durch die Ebene des jeweiligen Objektpunktes und das Modulationsmaximum entspricht der Lage der koinzidierenden Schärfeflächen. Eine gewisse Abweichung von der Koinzidenz der Schärfeflächen führt zu einer effektiven Schärfefläche und ist innerhalb gewisser Grenzen tolerierbar. Es tritt eine Verringerung des Modulationsmaximums im detektierten Signal auf.The goal is to vary the position of the focus areas in depth to each Object point and a small amount in addition to the signal in the environment of the To be able to record the object point, the object phase of each associated with an object point to determine the plane perpendicular to the axis. This is modulated by the detection of a periodic Signals with a maximum modulation in each depicted object point, i.e. in the associated one Pixel, reached. The periodic signal arises when the two coinciding passes Sharpness areas through the plane of the respective object point and the maximum modulation corresponds to the location of the coinciding focus areas. A certain deviation from the Coincidence of the focus areas leads to an effective focus area and is within certain Limits tolerable. There is a reduction in the maximum modulation in the detected signal.

Es ist möglich, die Kopplung der Schärfeflächen der beiden Objektive im Objektraum so auszuführen, daß sich ein bestimmter Phasenwert in Bezug auf das Modulationsmaximum im beobachteten Signal durch das laterale Feinjustieren des strukturiert leuchtenden Arrays, bzw. des beleuchteten Liniengitters, ergibt.It is possible to couple the focus areas of the two lenses in the object space in such a way that that there is a certain phase value in relation to the modulation maximum in the observed signal through the lateral fine adjustment of the structured illuminated array or the illuminated one Line grid, results.

Das periodische Signal wird in den Bildpunkten vorzugsweise in Schritten konstanter Phasenänderung abgetastet. Schritte konstanter Phasenänderung entstehen im Objektraum durch konstante Schritte eines bewegten Liniengitters, welches ein beleuchtetes Liniengitter mit konstanter Gitterperiode darstellt, im Array-Raum. Unter Array-Raum wird immer der Raum verstanden, wo sich das Empfänger-Array und das strukturiert leuchtende Array, hier das beleuchtete Liniengitter, befinden.The periodic signal is preferably in the pixels in steps of constant phase change scanned. Steps of constant phase change arise in the object space through constant steps a moving line grating, which is an illuminated line grating with a constant grating period represents in array space. Array space is always the space where that is Receiver array and the structured illuminated array, here the illuminated line grid, are.

Es wird davon ausgegangen, daß die zOB-Position als Abstand von der Brennebene des Beleuchtungsobjektivs im Raum des Objekts jeder achssenkrechten Ebene im Objektraum durch eine lateral invariante, absolute Objektphase ϕObj beschrieben werden kann, so daß es achssenkrechte Ebenen konstanter Phase im Objektraum gibt.It is assumed that the z OB position can be described as a distance from the focal plane of the illumination lens in the space of the object of each axis-perpendicular plane in the object space by a laterally invariant, absolute object phase ϕ Obj , so that there are axis-perpendicular planes of constant phase in the object space .

Die lateral invariante, absolute Objektphase ϕObj in einem Punkt des Objektes ist nur von der Position ZObj desselben und der Geometrie der optischen Anordnung abhängig und besitzt deshalb bei idealen Abbildungsverhältnissen und Justierungen grundsätzlich keine laterale Abhängigkeit. Im weiteren wird in der Regel von der Objektphase ϕObj gesprochen. Die Geometrie der optischen Anordnung ist durch die Brennweite fB des Beleuchtungsobjektivs, den Abstand d der beiden zueinander parallelen Objektivachsen und die Gitterkonstante p des strukturiert leuchtenden Arrays, hier ein Liniengitter, beschrieben. Die Gerade gO, das Bild der Geraden gA, fällt mit der Achse des Abbildungsobjektivs zusammen, so daß die Größe d auch den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs beschreibt.The laterally invariant, absolute object phase ϕ Obj at a point of the object is only dependent on the position Z Obj of the same and the geometry of the optical arrangement and therefore has no lateral dependency with ideal imaging conditions and adjustments. Furthermore, the object phase ϕ Obj is usually spoken of. The geometry of the optical arrangement is described by the focal length f B of the illuminating lens, the distance d between the two mutually parallel lens axes and the grating constant p of the structured, luminous array, here a line grating. The straight line g O , the image of the straight line g A , coincides with the axis of the imaging lens, so that the size d also describes the distance of the straight line g O from the axis of the illumination lens.

Es wird von folgendem Geometrie-Modell ausgegangen: Die lateral invariante, absolute Objektphase ϕObj für eine achssenkrechte Ebene mit dem Abstand zOB entspricht immer der Anzahl der Streifenordnungen zuzüglich der beiden Streifenbruchteile, die auf der Strecke zwischen einem Punkt dieser Ebene auf der optischen Achse des Abbildungsobjektivs und einem Punkt dieser Ebene auf der Geraden gO liegen.The following geometry model is assumed: The laterally invariant, absolute object phase ϕ Obj for a plane perpendicular to the axis with the distance z OB always corresponds to the number of strip orders plus the two strip fractions that are on the path between a point of this plane on the optical axis of the imaging lens and a point on this plane lie on the straight line g O.

Im Unendlichen ist deshalb die Objektphase wegen der unendlichen Streifenbreite null und in der Brennebene des Objektraumes nähert sich die Objektphase aufgrund des Streifenabstandes null dem Unendlichen an. Die Objektphase ϕObj weist bei der gewählten Notation in der Regel negative Werte auf. Für (-)zOB = fB wird die Objektphase ϕObj = ϕfB und es gilt
In the infinite the object phase is therefore zero due to the infinite stripe width and in the focal plane of the object space the object phase approaches the infinite due to the stripe spacing zero. The object phase ϕ Obj usually has negative values for the chosen notation. For (-) z OB = f B , the object phase ϕ Obj = ϕ fB and it applies

mit d als dem Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier auch dem Abstand der parallelen Achsen der beiden Objektive voneinander und mit p als der Gitterkonstanten des beleuchteten Liniengitters, welches als strukturiert leuchtendes Array verwendet wird.with d as the distance of the straight line g O from the axis of the illumination lens, or here also the distance of the parallel axes of the two lenses from each other, and with p as the lattice constant of the illuminated line grating, which is used as a structured, luminous array.

Mit einer ebenen und achssenkrechten Referenzplatte kann im Objektraum die Objektphase als die Anzahl der Streifenordnungen zwischen der Geraden gO und der Achse des Beleuchtungsobjektivs, beziehungsweise hier zwischen den beiden optischen Achsen, durch Auszählen von Streifen oder genauer mittels bekannter Phasenschiebetechnik ermittelt werden. Das Problem stellt hier zunächst die Kenntnis der genauen Lage der beiden optischen Achsen in der Anordnung dar. Die hochgenaue Bestimmung der Streifenanzahl zwischen den optischen Achsen kann beim parallelen Verschieben der Referenzplatte in mehreren Schritten - sowohl als Justierkriterium für die Kontrolle der Abweichung von der Parallelität der optischen Achsen der beiden Objektive als auch der achssenkrechten Lage der Referenzplatte - genutzt werden. Bei einer eingemessenen Anordnung mit bekannter Lage der optischen Achsen bzgl. des Sender- und Empfänger-Arrays kann die Referenzphase so auf experimentellem Weg bestimmt werden.With a flat and axially perpendicular reference plate, the object phase can be determined in the object space as the number of stripe orders between the straight line g O and the axis of the lighting objective, or here between the two optical axes, by counting stripes or more precisely using known phase shifting technology. The problem here is first of all the knowledge of the exact position of the two optical axes in the arrangement. The highly precise determination of the number of strips between the optical axes can be done in several steps when moving the reference plate in parallel - both as an adjustment criterion for checking the deviation from the parallelism of the optical axes of the two lenses as well as the position of the reference plate perpendicular to the axis. In the case of a calibrated arrangement with a known position of the optical axes with respect to the transmitter and receiver array, the reference phase can thus be determined experimentally.

Um entlang eines Abbildungsstrahls die zOB-Koordinate eines Objektpunktes zObj zu erhalten, ist in jedem Objektpunkt die lateral invariante, absolute Objektphase ϕObj zu bestimmen, die im weiteren als Objektphase bezeichnet wird. Ein Abbildungsstrahl soll hier im Modell jeweils genau auf ein Pixel der lateral feststehenden Empfängerfläche treffen.In order to obtain the z OB coordinate of an object point z Obj along an imaging beam, the laterally invariant, absolute object phase ϕ Obj is to be determined in each object point, which is referred to below as the object phase. In the model, an imaging beam should hit exactly one pixel of the laterally fixed receiver surface.

Die Objektphase ϕObj eines Objektpunktes wird in Bezug auf eine Referenzfläche bestimmt. Die absolute, lateral invariante Phase der Referenzfläche, die Referenzphase ϕR, wird aus einem als bekannt angenommenen, vorzeichenbehafteten Abstand zOB = ZOR der Referenzfläche mit
The object phase ϕ Obj of an object point is determined in relation to a reference surface. The absolute, laterally invariant phase of the reference surface, the reference phase ϕ R , is determined from a presumed signed distance z OB = Z OR of the reference surface

errechnet, wobei d den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier den Abstand der parallelen Achsen der beiden Objektive voneinander, fB die Brennweite des Beleuchtungsobjektivs und p die Gitterkonstante des strukturiert leuchtenden Arrays, beziehungsweise des beleuchteten Gitters, darstellen. Da zOR in die negative Achsrichtung gezählt wird, ergibt sich auch ein negativer Wert für die Referenzphase ϕR. Der Abstand zOR der Referenzfläche wird möglichst genau experimentell ermittelt. In der Regel treffen alle zur Erfassung der Objektoberflächen in der Szene genutzten Abbildungsstrahlen auch auf die Referenzplatte.calculated, where d is the distance of the straight line g O from the axis of the illumination lens, or here the distance of the parallel axes of the two lenses from each other, f B is the focal length of the illumination lens and p is the lattice constant of the structured illuminated array or the illuminated grating. Since z OR is counted in the negative axis direction, there is also a negative value for the reference phase ϕ R. The distance z OR of the reference surface is determined experimentally as precisely as possible. As a rule, all imaging beams used to detect the object surfaces in the scene also strike the reference plate.

Der Grundgedanke besteht darin, in jedem Abbildungsstrahl aus der Auswertung des im zugehörigen Bildpunkt eines Referenzpunktes der Referenzplatte über der Phase des Gitters ϕGitter zu beobachtenden modulierten, periodischen Signals und des in einem Bildpunkt eines Objektpunkt über der Phase des Gitters zu beobachtenden modulierten, periodischen Signals die absolute Phasendifferenz ΔϕGitter dieser beiden Signallagen aus der Phase des Gitters zu bestimmen. Dabei wird davon ausgegangen, daß die periodischen Signale eine Modulation mit einem Modulationsmaximum aufweisen. Die Breite dieser Modulationskurve über der Phase des Liniengitters ϕGitter oder dem zugeordneten Verschiebeweg des Liniengitters ist abhängig vom Achsabstand d der beiden Objektivachsen, den Brennweiten der beiden Objektive und der relativen Öffnung der beiden Objektive, beschrieben jeweils durch die Blendenzahl k der beiden Objektive, und den Eigenschaften der Oberfläche hinsichtlich der Lichtstreuung.The basic idea is to evaluate in each imaging beam the evaluation of the modulated, periodic signal to be observed in the associated pixel of a reference point of the reference plate over the phase of the grating ϕ grating and the modulated, periodic signal to be observed in one pixel of an object point over the phase of the grating to determine the absolute phase difference Δϕ grating of these two signal positions from the phase of the grating. It is assumed that the periodic signals have a modulation with a maximum modulation. The width of this modulation curve over the phase of the line grating ϕ grating or the assigned displacement path of the line grating depends on the center distance d of the two objective axes, the focal lengths of the two objectives and the relative opening of the two objectives, each described by the f-number k of the two objectives, and the properties of the surface in terms of light scattering.

Die Bestimmung der absoluten Phasendifferenz ΔϕGitter kann so erfolgen, daß der in einem Objektpunkt über der Phase des Gitters zu beobachtende Signalverlauf über der Phase, die aus dem Verschiebeweg des Gitters abgeleitet ist, um genau den Phasenbetrag soweit verschoben wird, daß sich dieser Signalverlauf mit dem im zugehörigen Referenzpunkt der Referenzplatte zu beobachtenden Signalverlauf möglichst genau deckt, d. h. die Korrelation dieser beiden Signalverläufe möglichst hoch ist. Dieser so ermittelte Phasenbetrag entspricht dann der absoluten Phasendifferenz ΔϕGitter als die Differenz der jeweils zu den beiden Signalverläufen zugehörigen absoluten Phase des Liniengitters ΔϕGitter.The determination of the absolute phase difference Δϕ grating can be carried out in such a way that the signal curve to be observed in an object point above the phase of the grating is shifted over the phase that is derived from the displacement path of the grating by exactly the phase amount that this signal curve changes with covers the signal curve to be observed in the associated reference point of the reference plate as precisely as possible, ie the correlation of these two signal curves is as high as possible. This amount of phase determined in this way then corresponds to the absolute phase difference Δϕ grating as the difference between the absolute phase of the line grating Δϕ grating associated with the two signal profiles.

Dazu wird erstens aus einer Abtastung des Signals über der Phase im Bildpunkt eines Referenzpunktes der relative Referenzphasenwert ϕRR mod 2π bestimmt. Zweitens wird aus einer Abtastung des Signals über der Phase im Bildpunkt eines jeden Objektpunktes der relative Objektphasenwert ϕRObj mod 2π bestimmt. Der relative Referenzphasenwert ϕRR und der relative Objektphasenwert ϕRObj werden dabei jeweils der absoluten Phase des Liniengitters ϕGitter zugeordnet und unter Beachtung des jeweiligen Vorzeichens von dieser subtrahiert. So entstehen die absoluten Phasenwerte der Gitterphase ϕGitterR für einen Referenzpunkt und ϕGitterObj für einen Objektpunkt. Mit der Differenz
For this purpose, first of all the relative reference phase value ϕ RR mod 2π is determined from a sampling of the signal over the phase in the pixel of a reference point. Secondly, the relative object phase value ϕ RObj mod 2π is determined from a sampling of the signal over the phase in the image point of each object point. The relative reference phase value ϕ RR and the relative object phase value ϕ RObj are each assigned to the absolute phase of the line grid ϕ grid and subtracted from this taking into account the respective sign. This creates the absolute phase values of the grid phase ϕ GridR for a reference point and ϕ GridObj for an object point. With the difference

ΔϕGitter = ϕGitterObj - ϕGitterR (3)
Δϕ grid = ϕ gridObj - ϕ gridR (3)

wird die absolute Phasendifferenz ΔϕGitter bestimmt, die einen positiven Wert aufweist, wenn der erfaßte Objektpunkt weiter von der Brennebene als der zugehörige Referenzpunkt entfernt ist. Durch die vorzeichenbehaftete Addition der absoluten Phasendifferenz ΔϕGitter zur experimentell oder konstruktiv abgeleiteten Referenzphase ϕR wird die absolute Objektphase ϕObj dann mit
the absolute phase difference Δϕ grid is determined, which has a positive value when the detected object point is further away from the focal plane than the associated reference point. By the signed addition of the absolute phase difference Δϕ grid to the experimentally or constructively derived reference phase ϕ R , the absolute object phase ϕ Obj then becomes

ΔϕObj = (-)ϕR + ΔϕGitter (4)
Δϕ Obj = (-) ϕ R + Δϕ grid (4)

bestimmt. Da das Vorzeichen der Phase der Referenzfläche ϕR negativ ist und die Phasendifferenz ΔϕGitter im Betrag stets kleiner ist als Phase der Referenzfläche ϕR, ergibt sich für die absolute Objektphase ϕObj ein negativer Wert. Die Koordinate eines Objektpunktes zOB = zObj kann dann mit der Gleichung
certainly. Since the sign of the phase of the reference surface ϕ R is negative and the phase difference Δϕ grating is always smaller than the phase of the reference surface ϕ R , a negative value results for the absolute object phase ϕ Obj . The coordinate of an object point z OB = z Obj can then be calculated using the equation

bestimmt werden, die für eine negative absolute Objektphase ebenfalls einen negativen Wert liefert. Dabei stellen d den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier den Abstand der parallelen Achsen der beiden Objektive voneinander, fB die Brennweite des Beleuchtungsobjektivs, ϕObj die absolute, lateral invariante Objektphase und p die Gitterkonstante des beleuchteten Liniengitters dar.can be determined, which also delivers a negative value for a negative absolute object phase. Here, d represents the distance of the straight line g O from the axis of the illumination lens, or here the distance of the parallel axes of the two lenses from each other, f B the focal length of the illumination lens, ϕ Obj the absolute, laterally invariant object phase and p the lattice constant of the illuminated line grid .

Als Nullebene der 3D-Aufnahme-Anordnung wird die achssenkrechte Ebene für zOB = 0, die Brennebene des Beleuchtungsobjektiv im Objektraum, gewählt. Demzufolge stellt der Brennpunkt FOB des Beleuchtungsobjektivs im Objektraum den Nullpunkt der 3D-Aufnahme-Anordnung dar.The zero-plane for z OB = 0, the focal plane of the illumination lens in the object space, is selected as the zero plane of the 3D recording arrangement. Accordingly, the focal point F OB of the lighting lens in the object space represents the zero point of the 3D recording arrangement.

Der möglichst genauen Bestimmung der absoluten Phasendifferenz ΔϕGitter in der Phase des beleuchteten Liniengitters ΔϕGitter kommt für das Verfahren eine besonders große Bedeutung zu.The most accurate determination of the absolute phase difference Δϕ grating in the phase of the illuminated line grating Δϕ grating is of particular importance for the method.

Eine weitere Möglichkeit besteht darin, nicht die relativen Phasenwerte im Referenzpunkt-Signal und im Objektpunkt-Signal, sondern die Lage der Orte gleicher Phase im Referenzpunkt-Signal und im Objektpunkt-Signal in Bezug auf die Phase des Liniengitters ϕGitter zu bestimmen, beispielsweise anhand der Orte gleicher Phasenlagen.Another possibility is to determine not the relative phase values in the reference point signal and in the object point signal, but the position of the locations of the same phase in the reference point signal and in the object point signal with respect to the phase of the line grid ϕ grid , for example using the locations of the same phase positions.

Grundsätzlich kann auch über ein Längenmeßsystem, welches die Bewegung oder Verschiebung des Liniengitters hochaufgelöst mißt, die Ortsdifferenz der Lagen des Referenzpunkt-Signals und des Objektpunkt-Signals bestimmt werden. Aus der bekannten Gitterkonstante p des Liniengitters kann aus der gemessenen Ortsdifferenz die zugehörige Phasendifferenz ΔϕGitter in bekannter Weise errechnet werden. Dies ist anzuwenden, wenn nur eine einzige Linearführung mit einem Nullpunktgeber verwendet wird, da die phasenmäßige Abtastung des Liniengitters aufgrund des Bewegens desselben mit einer dann auch auftretenden Bewegungskomponente in Richtung der optischen Achse mit einem Gegengitter technisch besonders schwierig ist.In principle, the spatial difference between the positions of the reference point signal and the object point signal can also be determined using a length measuring system which measures the movement or displacement of the line grid with high resolution. From the known grating constant p of the line grating, the associated phase difference Δϕ grating can be calculated in a known manner from the measured spatial difference. This is to be used if only a single linear guide with a zero point transmitter is used, since the phase-wise scanning of the line grating is technically particularly difficult due to the movement of the line grating with a then also occurring movement component in the direction of the optical axis with a counter grating.

Mit der vorzugsweise hochebenen Referenzplatte muß die 3D-Aufnahme-Anordnung in mindestens einer achssenkrechten Positionen eingemessen werden. Aus dem experimentell bestimmten Wert zORexp für die Lage der Referenzplattewird der Wert der Referenzphase ϕR mittels der angegebenen Gleichung (2) errechnet. Die gemessene Verschiebung in zOB-Richtung wird mit dem der durch die 3D-Aufnahme-Anordnung ermittelten zOR-Wert verglichen. So kann die 3D-Aufnahme-Anordnung kontrolliert werden. Bei Abweichungen von der hochgenau gemessenen Verschiebung von der rechnerisch bestimmten liegt für eine in sich gut einjustierte 3D-Aufnahme-Anordnung ein falscher Wert für die Referenzphase ϕR vor. Numerisch wird die Referenzphase verändert bis sich eine möglichst gute Übereinstimmung mit den experimentell bestimmten Verschiebewerten ergibt.With the preferably high-level reference plate, the 3D recording arrangement must be measured in at least one position perpendicular to the axis. The value of the reference phase ϕ R is calculated from the experimentally determined value z ORexp for the position of the reference plate using the given equation (2). The measured displacement in the z OB direction is compared with that of the z OR value determined by the 3D recording arrangement. In this way the 3D recording arrangement can be checked. In the event of deviations from the highly precisely measured shift from that calculated by calculation, there is an incorrect value for the reference phase ϕ R for a well-adjusted 3D recording arrangement. The reference phase is changed numerically until there is as good a match as possible with the experimentally determined displacement values.

Zusammengefaßt gilt: Für die Bestimmung der Objektphase ϕObj im Objektraum wird vorteilhafterweise folgende Bedingung im Gesamt-Abbildungssystem realisiert, die sich aus der parallelen Bewegung des Liniengitters - oder ganz allgemein formuliert aus der parallelen Bewegung der Maxima und Minima der Leuchtdichte auf dem strukturiert leuchtenden Array - zur Geraden gA ergibt: Beim Durchlaufen der beiden koinzidierenden Schärfeflächen von Beleuchtungs- und Abbildungsobjektiv durch die Tiefe des Raumes des Objektes bleibt die beobachtete Phase im Schnittpunkt eines Strahls des Abbildungsobjektivs mit der gemeinsamen Schärfefläche durch die zusätzliche laterale Bewegung des Liniengitters stets konstant, so daß ein gedachter, in einem Strahl des Abbildungsobjektivs in der gemeinsamen Schärfefläche mitlaufender Objektpunkt in der gesamten Tiefe keine Phasenänderung erfährt. Dies wird als "Mitführung der Phase" bezeichnet. Dabei kann die zusätzliche laterale Bewegung des Liniengitters durch eine zweite Linearführung erfolgen oder sich aus der Schrägstellung einer gemeinsamen Linearführung für Sender- und Empfänger-Array ergeben. Andererseits kann diese Bedingung auch durch ein elektronisch gesteuertes Gitter, beispielsweise ein Liniengitter, realisiert werden, indem zusätzlich zum kontinuierlichen Bewegen des Liniengitters in zA-Richtung, die Phasenlage des Liniengitters ebenfalls kontinuierlich verändert wird, indem die Lage der Orte der lokalen Extrema der Leuchtdichte, auf dem elektronisch steuerbaren Liniengitter verändert wird.In summary: For the determination of the object phase ϕ Obj in the object space, the following condition is advantageously realized in the overall imaging system, which is derived from the parallel movement of the line grid - or more generally from the parallel movement of the maxima and minima of the luminance on the structured, luminous array - to the straight line g A results: When the two coinciding areas of focus of the illumination and imaging lens pass through the depth of the object's space, the observed phase at the intersection of a beam of the imaging lens with the common area of focus always remains constant due to the additional lateral movement of the line grid, so that an imaginary object point running in a beam of the imaging lens in the common focus area does not experience any phase change in the entire depth. This is known as "carrying the phase". The additional lateral movement of the line grating can take place by means of a second linear guide or can result from the inclination of a common linear guide for the transmitter and receiver array. On the other hand, this condition can also be realized by an electronically controlled grating, for example a line grating, in addition to the continuous movement of the line grating in the z A direction, the phase position of the line grating is also continuously changed by the position of the local extremes of the luminance is changed on the electronically controllable line grid.

Dazu ist folgendes zu bemerken: Optisch konjugierte Punkte weisen im Array-raum und im Objektraum betragsmäßig die gleiche absolute Phase auf. Diese absolute Phase kann jeweils als laterale Koordinate verstanden werden. Die absolute Phase leitet sich aus der Beleuchtungssituation ab und kann im Array-raum aus der xAB-Position im Gitterelement GAB bestimmt werden, welches sich im Aufnahmeprozeß auf einer Geraden gA bewegt und bei dieser Bewegung genau den array-seitigen Brennpunkt FAB schneidet. Aus diesem Zusammenhang ergibt sich die absolute Phase im Array-Raum mit
The following should be noted in this regard: Optically conjugated points have the same absolute phase in terms of amount in the array space and in the object space. This absolute phase can be understood as a lateral coordinate. The absolute phase is derived from the lighting situation and can be determined in the array space from the x AB position in the grating element G AB , which moves on a straight line g A during the recording process and during this movement exactly the array-side focal point F AB cuts. The absolute phase in the array space also results from this connection

mit xAB1 als der lateralen Koordinate des Durchstoßpunktes der Geraden gA durch das Gitterelement GAB und p als Gitterkonstante des Liniengitters. Im optisch konjugierten Punkt GOB ergibt sich die gleiche absolute Phase wie im Punkt GAB, jedoch mit umgekehrtem Vorzeichen.with x AB1 as the lateral coordinate of the point of intersection of the straight line g A through the lattice element G AB and p as the lattice constant of the line lattice. In the optically conjugated point G OB , the same absolute phase results as in point G AB , but with the opposite sign.

Weiterhin muß das Empfänger-Array kein Bildempfänger sein, sondern kann nach dem Stand der Technik als Mikrolinsen-Array ausgeführt sein, um eine hohe Tiefenauflösung auf der Basis einer hohen Streifendichte erreichen zu können. Das Mikrolinsen-Array befindet sich im Array-Raum in einer zum strukturiert leuchtenden Array optisch konjugierten Ebene. Wie bekannt, ist dem Mikrolinsen-Array ein weiteres Objektiv nachgeordnet. Dieses Objektivist auf der dem Mikrolinsen-Array zugeordneten Seite möglichst gut telezentrisch ausgeführt. Auf der zweiten Seite des Objektivsbefindet sich der Bildaufnehmer.Furthermore, the receiver array need not be an image receiver, but can, according to the state of the art Technology as a microlens array to be based on a high depth resolution to be able to achieve high strip density. The microlens array is located in one in the array space to the structured, luminous array of optically conjugated layers. As is known, that is Microlens array downstream of another lens. This lens is on the The side assigned to the microlens array is designed as well as possible to be telecentric. On the second page the image sensor is located.

Auch kann in der Ebene des Empfänger-Arrays ein elektronisch steuerbares, vorzugsweise transmissives Array angeordnet sein. Dabei wird wie folgt vorgegangen: Es erfolgt eine erste Gewinnung einer 3D-Punktwolke mit einer beispielsweise mittleren Transmission in den Array-Elementen. Anschließend wird die Aussteuerung in den Elementen des Bildempfänger kontrolliert und die Transmission elementeweise so eingestellt, daß sich eine geeignete Aussteuerung in den Bildelementen eines nachgeordneten Bildempfängers ergibt. Das elektronisch steuerbare, transmissive Array kann vorzugsweise dem Mikrolinsen-Array zugeordnet sein. Es ist aber auch möglich, daß es dem Bildaufnehmer zugeordnet ist. Auch kann es dem strukturiert leuchtenden Array zugeordnet sein. Letztlich muß die Zuordnung nur zu einer optisch konjugierten Ebene des Empfänger-Arrays erfolgen.An electronically controllable, preferably, can also be in the plane of the receiver array be arranged transmissive array. The procedure is as follows: A first is done  Obtaining a 3D point cloud with, for example, medium transmission in the Array elements. Then the modulation in the elements of the image receiver checked and the transmission set elements so that there is a suitable level in the picture elements of a downstream image receiver. The electronically controllable, transmissive array can preferably be assigned to the microlens array. It is also possible that it is assigned to the image sensor. It can also be the structured illuminated array be assigned. Ultimately, the assignment only has to one optically conjugate level of the Receiver arrays are made.

Zur Bestimmung der Phasenlage der periodischen Signale in den Bildpunkten des Empfänger-Arrays kommen im einfachsten Fall die bekannten Phasenschiebe-Algorithmen mit 3 bis 5 Intensitätswerten zur Anwendung. Dabei wird die Intensität in den Bildpunkten des Empfänger-Arrays entsprechend der Phasenlage des strukturiert leuchtenden Arrays abgetastet. Möglich ist hier eine Abtastung in diskreten 90°-Phasenschritten. Mit den ausgelesenen Intensitätswerten kann beispielsweise auch die Modulation über der Phase in 90°-Schritten mit den bekannten Elementargleichungen bestimmt werden. Die Auswertung der Phasenlage kann in jeweils 180°-Schritten der Phase des strukturiert leuchtenden Arrays, hier des Liniengitters, erfolgen.To determine the phase position of the periodic signals in the pixels of the receiver array In the simplest case, the well-known phase shift algorithms come with 3 to 5 intensity values to use. The intensity in the pixels of the receiver array is accordingly Phase position of the structured, luminous array is scanned. A scan in is possible here discrete 90 ° phase steps. With the intensity values read out, for example, the Modulation over the phase in 90 ° steps determined with the known elementary equations will. The evaluation of the phase position can be structured in 180 ° steps of the phase luminous arrays, here of the line grid.

Besser für die Genauigkeit der Phasenbestimmung und damit für die Tiefenmeßgenauigkeit sind jedoch Algorithmen, die über eine größere Anzahl von Intensitätswerten, beispielsweise 8, 16 oder 32, die Phase im Signal wie auch den Ort des Modulationsmaximums bestimmen. Das gesamte Know-how der Signalverarbeitung, wie es in der Elektrotechnik bereits bekannt ist, kann hier angewendet werden. Beispiele für die erfolgreiche Applikation derartiger Signalauswertungen sind aus der Weißlicht-Interferenzmikroskopie bekannt. Im allgemeinen werden diese Signalauswertungs-Methoden bei Kurzkohärenz-Methoden angewendet.Better for the accuracy of the phase determination and thus for the depth measurement accuracy however, algorithms that have a larger number of intensity values, for example 8, 16 or 32, determine the phase in the signal as well as the location of the maximum modulation. The entire Know-how in signal processing, as is already known in electrical engineering, can be found here be applied. Examples of the successful application of such signal evaluations are out known as white light interference microscopy. Generally these Signal evaluation methods applied to short coherence methods.

Da die Gitterkonstante, des strukturiert leuchtenden Arrays vorzugsweise konstant ist, ist die Phasenänderungsgeschwindigkeit bei einer konstanten Bewegung des strukturiert leuchtenden Arrays, ebenfalls konstant. Dies ermöglicht auch das Anwenden der Sub-Nyquist-Abtastung, da hier aufgrund der Kenntnis der Signalfrequenz das bekannte Abtast-Theorem ohne Nachteile verletzt werden kann. Dies reduziert die Anzahl der aufzunehmenden Bilder ganz erheblich, so daß grundsätzlich eine hohe Geschwindigkeit der Bewegung des Liniengitters realisiert werden kann und so eine Hochgeschwindigkeits-Auswertung realisierbar wird. Digitale Filteroperationen sind in der bekannten Art mit den Phasen-Auswerte-Methoden zu kombinieren, bzw. bereits vor der Phasenauswertung durchzuführen. Dieser Sachverhalt wird hier nicht weiter vertieft, obwohl von der optimalen Gestaltung der Algorithmen die Leistungsfähigkeit des gesamten Auswerte-Verfahrens abhängt. Die Ausführung der Rechenoperationen kann dabei mittels spezieller Hochgeschwindigkeits-Prozessoren erfolgen.Since the lattice constant of the structured illuminated array is preferably constant, the Phase change speed with a constant movement of the structured luminous Arrays, also constant. This also enables the sub-Nyquist scan to be applied since here due to the knowledge of the signal frequency violated the known sampling theorem without disadvantages can be. This considerably reduces the number of pictures to be taken, so that basically a high speed of movement of the line grid can be realized and such a high-speed evaluation can be realized. Digital filtering operations are in the to combine the known type with the phase evaluation methods, or even before Perform phase evaluation. This issue is not discussed further here, although by the optimal design of the algorithms the performance of the entire evaluation process depends. The execution of the arithmetic operations can be done by means of special High speed processors are done.

Es ist vorteilhaft, wenn das strukturiert leuchtende Array, hier das Liniengitter, zusätzlich eine Nullpunktmarke aufweist und die laterale Gitterbewegung mit einem Gegengitter phasenmäßig erfaßt wird. Durch das Positionieren der Referenzplatte im Objektraum in einer bekannten zOB-Position zOB = zOR wird die absolute Phase des Nullpunktes bestimmt. Auch werden die Referenz-Phasen mod 2π als relative Referenzphasen ϕRR durch die Auswertung des Signalverlaufs in den Abbildungsstrahlen im Bereich der scharfen Abbildung der Referenzplatte ermittelt und gespeichert. It is advantageous if the structured, luminous array, here the line grating, additionally has a zero point mark and the lateral grating movement is detected in phase with a counter grating. The absolute phase of the zero point is determined by positioning the reference plate in the object space in a known z OB position z OB = z OR . The reference phases mod 2π are also determined and stored as relative reference phases ϕ RR by evaluating the signal curve in the imaging beams in the area of the sharp image of the reference plate.

Bei einem unbekannten Objekt wird durch den Signalverlauf im Schärfebereich des Objektpunktes die zugehörige Phase des Liniengitters ϕGitter an der Stelle im Signalverlauf im Bereich des Maximums der Modulation ermittelt, die der zugehörigen Referenz-Anfangsphase im Bereich des Maximums der Modulation entspricht.In the case of an unknown object, the associated phase of the line grating ϕ grating at the point in the signal course in the area of the maximum of the modulation is determined by the signal curve in the focus area of the object point, which corresponds to the associated reference initial phase in the area of the maximum of the modulation.

Dann kann die Objektphase für jede Ebene in der Entfernung zOB mittels der Phase, die aus der Gitterverschiebung abgeleitet wird, bestimmt werden. Die hochstabile Nullpunktmarke kann als Startpunkt für die laterale Bewegung des Liniengitters dabei so einjustiert werden, daß der Start der Bildaufnahme kurz vor dem Erreichen der scharfen Abbildung der Referenzplatte durch die koordinierte Bewegung von Liniengitter und Bildempfänger beginnt. Auch nach dem Entfernen der Referenzplatte bleibt die Lage der Referenzplatte beim Einmessen jeweils als "die Referenzfläche des 3D-Aufnahmesystems" bis zum neuen Einmessen bestehen.The object phase can then be determined for each level at a distance z OB using the phase which is derived from the grid shift. The highly stable zero point mark can be adjusted as the starting point for the lateral movement of the line grid so that the start of the image recording begins shortly before the sharp image of the reference plate is reached by the coordinated movement of the line grid and image receiver. Even after removing the reference plate, the position of the reference plate remains as "the reference surface of the 3D recording system" until the new measurement.

In der vorangegangenen Darstellung wurde davon ausgegangen, daß das Beleuchtungsobjektiv und das Abbildungsobjektiv stets fest angeordnet sind und in sich starre Objektive darstellen, also keine eigene Fokussierung aufweisen, bzw. die gegebenenfalls vorhandene, objektiveigene Fokussierung nicht benutzt wird. Die Brennebenen der Objektive stehen demzufolge fest im Raum. Das Fokussieren im Sinne des Veränderns der Lage der Schärfeflächen im Objektraum erfolgte in der bisherigen Darstellung jeweils über das Bewegen des strukturiert leuchtenden Arrays und des Empfänger-Arrays in einer Komponente parallel zur optischen Achse der Objektive.In the previous illustration, it was assumed that the lighting lens and the imaging lens is always arranged in a fixed manner and represents rigid lenses, i.e. none have their own focus, or the objective objective focus that may exist is not used. The focal planes of the lenses are therefore fixed in the room. The focus in the sense of changing the position of the focus areas in the object space was done in the previous one Representation in each case by moving the structured illuminated array and the receiver array in a component parallel to the optical axis of the lenses.

Im Fall des Veränderns der Lage der Schärfeflächen im Objektraum über die Fokussierung des Objektivs, beispielsweise durch eine interne Fokussierung, wie es dem Stand bei modernen Fotoobjektiven entspricht, muß die Fokussierung elektronisch steuerbar sein, d. h. die Objektive müssen auch eine motorische Fokussierung gestatten. Auch beim Verschieben des gesamten Objektivs zum Zweck der Fokussierung muß eine motorische Verschiebung gewährleistet sein.In the case of changing the position of the focus areas in the object space by focusing the Lens, for example, by an internal focus, as is the case with modern Corresponds to photo lenses, the focus must be electronically controllable, d. H. the lenses must also allow motorized focusing. Even when moving the whole A motorized shift must be ensured for the purpose of focusing.

Da moderne Objektive mit interner Fokussiermöglichkeit durch das Verschieben von massearmen, optischen Komponenten im allgemeinen eine recht schnelle Fokussierung ermöglichen, wird dieser Fall betrachtet.Since modern lenses with an internal focusing option by moving low-mass, optical components in general enable a very quick focusing, this will Considered case.

Grundsätzlich kommt es aber bei der erfindungsgemäßen 3D-Aufnahme-Anordnung und dem 3D-Aufnahme-Verfahren jedoch nur darauf an, eine definierte Relativbewegung zwischen den Brennebenen der Objektive und den jeweils zugehörigen Arrays oder den Orten der Extrema der Leuchtdichte auf diesen zu erreichen. Zum Erreichen der Relativbewegung können auch die Brennebenen im Raum bewegt werden, beispielsweise durch eine interne Fokussierung des Objektivs.Basically, however, it comes with the 3D recording arrangement according to the invention and the 3D recording methods, however, only rely on a defined relative movement between the Focal planes of the lenses and the associated arrays or the locations of the extremes To achieve luminance on this. To achieve the relative movement, the Focal planes are moved in space, for example by internal focusing of the Lens.

Ziel ist letztlich die Detektierung eines modulierten cos2-ähnlichen Signals mit einem Modulationsmaximum in den Bildpunkten des Empfänger-Arrays. Die Annäherung an die cos2-Charakteristik wird bekannterweise durch die optische Modulationsübertragungfunktion des Objektivs in der jeweiligen Abbildungssituation unterstützt.The ultimate goal is the detection of a modulated cos 2 -like signal with a modulation maximum in the pixels of the receiver array. As is known, the approximation to the cos 2 characteristic is supported by the optical modulation transfer function of the lens in the respective imaging situation.

Es muß realisiert werden, daß die Bewegung des Punktes des strukturiert leuchtenden Arrays, welcher in der Brennebenenlage des strukturiert leuchtenden Arrays mit dem Brennpunkt des Beleuchtungsobjektivs koinzidiert, auf einer Geraden gA erfolgt. Andere Punkte, bzw. Elemente des strukturiert leuchtenden Arrays bewegen sich auf parallelen Geraden zur Geraden gA. Diese Gerade gA ist so definiert, daß diese stets den Brennpunkt des Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg, definiert als Quotient aus Brennweite des Beleuchtungsobjektivs im Array-Raum und Abstand des Brennpunktes vom Abbildungsobjektiv, aufweist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist. Demzufolge bewegt sich die Gerade gA gemeinsam mit der Brennebene des Beleuchtungsobjektivs. Da sich beim internen Fokussieren der Brennpunkt stets auf der Achse des Beleuchtungsobjektivs bewegt, ist zur Realisierung der Bewegung der Elemente des strukturiert leuchtenden Arrays auf einer Geraden gA, noch eine zusätzliche Bewegung des strukturiert leuchtenden Arrays senkrecht zur optischen Achse erforderlich. Bei einem elektronisch steuerbaren Liniengitter wird eine Veränderung der Orte der lokalen Extrema der Leuchtdichte erzeugt. Dies kann auch als eine Bewegung senkrecht zur optischen Achse verstanden werden.It must be realized that the movement of the point of the structured luminous array, which coincides with the focal point of the illumination objective in the focal plane position of the structured luminous array, takes place on a straight line g A. Other points or elements of the structured, illuminated array move on parallel straight lines to straight line g A. This straight line g A is defined in such a way that it always intersects the focal point of the illumination lens in the array space and has the increase, defined as the quotient of the focal length of the illumination lens in the array space and the distance of the focal point from the imaging lens, this increase in the straight line g A is related to an axis perpendicular to the axis of the lighting lens. As a result, the straight line g A moves together with the focal plane of the illumination lens. Since the focal point always moves on the axis of the illuminating lens during internal focusing, an additional movement of the structured luminous array perpendicular to the optical axis is required to implement the movement of the elements of the structured luminous array on a straight line g A. In the case of an electronically controllable line grid, a change in the locations of the local extremes of the luminance is generated. This can also be understood as a movement perpendicular to the optical axis.

Es ist sehr wesentlich für die Genauigkeit des Meßverfahrens, daß die beschriebene Bewegung oder Verschiebung der Brennebene des Beleuchtungsobjektivs sehr genau erfolgt, so daß die Bewegung auf der Geraden gA nur mit möglichst kleinen Lageabweichungen erfolgt. Dies kann mittels eines hochauflösenden, internen Wegmeßsystems für die zwecks interner Fokussierung bewegten optischen Komponenten im Beleuchtungsobjektiv unterstützt werden.It is very important for the accuracy of the measuring method that the movement or displacement of the focal plane of the illumination lens described takes place very precisely, so that the movement on the straight line g A occurs only with the smallest possible positional deviations. This can be supported by means of a high-resolution, internal position measuring system for the optical components in the lighting lens that are moved for internal focusing.

Die interne Fokussierung des Abbildungsobjektivs mit einer miniaturisierten Linearführung sollte so erfolgen, daß die Schärfefläche des Abbildungsobjektivs mit der durch das Beleuchtungsobjektiv vorgegebenen Schärfefläche im Objektraum möglichst gut koinzidiert. Möglich ist auch hier die Verwendung eines hochauflösenden, internen Wegmeßsystems für die zwecks interner Fokussierung im Abbildungsobjektiv bewegten optischen Komponenten. Auch ist eine starre Kopplung der bewegten Komponenten der beiden Objektive grundsätzlich möglich.The internal focusing of the imaging lens with a miniaturized linear guide should be like this take place that the focus of the imaging lens with that through the lighting lens predetermined sharpness area in the object space coincides as well as possible. This is also possible here Use of a high-resolution, internal measuring system for the purpose of internal focusing optical components moved in the imaging lens. There is also a rigid coupling of the moving Components of the two lenses are basically possible.

Um die Anforderungen an die Genauigkeit der internen Fokussierung des Abbildungsobjektivs zu verringern, kann das Abbildungsobjektiv etwas stärker abgeblendet werden, da sich dann der Schärfentiefebereich vergrößert. Im Extremfall ist auch eine so starke Abblendung des Abbildungsobjektivs denkbar, daß dann bei einem Objekt mit begrenzter Tiefenausdehnung sowohl auf dessen interne Fokussierung als auch auf eine Bewegung des Empfänger-Arrays - also auf eine Fokussierung im Abbildungsstrahlengang überhaupt - verzichtet werden kann.To meet the accuracy requirements of the internal focusing of the imaging lens reduce, the imaging lens can be dimmed a little more, because then the Depth of field enlarged. In extreme cases, such a strong dimming of the Imaging lens conceivable that then both with an object with limited depth on its internal focusing as well as on a movement of the receiver array - that is, on one Focusing in the imaging beam path at all - can be dispensed with.

So wird erfindungsgemäß auch eine Anordnung vorgeschlagen, die mit einem elektronisch steuerbaren Liniengitter als strukturiert leuchtendes Array arbeitet, welches eine Verschiebung der Orte der lokalen Extrema der Leuchtdichte auf dem Empfänger-Array, beziehungsweise bei einer cos2-ähnlichen Leuchtdichteverteilung auf dem strukturiert leuchtenden Array eine Verschiebung der Phasenlage, erzeugt, und das zugehörige Beleuchtungsobjektiv gleichzeitig eine interne Fokussierung aufweist. Dadurch bewegen sich die Orte der Extrema oder die Orte gleicher Phase der Leuchtdichteverteilung auf dem strukturiert leuchtendes Array auch bei der internen Fokussierung auf einer sich im Raum bewegenden Geraden gA.According to the invention, an arrangement is also proposed which works with an electronically controllable line grating as a structured luminous array, which shifts the locations of the local extremes of the luminance on the receiver array, or, in the case of a cos 2 -like luminance distribution, on the structured luminous array Shift of the phase position, generated, and the associated lighting lens has an internal focusing at the same time. As a result, the locations of the extremes or the locations of the same phase of the luminance distribution move on the structured, luminous array, even when focusing internally on a straight line g A moving in space.

Grundsätzlich ist es möglich, daß die beiden Achsen von Beleuchtungsobjektiv und Abbildungsobjektiv zueinander geneigt sind. Jedoch ist es in diesem Fall von großem Vorteil, wenn der Brennpunkt FOA des Abbildungsobjektivs im Objektraum in der Brennebene des Beleuchtungsobjektivs liegt. Die Lage dieses Brennpunktes FOA definiert den Ort der Geraden gO, die als Bild der Geraden gA definitionsgemäß diesen Brennpunkt FOA enthalten und parallel zur Achse des Beleuchtungsobjektivs liegen muß. Dies führt dazu, daß die Tiefenempfindlichkeit der 3D-Aufnahme-Anordnung in einer zur Achse des Beleuchtungsobjektivs senkrechten Ebene im Objektraum eine Konstante ist, also die Tiefenempfindlichkeit keine laterale Abhängigkeit in der Ebene aufweist.In principle, it is possible for the two axes of the illumination lens and the imaging lens to be inclined to one another. However, in this case it is of great advantage if the focal point F OA of the imaging lens lies in the object space in the focal plane of the illumination lens. The position of this focal point F OA defines the location of the straight line g O , which by definition contains this focal point F OA as an image of the straight line g A and must lie parallel to the axis of the illumination lens. This means that the depth sensitivity of the 3D recording arrangement in a plane perpendicular to the axis of the illumination lens in the object space is a constant, that is, the depth sensitivity has no lateral dependence in the plane.

Bei einer gegebenen Anordnung von Beleuchtungs- und Abbildungsobjektiv muß die Richtung der Bewegung der Elemente des strukturiert leuchtenden Arrays parallel zur Geraden gA liegen. Wie bereits dargestellt, ist die Gerade gA dabei so definiert, daß deren Bild im Objektraum, die Gerade gO, den Brennpunkt des Abbildungsobjektivs im Objektraum bei gleichzeitig paralleler Lage zur Achse des Beleuchtungsobjektivs schneidet. Die Anordnung mit zueinander geneigten optischen Achsen der Objektive bringt Vorteile, wenn sich Bereiche des Objektes in besonders geringer Entfernung vom Beleuchtungsobjektiv befinden und diese vom Abbildungsobjektiv bei einer parallelen Anordnung der Objektive nicht mehr aufgenommen werden können. Hierbei ist es von Vorteil, wenn das Abbildungsobjektiv so aus der parallelen Lage herausgedreht ist oder motorisch und rechnergesteuert herausgedreht wird, daß es die Bereiche des Objektes in besonders geringer Entfernung erfassen kann.For a given arrangement of illumination and imaging objective, the direction of movement of the elements of the structured luminous array must be parallel to the line g A. As already shown, the line g A is defined such that its image in the object space, the line g O , intersects the focal point of the imaging lens in the object space while at the same time being parallel to the axis of the illumination lens. The arrangement with the optical axes of the lenses inclined to one another brings advantages if regions of the object are at a particularly short distance from the illumination lens and these can no longer be recorded by the imaging lens when the lenses are arranged in parallel. It is advantageous here if the imaging lens is rotated out of the parallel position or rotated out in a motor and computer-controlled manner so that it can capture the areas of the object at a particularly short distance.

Weiterhin ist es möglich, daß das Empfänger-Array zusätzlich rechnergesteuert drehbar angeordnet ist, um die Scheimpflugbedingung zu erfüllen, wodurch die Koinzidenz der Schärfeflächen im Objektraum erreichbar ist. Es ist auch möglich, daß die beiden Objektive unterschiedliche Brennweiten aufweisen können, wobei das Abbildungsobjektiv wesentlich kurzbrennweitiger gestaltet ist, wenn sich nur der Brennpunkt des Abbildungsobjektivs in der Brennebene des Beleuchtungsobjektivs im Objektraum befindet.It is also possible for the receiver array to be additionally rotatably arranged under computer control is to meet the Scheimpflug condition, whereby the coincidence of the focus areas in the Object space is accessible. It is also possible that the two lenses have different focal lengths can have, wherein the imaging lens is designed much shorter focal length if only the focal point of the imaging lens in the focal plane of the lighting lens in Object space is located.

Es ist weiterhin von Vorteil für das Einmessen und Kontrollieren der 3D-Aufnahme-Anordnung, daß eine transparente Platte als permanent verbleibende Referenzplatte achssenkrecht in der Nahdistanz im Objektraum zur Selbsteinmessung zugeordnet ist, wobei auf mindestens einer der beiden Flächen eine schwach lichtstreuende Mikrostruktur aufgebracht ist. Die Mikrostruktur bewirkt eine für die Erfassung der Fläche der Referenzplatte ausreichende Rückstreuung in die 3D-Aufnahme-Anordnung. Die Einmessung kann beliebig oft kontrolliert und gegebenenfalls korrigiert werden, beispielsweise beim Auftreten von Temperaturänderungen. Auch ist es möglich, die Anordnung zu kapseln und thermisch durch eine Temperaturregelung zu stabilisieren, um ein temperaturbedingtes Driften der Phasenlagen zu verhindern. Auch ist zum Einmessen die Verwendung einer Anordnung mit zwei parallel angeordneten transparenten Platten mit Luftspalt im Objektraum möglich, wobei der Luftspalt konstant und dessen Geometrie bekannt ist.It is also advantageous for measuring and checking the 3D recording arrangement that a transparent plate as a permanently remaining reference plate perpendicular to the axis at close range is assigned in the object space for self-measurement, with at least one of the two surfaces a weakly light-scattering microstructure is applied. The microstructure does one for the Detection of the area of the reference plate sufficient backscatter in the 3D recording arrangement. The measurement can be checked and corrected as often as required , for example when temperature changes occur. It is also possible that Arrangement to encapsulate and thermally stabilize through a temperature control to a to prevent temperature-related drift of the phase positions. It is also to be measured Use of an arrangement with two parallel arranged transparent plates with an air gap in the Object space possible, the air gap is constant and its geometry is known.

Grundsätzlich können die mit einer Referenzplatte gemessenen relativen Phasenwerte ϕRR in einer Rerenzphasen-Matrix abgelegt werden und zur Berechnung der Objektkoordinaten genutzt werden, auch wenn die Referenzplatte bereits wieder entfernt ist.In principle, the relative phase values ϕ RR measured with a reference plate can be stored in a reference phase matrix and used to calculate the object coordinates, even if the reference plate has already been removed.

Es ist auch möglich, Verzeichnungen der Objektive und Justierfehler der Anordnung als Phasenbeträge über die Raumkoordinaten zu ermitteln und zu speichern und bei Bedarf zur Korrektur zu verwenden. It is also possible to see distortions of the lenses and adjustment errors of the arrangement Determine and save phase amounts via the room coordinates and, if necessary, for correction to use.  

Die beschriebene Vorgehensweise gestattet grundsätzlich die zeitoptimale Auswertung auf der Basis von straight forward-Algorithmen. Diese Algorithmen können in speziellen Hochgeschwindigkeits-Prozessoren implementiert werden, wodurch eine Echtzeitauswertung von bewegten Objekten und Personen möglich wird.The procedure described basically allows time-optimal evaluation on the basis of straight forward algorithms. These algorithms can be used in special High-speed processors are implemented, which enables real-time evaluation of moving objects and people is possible.

Für ein optimales Signal-Rausch-Verhältnis in den Signalen kann die Helligkeit der Strahlungsquelle in Abhängigkeit von der Position des strukturiert leuchtenden Arrays gesteuert werden. Für die Anpassung an das lateral unterschiedliche Reflexionsvermögen in den einzelnen Objektpunkten kann dagegen in einem elektronisch steuerbaren, strukturiert leuchtenden Array die Lichtintensität pixelweise objektorientiert angepaßt werden. Dabei kann das elektronisch steuerbare strukturiert leuchtende Array lateral bewegt werden, um die Phase zu ändern, aber auch lateral feststehen und elektronisch durch Verschieben der Gitterlinien eine Phasenänderung erzeugen, beispielsweise mit konstanter Phasengeschwindigkeit.For an optimal signal-to-noise ratio in the signals, the brightness of the radiation source can be adjusted in Depending on the position of the structured illuminated array can be controlled. For the Can adapt to the laterally different reflectivity in the individual object points in contrast, the light intensity in an electronically controllable, structured, luminous array pixel-by-object adjusted. The electronically controllable can be structured luminous array can be moved laterally to change the phase, but also laterally fixed and generate a phase change electronically by moving the grid lines, for example with constant phase velocity.

Weiterhin kann die Lichtstärke der Objektive verändert werden. Es kann abgeblendet werden, um den Schärfentiefebereich beispielsweise bei schnellen Orientierungsmessungen vergrößern zu können. Dies verringert die Anzahl der notwendigen Bilder, verringert aber auch die Tiefenmeßgenauigkeit. Um dagegen den Schärfentiefebereich verkleinern zu können, werden eine oder zwei Apodisationsblenden angeordnet, eine in der Austrittspupille des Beleuchtungsobjektivs und eine in der Eintrittspupille des Abbildungsobjektivs also jeweils im Objektraum. Diese Blenden sind so gestaltet, daß die achsnahen Strahlen geschwächt oder ausgeblendet werden, um eine stärkere Wirkung der Randstrahlen zu erreichen. Es sind die aus der Spektroskopie bekannten Apodisationsfunktionen, beispielsweise Rechteck, Dreieck- oder Gaußfunktion einsetzbar.The light intensity of the lenses can also be changed. It can be dimmed to the To be able to enlarge the depth of field, for example, for fast orientation measurements. This reduces the number of images required, but also reduces the depth measurement accuracy. Around on the other hand, being able to reduce the depth of field becomes one or two Apodization diaphragms arranged, one in the exit pupil of the lighting lens and one in the entrance pupil of the imaging lens in each case in the object space. These panels are like this designed that the near-axis rays are weakened or masked to a stronger one To achieve the effect of the marginal rays. They are the ones known from spectroscopy Apodization functions, for example rectangular, triangular or Gaussian functions can be used.

Andererseits kann in bestimmten Fällen, beispielsweise für die besonders schnelle 3D-Aufnahme, auch ein Bewegungssystem mit einem rotatorischen Antrieb zur kontinuierlichen, rotatorischen Bewegung eines strukturiert leuchtenden Arrays, vorzugsweise in der Art eines Radialgitters mit mindestens einer Referenzmarke, angeordnet sein, wobei ein Ausschnitt des Radialgittes das Feld des Beleuchtungsobjektivs vollständig ausfüllt. Dem Radialgitter ist ein Gegengitter zur phasenmäßigen Abtastung zugeordnet, welches die Gegenstruktur zur Abtastung enthält, sowie die Beleuchtung, ein Optikmodul und die Auswerte-Elektronik mit Rechnerschnittstelle. Auch auf dem Gegengitter befindet sich außerdem noch eine Referenzmarke für das Gewinnen mindestens eines hochgenauen Nullpunkt-Signals.On the other hand, in certain cases, for example for the particularly fast 3D recording, also a motion system with a rotary drive for continuous, rotary Movement of a structured, luminous array, preferably in the manner of a radial grid at least one reference mark can be arranged, with a section of the radial grid the field of the lighting lens completely. The radial grid is a counter grid assigned phase-wise scanning, which contains the counter structure to the scanning, and the Lighting, an optics module and the evaluation electronics with computer interface. Also on the Counter grid is also a reference mark for winning at least one highly accurate zero point signal.

Weiterhin weist dieses Bewegungssystem eine Linearführung auf, die den rotatorischen Antrieb zur vorzugsweise kontinuierlichen rotatorischen Bewegung des strukturiert leuchtenden Arrays und das Empfänger-Array trägt. Die Bewegungsrichtung der Linearführung liegt parallel zur optischen Achse des Abbildungsobjektivs in zA-Richtung. Durch die Kopplung des Radialgitters mit einem rotatorischen Antrieb wird erreicht, daß das strukturiert leuchtende Array einen kontinuierlichen Lauf erfährt, der durch die phasenmäßige Abtastung hochgenau geregelt werden kann. Bei dieser Lösung tritt wegen der Struktur des Radialgitters eine Variation der Gitterkonstante entlang der Koordinate xA auf. Für Radialgitter mit einem vergleichsweise großen Durchmesser zum Feld des Abbildungsobjektivs ist diese Tatsache in Verbindung mit numerischen Methoden akzeptierbar. Furthermore, this movement system has a linear guide, which carries the rotary drive for the preferably continuous rotary movement of the structured luminous array and the receiver array. The direction of movement of the linear guide is parallel to the optical axis of the imaging lens in the z A direction. The coupling of the radial grid with a rotary drive ensures that the structured, luminous array undergoes a continuous run, which can be controlled with high precision by the phase-based scanning. In this solution, because of the structure of the radial lattice, there is a variation in the lattice constant along the coordinate x A. For radial gratings with a comparatively large diameter to the field of the imaging lens, this fact is acceptable in connection with numerical methods.

Es ist grundsätzlich möglich, für das Beleuchtungs- und das Abbildungsobjektiv rechnergesteuerte Zoom-Objektive einzusetzen, die vorzugsweise jeweils mit der gleichen Brennweiteneinstellung arbeiten.It is basically possible to use computer-controlled lighting and imaging lenses Use zoom lenses, preferably with the same focal length setting work.

Um vom strukturiert leuchtenden Array weit geöffnete Strahlenbündel ausgehen zu lassen, kann das strukturiert leuchtende Array mit einem speziellen Mikrolinsen-Array gekoppelt sein, beispielsweise kann dieses Mikrolinsen-Array dem strukturiert leuchtendes Array in Lichtrichtung vorgeordnet sein. Es ist auch möglich, das strukturiert leuchtende Array selbst als Zylinderlinsen-Array hoher Apertur auszuführen.In order to let the structured, luminous array emit wide-open beams of rays, this can be done structured illuminated array can be coupled with a special microlens array, for example This microlens array can be arranged upstream of the structured, luminous array in the light direction. It is also possible to use the structured, luminous array itself as a cylindrical lens array with a high aperture to execute.

Die Kontrolle der Parallelität der optischen Achsen der beiden Objektive kann mit Hilfe des Vergleichs der Phasenlagen zwischen der Phase des am strukturiert leuchtenden Array abgenommenen Signals und der Phase, die im Signal in einem Bildpunkt auf der optischen Achse des Abbildungsobjektivs detektiert werden kann, erfolgen, wenn eine Referenzplatte dabei in der Tiefe verschoben wird und der Verschiebeweg dabei gemessen wird.The comparison of the parallelism of the optical axes of the two lenses can be checked with the help of the comparison the phase positions between the phase of the signal picked up on the structured illuminated array and the phase in the signal in a pixel on the optical axis of the imaging lens can be detected if a reference plate is shifted in depth and the displacement path is measured.

Es ist mit einem elektronisch gesteuerten, strukturiert leuchtenden Array möglich, die durch Telezentriefehler des Beleuchtungsobjektivs beim Tiefen-Scannen auftretenden Phasenfehler durch Dehnen oder Stauchen des elektronisch gesteuerten strukturiert leuchtenden Arrays auszugleichen.It is possible with an electronically controlled, structured array that shines through Illumination lens telecentricity error due to phase errors occurring during deep scanning Compensate for stretching or compression of the electronically controlled structured illuminated array.

Für das Einmessen und Kontrollieren der Tiefenempfindlichkeit der Anordnung kann eine Stiftplatte verwendet werden. Die Stifte sind sehr präzise und fest an einer Trägerplatte in einem bekannten Raster befestigt und weisen bezogen auf die Trägerplatte zwei unterschiedliche, aber bekannte Stiftlängen auf. Die Abstände der Stifte sind so groß gewählt, daß in einem bestimmten Entfernungsbereich der Platte von der Anordnung auf den Stirnflächen der Stifte keine Abschattung auftritt. So werden zwei Ebenen mit einem sehr genau bekannten Abstand dargestellt. Dieser Abstand kann mit einer hochgenauen Koordinaten-Meßmaschine vermessen werden. In verschiedenen Abständen der Platte von der Anordnung kann so die Tiefenempfindlichkeit dieser Anordnung, aber auch die Verzeichnungen der Objektive bestimmt werden.A pin plate can be used to measure and control the depth sensitivity of the arrangement be used. The pins are very precise and firmly attached to a base plate in a known manner Grid attached and have two different but known based on the support plate Pen lengths. The distances between the pins are chosen so large that in a certain Distance of the plate from the arrangement on the end faces of the pins no shadowing occurs. In this way, two levels are displayed with a very well-known distance. This distance can be measured with a high-precision coordinate measuring machine. In different Distances of the plate from the arrangement can, however, affect the depth sensitivity of this arrangement the distortions of the lenses can also be determined.

Um sehr große Objekte teilweise oder rundum vermessen zu können, wird aus einer größeren Zahl von 3D-Aufnahme-Anordnungen ein Schirm aufgebaut. Dieser Schirm kann näherungsweise die Grobform des zu vermessenden Objektes, beispielsweise die Form einer kompletten Automobilkarosserie, aufweisen. Die erfaßten Objekträume der 3D-Aufnahme-Anordnungen überdecken sich teilweise. Das Einmessen kann durch mehrere Referenzkörper, auch Planplatten, gegebenenfalls mit Marken erfolgen, die gleichzeitig von zwei 3D-Aufnahme-Anordnungen im Überdeckungsbereich erfaßt werden.In order to be able to measure very large objects partially or all around, a larger number becomes A screen is built up from 3D recording arrangements. This screen can approximate the Coarse shape of the object to be measured, for example the shape of a complete one Automobile body, have. The detected object spaces of the 3D recording arrangements partially overlap. The measurement can be made using several reference bodies, including flat plates, possibly with marks that are simultaneously from two 3D imaging arrangements in the Coverage area can be detected.

Auch ist es möglich, daß mehrere 3D-Aufnahme-Anordnungen nebeneinander so positioniert sind, daß sich ein Objekt oder eine Szene vollständig oder in einem großen Bereich erfassen läßt, wobei sich die erfaßten Bereiche im Objektraum der unmittelbar nebeneinander positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es findet keine Überdeckung mit der übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt mit einer jeweils andersfarbigen Strahlungsquelle ab. Dann beleuchten beispielsweise die 3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt mit rotem Licht und die 3D-Aufnahme-Anordnungen mit einer ungeradzahligen Positionsnummer das Objekt mit grünem Licht. Im Abbildungsstrahlengang der 3D-Aufnahme-Anordnungen befinden sich entsprechend schmalbandige Filter, die nur das Licht der eigenen Strahlungsquelle passieren lassen. Denkbar sind auch mehrere Lichtfarben, wodurch mehr als zwei 3D-Aufnahme-Anordnungen den gleichen Teil des Objektes erfassen können.It is also possible for several 3D recording arrangements to be positioned next to one another in such a way that that an object or a scene can be captured completely or in a large area, whereby the detected areas in the object space are positioned directly next to each other Partially cover 3D recording arrangements. However, there is no overlap with that the next but one 3D recording arrangement takes place. The positioned next to each other 3D recording arrangements illuminate and form the object with a different color Radiation source. Then, for example, illuminate the 3D recording arrangements with a Even-numbered position number using red light and the 3D imaging arrangements  an odd-numbered position number the object with a green light. In the imaging beam path the 3D recording arrangements are correspondingly narrow-band filters that only light the let your own radiation source pass. Several light colors are also conceivable, which means more can capture the same part of the object as two 3D recording arrangements.

Weiterhin können mehrere Beleuchtungsobjektive einem Abbildungsobjektiv zugeordnet sein, beispielsweise zwei. Dabei kann jedem Beuchtungsobjektiv eine andersfarbige Strahlungsquelle zugeordnet sein, beispielsweise dem ersten eine rote und dem zweiten eine grüne. Dem Abbildungsobjektiv ist ein mechanisch oder elektronisch schaltbares Filter zugeordnet, um jeweils nur Licht einer einzigen Strahlungsquelle auf den Bildempfänger gelangen zu lassen.Furthermore, several illumination lenses can be assigned to one imaging lens, for example two. Each illumination lens can have a differently colored radiation source be assigned, for example the first a red and the second a green. The Imaging lens is assigned a mechanically or electronically switchable filter, in order to only Let light from a single radiation source reach the image receiver.

Andererseits kann auch eine farbtüchtige Kamera angeordnet sein, um gleichzeitig das strukturierte Licht aus den beiden Beleuchtungsobjektiven getrennt zu verarbeiten. So können verschiedene Beleuchtungsrichtungen im Objektraum realisiert werden, um beispielsweise direkte Reflexe von einem speziellen Objektdetail wenigstens bei einer Aufnahme nicht auftreten zu lassen. Auch werden die Schatten der jeweils anderen Aufnahme ausgeleuchtet und so können auch diese Objektteile sichtbar gemacht werden.On the other hand, a color-capable camera can also be arranged to simultaneously view the structured one Process light from the two lighting lenses separately. So different Illumination directions can be realized in the object space, for example, to directly reflect from not to let a special object detail appear at least during a recording. Be too the shadows of the other shot are illuminated and so can these object parts be made visible.

Möglich ist Trennung der Bilder von verschiedenen Beleuchtungsobjektiven auch mittels drehbarer Polarisatoren und der Verwendung von polarisiertem Licht.It is also possible to separate the images from different lighting objectives by means of rotatable ones Polarizers and the use of polarized light.

Für die Farb-Aufnahmetechnik mit farbsensitiven Bildaufnehmern kann wie folgt vorgegangen werden:
Die Beleuchtung des Objektes oder der Szene erfolgt vorzugsweise mit weißem Licht und mehrere 3D-Aufnahme-Anordnungen sind so positioniert, daß sich ein Objekt oder eine Szene vollständig oder in einem großen Bereich erfassen läßt, wobei sich die erfaßten Bereich oder Winkel-Bereiche im Objektraum der unmittelbar nebeneinander positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es findet keine Überdeckung der mit der übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt zu jeweils unterschiedlichen Zeiten ab. Zu diesem Zweck sind alle 3D-Aufnahme-Anordnungen von einer Leitstelle aus synchronisiert, so daß das Aufnehmen von Bildern auch synchron erfolgt. Dann erfassen beispielsweise die 3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt im Hinlauf der bewegten Arrays und die 3D-Aufnahme-Anordnungen mit einer ungeradzahligen Positionsnummer das Objekt im Rücklauf der bewegten Arrays und die Objekte sind nur beleuchtet, wenn jeweils die Aufnahme von Bildern erfolgt.
The procedure for color imaging technology with color-sensitive image sensors is as follows:
The object or the scene is preferably illuminated with white light and several 3D recording arrangements are positioned such that an object or a scene can be captured completely or in a large area, the captured area or angular areas in the object space partially overlap the 3D recording arrangements positioned directly next to each other. However, there is no overlap of those with the 3D recording arrangement after next. The 3D recording arrangements positioned next to each other illuminate and depict the object at different times. For this purpose, all 3D recording arrangements are synchronized from a control center, so that pictures are also taken synchronously. Then, for example, the 3D recording arrangements with an even-numbered position number capture the object in the direction of the moving arrays and the 3D-recording arrangements with an odd-numbered position number capture the object in the return of the moving arrays, and the objects are only illuminated when the in each case the recording of Pictures.

Bei Verwendung einer farbtüchtigen Kamera als Bildaufnehmer sind vorzugsweise die jeweils zusammengehörenden farblich sensitiven Elemente, auch als RGB-Sensoren bekannt, linienförmig und in Richtung der Streifen des Liniengitters, also auf Linien gleicher Phase, angeordnet. Dadurch wird erreicht, daß es keine farblich bedingten Phasenlagen in den Signalen gibt. Dagegen kann die Phase zwischen den RGB-Sensoren objektbedingt durchaus verschieden sein.When using a color-capable camera as an image pickup, they are preferably each related color-sensitive elements, also known as RGB sensors, linear and arranged in the direction of the stripes of the line grid, ie on lines of the same phase. Thereby it is achieved that there are no color-related phase positions in the signals. On the other hand, the The phase between the RGB sensors may differ depending on the object.

Weiterhin ist es auch möglich, daß ein Roboterarm eine einzige 3D-Aufnahme- Anordnung über das Objekt führt und die Daten nacheinander eingelesen werden. Durch Überdeckung der erfaßten Bereiche der Objektoberfläche erfolgt ein "Weiterhangeln" über die Objektoberfläche, welches grundsätzlich ohne das Vorhandensein von Bezugsmarken auf der Objektoberfläche möglich ist. Die jeweils erfaßten Objekträume werden numerisch zusammengesetzt.Furthermore, it is also possible for a robot arm to take a single 3D image Arrangement over the object leads and the data are read in successively. By Coverage of the detected areas of the object surface is followed by a "wobble" over the  Object surface, which is basically without the presence of reference marks on the Object surface is possible. The object spaces recorded in each case are put together numerically.

Das Abbildungsobjektiv kann fest angeordnet sein. Dabei ist mindestens ein Beleuchtungsobjektiv gemeinsam mit dem strukturiert leuchtenden Array und der kompletten Beleuchtungsanordnung um das Abbildungsobjektiv drehbar oder schwenkbar angeordnet, wobei vorteilhafterweise die optische Achse des Abbildungsobjektivs die Drehachse für das Beleuchtungsobjektiv darstellen kann. Damit ist eine Beleuchtung des Objektes aus verschiedenen Richtungen möglich, um Schatten zu eliminieren. Die Drehbewegung wird rechnergesteuert.The imaging lens can be fixed. There is at least one lighting lens together with the structured illuminated array and the complete lighting arrangement the imaging lens is rotatably or pivotably arranged, advantageously the optical Axis of the imaging lens can represent the axis of rotation for the lighting lens. So that is the object can be illuminated from different directions to eliminate shadows. The rotation is computer controlled.

Auch ist es möglich, daß sich vor der 3D-Aufnahme-Anordnung ein schwenkbarer Planspiegel befindet, der in den Strahlengang geschwenkt werden kann und so eine fest angeordnete Referenzplatte vermessen und nach erfolgter Vermessung der Planspiegel zurückgeschwenkt wird.It is also possible that there is a pivotable plane mirror in front of the 3D image arrangement located, which can be pivoted into the beam path and thus a fixed Measure the reference plate and after the measurement has been carried out, the plane mirror is pivoted back.

Vorteilhaft ist es, wenn zu Beginn eines 3D-Aufnahmeverfahrens in einem Bildaufnahmevorgang ein erster Datensatz gewonnen und gespeichert wird und die errechneten Objektpunkte eliminiert werden, die eine Abweichung vom Modulationsmaximum aufweisen. Anschließend kann das strukturiert leuchtende Array um einen Bruchteil der Gitterperiode verschoben werden und mindestens ein zweiter Datensatz aufgenommen und gespeichert wird, wobei die errechneten Werte ebenfalls eliminiert werden, die sich nicht in unmittelbarer Lage des Modulationsmaximums befinden. Aufgrund der durch die Gitterverschiebung im Bruchteil der Gitterperiode erfolgten Phasenänderung sind die errechneten Objektpunkte der ersten Messung mit denen der zweiten Messung nicht identisch, so daß eine vollständige Erfassung der Mehrzahl der Objektpunkte erreicht wird. Vorzugsweise entspricht die beschriebene Verschiebung des strukturiert leuchtenden Arrays dem Betrag der viertel Gitterperiode. It is advantageous if at the beginning of a 3D recording process in an image recording process the first data record is obtained and saved and the calculated object points are eliminated, which have a deviation from the maximum modulation. This can then be structured luminous array are shifted by a fraction of the grating period and at least a second Data record is recorded and saved, the calculated values also being eliminated that are not in the immediate position of the maximum modulation. Because of through the lattice shift in a fraction of the lattice period is the calculated phase change Object points of the first measurement with those of the second measurement are not identical, so that a complete acquisition of the majority of the object points is achieved. Preferably, the described shift of the structured luminous array the amount of the quarter grating period.  

Im folgenden werden weitere Merkmale des Verfahrens und der Anordnung zur 3D-Aufnahme von Objekt­ oberflächen in Szenen dargestellt.The following are further features of the method and the arrangement for 3D recording of the object surfaces shown in scenes.

Weiterhin ist in einem Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche in mindestens einer Szene mindestens eine elektromagnetischen Strahlungsquelle angeordnet und die Strahlungsquelle ist mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausgebildet.Furthermore, in a method for 3D recording of at least one object surface in at least one arranged at least one electromagnetic radiation source in a scene and the radiation source is at least one structured illuminated array with at least one structured array formed at least two surface elements.

Dabei leuchtet mindestens ein Flächenelement, so daß mindestens ein leuchtendes Flächenelement ge­ bildet ist. Dabei ist jedes leuchtende Flächenelement FELj des strukturiert leuchtenden Arrays selbst, oder deren Bilder, in einer Leuchtdichteverteilung durch eine zumindest näherungsweise vorbestimmte Leuchtdichte und durch einen zumindest näherungsweise vorbestimmten Ort definiert, welches im weite­ ren als leuchtendes Flächenelement FELj bezeichnet wird. Der Begriff "Leuchten" wird hier als das Ab­ strahlen von elektromagnetischer Strahlung verstanden.At least one surface element lights up, so that at least one luminous surface element ge forms is. Each luminous surface element FELj of the structured luminous array is itself or their images, in a luminance distribution by an at least approximately predetermined one Luminance and defined by an at least approximately predetermined location, which is broad ren is referred to as a luminous surface element FELj. The term "glow" is used here as the Ab understand radiation from electromagnetic radiation.

Das strukturiert leuchtende Array kann auch als ein Sender-Array und die leuchtenden Flächenelemente FEL können als Senderelemente dieses Sender-Arrays verstanden werden. Weiterhin kann das struktu­ riert leuchtende Array dabei ein Array aus äquidistanten steuerbaren Mikro-Lichtquellen, beispielsweise Mikro-Laser oder auch Mikro-Leuchtdioden darstellen. So ist es auch möglich, ein strukturiert leuchtendes Array beispielsweise mit vertikal abstrahlenden Laserdioden zu erzeugen, die mittels eines Rechners, auch einzeln, angesteuert werden. Beispielsweise kann ein leuchtendes Flächenelement FELj so das 100fache der mittleren Leuchtdichte des Arrays aufweisen, also vergleichsweise intensiv leuchten.The structured luminous array can also act as a transmitter array and the luminous surface elements FEL can be understood as transmitter elements of this transmitter array. Furthermore, the struktu an array of equidistant controllable micro light sources, for example Represent micro-laser or micro-light emitting diodes. So it is also possible to have a structured shining To generate an array, for example, with vertically radiating laser diodes that can be generated using a computer, can also be controlled individually. For example, a luminous surface element FELj can do this Have 100 times the average luminance of the array, i.e. shine comparatively intensely.

Die Strahlungsquelle kann aber auch als eine flächige und unstrukturierte Strahlungsquelle einem struktu­ rierten Array, welches ein Transmissions- oder ein Reflexionsgitter darstellen kann, vorgeordnet sein. So kann ebenfalls ein strukturiert leuchtendes Array mit Bereichen unterschiedlicher Leuchtdichte realisiert werden. In jedem Fall stellen die leuchtenden Bereiche des strukturiert leuchtenden Arrays selbst, ein­ schließlich deren Bilder, leuchtende Flächenelemente FEL in einer Leuchtdichteverteilung mit einer zu­ mindest näherungsweise vorbestimmten Leuchtdichte in Bezug zur mittleren Leuchtdichte der Leuchtdich­ teverteilung im strukturiert leuchtenden Array dar.However, the radiation source can also be structured as a flat and unstructured radiation source Arranged array, which can represent a transmission or a reflection grating, be arranged upstream. So can also implement a structured, luminous array with areas of different luminance will. In any case, the illuminated areas of the structured illuminated array set themselves finally their pictures, luminous surface elements FEL in a luminance distribution with a too at least approximately predetermined luminance in relation to the mean luminance of the luminance distribution in the structured illuminated array.

Weiterhin ist mindestens ein Beleuchtungsstrahlengang mit mindestens einem Beleuchtungsobjektiv an­ geordnet, welches mindestens einem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordnet ist. So wird eine Abbildung des mindestens einen leuchtenden Flächenelementes FELj reali­ siert und die Objektoberflächen können zumindest zu einen einzigen Zeitpunkt strukturiert beleuchtet wer­ den.Furthermore, at least one illumination beam path with at least one illumination objective is on ordered, which contains at least one structured luminous array, including an image thereof, assigned. In this way, an image of the at least one luminous surface element FELj becomes real and the object surfaces can be illuminated in a structured manner at least at a single point in time the.

Es ist weiterhin möglich, daß durch die Überlagerung von kohärenten Lichtbündeln auf den Objektoberflä­ chen in der Szene eine strukturierte Beleuchtung auf der Basis der Interferenz elektromagnetischer Wel­ len erzeugt wird. Vorzugsweise können zwei kohärente Lichtbündel zur Interferenz gebracht werden. Vor­ zugsweise können diese zumindest näherungsweise Ausschnitte aus Kugelwellen darstellen, und es kann ein Streifenmuster gebildet werden. Die Lage der Streifen kann durch die Änderung des optischen Gangunterschiedes zwischen den kohärentem Lichtbündeln verändert werden.It is also possible that by superimposing coherent light beams on the object surface structured lighting based on the interference of electromagnetic waves len is generated. Two coherent light beams can preferably be brought to interference. Before these can at least approximately represent sections of spherical shafts, and it can a stripe pattern can be formed. The location of the strips can be changed by changing the optical Path difference between the coherent light beams can be changed.

Weiterhin ist mindestens ein Abbildungsstrahlengang für die Abbildung von Elementen der mindestens ei­ nen Objektoberfläche und mindestens ein Empfänger-Array mit mindestens zwei Elementen und minde­ stens einem dem Empfänger-Array zugeordneten Abbildungsobjektiv angeordnet. Dabei detektieren Ele­ mente des Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von Elementen der mindestens einen beleuchteten Objektoberfläche im Objektraum.Furthermore, at least one imaging beam path for imaging elements is the at least one object surface and at least one receiver array with at least two elements and min  arranged at least one imaging lens assigned to the receiver array. Ele elements of the receiver array in the process of recording electromagnetic radiation from elements of the at least one illuminated object surface in the object space.

Weiterhin werden von Elementen des Empfänger-Arrays durch das Abbildungsobjektiv stets auch Bilder im Objektraum, der dem Szenenraum entspricht, mit einem geometrisch-optischen Schärfevolumen gebil­ det. Die Elemente der mindestens einen Objektoberfläche werden mit mindestens einem Abbildungsob­ jektiv abgebildet. Mindestens ein leuchtendes Flächenelement FELj des strukturiert leuchtenden Arrays kann eine Verschiebung erfahren. Durch die Abbildung des mindestens einen leuchtenden Flächenele­ mentes FELj mit dem mindestens einen Beleuchtungsobjektiv wird ein Bild mindestens eines leuchtenden Flächenelementes FELj im Objektraum mit einem geometrisch-optischen Schärfevolumen gebildet.Furthermore, elements of the receiver array are also always images through the imaging lens in the object space, which corresponds to the scene space, with a geometrical-optical focus volume det. The elements of the at least one object surface are covered with at least one image object pictured jective. At least one luminous surface element FELj of the structured luminous array can experience a shift. By mapping the at least one luminous flat element mentes FELj with the at least one lighting lens, an image of at least one is shining Surface element FELj formed in the object space with a geometrical-optical focus volume.

Das Empfänger-Array kann auch einen Film oder eine Platte mit einer Beschichtung darstellen, die für Röntgen-, UV-, VIS- oder IR-Strahlung sensibilisiert ist, und gerastert ausgelesen wird. Die Verwendung eines Targets, welches für UV-, VIS- oder IR-Strahlung empfindlich gemacht ist, ist ebenfalls möglich.The receiver array can also be a film or plate with a coating suitable for X-ray, UV, VIS or IR radiation is sensitized, and is scanned out. The usage A target that is made sensitive to UV, VIS or IR radiation is also possible.

Die Detektion von elektromagnetischer Strahlung von den Elementen der mindestens einen Objektober­ fläche durch die Elemente des Empfänger-Arrays erfolgt mindestens in einem Zeitbereich ΔtB, in welchem auch die Verschiebung mindestens eines leuchtenden Flächenelementes FELj des strukturiert leuchten­ den Arrays durchgeführt wird, wobei jeweils mindestens ein Signalwert gewonnen wird.The detection of electromagnetic radiation from the elements of the at least one object surface by the elements of the receiver array takes place at least in a time range Δt B , in which the displacement of at least one luminous surface element FELj of the structured luminous array is carried out, at least one in each case Signal value is obtained.

Dabei wird innerhalb des Zeitbereichs ΔtB mindestens mit einem leuchtenden Flächenelement FELj des strukturiert leuchtenden Arrays eine zumindest näherungsweise vorbestimmte Verschiebung durchge­ führt, - einschließlich einer vorbestimmten optischen Verschiebung desselben als Ergebnis einer geome­ trisch-optischen Weglängenänderung - und so sendet mindestens ein leuchtendes Flächenelement FELj zu unterschiedlichen Zeitpunkten an mindestens zwei unterschiedlichen Orten elektromagnetische Strah­ lung aus.An at least approximately predetermined displacement is carried out within the time range Δt B with at least one luminous surface element FELj of the structured luminous array, including a predetermined optical displacement of the same as a result of a geometric-optical path length change, and so sends at least one luminous surface element FELj different times at at least two different locations from electromagnetic radiation.

Dabei werden das Schärfevolumen mindestens eines Bildes mindestens eines vorbestimmten, leuchten­ den Flächenelementes FELj des mindestens einen strukturiert leuchtenden Arrays, wobei dieses Schär­ fevolumen im Objektraum gebildet ist, und das Schärfevolumen mindestens eines Bildes mindestens ei­ nes vorbestimmten Elementes des Empfänger-Arrays, wobei dieses Schärfevolumen ebenfalls im Objekt­ raum gebildet ist, und mindestens ein Element der mindestens einen Objektoberfläche zumindest nähe­ rungsweise einmal aufgrund der Durchführung der vorbestimmten Verschiebung mindestens eines vor­ bestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays mit zumindest einer Verschiebungskomponente in zA-Richtung im Array-Raum, also mit einer Verschiebungskomponente parallel zur optischen Achse des Beleuchtungsobjektivs, zur Koinzidenz gebracht. So wird im Objektraum zumindest einmal und zumindest näherungsweise die Koinzidenz des Schärfevolumens eines Bildes ei­ nes vorbestimmten, feuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays und des Schärfevolumes eines Bildes eines vorbestimmten Elementes des Empfänger-Arrays und mindestens ei­ nes Elementes der mindestens einen Objektoberfläche erzeugt. Beim Auftreten der Koinzidenz erfährt zumindest das an dieser Koinzidenz beteiligte Element des Empfänger-Arrays zumindest einmal eine zeit­ lich veränderte Bestrahlung gegenüber dem Fall der Nichtkoinzidenz und so detektiert dieses Element des Empfänger-Arrays zumindest einmal ein verändertes Signal. The sharpness volume of at least one image of at least one predetermined, illuminated surface element FELj of the at least one structured, luminous array, this sharpness volume being formed in the object space, and the sharpness volume of at least one image of at least one predetermined element of the receiver array, this sharpness volume is also formed in the object space, and at least one element of the at least one object surface at least approximately once due to the implementation of the predetermined displacement of at least one in front of certain luminous surface element FELj of the structured luminous array with at least one displacement component in the z A direction in the array space , ie brought into coincidence with a displacement component parallel to the optical axis of the lighting objective. Thus, the coincidence of the sharpness volume of an image of a predetermined, moist surface element FELj of the structured luminous array and the sharpness volume of an image of a predetermined element of the receiver array and at least one element of the at least one object surface is generated at least once and at least approximately. When the coincidence occurs, at least the element of the receiver array involved in this coincidence is exposed to radiation that has changed over time compared to the case of non-coincidence, and so this element of the receiver array detects a changed signal at least once.

So werden durch die Realisierung der Verschiebung nach und nach Elemente der mindestens einen Ob­ jektoberfläche gleichzeitig zur Koinzidenz mit dem Schärfevolumen eines Bildes eines vorbestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays und dem Schärfevolumen eines Bildes eines vorbestimmten Elementes des Empfänger-Arrays gebracht. Jeweils beim Auftreten der Koin­ zidenz erfährt das an dieser Koinzidenz jeweils beteiligte Element des Empfänger-Arrays zumindest ein­ mal eine zeitlich veränderte Bestrahlung und so detektiert dieses Element des Empfänger-Arrays zumin­ dest einmal ein verändertes Signal.Thus, by realizing the shift, elements of the at least one ob surface simultaneously with the coincidence with the sharpness volume of an image of a predetermined, luminous surface element FELj of the structured luminous array and the focus volume of one Brought image of a predetermined element of the receiver array. Each time the coin occurs the element of the receiver array involved in this coincidence is at least experienced times a time-varying radiation and so this element of the receiver array detects at least at least one changed signal.

Ein leuchtendes Flächenelement kann fest an eine geometrische Struktur eines Körpers gebunden sein, beispielsweise an ein Transparenzmaximum auf einem verschiebbaren Transmissionsgitter in Verbindung mit einer vorgeordneten Strahlungsquelle.A luminous surface element can be firmly bound to a geometric structure of a body, For example, in connection with a maximum of transparency on a sliding transmission grating with an upstream radiation source.

Die feste Kopplung an eine geometrische Struktur eines Körpers muß jedoch nicht sein, denn in einem elektronisch steuerbaren, strukturiert leuchtenden Array, mit zwei Flächenelementen kann sich das leuchtende Flächenelement FELj zu jeweils unterschiedlichen Zeitpunkten sowohl am Ort des ersten, als auch am Ort des zweiten Flächenelementes befinden.The fixed coupling to a geometric structure of a body does not have to be, however, because in one electronically controllable, structured, luminous array, with two surface elements that can be luminous surface element FELj at different times both at the location of the first and are also at the location of the second surface element.

Es ist aber auch grundsätzlich in der beschriebenen Anordnung und nach dem beschriebenen Verfahren möglich, daß ein strukturiert leuchtendes Array mit mehreren fest angeordneten leuchtenden Flächenele­ menten FELj in einer räumlichen vorbestimmten Struktur aufgebaut ist. Im Objektraum entstehen nach Abbildung der fest angeordneten leuchtenden Flächenelementen FEL durch das Beleuchtungsobjektiv an verschiedenen Orten Bilder der fest angeordneten leuchtenden Flächenelementen FEL. In der 3D-Auf­ nahme-Anordung ist in den optisch konjugierten Orten im Array-Raum des Abbildungobjektivs jeweils mindestens ein Element eines Empfänger-Arrays angeordnet. Bei der exakten Positionierung eines Objek­ tes im Objektraum, welches genau dort Elemente der Objektoberfläche aufweist, wo sich genau ein Bild der leuchtenden Flächenelemente FEL befindet, detektieren die Elemente des Empfänger-Arrays jeweils einen Signalwert oberhalb eines Schwellwertes.But it is also basically in the arrangement described and according to the method described possible that a structured luminous array with several fixed luminous area elements elements FELj is constructed in a spatially predetermined structure. In the object space arise after Image of the permanently arranged luminous surface elements FEL through the lighting lens different locations Images of the fixed, arranged surface elements FEL. In the 3D up The arrangement is in the optically conjugated locations in the array space of the imaging lens arranged at least one element of a receiver array. With the exact positioning of an object tes in the object space, which has elements of the object surface exactly where there is an image of the illuminated surface elements FEL, the elements of the receiver array each detect a signal value above a threshold.

Für die Verschiebung werden die Positionen der leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays und die Positionen der Bilder der leuchtenden Flächenelemente FEL im Objektraum nach der Newtonschen Abbildungsgleichung aus der Lage des Beleuchtungsobjektivs in der 3D- Aufnahme-Anordnung und der Brennweite fB des Beleuchtungsobjektivs bestimmt und realisiert. Die Ver­ schiebung erfolgt dabei zum einen vorzugsweise mit konstanter Geschwindigkeit. Andererseits kann die Gegenstandsweite des strukturiert leuchtenden Arrays auch sprunghaft verändert werden.For the shift, the positions of the luminous surface elements FEL of the structured luminous array and the positions of the images of the luminous surface elements FEL in the object space are determined and determined according to Newton's mapping equation from the position of the illumination lens in the 3D image arrangement and the focal length f B of the illumination lens realized. The shift takes place on the one hand preferably at a constant speed. On the other hand, the object size of the structured, luminous array can also be changed by leaps and bounds.

Aus dem Datensatz von einer bekannten Soll-Objektoberfläche kann ein strukturiert leuchtendes Array mit mehreren fest angeordneten leuchtenden Flächenelementen FEL in einer räumlichen Struktur gestaltet werden. Eine 3D-Aufnahme-Anordnung kann mit diesem speziellen, strukturiert leuchtenden Array zur Prüfung von massenhaft gefertigten Ist-Objektoberflächen bei entsprechend genauer Positionierung in der beschriebenen 3D-Aufnahme-Anordnung eingesetzt werden. In diesem Fall erfolgt keine physische Ver­ schiebung der leuchtenden Flächenelementen FELj im Array-Raum, sondern nur eine parallele Detektion durch die Elemente des Empfänger-Arrays. Dieses Verfahren kann mit einer außerordentlich hohen Ge­ schwindigkeit durchgeführt werden. Die Begrenzung liegt in der Regel bei der Positionierung. Es ist grundsätzlich eine Prüfung von Objektoberflächen von Werkstücken im Flug oder im freien Fall möglich. A structured, luminous array can be made from the data record from a known target object surface several fixedly arranged FEL flat elements in a spatial structure will. A 3D recording arrangement can be used with this special, structured, luminous array Examination of mass-produced actual object surfaces with correspondingly precise positioning in the described 3D recording arrangement can be used. In this case there is no physical ver shift of the luminous surface elements FELj in the array space, but only a parallel detection through the elements of the receiver array. This process can be done with an extraordinarily high Ge speed can be performed. The limitation is usually the positioning. It is In principle, an inspection of object surfaces of workpieces in flight or in free fall is possible.  

Um für das Verfahren zur 3D-Aufnahme einen großen Tiefenschärfebereich bei der Abbildung von Ob­ jektoberflächen in einer Szene zu erreichen, können die Orte bestimmter relativer Leuchtdichte der struk­ turierten, leuchtenden Fläche und so auch die Orte lokaler Extrema der Leuchtdichte im Array-Raum auf Bahnkurven verschoben werden. Das strukturiert leuchtendes Array kann ein elektronisch steuerbares, strukturiert leuchtendes Array, beispielsweise ein LCD mit einer vorgeordneten Strahlungsquelle sein, welches durch ein Bewegungssystem geradlinig verschoben wird. Es kann durch die elektronisch gesteu­ erte laterale Verschiebung der lokalen Extrema der Leuchtdichte auch eine definierte Abweichung der Bahnkurven von der Geradheit erzeugt werden, beispielsweise durch die Verschiebung von transparenten Linien eines sehr feinstrukturierten LCDs mit einer sehr großen Anzahl von Elementen beispielsweise in der Größenordnung 106. So kann die zA-abhängige Verzeichnung des Beleuchtungsobjektivs oder die systematische Abweichung von der Geradlinigkeit des Bewegungssystem so beeinflußt werden, daß sich bei der Verschiebung des strukturiert leuchtenden Arrays die Bilder der Bahnkurven im Objektraum Bah­ nen mit einer sehr geringen Abweichung von der Geradheit, also Strecken darstellen.In order to achieve a large depth of field for the imaging of object surfaces in a scene for the method of 3D recording, the locations of certain relative luminance of the structured, luminous surface and thus also the locations of local extremes of luminance in the array space can be found on trajectory curves be moved. The structured, luminous array can be an electronically controllable, structured, luminous array, for example an LCD with an upstream radiation source, which is shifted in a straight line by a movement system. A defined deviation of the trajectory curves from straightness can also be generated by the electronically controlled lateral displacement of the local extremes of the luminance, for example by the displacement of transparent lines of a very finely structured LCD with a very large number of elements, for example in the order of 10 6 . For example, the z A -dependent distortion of the lighting lens or the systematic deviation from the linearity of the motion system can be influenced so that when the structured, luminous array is shifted, the images of the trajectory curves in the object space have a very slight deviation from the straightness, that is Represent routes.

Die Bahnkurven können dabei so r 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880ealisiert werden, daß nach deren Abbildung mit dem Beleuchtungsob­ jektiv aus deren Bildern zumindest näherungsweise im Objektraum ein erstes Streckenbüschel SB1 mit einem Konvergenzpunkt K1 der Strecken gebildet werden kann. Diese Strecken können im Objektraum als Spuren von nacheinander abgebildeten Lichtpunkten verstanden werden, beispielsweise als die ver­ schobenen Extrema der Leuchtdichte bei einem beleuchtetem Liniengitter im Transparenzmaximum oder die Spur eines Bildes eines beleuchteten Spaltes. Die Spuren der Lichtpunkte können im Objektraum auf einer Objektoberfläche beobachtet werden, wenn das Bild eines Lichtpunktes und der beobachtete Punkt der Objektoberfläche zumindest näherungsweise koinzidieren. Durch den Triangulationseffekt kann bei der Verschiebung des Bildes eines leuchtenden Flächenelementes FELj und des mit diesem koinzidie­ renden Bild eines Elementes des Empfänger-Arrays ein laterales Auswandern des Bildes des Lichtpunk­ tes beobachtet werden. Die Ablage von der Ausgangsposition nimmt mit zunehmender Abweichung des beleuchteten Bereiches der Objektoberfläche vom aktuellen Koinzidenzpunkt der beiden Bildern zu, wobei das Element des Empfänger-Arrays ein zunehmend unscharfes Bild des leuchtenden Flächenelementes FELj detektiert, beziehungsweise ein in der Regel ebenfalls unscharfes, leuchtendes Flächenelement FELj+1 in der Nachbarposition von dem ersten leuchtenden Flächenelement FELj auf dem strukturiert leuchtenden Array. Dabei erfolgt die Abbildung des leuchtenden Flächenelementes FELj stets über die Objektoberfläche. Im Falle eines einzelnen leuchtenden Flächenelementes FELj registriert das zugehöri­ ge Element eines Empfänger-Arrays eine geringere Lichtintensität, so daß beim Abbilden eines einzelnen Lichtspaltes sich ein Signalverlauf mit einer Veränderung der Signalintensität, beispielsweise auch ein Si­ gnalverlauf mit einem Extremum - in der bereits beschriebenen dreifachen Koinzidenzsituation, ergibt.The trajectory curves can be so r 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880 that after imaging them with the illuminating lens from their images, at least approximately in the object space, a first cluster of lines SB 1 with a convergence point K 1 of the lines can be formed. These distances can be understood in the object space as traces of successively imaged light points, for example as the shifted extrema of the luminance with an illuminated line grating at the maximum transparency or the trace of an image of an illuminated slit. The traces of the light points can be observed in the object space on an object surface if the image of a light point and the observed point of the object surface coincide at least approximately. Due to the triangulation effect, when the image of a luminous surface element FELj is shifted and the image of an element of the receiver array coinciding with it, a lateral migration of the image of the light spot can be observed. The offset from the starting position increases with increasing deviation of the illuminated area of the object surface from the current point of coincidence of the two images, the element of the receiver array detecting an increasingly blurred image of the luminous surface element FELj, or a generally also unsharp, luminous surface element FELj +1 in the neighboring position of the first luminous surface element FELj on the structured luminous array. The illuminating surface element FELj is always displayed on the object surface. In the case of a single luminous surface element FELj, the associated element of a receiver array registers a lower light intensity, so that when imaging a single light gap there is a signal curve with a change in the signal intensity, for example also a signal curve with an extremum - in the triple already described Coincidence situation.

Dieses Verfahren ermöglicht in einem vorbestimmten Verschiebungsvorgang des strukturiert leuchtenden Arrays und so auch der leuchtenden Flächenelemente FEL in einer Verschiebungsrichtung mit einer Komponente in zA-Richtung, also auch mit einer Komponente parallel zur optischen Achse des Beleuch­ tungsobjektivs, eine eindeutige Aussage über das Vorhandensein eines Elementes der Objektoberfläche an einem vorbestimmten Ort im Objektraum. Dabei wird der Betrag in zA-Richtung so gewählt, daß die Schärfefläche den Objektraum von einem Nahbereich, welcher der Fläche Fmin entspricht, beispielsweise in der zehnfachen Brennweite des Beleuchtungsobjektivs, bis zu einem Fernbereich, welcher der Fläche Fmax entspricht, beispielsweise in einer Entfernung von der 3D-Aufnahmeanordnung der 100fachen Brennweite, nach und nach durch eine vorbestimmte, beispielsweise eine elektronisch gesteuerte Ver­ schiebung der leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays durchwandert. Da­ bei liegt der Betrag der Verschiebung der leuchtenden Flächenelemente FEL vorzugsweise in der Größe eines Zehntels der Brennweite des Beleuchtungsobjektivs.This method enables in a predetermined displacement process of the structured luminous array and thus also the luminous surface elements FEL in a displacement direction with a component in the z A direction, i.e. also with a component parallel to the optical axis of the lighting objective, a clear statement about the presence of a Element of the object surface at a predetermined location in the object space. The amount in the z A direction is selected so that the focus area extends the object space from a close range, which corresponds to the area F min , for example in ten times the focal length of the illumination lens, to a long range, which corresponds to the area F max , for example in a distance from the 3D recording arrangement of 100 times the focal length, gradually moves through a predetermined, for example an electronically controlled, displacement of the luminous surface elements FEL of the structured luminous array. Since the amount of the displacement of the luminous surface elements FEL is preferably in the size of a tenth of the focal length of the illumination lens.

Dieses Verfahren wird mit der Gesamtheit der leuchtenden Flächenelemente des strukturiert leuchtenden Arrays und der Gesamtheit der Elemente des Empfänger-Arrays für die Gesamtheit der Elemente der Objektoberflächen im Erfassungsvolumen der 3D-Aufnahmeanordnung durchgeführt.This process is structured with the entirety of the luminous surface elements of the luminous Arrays and the entirety of the elements of the receiver array for the entirety of the elements of the Object surfaces carried out in the detection volume of the 3D recording arrangement.

Durch mehrfaches Detektieren und Auslesen während des Verschiebungsvorganges von mindestens ei­ nem vorbestimmten Element des Empfänger-Arrays kann eine Interpolation zur Verbesserung der Genau­ igkeit der Bestimmung des Ortes eines erfaßten Elementes der Objektoberfläche durchgeführt werden.By multiple detection and reading during the shifting process of at least one egg A predetermined element of the receiver array can be interpolated to improve accuracy The determination of the location of a detected element of the object surface can be carried out.

Die Öffnungsblende des Abbildungsobjektiv kann hierbei vorzugsweise vergleichsweise klein gemacht sein, beispielsweise kann die relative Öffnung 1 : 22 betragen, so daß das Schärfevolumen des Bildes der Elemente des Empfänger-Arrays eine vergleichsweise große Tiefe besitzt, beispielsweise in der Form ei­ nes langen Ausschnittes aus einer schlanken Pyramide - bei einem Element mit einer quadratischen Flä­ che.The aperture diaphragm of the imaging lens can preferably be made comparatively small For example, the relative aperture can be 1:22, so that the focus volume of the image of the Elements of the receiver array has a comparatively large depth, for example in the form of egg nes long section of a slim pyramid - with an element with a square surface che.

Die Größe des Schärfevolumens ist im Objektraum von der Entfernung vom zugehörigen Objektiv ab­ hängig. Bei der Abbildung eines Elementes des Empfänger-Arrays in den Objektraum soll es einen Tie­ fenbereich aufweisen, in welchem das Bild eines Elementes des Empfänger-Arrays aufgrund der geome­ trisch-optischen Unschärfe sich nicht um mehr als die zweifache Fläche vergrößert - gegenüber der idea­ len geometrisch-optischen Abbildung. So weist das Schärfevolumen nach dieser Definition an einem Punkt des Objektraum im Mittel die zweifache Fläche eines Bildes eines Elementes des Empfänger- Arrays auf. Der Tiefenbereich ergibt sich dann als der Bereich, in dem die Bildfläche eines Elementes des Empfänger-Arrays sich unschärfebedingt nicht größer als verdoppelt darstellt.The size of the focus volume in the object space depends on the distance from the associated lens pending. When mapping an element of the receiver array into the object space, it should be a tie fenbereich in which the image of an element of the receiver array due to the geome optical blur does not increase by more than twice the area - compared to the idea len geometrical-optical illustration. According to this definition, the focus volume indicates one Point of the object space on average twice the area of an image of an element of the recipient Arrays on. The depth range then results as the range in which the image area of an element of the Due to lack of focus, receiver arrays do not appear larger than doubled.

Dagegen kann das Beleuchtungsobjektiv eine vergleichsweise große relative Öffnung besitzen. Bei­ spielsweise kann die relative Öffnung 1 : 2,0 betragen. Dadurch kann das Schärfevolumen des Bildes von leuchtenden Flächenelementen FEL eine vergleichsweise geringe Tiefe aufweisen, beispielsweise in der Form eines kurzen Ausschnittes aus einer Pyramide.In contrast, the lighting lens can have a comparatively large relative aperture. At for example, the relative opening can be 1: 2.0. This allows the volume of focus of the image to be changed luminous surface elements FEL have a comparatively small depth, for example in the Form of a short section from a pyramid.

Das Schärfevolumen soll bei der Abbildung eines leuchtenden Flächenelementes FELj in den Objektraum einen Tiefenbereich aufweisen, in welchem das Bild von leuchtenden Flächenelementen FEL aufgrund der geometrisch-optischen Unschärfe sich nicht um mehr als die zweifache Fläche vergrößert. Es gilt das gleiche Kriterium. Bei einem linienförmigen, leuchtenden Flächenelement FELj kann eine Verdoppelung der Breite des Bildes des linienförmigen, leuchtenden Flächenelementes FELj als Unschärfe-Kriterium angenommen werden. So weist ein Schärfevolumen an einem Punkt des Objektraum im Mittel die zweifa­ che Fläche eines Bildes eines leuchtenden Flächenelementes FELj. Der Tiefenbereich ergibt sich dann auch hier als der Bereich, in dem die Bildfläche eines Elementes des Empfänger-Arrays sich nicht größer als verdoppelt darstellt.The sharpness volume should be shown in the object space when mapping a luminous surface element FELj have a depth range in which the image of luminous surface elements FEL due the geometric-optical blur does not increase by more than twice the area. That applies same criterion. In the case of a linear, luminous surface element FELj, this can be doubled the width of the image of the linear, luminous surface element FELj as a blurring criterion be accepted. For example, a focus volume at one point in the object space has an average of two surface of an image of a luminous surface element FELj. The depth range then results also here as the area in which the image area of an element of the receiver array does not become larger as doubled.

Die exakte Definition des jeweiligen Schärfevolumens spielt jedoch hier für die Gewinnung der 3D- Punktwolke keine Rolle, da von der Definition des Schärfevolumens keine Rechenvorschrift abgeleitet wird.However, the exact definition of the respective sharpness volume plays a role in obtaining the 3D Point cloud does not matter, since no calculation rule is derived from the definition of the focus volume  becomes.

Bei der vorbestimmten Verschiebung eines leuchtenden Flächenelementes FELj im Array-Raum bewegt sich im hier dargestellten Fall das Schärfevolumen jeweils eines Bildes eines leuchtenden Flächenelemen­ tes FELj im Schärfevolumen jeweils eines Bildes eines Elementes des Empfänger-Arrays. So kann sich in diesem Fall ein Element der Objektoberfläche permanent im Schärfevolumen eines Bildes eines Empfän­ gerelementes befinden. Jedoch erst bei der Koinzidenz des Schärfevolumens des Bildes eines leuchten­ den Flächenelementes mit einem Element der Objektoberfläche erfolgt eine strukturierte Beleuchtung die­ ses Elementes der Objektoberfläche. So kann durch das - bei der vorbestimmten Verschiebung eines leuchtenden Flächenelementes FELj - mehrfach ausgelesene Element eines Empfänger-Arrays bei­ spielsweise ein Signalverlauf mit einem relativen Maximum zum Zeitpunkt der Koinzidenz detektiert wer­ den.With the predetermined displacement of a luminous surface element FELj moved in the array space In the case shown here, the focus volume of one image of a luminous surface element tes FELj in the focus volume of an image of an element of the receiver array. So can in In this case, an element of the object surface is permanently in the focus volume of an image of a recipient are located. However, it only lights up when the sharpness of the image is coincident The surface element with an element of the object surface is structured structured element of the object surface. Thus, by the - at the predetermined shift one luminous surface element FELj - multiple read element of a receiver array for example, a signal curve with a relative maximum at the time of the coincidence is detected the.

Die vorbestimmte Verschiebung der leuchtenden Flächenelemente FELj kann elektronisch gesteuert er­ folgen. Um die mechanische Bewegung des strukturiert leuchtenden Arrays zu vermeiden, können die Orte der lokalen Extrema der Leuchtdichte der strukturierten, leuchtenden Fläche jeweils Verschiebungen auf Bahnkurven im Array-Raum erfahren, die sich aus der elektronisch gesteuerten Veränderung der opti­ schen Weglänge im Array-Raum und der elektronisch gesteuerten Verschiebung der lokalen Extrema der Leuchtdichte auf dem strukturiert leuchtendes Array ergeben. Zusätzlich kann auch eine elektronisch ge­ steuerte Veränderung der optischen Weglänge im Raum vor dem Empfänger-Array durchgeführt werden, die zu scheinbaren Verschiebungen der sensitiven Elemente des Empfänger-Arrays entlang von Bahn­ kurven führen.The predetermined displacement of the luminous surface elements FELj can be controlled electronically consequences. To avoid the mechanical movement of the structured, luminous array, the Locations of the local extremes of the luminance of the structured, luminous surface, each shift experienced on trajectories in the array space, which result from the electronically controlled change of the opti path length in the array space and the electronically controlled displacement of the local extremes Luminance on the structured, luminous array result. In addition, an electronically ge controlled change of the optical path length in the space in front of the receiver array the apparent shifts of the sensitive elements of the receiver array along the path lead curves.

Weiterhin kann vorzugsweise je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der De­ tektion von Licht in einem Zeitbereich ΔtB zumindest näherungsweise auf je einer Verschiebungsstrecke VSBAj relativ zum Beleuchtungsobjektiv verschoben werden. Durch das Beleuchtungsobjektiv kann dieses leuchtende Flächenelement FELj in einer Leuchtdichteverteilung mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf eine vorherbestimmte Strecke im Objektraum BSOj abgebildet werden.Furthermore, a luminous surface element FELj can preferably be shifted in the time intervals Δt i of the detection of light in a time range Δt B at least approximately on a displacement path VSB Aj relative to the illumination lens. By means of the illumination objective, this luminous surface element FELj can always be imaged in a luminance distribution with an at least approximately predetermined constant luminance at least at a point in time t i within the time interval Δt i on a predetermined distance in the object space BS Oj .

Der Ort des Bildes des leuchtenden Flächenelementes FELj wird dabei auf der Strecke BSOj nach und nach verändert und so wird das Bild des leuchtenden Flächenelementes FELj mit einer zumindest nähe­ rungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach durch den Objektraum verschoben. Bei der Verschiebung je eines leuchtenden Flächenelementes FELj werden mehrfach nach­ einander Signalwerte aus Elementen des Empfänger-Arrays ausgelesen und so wird ein Signalverlauf gebildet, wobei der Ort des jeweils ausgelesenen Elementes des Empfänger-Arrays verändert wird. Die Orte der ausgelesenen Elemente des Empfänger-Arrays liegen auf einer Strecke ASAj und das Bild dieser Strecke ASAj, die Strecke ASOj, ist mit der vorherbestimmten Strecke BSOj der Bilder der leuchtenden Flächenelemente FEL im Objektraum optisch konjugiert. So kann je ein Bild eines Elementes des Emp­ fänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenelementes FELj zumindest zu einem Zeit­ punkt ti innerhalb des Zeitintervalls Δti im Zeitbereich ΔtB im Objektraum zur Koinzidenz gebracht sein und so wird je ein Paar mit wechselnden Bildern erzeugt, wobei dieses Paar nach und nach durch den Objek­ traum geschoben wird. So ist gegeben, daß je ein Schärfevolumen des Bildes eines leuchtenden Flä­ chenelementes des strukturiert leuchtenden Arrays und je ein Bild eines Elementes des Empfänger- Arrays mit je einem Flächenelement der Objektoberfläche einmal im Verschiebungsvorgang innerhalb ei­ nes Zeitbereich ΔtB zusammenfallen, wenn sich ein Element der Objektoberfläche auf dem Abbildungs­ strahl zwischen den Bildern der beiden Flächen Fmin und Fmax im erfaßten Bereich des Objektraum es be­ findet. Die ausgelesenen Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzidenz einen veränderlichen Signalverlauf vorzugsweise mit mindestens einem relativen Extremum der Signal­ größe, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zei­ tintervall Δti im Zeitbereich ΔtB zeitlich eingepaßt werden kann.The location of the image of the luminous surface element FELj is gradually changed on the route BS Oj and so the image of the luminous surface element FELj is gradually shifted through the object space with an at least approximately predetermined constant luminance. When a luminous surface element FELj is shifted, signal values are read out from elements of the receiver array several times in succession and thus a signal curve is formed, the location of the respectively read element of the receiver array being changed. The locations of the elements of the receiver array read out lie on a line AS Aj and the image of this line AS Aj , the line AS Oj , is optically conjugated with the predetermined line BS Oj of the images of the luminous surface elements FEL in the object space. Thus, one image of an element of the receiver array with the image of one luminous surface element FELj can be brought to coincidence at least at one point in time ti within the time interval Δt i in the time range Δt B in the object space, and thus a pair with changing images generated, whereby this couple is gradually pushed through the object dream. So it is given that a focus volume of the image of a luminous surface element of the structured luminous array and an image of an element of the receiver array each with a surface element of the object surface coincide once in the shifting process within a time range Δt B if one element of the Object surface on the imaging beam between the images of the two areas F min and F max in the detected area of the object space it finds. The read elements of the receiver array detect a variable signal course in the time interval Δt i of the coincidence, preferably with at least one relative extremum of the signal size, the time range Δt B being made larger than the time interval Δt i and thus at least one time interval Δt i in the time range Δt B can be adjusted in time.

Vorteilhaft kann auch ein einem mechanisch feststehendem Empfänger-Array verwendet werden, bei­ spielsweise eine CCD-Kamera, die nicht senkrecht zur optischen Achse des Abbildungsobjektivs steht. Dies ermöglicht ausgewählte Elemente der Objektoberflächen aus unterschiedlichen Tiefen des Objek­ traum scharf abzubilden. Es kann auch ein räumlich strukturiertes Empfänger-Array eingesetzt werden.A mechanically fixed receiver array can also be used advantageously for example a CCD camera that is not perpendicular to the optical axis of the imaging lens. This enables selected elements of the object surfaces from different depths of the object to depict dream sharply. A spatially structured receiver array can also be used.

Dieser Ansatz ist besonders für kleine oder für flache Meßvolumina mit geeignet. Vorzugsweise kann das leuchtende Array auch einen beleuchteten Einzelspalt darstellen. Andererseits kann beispielsweise auch ein Direct Mirror Device oder einem LCD-Array als steuerbares Array in Verbindung mit einer im Beleuch­ tungsstrahlengang vorgeordneten Lichtquelle eingesetzt werden.This approach is particularly suitable for small or flat measurement volumes. Preferably, that can luminous array also represent an illuminated single slit. On the other hand, for example a direct mirror device or an LCD array as a controllable array in connection with one in the lighting upstream light source are used.

Ein beleuchteter Einzelspalt kann beispielsweise linear verschobenen werden. Der Abbildungsstrahl, wo­ bei die Lage dieses Abbildungsstrahls ABSO als Gerade durch den Ort des photometrischen Schwerpunk­ tes des gerade ausgelesenen Elementes des Empfänger-Arrays und den Ort des Zentrums der Öff­ nungsblende des Abbildungsobjektivs bestimmt ist, wandert dabei zunächst über die nicht vom Bild des Lichtspaltes beleuchteten Flächenelemente der Objektoberfläche. Der Lichtspalt wird erst in der Koinzi­ denzsituation vom Bild des leuchtendem Flächenelementes, vom Bild des Elementes des Empfänger- Arrays und vom Element der Objektoberfläche vom Element des Empfänger-Arrays detektiert. Jedoch fällt je ein Bild eines leuchtenden Flächenelementes FELj, z. B. ein Spaltbild, stets mit dem Bild eines Elemen­ tes des Empfängers für das Zeitintervall Δti zusammen, sozusagen immer in der "Erwartung" der Objekto­ berfläche. Im nächsten Zeitintervall Δti+1 kommt das nächste Element des Empfängers mit einem Bild ei­ nes leuchtenden Flächenelementes zur "Paarbildung". So bildet ein bestimmtes leuchtendes Flächenele­ mentes FELj mit Bildern wechselnder Elemente des Empfänger-Arrays für das Zeitintervall Δti jeweils ein Paar, wobei durch die getrennten Pupillen des Beleuchtungsobjektivs und des Abbildungsobjektivs ein Triangulationswinkel zwischen dem Hauptbeleuchtungsstrahl und dem Hauptabbildungstrahl besteht, so daß das Element des Empfänger-Arrays nur dann das leuchtende Flächenelement detektieren kann, wenn gleichzeitig, also im Zeitintervall Δti, auch noch ein Element der Objektoberfläche zumindest nähe­ rungsweise mit dem gerade, also im Zeitintervall Δti, bestehenden Bildpaar koinzidiert, also auch das Element der Objektoberfläche mit dem Schärfevolumen des Bildes des leuchtenden Flächenelementes zusammenfällt. So besteht ein Tripel. In dieser Position detektiert das Element des Empfänger-Arrays das Lichtspaltbild auf der Objektoberfläche. Weit außerhalb des Schärfevolumen detektiert es dagegen nur die undurchlässigen Bereiche der Maske auf der gegebenenfalls vorhandenen Objektoberfläche. Dazwischen besteht ein Übergangsbereich. Die Signalwerte von den Elementen des Empfänger-Arrays, die innerhalb eines Zeitintervalls ΔtB zu einem Bildpaar gehört haben, bilden einen Signalverlauf mit einem Maximum, der dem von konfokalen 3D-Meßmikroskopen entspricht.An illuminated single slit can be shifted linearly, for example. The imaging beam, where the position of this imaging beam ABS O is determined as a straight line by the location of the photometric center of gravity of the element of the receiver array that has just been read and the location of the center of the opening aperture of the imaging lens, initially migrates via the image Light slit illuminated surface elements of the object surface. The light gap is only detected in the coincidence situation by the image of the luminous surface element, by the image of the element of the receiver array and by the element of the object surface by the element of the receiver array. However, an image of a luminous surface element FELj, e.g. B. a slit image, always together with the image of an element of the receiver for the time interval Δt i , so to speak always in the "expectation" of the object surface. In the next time interval Δt i + 1 , the next element of the receiver comes with an image of a luminous surface element for "pairing". For example, a certain luminous area element FELj forms a pair with images of changing elements of the receiver array for the time interval Δt i , the triangular angle between the main illuminating beam and the main imaging beam due to the separate pupils of the illuminating lens and the imaging lens, so that the element of Receiver arrays can only detect the luminous surface element if at the same time, i.e. in the time interval Δt i , an element of the object surface at least approximately coincides with the image pair currently existing, i.e. in the time interval Δt i , i.e. also the element of the object surface the sharpness volume of the image of the luminous surface element coincides. So there is a triple. In this position, the element of the receiver array detects the light gap image on the object surface. In contrast, far outside the focus volume, it only detects the opaque areas of the mask on the object surface that may be present. There is a transition area in between. The signal values from the elements of the receiver array that belonged to a pair of images within a time interval Δt B form a signal curve with a maximum that corresponds to that of confocal 3D measuring microscopes.

Dabei kann sich auch stets das gleiche leuchtende Flächenelement FELj auf den Punkten der Verschie­ bungsstrecke befinden. Dies entspricht dem realen mechanischen Verschieben des leuchtenden Flä­ chenelementes FELj. Dies muß nicht immer so sein, da andererseits auch der Aufenthalt eines beliebi­ gen, leuchtendes Flächenelementes FELj zum Zeitpunkt ti innerhalb des Zeitintervalls Δti genügt.The same luminous surface element FELj can always be located on the points of the displacement path. This corresponds to the real mechanical displacement of the luminous surface element FELj. This does not always have to be the case since, on the other hand, the stay of an arbitrary, luminous surface element FELj at time t i within the time interval Δt i is sufficient.

Dabei kann das strukturiert leuchtende Array auch aus zumindest näherungsweise punktförmigen oder linienhaften Strahlungsquellen in einer gerasterten Struktur bestehen. So kann ein strukturiert leuchtendes Array mit Bereichen unterschiedlicher Leuchtdichte gebildet sein. Weiterhin können auch leuchtende Flä­ chenelemente FEL mit lokalen Extrema der Leuchtdichte verschoben werden. Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL an einen anderen Ort kann mit mechanischen Mit­ teln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elektronisch gesteuerte Verschie­ bung möglich.The structured, luminous array can also consist of at least approximately punctiform or linear radiation sources exist in a raster structure. So a structured shining Array can be formed with areas of different luminance. Glowing surfaces can also be used Chen elements FEL can be shifted with local extremes of luminance. The electronically controlled Moving the luminous surface elements FEL to another location can be done with mechanical Mit or with micromechanical means. It is also a purely electronically controlled system exercise possible.

Leuchtende Flächenelemente FEL können in einer Leuchtdichteverteilung mit einer zumindest nähe­ rungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zeitlich nacheinander an unter­ schiedlichen Orten elektromagnetische Strahlung aussenden und gleichzeitig erfolgt die Detektion von elektromagnetischer Strahlung von den Elementen der Objektoberflächen für die Dauer eines Zeitinter­ valls Δti.Luminous surface elements FEL can emit electromagnetic radiation in succession at different locations in a luminance distribution with an at least approximately predetermined constant relative luminance, and at the same time electromagnetic radiation is detected by the elements of the object surfaces for the duration of a time interval Δt i .

Es wird weiterhin vorgeschlagen, die strukturierte Beleuchtung mit einem Beleuchtungsobjektiv mit einer vergleichsweise großen Pupillenöffnung und mit einem strukturiert leuchtendes Array, welches ein parallel zur optischen Achse des Beleuchtungsobjektivs verschobenes Liniengitter, beziehungsweise eine Punkt- oder eine Schlitzmaske sein kann, und die Abbildung mit einem Abbildungsobjektiv mit einer vergleichs­ weise besonders kleinen Pupillenöffnung durchzuführen. Die kleine Pupillenöffnung führt zu einem größe­ ren Tiefenschärfebereich und so wird erreicht, daß ein Objekt mit einer größeren Tiefenausdehnung er­ faßt werden kann, ohne daß das strukturiert leuchtendes Array bewegt werden muß. Da auch miniaturi­ sierte Objektive eingesetzt werden können, ergibt sich so eine besonders kompakte Anordnung. Wenn das Liniengitter mit einer konstanten Geschwindigkeit bewegt wird, können so bei der Aufnahme in den Elementen des strukturiert leuchtenden Arrays periodische Signale mit einer konstanten Frequenz und ei­ nem Modulationsmaximum gewonnen werden. Dies vereinfacht die Signalauswertung und kann deshalb zu einer erheblichen Reduzierung der Rechenzeit bei der Bestimmung der absoluten Phase und führen. Bei der Verwendung von einer Punkt- oder Schlitzmaske entstehen dagegen in den Elementen des strukturiert leuchtenden Arrays Signale mit einem einzelnen Maximum. Aus der Lage des Maximums kann in der bekannter Weise die zugehörige zO-Position des Objektpunktes bestimmt werden.It is further proposed that the structured illumination with an illumination objective with a comparatively large pupil opening and with a structured illuminating array, which can be a line grid displaced parallel to the optical axis of the illumination objective, or a point or slit mask, and the imaging with an imaging objective perform with a comparatively particularly small pupil opening. The small pupil opening leads to a larger depth of field and so it is achieved that an object with a greater depth extension can be grasped without having to move the structured, luminous array. Since miniaturized lenses can also be used, this results in a particularly compact arrangement. If the line grating is moved at a constant speed, periodic signals with a constant frequency and a modulation maximum can be obtained when recording in the elements of the structured luminous array. This simplifies the signal evaluation and can therefore lead to a considerable reduction in the computing time when determining the absolute phase and. In contrast, when using a dot or slit mask, signals with a single maximum are generated in the elements of the structured, luminous array. The associated z O position of the object point can be determined in the known manner from the position of the maximum.

Weiterhin kann bei einem Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorzugswei­ se je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der Detektion in einem Zeitbereich ΔtB zumindest näherungsweise auf je einer eigenen Verschiebungsstrecke VSBAj relativ zum Beleuch­ tungsobjektiv verschoben werden und durch das Beleuchtungsobjektiv abgebildet sein. Dabei bedeutet die Formulierung "relativ", daß auch die Position des leuchtenden Flächenelementes FELj ortsfest sein kann und sich in diesem Fall zumindest Komponenten des Beleuchtungsobjektivs bewegen. Dieses leuchtende Flächenelement FELj wird zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf eine Strecke BSOj auf einen vorherbestimmten Abbildungsstrahl ABSO, im Objektraum abgebil­ det. Die Strecke BSOj kann dann auch das Bild der Verschiebungsstrecke VSBAj darstellen und sich der Ort des Bildes des leuchtenden Flächenelementes FELj auf der Verschiebungsstrecke VSBAj zumindest näherungsweise kontinuierlich - innerhalb eines Zeitbereich ΔtB - ändern und so das Bild des leuchtenden Flächenelementes FELj mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach auf der Strecke BSOj durch den Objektraum verschoben werden. Außerdem wird eine zumindest näherungsweise geradlinige, relative Verschiebung des Empfänger-Arrays zum Ab­ bildungsobjektiv und parallel zur optischen Achse des Abbildungsobjektivs durchgeführt, wobei die For­ mulierung "relativ" bedeutet, daß auch die Position des Empfänger-Arrays ortsfest sein kann und sich in diesem Fall zumindest Komponenten des Abbildungsobjektivs bewegen. Bei der Verschiebung können mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen werden und so je ein Signalverlauf mittels eines einzelnen Empfängerelementes gebildet werden, wobei der Ort je ei­ nes Elementes des Empfänger-Arrays zumindest näherungsweise kontinuierlich ändert. Die geradlinige relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv parallel zur optischen Achse des Abbildungsobjektivs wird vorzugsweise so durchgeführt, daß je ein Bild eines Elementes des Empfänger- Arrays mit dem Bild eines leuchtenden Flächenelementes FELj mit einer zumindest näherungsweise vor­ herbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb des Zei­ tintervalls Δti im Objektraum zur Koinzidenz gebracht ist und so ein Paar von Bildern erzeugt wird, wel­ ches und nach durch den Objektraum geschoben wird.Furthermore, in a method for 3D recording of object surfaces in a scene, a luminous surface element FELj can be shifted at least approximately in each case in the time intervals Δt i of the detection in a time range Δt B relative to the lighting objective and by means of a separate displacement path VSB Aj the lighting lens must be shown. The wording “relative” means that the position of the illuminating surface element FELj can also be stationary and in this case at least components of the illumination lens move. This luminous surface element FELj is always imaged on a path BS Oj on a predetermined imaging beam ABS O , at least at a point in time t i within the time interval Δt i , in the object space. The path BS Oj can then also represent the image of the displacement path VSB Aj and the location of the image of the luminous surface element FELj on the displacement path VSB Aj can change at least approximately continuously - within a time range Δt B - and thus the image of the luminous surface element FELj with a at least approximately predetermined constant luminance are gradually shifted on the route BS Oj through the object space. In addition, an at least approximately rectilinear, relative displacement of the receiver array to the imaging lens and parallel to the optical axis of the imaging lens is carried out, the formulation "relative" means that the position of the receiver array can be stationary and in this case move at least components of the imaging lens. During the shift, signal values can be read out several times in succession from a single receiver element and a signal course can be formed by means of a single receiver element, the location of each element of the receiver array changing at least approximately continuously. The rectilinear relative displacement of the receiver array relative to the imaging lens parallel to the optical axis of the imaging lens is preferably carried out in such a way that an image of an element of the receiver array with the image of a luminous surface element FELj with an at least approximately predetermined constant luminance is at least added to a time t i within the time interval .DELTA.t i is brought to coincidence in the object space and a pair of images is thus generated which is shifted through the object space.

Dabei fallen vorzugsweise Schärfevolumina von Bildern der leuchtenden Flächenelemente mit Flä­ chenelementen der Objektoberfläche mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitin­ tervalls ΔtB zusammen und die Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzi­ denz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße. Der Zeitbereich ΔtB kann dabei größer als das Zeitintervall Δti gemacht sein und so wird mindestens ein Zeitintervall Δti im Zeitbereich ΔtB zeitlich eingepaßt.Here, focus volumes of images of the luminous surface elements coincide with surface elements of the object surface at least once in the displacement process within a time interval Δt B and the elements of the receiver array detect a signal curve with at least one relative extremum of the signal size in the time interval Δt i of the coincidence. The time range Δt B can be made larger than the time interval Δt i and so at least one time interval Δt i is temporally fitted in the time range Δt B.

Hier wird der Fall mit einem bewegten Empfänger-Array dargestellt. Dieser ist ein sehr relevanter Fall, da so auch Objekte mit vergleichsweise großer Tiefenausdehnung vermessen werden können. Außerdem sind einseitig telezentrische Systeme mit einem geringen Bauvolumen in der Regel nicht extrem lichtstark, so daß für das Erreichen einer hinreichend schmalen Einhüllenden, um die Ordnung eines Streifens identifizieren zu können, beide Systeme hohe relative Öffnungen aufweisen sollten.The case is shown here with a moving receiver array. This is a very relevant case because so objects with a comparatively large depth can also be measured. Furthermore are one-sided telecentric systems with a small volume usually not extremely bright, so that for reaching a sufficiently narrow envelope to the order of a strip to be able to identify, both systems should have high relative openings.

Dabei ist die Lage des Abbildungsstrahls ABSO als Gerade durch den Ort des photometrischen Schwer­ punktes eines Elementes des Empfänger-Arrays und einen optisch konjugierten Ort des effektiven Zen­ trums der Öffnungsblende des Abbildungsobjektivs bestimmt.The position of the imaging beam ABS O is determined as a straight line through the location of the photometric focus of an element of the receiver array and an optically conjugate location of the effective center of the aperture of the imaging lens.

Auch ein beleuchteter Spalt kann als leuchtendes Array - im Sinne einer leuchtenden Struktur - eingesetzt werden. So fällt je ein Bild eines vorbestimmten beleuchteten Flächenelementes, z. B. ein Spaltbild, stets mit dem Bild eines vorbestimmten Elementes des Empfänger-Arrays zusammen und bildet so ein Bild­ paar. Durch die zumindest um einen kleinen Abstand getrennten Pupillen des Beleuchtungs- und des Abbildungsobjektivs besteht ein Triangulationswinkel zwischen dem Hauptbeleuchtungsstrahl und dem Hauptabbildunggstrahl, so daß das Element des Empfänger-Arrays nur dann das leuchtende Flächenele­ ment detektieren kann, wenn auch noch ein Element der Objektoberfläche mit dem Bildpaar koinzidiert, also auch das Element der Objektoberfläche mit dem Schärfevolumen des Bildes des leuchtenden Flä­ chenelementes zusammenfällt. Dann detektiert das Element des Empfänger-Arrays das Lichtspaltbild. Weit außerhalb des Schärfevolumen werden nur die undurchlässigen Bereiche der Maske detektiert. Da­ zwischen besteht jedoch ein Übergangsbereich. Die Signalwerte von den Elementen des Empfänger- Arrays, die innerhalb eines Zeitintervalls ΔtB zu einem Bildpaar gehört haben, bilden einen Signalverlauf mit einem Maximum, der dem von konfokalen Meßanordnungen entspricht. Der Abstand zwischen den Pupillen des Beleuchtungs- und des Abbildungsobjektivs kann dabei beispielsweise im Minimum nur ein Achtel der Ausdehnung der Pupille des Beleuchtungsobjektivs betragen. Dementsprechend ist die Tie­ fenempfindlichkeit auch nur sehr gering. Andererseits kann der Abstand zwischen den Pupillen des Be­ leuchtungs- und des Abbildungsobjektivs im Objektraum dabei beispielsweise das Bfache der mittleren Ausdehnung der Pupille des Beleuchtungsobjektivs betragen. Dementsprechend ist das Tiefenauflö­ sungsvermögen hier etwa um zwei Größenordnungen gegenüber dem vorherigen Beispiel vergrößert.An illuminated slit can also be used as a luminous array - in the sense of a luminous structure. Thus, an image of a predetermined illuminated surface element falls, e.g. B. a slit image, always together with the image of a predetermined element of the receiver array and thus forms an image pair. Due to the at least a small distance separated pupils of the illumination and the imaging lens, there is a triangulation angle between the main illuminating beam and the main imaging beam, so that the element of the receiver array can only detect the luminous surface element when an element of the object surface is also present the image pair coincides, so also the element of the object surface coincides with the focus volume of the image of the luminous surface element. Then the element of the receiver array detects the light gap image. Only the opaque areas of the mask are detected far outside the focus volume. However, there is a transition area between them. The signal values from the elements of the receiver array that belonged to a pair of images within a time interval Δt B form a signal curve with a maximum that corresponds to that of confocal measuring arrangements. The distance between the pupils of the illumination and the imaging lens can, for example, be at least only one eighth of the extent of the pupil of the illumination lens. Accordingly, the sensitivity to deep is only very low. On the other hand, the distance between the pupils of the illumination and the imaging lens in the object space can be, for example, twice the mean extension of the pupil of the illumination lens. Accordingly, the depth resolution is increased by about two orders of magnitude compared to the previous example.

Dieses Verfahren ist auch für die Anwendung von vollflächigen, strukturiert leuchtenden Arrays und Emp­ fänger-Arrays geeignet. So kann auch ein bewegtes, beleuchtetes Transmissionsgitter als strukturiert leuchtendes Array eingesetzt werden. Die detektierbaren Signale entsprechen in ihrer Charakteristik in diesem Fall denen der Kurzkohärenz-Interferometrie.This procedure is also suitable for the use of full-area, structured, luminous arrays and emp catcher arrays. A moving, illuminated transmission grating can also be structured luminous array can be used. The characteristics of the detectable signals correspond to in this case that of short-coherence interferometry.

Bei mehreren teildurchlässigen Objektoberflächen in Richtung der Hauptachse des Abbildungsstrahls mit einer jeweils geringen Lichtstreuung bringt jede Objektoberfläche ein eigenes relatives Extremum im Si­ gnalverlauf.With several partially permeable object surfaces in the direction of the main axis of the imaging beam A low light scatter gives each object surface its own relative extremum in Si course of the signal.

Die permanente Koinzidenz vom Bild eines leuchtenden Flächenelementes FELj mit dem Bild eines Empfängerelemente im Objektraum kann, muß aber nicht bestehen. Im Fall der permanenten Koinzidenz bewegt sich das Bild eines leuchtenden Flächenelementes stets direkt auf einer Strecke auf dem Abbil­ dungsstrahl.The permanent coincidence of the image of a luminous surface element FELj with the image of a Receiver elements in the object space can, but need not, exist. In the case of permanent coincidence the image of a luminous surface element always moves directly along a line in the illustration beam.

Das leuchtende Flächenelement FELj in einer Leuchtdichteverteilung mit einer zumindest näherungswei­ se vorherbestimmt gleichbleibenden, relativen Leuchtdichte mit einem vorbestimmten Wellenlängenspek­ trum kann monochromatisches, quasi-monochromatisches oder polychromatisches Licht im sichtbaren oder im unsichtbaren Spektralbereich aussenden.The luminous surface element FELj in a luminance distribution with an at least approximate se predetermined constant relative luminance with a predetermined wavelength spec trum can emit monochromatic, quasi-monochromatic or polychromatic light in the visible or send out in the invisible spectral range.

Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL an einen anderen Ort kann mit mechanischen Mitteln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elek­ tronisch gesteuerte Verschiebung möglich.The electronically controlled displacement of the luminous surface elements FEL to another location can be done with mechanical means or with micromechanical means. It is also a purely electrical one tronically controlled shift possible.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der Detektion von Licht in einem Zeitbereich ΔtB zumindest näherungsweise an je einem eigenen Ort OABj im strukturiert leuchtenden Array relativ zum Beleuchtungsobjektiv angeordnet und durch Ansteuerung zum Leuchten gebracht werden und durch das Beleuchtungsobjektiv abgebildet wird und dieses leuchtende Flä­ chenelement FELj zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf einen vorher­ bestimmten Ort im Objektraum OOBj abgebildet wird. Dieser Bildort OOBj eines jeweils leuchtenden Flä­ chenelementes FEL wird im Objektraum durch eine Ansteuerung verändert, indem ein jeweils anderes, vorbestimmtes Flächenelement angesteuert und zum Leuchten gebracht wird, so daß das Bild je eines leuchtenden Flächenelementes FELj auf einer steuerbaren Bahnkurve, strukturiert aus Abstandsinkre­ menten AIO der Bilder der Abstände AIA der leuchtenden Flächenelementes FEL im Array-Raum, durch den Objektraum geschoben wird - im Sinne des gesteuerten Einnehmens vorherbestimmter, unterschied­ licher Positionen. In jeder Position nach der Verschiebung - um mindestens ein ganzzahliges Vielfaches n, einschließlich n = 1, des Abstandsinkrementes AIO - wird mindestens ein Signalwert aus einem Empfän­ gerelement detektiert und ausgelesen und so wird aus mehreren Vorgängen des Detektierens und Ausle­ sens von Elementen des Empfänger-Arrays ein Signalverlauf gebildet. So wird der Ort des detektierten und ausgelesenen Elementes des Empfänger-Arrays kontinuierlich verändert. Die Orte der detektierten und ausgelesenen Elemente des Empfänger-Arrays liegen an Orten OAAj im Empfänger-Array und das Bild dieses Ortes OAAj, der Bildort OOAj, ist mit dem vorherbestimmten Bildort OOBj des leuchtenden Flä­ chenelementes FELj im Objektraum optisch konjugiert. So ist je ein Bild eines detektierten und ausgele­ senen Elementes des Empfänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenelementes FELj zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti im Objektraum zur Koinzidenz gebracht und so wird je ein Paar von Bildern mit wechselnden Bildern erzeugt, welches und nach verschiedene Positionen im Objektraum einnimmt. Der Objektraum wird so in der Tiefe nach und nach durch derartige Paare durchsetzt. Dabei fallen Schärfevolumina des Bildes je eines leuchtenden Flächenelementes FELj mit je einem Flächenelement der Objektoberfläche mindestens einmal im Zeitbereich ΔtB in einem Zeitin­ tervall ΔtB zusammen und die detektierten und die ausgelesenen Elemente des Empfänger-Arrays weisen im Zeitintervall Δti der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Si­ gnalgröße auf, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zeitintervall Δti in den Zeitbereich ΔtB zeitlich eingepaßt wird.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which preferably one luminous surface element FELj each in the time intervals Δt i of the detection of light in a time range Δt B at least approximately at its own location O ABj in the structured, luminous array arranged relative to the lighting lens and brought to light by control and is imaged by the lighting lens and this luminous surface element FELj is always mapped to a predetermined location in the object space O OBj at least at a time t i within the time interval Δt i . This image location O OBj of a respective luminous surface element FEL is changed in the object space by a control by actuating and illuminating a different, predetermined surface element, so that the image of a luminous surface element FELj on a controllable path curve, structured from distance increments AI O of the images of the distances AI A of the luminous surface element FEL in the array space through which object space is pushed - in the sense of the controlled assumption of predetermined, different positions. In each position after the shift - by at least an integer multiple n, including n = 1, of the distance increment AI O - at least one signal value is detected and read out from a receiver element and so is from several processes of detecting and reading elements of the receiver Arrays formed a waveform. The location of the detected and read element of the receiver array is continuously changed. The locations of the detected and read elements of the receiver array are located at locations O AAj in the receiver array and the image of this location O AAj , the image location O OAj , is optically conjugated with the predetermined image location O OBj of the luminous surface element FELj in the object space. Thus, an image of a detected and read element of the receiver array is coincident with the image of a luminous surface element FELj at least at a time t i within the time interval Δt i in the object space, and so a pair of images with changing images is created generated, which takes on different positions in the object space. The object space is gradually penetrated in depth by such pairs. Sharpness volumes of the image each coincide with a luminous surface element FELj with a surface element of the object surface at least once in the time range Δt B in a time interval Δt B and the detected and read elements of the receiver array have a signal curve in the time interval Δt i of the coincidence at least one relative extremum of the signal size, the time range Δt B being made larger than the time interval Δt i and thus at least one time interval Δt i being temporally fitted into the time range Δt B.

Dieses Verfahren kann auch ohne jede Bewegung eines Arrays realisiert werden, also vollständig elek­ tronisch. Das strukturiert leuchtende Array und das Empfänger-Array können in sich starre, vorzugsweise dreidimensionale Strukturen darstellen, beispielsweise kann das leuchtende Array Luminiszenzdioden oder vertikal abstrahlende Laserdioden in einer 3D-Anordnung aufweisen. Diese können vorzugsweise in einer Kompaktanordnung und starr miteinander gekoppelt sein. Nach und nach werden einzelne Flä­ chenelemente elektronisch angesteuert und zum Leuchten gebracht.This method can also be implemented without any movement of an array, ie completely electrically tronic. The structured illuminated array and the receiver array can be rigid in themselves, preferably Represent three-dimensional structures, for example the luminous array can be luminous diodes or have vertically radiating laser diodes in a 3D arrangement. These can preferably be in a compact arrangement and rigidly coupled together. Gradually, individual areas Kitchen elements electronically controlled and illuminated.

Dabei kann auch ein beleuchteter Mikrospiegel eines zweidimensionalen oder dreidimensionalen Direct Mirror Device DMD oder ein beleuchtetes LCD-Element oder ein vertikal abstrahlendes Mikro- Laserelement oder eine Mikro-Luminiszenzdiode in der dreidimensionalen Struktur zur Anwendung kom­ men. Durch die Ansteuerung von vorherbestimmten, leuchtenden Flächenelementen und das Auslesen von Elementen eines Empfänger-Arrays, wobei deren Bilder im Objektraum ein Bildpaar darstellen, wird genau dann ein Extremum im Signalwert eines Elementes des Empfänger-Arrays gewonnen, wenn das Bildpaar mit einem Element der Objektoberfläche zumindest näherungsweise koinzidiert. Das ist der Fall, wenn das Schärfevolumen des Bildes des leuchtenden Flächenelementes das Element der Objektoberflä­ che durchsetzt.An illuminated micromirror of a two-dimensional or three-dimensional direct can also be used Mirror Device DMD or an illuminated LCD element or a vertically radiating micro Laser element or a micro-luminescent diode in the three-dimensional structure for use com men. By controlling predetermined, luminous surface elements and reading them out of elements of a receiver array, the images of which represent a pair of images in the object space obtained an extremum in the signal value of an element of the receiver array if and only if Image pair at least approximately coincides with an element of the object surface. This is the case, if the volume of focus of the image of the luminous surface element is the element of the object surface che enforced.

Das Verfahren kann auch als optoelektronische Abfrage des Vorhandenseins von Elementen einer Objekt­ oberfläche verstanden werden. Besonders gut möglich ist damit die Anwesenheitskontrolle von Bauele­ menten in einer komplexen, dreidimensionalen Struktur mit einer vergleichsweise großen Tiefenausdeh­ nung.The method can also be used as an optoelectronic query for the presence of elements of an object  surface to be understood. This makes the presence check of Bauele particularly easy elements in a complex, three-dimensional structure with a comparatively large depth expansion nung.

Ein leuchtendes Flächenelement repräsentiert durch seine feste Position im Verbund des strukturiert leuchtenden Arrays und durch die Parameter seiner Abbildung in den Objektraum stets ein kleines Volu­ menelement. Durch das Auslesen genau des Elementes eines Empfänger-Arrays, welches im Objektraum ein Bild besitzt, welches zumindest mit dem Bild des leuchtenden Flächenelementes optisch konjugiert ist, erfolgt eine Abfrage des Vorhandenseins eines Elementes der Objektoberfläche in diesem Volumenele­ ment. Es kann hier durch eine Triggerschwelle eine ja/nein-Entscheidung getroffen werden. Dies ist bei Oberflächen ohne Textur ein gangbarer und schneller Weg. Besser ist es für die Genauigkeit der Orts­ bestimmung des jeweiligen Elementes der Objektoberfläche, mehrere Elemente des Empfänger-Arrays auszulesen und aus dem gebildeten Signalverlauf den Ort des relativen Extremums oder den Schwer­ punkt des Signalverlaufes zu bestimmen. Aus diesem kann bei Kenntnis der Geometrie der optischen An­ ordnung der Ort eines Elementes der Objektoberfläche bestimmt werden.A luminous surface element is represented by its fixed position in the composite of the structured luminous arrays and always a small volume due to the parameters of its mapping into the object space menu item. By reading out exactly the element of a receiver array that is in the object space has an image which is at least optically conjugated with the image of the luminous surface element, there is a query for the presence of an element of the object surface in this volume element ment. A yes / no decision can be made here using a trigger threshold. This is at Surfaces without texture are a feasible and quick way. It is better for the accuracy of the location Determination of the respective element of the object surface, several elements of the receiver array read out and the location of the relative extremum or the severity from the signal curve formed to determine the point of the signal curve. With this knowledge of the geometry of the optical can order the location of an element of the object surface can be determined.

Dabei kann der Wert der relativen Leuchtdichte eines leuchtenden Flächenelementes vorzugsweise nur zwei Werte annehmen, ein Minimum und ein Maximum, gleichbedeutend mit dem logischen 0 und L. Je­ doch kann wegen der Anpassung an den Reflexionsgrad des Elementes der Objektoberfläche, beispiels­ weise als Ergebnis einer zuvor durchgeführten Überblicksmessung, und der Berücksichtigung der Entfer­ nung des Elementes der Objektoberfläche vom Beleuchtungsobjektiv eine Veränderung des absoluten Wertes der Leuchtdichte vorgenommen werden.The value of the relative luminance of a luminous surface element can preferably only be assume two values, a minimum and a maximum, synonymous with the logical 0 and L. Je however, due to the adaptation to the reflectance of the element of the object surface, for example wise as a result of a previously performed overview measurement, and the consideration of the distance the element of the object surface from the lighting lens a change in the absolute Luminance value.

Weiterhin bilden die Abstandsinkremente, die zu den Bildern der leuchtenden Flächenelemente FELj ge­ hören, im Objektraum vorzugsweise Strecken auf einer Geraden, die zu einem Streckenbündel SB1 mit einem Konvergenzzentrum K1 gehören, vorzugsweise mit dem Konvergenzzentrum K1 in der Brennebene des Beleuchtungsobjektivs. So ist die Eindeutigkeit der Signalgewinnung gegeben, da sich die Strecken des Streckenbündels SB1 im Objektraum nicht überkreuzen.Furthermore, the distance increments, which belong to the images of the luminous surface elements FELj, preferably form sections on a straight line in the object space which belong to a bundle of sections SB 1 with a convergence center K 1 , preferably with the convergence center K 1 in the focal plane of the illumination lens. Thus, the uniqueness of the signal acquisition is given, since the routes of the route bundle SB 1 do not cross in the object space.

Bei Anwendung einer nachgeschalteten Abbildungsstufe im Beleuchtungsstrahlengang kann das Konver­ genzzentrum des Streckenbündels auch im Unendlichen liegen. Dies entspricht dem telezentrischen Fall. Vorteilhaft ist, wenn das Konvergenzzentrum in der Pupille eines Abbildungsobjektivs für die Aufnahme der Objektoberfläche liegt.When using a downstream imaging stage in the illumination beam path, the converter can center of the route bundle are also in infinity. This corresponds to the telecentric case. It is advantageous if the convergence center in the pupil of an imaging lens for the exposure the object surface.

Bei a priori-Kenntnissen über die Objektoberfläche können aus Abstandsinkrementen auch einzelne Bahnkurven oder Teilstrecken zusammengesetzt werden. So wird durch die Ansteuerung verschiedener leuchtender Flächenelemente FEL reale Verschiebung eines leuchtenden Flächenelemente FELj nach­ gebildet. Grundsätzlich kann das leuchtende Array sogar in seiner mechanischen Gestaltung ein verklei­ nertes 3D-Flächen-Modell der zu untersuchenden Objektoberfläche oder der prüftechnisch relevanten Be­ reiche derselben darstellen und die einzelnen leuchtenden Flächenelemente werden gleichzeitig oder nacheinander auf die Objektoberfläche abgebildet. Analog gilt dies auch für die Struktur des Empfänger- Arrays. Auch dieses kann eine objektangepaßte 3D-Struktur aufweisen. Universeller sind durch die Mög­ lichkeiten der Steuerung jedoch strukturiert leuchtende Arrays mit lateral äquidistanten Abständen der leuchtenden Flächenelemente FEL Empfänger-Arrays mit lateral äquidistanten Abständen der Elemente des Empfänger-Arrays in einer Fläche. Sowohl das leuchtende Array als auch das Empfänger-Array kön­ nen in der Tiefe mehrere aktive Flächen mit leuchtenden Elementen, beziehungsweise empfangenden, Elementen aufweisen, so daß die Erfassung von dreidimensionalen Objektoberflächen vergleichsweise großer Tiefe ohne jede mechanische Verschiebung möglich ist. So können mit diesen rechnergesteuerten leuchtenden Arrays und Empfänger-Arrays auch in einem definierten Meßvolumen völlig unbekannte Ob­ jektoberflächen erfaßt werden.With a priori knowledge of the object surface, individual increments can also be made from distance increments Railway curves or sections can be put together. So by controlling different luminous surface elements FEL real shift of a luminous surface elements FELj to educated. In principle, the luminous array can even be reduced in its mechanical design nert 3D surface model of the object surface to be examined or the test-relevant Be represent rich of the same and the individual luminous surface elements are simultaneously or mapped one after the other onto the object surface. Analogously, this also applies to the structure of the recipient Arrays. This can also have an object-adapted 3D structure. The possibilities are more universal controls, however, structured luminous arrays with laterally equidistant distances between the luminous surface elements FEL receiver arrays with laterally equidistant elements  of the receiver array in one area. Both the illuminated array and the receiver array can several active areas in depth with luminous elements or receiving, Have elements so that the detection of three-dimensional object surfaces comparatively great depth is possible without any mechanical displacement. So with these computer controlled luminous arrays and receiver arrays even in a defined measuring volume completely unknown ject surfaces can be detected.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht die leuchtenden Flächenelemente FEL je einer eigenen Verschiebungsstrecke VSBAj relativ zum Beleuchtungsobjektiv verschoben werden.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which the luminous surface elements FEL are each shifted relative to the illumination objective, preferably in the time intervals Δt i of the detection of light, each with its own displacement path VSB Aj .

Die leuchtenden Flächenelemente FEL weisen dabei in einer Leuchtdichteverteilung vorzugsweise eine zumindest näherungsweise vorherbestimmt gleichbleibende, relative Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb eines Zeitintervalls Δti auf. Weiterhin werden die leuchtenden Flächenelemente FEL auf einer B-Strecke BSAj positioniert, wobei die B-Strecke BSAj die Sollorte für die leuchtenden Flä­ chenelemente FEL zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti darstellen.In a luminance distribution, the luminous surface elements FEL preferably have an at least approximately predetermined constant luminance at least at a time t i within a time interval Δt i . Furthermore, the luminous surface elements FEL are positioned on a B section BS Aj , the B section BS Aj representing the desired locations for the luminous surface elements FEL at a time t i within the time interval Δt i .

Die Bilder dieser B-Strecken BSAj sind im Objektraum durch Abbildung mit mindestens einem Beleuch­ tungsobjektiv vorzugsweise stets zu einem Streckenbüschel SB1 mit einem Konvergenzpunkt K1 geformt. Dabei ist der Konvergenzpunkt K1, mindestens in einem Abstand dK1 min von der optischen Achse des Be­ leuchtungsobjektivs vom 16ten Teil. Dementsprechend ist die Tiefenempfindlichkeit auch nur sehr gering. Maximal beträgt der Abstand dK1 max das 16fache des Abstandes d des Pupillenzentrums PZOB des Be­ leuchtungsobjektivs vom Pupillenzentrum des am weitesten entfernten Abbildungsobjektivs. Zumindest in einem Zeitbereich ΔtB während des Verschiebungsvorganges der leuchtenden Flächenelemente auf Ver­ schiebungsstrecken VSBAj werden jeweils genau ein Bild von einem Empfängerelement und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest zu einem einzigen Zeit­ punkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert.The images of these B sections BS Aj are preferably always formed in the object space by imaging with at least one lighting objective to form a section bundle SB 1 with a convergence point K 1 . The convergence point is K 1 , at least at a distance d K1 min from the optical axis of the illumination lens from the 16th part. Accordingly, the depth sensitivity is only very low. The maximum distance d K1 max is 16 times the distance d of the pupil center PZ OB of the illumination lens from the pupil center of the most distant imaging lens. At least in a time range Δt B during the displacement process of the luminous surface elements on displacement paths VSB Aj , exactly one image of a receiver element and exactly one image of a luminous surface element FELj in the object space are obtained at least at a single point in time t i within each time interval Δt i of the detection at least approximately positioned together on the image of a B section BS Aj .

So wird vorzugsweise zumindest zu diesem Zeitpunkt ti aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare erzeugt und diese derartigen Paare werden durch den Objektraum geschoben. Dabei fallen Schärfevolumina von Bildern der leuchtenden Flächenelemente FELj mit Flächenelementen der Objektoberfläche mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitintervalls ΔtB zusammen. Am Ort dieser Paare ist im Schwerpunkt des aktuellen Schnittvolu­ mens des Schärfevolumens der beiden Bilder so zu diesem Zeitpunkt ti ein aktueller Koinzidenzpunkt Koj i gebildet, der durch den Objektraum geschoben wird. Dabei kann der aktuelle Koinzidenzpunkt Koj i mit konstanter Geschwindigkeit, aber auch sprunghaft verschoben werden.Thus, at least at this point in time t i, a pair with a fixed assignment is formed from the image of a receiver element and the image of a luminous surface element FELj in the object space and such pairs are generated in the object space and these pairs are pushed through the object space. Sharpness volumes of images of the luminous surface elements FELj coincide with surface elements of the object surface at least once in the displacement process within a time interval Δt B. At the location of these pairs, a current point of coincidence K oj i is formed in the focus of the current cutting volume of the focus volume of the two images at this point in time t i , which is pushed through the object space. The current coincidence point K oj i can be shifted at a constant speed, but also by leaps and bounds.

Die Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzidenz vorzugsweise einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zeitintervall Δti im Zeitbereich ΔtB zeitlich ein­ gepaßt wird. So werden die leuchtenden Flächenelemente FELj des strukturiert leuchtenden Arrays und die Elemente des Empfänger-Arrays jeweils zumindest zu einem Zeitpunkt ti innerhalb eines Zeitintervalls Δti, also stets zur gleichen Zeit, im Objektraum aufeinander abgebildet.In the time interval Δt i of the coincidence, the elements of the receiver array preferably detect a signal curve with at least one relative extremum of the signal size, the time range Δt B being made larger than the time interval Δt i and thus temporally inserting at least one time interval Δt i in the time range Δt B is fit. The luminous surface elements FELj of the structured luminous array and the elements of the receiver array are each mapped onto one another in the object space at least at a time t i within a time interval Δt i , that is to say always at the same time.

Bei der Verschiebung werden die Positionen der leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays und die Positionen der Elemente des Empfänger-Arrays stets nach der Newtonschen Abbildungsgleichung aus der Lage des Beleuchtungsobjektivs und der Lage des Abbildungsobjektivs in der 3D-Aufnahme-Anordnung und der Brennweite fB des Beleuchtungsobjektivs und der Brennweite fA des Abbildungsobjektivs bestimmt und realisiert. So werden im Objektraum sowohl die leuchtenden Flä­ chenelemente FEL des strukturiert leuchtenden Arrays als auch die Elemente des Empfänger-Arrays zu­ mindest näherungsweise in einem Teil des Objektraumes in die gleiche Ebene abgebildet.During the shift, the positions of the luminous surface elements FEL of the structured luminous array and the positions of the elements of the receiver array are always based on Newton's imaging equation from the position of the illumination lens and the position of the imaging lens in the 3D image arrangement and the focal length f B of the illumination lens and the focal length f A of the imaging lens are determined and implemented. Thus, both the luminous surface elements FEL of the structured luminous array and the elements of the receiver array are mapped in the object plane at least approximately in a part of the object space in the same plane.

Typisch für dieses Verfahren ist vorzugsweise der Abstand dk1 = d. Es kann ein einmaliger oder mehrma­ liger Durchgang durch oder auch ständiger Aufenthalt eines leuchtenden Flächenelementes FELj auf ei­ ner B-Strecke BSAj erfolgen. Vorteilhaft ist hier die Verwendung eines vollflächigen und mechanisch be­ wegten, strukturiert leuchtenden Arrays. Dabei kann das Empfänger-Array auch fest angeordnet sein.The distance d k1 = d is preferably typical of this method. A one-time or multiple passage through or even permanent stay of a luminous surface element FELj on a B-section BS Aj can take place. It is advantageous here to use a full-area and mechanically moving, structured, luminous array. The receiver array can also be arranged in a fixed manner.

Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL einen anderen Ort kann mit mechanischen Mitteln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elektronisch gesteuert Verschiebung möglich.The electronically controlled displacement of the luminous surface elements FEL can be somewhere else with mechanical means or with micromechanical means. It is also a purely electronic one controlled shift possible.

A-priori-Kenntnisse über Lage der Objektoberfläche sind nicht notwendig, wenn eine große Anzahl von Zeitintervallen Δti nacheinander durchfahren wird. Deshalb ist dieses Verfahren für völlig unbekannte Ob­ jektlagen und Objektformen sehr geeignet. Bei a-priori-Kenntnissen über die Lage der Objektoberfläche und deren Tiefenausdehnung kann der Zeitbereich ΔtB - zumindest bei Objekten mit einer geringen Tie­ fenausdehnung - in der Regel kleiner gemacht werden, im Vergleich zu einer Situation mit einer völlig un­ bekannten Szene. Die Verschiebungsstrecken VSBAj stellen die Ist-Strecken, also die Ist-Orte oder die Ist- Positionen der photometrischen Schwerpunkte der leuchtenden Flächenelemente FELj 3A dar und die B- Strecken BSAj stellen die Soll-Orte dar, die zumindest zum Zeitpunkt ti des Zeitintervalls Δti eingenommen sein sollten. Nur zum Zeitpunkt der Detektion, d. h. nur zu einem Zeitpunkt ti im Bereich des Zeitintervalls Δti müssen die Ist- und Soll-Orte übereinstimmen und die Verschiebungsstrecken VSBAj sich mit den B- Strecken BSAj schneiden. Natürlich können die Verschiebungsstrecken VSBAj-Strecken mit den B- Strecken BSAj auch permanent im gesamten Verschiebungsvorgang zusammenfallen.A priori knowledge of the position of the object surface is not necessary if a large number of time intervals Δt i are passed through in succession. Therefore, this method is very suitable for completely unknown object locations and object shapes. With a priori knowledge of the position of the object surface and its depth, the time range Δt B can - as a rule - at least for objects with a small depth - be made smaller compared to a situation with a completely unknown scene. The displacement distances VSB Aj represent the actual distances, that is to say the actual locations or the actual positions of the photometric focal points of the luminous surface elements FELj 3A, and the B distances BS Aj represent the target locations, which at least at time t i des Time interval Δt i should be taken. Only at the time of the detection, ie only at a time t i in the range of the time interval Δt i, must the actual and target locations match and the displacement distances VSB Aj intersect with the B distances BS Aj . Of course, the shift routes VSB Aj routes can coincide permanently with the B routes BS Aj in the entire shift process.

Der Konvergenzpunkt K1 der Bilder der B-Strecken BSAj kann mindestens in einem Abstand dK1 min von der optischen Achse des Beleuchtungsobjektivs vom 16ten Teil des Abstandes d des Pupillenzentrums PZOB des Beleuchtungsobjektivs vom Pupillenzentrum PZO des Abbildungsobjektivs positioniert werden. Dieser kleine Abstand ist für strahlteilergekoppelte Strahlengänge für schnelle Messungen mit vergleichsweise geringer Tiefenauflösung sehr geeignet.The convergence point K 1 of the images of the B sections BS Aj can be positioned at least at a distance d K1 min from the optical axis of the illumination lens from the 16th part of the distance d of the pupil center PZ OB of the illumination lens from the pupil center PZ O of the imaging lens. This small distance is very suitable for beam splitter-coupled beam paths for fast measurements with a comparatively low depth resolution.

Der maximale Abstand dK1 max kann das 16fache des Abstandes d des Pupillenzentrums PZOB des Be­ leuchtungsobjektivs vom Pupillenzentrum PZOA des Abbildungsobjektivs betragen. Dieser ist typisch für 3D-Aufnahme mit einer höheren Geschwindigkeit, beispielsweise mit kontinuierlich rotierenden Gittern. In diesem Fall erfolgt die Bestimmung der Phasenverschiebung ϕ auf der Basis eines Trägerfrequenzverfah­ rens zu einer von der Bewegung des strukturiert leuchtenden Arrays direkt abgeleiteten Trägerfrequenz im Sinne einer Referenzfrequenz. Dieses Verfahren ist auch geeignet, um Streifen im Objektraum auf­ grund der hohen Geschwindigkeit für Beobachter unsichtbar werden zu lassen. Bei einem begrenztem Szenenvolumen kann das durch die höhere Geschwindigkeit vergleichsweise geringere Einschaltverhält­ nis der Empfängerelemente akzeptiert werden.The maximum distance d K1 max can be 16 times the distance d of the pupil center PZ OB of the illumination lens from the pupil center PZ OA of the imaging lens. This is typical for 3D recording at a higher speed, for example with continuously rotating grids. In this case, the phase shift ϕ is determined on the basis of a carrier frequency method to a carrier frequency derived directly from the movement of the structured, luminous array, in the sense of a reference frequency. This method is also suitable for making stripes in the object space invisible to observers due to the high speed. With a limited scene volume, the comparatively lower switch-on ratio of the receiver elements can be accepted due to the higher speed.

Vorzugsweise wird der Wert dk1 = d realisiert. In diesem Fall entspricht die im Signalverlauf auftretende Phasenveränderung der Ablage der detektierten Elemente der Objektoberfläche von einer vorbestimmten Position. Verfahrenstechnisch bringt ein größeres dk1 als d deshalb keinen Vorteil, da dieser für die Aus­ wertung sehr wichtige quantitative Zusammenhang verloren gehen kann. Außerdem muß im Fall mit ei­ nem größeren dk1 - bei der Bewegung der leuchtenden Flächenelemente FEL mit der gleicher Geschwin­ digkeit in z-Richtung wie für den Fall dk1 = d - die Kamera besonders schnell ausgelesen werden muß. Für sehr viele größere Werte für dK1 als d weist dieses Verfahren die Merkmale eines Trägerfrequenzverfah­ rens auf.The value d k1 = d is preferably realized. In this case, the phase change occurring in the signal curve corresponds to the placement of the detected elements of the object surface from a predetermined position. In terms of process technology, a larger d k1 than d is of no advantage, since this quantitative relationship, which is very important for the evaluation, can be lost. In addition, in the case of a larger d k1 - when moving the luminous surface elements FEL with the same speed in the z direction as for the case d k1 = d - the camera must be read particularly quickly. For very many larger values for d K1 than d, this method has the characteristics of a carrier frequency method.

Das dargestellte Verfahrensmerkmal ist auch sehr geeignet für die Aufnahme mit zwei zentralperspektivi­ schen Objektiven sein. Auch können die Hauptebenen derselben koinzidieren. Dabei ist das Empfänger- Array vorzugsweise feststehend. Hierbei wird davon ausgegangen, daß leuchtende Flächenelemente FEL der strukturierten leuchtenden Fläche mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte sich nicht wirklich auf einer B-Strecke BSAj bewegen müssen, sondern die Verschiebungs­ strecken VSBAj der leuchtenden Flächenelemente FEL schneiden nur zu einem Zeitpunkt ti, also kurzzei­ tig die B-Strecken BSAj, wobei vor und nach diesem Zeitpunkt ti die Elemente des Empfänger-Arrays be­ reits Licht detektieren, so daß sich leuchtende Flächenelemente FEL nur kurzzeitig auf den B-Strecken BSAj befinden.The process feature shown is also very suitable for shooting with two Zentralperspektiveni lenses. The main levels of these can also coincide. The receiver array is preferably stationary. It is assumed here that luminous surface elements FEL of the structured luminous surface with an at least approximately constant, relative luminance do not really have to move on a B path BS Aj , but the displacement distances VSB Aj of the luminous surface elements FEL intersect only at a point in time t i , that is, the B sections BS Aj for a short time, with elements of the receiver array already detecting light before and after this time t i , so that luminous surface elements FEL are only briefly on the B sections BS Aj .

Ein zumindest näherungsweise kontinuierliches Verschieben bedeutet, eine Kurve oder eine Treppen­ funktion um eine Strecke oder Gerade als mittlere Lage zu erzeugen. Das Verschieben von Orten kon­ stanter, relativer Leuchtdichte einer Leuchtdichteverteilung bedeutet hier, daß vorzugsweise genau die Orte verschoben werden, die eine bestimmte gleichbleibende relative Leuchtdichte aufweisen, beispiels­ weise von 70%. Diese Orte mit einer relativen Leuchtdichte von 70% werden vorzugsweise entlang einer Strecke verschoben und die Leuchtdichte bleibt dabei stets 70%, bezogen auf das gesamte leuchtende Array oder einen Teilbereich desselben.Moving at least approximately continuously means a curve or a staircase function to create a straight line as a middle layer. Moving locations con constant, relative luminance of a luminance distribution here means that preferably exactly that Locations are shifted, which have a certain constant relative luminance, for example way of 70%. These locations with a relative luminance of 70% are preferably along one Distance shifted and the luminance always remains 70%, based on the entire luminous Array or a portion of the same.

Aus dem Signalverlauf kann auch die mittlere Objektpunkthelligkeit und die Farbinformation bei Verwen­ dung einer Farbkamera gewonnen werden. Dabei kann die Objektoberfläche mit weißem Licht oder mit farbigem Licht beleuchtet werden.The average object point brightness and the color information can also be used from the signal curve color camera. The object surface can be illuminated with white light or with colored light.

Es ist weiterhin möglich, durch eine Verschiebung des Objektes oder eine schwingende Bewegung eine Mittelwertbildung über einen beliebigen Oberflächenbereich durchzuführen und so einen Anfangsphasen­ wert in jedem Element des Empfänger-Arrays zu bestimmen.It is also possible to move a by moving the object or a swinging movement Averaging over any surface area and thus an initial phase value in each element of the receiver array.

Weiterhin wird vorzugsweise ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vor­ geschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchten­ des Flächenelement FELj auf je einer B-Strecke BSAj positioniert wird. Die B-Strecken BSAj werden dabei auf das Pupillenzentrum PZOA des Abbildungsobjektivs im Array-Raum gerichtet, so daß der Konvergenz­ punkt K1 zumindest annähernd im Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum positio­ niert ist. Weiterhin ist der Konvergenzpunkt K1 auch in der Pupillenebene des Beleuchtungsobjektivs posi­ tioniert und so werden während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerele­ ment und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest nähe­ rungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert.Furthermore, a method for 3D recording of object surfaces in a scene is preferably proposed, in which, in the time intervals Δt i of the detection of light, one of the surface elements FELj is positioned on a B path BS Aj . The B sections BS Aj are aimed at the pupil center PZ OA of the imaging lens in the array space, so that the convergence point K 1 is at least approximately positioned in the pupil center PZ OA of the imaging lens in the object space. Furthermore, the convergence point K 1 is also positioned in the pupil plane of the illumination lens, and so during the displacement process an image of a receiver element and an image of a luminous surface element FELj in the object space are at least approximately together on the image of a B path BS Aj positioned.

So kann aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet werden und so im Objektraum derarti­ ge Paare von Bildern erzeugt werden und während des Verschiebungsvorganges der leuchtenden Flä­ chenelemente FELjeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchten­ den Flächenelement FELj im Objektraum einmal zumindest näherungsweise zur Koinzidenz gebracht werden.So can from the image of a receiver element and the image of a luminous surface element FELj a pair with a fixed assignment are formed in the object space and thus in the object space ge pairs of images are generated and during the displacement process of the luminous surfaces chenelemente FEL each have an image of a receiver element and an image of one light up brought the surface element FELj at least approximately to the coincidence in the object space will.

Hierbei ist der Fall mit zwei zentralperspektivischen Objektiven mit koinzidierenden Hauptebenen einge­ schlossen. Dabei kann das Empfänger-Array feststehend und so eingestellt sein, daß der "durchlaufende" Schärfebereich oder die Schärfeebene, des Beleuchtungsobjektivs zumindest einmal mit der Schärfeebe­ ne des Abbildungsobjektivs zusammenfällt. Dagegen ist es von Vorteil, wenn die "durchlaufende" Schär­ feebene des Beleuchtungsobjektivs stets im durch starke Abblendung vergleichsweise groß gemachten Tiefenschärfebereich des Abbildungsobjektivs verbleibt. Hierbei wird davon ausgegangen, daß die leuch­ tenden Flächenelemente FEL der strukturierten leuchtenden Fläche mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte sich wirklich auf einer B-Strecke bewegen, wobei diese B- Strecke, wie alle B-Strecken in diesem Fall, auf das Pupillenzentrum PZOA im Array-Raum zielt.The case is closed with two central perspective lenses with coinciding main planes. The receiver array can be fixed and set so that the "continuous" focus area or the focus plane of the illumination lens coincides at least once with the focus plane ne of the imaging lens. On the other hand, it is advantageous if the "continuous" focus plane of the illumination lens always remains in the depth of field of the imaging lens, which is made comparatively large by strong dimming. It is assumed here that the luminous surface elements FEL of the structured luminous surface with an at least approximately constant, relative luminance really move on a B-section, this B-section, like all B-sections in this case, on the pupil center PZ OA targets in the array space.

Dieser Ansatz ist beispielsweise realisierbar mit elektronischen Gittern mit einer sehr hohen Pixelzahl, beispielsweise von mindestens einer Million Pixeln. Elektronische Gitter können im Verschiebungsvorgang kontinuierlich gedehnt oder gestaucht werden, um die Bedingung der Konvergenz des Streckenbündels zu erfüllen. Im Ergebnis kann das Bild jedes leuchtenden Flächenelementes FELj zumindest näherungs­ weise mit einem Bild eines Empfängerelementes zur Koinzidenz gebracht werden, so daß ein aktueller Koinzidenzpunkt gebildet wird, der sich durch den Objektraum bewegt.This approach can be implemented, for example, with electronic grids with a very high number of pixels, for example at least a million pixels. Electronic grids can move in the process be continuously stretched or compressed to meet the condition of convergence of the route bundle to fulfill. As a result, the image of each luminous surface element FELj can at least approximate be brought to coincidence with an image of a receiver element, so that a current one Point of coincidence is formed, which moves through the object space.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchtendes Flächenele­ ment FEL zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf je einer B-Strecke BSAj positio­ niert wird. Dabei wird wobei der Konvergenzpunkt K1 zumindest annähernd in der Brennebene des Be­ leuchtungsobjektivs im Objektraum und zusätzlich im Pupillenzentrum PZOA der Pupille eines Abbildungs­ objektivs im Objektraum positioniert. Während des Verschiebungsvorganges werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FEL im Objek­ traum zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest nä­ herungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so zumindest zu diesem Zeitpunkt ti werden aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flä­ chenelementes FELjeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objek­ traum derartige Paare mit fester Zuordnung erzeugt. Während des Verschiebungsvorganges der leuch­ tenden Flächenelemente FEL werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum genau einmal zumindest näherungsweise zur Koinzidenz gebracht. Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which preferably in the time intervals Δt i of the detection of light a luminous surface element FEL at least at a time t i within each time interval Δt i of the detection with at least one approximately constant, relative luminance is positioned on each B section BS Aj . The convergence point K 1 is positioned at least approximately in the focal plane of the illumination objective in the object space and additionally in the pupil center PZ OA of the pupil of an imaging objective in the object space. During the displacement process, an image of a receiver element and an image of a luminous surface element FEL are positioned in the object dream at least approximately at a time t i within each time interval Δt i of the detection at least approximately jointly on the image of a B section BS Aj and so at least at this point in time t i , a pair with a fixed assignment is formed from the image of a receiver element and the image of a luminous surface element FEL each in the object space, and such pairs with fixed assignment are generated in the object dream. During the shifting process of the luminous surface elements FEL, an image of a receiver element and an image of a luminous surface element FELj in the object space are brought exactly once at least approximately to the coincidence.

Die B-Strecken BSAj werden dabei parallel einer zu Geraden gAP positioniert, wobei die Gerade gAP den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und der Brennweite fB des Beleuchtungsobjektivs aufweist, wo­ bei dieser Anstieg der Geraden gAP auf die Achse des Beleuchtungsobjektivs bezogen ist.The B sections BS Aj are positioned parallel to a straight line g AP , the straight line g AP intersecting the focal point F AB of the illumination lens in the array space and the increase with the amount from the quotient distance of the pupil center PZ OA of the pupil of the imaging lens in the object space from the axis of the illumination lens and the focal length f B of the illumination lens, where, with this increase, the straight line g AP is related to the axis of the illumination lens.

Es können zwei zentralperspektivische Objektive mit zueinander geneigten Achsen eingesetzt werden. Das Empfänger-Array kann vorzugsweise feststehend und so eingestellt sein, daß die "durchlaufende" Schärfeebene des Beleuchtungsobjektivs zumindest einmal mit der Schärfeebene des Abbildungsobjek­ tivs in einem Schnitt, zusammenfällt. Wenn das Abbildungsobjektivs stark abgeblendet wird, kann der Tiefenbereich der 3D-Aufnahme vergleichsweise groß gemacht werden. Dieser Fall kann als ein Stan­ dardfall mit einem starren Gitter angesehen werden.Two central perspective lenses with mutually inclined axes can be used. The receiver array can preferably be fixed and set so that the "continuous" Level of focus of the illumination lens at least once with the level of focus of the imaging object tivs in one cut, coincides. If the imaging lens is heavily dimmed, the Depth range of the 3D image can be made comparatively large. This case can be considered a Stan dard case be viewed with a rigid grid.

Hierbei wird vorzugsweise davon ausgegangen, daß die leuchtenden Flächenelemente FEL von einem Starrkörpergitter sich nicht wirklich auf einer B-Strecke bewegen müssen. Es ist möglich, daß sich die Verschiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL bei einem starren, beleuchteten Gitter nur zu einem Zeitpunkt ti, also kurzzeitig, die B-Strecken BSAj, schneiden. Dabei detektieren die Elemente des Empfänger-Arrays vorzugsweise sowohl vor als auch nach diesem Zeitpunkt ti Licht. So be­ finden sich die leuchtende Flächenelemente FEL von Starrkörpergittern nur kurzzeitig auf den B-Strecke. Der Vorteil liegt darin, daß so für die mechanische Verschiebung der Starrkörpergitter ein kürzerer Stell­ weg realisiert werden kann. Dies dient der Erhöhung der Aufnahmegeschwindigkeit.Here, it is preferably assumed that the luminous surface elements FEL from a rigid body grid do not really have to move on a B section. It is possible that the displacement distances VSB Aj of the luminous surface elements FEL only intersect the B distances BS Aj in a rigid, illuminated grating at a time ti, that is to say briefly. Thereby detecting the elements of the receiver array preferably both before and after this point in time t i the light. For example, the luminous FEL surface elements of rigid body grids can only be found briefly on the B section. The advantage is that a shorter adjustment path can be realized in this way for the mechanical displacement of the rigid body grid. This serves to increase the recording speed.

Für elektronisch steuerbare Gitter hat die Einschränkung der Detektion auf einen Bereich innerhalb des Zeitintervalls Δti keine praktische Bedeutung, da diese "masselosen Gitter" stets so gesteuert werden können, daß im gesamten Intervall Δti der Detektion die Bedingung der Koinzidenz der Strecken VSBAj und BSAj ohne Probleme zu erfüllen ist. Damit kann grundsätzlich im Vergleich zu starren Gittern ohne die Realisierung der Koinzidenz der Strecken VSBAj und BSAj, eine höhere relative Integrationszeit erreicht werden. Dies setzt jedoch eine entsprechend hohe Dynamik der elektronischen Gitter voraus.For electronically controllable grating restricting the detection has a range within the time interval .DELTA.t i no practical significance, since this "massless lattice" may be controlled to always that the entire interval At i the detection of the condition of the coincidence of the lines VSB Aj and BS Aj can be met without any problems. This means that, in comparison to rigid grids without realizing the coincidence of the lines VSB Aj and BS Aj , a higher relative integration time can be achieved. However, this requires a correspondingly high dynamic of the electronic grids.

Hierbei können grundsätzlich für die strukturierte Beleuchtung der Objektoberfläche ein arrayseitig tele­ zentrisches Objektiv und für die Abbildung derselben ein arrayseitig telezentrisches Objektiv eingesetzt werden.In principle, an array-side telephoto can be used for the structured illumination of the object surface centric lens and an array-side telecentric lens is used for imaging the same will.

Um die Konvergenzbedingung zu erfüllen, kann in diesem Fall ein Starrkörper-Gitter verwendet werden, da durch die Lage des Konvergenzzentrums K1 keine Dehnung im Array notwendig ist. Z. B. kann, um Verschiebeweg für das Starrkörper-Gitter bei der Generierung von +270°-Phasenschritten für ein Sub- Nyquist-Verfahren zu sparen, ein beleuchtetes Liniengitter in x-Richtung mit entgegengesetztem Rich­ tungssinn verschoben werden, um dann -90°-Phasenschritte zu realisieren. Denn wie bereits ausgeführt, nur zum Zeitpunkt der Detektion von Licht muß die Bedingung der Position des Gitters erfüllt sein. Die kürzeren Verschiebungswege bringen, die hier im Beispiel nur ein Drittel betragen, eine höhere Dynamik.A rigid body grating can be used in this case in order to meet the convergence condition, since no expansion in the array is necessary due to the location of the convergence center K 1 . For example, in order to save displacement for the rigid body grating when generating + 270 ° phase steps for a sub-Nyquist method, an illuminated line grating can be shifted in the x direction with the opposite direction of direction, and then by -90 ° phase steps to realize. Because, as already stated, the condition of the position of the grating must only be fulfilled at the time of detection of light. The shorter displacement distances, which in this example are only a third, bring greater dynamics.

Dieses Verfahren kann besonders vorteilhaft für eine Zeile, bzw. für einen eingeschränkten Tiefenbereich eingesetzt werden. Der besondere Vorteil liegt in der einfachen Anordnung und im hohen Tiefenauflö­ sungsvermögen, aufgrund des vergleichsweise großen Triangulationswinkels von beispielsweise 30°.This method can be particularly advantageous for a line or for a restricted depth range be used. The particular advantage is the simple arrangement and the high depth resolution due to the comparatively large triangulation angle of, for example, 30 °.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Verschiebungsstrecken VSBAj und die B-Strecken BSAj im Verschiebungsvorgang zumindest näherungsweise im Zeitintervall Δtk koinzidieren, wobei das Zeitintervall Δtk zumindest die Län­ ge des Zeitintervalls Δti und maximal die Länge des Zeitbereiches ΔtB aufweist. Während des Verschie­ bungsvorganges werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FEL im Objektraum zumindest zeitweilig und zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so wird aus dem Bild von einem Empfän­ gerelement und dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein perma­ nentes Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare von Bildern er­ zeugt.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which preferably the displacement distances VSB Aj and the B distances BS Aj coincide in the displacement process at least approximately in the time interval Δt k , the time interval Δt k at least the length of the time interval Δt i and maximally the length of the time range Δt B. During the shifting process, an image of a receiver element and an image of a luminous surface element FEL are positioned in the object space at least temporarily and at least approximately jointly on the image of a B-section BS Aj , and so the image of a receiver element and the Image of a luminous surface element FELj a permanent pair with a fixed assignment is formed in the object space and so such pairs of images are generated in the object space.

Während des Verschiebungsvorganges im Zeitbereich ΔtB der leuchtenden Flächenelemente FEL werden vorzugsweise jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest näherungsweise einmal zur Koinzidenz gebracht, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δtk gemacht wird und das Zeitintervall Δtk in den Zeitbereich ΔtB eingepaßt ist und die leuchtenden Flächenelemente in einer gerasterten Struktur mit äquidistanten Abständen verschoben werden.During the shifting process in the time range Δt B of the luminous surface elements FEL, preferably one image from a receiver element and one image from a luminous surface element FELj in the object space are brought at least approximately to coincidence, the time range Δt B being made larger than the time interval Δt k and the time interval .DELTA.t k is fitted into the time range .DELTA.t B and the luminous surface elements are shifted in a rastered structure with equidistant intervals.

Hierbei wird davon ausgegangen, daß die leuchtenden Flächenelemente FEL sich wirklich auf einer B- Strecke bewegen, und die Verschiebungsstrecken der leuchtenden Flächenelemente FEL mit den B- Strecken BSAi. Dies ist mit einem beleuchteten Liniengitter zu realisieren. Natürlich kann auch ein elektro­ nisches Gitter so angesteuert werden. Das Empfänger-Array kann dabei feststehen, so daß der Tiefen­ meßbereich begrenzt ist. Durch die Wahl einer kleinen Blende für das Abbildungsobjektiv sind sehr viele Meßaufgaben mit einem vergleichsweise großen Tiefenmeßbereich, bezogen auf den mittleren Abstand des Meßvolumens von der 3D-Aufnahmeanordnung, lösbar. Da für das Beleuchtungsobjektiv eine sehr große Blendenöffnung gewählt werden kann, wird die Szene gut strukturiert ausgeleuchtet, so daß das Umgebungslicht weitgehend für die 3D-Aufnahme unschädlich ist.It is assumed here that the luminous surface elements FEL really move on a B section, and the displacement distances of the luminous surface elements FEL with the B sections BS Ai . This can be achieved with an illuminated line grid. Of course, an electronic grid can also be controlled in this way. The receiver array can be fixed so that the depth measuring range is limited. By choosing a small aperture for the imaging lens, a large number of measuring tasks with a comparatively large depth measuring range, based on the mean distance of the measuring volume from the 3D recording arrangement, can be solved. Since a very large aperture can be selected for the lighting objective, the scene is illuminated in a well-structured manner, so that the ambient light is largely harmless for the 3D recording.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise durch die Steuerung der Dauer eines jeden Zeitintervalls Δti und durch die Steuerung der relativen Einschaltzeiten in Bezug zur Dauer eines jeden Zeitintervalls Δti der einzelnen leuchtenden Flächenelemente FEL, die über die Objektoberfläche jeweils ein Empfängerelement beleuchten und durch die Steuerung der Leuchtdichte der leuchtenden Flächenelemente, photometrisch der Fall der Verschie­ bung von leuchtenden Flächenelementen mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf B-Strecken BSAj nachgebildet wird. So werden vorzugsweise effektiv leuchtende Flä­ chenelemente FEL mit ihrem jeweiligen effektiven Schwerpunkt auf B-Strecken BSAj verschoben, wobei der Konvergenzpunkt K1 zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs und im Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum positioniert ist, und die B-Strecken BSAj auf das Pupillenzentrum PZOA des Abbildungsobjektivs im Array-Raum gerichtet sind.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which preferably by controlling the duration of each time interval Δt i and by controlling the relative switch-on times in relation to the duration of each time interval Δt i of the individual luminous surface elements FEL, each illuminate a receiver element via the object surface and is modeled photometrically by the control of the luminance of the luminous surface elements, the case of the displacement of luminous surface elements with an at least approximately constant, relative luminance on B lines BS Aj . Thus, effectively luminous surface elements FEL with their respective effective focus are shifted to B sections BS Aj , the convergence point K 1 being positioned at least approximately in the pupil plane of the illumination lens and in the pupil center PZ OA of the imaging lens in the object space, and the B sections BS Aj are aimed at the pupil center PZ OA of the imaging lens in the array space.

Es können zwei zentralperspektivische Objektive in einer Anordnung mit koinzidierenden Hauptebenen eingesetzt werden. Hierbei wird davon ausgegangen, daß die leuchtenden Flächenelemente FEL auf­ grund eines zu "groben" Rasters des strukturiert leuchtenden Arrays nicht genau genug auf einer B- Strecke bewegen können, sondern erst in der photometrischen Wirkung eine bessere Annäherung er­ reicht wird. So wird der Fall nachgebildet, daß sich zu einem Zeitpunkt die Verschiebungsstrecken der leuchtenden Flächenelemente FEL mit den B-Strecken BSAj schneiden. Für vergleichsweise kleine Meß­ volumina ist die kurze relative Detektionszeit kein Nachteil. Der besonders Vorteil besteht darin, daß ohne ein "dehnbares", strukturiert leuchtendes Array benutzen zu müssen, der Fall der Verschiebung auf den B-Strecken BSAj nachgebildet werden kann.Two central perspective lenses can be used in an arrangement with coinciding main planes. Here, it is assumed that the luminous surface elements FEL cannot move precisely enough on a B path due to a "coarse" grid of the structured luminous array, but a better approximation is only achieved in the photometric effect. In this way, the case is simulated that the displacement distances of the luminous surface elements FEL intersect with the B distances BS Aj at a time. The short relative detection time is not a disadvantage for comparatively small measuring volumes. The particular advantage is that the case of the shift on the B sections BS Aj can be simulated without having to use an "elastic", structured, luminous array.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchtendes Flächenele­ ment FELj eines strukturiert leuchtenden Arrays mit äquidistanten Abständen der leuchtenden Flä­ chenelemente zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte aufje einer B-Strecke BSAj positioniert wird. Da­ bei wird der Konvergenzpunkt K1 mit dem Brennpunkt FOA mindestens eines Abbildungsobjektivs im Ob­ jektraum zumindest annähernd zur Koinzidenz gebracht. Zumindest annähernd wird dabei eine geradlini­ ge relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv parallel zur optischen Achse des Abbildungsobjektivs durchgeführt und bei der Verschiebung werden mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen und so wird je ein Signalverlauf mittels einem ein­ zelnen Empfängerelement gebildet und bei Abbildung von mehrfach so erzeugten Verschiebungsstrecken ASAj von Elementen des Empfänger-Arrays mit dem Abbildungsobjektiv wird aus deren Bildern im Objek­ traum zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im Brennpunkt FOA des Abbildungsobjektivs gebildet. Die geradlinige Verschiebung des Empfänger-Arrays wird parallel zur optischen Achse des Abbildungsobjektivs so durchgeführt, so daß während des Ver­ schiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj zur Koinzidenz gebracht und verschoben werden und so aus dem Bild von je einem Element des Empfänger-Arrays und dem Bild je eines leuchtenden Flächenelementes FELj jeweils zumindest zu diesem Zeitpunkt ti ein Paar mit fester Zuordnung gebildet wird und so im Objektraum Paare von Bildern erzeugt werden.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which a luminous surface element FELj of a structured luminous array with equidistant distances between the luminous surface elements is preferably at least at a time t i in the time intervals Δt i of the detection of light is positioned within each time interval Δt i with an at least approximately constant relative luminance on each B section BS Aj . Since the convergence point K 1 is brought at least approximately to the coincidence with the focal point F OA of at least one imaging lens in the object space. At least approximately, a straight relative displacement of the receiver array to the imaging lens is carried out parallel to the optical axis of the imaging lens, and during the shift signal values are read out several times in succession from a single receiver element and so a signal curve is formed by means of an individual receiver element and at Mapping displacement paths AS Aj of elements of the receiver array with the imaging lens that have been generated several times in this way, at least approximately at least one path cluster SB 2 with a convergence point K 2 in the focal point F OA of the imaging lens is formed from their images in the object dream. The linear displacement of the receiver array is carried out parallel to the optical axis of the imaging lens so that during the displacement process an image of a receiver element and an image of a luminous surface element FELj in the object space at least at a time t i within each time interval Δt i at least approximately together on the image of a B segment BS Aj are brought to coincidence and shifted, and thus at least at this time t i a pair from the image of one element of the receiver array and the image of one luminous surface element FELj is formed with a fixed assignment and pairs of images are thus generated in the object space.

Da jedes Element des Empfänger-Arrays die Gewinnung eines eigenen Signalverlaufs ermöglicht, ist die Möglichkeit der Parallelverarbeitung mit einem Parallelrechner-System für die einzelnen Elemente eines Empfänger-Arrays gegeben. Es besteht die Möglichkeit einer sehr hohen Verarbeitungsgeschwindigkeit.Since each element of the receiver array enables its own waveform to be obtained, the Possibility of parallel processing with a parallel computer system for the individual elements of a Given receiver arrays. There is the possibility of a very high processing speed.

Weiterhin ist das Erreichen eines sehr großen Tiefenmeßbereiches bei der 3D-Aufnahme möglich, da das Empfänger-Array so nachgeführt wird, daß die Schärfeflächen im Objektraum gemäß der bekannten Ab­ bildungsgleichungen zumindest näherungsweise zusammenfallen, beispielsweise bei einer Anordnung mit parallelen Achsen der Objektive.Furthermore, it is possible to reach a very large depth measurement range with the 3D recording, because that Receiver array is tracked so that the focus areas in the object space according to the known Ab educational equations at least approximately coincide, for example in an arrangement with parallel axes of the lenses.

Es können je ein Bild eines leuchtenden Flächenelementes und je ein Bild eines Empfängerelementes in der gesamten Tiefe des Raumes koinzidieren. Es muß jedoch keine permanente Koinzidenz zwischen dem Bild eines leuchtenden Flächenelementes und dem eines Empfängerelementes bestehen.One image of a luminous surface element and one image of a receiver element can be in each case of the entire depth of the room. However, there must be no permanent coincidence between the image of a luminous surface element and that of a receiver element.

Weiterhin kann auch das Abbildungsobjektiv relativ zum Empfänger-Array verschoben werden, beispiels­ weise auch durch eine Innenfokussierung desselben. Deshalb kann es sich hierbei auch um eine relative Verschiebung handeln. Furthermore, the imaging lens can also be shifted relative to the receiver array, for example also by focusing the inside of it. Therefore this can also be a relative one Act shift.  

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Element eines Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flä­ chenelement FELj im Objektraum zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj permanent zur Koinzidenz gebracht und verschoben werden. Die permanente Koinzidenz führt zu einem hohen relativen Detektionsverhältnis, beispielsweise von 90% bei 90°-Phasenschritten.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which an image of an element of a receiver array and an image of a luminous surface element FELj in the object space are preferably at least approximately together during the displacement process of the luminous surface elements FEL are permanently brought to coincidence and postponed in the picture of a B route BS Aj . The permanent coincidence leads to a high relative detection ratio, for example of 90% with 90 ° phase steps.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise der Konvergenzpunkt K1 des Streckenbüschels SB1 gemeinsam mit dem Konvergenz­ punkt K2 des Streckenbüschels SB2 im Objektraum sowohl mit dem Brennpunkt FOA als auch mit dem Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs zumindest annähernd zur Koinzidenz gebracht werden, wobei das Beleuchtungsobjektiv und das Abbildungsobjektiv jeweils arrayseitig zumindest nähe­ rungsweise telezentrisch ausgeführt sind. Die leuchtenden Flächenelemente FEL werden zumindest an­ nähernd parallel zu einer Geraden gA auf Verschiebungsstrecken VSBAj verschoben. Die Gerade gA durchstößt den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum. Für die Gerade gA ist der An­ stieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand d des Brennpunktes FAA des Abbildungsobjektivs von der Achse des Beleuchtungsobjektivs im Objektraum rea­ lisiert, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch­ tungsobjektivs bezogen ist und wegen der Telezentrie des Abbildungsobjektivs im Array-Raum in diesem Fall die Gerade gA mit der Geraden gAP koinzidiert.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which preferably the convergence point K 1 of the tufts SB 1 together with the convergence point K 2 of the tufts SB 2 in the object space both with the focal point F OA and with the pupil center PZ OA of the pupil of the imaging lens can be brought at least approximately to coincidence, the lighting lens and the imaging lens being at least approximately telecentric on the array side. The luminous surface elements FEL are displaced at least on approximately parallel to a straight line g A on displacement paths VSB Aj . The straight line g A passes through the focal point F AB of the illumination lens in the array space. For the line g A , the increase with the amount of the quotient of the focal length of the illumination lens and the distance d of the focal point F AA of the imaging lens from the axis of the illumination lens in the object space is realized, this increase in the straight line g A to an axis perpendicular to the axis of the lighting lens is related and because of the telecentricity of the imaging lens in the array space the line g A coincides with the line g AP in this case.

Dieses Verfahren ermöglicht die 3D-Aufnahme in einem sehr großen Tiefenmeßbereich, wobei eine An­ ordnung mit parallelen und zumindest näherungsweise baugleichen Objektiven mit Vorteil gewählt werden kann. Die detektierten Signale weisen bei einer Bewegung des strukturiert leuchtenden Arrays, beispiels­ weise eines Liniengitters mit äquidistanten Linienabständen, eine konstante Frequenz auf. Die Schärfeflä­ chen werden durch das synchrone Stellen des strukturiert leuchtenden Arrays und des Empfänger-Arrays zur Koinzidenz gebracht. Dabei ist ein starre Kopplung des strukturiert leuchtenden Arrays und des Emp­ fänger-Arrays von Vorteil.This method enables 3D recording in a very large depth measurement range, with one type order with parallel and at least approximately identical lenses can be chosen with advantage can. The detected signals point, for example, when the structured illuminated array moves have a line grid with equidistant line spacings, a constant frequency. The sharpness area This is achieved by synchronizing the structured illuminated array and the receiver array brought to coincidence. There is a rigid coupling of the structured illuminated array and the Emp catcher arrays an advantage.

Um für eine gute Ausleuchtung des Objektes ein Abbildungsobjektiv mit einer hohen relativen Öffnung einsetzen zu können und dennoch eine große Tiefenausdehnung bei der 3D-Aufnahme erreichen zu kön­ nen, wird eine geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbil­ dungsobjektivs durchgeführt. Bei der Verschiebung werden nacheinander Signalwerte aus einzelnen, ne­ beneinander liegenden Elementen des Empfänger-Arrays ausgelesen. Aus diesen Signalwerten wird ein Signalverlauf gebildet. Dabei werden zur Bildung eines einzelnen Signalverlaufes jedoch nur Elemente ausgewählt aus deren Orten zumindest näherungsweise jeweils eine Strecke erzeugt werden kann, die im Zentrum der Austrittspupille des Abbildungsobjektivs im Objektraum konvergiert. Die Abbildung dieser Strecke mit dem Abbildungsobjektiv liefert ein Bild, welches zumindest annähernd zu einem zweiten Streckenbüschel mit einem Konvergenzpunkt K2 der Strecken im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs im Objektraum gehört. Dieses Verfahren führt zu einem Signal mit einer zuminde­ stens näherungsweise konstanter Frequenz beim Verschieben des Liniengitters mit konstanter Ge­ schwindigkeit in zA-Richtung.In order to be able to use an imaging lens with a high relative aperture for good illumination of the object and still be able to achieve a large depth extension in 3D imaging, the receiver array is shifted in a straight line parallel to the optical axis of the imaging lens. During the shift, signal values are read out successively from individual, adjacent elements of the receiver array. A signal curve is formed from these signal values. In order to form a single signal curve, however, only elements are selected from the locations of which, at least approximately, a path can be generated which converges in the center of the exit pupil of the imaging lens in the object space. The imaging of this route with the imaging lens provides an image which at least approximately belongs to a second cluster of routes with a convergence point K 2 of the routes in the pupil center PZ OA of the pupil of the imaging lens in the object space. This method leads to a signal with an at least approximately constant frequency when moving the line grid with constant Ge speed in the z A direction.

Bei Objekten mit vergleichsweise großen Abmessungen und mit einer großen Tiefenausdehnung ist für die technische Realisierung folgendes von Vorteil: Die strukturierte Beleuchtung erfolgt vorzugsweise mit einem im Array-Raum telezentrischen Beleuchtungsobjektiv und einem beleuchteten Liniengitter sowie die Abbildung mit einem im Array-Raum telezentrischen Abbildungsobjektiv. Für das Empfänger-Array wird eine geradlinige Verschiebung parallel zur optischen Achse des Abbildungsobjektivs durchgeführt. So wird für jedes Element des Empfänger-Arrays eine eigene Verschiebungsstrecke erzeugt. Bei Abbildung dieser Verschiebungsstrecken mit dem Abbildungsobjektiv entsteht aus den Bildern dieser Verschiebungsstrec­ ken ein zweites Streckenbüschel mit einem Konvergenzpunkt K2 der abgebildeten Strecken im Objek­ traum im Brennpunkt FOA des Abbildungsobjektivs. Weiterhin werden der Konvergenzpunkt K1 und der Brennpunkt FOA des Abbildungsobjektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht, so daß auch der Konvergenzpunkt K2 mit dem Konvergenzpunkt K1 zusammenfallen. Dabei wird der Kon­ vergenzpunkt K1 der Strecken im Objektraum so gebildet, indem die Orte bestimmter relativer Leuchtdich­ te des beleuchteten Liniengitters, beispielsweise die Maxima der Transmission des Liniengitters, auf Ver­ schiebungsstrecken zumindest annähernd parallel zu einer Geraden gA verschoben werden. Die Gerade gA durchstößt den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum, wobei für die Gerade gA der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand des Brennpunktes FAA des Abbildungsobjektivs von der Achse des Beleuchtungsobjektivs im Objektraum rea­ lisiert wird, und dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch­ tungsobjektivs bezogen ist. Da das Beleuchtungsobjektiv und das Abbildungsobjektiv vorzugsweise je­ weils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sind, fallen im Objektraum der Brenn­ punkt FOA und das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs zusammen. So werden auch der Konvergenzpunkt K1 und der Konvergenzpunkt K2 im zusammenfallenden Pupillenzentrum PZOA und Brennpunkt FOA des Abbildungsobjektivs zur Koinzidenz gebracht. Weiterhin ist wesentlich, daß während des gesamten Verschiebungsvorganges jeweils ein Bildelement eines Ortes bestimmter relativer Leucht­ dichte des beleuchteten Liniengitters und jeweils ein Bildelement eines Elementes des Empfänger-Arrays im Objektraum wenigstens näherungsweise zur Koinzidenz gebracht werden und so im Objektraum flä­ chendeckend feste Paare von einander unveränderlich zugeordneten Bildelementen erzeugt werden. Dies bedeutet, daß im Objektraum die Schärfeflächen des Beleuchtungs- und des Abbildungsobjektivs stets zumindest teilweise koinzidieren. In den Elementen des Empfänger-Arrays können bei diesem Verfahren periodische Signale mit einem Modulationsmaximum detektiert werden, aus denen die Information über die absolute Phase eines Objektpunktes im Zusammenhang mit der Anordnung gewonnen werden kann.For objects with comparatively large dimensions and with a large depth extension, the following is advantageous for technical implementation: The structured illumination is preferably carried out with an illumination lens and an illuminated line grating in the array space, and the imaging is carried out with an imaging lens that is telecentric in the array space. For the receiver array, a linear shift is carried out parallel to the optical axis of the imaging lens. In this way, a separate displacement path is generated for each element of the receiver array. When imaging these displacement routes with the imaging lens, a second cluster of routes with a convergence point K 2 of the depicted routes in the object dream arises from the images of these displacement routes in the focal point F OA of the imaging lens. Furthermore, the convergence point K 1 and the focal point F OA of the imaging lens in the object space are brought at least approximately to coincidence, so that the convergence point K 2 also coincides with the convergence point K 1 . The convergence point K 1 of the lines in the object space is formed in such a way that the locations of certain relative luminance of the illuminated line grid, for example the maxima of the transmission of the line grid, are shifted at least approximately parallel to a straight line G A on United distances. The straight line g A penetrates the focal point F AB of the lighting lens in the array space, the line g A realizing the increase with the amount from the quotient of the focal length of the lighting lens and the distance of the focal point F AA of the imaging lens from the axis of the lighting lens in the object space is, and this increase in the straight line g A is related to an axis perpendicular to the axis of the lighting objective. Since the lighting lens and the imaging lens are each preferably telecentric on the side of the space of the arrays, the focal point F OA and the pupil center PZ OA of the pupil of the imaging lens coincide in the object space. Thus, the convergence point K 1 and the convergence point K 2 in the coinciding pupil center PZ OA and focal point F OA of the imaging lens are brought to coincidence. Furthermore, it is essential that during the entire displacement process one picture element of a location of a certain relative luminance of the illuminated line grid and one picture element of an element of the receiver array in the object space are brought at least approximately to the coincidence and thus fixed pairs of each other invariable in the object space associated picture elements are generated. This means that in the object space the focus areas of the lighting and imaging lens always coincide at least partially. With this method, periodic signals with a modulation maximum can be detected in the elements of the receiver array, from which the information about the absolute phase of an object point in connection with the arrangement can be obtained.

Wenn das beleuchtete Liniengitter mit einer konstanten Geschwindigkeit bewegt wird, können bei der Aufnahme in den Elementen des strukturiert leuchtenden Arrays periodische Signale mit einer konstanten Frequenz gewonnen werden. Dies vereinfacht die Signalauswertung und kann deshalb zu einer erhebli­ chen Reduzierung der Rechenzeit führen.If the illuminated line grid is moved at a constant speed, the Recording periodic signals with a constant in the elements of the structured luminous array Frequency can be obtained. This simplifies the signal evaluation and can therefore lead to an increase Chen reduce computing time.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise zumindest näherungsweise eine geradlinige Verschiebung des Empfänger-Arrays durchgeführt wird und bei der Verschiebung nacheinander Signalwerte aus einzelnen, auch nebeneinan­ der liegenden Elementen des Empfänger-Arrays ausgelesen werden und Signalverläufe auch durch ge­ wichtete Summierung der Signale einzelner Elemente des Empfänger-Arrays, so daß Signale von virtuel­ len Elementen gebildet werden. Zur Bildung eines einzelnen Signalverlaufes werden so Signalwerte von virtuellen Elementen des Empfänger-Arrays verwendet, wobei diese virtuellen Elemente des Empfänger- Arrays beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschie­ bungsstrecke ASAj im Array-Raum liegen, deren Verlängerung das Zentrum der Austrittspupille des Abbil­ dungsobjektivs schneidet. Bei Abbildung von mehrfach so erzeugten Strecken wird mit dem Abbildungsob­ jektiv aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel mit einem Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet und während des Verschiebungsvorganges der Elemente des Empfänger-Arrays werden diese mehrfach nacheinander ausgelesen.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which a straight-line displacement of the receiver array is preferably carried out at least approximately and signal values are read out successively from individual elements of the receiver array, also adjacent to one another, and Waveforms also by ge weighted summation of the signals of individual elements of the receiver array, so that signals are formed by virtual elements. Signal values of virtual elements of the receiver array are thus used to form a single signal curve, these virtual elements of the receiver array being at least approximately each located on a displacement path AS Aj in the array space when the receiver array is shifted, the extension of which is the center the exit pupil of the imaging lens cuts. When imaging distances generated in this way several times, at least approximately at least one route bundle with a convergence point K 2 in the pupil center PZ OA of the pupil of the imaging lens is formed from the images in the object space using the imaging objective and during the displacement process of the elements of the receiver array, these are repeated several times in succession read out.

Innerhalb des Verschiebungsvorganges werden vorzugsweise jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zu­ mindest während eines Zeitintervalls Δti innerhalb des Verschiebungsvorganges zumindest näherungs­ weise zur Koinzidenz auf B-Strecken BSAj gebracht. So wird aus dem Bild von einem Empfängerelement und dem Bild von einem leuchtenden Flächenelement FELj, welches auch als ein aktueller Koinzidenz­ punkt angesehen werden kann, jeweils ein Paar mit fester Zuordnung gebildet und so werden im Objek­ traum derartige Paare erzeugt.Within the displacement process, an image of an element of the receiver array and an image of a luminous surface element FELj in the object space are preferably brought at least during a time interval Δt i within the displacement process at least approximately to the coincidence on B routes BS Aj . Thus, a pair with a fixed assignment is formed from the image of a receiver element and the image of a luminous surface element FELj, which can also be viewed as a current point of coincidence, and so such pairs are generated in the object dream.

Hier durch wird erreicht, daß bei Verwendung von Arrays mit großen Pixelzahlen ein effektiv leuchtendes Flächenelement und ein virtuelles Empfängerelement so gebildet werden, daß diese für die Dauer eines Zeitintervalls der Detektion von Licht von einem Element der Objektoberfläche im Objektraum koinzidie­ ren. Das ist die Nachbildung des Falles, daß bei einer Anordnung mit zwei zumindest näherungsweise baugleichen zentralperspektivischen Objektiven in paralleler Lage und mit koinzidierenden der Hauptebe­ nen sowohl ein reales, leuchtendes Flächenelement FELj als auch ein reales Empfängerelement auf ei­ ner Verschiebungsstrecke in Richtung des Pupillenzentrums des Abbildungsobjektivs bewegt werden. Dies ist ein kostengünstiger Fall für die optischen Komponenten, da Standardobjektive eingesetzt werden können.This ensures that when using arrays with large numbers of pixels, an effectively shining Area element and a virtual receiver element are formed so that these for the duration of a Time interval of the detection of light from an element of the object surface in the object space coincides ren. This is the replica of the case that in an arrangement with two at least approximately Identical identical central perspective lenses in a parallel position and with coincident main levels both a real, luminous surface element FELj and a real receiver element on egg ner displacement distance in the direction of the pupil center of the imaging lens. This is an inexpensive case for the optical components, since standard lenses are used can.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Verschie­ bungsstrecken VSBAj durchgeführt werden und bei Abbildung der erzeugten, parallelen Verschiebungs­ strecken VSBAj mit dem Beleuchtungsobjektiv aus deren Bildern zumindest näherungsweise mindestens ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 im Objektraum im Brennpunkt FOB des Beleuch­ tungsobjektivs gebildet wird. Zusätzlich eine geradlinige Verschiebung des Empfänger-Arrays, die syn­ chronisiert mit den Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Verschie­ bungsstrecken VSBAj durchgeführt wird, werden während der Verschiebung nacheinander Signalwerte aus einzelnen, nebeneinander liegenden Elementen des Empfänger-Arrays ausgelesen. Aus diesen wer­ den Signalverläufe gebildet. Zur Bildung eines einzelnen Signalverlaufes werden nebeneinander liegende Elemente des Empfänger-Arrays ausgewählt, deren Orte beim Verschieben des Empfänger-Arrays zu­ mindest näherungsweise jeweils auf einer A-Strecke ASAj im Array-Raum liegen und die Verlängerung der A-Strecke ASAj jeweils auf das Pupillenzentrum PZAB des Beleuchtungsobjektivs im Array-Raum zielt. Bei Abbildung von mehrfach so erzeugten parallelen A-Strecken ASAj mit dem Abbildungsobjektiv wird aus de­ ren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konver­ genzpunkt K2 im Pupillenzentrum PZOB der Pupille des Beleuchtungsobjektivs gebildet. Die A-Strecken ASAj werden parallel zu einer Geraden gAA ausgerichtet und die Gerade gAA schneidet den Brennpunkt FAA des Abbildungsobjektivs im Array-Raum und weist den Anstieg mit dem Betrag aus dem Quotienten Ab­ stand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und der Brennweite fA des Abbildungsobjektivs auf, wobei dieser Anstieg der Ge­ raden gAA auf die Achse des Beleuchtungsobjektivs bezogen ist. Während des synchronisierten Verschie­ bungsvorganges der leuchtenden Flächenelemente FEL und der Elemente des Empfänger-Arrays werden die Elemente des Empfänger-Arrays mehrfach nacheinander ausgelesen. Jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Ob­ jektraum werden innerhalb des Verschiebungsvorganges zumindest während eines Zeitintervalls Δti in­ nerhalb des Verschiebungsvorganges zumindest näherungsweise zur Koinzidenz gebracht und so wird aus dem Bild von einem des Empfängerelement und dem Bildpunkt jeweils ein verschiebbares Paar mit fester Zuordnung gebildet und so werden im Objektraum verschiebbare Paare erzeugt.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which displacements of the luminous surface elements FEL are preferably carried out on parallel displacement paths VSB Aj and when imaging the generated parallel displacement paths VSB Aj with the illumination lens from their images at least approximately at least one cluster of lines SB 1 is formed with a convergence point K 1 in the object space in the focal point F OB of the lighting objective. In addition, a linear shift of the receiver array, which is carried out synchronized with the shifts of the luminous surface elements FEL on parallel shift paths VSB Aj , signal values are read out successively from individual, adjacent elements of the receiver array during the shift. From these who formed the waveforms. To form a single signal curve, adjacent elements of the receiver array are selected, the locations of which, when the receiver array is moved, are at least approximately each on an A section AS Aj in the array space and the extension of the A section AS Aj is in each case on the pupil center PZ AB of the lighting objective is aimed in the array space. When imaging parallel A-sections AS Aj with the imaging lens that have been created several times, at least approximately at least one section bundle SB 2 with a convergence point K 2 in the pupil center PZ OB of the pupil of the illumination lens is formed from the images in the object space. The A sections AS Aj are aligned parallel to a straight line g AA and the straight line g AA intersects the focal point F AA of the imaging lens in the array space and indicates the increase with the amount from the quotient of the pupil center PZ OA of the pupil of the imaging lens in the object space from the axis of the illumination lens and the focal length f A of the imaging lens, this increase in the straight lines AA being related to the axis of the illumination lens. During the synchronized shifting process of the luminous surface elements FEL and the elements of the receiver array, the elements of the receiver array are read out several times in succession. In each case, an image of an element of the receiver array and an image of a luminous surface element FELj in the object space are at least approximately brought to coincidence within the displacement process at least during a time interval Δt i within the displacement process, and the image of one of the Receiver element and the image point each form a movable pair with a fixed assignment and thus movable pairs are generated in the object space.

Dabei kann die Geraden gAA den Durchstoßpunkt einer zur Achse des Beleuchtungsobjektivs parallelen Geraden, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs im Objektraum enthält, durch die array-seitige Hauptebene des Beleuchtungsobjektiv schneiden.The line g AA can intersect the point of intersection of a straight line parallel to the axis of the illumination objective, which contains the pupil center PZ OA of the pupil of the imaging objective in the object space, through the array-side main plane of the illumination objective.

Dieser Ansatz stellt eine Möglichkeit für schnelle Überblicksmessungen ohne die Notwendigkeit der latera­ len Verschiebung eines beleuchteten Liniengitters dar. Sowohl das beleuchtete Liniengitter als auch das Empfänger-Array bewegen sich vorzugsweise synchron und parallel zu den parallelen Achsen der beiden Objektive. Dabei koinzidieren die Schärfeflächen des Beleuchtungs- und des Abbildungsstrahlenganges im Objektraum. Bei einem hochgeöffneten Abbildungsobjektiv ist die Verschmierung der Abbildung durch das laterale Bewegen der Abbildungsstrahlen über die Objektoberfläche für eine Überblicksmessung in der Regel zu tolerieren.This approach provides an opportunity for quick overview measurements without the need for latera len displacement of an illuminated line grid. Both the illuminated line grid and the Receiver arrays preferably move synchronously and parallel to the parallel axes of the two Lenses. The focus areas of the illumination and imaging beam paths coincide in the object space. If the imaging lens is open, the smearing of the image is complete the lateral movement of the imaging beams over the object surface for an overview measurement in generally tolerate.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise eine absolute Phasendifferenz ΔϕGitter in einem Bildpunkt, welcher zu einem Objekt­ punkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objektpunkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswertung der Modu­ lation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz jeweils vorzeichenrichtig zur absoluten Referenzphase ϕR addiert wird, die sich aus der mindestens einmal experimentell vorbestimm­ ten Position der Referenzplatte zOR im Objektraum und bezogen auf das Beleuchtungsobjektiv und den Geometriedaten der optischen Anordnung errechnet. Dadurch ergibt sich im Ergebnis dieser Rechenope­ ration eine absolute Objektphase ϕObj für jeden Objektpunkt, die auf einen Referenzpunkt im Objektraum bezogen ist, wobei Informationen aus dem Signalverlauf des zugehörigen Referenzpunktes abgespeichert werden.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which an absolute phase difference Δϕ grating in a picture element, which belongs to an object point, consists of at least two signal profiles, namely the one in the mentioned object point itself and that in the associated reference point is formed in the same imaging beam while evaluating the modulation in the signal, the calculated absolute phase difference being added with the correct sign to the absolute reference phase ϕ R , which results from the at least one experimentally predetermined position of the reference plate z OR in the object space and in relation to the illumination lens and calculated the geometry data of the optical arrangement. This results in the result of this arithmetic operation an absolute object phase ϕ Obj for each object point, which is related to a reference point in the object space, information from the signal curve of the associated reference point being stored.

Dabei kann die Position der Referenzplatte zOR im Objektraum vor der Messung der Objektoberfläche oder der Szenen zumindest im Nahbereich mehrfach gemessen werden und die gegebenenfalls ortsab­ hängige Zuordnung der jeweiligen Phasenlage des Signals zum Modulationsmaximum bestimmt werden. Dies stellt eine Möglichkeit dar, um Phasenkorrekturwerte zu gewinnen. Diese Veränderung der jeweiligen Phasenlage des Signals zum Modulationsmaximum resultiert beispielsweise aus den ortsabhängigen Verzeichnungen der Objektive. Dieser Phasengang wird in Abhängigkeit vom Ort bestimmt und für die rechnergestützte Korrektur tabelliert. Weitere Details hierzu wurden bereits im ersten Teil der Offenbarung dargestellt.The position of the reference plate z OR in the object space can be measured several times before the measurement of the object surface or the scenes, at least in the close range, and the location-dependent assignment of the respective phase position of the signal to the modulation maximum can be determined. This is one way to get phase correction values. This change in the respective phase position of the signal to the maximum modulation results, for example, from the location-dependent distortion of the lenses. This phase response is determined depending on the location and tabulated for the computer-aided correction. Further details on this have already been presented in the first part of the disclosure.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise eine absolute Phasendifferenz ΔϕGitter in einem Bildpunkt, welcher zu einem Objekt­ punkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objektpunkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswertung der Modu­ lation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz jeweils vorzeichenrichtig zur absoluten Referenzphase ϕR addiert wird, die sich aus der mindestens einmal experimentell vorbestimm­ ten Position der Referenzplatte zOR im Objektraum und bezogen auf das Beleuchtungsobjektiv und den Geometriedaten der optischen Anordnung errechnet, wodurch sich im Ergebnis dieser Rechenoperation eine absolute Objektphase ϕObj für jeden Objektpunkt ergibt, die auf einen Referenzpunkt im Objektraum bezogen ist,
und aus dem Signalverlauf des zugehörigen Referenzpunktes der absolute Referenzphasenwert berech­ net und als absoluter Referenzphasenwert abgespeichert wird.
Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which an absolute phase difference Δϕ grating in a picture element, which belongs to an object point, consists of at least two signal profiles, namely the one in the mentioned object point itself and that in the associated reference point is formed in the same imaging beam while evaluating the modulation in the signal, the calculated absolute phase difference being added with the correct sign to the absolute reference phase ϕ R , which results from the at least one experimentally predetermined position of the reference plate z OR in the object space and in relation to the illumination lens and calculates the geometry data of the optical arrangement, which results in an absolute object phase ϕ Obj for each object point as a result of this arithmetic operation, which is related to a reference point in the object space,
and the absolute reference phase value is calculated from the signal curve of the associated reference point and is stored as an absolute reference phase value.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase des strukturiert leuchtenden Arrays selbst so abgeleitet werden kann, daß die - aus dem beim Verschieben des strukturiert leuchtenden Ar­ rays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulationsmaximums errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase ϕR des verschobenen strukturiert leuchtenden Arrays zugeordnet werden.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which preferably the absolute phase difference Δϕ grid can be derived from the phase of the structured luminous array itself in such a way that - from the when the structured luminous Ar rays and the Receiver arrays in each pixel of the receiver array, resulting signal profiles of a reference point and an object point - each in the 2π environment of the modulation maximum calculated mod 2π phase positions with the correct sign are assigned to the continuously measured absolute phase ϕ R of the shifted structured luminous array.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase eines mitverschobenen Refe­ renzgitters so abgeleitet werden kann, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulationsmaximums errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase ϕR des mitverschobenen Referenzgitters zugeordnet werden.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which preferably the absolute phase difference Δϕ grid can be derived from the phase of a shifted reference grid such that the - from the shifting of the structured luminous array and the receiver - Arrays in each pixel of the receiver array resulting signal profiles of a reference point and an object point - each in the 2π environment of the modulation maximum calculated mod 2π phase positions are assigned to the constantly measured absolute phase ϕ R of the shifted reference grid with the correct sign.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase des strukturiert leuchtenden Arrays selbst so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Refe­ renzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des verschobenen strukturiert leuchtenden Arrays ϕR zugeordnet werden.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which the absolute phase difference Δϕ grid is preferably derived from the phase of the structured, luminous array itself in such a way that - from that when the structured, luminous array and receiver array are moved in each pixel of the receiver array, the signal curves of a reference point and an object point - exactly at the modulation maximum calculated mod 2π phase positions are assigned to the constantly measured absolute phase of the shifted structured luminous array leuchten R.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase eines mitverschobenen Refe­ renzgitters so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Re­ ferenzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π- Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des mitverschobenen Refe­ renzgitters ϕR zugeordnet werden.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which preferably the absolute phase difference Δϕ grid is derived from the phase of a shifted reference grid such that the - from when moving the structured illuminated array and receiver array in each pixel of the receiver array, resulting signal profiles of a reference point and an object point - exactly at the modulation maximum calculated mod 2π phase positions are assigned to the constantly measured absolute phase of the shifted reference grid ϕ R with the correct sign.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise zusätzlich über den Beleuchtungsstrahlengang eine Bildaufnahme des Objektes oder der Szene mit einem zusätzlichen Empfänger-Array durchgeführt wird und die Bildelemente des zusätzli­ chen Empfänger-Arrays dabei jeweils eine geradlinige Verschiebung im Array-Raum erfahren.Furthermore, a method for 3D recording of object surfaces in a scene is proposed in which preferably additionally takes an image of the object via the illumination beam path or the scene is performed with an additional receiver array and the picture elements of the additional Chen receiver arrays each experience a linear shift in the array space.

Die Realisierung einer zweiten Beobachtungsrichtung ermöglicht eine bessere Erfassung der Szene. So kann die Schattenbildung verringert werden.The realization of a second observation direction enables a better detection of the scene. So the shadow formation can be reduced.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise zusätzlich eine Beleuchtung des Objektes oder der Szene durchgeführt wird mit einem zusätzlichen, strukturiert leuchtenden Array mit leuchtenden Flächenelementen mit Extrema der Leucht­ dichte und diese Extrema dabei jeweils parallel zu einer Geraden gAP2, die spiegelsymmetrisch zur Gera­ den gAP ist, auf Verschiebungsstrecken im Array-Raum verschoben werden.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which an additional illumination of the object or the scene is preferably carried out with an additional, structured, luminous array with luminous surface elements with extremes of luminance and these extremes in each case in parallel a straight line g AP2 , which is mirror-symmetrical to the straight line g AP , can be shifted on displacement paths in the array space.

Die Realisierung einer zweiten Beleuchtungsrichtung ermöglicht eine bessere Ausleuchtung der Szene und reduziert gegebenenfalls Schatten auf den Objektoberflächen.The realization of a second direction of illumination enables better illumination of the scene and may reduce shadows on the object surfaces.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die für das Auswerteverfahren benötigte Information über die absolute, lateral invarian­ te Objektphase durch optische Bestimmung der absoluten Phase ϕGitter direkt aus der Verschiebung des strukturiert leuchtenden Arrays durch optische Kopplung mit einer gerasterten Struktur als Gegengitter und einem Nullpunktgeber für die Berechnung der absoluten, lateral invarianten Objektphase abgeleitet wird.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which preferably the information required for the evaluation method about the absolute, laterally invariant object phase by optical determination of the absolute phase ϕ grating directly from the displacement of the structured, luminous array by optical Coupling with a rastered structure as counter grid and a zero point transmitter for the calculation of the absolute, laterally invariant object phase is derived.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die für das Auswerteverfahren benötigte Information über die absolute, lateral invarian­ te Objektphase durch optische Bestimmung der absoluten Phase ϕGitter direkt aus der Bewegung einer starr mit dem strukturiert beleuchteten Array gekoppelten Referenzstruktur abgeleitet wird. Dabei ist die­ ser ein Auswertesystem und ein Nullpunktgeber für die Berechnung der absoluten, lateral invarianten Objektphase zugeordnet.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which preferably the information required for the evaluation method about the absolute, laterally invariant object phase by optical determination of the absolute phase ϕ grating directly from the movement of a rigidly illuminated with the Array coupled reference structure is derived. This is assigned an evaluation system and a zero point transmitter for the calculation of the absolute, laterally invariant object phase.

Der Referenzstruktur, beispielsweise am Umfang einer rotierenden Scheibe; ist vorzugsweise ein Auswer­ tesystem und ein Nullpunktgeber zugeordnet, um die Information der Referenzstruktur auswerten zu kön­ nen. So kann, von einem Nullpunkt beginnend, die absolute, lateral invarianten Objektphase bestimmt werden. Aber es kann auch allgemein in grundsätzlich beliebigen Einheiten, beispielsweise in einer Län­ geneinheit oder in der Form von Zählimpulsen, die Weginkremente verkörpern können, ein Referenzwert gewonnen werden, welcher ein Äquivalent für die absolute, lateral invariante Objektphase darstellt.The reference structure, for example on the circumference of a rotating disk; is preferably an Auswer system and a zero point encoder assigned to be able to evaluate the information of the reference structure nen. Starting from a zero point, the absolute, laterally invariant object phase can be determined will. But it can also generally be in any units, for example in a country unit or in the form of counts that can embody path increments, a reference value which is equivalent to the absolute, laterally invariant object phase.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise das Auslesen der Elemente des Empfänger-Arrays bei veränderlichen Werten der Referenzphase mod 2π durchgeführt wird, also asynchron zur Referenzphase ϕGitter durchgeführt wird, wobei der jeweils aktuelle Triggerimpuls für das Detektieren von Licht der Elemente des Empfänger- Arrays im Zeitintervall Δti bei einer gegebenen präzisonsmechanisch-optischen Anordnung zur 3D- Aufnahme sich in Abhängigkeit von deren Geometrie der Anordnung sowie der Lage der Konvergenz­ punkte K1 und K2 und in Abhängigkeit vom aktuellen Wert der absoluten Referenzphase ϕGitter für jedes Element berechnet wird und in einer Phasenkorrekturwert-Tabelle vorliegt. So wird in jedem Element des Empfänger-Arrays ein Signalverlauf mit zumindest näherungsweise konstanter Ortsfrequenz erzeugt. Da­ bei erfolgt das Auslesen der Elemente des Empfänger-Arrays in aufeinanderfolgend zumindest annähernd gleichen Phasenschritten ΔϕEmpfänger der Phase ϕEmpfänger in jedem Element des Empfänger-Arrays und die im Verhältnis zur Phasenschrittweite ΔϕEmpfänger selbst kleineren Abweichungen ΔΔϕ zwischen der Refe­ renzphase und der in einem Element des Empfänger-Arrays sich ergebenden Phase ϕEmpfänger als von der Referenzphase ϕGitter abhängige Phasenkorrekturwerte ΔΔϕ werden mindestens einmalig für jedes Ele­ ment des Empfänger-Arrays errechnet. Diese von der Referenzphase ϕGitter abhängige Phasenkorrektur­ werte ΔΔϕ und liegen so in einer Phasenkorrekturwert-Tabelle vor und werden gespeichert. Die Phasen­ korrekturwerte ΔΔϕ werden sowohl für die Bestimmung des jeweiligen Abtastpunktes als auch bei der Be­ rechnung der absoluten Phase verwendet. Weiterhin werden Verschiebungen der leuchtenden Flä­ chenelemente FEL durchgeführt, wobei die Bilder der Verschiebungsstrecken VSBAj ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 bilden.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which the elements of the receiver array are preferably read out with changing values of the reference phase mod 2π, that is to say asynchronously to the reference phase ϕ grid , the current trigger pulse being carried out in each case for the detection of light from the elements of the receiver array in the time interval Δt i for a given precision mechanical-optical arrangement for 3D recording, depending on their geometry, the arrangement and the position of the convergence points K 1 and K 2 and depending on the current one Value of the absolute reference phase ϕ grid is calculated for each element and is available in a phase correction value table. Thus, a signal curve with at least approximately constant spatial frequency is generated in each element of the receiver array. Since the elements of the receiver array are read out in successively at least approximately the same phase steps Δϕ receiver of the phase ϕ receiver in each element of the receiver array and the smaller differences ΔΔϕ between the reference phase and the one in relation to the phase step width Δϕ receiver itself Element of the receiver array resulting phase ϕ receiver as phase correction values ΔΔϕ dependent on the reference phase ϕ grid are calculated at least once for each element of the receiver array. These phase correction values ΔΔϕ, which are dependent on the reference phase ϕ grating, are thus present in a phase correction value table and are stored. The phase correction values ΔΔϕ are used both for determining the respective sampling point and for calculating the absolute phase. In addition, displacements of the luminous surface elements FEL are carried out, the images of the displacement paths VSB Aj forming a cluster of lines SB 1 with a convergence point K 1 .

Hierbei wird bei Kenntnis der Geometrie der Anordnung, der Lage der Konvergenzpunkte K1 und K2 und der Kenntnis der Lage der realen Verschiebungsstrecken der Zeitpunkt des Abtastintervalls Δti verscho­ ben, um zumindest annähernd ein Signal mit einer konstanten Frequenz zu erhalten, das sehr schnell ausgewertet werden kann.Here, with knowledge of the geometry of the arrangement, the position of the convergence points K 1 and K 2 and the knowledge of the position of the real displacement distances, the time of the sampling interval Δt i is shifted to at least approximately obtain a signal with a constant frequency that is very fast can be evaluated.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise leuchtende Flächenelemente FEL - und so auch leuchtende Flächenelemente FEL mit lokalen Extrema der Leuchtdichte - im Array-Raum auf Verschiebungsstrecken VSBAj verschoben werden, die mit den B-Strecken BSAj koinzidieren, und die B-Strecken BSAj mittels einer zweistufigen Abbildungs­ stufe abgebildet werden. Gleichzeitig erfolgt die Detektion von Licht von den Elementen der Objektober­ flächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays. Diese werden ausgelesen und so wird jeweils ein Signalwert gewonnen und so wird jeweils ein leuchtendes Flä­ chenelement FELj auf je einer B-Strecke BSAj positioniert, und die Bilder dieser B-Strecken BSAj werden nach der ersten Abbildung mit einem Beleuchtungsobjektiv zu einem Streckenbüschel SB1 mit einem Konvergenzpunkt K1 geformt und ein zum Konvergenzpunkt K1 optisch konjugierter Punkt K1konj wird in den Objektraum in das Zentrum der Pupille PZOA des Abildungsstrahlenganges im Objektraum abgebildet. Während des Verschiebungsvorganges von strukturiert leuchtendem Array und Empfänger-Array werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtendes Flächenelement konstanter relativer Leuchtdichte der strukturierten, leuchtenden Fläche im Objektraum zumindest nähe­ rungsweise gemeinsam auf das Bild einer B-Strecke BSAj gebracht und so werden aus dem Bild von ei­ nem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj jeweils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which preferably luminous surface elements FEL - and thus also luminous surface elements FEL with local extremes of luminance - are shifted in the array space on displacement paths VSB Aj , which are shifted with the B- Route BS Aj coincide, and the B routes BS Aj are mapped using a two-stage mapping stage. At the same time, light is detected by the elements of the object surfaces for the duration of a time interval Δt i through the elements of the receiver array. These are read out and a signal value is obtained in each case and so a luminous surface element FELj is positioned on each B-section BS Aj , and the images of these B-sections BS Aj become an area bundle SB after the first image with an illumination lens 1 formed with a converging point K 1 and K for converging point optically conjugated 1 point K 1konj is imaged into the object space in the center of the pupil of the PZ OA Abildungsstrahlenganges in object space. During the shifting process of structured luminous array and receiver array, an image of a receiver element and an image of a luminous surface element of constant relative luminance of the structured, luminous surface in the object space are at least approximately brought together on the image of a B section BS Aj and so a pair with a fixed assignment is formed from the image of an element of the receiver array and the image of a luminous surface element FELj, and so such pairs of images are generated in the object space.

Bei diesem Verfahren ist der telezentrische Fall für die Beleuchtung und die Abbildung im Objektraum ein­ geschlossen, d. h. die Pupille im Objektraum kann jeweils auch im Unendlichen liegen. Die Beobachtung kann mit einer Kamera von oben erfolgen. Vorteilhaft ist, daß nur das strukturiert leuchtende Array und das Empfänger-Array bewegt werden, nicht jedoch ein Objekt. Dieses Verfahren ist deshalb beispielswei­ se für das 3D-Aufnahmeverfahren bei chirurgischen Operationen geeignet, da der in sich bewegliche Pa­ tient und auch das schwere 3D-Aufnahmegerät in Ruhe verbleiben können. Weiterhin ist von Vorteil, daß bei einem telezentrischen Strahlengang die effektive Wellenlänge im gesamten Objektraum konstant ist.With this method, the telecentric case for the lighting and the imaging in the object space is one closed, d. H. the pupil in the object space can also lie in infinity. The observation  can be done with a camera from above. It is advantageous that only the structured illuminated array and the receiver array is moved, but not an object. This method is therefore exemplary It is suitable for the 3D recording procedure in surgical operations, since the moving Pa tient and the heavy 3D recording device can remain at rest. It is also advantageous that with a telecentric beam path the effective wavelength is constant in the entire object space.

Die leuchtenden Flächenelemente FEL können sich hierbei ständig auf den B-Strecken BSAj befinden. Dabei sind keine Kenntnisse über die Lage und Form der Objektoberfläche notwendig, wenn ein großer Tiefenbereich im Objektraum gewählt wird. Bei A-priori-Kenntnissen über die Lage und Grobform der Ob­ jektoberfläche kann der Zeitbereich ΔtB bei flachen Objekten kleiner gemacht werden, wenn bekannt ist, wo sich die Objektoberfläche befindet und die an die Objektoberfläche angrenzende Tangentialebene zumindest näherungsweise senkrecht zur optischen Achse des Beleuchtungsobjektivs steht.The luminous surface elements FEL can always be located on the B routes BS Aj . No knowledge of the position and shape of the object surface is necessary if a large depth range is selected in the object space. With prior knowledge of the position and rough shape of the object surface, the time range Δt B can be made smaller for flat objects if it is known where the object surface is and the tangential plane adjacent to the object surface is at least approximately perpendicular to the optical axis of the illumination lens stands.

Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse in Bezug zur Tangen­ tialebene der Objektoberfläche wählbar, so daß zum einen eine senkrechte Beobachtung und Schrägbe­ leuchtung möglich und andererseits eine senkrechte Beleuchtung und Schrägbeobachtung möglich sind.Basically, the angle for the observation axis and the imaging axis is in relation to the Tangen tial plane of the object surface selectable, so that on the one hand a vertical observation and oblique lighting possible and on the other hand vertical lighting and oblique observation are possible.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die B-Strecken BSAj mittels eines afokalen Beleuchtungsstrahlenganges mit einem in­ neren Brennpunkt FBi abgebildet werden und die Objektoberflächen mit einem afokalen Abbildungsstrah­ lengang mit einem inneren Brennpunkt FAi abgebildet werden und im Objektraum der Brennpunkt des afo­ kalen Beleuchtungsstrahlenganges und des afokalen Abbildungsstrahlenganges zusammenfallen. Gleich­ zeitig erfolgt die Detektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitin­ tervalls Δti durch die Elemente des Empfänger-Arrays und diese werden ausgelesen und so wird jeweils ein Signalwert gewonnen. Der Konvergenzpunkt K1 wird in einem Abstand dK1 von der optischen Achse des Beleuchtungsobjektivs positioniert, wobei der Abstand dK1 dem halben Abstand vom inneren Brenn­ punkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brennebene Fi des Beleuchtungsstrahlenganges entspricht. Dabei sind das Beleuch­ tungsobjektiv und das Abbildungsobjektiv jeweils auf der nach außen gekehrten Seite der afokalen Abbil­ dungsstufen zumindest näherungsweise telezentrisch ausgeführt. So werden leuchtende Flächenelemen­ te FEL und so auch die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung mit lokalen Ex­ trema der Leuchtdichte zumindest annähernd parallel zu einer Geraden gA auf Verschiebungsstrecken VSBAj verschoben. Die Gerade gA durchstößt dabei den Brennpunkt FAB des Beleuchtungsobjektivs im Ar­ ray-Raum und für die Gerade gA ist der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Be­ leuchtungsobjektivs und Abstand dk1 realisiert, wobei der Anstieg auf die Hauptebene des Abbildungsob­ jektivs bezogen ist. Zumindest annähernd wird eine geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsobjektivs mit der gleichen Geschwindigkeit wie das leuchten­ de Array durchgeführt und bei der Verschiebung der beiden Arrays werden mehrfach nacheinander Signalwerte aus je einem einzelnen Element des Empfänger-Arrays ausgelesen. So wird je ein Signalver­ lauf aus einem einzelnen Element des Empfänger-Arrays gebildet und bei Abbildung mit einer Abbil­ dungsstufe von mehrfach so erzeugten Verschiebungsstrecken von Elementen wird aus deren Bildern im Raum nach der Abbildungsstufe zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im inneren Brennpunkt FAi des Abbildungsobjektivs gebildet. Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which the B sections BS Aj are preferably imaged by means of an afocal illumination beam path with an inner focal point F Bi and the object surfaces with an afocal image beam path with an inner focal point F. Ai are mapped and the focal point of the afocal illumination beam path and the afocal imaging beam path coincide in the object space. At the same time, light from the elements of the object surfaces is detected for a period of time Δt i by the elements of the receiver array and these are read out and a signal value is obtained in each case. The convergence point K 1 is positioned at a distance d K1 from the optical axis of the illumination lens, the distance d K1 corresponding to half the distance from the inner focal point F Bi of the afocal imaging stage from the point of intersection of the axis of the imaging beam path through the inner focal plane F i of the illumination beam path . The lighting lens and the imaging lens are each at least approximately telecentric on the outward-facing side of the afocal imaging stages. Thus, luminous surface elements FEL and thus also the luminous surface elements FEL are shifted in a luminance distribution with local extrema of the luminance at least approximately parallel to a straight line g A on displacement lines VSB Aj . The straight line g A penetrates the focal point F AB of the lighting lens in the Ar ray space and for the straight line g A the increase is realized with the amount from the quotient focal length of the lighting lens and the distance d k1 , the increase on the main plane of the imaging object is related to jective. At least approximately, a linear displacement of the receiver array is carried out parallel to the optical axis of the imaging lens at the same speed as the luminous array, and when the two arrays are shifted, signal values are read out successively from a single element of the receiver array. For example, a signal curve is formed from a single element of the receiver array and, in the case of imaging with an imaging level of displacement paths generated several times, elements from their images in space after the imaging level are at least approximately at least one cluster of lines SB 2 with a convergence point K 2 formed in the inner focus F Ai of the imaging lens.

Während des Verschiebungsvorganges von einem strukturiert leuchtendem Array und einem Empfänger- Array werden vorzugsweise jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest näherungsweise gemeinsam auf dem Bild BSOj einer B-Strecke BSAj zur Koinzidenz gebracht und gemeinsam verschoben. So wird aus dem Bild von einem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj jeweils ein Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare von Bildern ver­ schoben.During the shifting process of a structured luminous array and a receiver array, an image of a receiver element and an image of a luminous surface element FELj in the object space are preferably brought together at least approximately together on the image BS Oj of a B section BS Aj and moved together. Thus, a pair with a fixed assignment is formed from the image of an element of the receiver array and the image of a luminous surface element FELj, and so such pairs of images are shifted in the object space.

Dieses Verfahren stellt den telezentrische Fall für die Beleuchtung und die Abbildung im Objektraum dar, d. h. die Pupille im Objektraum liegt jeweils im Unendlichen. Die Beobachtung kann mit einer Kamera von oben erfolgen. Vorteilhaft ist, daß nur das strukturiert leuchtende Array und das Empfänger-Array bewegt werden müssen. Die leuchtenden Flächenelemente FEL befinden sich vorzugsweise ständig auf den B- Strecken BSAj. Dabei sind keine Kenntnisse über die Lage und die Form der Objektoberfläche notwendig. Bei A-priori-Kenntnissen über die Lage und Grobform der Objektoberfläche kann in der Regel der Zeitbe­ reich ΔtB bei flachen Objekten kleiner gemacht werden, wenn bekannt ist, wo sich die Objektoberfläche befindet.This method represents the telecentric case for the illumination and the imaging in the object space, ie the pupil in the object space is infinite. The observation can be done with a camera from above. It is advantageous that only the structured illuminated array and the receiver array have to be moved. The luminous surface elements FEL are preferably constantly on the B routes BS Aj . No knowledge of the location and shape of the object surface is necessary. With a priori knowledge of the location and rough shape of the object surface, the time range Δt B can usually be made smaller for flat objects if it is known where the object surface is located.

Der Abstand dK1 entspricht dem halben Abstand vom inneren Brennpunkt FBi der afokalen Abbildungsstu­ fe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brennebene Fi des Beleuchtungsstrahlenganges. Dies ist gleichbedeutend mit der Tatsache, daß der Konvergenzpunkt K1 im Durchstoßpunkt der Winkelhalbierenden der Achsen des Beleuchtungsstrahlenganges und des Abbil­ dungsstrahlenganges durch die innere Brennebene des Beleuchtungsstrahlenganges liegt.The distance d K1 corresponds to half the distance from the inner focal point F Bi of the afocal imaging stage from the point of intersection of the axis of the imaging beam path through the inner focal plane F i of the illumination beam path. This is equivalent to the fact that the convergence point K 1 lies at the intersection point of the bisector of the axes of the illuminating beam path and the imaging beam path through the inner focal plane of the illuminating beam path.

Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse in Bezug zur Tangen­ tialebene der Objektoberfläche wählbar, so daß zum einen eine senkrechte Beobachtung und Schrägbe­ leuchtung möglich und andererseits eine senkrechte Beleuchtung und Schrägbeobachtung möglich sind.Basically, the angle for the observation axis and the imaging axis is in relation to the Tangen tial plane of the object surface selectable, so that on the one hand a vertical observation and oblique lighting possible and on the other hand vertical lighting and oblique observation are possible.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Elemente des Empfänger-Arrays im Aufnahmevorgang Licht von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren und die zwei Empfänger- Arrays, die zur Aufnahme der strukturiert beleuchteten Objektoberflächen in einer Szene im Objektraum verwendet werden, beim Aufnahmevorgang gleichzeitig im Array-Raum auf Verschiebungsstrecken ASA1 und ASA2 verschoben werden, die einen Winkel zueinander aufweisen.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which the elements of the receiver array in the recording process preferably detect light from the elements of the structured illuminated object surfaces in the object space and the two receiver arrays which record the structured illuminated Object surfaces are used in a scene in the object space, are moved during the recording process at the same time in the array space on displacement paths AS A1 and AS A2 which are at an angle to one another.

Dabei sind für die 3D-Aufnahme des Hintergrundes der Szene mindestens zwei Abbildungsstrahlengänge für die Abbildung der Objektoberflächen mit einem ersten Abbildungsobjektiv im ersten Abbildungsstrah­ lengang und einem zweiten Abbildungsobjektiv im zweiten Abbildungsstrahlengang angeordnet, wobei die Abbildungsobjektive räumlich getrennten Öffnungsblenden aufweisen und jedem Abbildungsobjektiv mit mindestens je einem Empfänger-Array mit Elementen oder einem Bild desselben zugeordnet ist. Die Brennebenen der Abbildungsstrahlengänge schneiden sich im Objektraum, wobei die Schnittgerade SG senkrecht auf der Symmetrielinie SL im Hauptschnitt steht, und die Bilder der Verschiebungsstrecken ASA1 und ASA2 die Strecken ASO1 und ASO1, annähernd auf der Symmetrielinie zwischen den beiden Ach­ sen der Objektive zur Konvergenz gebracht werden und dort in einem Koinzidenzpunkt K0 konvergieren.At least two imaging beam paths for imaging the object surfaces with a first imaging lens in the first imaging beam path and a second imaging lens in the second imaging beam path are arranged for the 3D recording of the background of the scene, the imaging lenses having spatially separated aperture diaphragms and each imaging lens with at least one each Receiver array is associated with elements or an image of the same. The focal planes of the imaging beam paths intersect in the object space, the intersection line SG being perpendicular to the symmetry line SL in the main section, and the images of the displacement lines AS A1 and AS A2 the lines AS O1 and AS O1 , approximately on the line of symmetry between the two axes Objectives are brought to convergence and converge there at a coincidence point K 0 .

Im Konvergenzpunkt K0 werden das Streckenbüschel S21 der Bilder der Verschiebungsstrecken ASA1j der einzelnen Elementes des ersten Empfänger-Arrays, die Strecken ASO1j, mit dem Konvergenzpunkt K21 und das Streckenbüschel S22 der Bilder der Verschiebungsstrecken ASA2j der einzelnen Elementes des zweiten Empfänger-Arrays, der Strecken ASO2j, mit dem Konvergenzpunkt K22 zur Koinzidenz gebracht. Die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfän­ ger-Arrays werden im Objektraum für den Zeitbereich ΔtB paarweise zumindest näherungsweise zur Ko­ inzidenz gebracht und die paarbildenden Elemente der beiden Empfänger-Arrays stellen jeweils korre­ spondierende Elemente dar.At the convergence point K 0 , the route bundle S 21 of the images of the displacement routes AS A1j of the individual elements of the first receiver array, the routes AS O1j , with the convergence point K 21 and the route bundle S 22 of the images of the displacement routes AS A2j of the individual elements of the second Receiver arrays, the lines AS O2j , brought to coincidence with the convergence point K 22 . The images of the elements of the first receiver array and the images of the elements of the second receiver array are brought in pairs at least approximately in the object space for the time range Δt B and the pair-forming elements of the two receiver arrays each represent corresponding elements .

Die Signalverläufe S1 des ersten Empfänger-Arrays werden durch Auslesen von je einem Element wäh­ rend der Verschiebung des ersten Empfänger-Arrays auf der Verschiebungsstrecke ASA1j gebildet und die Verschiebung des ersten Empfänger-Arrays wird parallel zu einer Geraden gA1P durchgeführt und so wer­ den die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA1P auf Verschiebungsstrecken ASA1j verschoben. Die Signalverläufe S2 des zweiten Empfänger-Arrays werden durch Auslesen von je einem Element während der Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke AS2j gebildet und die Verschiebung des zweiten Empfänger-Arrays erfolgt gleich­ zeitig mit der des ersten Empfänger-Arrays und die Verschiebung des zweiten Empfänger-Arrays wird parallel zu einer Geraden gA2P durchgeführt und so werden die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA2P auf Verschiebungsstrecken ASA2j verschoben. Die Gerade gA1P wird in einem Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 in der Hauptebene des Abbildungsobjektivs zum Schnitt gebracht, wobei zusätzlich die Gerade gA1P den Brennpunkt FA1 des ersten Abbildungsobjektivs enthält und die Ge­ rade gA2P den Brennpunkt FA2 des Abbildungsobjektivs im A 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880rray-Raum enthält. Dabei liegt der Punkt PA1 im Durchstoßpunkt einer Geraden durch die Hauptebene des ersten Abbildungsobjektivs im Array-Raum, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koinzidenzpunkt K0 enthält. Der Punkt PA2 liegt im Durchstoßpunkt einer Geraden durch die Hauptebene des zweiten Abbildungsobjektivs im Array-Raum, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koinzidenzpunkt K0 enthält.The signal profiles S 1 of the first receiver array are formed by reading out one element each during the displacement of the first receiver array on the displacement path AS A1j and the displacement of the first receiver array is carried out parallel to a straight line g A1P and so who the elements of the first receiver array are shifted at least approximately parallel to a straight line g A1P on displacement paths AS A1j . The signal curves S 2 of the second receiver array are formed by reading out one element each during the displacement of the second receiver array on the displacement path AS 2j and the displacement of the second receiver array takes place simultaneously with that of the first receiver array and The second receiver array is shifted parallel to a straight line g A2P and so the elements of the second receiver array are shifted at least approximately parallel to a straight line g A2P on shift paths AS A2j . The line g A1P is cut at a point P A1 in the main plane of the imaging lens in the array space and the straight line g A2P is cut at a point P A2 in the main plane of the imaging lens , with the line g A1P also having the focal point F A1 of the contains first imaging lens and the Ge rade g A2P contains the focal point F A2 of the imaging lens in A 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880rray space. The point P A1 lies in the point of intersection of a straight line through the main plane of the first imaging lens in the array space, which lies parallel to the optical axis of the same and additionally contains the coincidence point K 0 . The point P A2 lies in the point of intersection of a straight line through the main plane of the second imaging lens in the array space, which lies parallel to the optical axis of the same and additionally contains the coincidence point K 0 .

Bei Schärfeeinstellungen auf eine große Entfernung von der 3D-Aufnahmeanordnung, dies entspricht ei­ ner Positionierung der leuchtenden Flächenelemente FEL der strukturierten Beleuchtung in der Nähe der Brennebene des Beleuchtungsobjektivs im Array-Raum, beispielsweise auf den Hintergrund einer Szene, können die abgebildeten leuchtenden Flächenelemente FEL der strukturierten Beleuchtung nicht mehr detektiert werden. Die gegebene Beleuchtung und die strukturierte Beleuchtung, wenn diese noch einen detektierbaren Beitrag leistet, werden ohnehin vermischt. So kann die absoluten Phaseabs nicht mehr zu­ verlässig bestimmt werden. Hier kommt deshalb vorzugsweise dieses nachstehend Auswerteverfahren zur Anwendung.With sharpness settings at a large distance from the 3D recording arrangement, this corresponds to a positioning of the luminous surface elements FEL of the structured lighting near the focal plane of the illumination lens in the array space, for example on the background of a scene, the illustrated luminous surface elements FEL can structured lighting can no longer be detected. The given lighting and the structured lighting, if this still makes a detectable contribution, are mixed anyway. This means that the absolute phase abs can no longer be determined reliably. This evaluation method is therefore preferably used here.

Aufgrund der natürlichen Strukturierung der teilweise strukturiert oder natürlich beleuchteten und auch selbstleuchtenden Objektoberfläche sind die in jedem Element des Empfänger-Arrays aufgenommenen Signalverläufe S1j und S2j mehr oder weniger moduliert. Aus der Auswertung dieser Modulation, die be­ sonders an den scharf abgebildeten Elementen der Objektoberfläche auftritt, soll die zO-Position des je­ weils zugehörigen Elementes der Objektoberfläche bestimmt werden.Due to the natural structuring of the partially structured or naturally illuminated and also self-illuminating object surface, the signal profiles S 1j and S 2j recorded in each element of the receiver array are more or less modulated. From the evaluation of this modulation, which occurs particularly on the sharply depicted elements of the object surface, the z O position of the respective associated element of the object surface is to be determined.

Die beiden Signalverläufe S1j und S2j von zwei korrespondierenden Elementen 1j und 2j der Empfänger- Arrays sind über dem Weg der Verschiebung der beiden Empfänger-Arrays im Speicher eines Rechners abgelegt. Dabei stellen genau die Elemente von zwei Empfänger-Arrays korrespondierende Elemente dar, deren Bilder im Objektraum in einem Schärfevolumen zumindestens zu einem Zeitpunkt koinzidieren. So bilden genau ein Element des ersten und ein Element des zweiten Empfänger-Arrays in einem gemein­ samen Schärfevolumen zumindestens zu einem Zeitpunkt ein Paar korrespondierender Elemente.The two signal profiles S 1j and S 2j of two corresponding elements 1 j and 2 j of the receiver arrays are stored in the memory of a computer by way of the displacement of the two receiver arrays. The elements of two receiver arrays represent corresponding elements whose images in the object space coincide in a volume of focus at least at one point in time. Exactly one element of the first and one element of the second receiver array in a common focus volume form a pair of corresponding elements at least at one point in time.

Es werden nun aus jedem der beiden Signalverläufe S1j und S2j mittels einer Fensterfunktion mit minde­ stens einem einzigen Fenster, mit einer minimalen Fensterlänge entsprechend zwei Signalwerten und ei­ ner maximalen Fensterlänge, die zumindestens näherungsweise der Länge der Signalverläufe S1j und S2j entspricht, sich überdeckende Signalstücke S1 teil j und S2 teil j in jedem der beiden Signalverläufe S1j und S2j aus den Fenstern gebildet. Vorteilhaft sind Fensterlängen mit einer Länge von beispielsweise 8 oder 16 Signalwerte, andere, auch größere Werte sind möglich.Each of the two signal curves S 1j and S 2j are now generated using a window function with at least one single window, with a minimum window length corresponding to two signal values and a maximum window length which corresponds at least approximately to the length of the signal curves S 1j and S 2j , overlapping signal pieces S 1 part j and S 2 part j are formed from the windows in each of the two signal profiles S 1j and S 2j . Window lengths with a length of, for example, 8 or 16 signal values are advantageous, other, even larger values are possible.

Es erfolgt synchrone Verschieben dieser Fensterfunktion, um mindestens einen Signalwert, der einem In­ krement der Verschiebung der Empfänger-Arrays entspricht, über jeden dieser beiden Signalverläufe S1j und S2j und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, wird je ein Signalstück S1 teil Position k j und S2 teil Position k j gebildet.This window function is synchronously shifted by at least one signal value, which corresponds to an increment of the shift of the receiver arrays, over each of these two signal profiles S 1j and S 2j and from each current window in the position k, with 1 ≦ k ≦ m , a signal piece S 1 part position kj and S 2 part position kj is formed.

Dabei überdecken sich diese nacheinander gebildeten Signalstücke S1 teil j Position k j und S2 teil j Position k j in je­ dem der beiden Signalverläufe S1j und S2j in einem Teilbereich und wobei jeweils am gleichen Ende der beiden Signalverläufe S1j und S2j mit dem Verschieben der Fensterfunktion in beiden Signalstücken be­ gonnen wird.These successively formed signal pieces S 1 part j position kj and S 2 part j position kj overlap each of the two signal profiles S 1j and S 2j in a partial area and each at the same end of the two signal profiles S 1j and S 2j with the Moving the window function in both signal pieces is started.

Anschließend wird, jeweils ausgehend von zwei Signalstücken in der Position 1 S1 teil Position 1 j und S2 teil Position 1 j, die Kreuzkorrelationsfunktion berechnet, wobei jedoch vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signal- Stück S1 Teil Position 1 j und aus einem invertierten Signalstück S2 Teil Position 1 INV j das Maximum der Kreuzkorre­ lationsfunktion MCC1 2 j Position 1 zwischen 0 und 1 berechnet und gespeichert wird.The cross-correlation function is then calculated, each based on two signal pieces in position 1 S 1 part position 1 j and S 2 part position 1 j , but one of the two signal pieces is inverted beforehand, i.e. all values of the same are mirrored, and so on from an original signal piece S 1 part position 1 j and from an inverted signal piece S 2 part position 1 INV j the maximum of the cross-correlation function MCC 1 2 j position 1 between 0 and 1 is calculated and stored.

Die Invertierung ist notwendig um korrelierbare Signale zu erhalten, da die Abbildungsstrahlen der Ele­ mente eines korrespondierenden Paares sich im Objektraum bei der Verschiebung in einem zumindest näherungsweise gleichen Ausschnitt der Szene im Verschiebungsvorgang entlang einer Spur gegensinnig bewegen, also beispielsweise aufeinander zu. Dabei liegt diese Spur parallel zum Hauptschnitt der 3D- Aufnahmeanordnung.The inversion is necessary in order to obtain correlatable signals, since the imaging beams of the Ele elements of a corresponding pair at least in the object space when moving Approximately the same section of the scene in the opposite direction along a track move, for example towards each other. This track lies parallel to the main cut of the 3D Admission order.

Nach dem Berechnen des Maximums der Kreuzkorrelationsfunktion MCC1 2 j Position 1 in der Position 1 er­ folgt das Verschieben der Fensterfunktion in die Position 2, so daß für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion MCC1 2 j Position 2 in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe S1j und S2j in der Position m angekom­ men ist und wiederum das Maximum MCC1 2 j Position m der Kreuzkorrelationsfunktion MCC1 2 j Position m be­ stimmt wird. Aus den m berechneten Maxima MCCm wird eine Maximalwert-Kurve gebildet, wobei in die­ ser Maximalwert-Kurve wiederum das sich ergebende Maximum Mm j zwischen 0 und 1 bestimmt wird und der Ort des Maximums Mm j der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird. Diese so berechnete Maxi­ malwert-Kurve kann den Verlauf einer Gauß-Funktion aufweisen. Um Fehlern vorzubeugen, kann eine Intensitätsschwelle verwendet werden, wodurch Signalstücke mit sehr geringer mittlerer Intensität von der weiteren Verarbeitung ausgeschlossen werden. Das Maximum der Maximalwert-Kurve kann auch über eine Schwerpunktbildung erfolgen. Dabei können Interpolationsmethoden angewendet werden.After calculating the maximum of the cross-correlation function MCC 1 2 j position 1 in position 1, the window function is moved to position 2 so that the maximum of the cross-correlation function MCC 1 2 j position 2 is calculated in the manner described for the next two signal pieces is until the window function at the other end of the two signal curves S 1j and S 2j has arrived in position m and again the maximum MCC 1 2 j position m of the cross-correlation function MCC 1 2 j position m is determined. A maximum value curve is formed from the m calculated maximums MCC m , the resulting maximum M mj between 0 and 1 being determined in this maximum value curve and the location of the maximum M mj of the maximum value curve according to the two original signal curves and so that the path of the displacement of the two receiver arrays is assigned. This maximum value curve calculated in this way can have the course of a Gaussian function. In order to prevent errors, an intensity threshold can be used, whereby signal pieces with a very low average intensity are excluded from further processing. The maximum of the maximum value curve can also be achieved by forming a center of gravity. Interpolation methods can be used.

So wird der Ort des jeweiligen so bestimmten Maximums Mj als Ort des zu den beiden korrespondieren­ den Elementen 1j und 2j zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche im Array- Raum definiert.The location of the respective maximum M j determined in this way is defined as the location of the image of the respective element of the object surface in the array space that corresponds to the two corresponding elements 1 j and 2 j.

Aus dem Ort dieses Maximums Mj im Array-Raum wird die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche, da die Geometrie der 3D- Aufnahmeanordnung bekannten ist. So können die Positionen von den Elementen einer Objektoberfläche, von welchen Signalverläufe aufgenommen werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen, einschließlich die Schrittweite der Verschie­ bung, der beiden Empfänger-Arrays vorbestimmt sind.From the location of this maximum M j in the array space, the z O coordinate of the respective element of the object surface in the z O direction is calculated using Newton's mapping equation, and thus also the x O and y O position of the respective element of an object surface, since the geometry of the 3D recording arrangement is known. In this way, the positions of the elements of an object surface from which signal profiles can be recorded can be calculated, the geometry of the 3D recording arrangement being known and the displacements, including the step width of the displacement, of the two receiver arrays being predetermined.

Dieser so berechnete Kurvenzug über dem Weg der Verschiebung kann den Verlauf einer Gauß-Funktion aufweisen. Es wird in diesem Kurvenzug das Maximum bestimmt, wobei der Ort des Maximums des Kur­ venzuges den beiden originalen Signalverläufen S1j und S2j und damit dem Weg der Verschiebung zuge­ ordnet wird. Das Maximums des Kurvenzuges kann auch über eine Schwerpunktbildung erfolgen. Der Ort des Maximums wird als Ort des zugehörigen Elementes der Objektoberfläche definiert. Dabei können In­ terpolationsmethoden angewendet werden.This curve path calculated in this way over the path of the displacement can have the course of a Gaussian function. The maximum is determined in this curve, the location of the maximum of the curve being assigned to the two original signal profiles S 1j and S 2j and thus to the path of the shift. The maximum of the curve can also be done by forming a center of gravity. The location of the maximum is defined as the location of the associated element of the object surface. Interpolation methods can be used.

Dieses Verfahren kann als Korrelationsverfahren mit zwei gefensterten Signalverläufen und einem dabei stückweise jeweils invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objekt­ oberfläche bezeichnet werden. Es wird darauf in der Offenbarung unter dieser Bezeichnung auf dieses Korrelationsverfahren mit zwei gefensterten Signalverläufen noch weiter Bezug genommen.This method can be referred to as a correlation method with two windowed signal profiles and a signal profile that is inverted piece by piece to determine the z O position of an element of the object surface. It is referred to in the disclosure under this designation on this correlation method with two windowed waveforms even further.

Weiterhin werden vorzugsweise für die Bestimmung der mittleren Beleuchtungsstärke von Elementen der Objektoberfläche zumindest die Elemente des Empfänger-Arrays im Verschiebungsvorgang der Empfän­ ger-Arrays ausgelesen, die im Verschiebungsvorgang zumindest näherungsweise je auf einer Strecke lie­ gen im Array-Raum liegen, die durch einen ortsfesten Abbildungsstrahl im Objektraum vorgegeben ist.Furthermore, the. Are preferably used for determining the average illuminance of elements Object surface at least the elements of the receiver array in the process of moving the receiver ger arrays read out, which were at least approximately each on a route in the displacement process gen lie in the array space, which is predetermined by a fixed imaging beam in the object space.

Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL und die der Empfänger- Arrays an einen anderen Ort kann mit mechanischen oder mit mikromechanischen Mitteln erfolgen.The electronically controlled displacement of the luminous surface elements FEL and that of the receiver Arrays to another location can be done using mechanical or micromechanical means.

Die beiden Achsen der Abbildungsobjektive können zueinander geneigt sein. Bei einer parallelen Anord­ nung der beiden Achsen der Abbildungsobjektive fallen der Punkt PA1 und der Punkt PA2 im Punkt PA zu­ sammen. In diesem Fall und wenn die Rasterkonstanten und die aktiven Flächen der Empfänger-Arrays übereinstimmen und die Abbildungsobjektive zumindest näherungsweise baugleich sind und die Empfän­ ger-Arrays sich zumindest näherungsweise gemeinsam in einer Ebene befinden bilden alle Elemente der beiden Empfänger-Arrays jeweils korrespondierende Paare. Die realen Verschiebungen der beiden Emp­ fänger-Arrays auf den Verschiebungsstrecken ASA1 und ASA2 und deren Bilder ASO1 und ASO2 im Objek­ traum bilden den Buchstaben Y, so daß hier zur Abgrenzung vom 3D-Y-Verfahren gesprochen werden kann. The two axes of the imaging lenses can be inclined to one another. With a parallel arrangement of the two axes of the imaging lenses, the point P A1 and the point P A2 coincide with the point P A. In this case and if the raster constants and the active areas of the receiver arrays match and the imaging lenses are at least approximately identical in construction and the receiver arrays are at least approximately together in one plane, all elements of the two receiver arrays each form corresponding pairs. The real displacements of the two receiver arrays on the displacements AS A1 and AS A2 and their images AS O1 and AS O2 in the object dream form the letter Y, so that one can speak here of the 3D-Y method.

Bei der Bestimmung der 3D-Punktwolke kann im Vordergrund der Szene das bereits beschriebene Ver­ fahren mit der Verschiebung der leuchtenden Flächenelemente FEL und der Bestimmung der absoluten Phase eingesetzt werden. Für den Hintergrund wird das soeben beschriebene Korrelationsverfahren ein­ gesetzt. Es ist dabei ein Übergangsbereich notwendig. Gegebenenfalls müssen die Verfahren zeitlich nacheinander angewendet werden, um einen Übergangsbereich ohne Informationsverluste überbrücken zu können. Dies ist notwendig, da bei dem Verfahren zur Bestimmung der absoluten Phase sich in der Regel die Elemente des Empfänger-Arrays auf ASAj-Strecken, also parallel zu den Achse des jeweiligen Abbildungsobjektivs bewegen. Dagegen erfolgt die Verschiebung der Empfänger-Arrays beim 3D-Y- Verfahren vorzugsweise auf anderen Strecken, den beiden oberen Y-Ästen. Dies erfordert eine jeweils andere mechanische Bewegung und somit auch der Steuerung der Empfänger-Arrays. Für das 3D-Y- Verfahren mit der beschriebenen Bestimmung des Korrelationsmaximums Mj findet die Verschiebung der leuchtenden Flächenelemente FEL auf Strecken parallel zu der Achse des jeweiligen Beleuchtungsobjek­ tivs statt.When determining the 3D point cloud, the process described above can be used in the foreground of the scene with the displacement of the luminous surface elements FEL and the determination of the absolute phase. The correlation method just described is used for the background. A transition area is necessary. If necessary, the procedures have to be applied one after the other in order to be able to bridge a transition area without loss of information. This is necessary because in the method for determining the absolute phase, the elements of the receiver array generally move on AS Aj lines , that is to say parallel to the axis of the respective imaging lens. In contrast, the receiver arrays in the 3D-Y method are preferably moved on other paths, the two upper Y branches. This requires a different mechanical movement and therefore also the control of the receiver arrays. For the 3D-Y method with the described determination of the correlation maximum M j , the shifting of the luminous surface elements FEL takes place on lines parallel to the axis of the respective illumination objective.

Im phasenauswertenden Verfahren kann aus dem Signalverlauf, der von einem Element der Objektober­ fläche gewonnen werden kann, die mittlere Beleuchtungsstärke eines Elementes der Objektoberfläche und auch gegebenenfalls dessen Farbe, durch den Einsatz farbsensitiver Elemente des Empfänger- Arrays aus dem detektierten Signalverlauf bestimmt werden. Dies ist für das hier beschriebene Korrelati­ onsverfahren jedoch nicht ohne weiteres möglich, da ein verschobenes Element des Empfänger-Arrays nicht an einen ortsfesten Abbildungsstrahl gebunden ist, sondern an einen Abbildungsstrahl, der über die Objektoberfläche "wandert", beziehungsweise an unterschiedliche Abbildungsstrahlen von verschiedenen Elementen der Objektoberfläche oder der Szene.In the phase-evaluating method, the waveform generated by an element of the object can be used surface, the average illuminance of an element of the object surface and also its color, if necessary, through the use of color-sensitive elements of the receiver Arrays can be determined from the detected waveform. This is for the correlati described here ons procedure, however, not easily possible, since a displaced element of the receiver array is not bound to a fixed imaging beam, but to an imaging beam that extends over the Object surface "migrates", or to different imaging beams from different ones Elements of the object surface or the scene.

Deshalb werden zusätzlich für das Korrelationsverfahren zur Bestimmung der mittleren Beleuchtungsstär­ ke von Elementen der Objektoberfläche vorzugsweise genau die Elemente des Empfänger-Arrays im Verschiebungsvorgang der Empfänger-Arrays ausgelesen, die zumindest näherungsweise je auf einer Strecke im Array-Raum liegen, die durch einen ortsfesten Abbildungsstrahl im Objektraum vorgegeben ist, wobei ein ortsfester Abbildungsstrahl im Objektraum durch ein feststehendes Element der Objektoberflä­ che oder der Szene und das Pupillenzentrum des zugehörigen Abbildungsobjektivs vorbestimmt ist. Das heißt, bereits vor und nach dem Durchgang der Schärfevolumens durch die Elemente der Objektoberflä­ che wird von einem Element derselben mindestens ein Signalwert gewonnen. So kann der Einfluß des strukturierten Lichtes in den Elementen der Objektoberfläche durch dessen unscharfe Abbildung für die Bestimmung der mittleren Beleuchtungsstärke eliminiert werden und so auch die Farbe, beziehungsweise die spektrale Zusammensetzung des reflektierten Lichtes von einem Element der Objektoberfläche be­ stimmt werden. So kann auch von einer Freiraumszene mit einem Vordergrund die 3D-Punktwolke be­ stimmt werden.Therefore, in addition to the correlation method for determining the average illuminance ke of elements of the object surface preferably exactly the elements of the receiver array in the Displacement process of the receiver arrays read out, each at least approximately on one Distance in the array space, which is predetermined by a stationary imaging beam in the object space, a fixed imaging beam in the object space through a fixed element of the object surface che or the scene and the pupil center of the associated imaging lens is predetermined. The means before and after the focus volume passes through the elements of the object surface At least one signal value is obtained from an element thereof. So the influence of the structured light in the elements of the object surface through its blurred image for the Determination of the average illuminance are eliminated and so is the color, respectively the spectral composition of the reflected light from an element of the object surface be true. The 3D point cloud can also be seen from a free space scene with a foreground be true.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Gerade gA1P in einem Punkt PA in der Hauptebene des Abbildungsobjektivs und im Durchstoßpunkt der Symmetrielinie SL im Array-Raum und die Gerade gA2P im gleichen Punkt PA zum Schnitt gebracht werden, wobei die optischen Achsen der beiden Abbildungsstrahlengänge parallel ange­ ordnet sind, und die Gerade gA1P zusätzlich den Brennpunkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P den Brennpunkt FA2 des Abbildungsobjektivs im Array-Raum enthalten. Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which the straight line g A1P in a point P A in the main plane of the imaging lens and in the intersection point of the symmetry line SL in the array space and the straight line g A2P in the same point P A are brought to the intersection, the optical axes of the two imaging beam paths being arranged in parallel, and the straight line g A1P additionally containing the focal point F A1 of the first imaging lens and the straight line g A2P the focal point F A2 of the imaging lens in the array space.

Bei dieser parallelen Anordnung der beiden Achsen der Abbildungsobjektive fallen der Punkt PA1 und der Punkt PA2 im Punkt PA zusammen. In diesem Fall und wenn die Rasterkonstanten und die aktiven Flächen der Empfänger-Arrays übereinstimmen sowie die Abbildungsobjektive zumindest näherungsweise bau­ gleich sind und die Empfänger-Arrays sich zumindest näherungsweise gemeinsam in einer Ebene befin­ den, bilden alle Elemente der beiden Empfänger-Arrays jeweils korrespondierende Paare. Die realen Ver­ schiebungen der beiden Empfänger-Arrays auf den Verschiebungsstrecken ASA1 und ASA2 und deren Bil­ der ASO1 und ASO2 im Objektraum bilden den Buchstaben Y, so daß hier zur Abgrenzung vom 3D-Y- Verfahren gesprochen werden kann.With this parallel arrangement of the two axes of the imaging lenses, the point P A1 and the point P A2 coincide in the point P A. In this case, and if the raster constants and the active areas of the receiver arrays match and the imaging lenses are at least approximately identical in construction and the receiver arrays are at least approximately together in one plane, all elements of the two receiver arrays each form corresponding pairs . The real displacements of the two receiver arrays on the displacement paths AS A1 and AS A2 and their images of the AS O1 and AS O2 in the object space form the letter Y, so that one can speak here of the 3D-Y method.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Empfängerelemente im Aufnahmevorgang Licht von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren und beim Aufnahmevorgang die zwei Emp­ fänger-Arrays gleichzeitig und parallel zu jeweiligen optischen Achsen der parallelen Abbildungsobjektive, deren Hauptebenen zusammenfallen, verschoben werden. Dabei sind für die 3D-Aufnahme des Hinter­ grundes der Szene mindestens zwei parallele, zumindest näherungsweise baugleiche Abbildungsstrah­ lengänge für die Abbildung der Objektoberflächen mit einem ersten Abbildungsobjektiv im ersten Abbil­ dungsstrahlengang und einem zweiten Abbildungsobjektiv im zweiten Abbildungsstrahlengang angeordnet und die Abbildungsobjektive weisen räumlich getrennten Öffnungsblenden auf. Jedem Abbildungsobjektiv ist mindestens je ein Empfänger-Array mit Elementen oder ein Bildes desselben zugeordnet und das Si­ gnal S1z wird durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß es dem bei einer realen Verschiebung parallel zu einer Geraden gA1P entstehenden Signal S1 zumindest annähernd entspricht, und das Signal S2z wird durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des zweiten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß dieses Signal S2z dem bei einer realen Verschiebung parallel zu einer Geraden gA2P entstehenden Signal S2 zu­ mindest annähernd entspricht. Die Gerade gA1P wird in einem Punkt PA in der Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird im gleichen Punkt PA in der Hauptebene des zweiten Abbildungsobjektivs, die mit der Hauptebene des ersten Abbildungsobjektivs zumindest nä­ herungsweise zusammen fällt, zum Schnitt gebracht und zusätzlich enthält die Gerade gA1P den Brenn­ punkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P enthält den Brennpunkt FA2 des Abbil­ dungsobjektivs im Array-Raum, wobei Verschiebungen der leuchtenden Flächenelemente FEL durchge­ führt werden und die zugehörigen Verschiebungsstrecken VSBAj parallel zur Symmetrielinie SL der beiden optischen Achsen ausgerichtet sind und der Punkt PA im Durchstoßpunkt der Symmetrielinie SL durch die zusammenfallenden Hauptebenen der beiden Abbildungsobjektive liegt. Aus den Bildern der Verschie­ bungsstrecken VSBAj wird ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 auf der Symmetrielinie SL gebildet, der mit dem Konvergenzpunkt K0 zusammenfällt.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which the receiver elements in the recording process preferably detect light from the elements of the structured illuminated object surfaces in the object space and during the recording process the two receiver arrays simultaneously and parallel to the respective optical axes of the parallel imaging lenses whose main planes coincide are shifted. At least two parallel, at least approximately identical, imaging beam paths for imaging the object surfaces with a first imaging lens in the first imaging beam path and a second imaging lens in the second imaging beam path are arranged for the 3D recording of the background of the scene, and the imaging lenses have spatially separated aperture diaphragms . Each imaging lens is assigned at least one receiver array with elements or an image of the same and the signal S 1z is formed by reading out laterally adjacent elements during the displacement of the first receiver array in the direction of the optical axes so that it at a real shift to a straight line g parallel A1P resulting signal S 1 corresponds at least approximately, and the signal S 2z is formed by reading out laterally adjacent elements during the displacement of the second recipient array in the optical axis direction so that this signal S 2z corresponds at least approximately to the signal S 2 which arises during a real shift parallel to a straight line g A2P . The line g A1P is at a point P A in the main plane of the first imaging lens in the array space and the straight line g A2P is at the same point P A in the main plane of the second imaging lens, which at least approximately coincides with the main plane of the first imaging lens are brought to the intersection and in addition the line g A1P contains the focal point F 1 of the first imaging lens and the line g A2P contains the focal point F A2 of the Abbil dung lens in the array region, with displacements of the illuminating surface elements FEL Runaway leads and the corresponding displacement distances VSB Aj are aligned parallel to the symmetry line SL of the two optical axes and the point P A lies in the intersection point of the symmetry line SL through the coincident main planes of the two imaging lenses. From the images of the shift routes VSB Aj , a cluster of routes SB 1 with a convergence point K 1 on the symmetry line SL is formed, which coincides with the convergence point K 0 .

Der Vordergrund der Szene wird strukturiert beleuchtet. Der entfernte Hintergrund der Szene wird nicht mehr von der strukturiert leuchtenden Flächenelementen ausgeleuchtet. Hier wird anstelle der Bestim­ mung absoluten Phase ϕabs dann das Korrelationsprinzip zur Bestimmung der zO-Positionen der Elemente der Objektoberlläche angewendet. Von Vorteil ist, daß keine laterale Bewegung der leuchtenden Flä­ chenelemente notwendig ist. Dieses Verfahren ist auch für eine Freiraumszene geeignet. The foreground of the scene is illuminated in a structured way. The distant background of the scene is no longer illuminated by the structured, glowing surface elements. Instead of the determination of absolute phase ϕ abs , the correlation principle for determining the z O positions of the elements of the object surface is then used. It is advantageous that no lateral movement of the luminous surface elements is necessary. This method is also suitable for a free space scene.

Es ist weiterhin möglich, daß die Hauptebene des Abbildungsobjektivs im Array-Raum und die Hauptebe­ ne des Abbildungsobjektivs in einer gemeinsamen Ebene zusammenfallen. So können der Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symmetrielinie SL und der Punkt PA2 in der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrielinie SL liegen und so die beiden Punkte PA1 und PA2 zur Koinzidenz gebracht werden.It is also possible that the main plane of the imaging lens in the array space and the main plane ne of the imaging lens coincide in a common plane. Thus, the point P A1 in the main plane of the imaging lens in the array space can lie on the symmetry line SL and the point P A2 in the main plane of the imaging lens space on the symmetry line SL and the two points P A1 and P A2 can thus be brought to coincidence.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht die leuchtenden Flächenelemente FEL relativ zum Beleuchtungsobjektiv verschoben werden und dabei zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf einer B-Strecke BSAj positioniert werden, wobei die B-Strecken die Sollorte für die leuchtenden Flächenelemente FEL zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti darstellen und die B-Strecken die Achse des Beleuchtungsobjektivs stets unter einem rechten Winkel schneiden. Zumindest in einem Zeitbereich ΔtB während des Verschiebungsvorganges der leuchtenden Flächenelemente werden jeweils genau ein Bild von einem feststehenden Element eines feststehenden Empfängers und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zu­ mindest zu einem einzigen Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest nä­ herungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so wird zumindest zu diesem Zeitpunkt ti aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelemen­ tes FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet. Der Zeitpunkt ti für mindestens ein Element eines Empfänger-Arrays wird aus dem Durchgang mindestens eines leuchtenden Flächenele­ mentes durch einen vorbestimmten Referenzort abgeleitet. Die Elemente des Empfänger-Arrays detektie­ ren im Zeitintervall Δti der Koinzidenz einen periodischen Signalverlauf und die Phase diese Signalverlau­ fes wird in Bezug zur Phase am Referenzort ausgewertet.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which, preferably in the time intervals Δt i of the detection of light, the luminous surface elements FEL are shifted relative to the illumination objective and always at least at a time t i within the time interval Δt i be positioned on a B section BS Aj , the B sections representing the desired locations for the luminous surface elements FEL at least at a time t i within the time interval Δt i and the B sections always intersecting the axis of the illumination objective at a right angle. At least in a time range Δt B during the displacement process of the luminous surface elements, exactly one image of a fixed element of a fixed receiver and exactly one image of a luminous surface element FELj in the object space are obtained at least at a single time t i within each time interval Δt i the detection at least approximately jointly positioned on the image of a B section BS Aj and so at least at this point in time t i a pair with a fixed assignment is formed from the image of a receiver element and the image of a luminous surface element FELj in the object space. The time t i for at least one element of a receiver array is derived from the passage of at least one luminous area element through a predetermined reference location. The elements of the receiver array detect a periodic signal curve in the time interval Δt i of the coincidence and the phase of this signal behavior is evaluated in relation to the phase at the reference location.

Dies ist ein Ansatz, bei dem nur der vorhandene Schärfentiefebereich im Abbildungsstrahlengang ausge­ nutzt wird. Es erfolgt keine Verschiebung der leuchtenden Flächenelemente FEL und der Elemente des Empfänger-Arrays in zA-Richtung im Array-Raum. Dieses Verfahren ermöglicht die Detektierung einer sich schnell ändernden Form einer Objektoberfläche oder deren Verformung, beziehungsweise die Detektion von Schwingungen der Elemente einer Oberfläche.This is an approach in which only the existing depth of field in the imaging beam path is used. There is no displacement of the luminous surface elements FEL and the elements of the receiver array in the z A direction in the array space. This method enables the detection of a rapidly changing shape of an object surface or its deformation, or the detection of vibrations of the elements of a surface.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise mit einer von einer Strahlungsquelle beleuchteten Objektoberflächen mit einem ersten und mindestens einem zweiten Abbildungsstrahlengang, wobei die Achse eines ersten Abbildungsobjek­ tivs für die Abbildung der Objektoberflächen parallel zur Achse eines zweiten Abbildungsobjektivs für die Abbildung der Objektoberflächen ausgerichtet ist, und so zwischen den beiden Achsen der beiden Abbil­ dungsobjektive eine Symmetrielinie SL gebildet ist. Jedem Abbildungsstrahlengang ist mindestens ein zu­ geordneten Empfänger-Array zugeordnet und die beiden Empfänger-Arrays weisen jeweils Empfängere­ lemente auf, die im Aufnahmevorgang im Zeitbereich ΔtB Licht von den Elementen der beleuchteten Ob­ jektoberflächen im Objektraum detektieren und
die beiden Abbildungsobjektive weisen mindestens einen Abstand d von einem Achtel der Ausdehnung der Öffnungsblende des ersten Abbildungsobjektivs auf und die beiden Empfänger-Arrays erfahren im Aufnahmevorgang im Zeitbereich ΔtB je eine Verschiebung an einen anderen Ort. So werden auch die einzelnen Empfängerelemente verschoben und so detektieren die Empfängerelemente dabei an unter­ schiedlichen Orten elektromagnetische Strahlung. Zumindest näherungsweise erfolgt gleichzeitig die De­ tektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays und die Elemente des Empfänger-Arrays werden anschließend ausgele­ sen, wobei jeweils Signalwerte gewonnen werden.
Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which preferably with an object surface illuminated by a radiation source with a first and at least a second imaging beam path, the axis of a first imaging lens for imaging the object surfaces parallel to the axis of a second imaging lens is aligned for the imaging of the object surfaces, and thus a line of symmetry SL is formed between the two axes of the two imaging lenses. Each imaging beam path is assigned to at least one assigned receiver array and the two receiver arrays each have receiver elements that detect light from the elements of the illuminated object surfaces in the object space and in the recording process in the time range Δt B
the two imaging lenses are at least a distance d from one eighth of the extent of the aperture of the first imaging lens, and the two receiver arrays each experience a shift to another location in the time range Δt B during the recording process. In this way, the individual receiver elements are also shifted and thus the receiver elements detect electromagnetic radiation at different locations. At least approximately at the same time, the detection of light from the elements of the object surfaces for the duration of a time interval Δt i by the elements of the receiver array and the elements of the receiver array are then read out, signal values being obtained in each case.

Die optischen Achsen der beiden Abbildungsstrahlengänge sind vorzugsweise parallel angeordnet. Es ist vorzugsweise eine räumlich gleichmäßige Beleuchtung von Objektoberflächen im Vordergrund und gege­ benenfalls auch des weiter entfernter Hintergrundes der Szene, beispielsweise auch von einer Frei­ raumszene, gegeben.The optical axes of the two imaging beam paths are preferably arranged in parallel. It is preferably spatially uniform illumination of object surfaces in the foreground and against possibly also the more distant background of the scene, for example also from a free space scene, given.

Beim Aufnahmevorgang werden die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen op­ tischen Achsen der Abbildungsstrahlengänge, deren Brennebenen im Objektraum zusammenfallen, auf Verschiebungsstrecken ASA1 und ASA2 verschoben. Die Bilder der Verschiebungsstrecken ASA1 und ASA2, die Strecken ASO1 und ASO2, werden im Objektraum zumindest annähernd auf der Symmetrielinie zwi­ schen den beiden Achsen der Objektive positioniert.During the recording process, the two receiver arrays are shifted simultaneously and parallel to the respective optical axes of the imaging beam paths, whose focal planes coincide in the object space, on displacement paths AS A1 and AS A2 . The images of the displacement sections AS A1 and AS A2 , the sections AS O1 and AS O2 , are positioned in the object space at least approximately on the line of symmetry between the two axes of the lenses.

Aus dem Streckenbüschel SB21 der Bilder der Verschiebungsstrecken ASA1j der einzelnen Elementes des ersten Empfänger-Arrays, die Strecken ASO1j wird ein Konvergenzpunkt K21 gebildet und aus dem Strec­ kenbüschel SB22 der Bilder der Verschiebungsstrecken AS2j der einzelnen Elementes des zweiten Emp­ fänger-Arrays, die Strecken ASO2j, wird ein Konvergenzpunkt K22 gebildet und der Konvergenzpunkt K22 und der Konvergenzpunkt K22 werden auf der Symmetrielinie SL zur Koinzidenz gebracht und bilden auf der Symmetrielinie SL den Konvergenzpunkt K0 und die beiden Empfänger-Arrays werden so verschoben, daß deren Bilder zumindest teilweise im Objektraum zusammenfallen, so daß die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfänger-Arrays im Objektraum paarweise zumindest näherungsweise zur Koinzidenz gebracht werden, wobei die paarbildenden Elemen­ te der beiden Empfänger-Arrays jeweils korrespondierende Elemente darstellen. So wird vorzugsweise jeweils ein aktueller Koinzidenzpunkt aus diesen zwei Bildern von Elementen gebildet, der durch den Ob­ jektraum verschoben wird. Dies erfolgt vozugsweise mit allen Elementen der Empfänger-Arrays. Es wer­ den vorzugsweise Signalverläufe S1 des ersten Empfänger-Arrays durch Auslesen der Elemente während der Verschiebung des ersten Empfänger-Arrays auf der Verschiebungsstrecke ASA1j gebildet und es wird die Verschiebung des ersten Empfänger-Arrays parallel zu einer Geraden gA1P durchgeführt und so wer­ den die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA1P auf Verschiebungsstrecken ASA1j verschoben.A convergence point K 21 is formed from the route bundle SB 21 of the images of the displacement routes AS A1j of the individual elements of the first receiver array, the routes AS O1j and from the route bundle SB 22 of the images of the displacement routes AS 2j of the individual elements of the second receiver -Arrays, the lines AS O2j , a convergence point K 22 is formed and the convergence point K 22 and the convergence point K 22 are brought to coincidence on the symmetry line SL and form the convergence point K 0 on the symmetry line SL and the two receiver arrays become like this postponed that their images at least partially coincide in the object space, so that the images of the elements of the first receiver array and the images of the elements of the second receiver array in the object space are brought at least approximately in pairs to one another, the pair-forming elements of the two receivers Arrays each represent corresponding elements. Thus, a current point of coincidence is preferably formed from these two images of elements, which is shifted through the object space. This is preferably done with all elements of the receiver arrays. It who the preferably waveforms S 1 of the first receiver array is formed by reading the elements during the displacement of the first receiver array on the displacement path AS A1j and the displacement of the first receiver array is carried out parallel to a straight line g A1P and so who the elements of the first receiver array are shifted at least approximately parallel to a straight line g A1P on displacement paths AS A1j .

Weiterhin werden Signalverläufe S2 des zweiten Empfänger-Arrays durch Auslesen der Elemente wäh­ rend der Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke ASA2j gebildet und die Verschiebung des zweiten Empfänger-Arrays wird parallel zu einer Geraden gA2P durchgeführt und so werden die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA2P auf Verschiebungsstrecken ASA2j verschoben, wobei die Verschiebung des zweiten Empfänger-Arrays zumindest näherungsweise gleichzeitig mit der des ersten Empfänger-Arrays erfolgt. Die Gerade gA1P wird in einem Punkt PA1 auf der Symmetrielinie SL und in der Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 auf der Symmetrielinie SL und in der Hauptebe­ ne des zweiten Abbildungsobjektivs zum Schnitt gebracht, wobei die Gerade gA1P zusätzlich den Brenn­ punkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P den Brennpunkt FA2 des Abbildungsobjek­ tivs im Array-Raum enthält.Furthermore, waveforms S 2 of the second receiver array are formed by reading out the elements during the displacement of the second receiver array on the displacement path AS A2j and the displacement of the second receiver array is carried out parallel to a straight line g A2P and so the elements become of the second receiver array is shifted at least approximately parallel to a straight line g A2P on shift paths AS A2j , the shift of the second receiver array taking place at least approximately simultaneously with that of the first receiver array. The line g A1P becomes a section at a point P A1 on the symmetry line SL and in the main plane of the first imaging lens in the array space and the straight line g A2P becomes a section at a point P A2 on the symmetry line SL and in the main plane ne of the second imaging lens brought, the line g A1P additionally contains the focal point F A1 of the first imaging lens and the straight line g A2P contains the focal point F A2 of the imaging lens in the array space.

Aus den beiden Signalverläufen S1j, S2j von zwei korrespondierenden Elementen 1j und 2j der Empfänger- Arrays wird durch das vordem bereits beschriebene Korrelationsverfahren mit zwei gefensterten Signal­ verläufen und einem dabei invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objektoberfläche die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung be­ rechnet und so auch deren xO- und yO-Position und so wird die gesamte 3D-Punktwolke von Objektober­ flächen in einer Szene berechnet, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Ver­ schiebungen der Empfänger-Arrays vorbestimmt sind.From the two signal curves S 1j , S 2j of two corresponding elements 1 j and 2 j of the receiver arrays, the correlation method described above will run with two windowed signals and an inverted signal curve for determining the z O position of an element of the object surface calculates the z O coordinate of the respective element of the object surface in the z O direction and thus also its x O and y O position and so the entire 3D point cloud of object surfaces in a scene is calculated, the geometry of the 3D Recording arrangement known and the displacements of the receiver arrays are predetermined.

Bei der Verschiebung der Empfänger-Arrays kann es sich um eine elektronisch gesteuerte, mechanische Bewegung handeln. Es ist weiterhin möglich, daß die Hauptebene des Abbildungsobjektivs im Array- Raum und die Hauptebene des Abbildungsobjektivs in einer gemeinsamen Ebene zusammenfallen. So ist gegeben, daß der Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symme­ trielinie SL liegt und der Punkt PA2 in der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrie­ linie SL liegt und so die beiden Punkte PA1 und PA2 in einem Punkt PA zur Koinzidenz gebracht werden.The displacement of the receiver arrays can be an electronically controlled, mechanical movement. It is also possible that the main plane of the imaging lens in the array space and the main plane of the imaging lens coincide in a common plane. So it is given that the point P A1 lies in the main plane of the imaging lens in the array space on the symmetry line SL and the point P A2 in the main plane of the imaging lens space lies on the symmetry line SL and so the two points P A1 and P A2 can be brought to coincidence in a point P A.

Hierbei handelt es sich um das 3D-Y-Verfahren mit einer realen Verschiebung der beiden Empfänger- Arrays auf ASA1- und ASA2-Strecken, also auf den beiden oberen Y-Ästen. So kann von Freiraumszenen bei Tageslicht - einschließlich direktem Sonnenlicht - von Objektoberflächen auch im Hintergrund der Szene die 3D-Punktwolke gewonnen werden.This is the 3D-Y method with a real shift of the two receiver arrays on AS A1 and AS A2 lines , ie on the two upper Y branches. In this way, the 3D point cloud can be obtained from open space scenes in daylight - including direct sunlight - from object surfaces even in the background of the scene.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise beleuchtete Objektoberflächen mit einem ersten und mindestens einem zweiten Abbil­ dungsstrahlengang abgebildet werden. Dabei ist die Achse eines ersten Abbildungsobjektivs im Abbil­ dungsstrahlengang für die Abbildung der Objektoberflächen parallel zur Achse eines zweiten Abbildungs­ objektivs im Abbildungsstrahlengang für die Abbildung der Objektoberflächen ausgerichtet. So ist zwi­ schen den beiden Achsen der beiden Abbildungsobjektive eine Symmetrielinie SL gebildet.Furthermore, a method for 3D recording of object surfaces in a scene is proposed in the preferably illuminated object surfaces with a first and at least a second image beam path. The axis of a first imaging lens is in the illustration Beam path for imaging the object surfaces parallel to the axis of a second image aligned in the imaging beam path for imaging the object surfaces. So is two a symmetry line SL is formed between the two axes of the two imaging lenses.

Jedem Abbildungsstrahlengang ist mindestens je ein Empfänger-Array zugeordnet und die beiden Emp­ fänger-Arrays weisen jeweils Elemente auf, die im Aufnahmevorgang im Zeitbereich ΔtB Licht von den Elementen der beleuchteten Objektoberflächen im Objektraum detektieren, und die beiden Abbildungsob­ jektive weisen einen Abstand d des Pupillenzentrums PZOB des ersten Abbildungsobjektivs vom Pupillen­ zentrum PZOA des zweiten Abbildungsobjektivs im Objektraum von mindestens einem Achtel der Ausdeh­ nung der Öffnungsblende des ersten Abbildungsobjektiv auf.At least one receiver array is assigned to each imaging beam path, and the two receiver arrays each have elements that detect light from the elements of the illuminated object surfaces in the object space in the acquisition process in the time range Δt B , and the two imaging lenses have a distance d of Pupil center PZ OB of the first imaging lens from the pupil center PZ OA of the second imaging lens in the object space of at least one eighth of the extent of the aperture of the first imaging lens.

Die beiden Empfänger-Arrays erfahren im Aufnahmevorgang im Zeitbereich ΔtB je eine elektronisch ge­ steuerte, mechanische Verschiebung im array-Raum und so werden auch die einzelnen Empfängerele­ mente verschoben und so detektieren dabei die Empfängerelemente an unterschiedlichen Orten elektro­ magnetische Strahlung.The two receiver arrays each experience an electronically controlled, mechanical shift in the array space in the recording process in the time range Δt B , and so the individual receiver elements are also shifted and thus the receiver elements at different locations detect electromagnetic radiation.

Die Detektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays erfolgt zumindest näherungsweise gleichzeitig. Die Elemente des Empfänger-Arrays werden anschließend ausgelesen, und es werden jeweils Signalwerte gewonnen und im Aufnahmevorgang werden die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen optischen Achsen der parallelen, zumindest näherungsweise baugleichen Abbildungsstrahlengänge, de­ ren Hauptebenen zusammenfallen, verschoben, wobei die Objektoberflächen in der Szene beleuchtet sind.The detection of light from the elements of the object surfaces for the duration of a time interval Δt i by the elements of the receiver array takes place at least approximately simultaneously. The elements of the receiver array are then read out, and signal values are obtained in each case, and in the recording process the two receiver arrays are shifted simultaneously and parallel to the respective optical axes of the parallel, at least approximately identical imaging beam paths whose main planes coincide, the Object surfaces in the scene are illuminated.

Der Signalverlauf S1z wird durch Auslesen von lateral nebeneinander liegenden Elementen des ersten Empfänger-Arrays während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung benutzt werden, die auf Strecken ASA1 liegen, die parallel zu einer Geraden gA1P ausgerichtet sind und die den Punkt PA1 in der gemeinsamen Hauptebene der Abbildungsobjektive schneidet. So entspricht der gebilde­ te Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden gA1P entstehenden Signal­ verlauf S1 zumindest annähernd und der Signalverlauf S2z wird durch Auslesen von lateral nebeneinander liegenden Elementen des zweiten Empfänger-Arrays während der Verschiebung des zweiten Empfänger- Arrays in Richtung der optischen Achsen so gebildet, daß jeweils genau die Elemente des Empfänger- Arrays zur Signalbildung benutzt werden, die auf Strecken ASA2 liegen, die parallel zu einer Geraden gA2P ausgerichtet sind und die den Punkt PA2 in der gemeinsamen Hauptebene der Abbildungsobjektive schneidet.The signal curve S 1z is formed by reading out laterally adjacent elements of the first receiver array during the displacement of the first receiver array in the direction of the optical axes in such a way that exactly those elements of the receiver array are used for signal formation that are used on routes AS A1 lie, which are aligned parallel to a straight line g A1P and which intersects the point P A1 in the common main plane of the imaging lenses. Thus, the signal curve formed corresponds at least approximately to the signal curve S 1 which arises during a real shift parallel to a straight line g A1P , and the signal curve S 2z is obtained by reading out elements of the second receiver array lying laterally next to one another during the shift of the second receiver array formed in the direction of the optical axes so that exactly the elements of the receiver array are used for signal formation, which lie on lines AS A2 , which are aligned parallel to a straight line g A2P and which point P A2 in the common main plane of the imaging lenses cuts.

So entspricht der gebildete Signalverlauf S2z dem bei einer realen Verschiebung parallel zu einer Geraden gA2P entstehenden Signal S2 zumindest annähernd. So wird zumindestens jeweils zu einem Zeitpunkt ti in einem Zeitintervall Δti ein aktueller Koinzidenzpunkt von Elementen der beiden Empfänger-Arrays gebil­ det, der im Zeitbereich ΔtB nacheinander jeweils an verschiedenen vorbestimmten Orten des Objektrau­ mes gebildet wird.The signal curve S 2z formed thus corresponds at least approximately to the signal S 2 which arises during a real shift parallel to a straight line g A2P . Thus, at least at a time t i in a time interval Δt i, a current point of coincidence of elements of the two receiver arrays is formed, which is formed in succession at different predetermined locations of the object space in the time range Δt B.

Die Gerade gA1P wird in einem Punkt PA1 im Durchstoßpunkt der Symmetrielinie SL durch die Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 im Durch­ stoßpunkt der Symmetrielinie SL durch die Hauptebene des zweiten Abbildungsobjektivs zum Schnitt ge­ bracht und zusätzlich enthält die Gerade gA1P den Brennpunkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P enthält den Brennpunkt FA2 des Abbildungsobjektivs im Array-Raum.The line g A1P becomes a section at a point P A1 at the intersection point of the symmetry line SL through the main plane of the first imaging lens in the array space and the straight line g A2P becomes a section at a point P A2 at the intersection point of the symmetry line SL through the main plane of the second imaging lens ge brought and in addition the line g A1P contains the focal point F A1 of the first imaging lens and the straight line g A2P contains the focal point F A2 of the imaging lens in the array space.

Aus den beiden Signalverläufen S1j, S2j von zwei zumindestens jeweils zu einem Zeitpunkt korrespondie­ renden Elementen der Empfänger-Arrays wird durch das vordem bereits beschriebene Korrelationsverfah­ ren mit zwei gefensterten Signalverläufen und einem dabei invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objektoberfläche die zO-Koordinate des jeweiligen Elementes der Objek­ toberfläche berechnet und so auch deren xO- und yO-Position und so wird die gesamte 3D-Punktwolke von Objektoberflächen in einer Szene berechnet, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfänger-Arrays vorbestimmt sind.From the two signal profiles S 1j , S 2j of two elements of the receiver arrays corresponding at least at one time in each case, the correlation method described above with two windowed signal profiles and an inverted signal profile for determining the z O position of an element results in the correlation method Object surface calculates the z O coordinate of the respective element of the object surface and thus also their x O and y O position and so the entire 3D point cloud of object surfaces in a scene is calculated, the geometry of the 3D recording arrangement being known and the Movements of the receiver arrays are predetermined.

Die optischen Achsen der beiden Abbildungsstrahlengänge sind auch in diesem Fall vorzugsweise paral­ lel angeordnet. Es ist eine räumlich gleichmäßige Beleuchtung von Objektoberflächen im Vordergrund und gegebenenfalls auch des weiter entfernter Hintergrundes der Szene, beispielsweise auch von einer Frei­ raumszene, gegeben.In this case too, the optical axes of the two imaging beam paths are preferably parallel lel arranged. It is a spatially uniform illumination of object surfaces in the foreground and if necessary also the more distant background of the scene, for example also from a clear space scene, given.

Die Hauptebene des Abbildungsobjektivs im Array-Raum und die Hauptebene des Abbildungsobjektivs können in einer gemeinsamen Ebene zusammenfallen. So kann der Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symmetrielinie SL und der Punkt PA2 in der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrielinie SL liegen und so die beiden Punkte PA1 und PA2 in ei­ nem Punkt PA zur Koinzidenz gebracht werden. Auch kann es sich bei der Verschiebung der Empfänger- Arrays um eine elektronisch gesteuerte, mechanische Bewegung handeln.The main plane of the imaging lens in the array space and the main plane of the imaging lens can coincide in a common plane. Thus, the point P A1 can lie in the main plane of the imaging lens in the array space on the symmetry line SL and the point P A2 in the main plane of the imaging lens space can lie on the symmetry line SL and thus the two points P A1 and P A2 in a point P. A can be brought to coincidence. The displacement of the receiver arrays can also be an electronically controlled, mechanical movement.

Es erfolgt keine reale Verschiebung der beiden Empfänger-Arrays auf den oberen Y-Ästen, sondern eine Verschiebung parallel zu den optischen Achsen der beiden Abbildungsobjektive. So wird durch das Aus­ leseverfahren der Elemente der Fall des Bewegens auf den oberen Y-Ästen nachgebildet.There is no real shift of the two receiver arrays on the upper Y branches, but one Shift parallel to the optical axes of the two imaging lenses. So is by the end reading process of the elements of the case of moving on the upper Y-branches simulated.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise das strukturiert leuchtende Array mit Bereichen LBARRAY j unterschiedlicher Leuchtdich­ te und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flä­ chenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode WP dem dreifachen Streifenabstand der einzelnen verschiedenfarbigen Flächenelemente entspricht.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which the structured luminous array with areas LB ARRAY j different luminance and with luminous surface elements FEL with at least approximately the same spacing of the surface elements in the colors red, green and is formed blue, the repetition period WP corresponds to three times the strip spacing of the individual differently colored surface elements.

Nach einem Zeitbereich, der zumindest näherungsweise dem Zeitbereich ΔtB entspricht, wird das struktu­ riert farbig leuchtende Array um den 1,5fachen Abstand der einzelnen farbigen Flächenelemente, dies entspricht der halben Wiederholungsperiode WP lateral weiterverschoben, wobei Elemente des Empfän­ ger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind.After a time range that corresponds at least approximately to the time range Δt B , the structured colored array is shifted 1.5 times the distance between the individual colored surface elements, this corresponds to half the repetition period WP laterally shifted, elements of the receiver array being color sensitive and are matched to the wavelength spectrum of the luminous surface elements FEL.

Dieses Verfahren ermöglicht für das bereits beschriebene Korrelationsverfahren eine höhere Tiefenauflö­ sung, da durch die in der Regel höhere Anzahl von lichtempfindlichen Elementen bei farbsensitiven Emp­ fänger-Arrays, eine grundsätzlich höhere Streifendichte verwendet werden kann, wenn jedes leuchtende Flächenelement FELj in einer Richtung als Farbstreifen einzeln gezählt wird. Es werden die Signale in den einzelnen Wellenlängenbereichen, beziehungsweise Farben einzeln verarbeitet. Wenn ein detektier­ tes Element einer Objektoberfläche oder eines Bereiches der Objektoberfläche einfarbig ist, beispielswei­ se in der Farbe rot, detektiert nur das rotempfindliche Element des Empfänger-Arrays einen Signalverlauf. Die zu diesem rotempfindlichen Element unmittelbar benachbarten Elemente mit einer nicht rotempfindli­ chen Charakteristik registrieren dann nur ein sehr schwaches oder gar kein Signal.This method enables a higher depth resolution for the correlation method already described solution, since the generally higher number of light-sensitive elements with color-sensitive emp catcher arrays, a fundamentally higher stripe density can be used when any glowing Area element FELj is counted individually in one direction as color strips. The signals in the individual wavelength ranges or colors processed individually. If a detect tes element of an object surface or a region of the object surface is monochrome, for example In the color red, only the red-sensitive element of the receiver array detects a signal curve. The elements immediately adjacent to this red-sensitive element with a non-red-sensitive one Characteristic then register only a very weak or no signal.

Durch das laterale Weiterverschieben des strukturiert farbig leuchtenden Arrays um den vorzugsweise 1,5fachen Abstand der einzelnen farbigen Flächenelemente wird erreicht, das die zuvor nicht vom einer vorbestimmten Farbe ausgeleuchteten Elemente der Objektoberfläche nun ausgeleuchtet werden. Dabei wird davon ausgegangen, daß durch die Abbildung der farbig leuchtenden Flächenelemente FEL eine Verbreiterung auf der Objektoberfläche stattfindet, so daß keine Lücken zwischen den Farbstreifen. Mit diesem Verfahren können auch verschiedenfarbige Elemente in der Objektoberfläche erfaßt werden.By laterally shifting the structured colored luminous array around the preferred 1.5 times the distance between the individual colored surface elements is achieved, that the previously not from one predetermined color illuminated elements of the object surface are now illuminated. Here it is assumed that a FEL Broadening takes place on the object surface so that there are no gaps between the color strips. With This method can also be used to detect elements of different colors in the object surface.

Es ist aber auch grundsätzlich möglich, die Signalauswertung mit dem bereits beschriebenen phasenaus­ wertenden Verfahren, beispielsweise im Nahbereich der Szene, durchzuführen. In diesem Fall werden die farbig leuchtenden Flächenelemente FEL auf den bereits beschriebenen Verschiebungsstrecken VBSAj bewegt und die Auswertung für die farbsensitiven Elemente des Empfänger-Arrays durchgeführt. Aus der Verrechnung der Signalintensitäten in den drei Farben oder Wellenlängenspektren kann in der aus der Farbfernsehtechnik bekannten Art und Weise das Farb- und das Helligkeitssignal für jedes erfaßte Ele­ ment der Objektoberfläche gewonnen werden. So kann für jedes Element der Objektoberfläche die Infor­ mation über die mittlere Helligkeit, beziehungsweise Beleuchtungsstärke oder Leuchtdichte, und die zu­ mindest näherungsweise spektrale Zusammensetzung, also die Farbe, und der zO-Wert gewonnen wer­ den. Aus der bekannten, vorbestimmten Lage der Elemente der mindestens zwei Empfänger-Arrays und der bekannten Geometrie der 3D-Aufnahmeanordnung können so auch die zO-, die xO- und die yO- Raumkoordinaten für die Gesamtheit der detektierten Elemente der Oberflächen in einer Szenen eindeu­ tig bestimmt werden.In principle, however, it is also possible to carry out the signal evaluation using the phase-evaluating method already described, for example in the vicinity of the scene. In this case, the colored area elements FEL are moved on the displacement paths VBS Aj already described and the evaluation is carried out for the color-sensitive elements of the receiver array. From the calculation of the signal intensities in the three colors or wavelength spectra, the color and brightness signals for each detected element of the object surface can be obtained in the manner known from color television technology. For each element of the object surface, the information about the average brightness, or illuminance or luminance, and the at least approximately spectral composition, i.e. the color, and the z O value can be obtained. From the known, predetermined position of the elements of the at least two receiver arrays and the known geometry of the 3D recording arrangement, the z O -, the x O - and the y O - spatial coordinates for the entirety of the detected elements of the surfaces in one Scenes can be clearly determined.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise das strukturiert leuchtende Array mit Bereichen LBARRAY J unterschiedlicher Leuchtdich­ te und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flä­ chenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode WP dem dreifachen Streifenabstand der einzelnen, farbig leuchtenden Flächenelemente FEL entspricht.Furthermore, a method for 3D recording of object surfaces in a scene is proposed, in which the structured luminous array with areas LB ARRAY J of different luminance and with luminous surface elements FEL with at least approximately the same spacing of the surface elements in the colors red, green and is formed blue, the repetition period WP corresponds to three times the stripe spacing of the individual, brightly colored surface elements FEL.

Nach einem Zeitbereich ΔtB, wird das strukturiert farbig leuchtende Array um den einfachen Abstand der einzelnen, farbig leuchtenden Flächenelemente FEL, welcher einem Drittel der Wiederholungsperiode WP entspricht, lateral weiterverschoben, wobei die Elemente des Empfänger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind.After a time range Δt B , the structured colored luminous array is laterally displaced by the simple distance between the individual colored luminous surface elements FEL, which corresponds to a third of the repetition period WP, the elements of the receiver array being color sensitive and to the wavelength spectrum of the luminous FEL surface elements are coordinated.

Dieses Verfahren ermöglicht für das bereits beschriebene Korrelationsverfahren eine höhere Tiefenauflö­ sung, da durch die höhere Anzahl von Elementen bei farbempfindlichen Empfänger-Arrays, eine grund­ sätzlich höhere Streifendichte verwendet werden kann. Es werden vorzugsweise die Signale in den ein­ zelnen Wellenlängenbereichen, beziehungsweise Farben einzeln verarbeitet. Wenn ein detektiertes Ele­ ment einer Objektoberfläche oder eines Bereiches der Objektoberfläche einfarbig ist, beispielsweise in der Farbe rot, detektiert nur das rotempfindliche Element des Empfänger-Arrays einen Signalverlauf.This method enables a higher depth resolution for the correlation method already described solution, because of the higher number of elements in color-sensitive receiver arrays, a reason In addition, higher strip density can be used. There are preferably the signals in the one individual wavelength ranges, or colors processed individually. If a detected Ele element of an object surface or a region of the object surface is monochrome, for example in the Color red, only the red-sensitive element of the receiver array detects a signal curve.

Durch das laterale Weiterverschieben des strukturiert farbig leuchtenden Arrays um den einfachen Ab­ stand der einzelnen farbigen Flächenelemente wird erreicht, daß die zuvor nicht von einer vorbestimmten Farbe ausgeleuchteten Elemente der Objektoberfläche nun vollständig ausgeleuchtet werden. Dies ist vorteilhaft, wenn als Beleuchtungsobjektiv ein Präzisionsobjektive mit einer sehr guten Modulationsüber­ tragung verwendet wird. Dadurch ergibt sich im Aufnahmevorgang eine gleichmäßige Ausleuchtung der Objektoberfläche, und es können so auch Elemente in verschiedenen Farben der Objektoberfläche erfaßt werden.By moving the structured, brightly colored array laterally around the simple Ab status of the individual colored surface elements is achieved that the previously not of a predetermined Color illuminated elements of the object surface are now fully illuminated. This is advantageous if a precision lens with a very good modulation is used. This results in a uniform illumination of the Object surface, and so elements in different colors of the object surface can be detected will.

Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene mit mindestens ei­ ner Strahlungsquelle vorgeschlagen, die als ein strukturiert leuchtendes Array mit Bereichen unterschied­ licher Leuchtdichte ausgebildet ist. Weiterhin ist vorzugsweise mindestens eine elektromagnetische Strahlungsquelle mittels mindestens eines strukturierten Arrays als ein strukturiert leuchtendes Array mit leuchtenden Flächenelementen FEL ausgebildet.Furthermore, a method for 3D recording of object surfaces in a scene with at least one ner radiation source proposed that distinguished as a structured luminous array with areas Licher luminance is formed. Furthermore, at least one is preferably electromagnetic Radiation source using at least one structured array as a structured luminous array with luminous surface elements FEL.

Dabei kann vorzugsweise auch ein strukturiertes Array in der Art eines Liniengitters mit einer vorgeordne­ ten Strahlungsquelle zur Anwendung kommen. Weiterhin kann im Array-Raum ein strukturiert leuchtendes Array angeordnet sein, welches als ein von der Strahlungsquelle beleuchtetes klassisches Liniengitter, als strukturiertes Array, aber auch als elektronisch steuerbares Liniengitter ausgeführt sein kann. Das Lini­ engitter kann dabei ein symmetrisches Transparenzprofil mit einer cos2-Verteilung oder auch ein stark un­ symmetrisches Transparenzprofil mit einem Rechteckprofil aufweisen, wobei letzteres vergleichsweise nur wenige Linien oder nur eine einzelne Linie besitzt. Der letztgenannte Fall sichert bei einem einfachen Auswertealgorithmus die Eindeutigkeit der Gewinnung von Meßpunkten. Die Strahlungsquelle und das strukturierte Array bilden gemeinsam das strukturiert leuchtende Array. Die Orte bestimmter relativer Leuchtdichte des strukturiert leuchtenden Arrays und auch die der lokalen Extrema der Leuchtdichte die­ ses strukturiert leuchtenden Arrays können elektronisch verschiebbar gemacht sein. Die leuchtenden Flä­ chenelemente FEL können sich dabei an den Orten der Phase ϕ = 0, als Ort der maximalen Transparenz befinden.A structured array in the manner of a line grating with a pre-arranged radiation source can preferably also be used. Furthermore, a structured, luminous array can be arranged in the array space, which can be designed as a classic line grating illuminated by the radiation source, as a structured array, but also as an electronically controllable line grating. The line engitter can have a symmetrical transparency profile with a cos 2 distribution or also a strongly un-symmetrical transparency profile with a rectangular profile, the latter having comparatively only a few lines or only a single line. The latter case ensures the uniqueness of the acquisition of measuring points with a simple evaluation algorithm. The radiation source and the structured array together form the structured, luminous array. The locations of certain relative luminance of the structured luminous array and also those of the local extremes of the luminance of this structured luminous array can be made electronically displaceable. The luminous surface elements FEL can be located at the locations of the phase ϕ = 0, as the location of the maximum transparency.

Die Strahlungsquelle kann für elektromagnetische Strahlung im sichtbaren und im unsichtbaren Spektral­ bereich ausgelegt sein, beispielsweise im Spektralbereich von 750 nm bis 900 nm. Auch elektromagneti­ sche Strahlung im infraroten Spektralbereich mit Wellenlängen größer als 900 nm kann zur Anwendung kommen.The radiation source can be used for electromagnetic radiation in the visible and in the invisible spectral be designed range, for example in the spectral range from 750 nm to 900 nm. Also electromagnetic cal radiation in the infrared spectral range with wavelengths greater than 900 nm can be used come.

Weiterhin ist mindestens ein Beleuchtungsstrahlengang mit mindestens einem Beleuchtungsobjektiv an­ geordnet. Dem Beleuchtungsobjektiv ist das strukturiert leuchtende Array zugeordnet. Es kann aber auch ein Bild des strukturiert leuchtenden Arrays dem Beleuchtungsobjektiv zur Abbildung zugeordnet sein. Dabei weist das Beleuchtungsobjektiv eine effektive Öffnungsblende mit einer Ausdehnung DB und einem Blendenzentrum BZB auf. Das strukturiert leuchtende Array und das Beleuchtungsobjektiv dienen zur strukturierten Beleuchtung der Objektoberflächen in der Szene.Furthermore, at least one illumination beam path with at least one illumination lens is arranged. The structured illuminated array is assigned to the lighting objective. However, an image of the structured, luminous array can also be assigned to the illumination objective for imaging. The lighting objective has an effective aperture diaphragm with an extension D B and a diaphragm center BZ B. The structured, luminous array and the lighting lens are used for structured lighting of the object surfaces in the scene.

Weiterhin ist mindestens ein Abbildungsstrahlengang mit mindestens einer Abbildungsstufe für die Abbil­ dung der Elemente der Objektoberflächen in der Szene angeordnet. Diesem Abbildungsobjektiv ist min­ destens ein Empfänger-Array zugeordnet. Das Abbildungsobjektiv weist zur Abbildung der Elemente der Objektoberflächen eine effektive Öffnungsblende mit einem Blendenzentrum BZA auf. Diesem Abbil­ dungsobjektiv ist mindestens ein Empfänger-Array mit Elementen, die im Aufnahmevorgang Licht von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren, zugeordnet. Dabei beträgt der Abstand d des Pupillenzentrums PZOB des Beleuchtungsobjektivs, als Bild des Blendenzen­ trums BZB im Objektraum, vom Pupillenzentrum PZOA des Abbildungsobjektivs, als Bild des Blendenzen­ trums BZA im Objektraum, mindestens ein Achtel der Ausdehnung DB der Öffnungsblende des Beleuch­ tungsobjektivs.Furthermore, at least one imaging beam path with at least one imaging stage for imaging the elements of the object surfaces is arranged in the scene. At least one receiver array is assigned to this imaging lens. The imaging objective has an effective aperture diaphragm with an aperture center BZ A for imaging the elements of the object surfaces. At least one receiver array with elements that detect light from the elements of the structured, illuminated object surfaces in the object space during the recording process is assigned to this imaging objective. The distance d from the pupil center PZ OB of the illumination lens, as an image of the aperture center BZ B in the object space, from the pupil center PZ OA of the imaging lens, as an image of the aperture center BZ A in the object space, is at least one eighth of the extent D B of the aperture diaphragm of the illumination processing lens.

Dabei wird aus einem leuchtenden Flächenelement in einer Leuchtdichteverteilung mit einer vorzugsweise zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte mit einem vorbe­ stimmten Wellenlängenspektrum, wobei diese im weiteren als leuchtende Flächenelemente FEL bezeich­ net werden, durch Abbildung mit dem Beleuchtungsobjektiv ein Bild eines leuchtenden Flächenelementes FEL im Objektraum gebildet.In this case, a luminous surface element in a luminance distribution with one is preferred at least approximately predetermined constant relative luminance with a pass agreed wavelength spectrum, which hereinafter referred to as luminous surface elements FEL by imaging with the lighting lens an image of a luminous surface element FEL formed in the object space.

Speziell bei kleinen Objekten können der Beleuchtungs- und der Abbildungsstrahlengang ein gemeinsa­ mes Frontobjektiv besitzen.Especially in the case of small objects, the illumination and imaging beam paths can have a common one with front lens.

Weiterhin ist ein Bewegungssystem mit vorzugsweise mindestens einer beweglichen Komponente ange­ ordnet, welches dem strukturiert leuchtenden Array dieses Bewegungssystem zugeordnet ist. Die Ver­ schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL im Array-Raum und sind vorzugsweise aus der mechanischen Bewegung des strukturiert leuchtenden Arrays gebildet. Es ist aber auch möglich, daß zeitgleich eine elektronische Verschiebung der leuchtenden Flächenelemente FEL, beispielsweise in lateraler Richtung stattfindet und das Bewegungssystem mit mindestens einer beweglichen Komponente eine Bewegung des strukturiert leuchtenden Arrays parallel zur optischen Achse des Beleuchtungsobjek­ tivs realisiert.Furthermore, a movement system with preferably at least one movable component is arranged, which is assigned to the structured, luminous array of this movement system. The displacement distances VSB Aj of the luminous surface elements FEL in the array space and are preferably formed from the mechanical movement of the structured luminous array. But it is also possible that at the same time an electronic displacement of the luminous surface elements FEL takes place, for example in the lateral direction, and the movement system realizes movement of the structured luminous array parallel to the optical axis of the lighting object with at least one movable component.

Nach Abbildung dieser Verschiebungsstrecken VSBAj durch das Beleuchtungsobjektiv in den Objektraum, ist deren Bild zumindest näherungsweise als mindestens ein Streckenbüschel SB1 mit einem Konver­ genzpunkt K1 gebildet. Der Konvergenzpunkt K1 weist dabei vorzugsweise einen minimalen Abstand dK1 min von der Achse des Beleuchtungsobjektivs vom 16ten Teil und einen maximalen Abstand dK1 max vom 16fachen des Abstandes d auf.After mapping these displacement routes VSB Aj through the illumination lens into the object space, their image is at least approximately formed as at least one cluster of routes SB 1 with a convergence point K 1 . The convergence point K 1 is preferably at a minimum distance d K1 min from the axis of the illumination lens from the 16th part and a maximum distance d K1 max from 16 times the distance d.

Die Pupillen des Beleuchtungs- und des Abbildungsstrahlenganges sind stets räumlich getrennt. Jedoch fallen die Schärfebereiche des Beleuchtungsstrahlenganges im Objektraum mit Schärfebereichen des Abbildungsstrahlenganges zumindest teilweise zusammen. Die Beleuchtungsstrahlen und die Abbil­ dungsstrahlen schließen im Objektraum miteinander einen Winkel, den Triangulationswinkel, ein.The pupils of the illumination and the imaging beam path are always spatially separated. However the focus areas of the illumination beam path in the object space fall with the focus areas of the Imaging beam path at least partially together. The illuminating rays and the figil The radiation beams form an angle with each other in the object space, the triangulation angle.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit der Kon­ vergenzpunkt K1 zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs im Objektraum und im Pupillenzentrum des Abbildungsobjektivs im Objektraum positioniert sein.Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene with the convergence point K 1, it can be positioned at least approximately in the pupil plane of the illumination lens in the object space and in the pupil center of the imaging lens in the object space.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Ver­ schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL zumindest annähernd parallel ange­ ordnet sein und so der Konvergenzpunkt K1 zumindest annähernd in der Brennebene des Beleuchtungs­ objektivs im Objektraum und im Pupillenzentrum des Abbildungsobjektivs im Objektraum positioniert sein.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the displacement distances VSB Aj of the luminous surface elements FEL can be arranged at least approximately in parallel, and thus the convergence point K 1 at least approximately in the focal plane of the illumination lens in the object space and in the pupil center of the imaging lens be positioned in the object space.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Konver­ genzpunkt K1 zumindest annähernd in der Brennebene des Beleuchtungsobjektivs und im Brennpunkt des Abbildungsobjektivs im Objektraum positioniert sein.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the convergence point K 1 can be positioned at least approximately in the focal plane of the illumination lens and in the focal point of the imaging lens in the object space.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der das leuchtende Array als elektronisch steuerbares Liniengitter mit einer Steuerbarkeit des Ortes der Linien und der Linienbreite ausgebildet sein. Dabei können die Linien senkrecht zum Hauptschnitt angeordnet sein und die Verschiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL und so auch der leuchten­ den Flächenelemente FEL mit lokalen Extrema der Leuchtdichte im Array-Raum - als Resultat der me­ chanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des struktu­ riert leuchtenden Arrays im Array-Raum gebildet sein. Aus diesen Verschiebungsstrecken VSBAj kann im Array-Raum im Hauptschnitt und in jeder zum Hauptschnitt parallelen Schnittebene zumindest nähe­ rungsweise mindestens ein Streckenbüschel mit einem Konvergenzpunkt K1 gebildet sein und dabei der Konvergenzpunkt K1 einen minimalen Abstand dK1 min von der Achse des Beleuchtungsobjektivs vom 16ten Teil des Abstandes d aufweisen. Der Konvergenzpunkt K1 kann dabei einen maximalen Abstand dK1 max von der Achse des Beleuchtungsobjektivs vom 16fachen des Abstandes d aufweisen und zwischen Pupillenebene und Brennebenen des Beleuchtungsobjektivs im Objektraum angeordnet sein. Weiterhin kann der Konvergenzpunkt K1 des Streckenbüschels im Hauptschnitt im Pupillenzentrum PZAA des Abbil­ dungsobjektivs im Array-Raum angeordnet sein und die Konvergenzpunkte in den zum Hauptschnitt paral­ lelen Schnitten gemeinsam mit dem Konvergenzpunkt K1 des Hauptschnittes auf einer Geraden senkrecht zum Hauptschnitt angeordnet sein. Das Pupillenzentrum PZOA des Abbildungsobjektivs und das Pupillen­ zentrum PZ0B des Beleuchtungsobjektivs im Objektraum können gemeinsam auf einer Geraden angeord­ net sein, welche senkrecht zur Achse des Beleuchtungsobjektivs ausgerichtet ist.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the luminous array can be designed as an electronically controllable line grid with controllability of the location of the lines and the line width. The lines can be arranged perpendicular to the main section and the displacement distances VSB Aj of the luminous surface elements FEL and thus also the luminous surface elements FEL with local extremes of the luminance in the array space - as a result of the mechanical movement of the structured luminous array and the electronic control of the structured luminous array must be formed in the array space. From these displacement lines VSB Aj , at least approximately at least approximately a cluster of lines with a convergence point K 1 can be formed in the main section and in each section plane parallel to the main section and the convergence point K 1 a minimal distance d K1 min from the axis of the illumination lens from 16th part of the distance d. The convergence point K 1 can have a maximum distance d K1 max from the axis of the illumination lens of 16 times the distance d and can be arranged in the object space between the pupil plane and the focal planes of the illumination lens. Furthermore, the convergence point K 1 of the tufts in the main section can be arranged in the pupil center PZ AA of the imaging objective in the array space and the convergence points in the sections parallel to the main section can be arranged together with the convergence point K 1 of the main section on a straight line perpendicular to the main section. The pupil center PZ OA of the imaging lens and the pupil center PZ 0B of the illumination lens in the object space can be arranged together on a straight line which is oriented perpendicular to the axis of the illumination lens.

Bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsob­ jektivs werden vorzugsweise nur Elemente des Empfänger-Arrays ausgelesen und Signalverläufe gebildet und zur Bildung eines einzelnen Signalverlaufes nur Elemente ausgewählt, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschiebungsstrecke ASAj im Array- Raum angeordnet sind, deren Verlängerungsgerade jeweils mit einer Geraden senkrecht zum Haupt­ schnitt, die das Zentrum der Austrittspupille des Abbildungsobjektivs enthält, zum Schnitt gebracht ist, wobei bei der Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv aus deren Bil­ dern im Objektraum im Hauptschnitt zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet ist.In the case of a straight-line displacement of the receiver array parallel to the optical axis of the imaging lens, only elements of the receiver array are preferably read out and signal profiles are formed, and only elements are selected to form a single signal profile, the locations of which at least approximately in each case when the receiver array is moved Displacement distance AS Aj are arranged in the array space, the extension line of which is in each case cut with a straight line perpendicular to the main, which contains the center of the exit pupil of the imaging lens, with the imaging lens from their image being used when imaging multiple paths thus generated at least approximately at least one route bundle with a convergence point K 2 in the pupil center PZ OA of the pupil of the imaging lens is formed in the main section of the object space.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das leuch­ tende Array als elektronisch steuerbares Gitter ausgebildet sein und vorzugsweise die Verschiebungs­ strecken der Orte konstanter relativer Leuchtdichte der strukturierten, leuchtenden Fläche und so auch der Orte lokaler Extrema der Leuchtdichte im Array-Raum als Resultat der mechanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des strukturiert leuchtenden Arrays im Array-Raum ausgerichtet sein und aus diesen Verschiebungsstrecken im Array-Raum kann zumindest näherungsweise mindestens ein Streckenbündel mit einem Konvergenzpunkt KA1 gebildet sein. Der Kon­ vergenzpunkt KA1 des Streckenbündels kann im Pupillenzentrum PZAA, des Abbildungsobjektivs im Array- Raum angeordnet sein und so kann der Konvergenzpunkt K1 im Objektraum im Pupillenzentrum PZ0A des Abbildungsobjektivs angeordnet sein. Das Pupillenzentrum PZ0A des Abbildungsobjektivs und das Pupil­ lenzentrum PZ0B des Beleuchtungsobjektivs können im Objektraum gemeinsam auf einer Geraden ange­ ordnet sein, welche senkrecht zur Achse des Beleuchtungsobjektivs ausgerichtet ist. Bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsobjektivs können nur die Elemente des Empfänger-Arrays ausgelesen und Signalverläufe gebildet und zur Bildung eines ein­ zelnen Signalverlaufes nur Elemente ausgewählt werden, deren Orte beim Verschieben des Empfänger- Arrays zumindest näherungsweise jeweils auf einer Verschiebungsstrecke im Array-Raum angeordnet sind, deren Verlängerungsgerade jeweils das Zentrum der Austrittspupille des Abbildungsobjektivs schneidet, und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet ist.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the luminous array can be designed as an electronically controllable grid and preferably the displacement distances of the locations of constant relative luminance of the structured, luminous surface and thus also of the locations of local extremes of the luminance in the array Space as a result of the mechanical movement of the structured, luminous array and the electronic control of the structured, luminous array in the array space, and at least approximately at least one path bundle with a convergence point K A1 can be formed from these displacement paths in the array space. The convergence point K A1 of the route bundle can be arranged in the pupil center PZ AA , the imaging lens in the array space, and so the convergence point K 1 can be arranged in the object space in the pupil center PZ 0A of the imaging lens. The pupil center PZ 0A of the imaging lens and the pupil center PZ 0B of the illumination lens can be arranged in the object space together on a straight line which is oriented perpendicular to the axis of the illumination lens . If the receiver array is shifted in a straight line parallel to the optical axis of the imaging lens, only the elements of the receiver array can be read out and signal profiles can be formed, and only elements can be selected to form an individual signal profile, the locations of which at least approximately each time when the receiver array is moved a displacement path are arranged in the array space, the extension line of which in each case intersects the center of the exit pupil of the imaging lens, and when imaging multiply generated paths with the imaging lens from their images in the object space, at least approximately at least one path bundle with a convergence point K 2 in the pupil center PZ OA the pupil of the imaging lens is formed.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Ver­ schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL zumindest annähernd parallel zu einer definierten Geraden gAP angeordnet sein. Dabei weisen die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung vorzugsweise eine zumindest näherungsweise vorherbestimmt gleichbleibende relative Leuchtdichte auf. Die Gerade gAP schneidet den Brennpunkt FAB des Beleuchtungsobjektivs im Ar­ ray-Raum und weist den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und Brennweite fB des Beleuchtungsobjektivs auf, wobei dieser Anstieg der Geraden gAP auf die Achse des Beleuchtungsobjektivs bezogen ist.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the displacement distances VSB Aj of the luminous surface elements FEL can be arranged at least approximately parallel to a defined straight line g AP . The luminous surface elements FEL preferably have an at least approximately predetermined predetermined relative luminance in a luminance distribution. The straight line g AP intersects the focal point F AB of the illumination lens in the Ar ray space and has the increase with the amount from the quotient distance of the pupil center PZ OA of the pupil of the imaging lens in the object space from the axis of the illumination lens and focal length f B of the illumination lens, this rise in the straight line g AP being related to the axis of the illumination objective.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene, dem eine Komponente des Bewegungssystems dem Empfänger-Array zugeordnet ist, und so bei der mechani­ schen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke A5 dessen Elemente Verschie­ bungsstrecken ASAj auf parallelen Geraden zugeordnet sein, wobei vorzugsweise aus den Bildern ASOj dieser Strecken ASAj bei Abbildung durch das Abbildungsobjektiv zumindest näherungsweise mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im Objektraum gebildet sein kann. Dabei kann der Konvergenzpunkt K1 und der Konvergenzpunkt K2 mit dem Brennpunkt FOA und dem Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht sein.Furthermore, with an arrangement for 3D recording of object surfaces in a scene, to which a component of the movement system is assigned to the receiver array, and thus during the mechanical movement of the receiver array on a displacement path A5, its elements displacement paths AS Aj on parallel To be assigned to straight lines, preferably at least approximately at least one line bundle SB 2 with a convergence point K 2 in the object space can be formed from the images AS Oj of these lines AS Aj when represented by the imaging lens. The convergence point K 1 and the convergence point K 2 with the focal point F OA and the pupil center PZ OA of the pupil of the imaging lens in the object space can be brought at least approximately to the coincidence.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Achse des Beleuchtungsobjektivs und die Achse des Abbildungsobjektivs parallel zueinander angeordnet sind und das Abbildungsobjektiv auf der Seite des Raumes der Arrays telezentrisch ausgeführt sein.Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, the axis of the illumination lens and the axis of the imaging lens are arranged parallel to one another and the imaging lens on the side of the space of the arrays be made telecentric.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene eine Kom­ ponente des Bewegungssystems dem Empfänger-Array zugeordnet sein und so bei der mechanischen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke AS dessen Elemente Verschiebungs­ strecken ASAj auf parallelen Geraden zugeordnet sein, wobei aus den Bildern dieser Strecken bei Abbil­ dung durch das Abbildungsobjektiv zumindest näherungsweise mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im Objektraum gebildet ist. Der Konvergenzpunkt K1 und der Konvergenz­ punkt K2 können mit dem Brennpunkt FOA und dem Pupillenzentrum PZOA der Pupille des Abbildungsob­ jektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht sein und das Beleuchtungsobjektiv und das Abbildungsobjektiv jeweils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sein. So können die Achsen des Beleuchtungsobjektivs und des Abbildungsobjektivs parallel zueinander angeord­ net sein und die Brennebenen derselben im Objektraum zur Koinzidenz gebracht sein.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, a component of the motion system can be assigned to the receiver array, and thus the elements of the displacement range AS Aj can be assigned to parallel lines during the mechanical movement of the receiver array on a displacement path AS , at least approximately at least one cluster of lines SB 2 with a convergence point K 2 in the object space is formed from the images of these lines when the image is formed by the imaging lens. The convergence point K 1 and the convergence point K 2 can be brought at least approximately to the coincidence with the focal point F OA and the pupil center PZ OA of the pupil of the imaging lens in the object space and the illumination lens and the imaging lens are each carried out telecentrically on the side of the space of the arrays be. Thus, the axes of the illumination lens and the imaging lens can be arranged parallel to one another and the focal planes of the same can be brought to coincide in the object space.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der die Komponenten des Bewegungssystem so angeordnet sein, daß im Array-Raum mit dem Brennpunkt FAB des Beleuchtungsobjektivs als Bezugspunkt für das leuchtende Array eine Gesamtbewegungsrichtung zumindest annähernd parallel zu einer Geraden gA im Array-Raum realisiert ist, so daß die Elemente des strukturiert leuchtenden Arrays sich auf parallelen Geraden zur Gerade gA bewegen und diese Gerade gA mit dem Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum zum Schnitt gebracht ist und den Anstieg mit dem Betrag aus dem Quotienten Brennweite fB des Beleuchtungsobjektivs und Abstand d des Brennpunktes FAA des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs auf­ weist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch­ tungsobjektivs bezogen ist.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the components of the movement system can be arranged such that an overall movement direction at least approximately parallel to a straight line g in the array space with the focal point F AB of the illumination lens as a reference point for the luminous array A is realized in the array space, so that the elements of the structured, luminous array move on parallel straight lines to the straight line g A and this straight line g A is brought to the intersection in the array space with the focal point F AB of the illumination lens and the increase with the Amount from the quotient focal length f B of the illumination lens and distance d of the focal point F AA of the imaging lens in the object space from the axis of the illumination lens, this increase in the straight line g A being related to an axis perpendicular to the axis of the illumination lens.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe­ gungssystem aus zwei einzelnen Linearführungen aufgebaut sein und die erste Linearführung dem Emp­ fänger-Array zugeordnet sein und die Bewegungsrichtung dieser Linearführung zumindest annähernd parallel zur optischen Achse des Abbildungsobjektivs justiert sein und die zweite Linearführung der ersten Linearführung und dem strukturiert leuchtenden Array zugeordnet sein und die Bewegungsrichtung der zweiten Linearführung zumindest annähernd senkrecht zur optischen Achse des Beleuchtungsobjektivs justiert sein, so daß als Resultat der linearer Einzelbewegungen der beiden Linearführungen das struktu­ riert leuchtende Array zumindest annähernd parallel zur Geraden gA bewegen.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the movement system can be constructed from two individual linear guides and the first linear guide can be assigned to the receiver array and the direction of movement of this linear guide can be adjusted at least approximately parallel to the optical axis of the imaging lens and the second linear guide of the first linear guide and the structured luminous array can be assigned and the direction of movement of the second linear guide can be adjusted at least approximately perpendicular to the optical axis of the illumination lens, so that the structured luminous array is at least approximately parallel to the straight line as a result of the linear individual movements of the two linear guides move g A.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe­ gungssystem, bestehend aus einer einzigen Linearführung mit einem Schlitten und einer Basis, im Raum des strukturiert leuchtenden Arrays und Empfänger-Array angeordnet sein und die Linearführung wenig­ stens dem strukturiert leuchtenden Array fest zugeordnet sein und die Bewegungsrichtung für das struk­ turiert leuchtende Array zumindest annähernd parallel zur Geraden gA im Array-Raum ausgerichtet sein.Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, the movement system, consisting of a single linear guide with a slide and a base, can be arranged in the space of the structured, luminous array and receiver array, and the linear guide can be at least the structured, luminous Be firmly assigned to the array and the direction of movement for the structured luminous array must be aligned at least approximately parallel to the straight line g A in the array space.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe­ gungssystem aus mindestens zwei einzelnen Linearführungen aufgebaut sein und die erste Linearführung beweglichen Komponenten des Beleuchtungsobjektivs zur Innenfokussierung und beweglichen Kompo­ nenten des Abbildungssobjektivs zur Innenfokussierung fest zugeordnet sein und die zweite Linearfüh­ rung dem strukturiert leuchtenden Array zur Bewegung senkrecht zur optischen Achse des Beleuchtungs­ objektivs fest zugeordnet sein. Bei der Verwendung von präzisen Linearführungen kann so eine hochdy­ namische 3D-Aufnahme-Anordnung realisiert werden.Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, the movement system from at least two individual linear guides and the first linear guide moving components of the lighting lens for internal focusing and moving compo elements of the imaging lens for internal focusing and the second linear guide The structured, luminous array for movement perpendicular to the optical axis of the lighting objectively assigned. When using precise linear guides, a hochdy Namely 3D recording arrangement can be realized.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe­ gungssystem aus einer Linearführung aufgebaut und diese dem Empfänger-Array zugeordnet sein und die Bewegungsrichtung dieser Linearführung zumindest annähernd parallel zur optischen Achse des Ab­ bildungsobjektivs angeordnet sein und ein rotatorischer Antrieb der Linearführung zuordnet sein und das strukturiert leuchtende Array wiederum dem rotatorischen Antrieb zugeordnet sein.Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, the movement system made up of a linear guide and this assigned to the receiver array and the direction of movement of this linear guide at least approximately parallel to the optical axis of the Ab be arranged educational lens and be assigned a rotary drive of the linear guide and that structured illuminated array can in turn be assigned to the rotary drive.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ riert leuchtende Array als Gitter mit einer spiralförmigen Figur als Archimedische Spirale mit mindestens einem Gang ausgebildet und drehbar angeordnet sein und mindestens ein Ausschnitt des Gitters mit der spiralförmigen Figur als strukturiertes Array benutzt werden, wobei vorzugsweise in Verbindung mit der Strahlungsquelle das strukturiert leuchtende Array gebildet ist, und die Drehachse des Gitters mit der spi­ ralförmigen Figur parallel zur Achse des Beleuchtungsobjektivs angeordnet und außerdem ein rotatori­ scher Antriebsmotor dem Gitter mit der spiralförmigen Figur zugeordnet ist. Furthermore, the structure can be in an arrangement for 3D recording of object surfaces in a scene luminescent array as a grid with a spiral figure as an Archimedean spiral with at least a gear and rotatably arranged and at least a section of the grid with the spiral figure can be used as a structured array, preferably in conjunction with the Radiation source, the structured luminous array is formed, and the axis of rotation of the grating with the spi raliform figure arranged parallel to the axis of the lighting lens and also a rotatori sher drive motor is assigned to the grid with the spiral figure.  

Um eine kontinuierliche Aufnahme von bewegten Objekten mit einer hohen Geschwindigkeit erreichen zu können und dabei gleichzeitig die störende Wirkung von impulsförmigen Reaktionskräften auf die 3D- Aufnahme-Anordnung zu vermeiden, kann ein Gitter mit einer spiralförmigen Figur als Archimedische Spi­ rale mit mindestens einem Gang ausgebildet und drehbar angeordnet sein. Das Gitter mit der spiralförmi­ gen Figur ist dabei bezüglich seiner Drehachse sorgfältig ausgewuchtet. Es wird eine Präzisionslagerung verwendet. Ein Ausschnitt des rotierenden Gitters mit der spiralförmigen Figur dient als strukturiert leuch­ tendes Array. Die Drehachse des Gitters mit der spiralförmigen Figur ist dabei vorzugsweise parallel zur Achse des Beleuchtungsobjektivs angeordnet. Es wird für die Erzeugung der Drehbewegung ein rechner­ gesteuerter rotatorischer Antriebsmotor dem Gitter mit der spiralförmigen Figur zugeordnet. Die Phase des Gitters mit der spiralförmigen Figur kann mit einer radial angeordneten, schnell auslesbaren Foto- Diodenzeile bestimmt werden. Es kann auch eine CCD-Zeile mit einer Bildauslesefrequenz im 10 KHz- Bereich eingesetzt werden.To achieve a continuous recording of moving objects at a high speed can and at the same time the disruptive effect of impulsive reaction forces on the 3D To avoid recording arrangement, a lattice with a spiral figure as an Archimedean Spi rale be formed with at least one gear and rotatably arranged. The grid with the spiral gene figure is carefully balanced with respect to its axis of rotation. It will be a precision bearing used. A section of the rotating grid with the spiral figure serves as a structured light array. The axis of rotation of the grid with the spiral figure is preferably parallel to Axis of the lighting lens arranged. A computer is used to generate the rotary movement Controlled rotary drive motor assigned to the grid with the spiral figure. The phase of the grid with the spiral figure can be arranged with a radially arranged, quickly readable photo Diode row can be determined. A CCD line with an image reading frequency in the 10 KHz Area can be used.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Abbil­ dungsobjektiv gemeinsam mit dem Empfänger-Array und den zugeordneten Komponenten des Bewe­ gungssystems um eine Achse, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs durchstößt, im Objektraum drehbar angeordnet sein. So können die Objektflächen in einer Szene aus unterschiedlichen Richtungen beobachtet werden, ohne daß die durch die Beleuchtung vorgegebene ab­ solute Phase verändert wird.Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, the imaging lens can be rotated together with the receiver array and the associated components of the motion system about an axis which penetrates the pupil center PZ OA of the pupil of the imaging lens in the object space . In this way, the object surfaces in a scene can be observed from different directions without changing the absolute phase specified by the lighting.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Be­ leuchtungsobjektiv gemeinsam mit dem strukturiert leuchtenden Array und den zugeordneten Komponen­ ten des Bewegungssystems und der Strahlungsquelle um eine Achse, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs durchstößt, im Objektraum drehbar angeordnet sein. So können die Objektflächen in einer Szene aus unterschiedlichen Richtungen beleuchtet werden.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the illumination lens together with the structured, luminous array and the associated components of the movement system and the radiation source about an axis which penetrates the pupil center PZ OA of the pupil of the imaging lens in the object space be rotatably arranged. In this way, the object areas in a scene can be illuminated from different directions.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ riert leuchtende Array eine gerasterte Struktur mit äquidistanten Abständen aufweisen.Furthermore, the structure can be in an arrangement for 3D recording of object surfaces in a scene radiant array have a raster structure with equidistant spacing.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem Lini­ engitter ein Gegengitter mit der gleichen Gitterkonstante und ein Nullpunktgeber zugeordnet sein. Da­ durch ist eine besonders präzise Gewinnung der absoluten IstphaseGitter möglich. So kann die für das Auswerteverfahren benötigte Information über die absolute, lateral invariante Objektphase durch optische Bestimmung der absoluten IstphaseGitter direkt aus der Bewegung des beleuchteten Liniengitters durch optische Kopplung des Liniengitters mit einem Gegengitter und einem Nullpunktgeber unter Verwendung eines elektronischen Auswerte-Moduls mit einem Rechnerinterface für die Berechnung der absoluten, la­ teral invarianten Objektphase abgeleitet werden.Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, a line grid with the same grid constant and a zero point transmitter can be assigned to the line grid. This enables a particularly precise extraction of the absolute actual phase of the grid . The information required for the evaluation process about the absolute, laterally invariant object phase can be obtained by optically determining the absolute actual phase grating directly from the movement of the illuminated line grating by optically coupling the line grating with a counter grating and a zero point transmitter using an electronic evaluation module with a computer interface for the calculation of the absolute, laterally invariant object phase.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene eine trans­ parente optische Platte der 3D-Aufnahme-Anordnung als permanent verbleibende Referenzplatte in der Nahdistanz zugeordnet sein, wobei vorzugsweise auf mindestens einer der beiden Flächen der optischen Platte eine schwach lichtstreuende Mikrostruktur aufgebracht ist.Furthermore, with an arrangement for 3D recording of object surfaces in a scene, a trans  Parent optical plate of the 3D recording arrangement as a permanently remaining reference plate in the Near distance can be assigned, preferably on at least one of the two surfaces of the optical Plate has a weakly light-scattering microstructure applied.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Beleuch­ tungsstrahlengang mit einem afokalen System mit einem inneren Brennpunkt FBi aufgebaut sein und der Abbildungsstrahlengang mit einem inneren Brennpunkt FAi und im Objektraum der Brennpunkt des afoka­ len Beleuchtungsstrahlenganges und der Brennpunkt des afokalen Abbildungsstrahlenganges zumindest näherungsweise zusammenfallen und der Konvergenzpunkt K1 in einem Abstand dK1 von der optischen Achse des Beleuchtungsobjektivs angeordnet sein, wobei der Abstand dK1 dem halben Abstand vom inne­ ren Brennpunkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlen­ ganges durch die innere Brennebene Fi des Beleuchtungsstrahlenganges entspricht, wobei das Beleuch­ tungsobjektiv und das Abbildungsobjektiv jeweils auf der nach außen gekehrten Seite der afokalen Abbil­ dungsstufen zumindest näherungsweise telezentrisch ausgeführt sind.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the illumination beam path can be constructed with an afocal system with an inner focal point F Bi and the imaging beam path with an inner focal point F Ai and in the object space the focal point of the afocal illumination beam path and the focal point of the afocal imaging beam path at least approximately coincide and the convergence point K 1 is arranged at a distance d K1 from the optical axis of the illumination lens, the distance d K1 being half the distance from the inner focal point F Bi of the afocal imaging step from the point of intersection of the axis of the imaging beam corresponds to the inner focal plane F i of the illuminating beam path, the lighting objective and the imaging objective being at least approximately telecentric on the outwardly facing side of the afocal imaging stages.

Das Bewegungssystem kann mit mindestens einer beweglichen Komponente so angeordnet sein, daß dessen Bewegungsrichtung zumindest annähernd parallel zu einer Geraden gA justiert ist und so leuch­ tende Flächenelemente FEL auf Verschiebungsstrecken VSBAj verschoben werden und die Gerade gA kann den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum durchstoßen und für die Gerade gA kann der Anstieg mit dem Betrag aus dem Quotienten Brennweite fB des Beleuchtungsobjektivs und Ab­ stand dK1 realisiert sein, wobei der Anstieg auf die Hauptebene des Abbildungsobjektivs bezogen ist, und eine zur optischen Achse des Abbildungsobjektivs zumindest annähernd parallele Verschiebung des Empfänger-Arrays besteht.The movement system can be arranged with at least one movable component such that its direction of movement is adjusted at least approximately parallel to a straight line g A and so luminous surface elements FEL can be shifted on displacement paths VSB Aj and the straight line g A can be the focal point F AB of the illumination lens in Pierce array space and for the straight line g A the increase can be realized with the amount from the quotient focal length f B of the illumination lens and distance d K1 , the increase being related to the main plane of the imaging lens and one to the optical axis of the imaging lens there is at least approximately parallel displacement of the receiver array.

Weiterhin kann mindestens ein feststehender Umlenkspiegel dem Abbildungsobjektiv zugeordnet sein und so strukturiert leuchtendes Array und Empfänger-Array in zueinander parallelen Ebenen liegen und so nur ein einziger z-Schlitten für das leuchtende Array und das Empfänger-Array angeordnet ist.Furthermore, at least one fixed deflection mirror can be assigned to the imaging lens and structured array and receiver array lie in parallel planes and so only a single z-carriage is arranged for the luminous array and the receiver array.

Diese Anordnung ist für 3D-Aufnahmen im Makro-Raum sehr geeignet. Dabei können die beiden Objekti­ ve im afokalen System auch sehr unterschiedliche Brennweiten aufweisen. Von Vorteil ist weiterhin, daß die effektive Wellenlänge im gesamten Objektraum konstant ist. Die leuchtenden Flächenelemente FEL befinden sich ständig auf den B-Strecken BSAj.This arrangement is very suitable for 3D recordings in macro space. The two objectives in the afocal system can also have very different focal lengths. Another advantage is that the effective wavelength is constant in the entire object space. The luminous surface elements FEL are constantly on the B routes BS Aj .

Der Abstand dK1 entspricht vorzugsweise dem halben Abstand vom inneren Brennpunkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brenne­ bene Fi des Beleuchtungsstrahlenganges. Dies bedeutet, daß der Konvergenzpunkt K1 im Durchstoß­ punkt der Winkelhalbierenden der Achsen des Beleuchtungsstrahlenganges und des Abbildungsstrahlen­ ganges durch die innere Brennebene des Beleuchtungsstrahlenganges liegt. Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse wählbar, so daß sowohl eine senkrechte Beobach­ tung und Schrägbeleuchtung als auch eine senkrechte Beobachtung und Schrägbeobachtung möglich sind.The distance d K1 preferably corresponds to half the distance from the inner focal point F Bi of the afocal imaging step from the point of penetration of the axis of the imaging beam path through the inner focal plane F i of the illuminating beam path. This means that the convergence point K 1 lies in the intersection point of the bisector of the axes of the illuminating beam path and the imaging beam path through the inner focal plane of the illuminating beam path. Basically, the angle for the observation axis and the imaging axis can be selected, so that both vertical observation and oblique lighting as well as vertical observation and oblique observation are possible.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zwei ver­ schiebbare Empfänger-Arrays in parallelen Abbildungsstrahlengänge in einer gemeinsamen Ebene ange­ ordnet sein, wobei die Verschiebung des ersten Empfänger-Arrays auf der Verschiebungstrecke ASA1 und die Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungstrecke ASA2 stattfindet. Die Ver­ schiebungsstrecken ASA1 und die Verschiebungstrecke ASA2 können sich in einem Punkt PA in der zu­ sammenfallenden array-seitigen Hauptebene schneiden, wobei sich die Elemente des ersten Empfänger- Arrays auf den Verschiebungsstrecken ASA1j und sich die Elemente des zweiten Empfänger-Arrays auf den Verschiebungsstrecken ASA2j bewegen.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, two displaceable receiver arrays can be arranged in parallel imaging beam paths in a common plane, the displacement of the first receiver array on the displacement path AS A1 and the displacement of the second receiver Arrays takes place on the shift route AS A2 . The shifting distances AS A1 and the shifting distance AS A2 can intersect at a point P A in the coincident array-side main plane, the elements of the first receiver array being on the shifting distances AS A1j and the elements of the second receiver array move on the shift distances AS A2j .

Der Koinzidenzpunkt K21 der Bilder der Verschiebungsstrecken ASA1j, die Strecken ASO1j, des ersten Abbildungsstrahlenganges und der Koinzidenzpunkt K22 der Bilder der Verschiebungsstrecken ASA2j, die Strecken ASO2j, des zweiten Abbildungsstrahlenganges Beleuchtungsstrahlenganges können im Koinzi­ denzpunkt KO zusammenfallen. Zu den beiden parallelen Abbildungsstrahlengängen kann mittig und symmetrisch ein paralleler Beleuchtungsstrahlengang mit einem auf der Verschiebungsstrecke VSAP ver­ schiebbaren strukturiert leuchtenden Array mit linienhaften Elementen in der Ebene der beiden Empfän­ ger-Arrays angeordnet sein und das Beleuchtungsobjektiv kann mittig und symmetrisch angeordnet sein, also mit einer zu den beiden Abbildungsstrahlengängen parallelen optische Achse, und dessen array­ seitiger Hauptpunkt HAB kann mit dem Punkt PA zusammenfallen. Der objektseitige Brennpunkt FOB des Beleuchtungsstrahlenganges kann mit dem Koinzidenzpunkt KO zusammenfallen, und es kann ein be­ leuchtetes Liniengitter als strukturiert leuchtendes Array angeordnet sein.The coincidence point K 21 of the images of the displacement lines AS A1j , the lines AS O1j , of the first imaging beam path and the coincidence point K 22 of the images of the displacement lines AS A2j , the lines AS O2j , of the second imaging beam path illumination beam path can coincide in the Koinzi denzpunkt K O. To the two parallel imaging beam paths, a parallel illuminating beam path with a structured, luminous array with linear elements displaceable on the displacement path VS AP can be arranged centrally and symmetrically in the plane of the two receiver arrays, and the illuminating lens can be arranged centrally and symmetrically, i.e. with an optical axis parallel to the two imaging beam paths, and its main point H AB on the array side can coincide with the point P A. The object-side focal point F OB of the illumination beam path can coincide with the coincidence point K O , and an illuminated line grating can be arranged as a structured, luminous array.

Die Empfänger-Arrays bewegen sich hierbei vorzugsweise real auf den Verschiebungsstrecken ASA1 und ASA2 und die Elemente der Empfänger-Arrays auf den Verschiebungsstrecken ASA1j und ASA2j.In this case, the receiver arrays preferably move real on the displacement paths AS A1 and AS A2 and the elements of the receiver arrays on the displacement paths AS A1j and AS A2j .

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zwei ver­ schiebbare Empfänger-Arrays in parallelen Abbildungsstrahlengänge in einer gemeinsamen Ebene ange­ ordnet sein, wobei die Verschiebung des ersten Empfänger-Arrays auf einer Verschiebungstrecke parallel zur optischen Achse und die Verschiebung des zweiten Empfänger-Arrays auf einer Verschiebungstrecke parallel zur optischen Achse stattfindet. Die Elemente der beiden Empfänger-Arrays können so ausgele­ sen werden und Signale gebildet werden, als ob sich die Empfänger-Arrays auf Verschiebungsstrecken ASA1 befinden würden und die Verschiebungstrecke ASA2 sich in einem Punkt PA in der zusammenfallen­ den array-seitigen Hauptebene schneiden. Der Koinzidenzpunkt K21 der Bilder der Verschiebungsstrecken ASA1j, die Strecken ASO1j, des ersten Abbildungsstrahlenganges und der Koinzidenzpunkt K22 der Bilder der Verschiebungsstrecken ASA2j, die Strecken ASO2j, des zweiten Abbildungsstrahlenganges Beleuch­ tungsstrahlenganges können im Koinzidenzpunkt KO zusammenfallen. Zu den beiden parallelen Abbil­ dungsstrahlengängen kann mittig und symmetrisch ein paralleler Beleuchtungsstrahlengang mit einem auf der Verschiebungsstrecke VSAP verschiebbaren strukturiert leuchtenden Array mit linienhaften Elementen in der Ebene der beiden Empfänger-Arrays angeordnet sein und das Beleuchtungsobjektiv kann mittig und symmetrisch angeordnet sein, also mit einer zu den beiden Abbildungsstrahlengängen parallelen op­ tische Achse, und dessen arrayseitiger Hauptpunkt HAB mit dem Punkt PA zusammenfällt. Der objektseiti­ ge Brennpunkt des Beleuchtungsstrahlenganges kann mit dem Koinzidenzpunkt KO zusammenfallen und es kann ein strukturiert leuchtendes Array angeordnet sein.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, two displaceable receiver arrays can be arranged in parallel imaging beam paths in a common plane, the displacement of the first receiver array on a displacement path parallel to the optical axis and the displacement of the second receiver arrays takes place on a displacement path parallel to the optical axis. The elements of the two receiver arrays can be read out and signals can be formed as if the receiver arrays were located on displacement paths AS A1 and the displacement path AS A2 intersect at a point P A in which the array-side main plane intersect . The coincidence point K 21 of the images of the displacement paths AS A1j , the paths AS O1j , of the first imaging beam path and the coincidence point K 22 of the images of the displacement paths AS A2j , the paths AS O2j , of the second imaging beam path lighting beam path can coincide in the coincidence point K O. To the two parallel imaging beam paths, a parallel illumination beam path with a structured, luminous array with linear elements that can be displaced on the displacement path VS AP can be arranged centrally and symmetrically in the plane of the two receiver arrays, and the illumination lens can be arranged centrally and symmetrically, i.e. with one to the two imaging beam paths parallel optical axis, and its array-side main point H AB coincides with the point P A. The object-side focal point of the illuminating beam path can coincide with the coincidence point K O and a structured, luminous array can be arranged.

Die Empfänger-Arrays bewegen sich vorzugsweise nicht real auf den Verschiebungsstrecken ASA1 und ASA2, sondern es werden die Elemente der Empfänger-Arrays ausgelesen, die in Zusammenwirken mit der Parallelverschiebung den Effekt ergeben, als ob diese sich auf den Verschiebungsstrecken ASA1j und ASA2j bewegen würden.The receiver arrays preferably do not actually move on the displacement paths AS A1 and AS A2 , but the elements of the receiver arrays are read out which, in cooperation with the parallel displacement, give the effect as if they were on the displacement paths AS A1j and AS A2j would move.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Abbil­ dungsobjektive für die beiden Empfänger-Arrays und das leuchtende Array zumindest näherungsweise baugleich sein und deren Brennebenen können im Objektraum koinzidieren. Das leuchtende Array kann mit leuchtenden Farbstreifen gebildet sein, die zumindest näherungsweise lückenlos aneinandergereiht sind, wobei das leuchtende Array aus transmittierenden Mikroelementen und aus reflektierenden Mikro­ elementen aufgebaut ist, und dem strukturierten Array kann eine Rotlichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet sein, wobei das Licht mindestens einer Lichtquelle das strukturierte Array in einer fokussierenden Struktur durchsetzt und das Licht von mindestens zwei Lichtquellen auf Mikro­ spiegelelemente trifft.Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the images Application lenses for the two receiver arrays and the illuminated array at least approximately be identical and their focal planes can coincide in the object space. The glowing array can be formed with bright colored stripes that are at least approximately strung together are, the luminous array of transmitting micro-elements and reflecting micro elements, and the structured array can be a red light source, a green light source and be assigned a blue light source, the light of at least one light source being the structured array interspersed in a focusing structure and the light from at least two light sources on micro mirror elements meets.

Die beiden Empfänger-Arrays und das strukturierten Array können mit einem Bewegungssystem zur prä­ zisen, synchronen Bewegung verbunden sein, wobei die optisch aktiven Ebenen der beiden verschiebba­ ren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebene gehalten werden können, wodurch die optisch konjugierten Ebenen im Objektraum stets koinzidie­ ren.The two receiver arrays and the structured array can be prepared using a movement system zisen, synchronous movement connected, the optically active levels of the two displaceable ren receiver array and that of the movable, structured illuminated array always in the same Plane can be kept, whereby the optically conjugate planes in the object space always coincide ren.

Dadurch wird erreicht, daß eine im strukturiert leuchtenden Array im Vergleich zu einer Farbfilterung ver­ lustarme Erzeugung von zumindest näherungsweise lückenlosen Farbstreifen ermöglicht ist. Die Strah­ lungsquellen können dabei als Laserlichtquellen, farbige Lichtquellen oder als konventionelle weiße Licht­ quellen mit Farbfiltern gebildet sein.It is thereby achieved that a structured luminous array compared to a color filtering ver Low-lust generation of at least approximately seamless color strips is made possible. The beam Sources can be laser light sources, colored light sources or conventional white light sources are formed with color filters.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene ein farbig leuchtendes Array als Gitter mit einem asymmetrischen Furchenprofil gebildet sein. Dieses besteht aus Dreieckprofilen, die Makro-Profilflächen aufweisen, und besitzt eine auf dem gesamten Gitter zumindest näherungsweise gleichbleibenden Gitterkonstante zwischen 0,01 mm und 2 mm, die als Makro- Gitterkonstante bezeichnet wird. Dem Gitter ist mindestens eine Strahlungsquelle zur Beleuchtung zuge­ ordnet.Furthermore, an arrangement for 3D recording of object surfaces in a scene can be colored luminous array can be formed as a grid with an asymmetrical groove profile. This consists of Triangular profiles, which have macro profile surfaces, and at least has one on the entire grid approximately constant lattice constant between 0.01 mm and 2 mm, which as a macro Lattice constant is called. At least one radiation source for lighting is supplied to the grating arranges.

Auf der Oberfläche des Gitters können zumindest näherungsweise Dreieckprofile gebildet sein und auf den Makro-Profilflächen derselben jeweils zusätzlich ein Mikrofurchenprofil mit einer innerhalb einer Ma­ kro-Profilfläche veränderlichen Gitterkonstante des Mikrofurchenprofils und einer mittleren Mikro- Gitterkonstante desselben zwischen 0,0005 mm und 0,01 mm ausgebildet sein. So besteht für das einfal­ lende Licht eine fokussierende Wirkung verbunden mit einer Farbaufspaltung zumindest in die drei Farb­ bereiche blau grün rot. Hierbei kann auch ein diffraktives Reflexionsgitter eingesetzt werden.At least approximately triangular profiles can be formed and on the surface of the grid the macro profile surfaces of the same each have a micro furrow profile with a within one dimension kro profile surface variable lattice constant of the micro furrow profile and a medium micro The same lattice constant between 0.0005 mm and 0.01 mm. So there is for the simple light has a focusing effect combined with a color splitting at least into the three colors areas blue green red. A diffractive reflection grating can also be used here.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Mi­ krofurchenprofil auf den Makro-Flächen als ein asymmetrischen Mikro-Dreieckprofil ausgebildet sein.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the Mi Krofurchenprofil be formed on the macro areas as an asymmetrical micro-triangular profile.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Gitter als Transmissionsgitters mit einem asymmetrischen Furchenprofil mit Makro-Dreieckprismen ausgebildet sein, Dabei ist vorzugsweise das Mikroprofil auf den Hauptflächen der Makro-Dreieckprismen als ein asymmetrischen Mikro-Dreieckprofil mit Mikroprismen ausgebildet.Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, the grating designed as a transmission grating with an asymmetrical groove profile with macro triangular prisms  The micro profile on the main surfaces of the macro triangular prisms is preferably as one asymmetrical micro triangular profile with micro prisms.

Dabei können je einem transmittierenden und gleichzeitig fokussierenden Element zwei flankierende, re­ flektierende Elemente zugeordnet sein. Dem Transmissionsgitters können eine Rotlichtquelle, eine Grün­ lichtquelle und eine Blaulichtquelle zugeordnet sein, wobei vorzugsweise das Licht einer Lichtquelle das leuchtende Array in den fokussierenden Elementen durchsetzt und das Licht von mindestens zwei separa­ ten Lichtquellen auf die reflektierenden Elemente trifft.In this case, two flanking, right inflected elements. The transmission grid can be a red light source, a green light source and a blue light source can be assigned, preferably the light of a light source luminous array interspersed in the focusing elements and the light from at least two separa th light sources strikes the reflective elements.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Abbil­ dungsobjektive für die beiden Empfänger-Arrays und das leuchtende Array zumindest näherungsweise baugleich sein und deren Brennebenen im Objektraum koinzidieren. Das strukturiert leuchtende Array ist dabei aus transmittierenden und gleichzeitig fokussierenden Mikroelementen und aus reflektierenden Mi­ kroelementen gebildet, wobei je einem transmittierenden und gleichzeitig fokussierenden Element zwei flankierende, reflektierende Elemente zugeordnet sind. Dem strukturiert leuchtende Array ist eine Rot­ lichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet, wobei vorzugsweise das Licht einer Lichtquelle das leuchtende Array in den fokussierenden Elementen durchsetzt und das Licht von minde­ stens zwei separaten Lichtquellen unter einem Einfallswinkel von mindestens 10° auf die reflektierenden Elemente trifft. So kann mit drei einzelnen Lichtquellen mit vergleichsweise wenig Lichtverlusten ein farbig leuchtendes Array realisiert werden.Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the images Application lenses for the two receiver arrays and the illuminated array at least approximately be structurally identical and their focal planes coincide in the object space. The structured illuminated array is thereby from transmitting and simultaneously focussing micro elements and from reflecting Mi kroelemente formed, each with a transmitting and focusing element two flanking, reflecting elements are assigned. The structured illuminated array is a red assigned light source, a green light source and a blue light source, preferably the light one Light source penetrates the luminous array in the focusing elements and the light from minde at least two separate light sources at an angle of incidence of at least 10 ° onto the reflecting ones Elements meets. So with three individual light sources with comparatively little loss of light one can be colored luminous array can be realized.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die beiden Empfänger-Arrays und das leuchtende Array mit einem Bewegungssystem zur präzisen, synchronen Be­ wegung verbunden sein, wobei vorzugsweise die optisch aktiven Ebenen der beiden verschiebbaren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebe­ ne gehalten sind, wodurch die optisch konjugierten Ebenen im Objektraum permanent zur Koinzidenz ge­ bracht sind.Furthermore, the two can in an arrangement for 3D recording of object surfaces in a scene Receiver arrays and the luminous array with a movement system for precise, synchronous loading be connected, preferably the optically active planes of the two displaceable Receiver arrays and those of the movable, structured, illuminated array always in the same plane ne are kept, whereby the optically conjugate levels in the object space are permanently coincident are brought.

So ist gegeben, daß eine im strukturiert leuchtenden Array im Vergleich zu einer Farbfilterung besonders verlustarme Erzeugung von zumindest näherungsweise lückenlosen Farbstreifen ermöglicht ist. Ein gro­ ßer Anteil des transmittierten Anteils kann das leuchtende Array passieren und trägt so zur Ausleuchtung der Objektoberfläche bei. Weiterhin wird dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumindest nähe­ rungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.This ensures that a particularly low-loss generation of at least approximately complete color strips in the structured, luminous array is made possible in comparison with color filtering. A large part of the transmitted part can pass through the luminous array and thus contributes to the illumination of the object surface. It is further achieved that at least at a point in time ti in a time range Δti in a time range Δt B the luminous surface elements FEL move at least approximately on a distance parallel to a straight line g AP .

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem struk­ turierten Array ein steuerbarer Stellmechanismus zur lateralen Bewegung zugeordnet sein.Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the structure a controllable adjusting mechanism for lateral movement.

Dieser Stellmechanismus am strukturierten Array dient vorzugsweise der vergleichsweise langsamen late­ ralen Bewegung, um im Aufnahmevorhang nach und nach jedes Element einer Objektoberfläche mit den Farben rot, grün und blau beleuchten zu können. Dieser Stellmechanismus zur lateralen Bewegung kann sich dabei schrittweise vorwärts und rückwärts bewegen. This adjusting mechanism on the structured array preferably serves the comparatively slow late rale movement to gradually move each element of an object surface with the To be able to illuminate colors red, green and blue. This mechanism for lateral movement can move gradually backwards and forwards.  

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberllächen in einer Szene das struktu­ riert leuchtende Array mit Bereichen LBARRAY j unterschiedlicher Leuchtdichte und mit leuchtenden Flä­ chenelemente FEL mit Mikro-Farbteilern ausgebildet sein, so daß vorzugsweise eine nahezu planare Struktur gebildet ist. Dies führt zu einem sehr guten Lichtwirkungsgrad.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the structured, luminous array with areas LB ARRAY j of different luminance and with luminous surface elements FEL can be formed with micro-color dividers, so that an almost planar structure is preferably formed. This leads to a very good light efficiency.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ riert leuchtende Array mit Bereichen LBARRAY j mit zumindest näherungsweise gleichem Abstand der leuchtenden Flächenelemente FEL in einer Ebene in den Farben rot, grün und blau gebildet sein, wobei vorzugsweise die Wiederholungsperiode WP dem dreifachen Streifenabstand der einzelnen verschieden­ farbigen Flächenelemente entspricht und vorzugsweise Elemente des Empfänger-Arrays farbsensitiv und auf das Wellenlängenspektrum der leuchtenden Flächenelemente abgestimmt FEL sind.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the structured, luminous array with areas LB ARRAY j can be formed in at least approximately the same distance from the luminous surface elements FEL in one plane in the colors red, green and blue, preferably the Repetition period WP corresponds to three times the strip spacing of the individual differently colored surface elements and preferably elements of the receiver array are color-sensitive and matched to the wavelength spectrum of the luminous surface elements FEL.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ rierte Array zumindest auf einem Teilbereich einer Scheibe ausgebildet sein, der vorzugsweise eine rota­ torische Präzisionslagerung mit einer Welle mit einem rotatorischen Präzisionsmotor zugeordnet ist, so daß eine rotierende Scheibe gebildet ist.Furthermore, the structure can be in an arrangement for 3D recording of object surfaces in a scene rated array can be formed at least on a portion of a disc, which is preferably a rota toric precision bearing with a shaft is assigned to a rotary precision motor, so that a rotating disc is formed.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ riert leuchtende Array auf einer rotierenden Scheibe als ein rotationssymmetrisches Transmissions-Gitter ausgebildet sein.Furthermore, the structure can be in an arrangement for 3D recording of object surfaces in a scene luminescent array on a rotating disk as a rotationally symmetrical transmission grating be trained.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene an einem äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisch messendes Meßsystem zur Erfassung der axialen Ablage eines Teilbereiches der rotierenden Scheibe von einer axialen Sollposition angeordnet sein.Furthermore, in an arrangement for 3D recording of object surfaces in a scene on one outer frame area of the 3D recording arrangement a highly precise and highly dynamic measuring Measuring system for detecting the axial placement of a portion of the rotating disc from a axial target position.

Dabei ist das Meßsystem in seiner messenden Funktion vorzugsweise einem kreisringförmigen Bereich der rotierenden Scheibe zugeordnet, so daß jeweils die axiale Ablage in einem kreisringförmigen Bereich derselben, verursacht durch Axialschlag und Taumelschlag der rotierenden Scheibe hochgenau und hochdynamisch gemessen werden kann.The measuring system in its measuring function is preferably an annular area assigned to the rotating disc, so that in each case the axial storage in an annular area the same, caused by the axial and wobble of the rotating disc with high accuracy and can be measured highly dynamically.

Das Meßsystem kann ein kapazitives, induktives oder auch optisches Meßprinzip aufweisen. Das Meß­ systems befindet sich in unmittelbarer Nähe des jeweils abgebildeten Ausschnittes des strukturierten Ar­ rays auf der Kreisscheibe. Für die optische Messung befindet sich auf der Scheibe dazu vorzugsweise auf einer stetigen Planfläche ein zumindest teilweise reflektierender Bereich. Das Meßsystem befindet sich vorzugsweise in einem Rachen des hochstabilen Gestells aus einem Werkstoff mit einem vorzugsweise geringen Temperaturausdehnungskoeffizienten wie beispielsweise Keramik oder eine Eisen-Nickel- Legierung.The measuring system can have a capacitive, inductive or optical measuring principle. The meas systems is located in the immediate vicinity of the section of the structured structure depicted rays on the circular disc. For this purpose, the optical measurement is preferably located on the disk an at least partially reflective area of a continuous plane surface. The measuring system is located preferably in a throat of the highly stable frame made of a material with a preferably low temperature expansion coefficients such as ceramics or an iron-nickel Alloy.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be­ einflussung der axialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe angeord­ net sein, welches vorzugsweise als Komponente eines Lage-Regelkreises der rotierenden Scheibe zuge­ ordnet ist, so daß die axiale Ablage eines Sektors, verursacht durch Axialschlag und Taumelschlag bei der Rotation der Kreisscheibe, hochdynamisch ausgeregelt und so vorzugsweise jeweils ein Teilbereich der rotierenden Scheibe und so auch die axiale Lage zumindest eines Teilbereiches des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird. Das Stellsystem kann als Piezo- Steller als Komponente eines Lage-Regelkreises ausgebildet sein.Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the outside Frame area of the 3D recording arrangement a highly accurate and highly dynamic positioning system for loading  Influence the axial storage of the target position of a portion of the rotating disc be net, which preferably as a component of a position control loop of the rotating disc is assigned, so that the axial offset of a sector, caused by axial impact and wobble the rotation of the circular disc, regulated in a highly dynamic manner and thus preferably a sub-area the rotating disk and thus also the axial position of at least a portion of the structured luminous arrays is held with high precision in the axial target position. The positioning system can be used as a piezo Actuator be designed as a component of a position control loop.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be­ einflussung der axialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe angeord­ net sein, welches vorzugsweise als Komponente eines Lage-Regelkreises ausgebildet und der rotieren­ den Welle zugeordnet ist, so daß vorzugsweise die axiale Ablage eines Teilbereiches der rotierenden Scheibe, verursacht durch Taumelschlag bei der Rotation derselben, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe und so auch die axiale Lage des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird. Das Stellsystem kann auch Komponenten des Beleuchtungsobjektivs zugeordnet sein, so daß im Objektraum das Bild des strukturiert leuchtenden Ar­ rays sich stets in der gleichen Position befindet.Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the outside Frame area of the 3D recording arrangement a highly accurate and highly dynamic positioning system for loading Influence the axial storage of the target position of a portion of the rotating disc be net, which is preferably designed as a component of a position control loop and which rotate is assigned to the shaft, so that preferably the axial placement of a portion of the rotating Disc, caused by wobble when rotating, highly dynamically controlled and so in each case a partial area of the rotating disk and thus also the axial position of the structured, luminous one Arrays is held with high precision in the axial target position. The control system can also components of the Illumination lens assigned, so that the image of the structured illuminated Ar in the object space rays is always in the same position.

Das Stellsystem kann als Piezo-Steller als Komponente eines Lage-Regelkreises ausgebildet sein. Im Effekt werden sowohl der Axialschlag als auch ein gegebenenfalls vorhandener Taumelschlag der rotie­ renden Scheibe ausgeregelt. Es ist auch möglich, daß die rotierende Scheibe keine sehr hohe Steifigkeit aufweist und das Stellsystem durch eine elastische Deformation die axiale Sollposition realisiert, bei­ spielsweise durch die Wirkung magnetischer Kräfte.The actuating system can be designed as a piezo actuator as a component of a position control loop. in the Both the axial stroke and any existing wobble of the rotie become an effect corrected disc. It is also possible that the rotating disc is not very stiff has and the adjusting system realizes the axial target position by an elastic deformation, at for example by the action of magnetic forces.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisch messendes Meßsy­ stem zur Erfassung der radialen Ablage von einer Sollposition eines Teilbereiches der rotierenden Schei­ be angeordnet sein, welches vorzugsweise der rotierenden Scheibe zugeordnet ist, so daß in einem Kreisring der rotierenden Scheibe jeweils die radiale Ablage derselben, verursacht durch Radialschlag bei der Rotation der Kreisscheibe, hochdynamisch und hochgenau gemessen werden kann.Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the outside Frame area of the 3D recording arrangement a highly accurate and highly dynamic measuring system stem for detecting the radial placement of a target position of a portion of the rotating disc be arranged, which is preferably assigned to the rotating disc, so that in one Circular ring of the rotating disc, the radial placement of the same, caused by radial impact the rotation of the circular disc, can be measured highly dynamically and with high precision.

Das Meßsystem kann ein kapazitives, induktives oder auch optisches Meßprinzip aufweisen. Im Fall der Anwendung eines optischen Meßverfahrens kann sich eine Referenzspur in Form eines konzentrischen Kreises in unmittelbarer Nachbarschaft, beispielsweise in einem mittleren Abstand maximal 10 mm, zum strukturiert leuchtenden Array auf der rotierenden Scheibe befinden. Diese Referenzspur kann mit einer Genauigkeit von 0,1 µm zu einer Referenz- oder Symmetrielinie des strukturiert leuchtenden Arrays posi­ tioniert sein. Es kann auch ein präziser Ringspalt als Referenzspur gebildet sein, so daß das transmittierte Licht für die Bestimmung der radialen Ablage ausgewertet wird.The measuring system can have a capacitive, inductive or optical measuring principle. In the case of Using an optical measuring method, a reference track can be in the form of a concentric one Circle in the immediate vicinity, for example at an average distance of a maximum of 10 mm to the structured luminous array are located on the rotating disc. This reference track can be marked with a Accuracy of 0.1 µm to a reference or symmetry line of the structured illuminated array posi be served. A precise annular gap can also be formed as a reference track, so that the transmitted one Light for the determination of the radial offset is evaluated.

Als Basiswerkstoff kann aus Gründen der Invarianz gegenüber Temperaturänderungen Quarzglas für die rotierenden Scheibe eingesetzt werden. Für nichttransparente Bereiche der Scheibe kann auch ein faser­ verstärkter Werkstoff eingesetzt werden. Der abgebildete Ausschnitt des strukturierten Arrays befindet sich vorzugsweise in unmittelbarer Nähe des Meßsystems. For reasons of invariance to temperature changes, quartz glass can be used as the base material rotating disc can be used. A fiber can also be used for non-transparent areas of the pane reinforced material can be used. The section of the structured array shown is located preferably in the immediate vicinity of the measuring system.  

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Steilsystem zur Be­ einflussung der radialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe ange­ ordnet sein. Dieses Steilsystem ist vorzugsweise als Komponente eines Lage-Regelkreises der rotieren­ den Welle der rotierenden Scheibe zugeordnet, so daß die radiale Ablage eines Teilbereiches, verursacht durch Radialschlag bei der Rotation der rotierenden Scheibe, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe mit dem strukturiert leuchtenden Array in der radialen Sollposition gehalten und so der laterale Abstand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten werden kann. So kann vorzugsweise auch der laterale Abstand der Lage eines vorbestimmten Elementes des Empfänger-Arrays und eines vorbestimmten leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays im Array-Raum konstant gehalten werden kann.Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the outside Frame area of the 3D recording arrangement a highly precise and highly dynamic steep system for loading Influence of the radial deposit from the target position of a portion of the rotating disc to be in order. This steep system is preferably a component of a position control loop that rotates assigned to the shaft of the rotating disc, so that the radial deposition of a partial area causes by radial impact during the rotation of the rotating disc, highly dynamically controlled and so in each case a partial area of the rotating disk with the structured illuminated array in the radial desired position held and so the lateral distance of the receiver array from the structured illuminated array constant can be held. Thus, the lateral distance of the position can preferably be a predetermined one Element of the receiver array and a predetermined luminous surface element FELj des structured luminous arrays can be kept constant in the array space.

Dadurch wird der Triangulationswinkel, bezogen auf jedes Element der Objektoberfläche im Objektraum jeweils unabhängig vom Radialschlag konstant gehalten und die genaue laterale Zuordnung zwischen ei­ nem vorbestimmten Elementes des Empfänger-Arrays und einem vorbestimmten, leuchtenden Flä­ chenelementes FELj des strukturiert leuchtenden Arrays bleibt im Zeitbereich ΔtB erhalten. Dies ist für die Genauigkeit bei phasenauswertenden Verfahren wichtig.As a result, the triangulation angle, based on each element of the object surface in the object space, is kept constant regardless of the radial runout, and the exact lateral assignment between a predetermined element of the receiver array and a predetermined, luminous surface element FELj of the structured, luminous array remains in the time range Δt B receive. This is important for the accuracy of phase evaluating methods.

Das Stellsystem kann als Piezo-Steller als Komponente eines Lage Regelkreises ausgebildet sein, der gemeinsam mit dem Meßsystem eine Komponente eines Lage-Regelkreises darstellt. Als Kriterium für die Lageregelung gilt, daß der Abstand eines vorbestimmtes leuchtenden Flächenelementes FELj und eines vorbestimmten Element des Empfänger-Arrays während der Rotation der rotierenden Scheibe konstant gehalten werden soll, so daß gegebenenfalls auftretender Radialschlag gemessen und durch das Stellsy­ stem ausgeregelt werden kann.The actuating system can be designed as a piezo actuator as a component of a position control loop represents a component of a position control loop together with the measuring system. As a criterion for the Position control applies that the distance between a predetermined luminous surface element FELj and one predetermined element of the receiver array constant during the rotation of the rotating disk is to be held so that any radial impact that may occur is measured and by the control system stem can be corrected.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be­ einflussung der radialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe ange­ ordnet sein. Das Stellsystem ist vorzugsweise als Komponente eines Lage-Regelkreises dem Empfänger- Array im Abbildungsstrahlengang zugeordnet, so daß die laterale Lage des Empfänger-Arrays hochdy­ namisch geregelt und so und so der laterale Abstand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten und so der laterale Abstand der Lage eines vorbestimmten Elementes des Emp­ fänger-Arrays und eines vorbestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchten­ den Arrays im Array-Raum konstant gehalten werden kann.Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the outside Frame area of the 3D recording arrangement a highly accurate and highly dynamic positioning system for loading Influence of the radial deposit from the target position of a portion of the rotating disc to be in order. The control system is preferably a component of a position control loop to the receiver Array assigned in the imaging beam path, so that the lateral position of the receiver array hochdy Namely regulated and so and so the lateral distance of the receiver array from the structured shining Array kept constant and so the lateral distance of the position of a predetermined element of the emp catcher arrays and a predetermined, luminous surface element FELj of the structured light the arrays in the array space can be kept constant.

Dadurch wird der Triangulationswinkel, bezogen auf jedes Element der Objektoberfläche im Objektraum jeweils unabhängig vom Radialschlag gehalten und die genaue laterale Zuordnung zwischen einem vor­ bestimmten Elementes des Empfänger-Arrays und einem vorbestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays bleibt im Zeitbereich tB erhalten. Das Stellsystem kann als Pie­ zo-Steller ausgebildet sein, der gemeinsam mit dem Meßsystem eine Komponente eines Lage- Regelkreises darstellt. Als Kriterium gilt, daß der Abstand eines vorbestimmtes leuchtenden Flächenele­ mentes FELj des strukturiert leuchtenden Arrays von einem vorbestimmten Element des Empfänger- Arrays während der Rotation der Scheibe konstant gehalten werden soll, so daß eine gegebenenfalls auf­ tretende Abweichung vom Sollabstand des Empfänger-Arrays vom strukturiert leuchtenden Array gemes­ sen und durch das Stellsystem, welches die laterale Position des Empfänger-Arrays bestimmt, ausgere­ gelt werden kann.As a result, the triangulation angle, based on each element of the object surface in the object space, is kept independent of the radial runout and the exact lateral assignment between a certain element of the receiver array and a predetermined, luminous surface element FELj of the structured luminous array is retained in the time range t B. The control system can be designed as a piezo actuator, which together with the measuring system is a component of a position control loop. The criterion is that the distance of a predetermined luminous area element FELj of the structured luminous array from a predetermined element of the receiver array is to be kept constant during the rotation of the disk, so that a possibly occurring deviation from the target distance of the receiver array from the structured luminous array measured and can be corrected by the control system, which determines the lateral position of the receiver array.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe mit mindestens zwei Sektoren ausgebildet sein und die Sektorenflächen die Stufenflächen ei­ ner Wendeltreppe darstellen.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, they can rotate de disk be formed with at least two sectors and the sector surfaces ei the step surfaces represent a spiral staircase.

So können unterschiedliche Bereiche eines strukturierten Arrays in den Beleuchtungsstrahlengang ge­ bracht werden, wobei sich deren geometrisch-optische Weglänge zum Beleuchtungsobjektiv definiert än­ dert, und so deren Bild in unterschiedliche Tiefen des Objektraumes abgebildet wird.Different areas of a structured array can thus enter the illumination beam path are brought, whereby their geometric-optical path length to the lighting lens is defined changes, and so their image is mapped in different depths of the object space.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Sekto­ renflächen jeweils die Begrenzungsflächen einer transparenten Platte darstellen, wobei diese so gestalte­ te rotierenden Scheibe im weiteren als Wendeltreppenscheibe bezeichnet wird.Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, the sectos Ren surfaces each represent the boundary surfaces of a transparent plate, with this design te rotating disc is hereinafter referred to as a spiral staircase disc.

So können unterschiedliche Bereiche eines strukturierten Arrays in den Beleuchtungsstrahlengang ge­ bracht werden, wobei sich die axiale Gegenstandsweite der unterschiedlichen Bereiche des strukturierten Arrays im Beleuchtungsstrahlengang durch die Dicke der Platte ändert, und so deren Bilder in unter­ schiedliche Tiefen des Objektraumes abgebildet werden.Different areas of a structured array can thus enter the illumination beam path are brought, the axial object width of the different areas of the structured Arrays in the illumination beam path change due to the thickness of the plate, and so its images in below different depths of the object space are mapped.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Wendel­ treppenscheibe mit zumindest näherungsweise regelmäßigen, gleichflächigen Stufenflächen als vollflächi­ ge Wendeltreppenscheibe mit Stufenabsätzen mit Stufenhöhen Δhj gebildet sein und auf die gleichflächi­ gen Stufenflächen der Sektoren der transparenten Platte je ein strukturiertes Array aufgebracht sein und vorzugsweise das Licht der Strahlungsquelle erst nach dem Passieren der Fläche des strukturierten Ar­ rays die Platte passiert. Weiterhin können die Stufenflächen zumindest näherungsweise senkrecht zur Drehachse ausgerichtet sein und vorzugsweise mindestens ein einziger Absatz auf der Wendeltreppen­ scheibe mit mindestens der zweifachen Stufenhöhe ausgebildet sein. Die Wendeltreppenscheibe kann dabei eine zumindest näherungsweise mittlere Steigung pro Umdrehung von maximal einem Zwanzigstel des Radius' der Wendeltreppenscheibe aufweisen.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the spiral staircase disc with at least approximately regular, uniform step surfaces can be formed as a full-surface spiral staircase disc with step heels with step heights Δh j and a structured each on the uniform surface step surfaces of the sectors of the transparent plate Array be applied and preferably the light from the radiation source only after passing the surface of the structured Ar rays passes the plate. Furthermore, the step surfaces can be at least approximately perpendicular to the axis of rotation and preferably at least one shoulder on the spiral staircase can be designed with at least twice the step height. The spiral staircase disc can have an at least approximately average gradient per revolution of a maximum of one twentieth of the radius of the spiral staircase disc.

Vorzugsweise kommt auf der Wendeltreppenscheibe nur die Fläche einer Stufe, beziehungsweise eines Sektors in den optischen Strahlengang zu einem Zeitpunkt zur Wirkung. Es ist aber auch möglich, daß mehrere Sektorenflächen, wenn diese sehr schmal ausgeführt sind, im optischen Strahlengang zur Wir­ kung kommen. In diesem Fall detektieren die Bereiche eines Empfänger-Arrays zu unterschiedlichen Zeiten Signalwerte von verschiedenen Sektorenflächen.Preferably, only the area of one step or one comes on the spiral staircase disc Sector in the optical beam path at a time to effect. But it is also possible that several sector surfaces, if they are very narrow, in the optical beam path to the we come. In this case, the areas of a receiver array detect different ones Times signal values from different sector areas.

So kann der mittlere geometrisch-optische Abstand eines strukturierten Array, die Gegenstandsweite, dem jeweils eine Strahlungsquelle zugeordnet ist, vom zugeordneten Beleuchtungsobjektiv bei der Rotati­ on der Wendeltreppenscheibe sehr schnell, hochgenau und vorbestimmt durch die geometrisch-optische Weglängenänderung durch die Stufenwirkung verändert werden. The mean geometric-optical distance of a structured array, the object distance, which is assigned a radiation source, from the assigned lighting lens at the Rotati on the spiral staircase disc very quickly, with high precision and predetermined by the geometrical-optical Path length change can be changed by the step effect.  

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Wendel­ treppenscheibe als ein in sich hochstabiler Körper aus gebildet sein und die Sektorenflächen der transpa­ renten Platten auf einer Seite der Wendeltreppenscheibe können in einer gemeinsamen Ebene liegen und so eine Fläche bilden. So kann die geometrisch-optische Weglänge der transparenten Platten den Stufe zu Stufe vorbestimmt verändert werden, indem vorzugsweise verschieden dicke, transparente Platten gebildet sind.In addition, in the case of an arrangement for 3D recording of object surfaces in a scene, the helix stair disc as a highly stable body and the sector surfaces of the transpa annuity panels on one side of the spiral staircase disc can lie in a common plane and form such a surface. So the geometric-optical path length of the transparent plates can be the step can be changed in a predetermined manner by preferably transparent plates of different thicknesses are formed.

So kann der mittlere geometrisch-optische Abstand, die Gegenstandsweite, eines strukturierten Array dem jeweils eine Strahlungsquelle und das Beleuchtungsobjektiv zugeordnet ist, vom zugeordneten Be­ leuchtungsobjektiv bei der Rotation der Wendeltreppenscheibe sehr schnell, hochgenau und vorbestimmt durch die geometrisch-optische Weglängenänderung durch die verschieden dicken transparenten Platten verändert werden.So the mean geometric-optical distance, the object distance, of a structured array which is assigned a radiation source and the illumination lens by the assigned Be lighting lens when rotating the spiral staircase disc very quickly, highly precisely and predetermined due to the geometric-optical path length change due to the different thickness of the transparent plates to be changed.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene in den Stu­ fenflächen der vollflächigen Wendeltreppenscheibe je ein weiterer transparenter und unstrukturierter Sektorenbereich für den Abbildungsstrahlengang angeordnet sein.Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the stu The surface of the full-surface spiral staircase pane is another transparent and unstructured one Sector area can be arranged for the imaging beam path.

So kann für den Abbildungsstrahlengang ebenfalls sehr schnell und auch synchron sowie hochgenau und vorbestimmt eine geometrisch-optische Weglängenänderung im Zeitbereich ΔtB realisiert werden und so können bei zumindest näherungsweise baugleicher Ausführung, paralleler Achslage und entsprechender Justierung sowohl der Beleuchtungsstrahlengang als auch der Abbildungsstrahlengang auf die jeweils gleiche Schärfeebene fokussiert sein. Die Rotationsbewegung der Wendeltreppenscheibe wird so mit dem Auslesen der Elemente des Empfänger-Array synchronisiert, daß in der Integrationszeit beispielsweise einer Matrixkamera eine bewegte Segmentfläche die Fläche der Matrixkamera vollständig überdeckt, wo­ bei die Segmentfläche größer als die Fläche der Matrixkamera ist. Es ist jedoch auch eine gesteuerte teil­ weise Überdeckung möglich. In diesem Fall können die Elemente der Matrixkamera zeilenweise oder in Gruppen von Zeilen ausgelesen werden.For example, a geometrical-optical path length change in the time range Δt B can also be implemented very quickly and also synchronously as well as highly precisely and for the imaging beam path, and with an at least approximately identical design, parallel axis position and corresponding adjustment, both the illumination beam path and the imaging beam path can be adapted to the respective same focus level. The rotational movement of the spiral staircase disc is synchronized with the reading of the elements of the receiver array in such a way that, during the integration time, for example a matrix camera, a moving segment surface completely covers the surface of the matrix camera, where the segment surface is larger than the surface of the matrix camera. However, a controlled partial coverage is also possible. In this case, the elements of the matrix camera can be read out line by line or in groups of lines.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk­ turierten Arrays auf den Stufenflächen der zugehörigen Platten in der Art eines als Tangentialgitters auf­ gebracht sein. So kann über der Rotation der Scheibe eine nur vergleichsweise geringe oder gar keine Phasenänderung in einem Feld eines strukturiert leuchtenden Arrays erzeugt werden.Furthermore, the structure of an arrangement for 3D recording of object surfaces in a scene tured arrays on the step surfaces of the associated plates in the manner of a tangential grid be brought. Thus, only a comparatively small amount or none at all can be achieved over the rotation of the disk Phase change can be generated in a field of a structured illuminated array.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk­ turierten Arrays auf den Stufenflächen der zugehörigen Platten der Wendeltreppenscheibe in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht sein und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet sein. So kann die Phase von einem Signal, welches aus einem Feld eines strukturiert leuchtenden Arrays bei der Rotation innerhalb eines Zeitintervalls gewonnen wird, beispielsweise des Zeitintervalls der Inte­ gration zumindest eines Bereiches des Empfänger-Arrays, beispielsweise einer Zeile, konstant gehalten werden.Furthermore, the structure of an arrangement for 3D recording of object surfaces in a scene tured arrays on the step surfaces of the associated plates of the spiral staircase disc in the manner of a Grid be applied with equidistant concentric circles and the center of the concentric Circles at least approximately assigned to the axis of rotation of an arranged precision bearing be. So the phase of a signal, which consists of a field of a structured luminous array is obtained during the rotation within a time interval, for example the time interval of the inte at least a region of the receiver array, for example a line, kept constant  will.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Gitter mit äquidistanten konzentrischen Kreisen von Stufenflächen zu Stufenflächen der Wendeltreppenscheibe einen Sprung in der Struktur dieses Gitter in radialer Richtung in der Art eines Phasensprunges aufwei­ sen. So besteht die Möglichkeit, die Phasenlage bei der Rotation der Wendeltreppenscheibe im Beleuch­ tungsstrahlengang in definierten Schritten zu verändern.Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, the grating with equidistant concentric circles from step surfaces to step surfaces of the spiral staircase disc a jump in the structure of this grating in the radial direction in the manner of a phase jump sen. So it is possible to illuminate the phase position during the rotation of the spiral staircase disc to change the beam path in defined steps.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase von Stufenfläche zu Stufenfläche der Wendeltreppenscheibe einem ganzzahligen Vielfachen eines Viertels der mittleren Gitterkonstanten des Gitters betragen. So können bekannte Phasen- Auswerte-Algorithmen eingesetzt werden, die vorzugsweise mit einem ganzzahligen Vielfachen von 90° arbeiten, wobei der Wert von 90° eingeschlossen ist.Furthermore, the jump can be made in an arrangement for 3D recording of object surfaces in a scene an integral multiple in the phase from step surface to step surface of the spiral staircase disc a quarter of the mean lattice constant of the lattice. Known phase Evaluation algorithms are used, preferably with an integer multiple of 90 ° work with the value of 90 ° included.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase von Stufenfläche zu Stufenfläche der Wendeltreppenscheibe einem Dreiviertel der mittleren Gitterkonstanten des Gitters betragen. So können bekannte Sub-Nyquist-Phasen-Auswerte-Algorithmen eingesetzt werden, die insgesamt weniger Stützstellen benötigen.Furthermore, the jump can be made in an arrangement for 3D recording of object surfaces in a scene in the phase from step surface to step surface of the spiral staircase disc three-quarters of the middle Lattice constants of the lattice. Known sub-Nyquist phase evaluation algorithms can be used in this way can be used that require fewer support points overall.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf den Stufenflächen der Wendeltreppenscheibe zumindest in Teilbereichen auf der planen Fläche der Wendel­ treppenscheibe ein Referenzgitter aufgebracht sein. So kann die Rotation und die aktuelle Winkellage der Wendeltreppenscheibe gemessen werden.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the Step surfaces of the spiral staircase disc at least in some areas on the flat surface of the spiral stair pane a reference grid can be applied. So the rotation and the current angular position of the Spiral staircase can be measured.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe­ renzgitter auf der planen Fläche der Wendeltreppenscheibe zumindest näherungsweise eine Radialstruk­ tur aufweisen. So kann die Rotation und die aktuelle Winkellage der Wendeltreppenscheibe hochgenau gemessen werden.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the ref border grid on the flat surface of the spiral staircase disc at least approximately a radial structure have tur. The rotation and the current angular position of the spiral staircase can thus be highly precise be measured.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe­ renzgitter zumindest näherungsweise eine Radialstruktur mit einer cos2-Transparenz-Verteilung und eine Ortsfrequenz aufweisen, die vorzugsweise der Ortsfrequenz entspricht, die aus der mittleren Phasenän­ derung des strukturierten Arrays auf einer konzentrischen Bahn der Wendeltreppenscheibe über dem Vollkreis resultiert. So kann mittels geeignetem optoelektronischem Zubehör und Auswerte-Modulen ein cos2-ähnliches Signal als Referenzsignal gewonnen werden, in welches der detektierte Signalverlauf, der zumindest näherungsweise ein cos2-Signal darstellen kann, phasenmäßig eingepaßt werden kann.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the reference grid can at least approximately have a radial structure with a cos 2 transparency distribution and a spatial frequency that preferably corresponds to the spatial frequency resulting from the average phase change of the structured array a concentric path of the spiral staircase disc over the full circle results. For example, a cos 2 -like signal can be obtained as a reference signal by a suitable optoelectronic equipment and analysis modules, in which the detected waveform of the at least approximately can be a cos2 signal can be fitted in phase.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene, daß an der vollflächigen Wendeltreppenscheibe mindestens eine Referenzmarke aufgebracht sein. Beispielsweise kann die Referenzmarke am Ort des maximalen geometrisch-optischen Abstandes der leuchtenden Flä­ chenelemente FEL von der zugeordneten Brennebene des Beleuchtungsobjektivs aufgebracht sein, bei­ spielsweise auch am Umfang oder auf der planen Fläche. Dann beginnt an der Referenzmarke das Ein­ zählen von Impulsen in einen Zähler und gleichzeitig detektieren die Elemente des Empfänger-Arrays vor­ zugsweise periodische Signale mit einer Modulation und ein Signal mit einem Maximum, wenn sich ein Oberflächenelement im Schärfevolumen des Bildes eines leuchtenden Flächenelementes FELj und gleichzeitig im Schärfevolumen des Bildes eines Elementes des Empfänger-Arrays befindet. Der Impuls, der dem Ort des absoluten Signalmaximums entspricht, wird zur Berechnung der zO-Position benutzt.Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, at least one reference mark can be applied to the full-surface spiral staircase disc. For example, the reference mark can be applied at the location of the maximum geometric-optical distance of the luminous surface elements FEL from the assigned focal plane of the illumination lens, for example also on the circumference or on the flat surface. Then counting of pulses into a counter begins at the reference mark and at the same time the elements of the receiver array preferably detect periodic signals with a modulation and a signal with a maximum if there is a surface element in the sharpness volume of the image of a luminous surface element FELj and at the same time located in the focus volume of the image of an element of the receiver array. The pulse corresponding to the location of the absolute signal maximum is used to calculate the z O position.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf den gleichflächigen Stufenflächen der Platten je ein weiterer lichtdurchlässiger Teilbereich für den Abbil­ dungsstrahlengang mit einem Farbfilter angeordnet sein. Dieser lichtdurchlässige Teilbereich kann als Farbfilter und vorzugsweise auch einen Farbteiler aufweisen, wobei vorzugsweise die Anteile der ge­ wünschten Farbe transmittieren. So kann ein Filterrad gebildet sein und eine Farbfilterung des Lichtes von den Elementen der Objektoberflächen in einer Szene realisiert und so die Farbinformation gewonnen werden.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the step surfaces of the panels with the same surface each have a further translucent section for the illustration be arranged with a color filter. This translucent section can be used as Color filters and preferably also have a color divider, preferably the proportions of ge desired color to transmit. A filter wheel can be formed and color filtering of the light from realized the elements of the object surfaces in a scene and thus obtained the color information will.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene in jedem Sektor der vollflächigen Wendeltreppenscheibe mindestens eine Referenzmarke aufgebracht sein. Da­ durch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächen 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880elemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, at least one reference mark can be applied in each sector of the full-surface spiral staircase disc. As a result of this, at least at a point in time t i in a time range Δt i in a time range Δt B, the luminous surfaces 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880 elements FEL move at least approximately on a path parallel to a straight line g AP .

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Sekto­ ren eine geringere Ausdehnung in tangentialer Verschiebungsrichtung aufweisen als die Ausdehnung des Empfänger-Arrays und so vorzugsweise das Empfänger-Array streifenweise ausgelesen wird. Die strei­ fenweise Auslesung, im speziellen sogar die zeilenweise Auslesung, ermöglicht eine hohe Anzahl von Segmenten. Dadurch ist gegebenenfalls eine Verringerung der Umfangsgeschwindigkeit der Wendeltrep­ penscheibe möglich. So wird für die Wendeltreppenscheibe der stetige Fall angenähert. Durch das An­ wenden von Auftragetechniken für die Segmente der Wendeltreppenscheibe können Dickenzuwächsen z. B in 5 µm-Schritten von Segment zu Segment einer Platte realisiert werden.Furthermore, in the case of an arrangement for the 3D recording of object surfaces in a scene, the sectos ren have a smaller extent in the tangential displacement direction than the extent of the Receiver arrays and so preferably the receiver array is read out in strips. The streak Reading out, in particular even reading out in rows, enables a high number of Segments. This may reduce the peripheral speed of the spiral repeater pen disk possible. So the steady case is approximated for the spiral staircase disc. By the An Applying application techniques for the segments of the spiral staircase disc can increase thickness e.g. B in 5 µm steps from segment to segment of a plate.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene gleichflä­ chige Stufenflächen mit der Anzahl 2 Exponent n auf der vollflächigen Wendeltreppenscheibe angeordnet sein. Dies ist für die schnelle numerische Auswertung oft von Vorteil.Furthermore, with an arrangement for 3D recording of object surfaces in a scene, step surfaces with the number 2 exponents n arranged on the full-surface spiral staircase disc be. This is often an advantage for quick numerical evaluation.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als ein Flügelrad mit Flügeln in Form transparenter Platten-Sektoren unterschiedlicher geome­ trisch-optischer Dicke ausgebildet sein. Durch eine Ausführung der Scheibe in Kunststoff ist so eine Low­ cost-Realisierung möglich. Ein auftretender Axialschlag kann gegebenenfalls im Elastizitätsbereich der Scheibe ausgeregelt werden. Es können dazu magnetische, elektrostatische, elektromagnetische Kraft­ wirkungen zur Anwendung kommen.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, they can rotate de Disc as an impeller with blades in the form of transparent plate sectors of different geome be designed optical-optical thickness. Due to the plastic disc being so low cost realization possible. An axial impact can occur in the elastic range of the Disc be corrected. Magnetic, electrostatic, electromagnetic force can be used effects apply.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als ein Flügelrad mit Flügeln in Form transparenter Platten-Sektoren unterschiedlicher geome­ trisch-optischer Dicke ausgebildet sein. Die Platten können dabei Planparallelplatten darstellen. Es kann die geometrische Dicke von Flügel zu Flügel verändert sein. Möglich ist auch der Einsatz unterschiedli­ cher Brechungsindizes für den Optikwerkstoff. So kann eine geometrisch-optischen Weglängenänderung im Beleuchtungsstrahlengang und für die leuchtenden Flächenelemente eine axiale Gegenstandsver­ schiebung erreicht werden.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, they can rotate de Disc as an impeller with blades in the form of transparent plate sectors of different geome  be designed optical-optical thickness. The plates can represent plane-parallel plates. It can the geometric thickness may vary from wing to wing. It can also be used in different ways refractive indices for the optical material. For example, a geometric-optical path length change an axial object ver in the illuminating beam path and for the luminous surface elements shift can be achieved.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als Keilscheibe ausgebildet sein. So kann ebenfalls eine geometrisch-optische Weglängenän­ derung im Beleuchtungsstrahlengang und für das auf die Taumelscheibe aufgebrachte strukturierte Array eine axiale Gegenstandsverschiebung erreicht werden. Im Abbildungsstrahlengang kann so eine axiale Bildverschiebung für die abgebildeten Elemente der mindestens einen Objektoberfläche realisiert werden.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, they can rotate de disc be designed as a wedge disc. A geometric-optical path length can also be used change in the illumination beam path and for the structured array applied to the swashplate an axial object shift can be achieved. An axial Image shift for the imaged elements of the at least one object surface can be realized.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ rierte Array auf der Oberfläche einer Keilscheibe mit einer planen Unterfläche ausgebildet sein, wobei vor­ zugsweise jedoch nur ein Teilbereich der Keilscheibe als strukturiertes Array zur Anwendung kommt und der Keilscheibe eine rotatorische Präzisionslagerung mit einer Drehachse mit einem rotatorischen Präzisi­ onsmotor zugeordnet ist. So kann das strukturiertes Array auf einer Planfläche aufgebracht sein. Dies ist für dessen Herstellung vorteilhaft.Furthermore, the structure can be in an arrangement for 3D recording of object surfaces in a scene rated array on the surface of a wedge plate with a flat lower surface, being in front however, preferably only a partial area of the wedge disk is used as a structured array and the wedge disc has a rotary precision bearing with an axis of rotation with a rotary precision onsmotor is assigned. The structured array can thus be applied to a flat surface. This is advantageous for its manufacture.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Keil­ scheibe als transparenter Körper ausgebildet ist und eine Fläche der Keilscheibe senkrecht zur Drehach­ se ausgebildet sein. Dies ist für die Justierung der 3D-Aufnahme-Anordnung und zur Vermeidung eines variablen lateralen Versatzes bei der Rotation der Scheibe von Vorteil.Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, the wedge disc is formed as a transparent body and a surface of the wedge disc perpendicular to the axis of rotation be trained. This is for the adjustment of the 3D recording arrangement and to avoid one variable lateral offset when rotating the disc is an advantage.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Keil­ scheibe eine Dickenänderung von maximal einem Zwanzigstel des Radius' der Keilscheibe aufweisen, wobei jedoch vorzugsweise nur ein Ausschnitt der Keilscheibe als strukturiertes Array zur Anwendung kommt.Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, the wedge disc have a change in thickness of at most one twentieth of the radius of the wedge disc, however, preferably only a section of the wedge disk is used as a structured array is coming.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene ein Refe­ renzgitter auf der vollflächigen Keilscheibe zumindest näherungsweise eine Radialstruktur aufweisen. Diese kann optisch hochgenau erfaßt werden und zur Bestimmung eines Referenzwertes, beispielsweise als Referenzphase verwendet werden.Furthermore, with an arrangement for 3D recording of object surfaces in a scene, a ref border grid on the full-surface wedge plate at least approximately have a radial structure. This can be detected optically with high precision and for determining a reference value, for example can be used as a reference phase.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der voll­ flächigen Keilscheibe mindestens eine Referenzmarke aufgebracht sein. Diese kann optisch hochgenau erfaßt werden und zur Bestimmung eines absoluten Wertes der Referenzphase verwendet werden.Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the full flat wedge disk at least one reference mark can be applied. This can be optically highly accurate be detected and used to determine an absolute value of the reference phase.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Keil­ scheibe mehrere strukturierte Arrays in einzelnen Sektoren aufgebracht sind. Diese strukturierte Arrays werden beleuchtet bei der Rotation der Scheibe nacheinander vom Beleuchtungsobjektiv in den Objek­ traum abgebildet.Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the wedge  multiple structured arrays are applied in individual sectors. This structured arrays are illuminated one after the other when the disc rotates from the illumination lens into the object pictured dream.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk­ turierten Arrays in der Art eines Tangentialgitters aufgebracht sein. Diese strukturierte Arrays in der Art eines Tangentialgitters ermöglichen auch bei einer vergleichsweise hohen Drehgeschwindigkeit eine ver­ gleichsweise geringe Veränderung der Phase.Furthermore, the structure of an arrangement for 3D recording of object surfaces in a scene tured arrays can be applied in the manner of a tangential grid. This structured arrays in style of a tangential grid enable a ver even at a comparatively high rotational speed equally small change in phase.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die einzel­ nen Tangentialgitter von Sektor zu Sektor einen Sprung in der Gitterstruktur in radialer Richtung in der Art eines Phasensprunges aufweisen. So kann die für die Auswertung benötigte Veränderung der Phase im Signalverlauf realisiert werden.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the individual a tangential grid from sector to sector a jump in the grid structure in the radial direction of the type have a phase jump. Thus, the change in the phase required for the evaluation in the Signal course can be realized.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase von Sektor zu Sektor ein Viertel der Periode des Tangentialgitters betragen.Furthermore, the jump can be made in an arrangement for 3D recording of object surfaces in a scene be a quarter of the period of the tangential grid in the phase from sector to sector.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als Taumelscheibe ausgebildet sein.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, they can rotate de disc be designed as a swash plate.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ rierte Array auf der Oberfläche eines Teilbereiches einer Taumelscheibe mit einem Taumelschlag und mit einer planen Unterfläche ausgebildet sein. Auch ein Taumelschlag erzeugt bei der Rotation einer Scheibe eine geometrisch-optische Weglängenänderung für das auf die Taumelscheibe aufgebrachte strukturierte Array somit eine axiale Gegenstandsverschiebung bei der Abbildung desselben.Furthermore, the structure can be in an arrangement for 3D recording of object surfaces in a scene array on the surface of a portion of a swashplate with a wobble stroke and with be formed on a flat lower surface. A wobble also creates when a disc rotates a geometric-optical path length change for the structured one applied to the swashplate Array thus an axial object shift when imaging it.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Taumel­ scheibe als vollflächige Scheibe und als transparenter Körper ausgebildet sein.Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the wobble be designed as a full-surface pane and as a transparent body.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Axial­ schlag der Taumelscheibe maximal ein Zwanzigstel des Radius der Taumelscheibe aufweisen, wobei vor­ zugsweise jedoch nur ein Ausschnitt der Taumelscheibe als strukturiertes Array zur Anwendung kommt.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the axial Impact the swash plate have a maximum of one twentieth of the radius of the swash plate, whereby before however, preferably only a section of the swashplate is used as a structured array.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zumindest auf einem Teilbereich der Taumelscheibe ein strukturiertes Array aufgebracht sein.Furthermore, with an arrangement for 3D recording of object surfaces in a scene, at least a structured array can be applied to a partial area of the swashplate.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ rierte Array als Gitter in der Art einer Archimedischen Spirale mit mindestens einem Gang aufgebracht sein.Furthermore, the structure can be in an arrangement for 3D recording of object surfaces in a scene arrayed as a lattice in the manner of an Archimedean spiral with at least one passage  be.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Taumelscheibe zumindest in Teilbereichen ein Referenzgitter aufgebracht sein.Furthermore, in an arrangement for 3D recording of object surfaces in a scene on the Swashplate a reference grid can be applied at least in partial areas.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe­ renzgitter auf der Taumelscheibe zumindest näherungsweise eine Radialstruktur aufweisen.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the ref border grid on the swash plate at least approximately have a radial structure.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der voll­ flächigen Taumelscheibe mindestens eine Referenzmarke aufgebracht sein.Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the full flat swashplate at least one reference mark can be applied.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Taumelscheibe mehrere strukturierte Array in einzelnen Segmenten aufgebracht sein.Furthermore, in an arrangement for 3D recording of object surfaces in a scene on the Swashplate multiple structured array can be applied in individual segments.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk­ turierten Arrays in der Art eines Tangentialgitters aufgebracht sein.Furthermore, the structure of an arrangement for 3D recording of object surfaces in a scene tured arrays can be applied in the manner of a tangential grid.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Tan­ gentialgitter von Sektor zu Sektor einen Sprung in der Struktur in der Art eines Phasensprunges aufwei­ sen.Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the tan potential grid from sector to sector has a jump in the structure in the manner of a phase jump sen.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase mindestens einen ganzzahligen Teil von einem Viertel der Periode des Tangentialgit­ ters betragen.Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, the Jump in the phase at least an integer part of a quarter of the period of the tangential grid ters.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Taumelscheibe mehrere strukturierte Array in einzelnen Sektoren in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht sein, wobei vorzugsweise der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet ist und vorzugsweise die Gitterstruktur von Sektor zu Sektor in radialer Richtung einen Sprung in der Art eines Phasensprunges aufweist und der Sprung in der Phase von Sektor zu Sektor ein ganzzahliges Vielfaches eines Viertels der mittleren Gitterkonstanten des Gitters beträgt. Dadurch wird erreicht, daß sich zumin­ dest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenele­ mente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Furthermore, in an arrangement for 3D recording of object surfaces in a scene on the swashplate, a plurality of structured arrays can be applied in individual sectors in the manner of a grid with equidistant concentric circles, the center of the concentric circles preferably being assigned at least approximately to the axis of rotation of an arranged precision bearing and preferably the grid structure from sector to sector has a jump in the manner of a phase jump in the radial direction and the jump in phase from sector to sector is an integral multiple of a quarter of the mean grid constant of the grid. It is thereby achieved that at least at a point in time ti in a time range Δti in a time range Δt B the luminous area elements FEL move at least approximately over a distance parallel to a straight line g AP .

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als Schraubenfläche ausgebildet sein.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, they can rotate de disk be designed as a screw surface.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das rotati­ onssymmetrisches Transmissionsgitter auf einer Schraubenfläche einer beleuchteten, rotierenden Schei­ be mit maximal einem Gang, also mit einem Kreisausschnitt von maximal 360° ausgebildet sein, und so mindestens einen Absatz aufweisen, und das rotatorische Transmissionsgitter kann als Schraubenfläche eine Steigung pro Umdrehung von maximal einem Zehntel des Durchmessers der beleuchteten, rotieren­ den Scheibe aufweisen, wobei vorzugsweise jedoch nur ein Ausschnitt des Transmissionsgitters als strukturiertes Array im Beleuchtungsstrahlengang zur Anwendung kommen. Dabei kann der Absatz vor­ zugsweise einen zumindest näherungsweise radialen Verlauf aufweisen.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the rotati asymmetrical transmission grating on a screw surface of an illuminated, rotating disc be designed with a maximum of one gear, ie with a circular section of a maximum of 360 °, and so  have at least one shoulder, and the rotary transmission grid can be used as a screw surface an incline per revolution of a maximum of one tenth of the diameter of the illuminated, rotate have the pane, but preferably only a section of the transmission grating as structured array are used in the illumination beam path. The paragraph can precede preferably have an at least approximately radial course.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Steigung der Schraubenfläche und die Anzahl der Gänge der Spirale in der Schraubenfläche so gewählt werden, daß bei der Drehung der schraubenförmigen Gitterfläche die leuchtenden Flächenelementen FEL sich auf Verschiebungsstrecken VSAj befinden, die vorzugsweise zumindest näherungsweise parallel zu einer Ge­ raden gA angeordnet sind.Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, the pitch of the screw surface and the number of turns of the spiral in the screw surface can be selected such that when the helical grid surface rotates, the luminous surface elements FEL are located on displacement paths VS Aj , which are preferably arranged at least approximately parallel to a straight line g A.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem rotati­ onssymmetrischen Transmissionsgitter auf einer Schraubenfläche zur Bestimmung der Referenzphase eine Baugruppe mit einem Laser und einem Kollimator zugeordnet sein und mindestens eine feine Markie­ rung als Referenzmarke auf der Schraubenfläche aufgebracht sein, wobei der Baugruppe vorzugsweise ein Gitter mit einer Teilungskonstanten, welche beispielsweise dem mittleren Abstand der leuchtenden Flächenelemente FEL entsprechen kann, nachgeordnet ist.Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the rotati Onsymmetric transmission grating on a screw surface to determine the reference phase an assembly with a laser and a collimator can be assigned and at least one fine marker tion as a reference mark on the screw surface, the assembly preferably a grating with a division constant, which, for example, the mean distance of the luminous Area elements can correspond to FEL, is subordinate.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Schraubenfläche mehrere strukturierte Array in einzelnen Sektoren in der Art eines Gitters mit äquidistan­ ten konzentrischen Kreisen aufgebracht sein und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet sein die Gitterstruktur von Sektor zu Sektor in radialer Richtung einen Sprung in der Art eines Phasensprunges aufweisen und der Sprung in der Phase von Sektor zu Sektor vorzugsweise ein ganzzahliges Vielfaches eines Viertels der mittleren Gitterkonstanten des Gitters beträgt. Um bei Rotation der Schraubenfläche die Referenzpha­ se hochgenau zu bestimmen und die dabei auftretenden unterschiedlichen Abstände auszugleichen zu können, wird mittels einem Laser und einem nachgeordnetem Kollimator eine Planwelle erzeugt. Diese trifft entweder auf ein ebenfalls miniaturisiertes Interferometer oder ein Gitter mit einer Teilungskonstan­ ten, welche beispielsweise dem mittleren Abstand der leuchtenden Flächenelemente FEL entspricht. So kann in der Gitterebene des rotationssymmetrischen Transmissionsgitters als Schraubenfläche eine strukturierte Beleuchtung mit einer bei der Drehung dieses Transmissionsgitters in der Tiefe nicht ver­ schwindender Struktur erzeugt werden. Die aktuelle relative Referenzphase kann dabei durch die Auswer­ tung von Licht in Transmission bestimmt werden. Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumin­ dest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Furthermore, in an arrangement for 3D recording of object surfaces in a scene on the screw surface, several structured arrays can be applied in individual sectors in the manner of a grid with equidistant concentric circles and the center of the concentric circles can be assigned at least approximately to the axis of rotation of an arranged precision bearing the grid structure from sector to sector has a jump in the manner of a phase jump in the radial direction and the jump in phase from sector to sector is preferably an integer multiple of a quarter of the mean grid constant of the grid. In order to determine the reference phase with high precision while rotating the screw surface and to be able to compensate for the different distances that occur, a plane shaft is generated by means of a laser and a downstream collimator. This either meets a miniaturized interferometer or a grating with a division constant which corresponds, for example, to the mean distance between the luminous surface elements FEL. In the grating plane of the rotationally symmetrical transmission grating, structured lighting can be generated as a screw surface with a structure that does not disappear in the depth when this transmission grating rotates. The current relative reference phase can be determined by evaluating light in transmission. It is thereby achieved that at least at a point in time ti in a time range Δti in a time range Δt B the luminous surface elements FEL move at least approximately along a distance parallel to a straight line g AP .

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene im Beleuch­ tungsstrahlengang dem Beleuchtungsobjektiv ein bewegliches Keilprisma aus einem transparenten opti­ schen Werkstoff und diesem ein gleichwinkliges, feststehendes Kompensationsprisma aus einem transpa­ renten optischen Werkstoff zugeordnet sein. Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, they can be illuminated beam path to the lighting lens, a movable wedge prism made of a transparent opti material and this is an equilateral, fixed compensation prism from a transpa pension optical material.  

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf dem Keilprisma ein strukturiertes Array aufgebracht sein und dem Keilprisma eine Linearführung mit einem Li­ nearmotor zugeordnet sein, wobei und auch im Abbildungsstrahlengang ein bewegliches Keilprisma aus einem transparenten optischen Werkstoff und diesem ein gleichwinkliges, feststehendes Kompensati­ onsprisma dem Abbildungsobjektiv zugeordnet sein kann. Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Furthermore, in an arrangement for 3D recording of object surfaces in a scene, a structured array can be applied to the wedge prism and a linear guide with a linear motor can be assigned to the wedge prism, with and also in the imaging beam path a movable wedge prism made of a transparent optical material and this one equiangular, fixed compensation prism can be assigned to the imaging lens. It is thereby achieved that at least at a point in time ti in a time range Δti in a time range Δt B the luminous surface elements FEL move at least approximately over a distance parallel to a straight line g AP .

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf dem beweglichem Keilprisma ein Referenzgitter mit einer Referenzmarke aufgebracht sein und eine Lichtquelle und ein opto-elektronisches Auswertemodul dem Referenzgitter zugeordnet sein.Furthermore, in an arrangement for 3D recording of object surfaces in a scene on the a movable wedge prism, a reference grid with a reference mark and a light source and an optoelectronic evaluation module can be assigned to the reference grid.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene für ein be­ wegtes Keilprisma im Beleuchtungsstrahlengang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv dessen axiale Gegenstandsweite vorzugsweise jeweils entsprechend der folgenden Bedingung
Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene for a moving wedge prism in the illumination beam path when the structured luminous array is imaged by the illumination lens, the axial object width thereof is preferably in each case in accordance with the following condition

|(Δϕ.p)/(2π.zAG)| = |d/fB|
| (Δϕ.p) / (2π.z AG ) | = | d / f B |

zumindest näherungsweise verändert werden und die leuchtenden Flächenelemente FEL so auf Strecken BSAj zumindest näherungsweise parallel zu einer Geraden gAP verschoben werden.are changed at least approximately and the luminous surface elements FEL are thus shifted at least approximately parallel to a line g AP on lines BS Aj .

Dabei bedeuten der linke Term die Phasenänderung Δϕ des strukturiert leuchtenden Arrays, bezogen auf die Änderung der geometrisch-optischen Weglänge ΔzAG im Strahlengang in Richtung der optischen Ach­ se, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenele­ mentes FELj des strukturiert leuchtenden Arrays bei der Bewegung des Keilprismas und p die Gitterkon­ stante des strukturiert leuchtenden Arrays und fB die Brennweite des Beleuchtungsobjektivs und d den Abstand des Pupillenzentrums des Beleuchtungsobjektivs im Objektraum vom Pupillenzentrums des Ab­ bildungsobjektivs im Objektraum. Der in Lichtrichtung veränderliche Ort des strukturiert leuchtenden Ar­ rays auf dem Keilprisma kann sowohl durch eine Dickenänderung des Keilprismas, aber auch durch eine Änderung des Brechungsindexes, aber auch durch deren Kombination verursacht sein.The left term means the phase change Δϕ of the structured luminous array, based on the change in the geometrical-optical path length Δz AG in the beam path in the direction of the optical axis, i.e. the axial optical object shift when imaging a luminous area element FELj of the structured luminous array with the movement of the wedge prism and p the lattice constant of the structured luminous array and f B the focal length of the illumination lens and d the distance of the pupil center of the illumination lens in the object space from the pupil center of the imaging lens in the object space. The location of the structured illuminated rays on the wedge prism, which changes in the direction of light, can be caused by a change in the thickness of the wedge prism, but also by a change in the refractive index, but also by their combination.

Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbe­ reich ΔtB die leuchtenden Flächenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.It is thereby achieved that the luminous surface elements FEL move at least approximately over a distance parallel to a straight line g AP at least at a point in time ti in a time range Δti in a time range Δt B.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene für eine ro­ tierende Scheibe oder Teile derselben im Beleuchtungsstrahlengang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv dessen axiale Gegenstandsweite vorzugsweise je­ weils entsprechend der folgenden Bedingung
Furthermore, in an arrangement for 3D recording of object surfaces in a scene for a rotating disk or parts thereof in the illumination beam path when the structured luminous array is imaged by the illumination lens, the axial object distance thereof is preferably in accordance with the following condition

|(Δϕ.p)/(2π.zAG)| = |d/fB|
| (Δϕ.p) / (2π.z AG ) | = | d / f B |

zumindest näherungsweise verändert werden und die leuchtenden Flächenelemente FEL so auf Strecken BSAj zumindest näherungsweise parallel zu einer Geraden gAP verschoben werden.are changed at least approximately and the luminous surface elements FEL are thus shifted at least approximately parallel to a line g AP on lines BS Aj .

Dabei bedeuten der linke Term die Phasenänderung Δϕ des strukturiert leuchtenden Arrays, bezogen auf die Änderung der geometrisch-optischen Weglänge ΔzAG im Strahlengang in Richtung der optischen Ach­ se, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenele­ mentes FELj des strukturiert leuchtenden Arrays bei der Rotation und p die Gitterkonstante des struktu­ riert leuchtenden Arrays und fB die Brennweite des Beleuchtungsobjektivs und d den Abstand des Pupil­ lenzentrums des Beleuchtungsobjektivs im Objektraum vom Pupillenzentrums des Abbildungsobjektivs im Objektraum.The left term means the phase change Δϕ of the structured luminous array, based on the change in the geometrical-optical path length Δz AG in the beam path in the direction of the optical axis, i.e. the axial optical object shift when imaging a luminous area element FELj of the structured luminous array with the rotation and p the lattice constant of the structured luminous array and f B the focal length of the illumination lens and d the distance of the pupil center of the illumination lens in the object space from the pupil center of the imaging lens in the object space.

Der in Lichtrichtung veränderliche Ort des strukturiert leuchtenden Arrays auf der rotierenden Scheibe kann sowohl durch eine Dickenänderung der rotierenden Scheibe, aber auch durch eine Änderung des Brechungsindexes, aber auch durch deren Kombination verursacht sein. Diese Beziehung gilt grundsätz­ lich sowohl für stetige als auch für segmentierte rotierende Scheiben. Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flä­ chenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.The location of the structured, luminous array on the rotating disk, which changes in the direction of light, can be caused not only by a change in the thickness of the rotating disk, but also by a change in the refractive index, but also by their combination. This relationship applies in principle to both continuous and segmented rotating disks. It is thereby achieved that at least at a point in time ti in a time range Δti in a time range Δt B the luminous surface elements FEL move at least approximately over a distance parallel to a straight line g AP .

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zur Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Emp­ fänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist, dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewegungssystem zugeordnet sein. Die resultierende Bewegungsrichtung des ersten Empfänger-Array kann dabei auf einer Strecke ASA1 auf dem ersten oberen Ast eines Buchstabens Y erfolgen und die Strecke ASA1 kann parallel zu einer Geraden gA1P liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet so daß sich die detek­ tierenden Elemente des erstes Empfänger-Arrays auf den Strecken ASA1j bewegen, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Die resultierende Bewegungsrichtung des zweiten Empfänger-Array kann auf einer Strecke ASA2 auf dem zweiten oberen Ast des Buchstabens Y erfolgen, und die Strecke ASA1 kann parallel zu einer Geraden gA2P liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet. So können sich die detektierenden Elemente des zweites Empfänger-Arrays auf den Strecken ASA1j bewegen, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Die Szene kann eine Freiraumszene sein.Furthermore, in an arrangement for 3D recording of object surfaces in a scene with two imaging beam paths with two at least approximately identical, parallel arranged imaging lenses, a first imaging lens and a second imaging lens, the main planes of the two imaging lenses being brought to coincidence and each one of them a receiver array is assigned with detecting elements, so that a first and a second receiver array with elements are arranged, to which at least one movement system is assigned, the first and the second receiver array are each assigned at least one movement system. The resulting direction of movement of the first receiver array can take place on a segment AS A1 on the first upper branch of a letter Y and the segment AS A1 can be parallel to a line g A1P , which on the one hand is the focal point of the first imaging lens in the array space intersects and on the other hand intersects the intersection point P A of the axis of symmetry SL between the two optical axes of the two imaging lenses through the coinciding main planes so that the detecting elements of the first receiver array move on the lines AS A1j , with part of the line of symmetry SL the lower Forms part of the letter Y. The resulting direction of movement of the second receiver array can take place on a line AS A2 on the second upper branch of the letter Y, and the line AS A1 can lie parallel to a line g A2P , which on the one hand is the focal point of the second imaging lens in the array space intersects and on the other hand intersects the intersection point P A of the axis of symmetry SL between the two optical axes of the two imaging lenses through the coinciding main planes. The detecting elements of the second receiver array can thus move on the paths AS A1j , with part of the line of symmetry SL forming the lower part of the letter Y. The scene can be an open space scene.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zu Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewegungssystem zugeordnet sein und die resultieren­ de Bewegungsrichtung des ersten Empfänger-Array auf einer Strecke ASA1 parallel zur optischen Achse des ersten Abbildungsobjektivs erfolgen, und genau die Elemente des ersten Empfänger-Arrays ausgele­ sen werden und aus diesen ein Signalverlauf gebildet werden, welche sich auf Strecken ASA1j befinden, die parallel zu einer Geraden gA1P liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs im Array-Raum schneiden und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebe­ nen schneiden. So entsprechen die zur Signalbildung verwendeten Elemente des erstes Empfänger-Array denen, welche sich auf Strecken ASA1j befinden, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet und die resultierende Bewegungsrichtung des zweiten Empfänger-Array kann auf einer Strecke ASA2 parallel zur optischen Achse des zweiten Abbildungsobjektivs erfolgen, wobei ge­ nau die Elemente des zweiten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet wird, welche sich auf Strecken ASA2j befinden, die parallel zu einer Geraden gA2P liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbil­ dungsobjektive durch die zusammenfallenden Hauptebenen schneidet. So entsprechen die zur Signalbil­ dung verwendeten Elemente des zweiten Empfänger-Array denen, welche sich auf Strecken ASA2j befin­ den, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Auch hier kann die Szene eine Freiraumszene sein.Furthermore, in an arrangement for 3D recording of object surfaces in a scene with two imaging beam paths with two at least approximately identical, parallel arranged imaging lenses, a first imaging lens and a second imaging lens, the main planes of the two imaging lenses being brought to coincidence and each one of them a receiver array with elements is assigned, so that a first and a second receiver array with elements are arranged, to which at least one movement system is assigned, the first and the second receiver array are each assigned at least one movement system and the resulting direction of movement of the first receiver array take place on a route AS A1 parallel to the optical axis of the first imaging lens, and exactly the elements of the first receiver array are read out and a signal curve is formed therefrom which are located on routes AS A1j which are parallel lel lie to a straight line g A1P , which on the one hand intersect the focal point of the first imaging lens in the array space and on the other hand intersect the intersection point P A of the axis of symmetry SL between the two optical axes of the two imaging lenses through the coinciding main planes. Thus, the elements of the first receiver array used for signal formation correspond to those which are located on lines AS A1j , part of the line of symmetry SL forming the lower part of the letter Y and the resulting direction of movement of the second receiver array can be found on a line AS A2 take place parallel to the optical axis of the second imaging lens, ge precisely the elements of the second receiver array are read out and from these a signal curve is formed, which are located on lines AS A2j , which are parallel to a straight line g A2P , which on the one hand Focal point of the second imaging lens in the array space intersects and on the other hand intersects the piercing point P A of the axis of symmetry SL between the two optical axes of the two imaging lenses through the coinciding main planes. Thus, the elements of the second receiver array used for signal formation correspond to those which are located on lines AS A2j , with part of the line of symmetry SL forming the lower part of the letter Y. Here, too, the scene can be a free space scene.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer transpa­ renten Platte, die vorzugsweise planparallel ausgeführt ist, mit einer vorbestimmten geometrisch­ optischen Dicke zugeordnet sein und auf der rotierenden Scheibe Referenzmarken aufgebracht sein, wo­ bei die optische Dicke der transparenten Platte stetig veränderlich sein kann. In den Referenzmarken ist die Information über die optische Dicke der transparenten Platte, welche gerade im Strahlengang vor ei­ nem Empfänger-Arrays angeordnet ist, enthalten.Furthermore, with an arrangement for 3D recording of object surfaces in a scene with two Imaging beam paths each receiver array a rotating disc with at least one transpa annuity plate, which is preferably carried out plane-parallel, with a predetermined geometric Optical thickness can be assigned and reference marks can be applied to the rotating disc, where the optical thickness of the transparent plate can be constantly changing. In the reference marks the information about the optical thickness of the transparent plate, which is currently in the beam path in front of the egg nem receiver arrays is included.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer transparenten Platte, die vorzugsweise planparallel ausgeführt ist, und jeder transparenten Platte eine vorbestimmten ortsabhängigen geome­ trisch-optischen Dicke zugeordnet sein und auf der rotierenden Scheibe mindestens eine Referenzmarke aufgebracht sein und so kann so die optische Dicke sich von transparenter Platte zu transparenter Platte vorherbestimmt verändert werden. In den Referenzmarken ist die Information über die optische Dicke der transparenten Platte, welche gerade im Strahlengang vor einem Empfänger-Arrays angeordnet ist, enthal­ ten. Dabei kann das Empfänger-Array mit einer Steuerung Länge und des Beginns der Integrationszeit in Teilbereichen ausgelesen werden, so daß Bereiche gleicher Dicke ohne Sprungstelle in der Platte ausge­ lesen werden können. So kann jeweils eine Stelle gleicher optische Dicke fast in der gesamten Verweilzeit vor einem zugeordneten Element des Empfänger-Arrays detektiert werden. Weiterhin ist es möglich, daß sich vor einem elektronisch steuerbaren Array eine rotierende Scheibe mit mehreren transparenten Platte mit einer vorbestimmten optischen Dicke befinden, die eine vorbestimmte optische Dicke aufweisen und sich die optische Dicke von Platte zu Platte ändert, wobei Referenzmarken angeordnet sind, welche die Information über aktuelle optische Dicke der jeweils optisch wirksamen transparenten Platte enthalten und die transparenten Platten zumindest näherungsweise als planparallele Platten ausgeführt sind.Furthermore, with an arrangement for 3D recording of object surfaces in a scene with everyone Receiver array a rotating disk with at least one transparent plate, which is preferred is executed plane-parallel, and each transparent plate has a predetermined location-dependent geome be assigned optical-optical thickness and at least one reference mark on the rotating disk be applied and so the optical thickness can vary from transparent plate to transparent plate be changed in a predetermined manner. The information about the optical thickness is in the reference marks Contain transparent plate, which is just arranged in the beam path in front of a receiver array Here, the receiver array with a control length and the start of the integration time in Partial areas are read out, so that areas of the same thickness without a jump point in the plate can be read. A spot of the same optical thickness can be used almost throughout the entire residence time be detected in front of an assigned element of the receiver array. It is also possible that in front of an electronically controllable array is a rotating disk with several transparent plates with a predetermined optical thickness, which have a predetermined optical thickness and the optical thickness changes from plate to plate, with reference marks being arranged which represent the  Contain information about the current optical thickness of the optically effective transparent plate and the transparent plates are at least approximately designed as plane-parallel plates.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zu Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, für fotografische 3D-Farb-Aufnahmen für die Gewinnung der 3D-Punktwolke zwischen jedem Abbildungsobjektiv und jedem Empfänger-Array je mindestens zwei gleichwinklige Pris­ men aus einem Optikwerkstoff mit vorzugsweise je einem gleichen Brechungsindex und vorzugsweise gleicher Dispersion angeordnet sein, die als Keilprismen bezeichnet werden, wobei je zwei Keilprismen ein Parallelstück mit einem parallelen Zwischenraum konstanter Dicke bilden. Die Strahlachse steht auf den äußeren Flächen des Parallelstückes jeweils senkrecht.Furthermore, in an arrangement for 3D recording of object surfaces in a scene with two Imaging beam paths with two at least approximately identical, parallel arranged images tion lenses, a first imaging lens and a second imaging lens, the Main levels of the two imaging lenses are brought to coincidence and each one of them Receiver array is associated with elements, so that a first and a second receiver array with Elements are arranged for photographic 3D color recordings for the extraction of the 3D point cloud Between each imaging lens and each receiver array at least two equal-angle pris men from an optical material, preferably with the same refractive index and preferably same dispersion, which are referred to as wedge prisms, two wedge prisms form a parallel piece with a parallel space of constant thickness. The beam axis stands up the outer surfaces of the parallel piece each perpendicular.

Dieser Zwischenraum konstanter Dicke wird vorzugsweise von den einander zugekehrten Innenflächen der beiden Keilprismen begrenzt. Der Zwischenraum ist vorzugsweise mit Luft ausgefüllt, kann aber auch mit einem transparenten Optikwerkstoff ausgefüllt sein, der vorzugsweise einen geringeren Brechungsin­ dex als die beiden gleichwinkligen Keilprismen aufweist. Durch die Dispersion können lateral verschobene Bilder in der Bildebene erzeugt werden. Durch Zuordnung einer Empfänger-Arrays mit zeilenweise aufge­ brachten Farbfiltern in den Farbbereichen rot grün blau kann der Farbwert eines jeden Objektpunktes zumindest näherungsweise vom gleichen Element der Objektoberfläche gewonnen werden. Dabei kann das feststehende Prisma als Fenster des Empfänger-Arrays angeordnet sein.This gap of constant thickness is preferably from the mutually facing inner surfaces of the two wedge prisms limited. The space is preferably filled with air, but can also be filled with a transparent optical material, which preferably has a lower refractive index dex as the two wedge prisms of equal angle. The dispersion can shift laterally Images are generated in the image plane. By assigning a receiver array with rows by row brought color filters in the color ranges red green blue can the color value of each object point at least approximately from the same element of the object surface. It can the fixed prism can be arranged as a window of the receiver array.

Weiterhin kann mindestens ein Keilprisma zumindest näherungsweise geradlinig verschoben werden, wo­ bei die Verschiebungsrichtung parallel zur inneren Fläche des verschobenen Keilprismas liegt und in je­ dem Fall eine Querkomponente zur Lichtausbreitungsrichtung enthält. Durch die Verschiebung des Keilprismas wird in jedem der beiden Abbildungsstrahlengänge die gleiche axiale Bildverschiebung in zA- Richtung erzeugt, so daß die korrespondierenden Pixel Informationen aus unterschiedlichen Tiefen des Objektraumes detektieren können. Beispielsweise können so 16 Bilder aus unterschiedlichen Tiefen des Objektraumes aufgenommen werden. Bei Aufnahmen von Objektoberflächen in der Szene mit der Einstel­ lung auf den Nahbereich kann synchron zur Aufnahme von Bildern eine Blitzlichtquelle die Objektoberflä­ chen in der Szene ausleuchten. So kann eine Bildfolge mit 16 Bildern mit 16 Einzelblitzen in 0,2 s aufge­ nommen werden. Eine höhere Blitzfrequenz ist grundsätzlich möglich. Dabei sendet die Blitzlichtquelle vorzugsweise kein strukturiertes Licht aus. Jedoch ist mit einer spezielle Blitzlichtquelle auch eine struktu­ rierte Beleuchtung möglich, jedoch sollte dann eine laterale Verschiebung der strukturierten Beleuchtung stattfinden, um zumindest näherungsweise die Elemente der Objektoberfläche gleichmäßig ausleuchten zu können.Furthermore, at least one wedge prism can be shifted at least approximately in a straight line, where the direction of displacement is parallel to the inner surface of the shifted wedge prism and in each case the case contains a transverse component to the direction of light propagation. By shifting the Wedge prism has the same axial image shift in zA- in each of the two imaging beam paths Direction generated so that the corresponding pixel information from different depths of the Can detect object space. For example, 16 images from different depths of the Object space are recorded. When shooting object surfaces in the scene with the setting a flash source can synchronize the object surface with the acquisition of images illuminate the scene. A picture sequence with 16 pictures with 16 single flashes can be created in 0.2 s be taken. A higher flash frequency is generally possible. The flash light source sends preferably no structured light. However, with a special flash source, there is also a structure dated lighting is possible, but then there should be a lateral shift of the structured lighting take place in order to at least approximately evenly illuminate the elements of the object surface to be able to.

Weiterhin kann zur Kompensation des anamorphotischen Effektes bei Keilprismen mit einem Winkel oberhalb von 5° ein zweites baugleiches Parallelstück mit einem gleichgestalteten Zwischenraum ange­ ordnet werden, welches um die Strahlachse um 90° gedreht wurde. Von den vier einzelnen Keilprismen können dabei die beiden inneren zu einen Monolithen vereinigt sein. Furthermore, to compensate for the anamorphic effect in wedge prisms with an angle Above 5 °, a second structurally identical parallel piece with a similarly designed space is attached ordered, which was rotated by 90 ° around the beam axis. Of the four individual wedge prisms the two inner ones can be combined to form a monolith.  

Weiterhin sind die Projektionen der Verschiebungsrichtungen der beiden äußeren Keilprismen auf die Au­ ßenfläche eines Parallelstückes vorzugsweise senkrecht zueinander ausgerichtet, wobei dei beiden äuße­ ren Keilprismen je eine oszillierende Bewegung mit einer 90°-Phasenverschiebung der Bewegung zuein­ ander ausführen können.Furthermore, the projections of the directions of displacement of the two outer wedge prisms onto the Au Outer surface of a parallel piece preferably aligned perpendicular to each other, the two outer wedge prisms each have an oscillating movement with a 90 ° phase shift of the movement others can do.

Die Auswertung der beispielsweise 16 Bilder erfolgt mittels des bereits genannten Korrelationsverfahren über die korrespondierenden Pixel durch die Bestimmung eines Korrelationsmaximums Mj. So kann von einer Standard-Szene die 3D-Punktwolke der Elemente der Objektoberflächen in der Szene, einschließ­ lich der Farbinformation durch die Auswertung der Farbwerte in den Bildern der Elemente der Objektober­ flächen, errechnet werden. Die Wiedergabe als 3D-Bild erfolgt nach einer automatischen oder einer inter­ aktiven Weiterverarbeitung der 3D-Punktwolke zu einem 3D-Flächen-Modell. Die Betrachtung der farbigen 3D-Flächen-Modell kann beispielsweise mittels eines digitalen 3D-Monitors erfolgen.The 16 images, for example, are evaluated by means of the correlation method already mentioned via the corresponding pixels by determining a correlation maximum M j . In this way, the 3D point cloud of the elements of the object surfaces in the scene, including the color information by evaluating the color values in the images of the elements of the object surfaces, can be calculated from a standard scene. The reproduction as a 3D image takes place after automatic or interactive further processing of the 3D point cloud to a 3D surface model. The colored 3D surface model can be viewed, for example, using a digital 3D monitor.

Weiterhin kann bei der Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer min­ destens einer Szene das Empfänger-Array eine Farbkamera darstellen.Furthermore, in the arrangement for 3D recording of at least one object surface in a min At least one scene, the receiver array is a color camera.

Weiterhin ist in einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in mindestens einer Szene mit mindestens einer elektromagnetischen Strahlungsquelle und die Strahlungsquelle mittels mindestens eines strukturierten Arrays als ein strukturiert leuchtendes Array mit leuchtenden Flächenele­ menten FEL ausgebildet.Furthermore, in an arrangement for 3D recording of at least one object surface in at least one a scene with at least one electromagnetic radiation source and the radiation source by means of at least one structured array as a structured luminous array with luminous area elements ment FEL trained.

Es ist mindestens ein Beleuchtungsstrahlengang mit mindestens Beleuchtungsobjektiv, welches eine ef­ fektive Öffnungsblende mit einer Ausdehnung DB und einem Blendenzentrum BZB aufweist, zur struktu­ rierten Beleuchtung der Objektoberflächen im Objektraum angeordnet. Der Objektraum, entspricht dem Szenenraum. Das Beleuchtungsobjektiv ist einem dem strukturiert leuchtenden Array, einschließlich ei­ nem Bild desselben, zugeordnet.At least one illumination beam path with at least one illumination lens, which has an effective aperture diaphragm with an extension D B and a diaphragm center BZ B , is arranged for structured illumination of the object surfaces in the object space. The object space corresponds to the scene space. The lighting lens is assigned to the structured, luminous array, including an image thereof.

Außerdem ist dem mindestens einen Beleuchtungsstrahlengang ein Abbildungsstrahlengang zugeordnet, der mit mindestens einer Abbildungsstufe für die mindestens eine Objektoberflächen mit mindestens ei­ nem dem Empfänger-Array oder einem Bildes desselben zugeordneten Abbildungsobjektiv zur Abbildung der Elemente der Objektoberflächen, welches eine effektive Öffnungsblende mit einem Blendenzentrum BZA aufweist. Mittels Elementen des mindestens einem Empfänger-Arrays wird im Aufnahmevorgang elektromagnetische Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detektiert.In addition, the at least one illumination beam path is associated with an imaging beam path, which has at least one imaging stage for the at least one object surfaces with at least one imaging lens associated with the receiver array or an image for imaging the elements of the object surfaces and which has an effective aperture diaphragm with an aperture center BZ A having. By means of elements of the at least one receiver array, electromagnetic radiation from the elements of the illuminated object surfaces in the object space is detected in the recording process.

Der Abstand d des Pupillenzentrums PZOB des Beleuchtungsobjektivs, als Bild des Blendenzentrums BZB im Objektraum, vom Pupillenzentrum PZOA des Abbildungsobjektivs, als Bild des Blendenzentrums BZA im Objektraum, beträgt mindestens ein Achtel der Ausdehnung DB der Öffnungsblende des Beleuchtungsob­ jektivs. Die leuchtenden Flächenelemente FEL weisen in einer Leuchtdichteverteilung eine zumindest nä­ herungsweise vorherbestimmten Leuchtdichteauf, so daß durch die Abbildung mit dem Beleuchtungsob­ jektiv mindestens ein Bild eines leuchtenden Flächenelementes FELj im Objektraum gebildet ist.The distance d from the pupil center PZ OB of the illumination lens, as an image of the aperture center BZ B in the object space, from the pupil center PZ OA of the imaging lens, as an image of the aperture center BZ A in the object space, is at least one eighth of the extent D B of the aperture diaphragm of the illumination lens. The luminous surface elements FEL have an at least approximately predetermined luminance in a luminance distribution, so that at least one image of a luminous surface element FELj is formed in the object space by the imaging with the illuminating lens.

So ist erfindungsgemäß im Objektraum das Schärfevolumen mindestens eines Bildes eines leuchtenden Flächenelementes FELj in einem strukturiert leuchtenden Array - durch die vorbestimmte Zuordnung des leuchtenden Flächenelementes FELj zum Beleuchtungsobjektiv und die Zuordnung der Elemente des Empfänger-Arrays zum Abbildungsobjektiv und die Zuordnung von Beleuchtungsobjektiv zum Abbildungsobjektiv in der 3D-Aufnahme-Anordnung unter Anwendung der Newtonschen Abbildungsgleichung - permanent in das Schärfevolumen eingepaßt, welches durch die Gesamtheit der Bilder der Elemente des Empfänger-Arrays im Objektraum dargestellt ist. Dabei weist das Schärfevolumen, welches durch die Ge­ samtheit der Bilder der Elemente des Empfänger-Arrays in Strahlausbreitungsrichtung gegeben ist, min­ destens eine so große Tiefenausdehnung wie das Schärfevolumen eines einzelnen Bildes eines leuch­ tenden Flächenelementes FELj auf, so daß für alle Bilder eines leuchtenden Flächenelementes FELj ein diese umschließendes Schärfevolumen von Bildern der Elemente des Empfänger-Arrays gegeben ist und im Objektraum jeweils ein Bild eines leuchtenden Flächenelementes FELj eines strukturierten Arrays mindestens einem Bild eines Elementes des Empfänger-Arrays fest zugeordnet ist.According to the invention, the focus volume in the object space is at least one luminous image  Surface element FELj in a structured, luminous array - By the predetermined assignment of the luminous surface element FELj to the lighting lens and the assignment of the elements of the receiver array to the imaging lens and the assignment of Illumination lens to the imaging lens in the 3D recording arrangement using the Newtonian mapping equation - permanently fitted into the focus volume, which is determined by the totality of the images of the elements of the Receiver arrays is shown in the object space. The focus volume, which is determined by the Ge totality of the images of the elements of the receiver array in the direction of beam propagation is given, min at least as large a depth as the volume of focus of a single image of a leuch tendency surface element FELj, so that for all images of a luminous surface element FELj this enclosing focus volume is given by images of the elements of the receiver array and in the object space an image of a luminous surface element FELj of a structured array is permanently assigned to at least one image of an element of the receiver array.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer in einem strukturierten Array räumlich strukturierte Sub-Matrizen angeordnet sind, wobei mindestens eine Sub-Matrix angeordnet ist und mindestens in einer strukturierten Sub-Matrix wiederum strukturierte Zellen angeordnet sind, wobei wiederum in jeder strukturierten Zelle durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fensterfläche angeordnet ist und diese mindestens eine Fensterflä­ che eine mittlere optische Gegenstandsweite zum Beleuchtungsobjektiv aufweist, die unterschiedlich zur Fensterfläche der Nachbarzelle im Hauptschnitt gemacht ist und in einer Fensterfläche in einer strukturier­ ten Zelle jeweils im Zusammenwirken mit der Strahlungsquelle mindestens ein leuchtendes Flächenele­ ment FELj dargestellt ist.Furthermore, in an arrangement for 3D recording of at least one object surface in an in a structured array spatially structured sub-matrices are arranged, at least one Sub-matrix is arranged and in turn structured cells at least in a structured sub-matrix are arranged, again in each structured cell by a mask in the surface of the structured cell is arranged at least one window surface and this at least one window surface che has an average optical object distance to the lighting lens that differs from Window area of the neighboring cell is made in the main section and in a window area in a structured th cell each in cooperation with the radiation source at least one luminous area element ment FELj is shown.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Szene in einem strukturierten Array räumlich strukturierte Sub-Matrizen angeordnet sein. Dabei sind in der strukturierten Sub-Matrix wiederum strukturierte Zellen angeordnet, wobei wiederum in jeder strukturierten Zelle durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fensterfläche ange­ ordnet ist. Diese mindestens eine Fensterfläche weist eine mittlere optische Gegenstandsweite zum Be­ leuchtungsobjektiv auf, die unterschiedlich zur Fensterfläche der Nachbarzelle im Hauptschnitt gemacht ist. So entsteht das Bild der Maskierung in einer anderen Tiefe des Objektraumes, wodurch in verschie­ denen Tiefen des Objektraumes Bilder der Maskierung erzeugt werden können. Außerdem ist in einer Fensterfläche in einer strukturierten Zelle jeweils mindestens ein selbstleuchtendes Flächenelement FELj angeordnet. Dieses wird in den Objektraum abgebildet.Furthermore, in an arrangement for 3D recording of at least one object surface in a Scene can be arranged in a structured array of spatially structured sub-matrices. Here are in the structured sub-matrix in turn arranged structured cells, again in each structured Cell at least one window area is indicated by a mask in the area of the structured cell is arranged. This at least one window surface has an average optical object width for loading lighting lens, which made different to the window area of the neighboring cell in the main cut is. This creates the image of the masking in a different depth of the object space, resulting in different which depths of the object space images of the mask can be generated. It is also in one Window area in a structured cell at least one self-illuminating surface element FELj arranged. This is mapped in the object space.

Weiterhin ist bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Sze­ ne die Fensterfläche vorzugsweise zumindest näherungsweise in einer Ebene senkrecht zur optischen Achse des Beleuchtungsobjektivs angeordnet.Furthermore, in an arrangement for 3D recording of at least one object surface in one scene ne the window surface preferably at least approximately in a plane perpendicular to the optical Axis of the lighting lens arranged.

Weiterhin ist bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Sze­ ne vorzugsweise mindestens eine strukturierte Sub-Matrix als eine Transmissionsanordnung mit einem optischen Werkstoff ausgebildet.Furthermore, in an arrangement for 3D recording of at least one object surface in one scene  ne preferably at least one structured sub-matrix as a transmission arrangement with a optical material.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Szene mindestens die optisch aktive Oberfläche der strukturierten Zellen jeweils einen räumlich struktu­ rierten Bereich aufweisen, wobei in diesem räumlichen strukturierten Bereich die Fensterfläche als plane Fläche ausgebildet sein. In der planen Fläche des Fensterelementes ist vorzugsweise eine Maske ange­ ordnet und in einem Teilbereich der räumlich strukturierten Zelle ist neben der Maske auf der planen Flä­ che des Fensterelementes eine Mikrolinse mit einer fokussierenden Wirkung angeordnet ist, wobei deren Fokus zumindest näherungsweise in der Fläche des Fensterelementes positioniert ist. Dabei weist die Maske ein Binär-Code-Transparenzprofil zur Codierung einer maschinenlesbaren Zahl als Positionsnum­ mer. So sind die Masken innerhalb einer Zelle jeweils eindeutig maschinenlesbar und voneinander unter­ scheidbar. Damit ist zumindestens innerhalb einer Zelle die Mikrolinse ist neben der Maske auf der planen Fläche des Fensterelementes eindeutig zu identifizieren, so daß aus der lateralen Lage des Fokuspunktes im aufgenommenen Bild die zO-Koordinate sowie die xO- und die yO-Koordinate des zugehörigen Objekt­ punktes bestimmt werden kann.Furthermore, in the case of an arrangement for 3D recording of at least one object surface in a scene, at least the optically active surface of the structured cells can each have a spatially structured area, the window area being designed as a flat surface in this spatial structured area. A mask is preferably arranged in the flat surface of the window element and, in a partial area of the spatially structured cell, a microlens with a focusing effect is arranged next to the mask on the flat surface of the window element, the focus of which is at least approximately in the surface of the window element is positioned. The mask has a binary code transparency profile for coding a machine-readable number as position number. The masks within a cell are clearly machine-readable and can be distinguished from one another. This means that at least within a cell the microlens can be clearly identified next to the mask on the flat surface of the window element, so that the z O coordinate as well as the x O and y O coordinate of the in the image taken from the lateral position of the focal point associated object point can be determined.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Mikro­ linse in einem Teilbereich der räumlich strukturierten Zelle neben der Maske auf der Fensterfläche jeweils als eine Zylinderlinse ausgebildet sein. Dadurch gibt es jeweils eine Lichtspur auf der Objektoberfläche mit einer vergleichsweise hohen Beleuchtungsstärke über die Länge der Zylinderlinse. So ist diese Lichtspur unabhängig von lateralen Verschiebungen problemlos detektierbar und somit ist eine hohe Detektionssi­ cherheit gegeben.Furthermore, in an arrangement for 3D recording of at least one object surface, the micro lens in a partial area of the spatially structured cell next to the mask on the window surface in each case be designed as a cylindrical lens. As a result, there is a light trail on the object surface a comparatively high illuminance over the length of the cylindrical lens. This is the light trail can be detected without any problems regardless of lateral displacements and is therefore a high detection reliability given security.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer die Mikrolinse so angeordnet sein, daß deren Fokuspunkt zumindest näherungsweise in der Ebene der Maske positioniert ist. Dadurch ist eine besonders feine Lichtspur realisierbar.Furthermore, in the case of an arrangement for 3D recording of at least one, the microlens can be arranged in this way be that the focal point is at least approximately positioned in the plane of the mask. Thereby a particularly fine light trail can be realized.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk­ turierte Array als opakes Reliefstück mit mehreren, mindestens jedoch zwei, feinen Durchbrüchen, die gegenüber dem Beleuchtungsobjektiv angeordnet sind, ausgebildet sein. Beim Einsatz des Reliefstückes in die 3D-Aufnahme-Anordnung befinden sich die feinen Durchbrüchen in unterschiedlichen Tiefen des Array-Raumes, so daß deren Bilder sich an unterschiedlich tiefen Punktes des Objektraumes befinden.Furthermore, the structure can be in an arrangement for 3D recording of at least one object surface tured array as an opaque relief piece with several, but at least two, fine openings are arranged opposite the lighting lens. When using the relief piece In the 3D recording arrangement, the fine openings are at different depths Array space, so that their images are at different depths of the object space.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk­ turierte Array als ein nichttransparentes Reliefstück mit Durchbrüchen versehen sein. Die Oberfläche des Reliefstückes weist zum Beleuchtungsobjektiv und ist vorzugsweise so gefertigt, daß diese zumindestens näherungsweise die optisch konjugierte Fläche eines zu prüfenden Sollstückes darstellt und die Durch­ brüche auf der Oberfläche des Reliefstückes zumindestens näherungsweise die optisch konjugierten Orte der Sollfläche eines Prüflings darstellen.Furthermore, the structure can be in an arrangement for 3D recording of at least one object surface tured array as a non-transparent relief piece with openings. The surface of the Relief piece points to the lighting lens and is preferably made so that at least approximately represents the optically conjugated surface of a target piece to be tested and the through breaks on the surface of the relief piece at least approximately the optically conjugated places represent the target area of a test object.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk­ turierte Array als ein transparentes Mikrolinsen-Array ausgebildet ist und die Brennweite und die axiale Lage der Mikrolinsen so gestaltet sein, daß deren Foki in einer 3D-Fläche angeordnet sind, die zuminde­ stens näherungsweise eine zur Sollfläche optisch konjugierte Fläche darstellt. Die Foki der Mikrolinsen stellen zumindestens näherungsweise einige optisch konjugierten Orte der Sollfläche eines Prüflings dar. So kann durch die Bestimmung der Fokuslage im Bild die Abweichung von einer Sollage bestimmt wer­ den.Furthermore, the structure can be in an arrangement for 3D recording of at least one object surface  tured array is designed as a transparent microlens array and the focal length and the axial Position of the microlenses be designed so that their foci are arranged in a 3D area, which at least represents approximately an optically conjugated surface to the target surface. The focus of the microlenses represent at least approximately some optically conjugated locations on the target surface of a test object. By determining the focus position in the image, the deviation from a target position can be determined the.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche auf dem strukturierten Array mindestens ein Relief mit einer räumlichen Struktur mit mindestens einer Periode in Form von mindestens einer Rampe mit mindestens einer in der Ausgleichsfläche schrägen Rampenfläche gebildet sein. Dabei ist vorzugsweise mindestens eine Rampenfläche jeweils zum Beleuchtungsobjektiv ausgerichtet. Auf der schrägen Rampenfläche sind vorzugsweise leuchtende Flächenelemente FEL an­ geordnet. Diese leuchtende Flächenelemente FEL werden durch Fensterflächen gebildet, die von der Strahlungsquelle beleuchtet werden.Furthermore, in an arrangement for 3D recording of at least one object surface on the structured array at least one relief with a spatial structure with at least one period in Form of at least one ramp with at least one inclined ramp surface in the compensation area be educated. There is preferably at least one ramp surface for each of the lighting objectives aligned. Luminous surface elements FEL are preferably on the inclined ramp surface orderly. These luminous surface elements FEL are formed by window surfaces, which of the Radiation source to be illuminated.

Die Rampenflächen sind vorzugsweise so geneigt, daß die Ausgleichsgerade AGAj durch die schräge Rampenfläche im Hauptschnitt nach Abbildung durch das Beleuchtungsobjektivs im Objektraum als Bild eine Gerade AGOj liefert, die zumindestens näherungsweise auf das Pupillenzentrum PZOA des Abbil­ dungsobjektivs zielt. In der Regel sind mehrere Rampen vorhanden, so daß die verschiedenen Aus­ gleichsgeraden AGOj von mehreren verschiedenen Rampen nach deren Abbildung durch das Beleuch­ tungsobjektivs aus deren Bildern ein Geradenbündel GB1 mit einen Konvergenzpunkt K1 gebildet ist. Das Beleuchtungsobjektiv ist dabei vorzugsweise hoch geöffnet. Der Konvergenzpunkt K1 ist dabei zuminde­ stens näherungsweise im Pupillenzentrum PZOA des Abbildungsobjektivs zur Koinzidenz gebracht. So ist gegeben, daß sich bei der Aufnahme von Bildern der Objektoberfläche in allen Tiefen eindeutig eine Rampe verfolgt werden kann, ohne daß es Probleme mit lateralen Fehllagen gibt, da der verfolgende Abbildungsstrahl stets aus dem Pupillenzentrum des Abbildungsobjektivs kommt. Das Abbildungsobjektiv kann vergleichsweise kurzbrennweitig sein, kürzer als das Beleuchtungsobjektiv, und ist dabei so weit ab­ geblendet, beispielsweise auf die Blende 11, daß ein großer Tiefenschärfebereich gegeben ist. Damit bestimmt der Tiefenschärfebereich des Abbildungsobjektivs hier den Tiefenbereich für die 3D- Aufnahmeanordnung. Dabei kann im Objektraum das Bild einer Rampe mit der Achse des Abbildungsob­ jektivs zusammenfallen. Die anderen Bilder der Rampen bilden im Hauptschnitt ein Büschel mit dem Ur­ sprungspunkt im Pupillenzentrum. So wird die zu detektierend Objektoberfläche von den Rampenbildern durchschnitten. Im Schnittpunkt eines Rampenbildes mit der Objektoberfläche entsteht ein jeweils ein scharfes Bild von der Maske auf der Rampenfläche.The ramp surfaces are preferably inclined so that the compensation line AG Aj through the oblique ramp surface in the main section as shown by the illumination lens in the object space provides a line AG Oj as an image, which at least approximately targets the pupil center PZ OA of the imaging lens. In general, there are several ramps, so that the different straight lines AG Oj from several different ramps after their imaging by the lighting objective from their images form a line bundle GB 1 with a convergence point K 1 . The lighting lens is preferably opened high. The convergence point K 1 is at least approximately coincident in the pupil center PZ OA of the imaging objective. This means that when taking pictures of the surface of the object, a ramp can be clearly traced at all depths without problems with lateral misalignments, since the tracking imaging beam always comes from the pupil center of the imaging lens. The imaging lens can be comparatively short in focal length, shorter than the lighting lens, and is blinded so far, for example onto the aperture 11 , that a large depth of field is given. The depth of field of the imaging lens thus determines the depth range for the 3D recording arrangement. The image of a ramp can coincide with the axis of the imaging lens in the object space. The other images of the ramps form a tuft in the main section with the origin in the pupil center. In this way, the surface of the object to be detected is intersected by the ramp images. At the intersection of a ramp image with the object surface, a sharp image of the mask is created on the ramp surface.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das auf der Rampenfläche, die eine mittlere Länge WP aufweist, jeweils mindestens eine Maske mit einem Binär- Code-Transparenzprofil mit der Sequenzlänge bz auf einem stetigen Flächenbereich derselben gebildet sein. Die in der Maske mit einem Binär-Code-Profil verwendete minimale Strukturbreite p ist vorzugsweise mindestens so groß gemacht, daß diese vom Beleuchtungsobjektiv noch ohne merklichen Kontrastverlust scharf abgebildet werden kann. Die Länge WP ist dabei vorzugsweise größer als bz.d/DB gemacht und die auf einer Rampenfläche aufgebrachten Masken sind mit einem Binär-Code-Transparenzprofil jeweils eindeutig und maschinenlesbar voneinander unterscheidbar. So kann auch bei einem lateralen Auswan­ dern aufgrund des Triangulationseffektes die Masken sicher identifiziert werden.Furthermore, in the case of an arrangement for 3D recording of at least one object surface, at least one mask with a binary code transparency profile with the sequence length b z on a continuous surface area thereof can be formed on the ramp surface, which has an average length WP. The minimum structure width p used in the mask with a binary code profile is preferably made at least so large that it can still be imaged sharply by the illumination objective without a noticeable loss of contrast. The length WP is preferably made greater than b z .d / D B and the masks applied to a ramp surface can be distinguished from one another in a clear and machine-readable manner using a binary code transparency profile. In this way, even in the case of a lateral migration, the masks can be reliably identified due to the triangulation effect.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mehrere Rampenflächen hintereinander in zum Hauptschnitt parallelen Zeilen in einer Sub-Matrix angeordnet sein, und deren mittlere optische Gegenstandsweite zum Beleuchtungsobjektiv von Zeile zu Zeile, also in y- Richtung jeweils unterschiedlich gemacht ist, beispielsweise stets ansteigend. So entstehen ein mittlerer Anstieg in einer zweiten Richtung, der y-Richtung, und so können besonders viele unterscheidbare Hö­ henstufen realisiert werden. wodurch sich ein besonders großer Tiefenerfassungsbereich für die 3D- Aufnahme-Anordnung ergibt. Dem Abbildungsobjektiv kann, um bei einem sehr großen Tiefenerfassungs­ bereich nicht zu stark abblenden zu müssen, eine transparente Platte mit Keilprismen zugeordnet sein, die eine Platte mit Rampen darstellt, wobei die Rampenanzahl der Anzahl der Sub-Matrizen entspricht und der Keilwinkel dieser Platte sich aus dem Abbildungsmaßstab ergibt. Dabei steigen die Prismenkeile auf diese Platte in diesem Beispiel ebenfalls in y-Richtung an, so daß vom Abbildungsobjektiv scharte Bil­ der von Ebenen gesehen werden können, die nicht senkrecht zur optische Achse desselben angeordnet sind.Furthermore, in an arrangement for 3D recording of at least one object surface, several Ramp areas can be arranged one behind the other in rows parallel to the main cut in a sub-matrix, and their mean optical object distance to the illumination lens from line to line, i.e. in y Direction is made different in each case, for example always increasing. So a middle one is created Rise in a second direction, the y-direction, and so a particularly large number of different heights levels can be realized. which creates a particularly large depth detection area for the 3D Recording arrangement results. The imaging lens can be used with a very large depth detection the area does not have to be dimmed too much, a transparent plate with wedge prisms is assigned, which represents a plate with ramps, the number of ramps corresponding to the number of sub-matrices and the wedge angle of this plate results from the magnification. The prism wedges rise on this plate in this example also in the y direction, so that Bil from the imaging lens that can be seen from planes that are not perpendicular to its optical axis are.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche inner­ halb der Rampenflächen mehrere Stufen ausgebildet sein, wobei sich auf einer Fläche einer Stufe je min­ destens eine Maske mit einem Binär-Code-Transparenzprofil mit mindestens einem transparenten Feld aufgebracht ist. Dabei müssen die Stufen nicht unbedingt stetig steigend oder fallend sein. So können auch Stufen vertauscht werden. Die Ausgleichsgerade bezieht sich auf den Fall, ohne das Vertauschen von Stufen. Die Ausgleichsgerade AGAj schneidet die nicht vertauschten Stufen jeweils etwa in der Mitte der Stufenflächen.Furthermore, in the case of an arrangement for 3D recording of at least one object surface, a plurality of steps can be formed within the ramp surfaces, wherein at least one mask with a binary code transparency profile with at least one transparent field is applied to one surface of each step. The levels do not necessarily have to be continuously increasing or decreasing. Steps can also be interchanged in this way. The best-fit line refers to the case without swapping stages. The equalization line AG Aj cuts the non-interchanged steps approximately in the middle of the step surfaces.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Binär- Code-Profil als Balken-Code-Profil Transparenzprofil mit mindestens einem transparenten Balken aus­ gebildet sein. Ein Balken-Code-Profil Transparenzprofil kann so zeilenweise und damit besonders schnell gelesen werden. Die Balken sind vorzugsweise parallel zum Hauptschnitt angeordnet und so erfolgt die Detektierung des Balken-Code-Transparenzprofils senkrecht zum Hauptschnitt. Die Balken überdecken jeweils vorzugsweise mehrere Spalten bei einer Abbildung auf eine Empfängerfläche, beispielsweise min­ destens zwei Spalten. Dabei kann vorzugsweise das Tastverhältnis der Balken-Codierung bei einer kon­ stanten Periodenlänge des Balken-Codes ausgewertet werden. So ist beim Detektieren eine hohe Erken­ nungssicherheit unabhängig von der Position gegeben. Andererseits können die nebeneinander liegenden Balken als Balken gleicher Breite in nebeneinander liegenden Zellen auf Lücke gesetzt sein, so daß durch eine laterale Verschiebung infolge eines Höhenversatzes auf der Objektoberfläche keine Fehlinformation bei der Bildaufnahme entstehen kann. Weiterhin kann sich in einem äquidistanten Raster jeweils ein Dun­ kel-Hell-Übergang am gleichen Ort der Zellen befinden. Vorzugsweise kann es auch ein quadratisches Raster sein. Dies ist sehr vorteilhaft, da sich zumindestens bei einer zumindest näherungsweisen ebenen Fläche ein äquidistantes Raster von Meßpunkten gebildet ist.Furthermore, in an arrangement for 3D recording of at least one object surface, the binary Code profile as bar code profile Transparency profile with at least one transparent bar be educated. A bar code profile transparency profile can thus line by line and therefore particularly quickly to be read. The bars are preferably arranged parallel to the main cut and so is done Detection of the bar code transparency profile perpendicular to the main section. Cover the bars in each case preferably several columns in the case of an image on a receiver surface, for example min at least two columns. The duty cycle of the bar coding can preferably be at a con constant period length of the bar code can be evaluated. This is a high level of detection when detecting security of supply regardless of position. On the other hand, the side by side Bars as bars of the same width must be set to gaps in adjacent cells so that by a lateral shift due to a height offset on the object surface does not result in misinformation can arise during image acquisition. Furthermore, a dun can be found in an equidistant grid Kel-Hell transition are located at the same location of the cells. Preferably it can also be a square one Grid. This is very advantageous since at least one level is at least approximate An equidistant grid of measuring points is formed on the surface.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das auf den Rampenflächen mit der Länge WP eine Gitterstruktur mit einem cos2-Transparenzprofil mit minde­ stens einer Periodenlänge bz aufgebracht sein. Die Periodenlänge bz ist vorzugsweise mindestens so groß gemacht, daß diese vom Beleuchtungsobjektiv mit einer hohen relativen Lichtstärke noch ohne merklichen Kontrastverlust abgebildet werden kann. Die Länge WP der Rampenfläche ist jeweils größer als bz.d/DB gemacht ist, wobei die Länge der Rampenfläche mindestens gleich der Periodenlänge bz gemacht.Furthermore, in an arrangement for 3D recording of at least one object surface, a lattice structure with a cos 2 transparency profile with at least one period length b z can be applied to the ramp surfaces with the length WP. The period length b z is preferably made at least so large that it can still be imaged by the illumination lens with a high relative light intensity without a noticeable loss of contrast. The length WP of the ramp area is in each case greater than b z .d / D B , the length of the ramp area being made at least equal to the period length b z .

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche leuchtende Flächenelemente FEL als von der Strahlungsquelle beleuchtete, transparente Fensterflächen, einschließ­ lich Bilder von diesen, im Array-Raum positioniert sein. Die dem Beleuchtungsobjektiv zugewandte Seite des strukturierten transparenten Arrays ist mindestens als ein einziges Relief mit einer räumlichen Struk­ tur mit mindestens einer Periode in Form von mindestens einer Rampe gebildet, die jeweils ein transpa­ rentes Keilprisma darstellt.Furthermore, an arrangement for 3D recording of at least one object surface can be luminous Including surface elements FEL as transparent window surfaces illuminated by the radiation source Lich images of these, positioned in the array space. The side facing the lighting lens of the structured transparent array is at least as a single relief with a spatial structure structure with at least one period in the form of at least one ramp, each a transpa represents a wedge prism.

Die Keilprismen weisen vorzugsweise einen Keilwinkel auf, der so gewählt ist, daß durch dessen abbil­ dende Wirkung die Bilder der leuchtende Flächenelemente FEL zumindestens näherungsweise auf einer Ausgleichsgerade AGAj im Hauptschnitt liegen. Die Ausgleichsgerade AGAj liefert vorzugsweise nach Ab­ bildung durch das Beleuchtungsobjektivs im Objektraum als Bild eine Gerade AGOj, die auf das Pupillen­ zentrum PZOA des Abbildungsobjektivs zielt. Dabei ist vorzugsweise für mehrere Ausgleichsgeraden AGOj von mehreren Rampen nach deren Abbildung durch das Beleuchtungsobjektivs aus deren Bildern ein Ge­ radenbündel mit einen Konvergenzpunkt K1 gebildet, der zumindestens näherungsweise mit dem Pupil­ lenzentrum PZOA des Abbildungsobjektivs zur Koinzidenz gebracht ist. So kann vermieden werden, daß auf den schrägen Flächen einer Rampe eine Maskierung aufgebracht werden muß. Die Maskierung be­ findet sich auf der Vorderseite des vorzugsweise zur Strahlungsquelle planen Reliefs.The wedge prisms preferably have a wedge angle, which is chosen so that the images of the luminous surface elements FEL are at least approximately on a line of compensation AG Aj in the main section due to its imaging effect. The compensating line AG Aj preferably supplies a line AG Oj , which is aimed at the pupil center PZ OA of the imaging lens , as a picture after imaging by the illumination lens in the object space. In this case, preferably for several compensating lines AG Oj of several ramps after their imaging by the illumination lens from their images, a bundle of rays is formed with a convergence point K 1 , which is at least approximately coincident with the pupil center PZ OA of the imaging lens. In this way it can be avoided that masking has to be applied to the inclined surfaces of a ramp. The masking can be found on the front of the relief, which is preferably planed towards the radiation source.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die trans­ parenten Keilprismen jeweils so gefertigt sein, daß diese im Mittel zumindestens näherungsweise den Keilwinkel im Bogenmaß mit dem Betrag fB.n/[d.(n-1)] aufweisen. Bei diesem Winkel ergibt sich eine Drehung der leuchtenden Flächenelemente, die auf einer planen Fläche, senkrecht zur Achse des Be­ leuchtungsobjektivs, angeordnet sind.Furthermore, in an arrangement for 3D recording of at least one object surface, the transparent wedge prisms can each be manufactured in such a way that on average they have at least approximately the wedge angle in radians with the amount f B .n / [d. (N-1)] . At this angle there is a rotation of the luminous surface elements, which are arranged on a flat surface, perpendicular to the axis of the illumination lens.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche bei ei­ nem im Array-Raum telezentrischen Abbildungsobjektiv die Rampenflächen im strukturierten Array, die zum Beleuchtungsobjektiv weisen, zumindestens näherungsweise gleichwinklig ausgebildet sein. So stellen vorzugsweise, wenn nicht die Rampenflächen selbst, aufgrund einer räumlichen Strukturierung derselben, wenigstens die Ausgleichsgeraden AGAj durch die schrägen Rampenflächen im Hauptschnitt der 3D-Aufnahme-Anordnung zueinander parallele Geraden dar.Furthermore, in the case of an arrangement for 3D recording of at least one object surface in the case of an imaging lens that is telecentric in the array space, the ramp surfaces in the structured array that point toward the lighting lens can be at least approximately equiangular. Thus, preferably, if not the ramp surfaces themselves, due to a spatial structuring thereof, at least the best-fit straight line AG Aj through the oblique ramp surfaces in the main section of the 3D recording arrangement represent straight lines parallel to one another.

Die Rampenflächen sind so gestaltet, daß nach Abbildung durch das Beleuchtungsobjektivs aus den Bil­ dern der parallelen Ausgleichsgeraden ein Geradenbündel GB1 mit einen Konvergenzpunkt K1 gebildet ist, der zumindestens näherungsweise mit dem Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum zur Koinzidenz gebracht ist. Die Herstellung von derartigen Rampen ist vergleichsweise einfach. The ramp surfaces are designed such that a line bundle GB 1 is formed with a convergence point K 1, which is at least approximately brought into coincidence with the pupil center PZ OA of the imaging lens in the object space. The manufacture of such ramps is comparatively simple.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche bei ei­ nem im Array-Raum telezentrischen Abbildungsobjektiv die Rampenflächen im strukturierten Array, die zum Beleuchtungsobjektiv weisen, zumindestens näherungsweise mit der gleichen Länge ausgebildet sein. Die Herstellung von derartigen Rampen ist vergleichsweise einfach.Furthermore, with an arrangement for 3D recording of at least one object surface at ei in the array space, the ramp surfaces in the structured array, the point to the illumination lens, at least approximately with the same length be. The manufacture of such ramps is comparatively simple.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil­ dungsobjektiv eine transparente Platte mit Keilprismen nachgeordnet sein, die eine Platte mit Rampen darstellt, wobei die Anzahl der Rampen der Anzahl der Sub-Matrizen auf dem strukturierten Array ent­ spricht. Weiterhin können die Rampen Mikro-Stufen aufweisen, die senkrecht zur Achse des Abbildungs­ objektivs ausgerichtet sein. So kann die brechende Wirkung eines Prismas vermieden werden.Furthermore, in an arrangement for 3D recording of at least one object surface, the image a transparent plate with wedge prisms, a plate with ramps where the number of ramps equals the number of sub-matrices on the structured array speaks. Furthermore, the ramps can have micro-steps that are perpendicular to the axis of the image be objectively aligned. In this way the refractive effect of a prism can be avoided.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche im Abbil­ dungsstrahlengang mindestens ein Mikrolinsen-Array angeordnet sein, beispielsweise in einer Zwischen­ abbildungsstufe, die dem Objektiv vor dem Empfänger-Array vorgeordnet ist, wobei die Mikrolinsen inner­ halb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen der Foki in Bezug auf eine Ebene senkrecht zur optischen Achse des Abbildungsstrahlenganges aufweisen. So können mit einer planen Empfängerfläche aus verschiedenen Tiefen des Objektraumes Objektpunkte scharf abgebildet werden. Es können zwei ein Mikrolinsen-Arrays mit jeweils koaxialen Mikrolinsen angeordnet sein, die ein Mikro-Teleskop bilden, wobei ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite gefertigt ist, dem ein Mikrolinsen-Array mit Mikrolinsen gleicher Brennweite zugeordnet ist, so daß ein Array aus Mikro-Teleskopen gebildet ist.Furthermore, in the case of an arrangement for 3D recording of at least one object surface in the illustration at least one microlens array, for example in an intermediate imaging stage, which is upstream of the lens in front of the receiver array, the microlenses inside half of a microlens array at least two different axial positions of the foci with respect to one Have plane perpendicular to the optical axis of the imaging beam path. So with one plan receiver area from different depths of the object space object points sharply imaged will. Two one microlens arrays, each with coaxial microlenses, can be arranged, the one Form a micro-telescope, a microlens array being manufactured with microlenses of different focal lengths is to which a microlens array with microlenses of the same focal length is assigned, so that an array Micro telescope is formed.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil­ dungsobjektiv mindestens ein Mikrolinsen-Array vorgeordnet ist, wobei die Mikrolinsen innerhalb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen der Foki in Bezug auf eine Ebene senk­ recht zur optischen Achse des Abbildungsobjektivs aufweisen. Auch hier können mit einer planen Emp­ fängerfläche aus verschiedenen Tiefen des Objektraumes Objektpunkte gleichzeitig scharf abgebildet werden, ohne daß eine Zwischenabbildungsstufe benötigt wird. So ist vorzugsweise ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite angeordnet.Furthermore, in an arrangement for 3D recording of at least one object surface, the image The objective lens is arranged at least one microlens array, the microlenses within one Microlens arrays lower at least two different axial positions of the foci with respect to one plane have right to the optical axis of the imaging lens. Here too, with a planned emp catcher surface from different depths of the object space object points sharply imaged at the same time without the need for an intermediate mapping level. Such is preferably a microlens array arranged with microlenses of different focal lengths.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Orte der Foki der Mikrolinsen eines Mikrolinsen-Arrays auf einem räumlichen Profil angeordnet sind. Dieses kann ein Sinusprofil sein, welches sich optimal herstellen läßt.Furthermore, the locations can be in an arrangement for 3D recording of at least one object surface the foci of the microlenses of a microlens array are arranged on a spatial profile. This can be a sinus profile, which can be optimally manufactured.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Orte der Foki der Mikrolinsen eines Mikrolinsen-Arrays auf Rampenflächen angeordnet sein. So können mit ei­ ner planen Empfängerfläche aus verschiedenen Tiefen des Objektpunkte gleichzeitig scharf abgebildet werden, die sich zumindest näherungsweise im Objektraum auf Ebenen befinden.Furthermore, the locations can be in an arrangement for 3D recording of at least one object surface the focus of the microlenses of a microlens array can be arranged on ramp surfaces. So with egg A planar receiver surface is sharply imaged from different depths of the object point that are at least approximately on levels in the object space.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil­ dungsobjektiv mindestens ein Lichtwellenleiter-Array, welches aus Mikrofasern gefertigt ist, vorgeordnet sein, wobei die Mikrofasern zumindest näherungsweise parallel zur optischen Achse des Abbildungsob­ jektiv angeordnet sind. Dabei liegen die Mikrofaserenden vorzugsweise auf der einen Seite des Lichtwel­ lenleiter-Arrays in einer gemeinsamen Ebene und sind den Elementen des Empfänger-Arrays unmittelbar zugeordnet. Auf der anderen Seite des Lichtwellenleiter-Arrays sind die Faserenden dem Abbildungsob­ jektiv zugeordnet. Hier sind die Faserenden auf einem räumlichen Profil angeordnet. So kann Licht aus unterschiedlichen Ebenen des Array-Raumes detektiert werden. Die Punkte der Detektion entsprechen unterschiedlich weit entfernten Punkten im Objektraum, so daß Elemente einer Objektoberfläche aus un­ terschiedlichen Tiefen des Objektraumes gleichzeitig aufgenommen werden können. Das räumlichen Profil kann ein Stufenflächenprofil mit Rampenflächen darstellen. Die Ausbildung kann auch als Sinusprofil erfolgen.Furthermore, in an arrangement for 3D recording of at least one object surface, the image  lens at least one fiber optic array, which is made of microfibers, upstream be, the microfibers being at least approximately parallel to the optical axis of the imaging object are arranged jective. The microfiber ends are preferably on one side of the light wave conductor arrays on a common level and are immediate to the elements of the receiver array assigned. On the other side of the optical fiber array, the fiber ends are the imaging object assigned to jective. Here the fiber ends are arranged on a spatial profile. So light can go out different levels of the array space can be detected. The points of the detection correspond differently distant points in the object space, so that elements of an object surface from un different depths of the object space can be recorded simultaneously. The spatial Profile can represent a step surface profile with ramp surfaces. The training can also be called a sinus profile respectively.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das räum­ liche Profil der Faserenden zumindestens näherungsweise mit Rampenflächen ausgebildet ist. So können mit einer planen Empfängerfläche aus verschiedenen Tiefen des Objektpunkte gleichzeitig scharf abgebil­ det werden, die sich zumindest näherungsweise im Objektraum auf Ebenen befinden.Furthermore, with an arrangement for 3D recording of at least one object surface, the space Liche profile of the fiber ends is at least approximately formed with ramp surfaces. So can with a flat receiver surface from different depths of the object point simultaneously sharp det, which are at least approximately in the object space on levels.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp­ fänger-Array mit mindestens acht Elementen ausgebildet sein. Es gibt vorzugsweise mindestens zwei Be­ reiche mit mindestens je vier Elementen, wobei die vier Elemente dann genau zwei Zellen darstellen, mit einer unterschiedlichen mittleren Höhe der Elemente in einer Fläche gebildet sein, die als Sub-Fläche be­ zeichnet wird. So sind auf dem Empfänger-Array Bereiche gebildet, die zu einer Sub-Fläche mit einer mittleren Höhe gehören, und auf dem Empfänger-Array mindestens Elemente in vier unterscheidbaren Höhenstufen angeordnet. Damit kann ein größerer Tiefenbereich im Objektraum zumindest näherungs­ weise scharf auf die einzelnen Elemente des Empfänger-Arrays abgebildet werden, ohne daß eine Fo­ kussierung durch eine mechanische Verschiebung erforderlich ist.Furthermore, in an arrangement for 3D recording of at least one object surface, the emp catcher array with at least eight elements. There are preferably at least two Be range with at least four elements each, with the four elements then representing exactly two cells with a different average height of the elements can be formed in a surface that be as a sub-surface is drawn. Areas are formed on the receiver array that form a sub-area with a belong to medium height, and on the receiver array at least elements in four distinguishable Height levels arranged. This means that a larger depth range in the object space can at least approximate be sharply imaged on the individual elements of the receiver array without a Fo kissing by mechanical displacement is required.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Aus­ gleichsfläche über die Elemente des Empfänger-Arrays einer Sub-Fläche eine Rampenfläche mit einer gleichen Höhe darstellen, so daß mindestens zwei Rampenflächen auf dem Empfänger-Arrays gebildet sind, die zumindest näherungsweise gleich gemacht sind und auch die Form der Rampenfläche zumin­ dest näherungsweise gleich gemacht ist. So kann in mindestens zwei Bereichen der abgebildeten Objek­ toberfläche der volle Tiefenerfassungsbereich realisiert werden.Furthermore, in the case of an arrangement for 3D recording of at least one object surface, the off equal area over the elements of the receiver array of a sub-area a ramp area with a represent the same height so that at least two ramp areas are formed on the receiver array are made at least approximately the same and also the shape of the ramp area at least is made approximately the same. In at least two areas, the depicted object can the full depth detection range can be realized.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die An­ zahl der Bereiche, die zu einer Sub-Fläche gehören, mit der Anzahl der Sub-Matrizen im strukturierten Ar­ ray übereinstimmen und ein Bereich, der zu einer Sub-Fläche gehört, sich über mindestens zwei linienhaf­ te Bereiche des Empfänger-Arrays, die getrennt elektromagnetische Strahlung detektieren können, er­ strecken. So können die von leuchtenden Flächenelementen FEL, die durch beleuchtete Fensterflächen in unterschiedlicher Höhe auf einer Sub-Matrix des strukturierten Arrays gebildet sind, im Objektraum ent­ stehenden Bilder auf der Objektoberfläche auf Elemente der Empfänger-Arrays zumindestens nähe­ rungsweise scharf abgebildet werden. Die laterale Anordnung der Bereiche, die zu einer Sub-Fläche ge­ hören, auf der Oberfläche des Empfänger-Arrays ist mit der lateralen Anordnung der Sub-Matrizen auf dem strukturierten Array zumindest näherungsweise geometrisch ähnlich gemacht. Dabei stellt eine Aus­ gleichsfläche über die Elemente des Empfänger-Arrays einer Sub-Fläche jeweils eine Rampenfläche dar. Es können mindestens zwei Sub-Flächen auf dem Empfänger-Arrays gebildet sein. In der Regel können bis zu 128 bei einer 256 × 256 Pixel CCD-Matrix oder gar 512 Sub-Flächen bei einer 1024 × 1024 Pixel CCD-Matrix gebildet sein, um von möglichst vielen Bereichen der Objektoberfläche scharfe Bildpunkte über einen vergleichsweise großen Tiefenbereich detektieren zu können, ohne dabei das Abbildungsob­ jektiv sehr stark abblenden zu müssen. Jeweils zwei Zeilen bilden im Minimum eine Sub-Fläche. Grund­ sätzlich ist auch die Bildung von Sub-Flächen über mindestens zwei Spalten des Empfänger-Arrays, also einer CCD-Matrix, möglich.Furthermore, with an arrangement for 3D recording of at least one object surface, the An number of areas belonging to a sub-area with the number of sub-matrices in the structured area ray match and an area belonging to a sub-area extends over at least two lines areas of the receiver array that can separately detect electromagnetic radiation stretch. For example, those of luminous surface elements FEL, which are illuminated by illuminated window surfaces in  different heights are formed on a sub-matrix of the structured array, ent in the object space at least approximate the images on the object surface to elements of the receiver arrays approximately sharply. The lateral arrangement of the areas that ge to a sub-area listen, on the surface of the receiver array is up with the lateral arrangement of the sub-matrices made at least approximately geometrically similar to the structured array. It turns off equal area over the elements of the receiver array of a sub-area each represent a ramp area. At least two sub-areas can be formed on the receiver array. Usually can up to 128 with a 256 × 256 pixel CCD matrix or even 512 sub-areas with a 1024 × 1024 pixel CCD matrix can be formed in order to obtain sharp image points from as many areas of the object surface as possible to be able to detect over a comparatively large depth range without the imaging object to have to stop down very strongly. Two lines each form at least one sub-area. Reason In addition, there is also the formation of sub-areas over at least two columns of the receiver array a CCD matrix.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp­ fänger-Array als CCD-Matrix-Kamera ausgebildet sein. Damit ist eine optimale Bildaufnahme bei Standar­ daufgaben mit einem guten Signal-Rausch-Verhältnis möglich.Furthermore, in an arrangement for 3D recording of at least one object surface, the emp catcher array can be designed as a CCD matrix camera. This is an optimal image acquisition at Standar tasks with a good signal-to-noise ratio possible.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp­ fänger-Array als CMOS-Matrix-Kamera ausgebildet sein. Damit ist durch den wahlfreien Zugriff auf Pixel eine Verfolgung von bewegten Elementen der Objektoberfläche im Raum möglich.Furthermore, in an arrangement for 3D recording of at least one object surface, the emp catcher array can be designed as a CMOS matrix camera. This is through random access to pixels tracking of moving elements of the object surface in space is possible.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp­ fänger-Array als CCD-Zeilen-Kamera ausgebildet sein. Dies ist zur Aufnahme von sehr schnell ablaufen­ den Vorgängen in einem Schnitt von großem Vorteil.Furthermore, in an arrangement for 3D recording of at least one object surface, the emp catcher array can be designed as a CCD line camera. This is to take up very quickly the processes in one cut is of great advantage.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei Abbildungsstrahlengänge angeordnet sein und jedem Abbildungsstrahlengang kann jeweils zumindestens eine kippbare Spiegelfläche vorgeordnet werden und die vorgeordneten, kippbaren Spiegelflächen kön­ nen starr miteinander verbunden sein und diesen können rechnergesteuerte Komponenten zur Durchfüh­ rung einer definierten Verkippung zugeordnet sein. Durch das Kippen der Spiegelflächen mittels eines rechnergesteuerten Schwingspiegels können unterschiedliche Schnitte für die 3D-Aufnahme ausgewählt werden.Furthermore, with an arrangement for 3D recording of at least one object surface, two Imaging beam paths can be arranged and each imaging beam path can at least in each case a tiltable mirror surface can be arranged upstream and the upstream, tiltable mirror surfaces can NEN rigidly connected and these can be computer-controlled components for execution tion of a defined tilt. By tilting the mirror surfaces using a Computer-controlled oscillating mirror can select different cuts for the 3D image will.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei Abbildungsstrahlengänge angeordnet sind und den beiden Abbildungsstrahlengängen gemeinsam ein rechnergesteuertes, rotierendes Spiegelpolygon vorgeordnet sein. So kann eine schnelle Aufnahme von Objektoberflächen im Objektraum erfolgen.Furthermore, with an arrangement for 3D recording of at least one object surface, two Imaging beam paths are arranged and the two imaging beam paths together computer-controlled, rotating mirror polygon. So a quick shot of Object surfaces take place in the object space.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche einem Beleuchtungsobjektiv eine erstes Abbildungsobjektiv mit einem Empfänger-Array und ein zweites Abbil­ dungsobjektiv mit einem Empfänger-Array zugeordnet sind, wobei das Pupillenzentrum PZOA des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet ist. Dabei kann das erste Abbildungsobjektiv als ein Referenzsystem arbeiten, um beispielsweise eine absolu­ te Messung in der bereits beschriebenen Art durchführen zu können. Das zweite Abbildungsobjektiv ist im Abstand k.d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet, wobei k ≧ 2 gemacht ist. Beispielsweise kann das zweite Abbildungsobjektiv im vierfachen Abstand angeordnet sein und ein be­ sonders großes oder ein asymmetrisches Objektfeld besitzen. So ergibt sich ein größerer Triangulations­ winkel und damit eine höhere Tiefenauflösung, wobei die Informationen, die vom ersten Abbildungsobjek­ tiv gewonnen werden dazu dienen, die Ergebnisse die mit dem zweiten Abbildungsobjektiv gewonnen werden, bezüglich der gemessenen Phaseninformationen zu überprüfen und gegebenenfalls hinsichtlich der Streifenordnung zu korrigieren.Furthermore, in an arrangement for 3D recording of at least one object surface, a lighting lens can be assigned a first imaging lens with a receiver array and a second imaging lens with a receiver array, the pupil center PZ OA of the first imaging lens at a distance d from the pupil center PZ OB of the lighting lens is arranged. The first imaging lens can work as a reference system, for example in order to be able to carry out an absolute measurement in the manner already described. The second imaging objective is arranged at a distance kd from the pupil center PZ OB of the illumination objective, k ≧ 2 being made. For example, the second imaging lens can be arranged four times apart and have a particularly large or an asymmetrical object field. This results in a larger triangulation angle and thus a higher depth resolution, the information obtained from the first imaging lens serving to check the results obtained with the second imaging lens with respect to the measured phase information and, if necessary, to correct the stripe order .

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei Abbildungsstrahlengänge mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven angeordnet sein. Dabei ist das erste Abbildungsobjektiv mit einer zumindest näherungs­ weiser einseitiger Telezentrie im Array-Raum ausgeführt und das zweite Abbildungsobjektiv ebenfalls mit zumindest näherungsweiser einseitiger Telezentrie im Array-Raum ausgeführt, wobei die beiden Haup­ tebenen der beiden Abbildungsobjektive zur Koinzidenz gebracht sind. Dabei ist das Pupillenzentrum PZOA1 des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOA2 des zweiten Abbildungs­ objektiv angeordnet. Jedem Abbildungsobjektivs ist je ein räumlich strukturiertes Empfänger-Array zuge­ ordnet, so daß ein erstes und ein zweites Empfänger-Array angeordnet sind. Das erste und das zweite räumlich strukturierte Empfänger-Array weisen je mindestens zwei Empfängerflächen auf räumlich ge­ trennten Stufenflächen auf, die jeweils senkrecht zum Hauptschnitt liegen, wobei die Empfängerflächen des ersten Empfänger-Arrays jeweils parallel zur Geraden gA1P angeordnet sind, die den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen und den Brennpunkt FAA1 des ersten Abbildungsobjektivs enthält.Furthermore, in an arrangement for 3D recording of at least one object surface, two imaging beam paths with two at least approximately identical, parallel arranged imaging objectives can be arranged. The first imaging lens is designed with an at least approximate one-sided telecentricity in the array space and the second imaging lens is also designed with at least approximate one-sided telecentricity in the array space, the two main planes of the two imaging lenses being brought to coincidence. The pupil center PZ OA1 of the first imaging objective is arranged objectively at a distance d from the pupil center PZ OA2 of the second imaging. Each imaging lens is assigned a spatially structured receiver array, so that a first and a second receiver array are arranged. The first and the second spatially structured receiver array each have at least two receiver surfaces on spatially separated step surfaces, which are each perpendicular to the main section, the receiver surfaces of the first receiver array being arranged parallel to the straight line g A1P , which defines the penetration point P A of the axis of symmetry SL between the two optical axes of the two imaging lenses through the coinciding main planes and the focal point F AA1 of the first imaging lens .

Die Empfängerflächen des zweiten Empfänger-Arrays sind vorzugsweise jeweils parallel zur Geraden gA2P angeordnet, die den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen und den Brennpunkt FAA2 des zweiten Abbildungsobjektivs enthält, wobei sich je zwei durch die Empfängerflächen und sowie und gehenden Ausgleichsgeraden in der Hauptebene schneiden und der mittlere Abstand dieser Empfänger­ flächen sowie von der Hauptebene jeweils gleich gemacht ist.The receiver surfaces of the second receiver array are preferably each arranged parallel to the straight line g A2P , which contains the penetration point P A of the axis of symmetry SL between the two optical axes of the two imaging lenses through the coinciding main planes and the focal point F AA2 of the second imaging lens , with each intersect two straight lines through the receiver surfaces and and and in the main plane and the average distance between these receiver surfaces and each of the main plane is made the same.

Aufgrund der natürlichen Strukturierung der teilweise strukturiert oder natürlich beleuchteten und auch selbstleuchtenden Objektoberfläche sind die in jedem Element des Empfänger-Arrays aufgenommenen Signalverläufe S1j und S2j mehr oder weniger moduliert. Aus der Auswertung dieser Modulation, die be­ sonders an den scharf abgebildeten Elementen der Objektoberfläche auftritt, soll die zO-Position des je­ weils zugehörigen Elementes der Objektoberfläche bestimmt werden.Due to the natural structuring of the partially structured or naturally illuminated and also self-illuminating object surface, the signal profiles S 1j and S 2j recorded in each element of the receiver array are more or less modulated. From the evaluation of this modulation, which occurs particularly on the sharply depicted elements of the object surface, the z O position of the respective associated element of the object surface is to be determined.

Die beiden Signalverläufe S1j und S2j von zwei korrespondierenden Elementen 1j und 2j der beiden Emp­ fänger-Arrays sind über dem Weg der Verschiebung der beiden Empfänger-Arrays im Speicher eines Rechners abgelegt. Dabei stellen genau die Elemente von zwei Empfänger-Arrays korrespondierende Elemente dar, deren Bilder im Objektraum in einem Schärfevolumen zumindestens zu einem Zeitpunkt koinzidieren. So bilden genau ein Element des ersten und ein Element des zweiten Empfänger-Arrays in einem gemeinsamen Schärfevolumen zumindestens zu einem Zeitpunkt ein Paar korrespondierender Elemente.The two signal profiles S 1j and S 2j of two corresponding elements 1 j and 2 j of the two receiver arrays are stored in the memory of a computer by way of the displacement of the two receiver arrays. The elements of two receiver arrays represent corresponding elements whose images in the object space coincide in a volume of focus at least at one point in time. Exactly one element of the first and one element of the second receiver array form a pair of corresponding elements in a common focus volume at least at one point in time.

Es werden nun aus jedem der beiden Signalverläufe S1j und S2j mittels einer Fensterfunktion mit minde­ stens einem einzigen Fenster, mit einer minimalen Fensterlänge entsprechend zwei Signalwerten und ei­ ner maximalen Fensterlänge, die zumindestens näherungsweise der Länge der Signalverläufe S1j und S2j entspricht, sich überdeckende Signalstücke S1 teil j und S2 teil j in jedem der beiden Signalverläufe S1j und S2j aus den Fenstern gebildet. Fenster, vorteilhaft sind Fensterlängen mit einer Länge von beispiels­ weise 8 oder 16 Signalwerte, andere, auch größere Werte sind möglich.Each of the two signal curves S 1j and S 2j are now generated using a window function with at least one single window, with a minimum window length corresponding to two signal values and a maximum window length which corresponds at least approximately to the length of the signal curves S 1j and S 2j , overlapping signal pieces S 1 part j and S 2 part j are formed from the windows in each of the two signal profiles S 1j and S 2j . Windows, window lengths with a length of, for example, 8 or 16 signal values are advantageous, other, even larger values are possible.

Es erfolgt das in beiden Signalverläufen S1j und S2j synchrone Verschieben dieser Fensterfunktion, um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays entspricht, über jeden dieser beiden Signalverläufe S1j und S2j und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, wird je ein Signalstück S1 teil Position k j und S2 teil Position k j gebildet.This window function is shifted synchronously in both signal courses S 1j and S 2j by at least one signal value, which corresponds to an increment of the shift of the receiver arrays, over each of these two signal courses S 1j and S 2j and from each current window in the position k, with 1 ≦ k ≦ m, a signal piece S 1 part position kj and S 2 part position kj is formed.

Dabei überdecken sich diese nacheinander gebildeten Signalstücke S1 teil j Position k j und S2 teil j Position k j in je­ dem der beiden Signalverläufe S1j und S2j in einem Teilbereich und wobei jeweils am gleichen Ende der beiden Signalverläufe S1j und S2j mit dem Verschieben der Fensterfunktion in beiden Signalstücken be­ gonnen wird.These successively formed signal pieces S 1 part j position kj and S 2 part j position kj overlap each of the two signal profiles S 1j and S 2j in a partial area and each at the same end of the two signal profiles S 1j and S 2j with the Moving the window function in both signal pieces is started.

Anschließend wird, jeweils ausgehend von zwei Signalstücken in der Position 1 S1 teil Position 1 j und S2 teil Position 1 j, die Kreuzkorrelationsfunktion berechnet, wobei jedoch vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signal- Stück S1 Teil Position 1 j und aus einem invertierten Signalstück S2 Teil Position 1 INV j das Maximum der Kreuzkorre­ lationsfunktion MCC1 2 j Position 1 zwischen 0 und 1 berechnet und gespeichert wird.The cross-correlation function is then calculated, each based on two signal pieces in position 1 S 1 part position 1 j and S 2 part position 1 j , but one of the two signal pieces is inverted beforehand, i.e. all values of the same are mirrored, and so on from an original signal piece S 1 part position 1 j and from an inverted signal piece S 2 part position 1 INV j the maximum of the cross-correlation function MCC 1 2 j position 1 between 0 and 1 is calculated and stored.

Die Invertierung ist notwendig, da die Abbildungsstrahlen der Elemente eines korrespondierenden Paares sich im Objektraum bei der Verschiebung in einem zumindest näherungsweise gleichen Ausschnitt der Szene im Verschiebungsvorgang entlang einer Spur gegensinnig bewegen, also beispielsweise aufeinan­ der zu. Dabei liegt diese Spur parallel zum Hauptschnitt der 3D-Aufnahmeanordnung.Inversion is necessary because the imaging rays of the elements of a corresponding pair in the object space during the shift in an at least approximately the same section of the Moving the scene in the opposite direction along a track in the moving process, for example, one another the too. This track lies parallel to the main section of the 3D recording arrangement.

Nach dem Berechnen des Maximums der Kreuzkorrelationsfunktion MCC1 2 j Position 1 in der Position 1 er­ folgt das Verschieben der Fensterfunktion in die Position 2, so daß für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion MCC1 2 j Position 2 in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe S1j und S2j in der Position m angekom­ men ist und wiederum das Maximum MCC1 2 j Position m der Kreuzkorrelationsfunktion MCC1 2 j Position m bestimmt wird. Aus den von m berechneten Maxima MCCm wird eine Maximalwert-Kurve gebildet, wobei in dieser Maximalwert-Kurve wiederum das sich ergebende Maximum Mm j zwischen 0 und 1 bestimmt wird und der Ort des Maximums Mm j der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird. Diese so berechnete Maximalwert-Kurve kann den Verlauf einer Gauß-Funktion aufweisen. Um Fehlern vorzubeugen, kann ei­ ne Intensitätsschwelle verwendet werden, wodurch Signalstücke mit sehr geringer mittlerer Intensität von der weiteren Verarbeitung ausgeschlossen werden. Das Maximum Mj Maximalwert-Kurve kann auch über eine Schwerpunktbildung erfolgen. Dabei können lnterpolationsmethoden angewendet werden.After calculating the maximum of the cross-correlation function MCC 1 2 j position 1 in position 1, the window function is moved to position 2 so that the maximum of the cross-correlation function MCC 1 2 j position 2 is calculated in the manner described for the next two signal pieces is until the window function has arrived at the other end of the two signal curves S 1j and S 2j in position m and again the maximum MCC 1 2 j position m of the cross-correlation function MCC 1 2 j position m is determined. From the m calculated maxima MCC m a maximum value curve is formed, the curve maximum value is, in turn, the resulting maximum M mj determined between 0 and 1 in this and the location of the maximum M mj, the maximum value curve the two original waveforms and so that the path of the displacement of the two receiver arrays is assigned. This maximum value curve calculated in this way can have the course of a Gaussian function. In order to prevent errors, an intensity threshold can be used, whereby signal pieces with a very low average intensity are excluded from further processing. The maximum M j maximum value curve can also take place by forming a center of gravity. Interpolation methods can be used.

So wird der Ort des jeweiligen so bestimmten Maximums Mj als Ort des zu den beiden korrespondieren­ den Elementen 1j und 2j zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche im Array- Raum definiert.The location of the respective maximum M j determined in this way is defined as the location of the image of the respective element of the object surface in the array space that corresponds to the two corresponding elements 1 j and 2 j.

Aus dem Ort dieses Maximums Mj im Array-Raum wird die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche, da die Geometrie der 3D- Aufnahmeanordnung bekannt ist. So können die Positionen von den Elementen einer Objektoberfläche, von welchen Signalverläufe aufgenommen werden, berechnet werden, wobei die Geometrie der 3D- Aufnahmeanordnung bekannt und die Verschiebungen, einschließlich die Schrittweite der Verschiebung, der beiden Empfänger-Arrays vorbestimmt sind.From the location of this maximum M j in the array space, the z O coordinate of the respective element of the object surface in the z O direction is calculated using Newton's mapping equation, and thus also the x O and y O position of the respective element of an object surface, since the geometry of the 3D recording arrangement is known. In this way, the positions of the elements of an object surface from which signal profiles are recorded can be calculated, the geometry of the 3D recording arrangement being known and the displacements, including the step width of the displacement, of the two receiver arrays being predetermined.

Dieser so berechnete Kurvenzug über dem Weg der Verschiebung kann den Verlauf einer Gauß-Funktion aufweisen. Es wird in diesem Kurvenzug das Maximum bestimmt, wobei der Ort des Maximums des Kur­ venzuges den beiden originalen Signalverläufen S1j und S2j und damit dem Weg der Verschiebung zuge­ ordnet wird. Das Maximums des Kurvenzuges kann auch über eine Schwerpunktbildung erfolgen. Der Ort des Maximums wird als Ort des zugehörigen Elementes der Objektoberfläche definiert. Dabei können In­ terpolationsmethoden angewendet werden.This curve path calculated in this way over the path of the displacement can have the course of a Gaussian function. The maximum is determined in this curve, the location of the maximum of the curve being assigned to the two original signal profiles S 1j and S 2j and thus to the path of the shift. The maximum of the curve can also be done by forming a center of gravity. The location of the maximum is defined as the location of the associated element of the object surface. Interpolation methods can be used.

Dieses Verfahren kann als Korrelationsverfahren mit zwei gefensterten Signalverläufen und einem dabei stückweise jeweils invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objek­ toberfläche bezeichnet werden.This method can be referred to as a correlation method with two windowed signal profiles and a signal profile which is inverted piece by piece to determine the z 0 position of an element of the object surface.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zumindest näherungsweise zur Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, und das erste und das zweite Empfänger-Array mindestens je eine Empfängerfläche aufweisen, die jeweils senkrecht zum Hauptschnitt liegt. Dabei enthält die Empfängerfläche des ersten Empfänger-Arrays vorzugsweise die Strecke ASA1, die auf einer Strecke auf dem ersten oberen Ast eines Buchstabens Y liegt. Weiterhin liegt vorzugsweise die Strecke ASA1 parallel zu einer Geraden gA1P, die zum einen den Brennpunkt des ersten Abbildungsobjek­ tivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebe­ nen schneidet, so daß die detektierenden Elemente des erstes Empfänger-Arrays im Hauptschnitt auf der Strecke ASA1 angeordnet sind. Dabei bildet vorzugsweise ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y.Furthermore, in an arrangement for 3D recording of at least one object surface with two imaging beam paths with two at least approximately identical, parallel arranged imaging lenses, a first imaging lens and a second imaging lens, the main planes of the two imaging lenses being brought at least approximately to the coincidence and each of them One receiver array is assigned to each of the detector elements, so that a first and a second receiver array are arranged with elements, and the first and the second receiver array each have at least one receiver surface, each of which is perpendicular to the main section. The receiver area of the first receiver array preferably contains the segment AS A1 , which lies on a segment on the first upper branch of a letter Y. Furthermore, the distance AS A1 is preferably parallel to a straight line g A1P which, on the one hand, intersects the focal point of the first imaging lens in the array space and, on the other hand, the intersection point P A of the axis of symmetry SL between the two optical axes of the two imaging lenses through the coinciding main planes intersects, so that the detector elements of the first receiver array are arranged in the main section on the line AS A1 . Part of the line of symmetry SL preferably forms the lower part of the letter Y.

Mindestens eine Empfängerfläche des zweiten Empfänger-Array liegt vorzugsweise auf einer Strecke AS2 auf dem zweiten oberen Ast des Buchstabens Y und enthält die Strecke ASA2, die parallel zu einer Gera­ den gA2P liegt, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet, so daß die detek­ tierenden Elemente des zweites Empfänger-Arrays im Hauptschnitt auf der Strecke ASA1 angeordnet sind, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Diese Anordnung ermög­ licht die Detektion von beleuchteten Elementen der Objektoberfläche im Objektraum auf einer Ebene senkrecht zum Hauptschnitt.At least one receiver surface of the second receiver array is preferably on a line AS 2 on the second upper branch of the letter Y and contains the line AS A2 , which is parallel to a line g A2P , which is the focal point of the second imaging lens in the array -Space intersects and on the other hand intersects the intersection point P A of the axis of symmetry SL between the two optical axes of the two imaging lenses through the coinciding main planes, so that the detec ting elements of the second receiver array are arranged in the main section on the route AS A1 , part the line of symmetry SL forms the lower part of the letter Y. This arrangement enables the detection of illuminated elements of the object surface in the object space on a plane perpendicular to the main section.

Die Empfänger-Matrizen sind im Aufbau gleich und in einer zur Symmetrieilinie SL symmetrischen Positi­ on und in gleicher Höhe angeordnet. Die Signale der beiden Empfängerflächen werden zeilenweise aus­ gelesen, so daß die Empfängerfläche des ersten Empfänger-Arrays die Signalverläufe S1 und die Emp­ fängerfläche des zweiten Empfänger-Arrays die Signalverläufe S2 liefert. Diese Signalverläufe werden Zeile für Zeile ausgewertet, wobei die Zeilen in gleicher Entfernung vom Hauptschnitt die jeweils korre­ spondierenden Elemente enthalten. Für das Auffinden des Ortes eines Elementes der Objektoberfläche im Objektraum kommt die Auswertung entsprechend dem bereits beschriebenen Korrelationsverfahren mit zwei gefensterten Signalverläufen zur Anwendung. Auch hier werden durch eine Fensterfunktion Si­ gnalstücke erzeugt. Ein Signalstück wird dabei jeweils invertiert, indem die Signalwerte gespiegelt werden. Es wird die Kreuzkorrelation jeweils von einem originalen Signalstück und jeweils von einem invertierten Signalstück, wobei die Signalstücke jeweils symmetrisch angeordnete Zeilenausschnitte in der 3D- Anordnung repräsentieren, durchgeführt und jeweils ein Korrelationskoeffizient gewonnen und abgespei­ chert. Dabei wird das Fenster der Fensterfunktion, welches beispielsweise eine Länge von 64 Pixeln auf­ weisen kann, beispielsweise in Schritten von einem Inkrement verschoben, das hier einem Pixel in der je­ weils ausgewerteten Zeile entspricht. Für Überblicksmessungen kann auch ein größerer Verschiebung­ schritt des Fensters als um ein Pixel erfolgen, beispielsweise um vier Pixel. Die Länge des Fensters wird in Abhängigkeit von der relativen Öffnung und vom mittleren Abstand der Objektoberfläche gewählt. Dabei kann die Fensterlänge auch variabel gestaltet werden, beispielsweise kann für die fokusnahen Bereiche der Empfänger-Matrix eine geringere Fensterlänge gewählt werden. So erfolgt die Bestimmung der zO- Position der Elemente der Objektoberfläche in einer zum Hauptschnitt senkrechten Ebene in der Symme­ trielinie SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive.The receiver matrices are identical in structure and arranged in a position symmetrical to the line of symmetry SL and at the same height. The signals of the two receiver areas are read line by line, so that the receiver area of the first receiver array delivers the signal profiles S 1 and the receiver area of the second receiver array provides the signal profiles S 2 . These signal profiles are evaluated line by line, the lines containing the corresponding sponding elements at the same distance from the main cut. In order to find the location of an element of the object surface in the object space, the evaluation is used in accordance with the correlation method already described with two windowed signal profiles. Here, too, signal pieces are generated by a window function. A signal piece is inverted by mirroring the signal values. The cross-correlation is carried out in each case by an original signal piece and in each case by an inverted signal piece, the signal pieces each representing symmetrically arranged line sections in the 3D arrangement, and in each case a correlation coefficient is obtained and stored. The window of the window function, which can have a length of 64 pixels, for example, is shifted, for example, in increments of one, which here corresponds to a pixel in the line evaluated in each case. For overview measurements, the window can also be shifted more than one pixel, for example by four pixels. The length of the window is chosen depending on the relative opening and the average distance of the object surface. The window length can also be made variable, for example, a shorter window length can be selected for the areas of the receiver matrix close to the focus. Thus, the z o position of the elements of the object surface is determined in a plane perpendicular to the main section in the symmetry line SL between the two optical axes of the two imaging lenses.

Die Auswertung erfolgt mit dem Korrelationsverfahren mit zwei gefensterten Signalverläufen wie oben be­ reits dargestellt.The evaluation is carried out using the correlation method with two windowed waveforms as above already shown.

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche einem Beleuchtungsobjektiv eine erstes Abbildungsobjektiv mit einem Empfänger-Array und ein zweites Abbil­ dungsobjektiv mit einem Empfänger-Array zugeordnet sind, wobei das Pupillenzentrum PZOA des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet ist. Jedem der beiden Abbildungsobjektiv ist je ein räumlich strukturiertes Empfänger-Array zugeordnet, so daß ein erstes und ein zweites Empfänger-Array im Array-Raum angeordnet sind.Furthermore, in an arrangement for 3D recording of at least one object surface, a lighting lens can be assigned a first imaging lens with a receiver array and a second imaging lens with a receiver array, the pupil center PZ OA of the first imaging lens at a distance d from the pupil center PZ OB of the lighting lens is arranged. A spatially structured receiver array is assigned to each of the two imaging lenses, so that a first and a second receiver array are arranged in the array space.

Dabei weisen das erste und das zweite räumlich strukturierte Empfänger-Array mindestens je zwei Emp­ fängerflächen auf räumlich getrennten Flächen auf und die Empfängerflächen des ersten Empfänger- Arrays sind jeweils so angeordnet und die Empfängerflächen des zweiten Empfänger-Arrays sind jeweils so angeordnet, daß zumindest näherungsweise Paare von optisch konjugierten Bildern zumindestens von Teilen von Empfängerflächen des ersten Empfänger-Arrays sowie von Teilen der Empfängerflächen des zweiten Empfänger-Arrays im Objektraum gebildet sind. Auch hier erfolgt die Auswertung mit dem Korre­ lationsverfahren mit zwei gefensterten Signalverläufen wie oben bereits dargestellt. The first and the second spatially structured receiver array each have at least two emp catcher areas on spatially separate areas and the recipient areas of the first recipient Arrays are each arranged in this way and the receiver areas of the second receiver array are each so arranged that at least approximately pairs of optically conjugated images at least from Share receiver areas of the first receiver array and parts of the receiver areas of the second receiver arrays are formed in the object space. Here too, the evaluation is carried out with the correction lationsverfahren with two windowed waveforms as already shown above.  

Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mit min­ destens zwei Abbildungsstrahlengängen mit mindestens je einem Abbildungsobjektiv in jedem Abbil­ dungsstrahlengang. Dabei ist das Pupillenzentrum (PZOA1) eines Abbildungsobjektivs eines Abbildungs­ strahlenganges mindestens im Abstand d vom Pupillenzentrum (PZOA2) eines anderen Abbildungsobjek­ tivs eines anderen Abbildungsstrahlenganges angeordnet, wobei der Abstand d mindestens ein Achtel der Ausdehnung der Öffnungsblende des Abbildungsobjektivs mit der größten Ausdehnung der Öffnungs­ blende entspricht. Weiterhin ist jedem Abbildungsobjektiv mindesten je ein Empfänger-Array mit minde­ stens zwei detektierenden Element zugeordnet.Furthermore, in an arrangement for 3D recording of at least one object surface with at least two imaging beam paths with at least one imaging lens in each imaging beam path. The pupil center (PZ OA1 ) of an imaging lens of an imaging beam path is at least at a distance d from the pupil center (PZ OA2 ) of another imaging lens of another imaging beam path, the distance d being at least one eighth of the extent of the aperture of the imaging lens with the greatest extent of Opening aperture corresponds. Furthermore, at least one receiver array with at least two detector elements is assigned to each imaging lens.

Erfindungsgemäß ist dabei jedem Empfänger-Array mindestens jeweils ein mikrooptisches Array mit mi­ krooptischen Elementen zur Beeinflussung der geometrisch-optischen Gegenstandsweite der detektie­ renden Elemente zum zugehörigen Abbildungsobjektiv zugeordnet und im Objektraum ist mindestens ein Paar von zumindest näherungsweise koinzidierenden Bildern von je einem Bild eines Elementes der Empfängerflächen je eines Abbildungsstrahlenganges gebildet.According to the invention, each receiver array is at least one micro-optical array with mi Crooptic elements to influence the geometrical-optical object range of the detection elements associated with the associated imaging lens and there is at least one in the object space Pair of at least approximately coinciding images of one image of an element of the Receiver surfaces each formed an imaging beam path.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro­ optische Array als ein Mikroprismen-Array ausgebildet sein. Dabei kann ein Mikropisma mehrere detektie­ rende Elemente überdecken, so daß aufgrund der unterschiedlichen optischen Dicke des Mikroprismas die mehrere detektierende Elemente eine jeweils andere optische Gegenstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine andere Lage im Objektraum einnehmen. So kann aus den Bildern von mehreren detektierende Elementen eine Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelationsverfahrens kann so mindestens der Ort eines Elementes ei­ ner Oberfläche bestimmt werden.Furthermore, in an arrangement for 3D recording of at least one object surface, the micro optical array can be designed as a microprism array. One micropism can detect several rende elements cover, so that due to the different optical thickness of the micro prism the several detecting elements each have a different optical object distance to the associated one Have imaging lens and so its image occupy a different position in the object space. So can a track can be formed in the object space from the images of several detecting elements. Means the cross-correlation method already described can at least the location of an element ner surface can be determined.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro­ optische Array als ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher axialer Lage ausgebildet ist. So kann jedes Empfängerelement durch die abbildende Wirkung der Mikkrolinse eine andere optische Ge­ genstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine andere Lage im Objektraum einnehmen. Dadurch kann an unterschiedlichen Orten des Objektraumes ein Bild der detek­ tierenden Elementen erzeugt sein. So kann aus den Bildern von mehreren detektierenden Elementen eine Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelationsverfahrens kann so mindestens der Ort eines Elementes einer Oberfläche bestimmt werden.Furthermore, in an arrangement for 3D recording of at least one object surface, the micro optical array is designed as a microlens array with microlenses of different axial positions. So can each receiver element by the imaging effect of the microlens a different optical Ge have object distance to the associated imaging lens and so its image a different location in Take up object space. As a result, an image of the detec can be displayed at different locations in the object space be generated elements. So one can from the images of several detecting elements Be formed in the object space. By means of the cross-correlation method already described, so at least the location of an element of a surface can be determined.

Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro­ optische Array als ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite ausgebildet sein. Auch hierbei kann jedes Empfängerelement durch die abbildende Wirkung der Mikkrolinse eine andere optische Gegenstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine an­ dere Lage im Objektraum einnehmen. Dadurch kann an unterschiedlichen Orten des Objektraumes ein Bild der detektierenden Elementen erzeugt sein. So kann aus den Bildern von mehreren detektierenden Elementen eine Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelations­ verfahrens kann so mindestens der Ort eines Elementes einer Oberfläche bestimmt werden. Die Mikrolin­ sen können dabei Bestandteil eines Mikro-Teleskopes sein. Furthermore, in an arrangement for 3D recording of at least one object surface, the micro optical array can be designed as a microlens array with microlenses of different focal lengths. Here too, each receiver element can be different due to the imaging effect of the microlens have optical object distance to the associated imaging lens and thus its image occupy a different position in the object space. This can result in different locations in the object space Image of the detecting elements can be generated. So from the images of several detectors  Elements can be formed a track in the object space. Using the cross-correlation already described method, at least the location of an element of a surface can be determined in this way. The Mikrolin sen can be part of a micro-telescope.  

6. Ausführungsbeispiele6. Embodiments

In der Fig. 1 werden die Anordnung und das Verfahren dargestellt. Es wird zwischen dem Array-Raum und dem Objektraum unterschieden. Es wird die folgende Notation verwendet, die von der üblichen abweicht, sich aber bei dieser und den im weiteren dargestellten optischen Schaltungen als vorteilhaft für die Beschreibung erwiesen hat: Die Größen und Punkte des Array-Raumes der werden an erster Stelle mit dem Buchstaben A indiziert und die Größen und Punkte des Objektraumes mit dem Buchstaben O. An zweiter Stelle im Index wird das zugehörige Objektiv gekennzeichnet und zwar im Falle der Zugehörigkeit zum Beleuchtungsobjektiv 1 mit dem Buchstaben B und im Falle der Zugehörigkeit zum Abbildungsobjektiv 2 mit dem Buchstaben A.In FIG. 1, the arrangement and the method are represented. A distinction is made between the array space and the object space. The following notation is used, which deviates from the usual, but has proven to be advantageous for the description in this and the optical circuits shown below: The sizes and points of the array space are indicated in the first place with the letter A. and the sizes and points of the object space with the letter O. In the second position in the index, the associated lens is identified, namely if it belongs to the lighting lens 1 with the letter B and if it belongs to the imaging lens 2 with the letter A.

Im Array-Raum befinden sich ein Liniengitter 3 mit der Gitterkonstante p und eine vorgeordnete Strahlungsquelle mit sichtbarem Licht, also eine Lichtquelle 4. Diese Lichtquelle 4 kann rechnergesteuert sein, so daß die mittlere Beleuchtungsstärke der Entfernung des jeweiligen Schärfebene nach dem photometrischen Gesetz angepaßt ist. Dies stellt eine gute Ausnutzung der Lichtenergie dar.In the array space there is a line grating 3 with the grating constant p and an upstream radiation source with visible light, that is to say a light source 4 . This light source 4 can be computer-controlled, so that the average illuminance is adapted to the distance of the respective sharpening plane according to the photometric law. This represents a good use of light energy.

Das Liniengitter 3 ist dem Beleuchtungsobjektiv 1 mit einem streng telezentrischen Strahlengang im Array-Raum achssenkrecht und extrafokal zugeordnet. Das Beleuchtungsobjektiv 1 bildet das Liniengitter 3 in den Objektraum ab, wodurch zumindest zu einem Zeitpunkt eine strukturierte Beleuchtung der Objektoberfläche 5 entsteht. Zur Vereinfachung sind die beiden Hauptebenen des Beleuchtunsobjektivs 1, HAB und HOB, in der Fig. 1 zusammengelegt. Bei realen Objektiven dieser K1asse liegen die beiden Hauptebenen weit auseinander.The line grating 3 is assigned to the illumination lens 1 with a strictly telecentric beam path in the array space, perpendicular to the axis and extrafocal. The illumination objective 1 maps the line grating 3 into the object space, as a result of which structured illumination of the object surface 5 occurs at least at one point in time. For simplification, the two main planes of the illumination lens 1 , H AB and H OB , are combined in FIG. 1. In real lenses of this class, the two main levels are far apart.

Im Array-Raum ist eine Empfänger-Matrix 6 dem Abbildungsobjektiv 2, welches einen ebenfalls streng telezentrischen Strahlengang im Array-Raum aufweist, achssenkrecht und extrafokal zugeordnet. Das Abbildungsobjektiv 2 bildet die Objektoberfläche 5 in den Array-Raum ab. Ein einzelner Abbildungsstrahl AO1 ist dargestellt. Zur Vereinfachung sind die beiden Hauptebenen des Abbildungsobjektivs 2, HAA und HOA, in der Fig. 1 ebenfalls zusammengelegt.In the array space, a receiver matrix 6 is assigned to the imaging objective 2 , which also has a strictly telecentric beam path in the array space, perpendicular and extrafocal. The imaging lens 2 images the object surface 5 in the array space. A single imaging beam A O1 is shown. For simplification, the two main planes of the imaging lens 2 , H AA and H OA , are also merged in FIG. 1.

Das Beleuchtungs- 1 und das Abbildungsobjektiv 2 sind mit ihren optischen Achsen zueinander parallel mit dem Achsenabstand d angeordnet. Das Beleuchtungs- 1 und das Abbildungsobjektiv 2 weisen die array-seitigen Brennpunkte FAB und FAA und im Objektraum die Brennpunkte FOB und FOA auf. Wegen der Telezentrie fallen im Objektraum die Brennpunkte FOB und FOA mit den Austrittspupillen PZOB und PZOA zusammen. Es sind zwei Beleuchtungsstrahlen BSO1 und BSO2 und ein Abbildungsstrahl ABSO dargestellt.The optical lens 1 and the imaging lens 2 are arranged with their optical axes parallel to one another with the axis spacing d. The illumination lens 1 and the imaging lens 2 have the focal points F AB and F AA on the array side and the focal points F OB and F OA in the object space. Because of the telecentricity, the focal points F OB and F OA coincide with the exit pupils PZ OB and PZ OA in the object space. Two illumination beams BS O1 and BS O2 and an imaging beam ABS O are shown.

Die hier nicht dargestellte, erste Linearführung des Bewegungssystems ist mit der Empfänger-Matrix 6 starr verbunden und trägt eine zweite, hier ebenfalls nicht dargestellte, kleinere Linearführung, die wiederum das Liniengitter 3 trägt. Dieses Liniengitter 3 ist deutlich länger ausgeführt als es dem vom Beleuchtungsobjektiv 1 erfaßten Bildfeld entspricht, um im gesamten Bewegungsvorgang stets das gesamte Bildfeld zu überdecken. The first linear guide of the movement system, not shown here, is rigidly connected to the receiver matrix 6 and carries a second, smaller linear guide, also not shown here, which in turn carries the line grating 3 . This line grid 3 is designed to be significantly longer than it corresponds to the image field captured by the illumination lens 1 in order to always cover the entire image field in the entire movement process.

Die erste Linearführung ist mit einem hochgenauen Längen-Meßsystem verbunden, welches einen hochstabilen Nullpunkt aufweist. Die Bewegungsachse der ersten Linearführung ist parallel zu den Objektivachsen und die Meßachse des Längen-Meßsystems liegt dabei parallel zu den beiden Objektivachsen. Die Bewegungsrichtung der zweiten Linearführung liegt senkrecht zu den Objektivachsen. Dem Liniengitter 3 auf der zweiten Linearführung ist ein mit der ersten Linearführung fest verbundenes Gegengitter mit einer kompletten Beleuchtungs- und Empfänger-Optik in der Art eines inkrementalen Längenmeßsystems zugeordnet. Die vorhandene Auswerte-Elektronik weist eine elektronische Schnittstelle zum Rechner auf, um die berechnete Verschiebung des Liniengitters 3 als Phaseninformation echtzeitnah im Rechner zur Verfügung zu haben. Gleichzeitig ist auf dem Liniengitter 3 im Teil außerhalb des genutzten Bildfeldes eine erste Referenzstruktur aufgebracht, die von einer zweiten Referenzstruktur, die ebenfalls auf dem Gegengitter aufgebracht ist, optisch abgetastet wird. Auch dabei ist eine Beleuchtungs- und Empfänger-Optik beigeordnet und eine Auswerte-Elektronik vorhanden. Die zweite Auswerte-Elektronik weist ebenfalls eine elektronische Schnittstelle zum Rechner auf, um das Durchfahren des Nullpunktes des Liniengitters in Echtzeit im Rechner zur Verfügung zu haben.The first linear guide is connected to a highly accurate length measuring system, which has a highly stable zero point. The movement axis of the first linear guide is parallel to the objective axes and the measuring axis of the length measuring system lies parallel to the two objective axes. The direction of movement of the second linear guide is perpendicular to the objective axes. The line grating 3 on the second linear guide is assigned a counter-grating which is firmly connected to the first linear guide and has a complete illumination and receiver optics in the manner of an incremental length measuring system. The existing evaluation electronics have an electronic interface to the computer in order to have the calculated displacement of the line grid 3 as phase information available in real time in the computer. At the same time, a first reference structure is applied to the line grating 3 in the part outside the image field used, which is optically scanned by a second reference structure, which is also applied to the counter grating. Here too, lighting and receiver optics are assigned and evaluation electronics are available. The second evaluation electronics also has an electronic interface to the computer in order to have the zero point of the line grid in the computer in real time.

Beide Linearführungen des Bewegungssystems starten aus der Nullposition heraus. Die Bewegungsrichtung der ersten Linearführung ist parallel zur optischen Achse des Abbildungsobjektivs ausgerichtet. Die Bewegung erfolgt zu den Brennpunkten hin. Der kleineren, zweiten Linearführung, die das Liniengitter 3 trägt, ist ein Positions-Regelsystem zugeordnet, um eine Bewegung des Liniengitters mit einer möglichst konstanten Geschwindigkeit und damit auch mit einer konstanten Phasengeschwindigkeit realisieren zu können. Die Bewegungsrichtung der zweiten Linearführung ist senkrecht zur optischen Achse des Beleuchtungsobjektiv 1 und erfolgt nach dem Start in Richtung des Beleuchtungsobjektivs 1.Both linear guides of the motion system start from the zero position. The direction of movement of the first linear guide is aligned parallel to the optical axis of the imaging lens. The movement takes place towards the focal points. A position control system is assigned to the smaller, second linear guide, which carries the line grating 3 , in order to be able to realize a movement of the line grating with a speed that is as constant as possible and thus with a constant phase speed. The direction of movement of the second linear guide is perpendicular to the optical axis of the illumination lens 1 and takes place after the start in the direction of the illumination lens 1 .

Aus der aktuellen, absoluten Istphase ϕGitter des Liniengitters 3, die von einem Nullpunkt abgeleitet ist, werden die Sollwerte für die Position der ersten Linearführung errechnet. Dies erfolgt so, daß sich die Orte gleicher Phase oder gleicher relativer Leuchtdichte auf dem Liniengitter 3 parallel zu einer Geraden gA, beispielsweise parallel zur Geraden gA2, auf der B-Strecke BSA2 bewegen. Diese Gerade gA ist so definiert, daß sie den Brennpunkt FAB des Beleuchtungsobjektivs 1 und außerdem den Hauptpunkt HAA des Abbildungsobjektivs 2 schneidet.The setpoints for the position of the first linear guide are calculated from the current, absolute actual phase ϕ grid of the line grid 3 , which is derived from a zero point. This is done in such a way that the locations of the same phase or the same relative luminance on the line grating 3 move parallel to a straight line g A , for example parallel to the straight line g A2 , on the B section BS A2 . This straight line g A is defined in such a way that it intersects the focal point F AB of the illumination lens 1 and also the main point H AA of the imaging lens 2 .

Die leuchtenden Flächenelemente FEL bewegen sich im Array-Raum auf den Verschiebungsstrecken VSAj, die hier durch die Sollstrecken, die B-Strecken BSAj, repräsentiert sind. Die Bilder dieser B-Strecken BSAj, einschließlich der in der Fig. 1 dargestellten B-Strecken BSA1 und BSA2, werden in den Objektraum abgebildet. Beispielsweise werden aus den B-Strecken BSA1 und BSA2 die Bilder BSA1 und BSA2. Die Bilder BSA1 und BSA2 bilden ein Streckenbüschel SB1 mit dem Konvergenzpunkt K1, der mit den Brennpunkt FOA des Abbildungsobjektivs 2 zusammenfällt. Weiterhin werden die Elemente des Empfänger-Arrays auf Strecken ASAj verschoben. Dargestellt sind die Strecken ASA1 und ASA2. Deren Bilder stellen im Objektraum das Streckenbündel SB2 mit den Strecken ASO1 und ASO2 mit dem Konvergenzpunkt K2 dar, der im Brennpunkt FOA des Abbildungsobjektivs 2 mit dem Konvergenzpunkt K1 koinzidiert, wobei der Koinzidenzpunkt von Konvergenzpunkt K1 und von Konvergenzpunkt K2 im allgemeinen stets der Koinzidenzpunkt K0 ist.The luminous surface elements FEL move in the array space on the displacement lines VS Aj , which are represented here by the target lines, the B lines BS Aj . The images of these B sections BS Aj , including the B sections BS A1 and BS A2 shown in FIG. 1, are depicted in the object space. For example, the B routes BS A1 and BS A2 become images BS A1 and BS A2 . The images BS A1 and BS A2 form a cluster of lines SB 1 with the convergence point K 1 , which coincides with the focus F OA of the imaging lens 2 . Furthermore, the elements of the receiver array are moved on AS Aj lines. The routes AS A1 and AS A2 are shown . Their pictures represent the route bundle SB 2 with the routes AS O1 and AS O2 with the convergence point K 2 in the object space, which coincides in the focal point F OA of the imaging lens 2 with the convergence point K 1 , the point of convergence of the convergence point K 1 and of the convergence point K 2 is generally the point of coincidence K 0 .

Durch dieses Bewegungsregime werden die achssenkrechten Ebenen des Objektraumes von der Schärfefläche nacheinander "durchfahren", indem sich in jeder dieser Ebenen bei Vorhandensein einer Objektoberfläche ein vom Beleuchtungsobjektiv 1 scharf abgebildetes Streifenmuster beobachten läßt, welches durch das Abbildungsobjektiv 2 auf die Empfänger-Matrix 6 abgebildet wird. Durch das so realisierte Bewegen der Orte gleicher Phase oder gleicher relativer Leuchtdichte auf dem Liniengitter 3 parallel zu einer Geraden gA wird das sogenannte "Mitführen der Phase in der Schärfefläche erreicht. Dies führt dazu, daß jedes hinreichend kleine Objektdetail, im Objektraum, wenn es von der Schärfefläche "erfaßt" wird, ein moduliertes periodisches Signal im zugehörigen Pixel ij auf der Empfänger-Matrix 6 erzeugt, in welchem die Information über die absolute Phase des Objektpunktes ϕObj_ij enthalten ist. Diese absolute Phase entspricht beispielsweise für den Objektpunkt AO2 in Fig. 1 der gedachten Anzahl der Streifen n, einschließlich der Streifenbruchteile Δn, zwischen den beiden Objektiv-Achsen, also n + Δn. Diese Streifen sind im Fall einer ebenen, achssenkrecht angeordneten Platte direkt zu beobachten. Dennoch kann im allgemeinen die so zu beobachtende absolute Objektphase aufgrund der nicht genau bekannten Zuordnung der beiden optischen Achsen zu den Pixeln der Empfänger-Matrix 6 nicht bestimmt werden.By means of this movement regime, the planes of the object space perpendicular to the axis are “traversed” one after the other by the focus area in that, in the presence of an object surface, a stripe pattern sharply imaged by the illumination objective 1 can be observed, which is imaged by the imaging objective 2 onto the receiver matrix 6 . By moving the locations of the same phase or the same relative luminance on the line grating 3 parallel to a straight line g A in this way , the so-called "carrying the phase in the focus area is achieved. This leads to the fact that every sufficiently small object detail, in the object space, if it is is "captured" by the focus, a modulated periodic signal is generated in the associated pixel ij on the receiver matrix 6 , which contains the information about the absolute phase of the object point ϕ Obj_ij . This absolute phase corresponds, for example, for the object point A O2 in Fig. 1 of the imaginary number of the strips n, including the strip fractions .DELTA.n, between the two lens axes, that is n + .DELTA.n. These strips are in the case of a flat, axially perpendicular plate arranged to observe directly. generally Nevertheless, the so observed absolute object phase due to the not exactly known assignment of the two optical axes to the pixels of the Receiver matrix 6 can not be determined.

Anhand der Fig. 1 läßt sich zeigen, daß in der Position AO1BO1 die Anzahl der Streifen n + 1 + Δn, die zwischen den beiden Objektivachsen zu beobachten ist, genau der Anzahl n + 1 + Δn der Gitterperioden des Liniengitters 3 im Array-Raum entspricht, die sich beim Zählen von der Achse des Beleuchtungsobjektivs 1 in xAB-Richtung ergibt. Weiterhin definiert der Punkt GAB genau den Ort auf dem Gitterelement des Liniengitters 3, welcher beim Bewegen auf der Geraden gA im Teilbereich des Gitterinkrements den Brennpunkt FAB des Beleuchtungsobjektivs 1 schneidet. Demzufolge entspricht, die absolute, lateral invariante Objektphase ϕObj der achssenkrechten Ebene dem Abstand GQ.Referring to Figs. 1 show that in the position A O1 B O1 n is the number of the strips + 1 + .DELTA.n, which can be observed between the two lens axes, n exactly to the number + 1 + .DELTA.n the grating periods of the line grating 3 can be in the Corresponds to the array space that results when counting from the axis of the illumination lens 1 in the x AB direction. Furthermore, the point G AB precisely defines the location on the grating element of the line grating 3 , which intersects the focal point F AB of the illumination objective 1 when moving on the straight line g A in the partial region of the grating increment. As a result, the absolute, laterally invariant object phase ϕ Obj of the plane perpendicular to the axis corresponds to the distance GQ.

Bei Kenntnis des zugehörigen Punktes GAB auf dem Liniengitter 3 und des Wertes xAB1 sowie der Gitterkonstanten p läßt sich grundsätzlich die absolute, lateral invariante Objektphase ϕObj der achssenkrechten Ebene im Objektraum mit
If the associated point G AB on the line grid 3 and the value x AB1 and the grid constant p are known, the absolute, laterally invariant object phase ϕ Obj of the plane perpendicular to the axis can be used in the object space

errechnen. Im Fall der Übereinstimmung der realen Lage der Objektivachse des Abbildungsobjektivs mit der Geraden gO, die ja definitionsgemäß parallel zur Objektivachse des Beleuchtungsobjektivs 1 liegt, gelten die dargestellten Zusammenhänge nach Gleichung (7).calculate. If the real position of the objective axis of the imaging objective corresponds to the straight line g O , which by definition lies parallel to the objective axis of the illumination objective 1 , the relationships shown according to equation (7) apply.

Bevor die Messung, d. h. die Gewinnung der Punktwolke einer unbekannten Objektoberfläche 5 erfolgen kann, muß das System mit Hilfe einer Referenzplatte in einer achssenkrechten Position erfolgen. Dies erfolgt mit Vorteil in der Nahdistanz der 3D-Aufnahme-Anordnung, kann aber auch in jeder anderen Entfernung im Aufnahmebereich der 3D-Aufnahme-Anordnung erfolgen. Die in den Pixel der Empfänger-Matrix 6 sich dabei ergebenden Signalverläufe werden gespeichert. Aus diesen Signalverläufen wird mit Hilfe eines phasenauswertenden Algorithmus' die relative Referenzphase ϕRR_ij im Pixel ij des Empfänger-Arrays im Bereich des Modulationsmaximums berechnet, welches ein Signal von der Referenzplatte erhält. Die so bestimmten relativen Referenzphasen mod 2π werden der absoluten Phase ϕGitter des Liniengitters zugeordnet, siehe Fig. 2, und unter Beachtung des jeweiligen Vorzeichens von dieser subtrahiert und in einem Feld als Phasenwerte ϕGitterR_ij - in der Regel - längerfristig gespeichert. Die relativen Objektphasen der Objektpunkte ϕRObj_ij mod 2π werden jeweils von der absoluten Phase 9 Gitter des Liniengitters 3 unter Beachtung des jeweiligen Vorzeichens von dieser subtrahiert, wodurch die Phasenwerte ϕGitterObj_ij als Feld entstehen. Aus diesen Feldern werden punktweise die Phasendifferenzen ΔϕGitter_ij gebildet.Before the measurement, ie the extraction of the point cloud of an unknown object surface 5 , can take place, the system must take place in a position perpendicular to the axis with the aid of a reference plate. This takes place advantageously in the close range of the 3D recording arrangement, but can also be done at any other distance in the recording area of the 3D recording arrangement. The signal curves resulting in the pixels of the receiver matrix 6 are stored. The relative reference phase ϕ RR_ij in pixel ij of the receiver array in the region of the modulation maximum , which receives a signal from the reference plate , is calculated from these signal profiles with the aid of a phase-evaluating algorithm. The relative reference phases mod 2π determined in this way are assigned to the absolute phase ϕ grating of the line grating, see FIG. 2, and subtracted from this, taking into account the respective sign, and are stored in a field as phase values ϕ gratingR_ij - as a rule - in the longer term. The relative object phases of the object points ϕ RObj_ij mod 2π are each subtracted from the absolute phase 9 grid of the line grid 3, taking into account the respective sign, whereby the phase values ϕ gridObj_ij arise as a field. The phase differences Δϕ grid_ij are formed point by point from these fields.

Zuvor wurde aus der möglichst gut bekannten Entfernung zOR der Referenzplatte von der Brennebene die absolute, lateral invariante Phase ϕR der Referenzfläche mit der hier noch einmal dargestellten Gleichung (2)
Prior to this, the absolute, laterally invariant phase ϕ R of the reference surface was calculated from the distance z OR of the reference plate from the focal plane, which is as well known as possible, using equation (2), which is shown again here.

bestimmt, wobei diese Bestimmung iterativ zur Annäherung an deren wahren Wert mehrfach erfolgen kann. Es stellen d den Achsenabstand der beiden Objektive 1 und 2, fB die Brennweite des Beleuchtungsobjektivs 1 und p die Gitterkonstante des Liniengitters 3 dar.determined, this determination can be made several times iteratively to approximate its true value. It represents d the axis distance of the two lenses 1 and 2 , f B the focal length of the illumination lens 1 and p the grating constant of the line grating 3 .

Mit der Beziehung entsprechend Gleichung (4), wobei ΔϕGitter_ij sich für den Objektpunkt ij aus der Gleichung (3) ergibt,
With the relationship according to equation (4), where Δϕ grid_ij for the object point ij results from equation (3),

(-)ϕObj_ij = (-)ϕR + ΔϕGitter_ij (8)
(-) ϕ Obj_ij = (-) ϕ R + Δϕ grid_ij (8)

wird für den Objektpunkt ij die absolute Objektphase (-)ϕObj_ij aus Gleichung (8) gewonnen. Aus der Beziehung
the absolute object phase (-) ϕ Obj_ij is obtained from equation (8) for the object point ij. From the relationship

kann die zos-Koordinate des Objektpunktes zObj_ij im Objektraum berechnet werden, wobei der Objektpunkt mit dem Pixel ij der Empfänger-Matrix 6 optisch konjugiert ist.the zos coordinate of the object point z Obj_ij can be calculated in the object space, the object point being optically conjugated with the pixel ij of the receiver matrix 6 .

Durch achsparallele Verschiebungen ΔzOB von Planplatten, wobei die Verschiebungen mit einem Präzisions-Längenmeßsystem gemessenen werden, können Fehler abgeschätzt werden, indem die errechneten Verschiebungen mit den gemessenen verglichen werden. Die Nachjustierung der 3D-Aufnahme-Anordnung erfolgt iterativ. Die Restabweichungen werden in ein numerisches Modell eingegeben, welches hier nicht dargestellt ist, und können zur Korrektur benutzt werden.With axially parallel displacements Δz OB of plane plates, the displacements being measured with a precision length measuring system, errors can be estimated by comparing the calculated displacements with the measured ones. The readjustment of the 3D recording arrangement is carried out iteratively. The residual deviations are entered in a numerical model, which is not shown here, and can be used for correction.

Aus der Einrechnung des zu jedem Objektpunkt mit der Koordinate zObj_ij gehörenden aktuellen Abbildungsmaßstabes werden die kartesischen Koordinaten für jeden Objektpunkt ermittelt. Dabei kann ein neues Koordinatensystem mit dem Brennpunkt des Abbildungsobjektivs 2 als Nullpunkt für die lateralen Koordinaten in x- und y-Richtung verwendet werden. Damit stehen die 3D-Koordinaten der Objektoberfläche in digitaler Form als Punktwolke zur Verfügung. Diese Punktwolke wird je nach Aufgabenstellung für meßtechnische Applikationen oder Aufgaben mit einer 3D-Wiedergabe verwendet.The Cartesian coordinates for each object point are determined from the calculation of the current image scale belonging to each object point with the coordinate z Obj_ij . A new coordinate system with the focal point of the imaging objective 2 can be used as the zero point for the lateral coordinates in the x and y directions. The 3D coordinates of the object surface are thus available in digital form as a point cloud. Depending on the task, this point cloud is used for measurement applications or tasks with a 3D rendering.

Bei der Verschiebung eines Objektpunktes, der sich in der AO1BO1-Position in Fig. 1 befindet, in die AO2BO2-Position entlang des gezeichneten Abbildungsstrahls ABSO erfährt das im Bildpunkt dieses Objektpunktes detektierte Signal eine Änderung in der Phasenlage von 2π. Die Änderung in der zOB-Koordinate entspricht dem Δz2 π-Wert, also der Tiefenänderung, die einer Phasenänderung von 2π entspricht. Dieser Δz2 π-Wert wird als effektive Wellenlänge bezeichnet und ist tiefenabhängig.When an object point which is in the A O1 B O1 position in FIG. 1 is shifted into the A O2 B O2 position along the drawn imaging beam ABS O , the signal detected in the image point of this object point undergoes a change in the phase position of 2π. The change in the z OB coordinate corresponds to the Δz 2 π value, ie the change in depth, which corresponds to a phase change of 2π. This Δz 2 π value is called the effective wavelength and is depth-dependent.

Fig. 2 zeigt beispielsweise die Signalverläufe SO und SR in einem Bildpunkt der Empfänger-Matrix 6 in Bezug zum Signalverlauf SG, der am Liniengitter 3 mit Hilfe eines Gegengitters beim Bewegen des Gitters 3 detektiert werden kann. Dargestellt werden der Signalverlauf im Bildpunkt SO eines Objektpunktes und der Signalverlauf SR im Bildpunkt eines Referenzpunktes. Hierbei befindet sich die Referenzplatte näher am Brennpunkt FOB als die Objektoberfläche. Am Abtastpunkt APR im Bereich des Modulationsmaximums des Signals im Bildpunkt eines Referenzpunktes wird die relative Phase ϕRR errechnet und am Abtastpunkt APO im Bereich des Modulationsmaximums des Signals im Bildpunkt eines Objektpunktes die relative Phase ϕRObj. Mittels der Gleichung (3) wird die absolute Phasendifferenz ΔϕGittzer errechnet und mit Gleichung (4) die absolute Objektphase ϕObj, aus der mit der Gleichung (5) die zOB-Koordinate eines jeden Objektpunktes, nämlich zObj, bestimmt wird. Der hochstabile Nullpunkt N dient als Startpunkt. Fig. 2, for example shows the waveforms S O and S R in an image point of the receiver array 6 with respect to the waveform S G, which can be detected at the line grid 3 by means of a counter-grid upon movement of the grating 3. The signal curve in the pixel S O of an object point and the signal curve S R in the pixel of a reference point are shown. Here, the reference plate is closer to the focal point F OB than the object surface. The relative phase ϕ RR is calculated at the sampling point A PR in the area of the modulation maximum of the signal in the pixel of a reference point and the relative phase ϕ RObj at the sampling point A PO in the area of the modulation maximum of the signal in the pixel of an object point. The absolute phase difference Δ wird Gittzer is calculated using equation (3) and the absolute object phase ϕ Obj using equation (4), from which the z OB coordinate of each object point, namely z Obj , is determined using equation (5). The highly stable zero point N serves as the starting point.

Fig. 3 zeigt eine vorteilhafte 3D-Aufnahme-Anordnung mit nur einer Linearführung 7, beispielsweise für eine 3D-Aufnahme-Anordnung für Multimedia-Applikationen. Der Schlitten 8 der Linearführung 7 trägt ein Liniengitter 3 zur strukturierten Beleuchtung der Objektoberfläche 5. Die Beleuchtung erfolgt mittels einer Lichtquelle 4 durch eine Öffnung in der Basis 9 der Linearführung 7. Weiterhin trägt der Schlitten 8 die beweglichen Teile für ein Meßsystem 10 für den Verschiebeweg s, wobei auch ein Nullpunktgeber 11 angeordnet ist. Außerdem ist eine Auswerteelektronik mit Schnittstelle zum hier nicht dargestellten Auswerterechner vorhanden. Fig. 3 shows an advantageous 3D Recording arrangement with only a linear guide 7, for example, a 3D image arrangement for multimedia applications. The slide 8 of the linear guide 7 carries a line grating 3 for structured illumination of the object surface 5 . Illumination takes place by means of a light source 4 through an opening in the base 9 of the linear guide 7 . Furthermore, the carriage 8 carries the moving parts for a measuring system 10 for the displacement path s, a zero point transmitter 11 also being arranged. In addition, evaluation electronics with an interface to the evaluation computer, not shown here, are present.

Der Schlitten 8 wird von einem Linear-Motor 12 angetrieben und die Führung 7 weist ein miniaturisiertes Präzisionslager 13 auf. Als Empfänger-Matrix 6 kann auch eine farbtüchtige Kamera eingesetzt werden, wobei die farbsensitiven Pixel jeweils auf einer Linie quer zu den Linien des Liniengitters 3 angeordnet sein sollten.The carriage 8 is driven by a linear motor 12 and the guide 7 has a miniaturized precision bearing 13 . A color-capable camera can also be used as the receiver matrix 6 , wherein the color-sensitive pixels should each be arranged on a line transverse to the lines of the line grid 3 .

Nach dem Start des Schlittens 8 in (-)s-Richtung wird der Nullpunkt durchfahren und das Liniengitter 3 durch das Beleuchtungsobjektiv 1 nacheinander in unterschiedliche Tiefen des Objektraumes scharf abgebildet. Auf der Oberfläche der Objektoberfläche 5 entsteht beim Verschieben des Liniengitters 3 im Zeitbereich ΔtB zumindestens einmal im Verschiebevorgang das scharfe Bild desselben, beispielsweise zum Zeitpunkt ti. Dieses scharfe Bild wird auch zum Zeitpunkt ti vom Abbildungsobjektiv 2 auf die Empfänger-Matrix 6 scharf abgebildet, da diese sich in der gleichen Ebene wie das Liniengitter 3 befindet. Durch die Bewegung des Schlittens 8 der Führung 7 gibt es eine laterale Bewegung der Empfänger-Matrix 6, wobei das Bild der Objektoberfläche 5 in Bezug auf die Basis 9 feststeht. Um diese laterale Bewegung zu kompensieren, um eine feste Zuordnung der Punkte der Objektoberfläche 5, also der Abbildungsstrahlen, zu den Pixeln der Empfänger-Matrix 6 beizubehalten, werden die gewonnenen Bildinformationen pixelweise im Bilddaten-Massiv entsprechend der lateralen Bewegung der Empfänger-Matrix 6 verschoben. Damit wird erreicht, daß ein realer Abbildungsstrahl jeweils einem lateral feststehenden Bildpunkt unabhängig von der lateralen Bewegung der Empfänger-Matrix 6 fest zugeordnet bleibt. After the carriage 8 has started in the (-) s direction, the zero point is passed through and the line grating 3 is successively imaged by the illumination lens 1 in different depths of the object space. On the surface of the object surface 5 , when the line grid 3 is shifted in the time range Δt B, the sharp image of the same is formed at least once in the shifting process, for example at the time t i . This sharp image is also sharply imaged by the imaging lens 2 onto the receiver matrix 6 at time t i , since this is located in the same plane as the line grating 3 . The movement of the slide 8 of the guide 7 results in a lateral movement of the receiver matrix 6 , the image of the object surface 5 being fixed in relation to the base 9 . In order to compensate for this lateral movement, in order to maintain a fixed assignment of the points of the object surface 5 , that is to say the imaging beams, to the pixels of the receiver matrix 6 , the image information obtained is shifted pixel by pixel in the image data massif in accordance with the lateral movement of the receiver matrix 6 . It is thereby achieved that a real imaging beam remains firmly assigned to a laterally fixed image point independently of the lateral movement of the receiver matrix 6 .

Claims (183)

nsprüche< 1. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer elektroma­ gnetischen Strahlungsquelle (4), wobei die Strahlungsquelle (4) mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausge­ bildet ist und mindestens ein Flächenelement leuchtet, so daß mindestens ein leuchtendes Flächenele­ ment gebildet ist, wobei der Begriff Leuchten im Sinne des Aussendens von elektromagnetischer Strah­ lung verwendet wird,
wobei jedes leuchtende Flächenelement durch eine zumindest näherungsweise vorbestimmte Leuchtdich­ te und durch einen vorbestimmten Ort definiert ist, und dieses im weiteren als leuchtendes Flächenele­ ment FELj (3A) bezeichnet wird, und mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordneten Beleuch­ tungsobjektiv (1), welches eine Abbildung des mindestens einen leuchtenden Flächenelementes FELj (3A) realisiert und
mit mindestens einem Abbildungsstrahlengang für die Abbildung von Elementen der mindestens einen Objektoberfläche (5) und mindestens einem Empfänger-Array mit mindestens zwei Elementen und mit ei­ nem dem Empfänger-Array zugeordneten Abbildungsobjektiv (2, 33) und
daß Elemente des Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von Elemente der mindestens einen beleuchteten Objektoberfläche (5) im Objektraum detektieren und von Elementen des Empfänger-Arrays durch das Abbildungsobjektiv (2, 33) stets auch Bilder im Objektraum, der dem Szenenraum entspricht, mit einem geometrisch-optischen Schärfevolumen gebildet werden,
und daß Elemente der mindestens einen Objektoberfläche (5) mit mindestens einem Abbildungsobjektiv (2, 33) abgebildet werden und
durch die Abbildung des mindestens einen leuchtenden Flächenelementes FELj (3A) mit dem Beleuch­ tungsobjektiv (1) ein Bild eines leuchtenden Flächenelementes FELj (3A) im Objektraum mit einem geo­ metrisch-optischen Schärfevolumen gebildet wird,
gekennzeichnet dadurch, daß die Detektion von elektromagnetischer Strahlung von den Elementen der mindesten einen Objektoberfläche (5) durch die Elemente des Empfänger-Arrays mindestens in einem Zeitbereich (ΔtB) erfolgt, in welchem mit einem leuchtenden Flächenelement FELj (3A) des strukturiert leuchtenden Arrays eine vorbestimmte Verschiebung durchgeführt wird, einschließlich einer vorbestimm­ ten optischen Verschiebung als Ergebnis einer geometrisch-optischen Weglängenänderung, und so min­ destens ein leuchtendes Flächenelement FELj (3A) zu zwei unterschiedlichen Zeitpunkten an mindester zwei unterschiedlichen Orten elektromagnetische Strahlung aussendet und
das Schärfevolumen mindestens eines Bildes mindestens eines vorbestimmten, leuchtenden Flä­ chenelementes FELj (3A) des mindestens einen strukturiert leuchtenden Arrays, wobei dieses Schärfevo­ lumen im Objektraum gebildet ist, und
das Schärfevolumen mindestens eines Bildes mindestens eines vorbestimmten Elementes des Empfän­ ger-Arrays, wobei dieses Schärfevolumen im Objektraum gebildet ist, und
mindestens ein Element der mindestens einen Objektoberfläche (5)
zumindest näherungsweise einmal durch die Durchführung der vorbestimmten Verschiebung mindestens eines vorbestimmten, leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays mit zumindest einer Verschiebungskomponente in zA-Richtung im Array-Raum, also mit einer Verschiebungs­ komponente parallel zur optischen Achse des Beleuchtungsobjektiv (1),
zur Koinzidenz gebracht werden,
so daß im Objektraum zumindest einmal und zumindest näherungsweise die Koinzidenz des Schärfevo­ lumens eines Bildes eines vorbestimmten, leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays und des Schärfevolumens eines Bildes eines vorbestimmten Elementes des Empfän­ ger-Arrays und mindestens eines Elementes der mindestens einen Objektoberfläche (5) erzeugt wird und beim Auftreten der Koinzidenz zumindest das an dieser Koinzidenz beteiligte Element des Empfänger- Arrays zumindest einmal eine zeitlich veränderte Bestrahlung erfährt und so dieses Element des Empfän­ ger-Arrays zumindest einmal ein verändertes Signal detektiert
und so durch die Realisierung der Verschiebung im Zeitbereich ΔtB Elemente der mindestens einen Objekt­ oberfläche (5) gleichzeitig zur Koinzidenz mit dem Schärfevolumen eines Bildes eines vorbestimmten, leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays und dem Schärfevolumen eines Bildes eines vorbestimmten Elementes des Empfänger-Arrays gebracht werden und jeweils beim Auftreten der Koinzidenz das an dieser Koinzidenz jeweils beteiligte Element des Empfänger-Arrays zu­ mindest einmal eine zeitlich veränderte Bestrahlung erfährt und so dieses Element des Empfänger-Arrays zumindest einmal ein verändertes Signal detektiert.
2. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß je ein leuchtendes Flächenelement FELj (3A) in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung in einem Zeitbereich (ΔtB) zumindest näherungsweise auf je einer Verschiebungsstrecke (VSBAj) relativ zum Beleuchtungsobjektiv (1) verschoben wird und durch das Beleuchtungsobjektiv (1) abgebildet wird und dieses leuchtende Flächenelement FELj (3A) in einer Leuchtdichteverteilung mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt (t1) innerhalb des Zeitintervalls (Δti) stets auf
eine vorherbestimmte Strecke im Objektraum (BSOj) abgebildet wird und der Ort des Bildes des leuchtenden Flächenelementes FELj (3A) auf der Strecke (BSOj) nach und nach verändert wird und so das Bild des leuchtenden Flächenelementes FELj (3A) mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach durch den Objekt­ raum verschoben wird und
bei der Verschiebung je eines leuchtenden Flächenelementes FELj (3A) mehrfach nacheinander Signal­ werte aus Elementen des Empfänger-Arrays ausgelesen werden und so ein Signalverlauf gebildet wird und der Ort des jeweils ausgelesenen Elementes des Empfänger-Arrays verändert wird und
die Orte der ausgelesenen Elemente des Empfänger-Arrays auf einer Strecke (ASAj) liegen und das Bild dieser Strecke (ASAj), die Strecke (ASOj), mit der vorherbestimmten Strecke (BSOj) der Bilder der leuch­ tenden Flächenelemente FEL im Objektraum optisch konjugiert ist und so
je ein Bild eines Elementes des Empfänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenele­ mentes FELj (3A) zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) im Zeitbereich (ΔtB) im Objektraum zur Koinzidenz gebracht ist und so je ein Paar mit wechselnden Bildern erzeugt wird, und dieses Paar nach und nach durch den Objektraum geschoben wird,
so daß je ein Schärfevolumen des Bildes eines leuchtenden Flächenelementes des strukturiert leuchten­ den Arrays und je ein Bild eines Elementes des Empfänger-Arrays mit je einem Flächenelement der Ob­ jektoberfläche (5) einmal im Verschiebungsvorgang innerhalb eines Zeitbereiches (ΔtB) zusammenfallen wenn sich ein Element der Objektoberfläche (5) auf dem Abbildungsstrahl zwischen den Bildern der bei­ den Flächen (Fmin) und (Fmax) im erfaßten Bereich des Objektraumes befindet,
und die ausgelesenen Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signal­ verlauf mit mindestens einem relativen Extremum der Signalgröße detektieren,
wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitinter­ vall (Δti) im Zeitbereich (ΔtB) zeitlich eingepaßt wird.
3. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß je ein leuchtendes Flächenelement FELj (3A) in den Zeitintervallen (Δti) der Detektion in einem Zeitbereich (ΔtB) zumindest näherungsweise auf je einer eigenen Verschiebungsstrec­ ke (VSBAj) relativ zum Beleuchtungsobjektiv (1) verschoben und durch das Beleuchtungsobjektiv (1) ab­ gebildet wird, wobei relativ bedeutet, daß auch die Position des leuchtenden Flächenelementes FELj (3A) ortsfest sein kann und sich in diesem Fall zumindest eine Komponente des Beleuchtungsobjektivs (1) be­ wegt, und dieses leuchtende Flächenelement FELj (3A) zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) stets auf eine Strecke (BSOj) auf einen vorherbestimmten Abbildungsstrahl (ABSO), im Objektraum abgebildet wird und die Strecke (BSOj) dann auch das Bild der Verschiebungsstrecke (VSBAj) darstellt, und sich der Ort des Bildes des leuchtenden Flächenelementes FELj (3A) auf der Verschie­ bungsstrecke (VSBAj) zumindest näherungsweise kontinuierlich - innerhalb eines Zeitbereich (ΔtB) - än­ dert und so das Bild des leuchtenden Flächenelementes FELj (3A) mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach auf der Strecke (BSOj) durch der Objektraum verschoben wird und
und eine zumindest näherungsweise geradlinige, relative Verschiebung des Empfänger-Arrays zum Ab­ bildungsobjektiv (2) und parallel zur optischen Achse des Abbildungsobjektivs (2) durchgeführt wird, wobei relativ bedeutet, daß auch die Position des Empfänger-Arrays ortsfest sein kann und sich in diesem Fall zumindest Komponenten des Abbildungsobjektivs (2) bewegen, und bei der Verschiebung mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen werden und so je ein Signalverlauf mittels eines einzelnen Empfängerelementes gebildet wird und sich der Ort je eines Elemen­ tes des Empfänger-Arrays zumindest näherungsweise kontinuierlich ändert und die geradlinige relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv (2) parallel zur optischen Achse des Abbil­ dungsobjektivs (2) so durchgeführt wird, daß je ein Bild eines Elementes des Empfänger-Arrays mit dem Bild eines leuchtenden Flächenelementes FELj (3A) mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) im Objektraum zur Koinzidenz gebracht ist und so ein Paar von Bildern erzeugt wird, welches und nach durch den Objektraum geschoben wird,
wobei Schärfevolumina von Bildern der leuchtenden Flächenelemente mit Flächenelementen der Objek­ toberfläche (5) mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitintervalls (ΔtB) zusam­ menfallen und die Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße detektieren, wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitintervall (Δti) im Zeitbereich (ΔtB) zeitlich eingepaßt wird.
4. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer elektroma­ gnetischen Strahlungsquelle (4), wobei die Strahlungsquelle (4) mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausge­ bildet ist und mindestens ein Flächenelement leuchtet, so daß mindestens ein leuchtendes Flächenele­ ment gebildet ist, wobei Leuchten im Sinne des Aussendens von elektromagnetischer Strahlung verwen­ det wird,
wobei jedes leuchtende Flächenelement durch eine zumindest näherungsweise vorbestimmte Leuchtdich­ te und durch einen vorbestimmten Ort definiert ist, und dieses im weiteren als leuchtendes Flächenele­ ment FELj (3A) bezeichnet wird, und mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordneten Beleuch­ tungsobjektiv (1), welches eine Abbildung der leuchtenden Flächenelemente FEL realisiert und mit
mindestens einem Abbildungsstrahlengang für die Abbildung von Elementen der mindestens einen Objekt­ oberfläche (5) und mindestens einem Empfänger-Array mit mindestens zwei Elementen und einem dem Empfänger-Array zugeordneten Abbildungsobjektiv (2, 33) und
daß Elemente des Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von Elementen der mindestens einen beleuchteten Objektoberfläche (5) im Objektraum detektieren und von Elementen des Empfänger-Arrays durch das Abbildungsobjektiv (2, 33) stets auch Bilder im Objektraum, der dem Szenenraum entspricht, mit einem geometrisch-optischen Schärfevolumen gebildet werden,
und daß Elemente der mindestens einen Objektoberfläche (5) mit mindestens einem Abbildungsobjektiv (2, 33) abgebildet werden und
durch die Abbildung des mindestens einen leuchtenden Flächenelementes FELj (3A) mit dem Beleuch­ tungsobjektiv (1) ein Bild eines leuchtenden Flächenelementes FELj (3A) im Objektraum mit einem geo­ metrisch-optischen Schärfevolumen gebildet wird, gekennzeichnet dadurch, daß leuchtendes Flächenelement FELj (3A) in den Zeitintervallen (Δti) der De­ tektion von elektromagnetischer Strahlung in einem Zeitbereich (ΔtB) zumindest näherungsweise an je ei­ nem eigenen Ort (OABj) im strukturiert leuchtenden Array relativ zum Beleuchtungsobjektiv (1) angeordnet und durch Ansteuerung zum Leuchten gebracht werden und durch das Beleuchtungsobjektiv (1) abgebil­ det wird und dieses mindestens eine leuchtende Flächenelement FELj (3A) zumindest zu einem Zeit­ punkt (ti) innerhalb des Zeitintervalls (Δti) stets auf einen vorherbestimmten Ort im Objektraum (OOBj) ab­ gebildet wird
und dieser Bildort (OOBj) des mindestens einen leuchtenden Flächenelementes FELj (3A) im Objektraum durch eine Ansteuerung verändert wird, indem ein jeweils anderes, vorbestimmtes Flächenelement ange­ steuert und zum Leuchten gebracht wird,
so daß das Bild je eines leuchtenden Flächenelementes FELj (3A) auf einer steuerbaren Bahnkurve, strukturiert aus Abstandsinkrementen (AIO) der Bilder der Abstände (AIA) der leuchtenden Flächenele­ mentes FELj (3A) im Array-Raum, durch den Objektraum geschoben wird - im Sinne des gesteuerten Einnehmens vorherbestimmter, unterschiedlicher Positionen - und
in jeder Position nach der Verschiebung um mindestens ein ganzzahliges Vielfaches n, einschließlich n = 1, des Abstandsinkrementes (AIO) mindestens ein Signalwert mit einem Empfängerelement detektiert wird und so aus mehreren Vorgängen des Detektierens und Auslesens von Elementen des Empfänger- Arrays ein Signalverlauf gebildet wird und der Ort des detektierten und ausgelesenen Elementes des Empfänger-Arrays kontinuierlich verändert und
die Orte der detektierten und ausgelesenen Elemente des Empfänger-Arrays an Orten (OAAj) im Empfän­ ger-Array liegen und das Bild dieses Ortes (OAAj), der Bildort (OOAj), mit dem vorherbestimmten Bildort (OOBj) des leuchtenden Flächenelementes FELj (3A) im Objektraum optisch konjugiert ist und so
je ein Bild eines detektierten und ausgelesenen Elementes des Empfänger-Arrays mit dem Bild jeweils ei­ nes leuchtenden Flächenelementes FELj (3A) zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitinter­ valls (Δti) im Objektraum zur Koinzidenz gebracht ist und so je ein Paar von Bildern mit wechselnden Bil­ dern erzeugt werden, und diese Paare nach und nach verschiedene Positionen im Objektraum einnehmen und so durch derartige Paare nach und nach der Objektraum in der Tiefe durchsetzt wird,
wobei Schärfevolumina des Bildes je eines leuchtenden Flächenelementes FELj (3A) mit je einem Flä­ chenelement der Objektoberfläche (5) mindestens einmal im Zeitbereich (ΔtB) in einem Zeitintervall (ΔtB) zusammenfallen und die detektierten und ausgelesenen Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße auf­ weisen, wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitintervall (Δti) in den Zeitbereich (ΔtB) zeitlich eingepaßt wird.
5. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung die leuchtenden Flächenelemente FEL auf je einer eigenen Verschiebungsstrecke (VSBAj) relativ zum Beleuchtungsobjektiv (1) verschoben werden
und die leuchtenden Flächenelemente FEL zumindest zu einem Zeitpunkt (ti) innerhalb eines Zeitintervalls (Δti) in einer Leuchtdichteverteilung jeweils eine zumindest näherungsweise vorherbestimmt gleichblei­ bende, relative Leuchtdichte aufweisen
und die leuchtenden Flächenelemente FEL dabei stets auf einer B-Strecke (BSAj) positioniert werden, wo­ bei die B-Strecke (BSAj) die Sollorte für die leuchtenden Flächenelemente FEL zumindest zu einem Zeit­ punkt (ti) innerhalb des Zeitintervalls (Δti) darstellen, und
die Bilder dieser B-Strecken (BSAj) im Objektraum durch Abbildung mit mindestens einem Beleuchtungs­ objektiv (1) stets zu mindestens einem Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) geformt sind, wobei der Konvergenzpunkt (K1), mindestens in einem Abstand (dK1 min) von der optischen Achse des Beleuchtungsobjektivs (1) vom 16ten Teil und maximal in einem Abstand (dK1 max) vom 16fachen des Abstandes (d) des Pupillenzentrums (PZOB) des Beleuchtungsobjektivs (1) vom Pupillenzentrum (PZOA) des am weitesten entfernten Abbildungsobjektivs (2) im Objektraum positioniert ist
und zumindest in einem Zeitbereich (ΔtB) während des Verschiebungsvorganges der leuchtenden Flä­ chenelemente FEL auf Verschiebungsstrecken (VSBAj) jeweils genau ein Bild von einem Empfängerele­ ment und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum
zumindest zu einem einzigen Zeitpunkt (ti) innerhalb eines jeden Zeitintervalls (Δti) der Detektion zumin­ dest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so zumin­ dest zu diesem Zeitpunkt (ti) aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare erzeugt werden und diese derartigen Paare durch den Objektraum gescho­ ben werden, und am Ort dieser Paare im Schwerpunkt des aktuellen Schnittvolumens des Schärfevolu­ mens der beiden Bilder so jeweils ein aktueller Koinzidenzpunkt Koj i gebildet ist, der durch den Objektraum geschoben wird,
wobei Schärfevolumina von Bildern der leuchtenden Flächenelemente FEL mit Flächenelementen der Objektoberfläche (5) mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitintervalls (ΔtB) zu­ sammenfallen und die Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signal­ verlauf mit mindestens einem relativen Extremum der Signalgröße detektieren, wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitintervall (Δti) im Zeitbereich (ΔtB) zeitlich eingepaßt wird,
so daß die leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays und die Elemente des Empfänger-Arrays jeweils zumindest zu einem Zeitpunkt (ti) innerhalb eines Zeitintervalls (Δti), also stets zur gleichen Zeit, im Objektraum aufeinander abgebildet werden
und bei der Verschiebung die Positionen der leuchtenden Flächenelemente FEL des strukturiert leuchten­ den Arrays und die Positionen der Elemente des Empfänger-Arrays stets nach der Newtonschen Abbil­ dungsgleichung aus der Lage des Beleuchtungsobjektivs (1) und der Lage des Abbildungsobjektivs (2, 33) in der 3D-Aufnahme-Anordnung und der Brennweite (fB) des Beleuchtungsobjektivs (1) und der Brennweite (fA) des Abbildungsobjektivs (2, 33) so bestimmt und realisiert werden,
daß im Objektraum sowohl die leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays als auch die Elemente des Empfänger-Arrays zumindest näherungsweise in einem Teil des Objektraumes in die gleiche Ebene abgebildet werden.
6. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 5, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung jeweils ein leuchtendes Flächenelement FELj (3A) auf je einer B-Strecke (BSAj) positioniert wird und
und die B-Strecken (BSAj) auf das Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) im Array-Raum gerichtet werden, so daß der Konvergenzpunkt (K1) dabei zumindest annähernd im Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) im Objektraum positioniert wird,
und der Konvergenzpunkt (K1) auch in der Pupillenebene des Beleuchtungsobjektivs (1) positioniert wird und während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest näherungsweise ge­ meinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so aus dem Bild von einem Emp­ fängerelement und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt wer­ den und
während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum einmal zumindest näherungsweise zur Koinzidenz gebracht werden.
7. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 5, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung jeweils ein leuchtendes Flächenelement FELj (3A) zumindest zu einem Zeitpunkt (ti) innerhalb eines je­ den Zeitintervalls (Δti) der Detektion mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf je einer B-Strecke (BSAj) positioniert wird,
wobei der Konvergenzpunkt (K1) zumindest annähernd in der Brennebene des Beleuchtungsobjektivs (1) im Objektraum und zusätzlich im Pupillenzentrum (PZOA) der Pupille eines Abbildungsobjektivs (2) im Objektraum positioniert wird und
während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest zu einem Zeitpunkt (ti) in­ nerhalb eines jeden Zeitintervalls (Δti) der Detektion zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so zumindest zu diesem Zeitpunkt (ti) aus dem Bild von ei­ nem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils im Objek­ traum ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare mit fester Zuord­ nung erzeugt werden und
während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum genau einmal zumindest näherungsweise zur Koinzidenz gebracht werden
und diese B-Strecken (BSAj) parallel einer zu Geraden (gAP) positioniert werden, wobei die Gerade (gAP) den Brennpunkt FAB des Beleuchtungsobjektivs (1) im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums (PZOA) der Pupille des Abbildungsobjektivs (2) im Objektraum von der Achse des Beleuchtungsobjektivs (1) und der Brennweite (fB) des Beleuchtungsob­ jektivs (1) aufweist, wobei dieser Anstieg der Geraden (gAP) auf die Achse des Beleuchtungsobjektivs (1) bezogen ist.
8. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, 5 und 7, gekennzeichnet dadurch, daß die Verschiebungsstrecken (VSBAj) und die B-Strecken (BSAj) im Ver­ schiebungsvorgang zumindest näherungsweise im Zeitintervall (Δtk) koinzidieren, wobei das Zeitintervall (Δtk) zumindest die Länge des Zeitintervalls (Δti) und maximal die Länge des Zeitbereiches (ΔtB) auf­ weist, und
während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest zeitweilig und zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils im Objektraum ein permanentes Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt werden und
während des Verschiebungsvorganges im Zeitbereich (ΔtB) der leuchtenden Flächenelemente FEL je­ weils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest näherungsweise einmal zur Koinzidenz gebracht werden,
wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δtk) gemacht wird und das Zeitintervall (Δtk) in den Zeitbereich (ΔtB) eingepaßt ist
und die leuchtenden Flächenelemente in einer gerasterten Struktur mit äquidistanten Abständen verscho­ ben werden.
9. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer Szene nach dem Anspruch 1 und 5, gekennzeichnet dadurch, daß durch die Steuerung der Dauer eines jeden Zeitintervalls (Δti) und durch die Steuerung der relativen Einschaltzeiten in Bezug zur Dauer eines jeden Zeitintervalls (Δti) der einzelnen leuchtenden Flächenelemente (FELj), die über die Objektoberfläche (5) jeweils ein Empfängerelement beleuchten und durch die Steuerung der Leuchtdichte der leuchtenden Flächenelemente,
photometrisch der Fall der Verschiebung von leuchtenden Flächenelementen mit einer zumindest nähe­ rungsweise gleichbleibenden, relativen Leuchtdichte auf B-Strecken (BSAj) nachgebildet wird,
und so effektive, leuchtende Flächenelemente FEL mit ihrem jeweiligen effektiven Schwerpunkt auf B- Strecken (BSAj) verschoben werden,
wobei der Konvergenzpunkt (K1) zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs (1) und im Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) im Objektraum positioniert ist, und die B- Strecken (BSAj) auf das Pupillenzentrum PZOA des Abbildungsobjektivs (2) im Array-Raum gerichtet sind.
10. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, 3 und 5, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung jeweils ein leuchtendes Flächenelement FELj (3A) eines strukturiert leuchtenden Arrays mit äquidistanten Abständen der leuchtenden Flächenelemente zumindest zu einem Zeitpunkt (ti) innerhalb eines jeden Zei­ tintervalls (Δti) mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf je einer B-Strecke (BSAj) positioniert wird, wobei
der Konvergenzpunkt (K1) mit dem Brennpunkt (FOA) mindestens eines Abbildungsobjektivs (2) im Objek­ traum zumindest annähernd zur Koinzidenz gebracht wird
und zumindest annähernd eine geradlinige relative Verschiebung des Empfänger-Arrays zum Abbildungs­ objektiv (2) parallel zur optischen Achse des Abbildungsobjektivs (2) durchgeführt wird und bei der Ver­ schiebung mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen werden und so je ein Signalverlauf mittels einem einzelnen Empfängerelement gebildet wird und bei Ab­ bildung von mehrfach so erzeugten Verschiebungsstrecken (ASAj) von Elementen des Empfänger-Arrays mit dem Abbildungsobjektiv (2) aus deren Bildern (ASOj) im Objektraum zumindest annähernd mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Brennpunkt (FOA) des Abbildungsobjektivs (2) gebildet wird
und die geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsob­ jektivs (2) so durchgeführt wird,
daß während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest zu einem Zeitpunkt (ti) innerhalb eines jeden Zeitintervalls (Δti) zumindest näherungsweise gemeinsam auf dem Bild einer B- Strecke (BSAj) zur Koinzidenz gebracht und verschoben werden und so aus dem Bild von je einem Ele­ ment des Empfänger-Arrays und dem Bild je eines leuchtenden Flächenelementes FELj (3A) jeweils zu­ mindest zu diesem Zeitpunkt (ti) ein Paar mit fester Zuordnung gebildet wird und so im Objektraum Paare von Bildern erzeugt werden.
11. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 3 und 10, gekennzeichnet dadurch, daß während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Element eines Empfänger-Arrays und jeweils ein Bild von einem leuchten­ den Flächenelement FELj (3A) im Objektraum zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) permanent zur Koinzidenz gebracht und verschoben werden.
12. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 5 bis 11,
gekennzeichnet dadurch, daß der Konvergenzpunkt (K1) des Streckenbüschels (SB1) gemeinsam mit dem Konvergenzpunkt (K2) des Streckenbüschels (SB2) im Objektraum sowohl mit dem Brennpunkt (FOA) als auch mit dem Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) zumindest annähernd zur Koinzidenz gebracht werden, wobei das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils arrayseitig zumindest näherungsweise telezentrisch ausgeführt sind, und
leuchtende Flächenelemente FEL zumindest annähernd parallel zu einer Geraden (gA) auf Verschie­ bungsstrecken (VSBAj) verschoben werden und die Gerade (gA) den Brennpunkt (FAB) des Beleuchtungs­ objektivs (1) im Array-Raum durchstößt und für die Gerade (gA) der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs (1) und Abstand (d) des Brennpunktes (FAA) des Abbil­ dungsobjektivs (2) von der Achse des Beleuchtungsobjektivs (1) im Objektraum realisiert wird, wobei die­ ser Anstieg der Geraden (gA) auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs (1) bezogen ist und wegen der Telezentrie des Abbildungsobjektivs im Array-Raum in diesem Fall die Gerade (gA) mit der Geraden (gAP) koinzidiert.
13. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, 5 und 9, gekennzeichnet dadurch, daß zumindest näherungsweise eine geradlinige Verschiebung des Empfänger- Arrays durchgeführt wird und bei der Verschiebung nacheinander Signalwerte aus einzelnen, auch ne­ beneinander liegenden Elementen des Empfänger-Arrays ausgelesen werden und Signalverläufe auch durch gewichtete Summierung der Signale einzelner Elemente des Empfänger-Arrays,
so daß Signale von virtuellen Elementen gebildet werden, und zur Bildung eines einzelnen Signalverlaufes so Signalwerte von virtuellen Elementen des Empfänger-Arrays verwendet werden,
wobei diese virtuellen Elemente des Empfänger-Arrays beim Verschieben des Empfänger-Arrays zumin­ dest näherungsweise jeweils auf einer Verschiebungsstrecke (ASAj) im Array-Raum liegen, deren Verlän­ gerung das Zentrum der Austrittspupille des Abbildungsobjektivs (2) schneidet,
und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel mit einem Konvergenzpunkt (K2) im Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) gebildet wird
und während des Verschiebungsvorganges der Elemente des Empfänger-Arrays diese mehrfach nach­ einander ausgelesen werden und jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum innerhalb des Verschiebungs­ vorganges zumindest während eines Zeitintervalls (Δti) innerhalb des Verschiebungsvorganges zumindest näherungsweise zur Koinzidenz auf B-Strecken (BSAj) gebracht werden
und so aus dem Bild von einem Empfängerelement und dem Bild von einem leuchtenden Flächenelement FELj (3A) jeweils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare er­ zeugt werden.
14. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Ver­ schiebungsstrecken (VSBAj) durchgeführt werden und bei Abbildung der erzeugten, parallelen Verschie­ bungsstrecken (VSBAj) mit dem Beleuchtungsobjektiv (1) aus deren Bildern zumindest näherungsweise mindestens ein Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) im Objektraum im Brennpunkt (FOB) des Beleuchtungsobjektivs (1) gebildet wird und
zusätzlich eine geradlinige Verschiebung des Empfänger-Arrays, synchronisiert mit den Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Verschiebungsstrecken (VSBAj) durchgeführt wird und während der Verschiebung nacheinander Signalwerte aus einzelnen, nebeneinander liegenden Ele­ menten des Empfänger-Arrays ausgelesen werden und aus diesen Signalverläufe gebildet werden und zur Bildung eines einzelnen Signalverlaufes nebeneinander liegende Elemente des Empfänger-Arrays ausgewählt werden, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise je­ weils auf einer A-Strecke (ASAj) im Array-Raum liegen und die Verlängerung der A-Strecke (ASAj) jeweils auf das Pupillenzentrum (PZAB) des Beleuchtungsobjektivs (1) im Array-Raum zielt,
und bei Abbildung von mehrfach so erzeugten parallelen A-Strecken (ASAj) mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Pupillenzentrum (PZOB) der Pupille des Beleuchtungsobjektivs (1) gebildet wird und die A-Strecken (ASAj) parallel zu einer Geraden (gAA) ausgerichtet werden und
die Gerade (gAA) den Brennpunkt (FAA) des Abbildungsobjektivs (2) im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums (PZOA) der Pupille des Abbil­ dungsobjektivs (2) im Objektraum von der Achse des Beleuchtungsobjektivs (1) und der Brennweite (fA) des Abbildungsobjektivs (2) aufweist, wobei dieser Anstieg der Geraden (gAA) auf die Achse des Beleuch­ tungsobjektivs (1) bezogen ist
und während des synchronisierten Verschiebungsvorganges der leuchtenden Flächenelemente FEL und der Elemente des Empfänger-Arrays
die Elemente des Empfänger-Arrays mehrfach nacheinander ausgelesen werden und jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum innerhalb des Verschiebungsvorganges zumindest während eines Zeitintervalls (Δti) innerhalb des Verschiebungsvorganges zumindest näherungsweise zur Koinzidenz gebracht werden und so aus dem Bild von einem des Empfängerelement und dem Bildpunkt jeweils ein verschiebbares Paar mit fester Zuordnung gebildet wird und so im Objektraum verschiebbare Paare erzeugt werden.
15. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 14, gekennzeichnet dadurch, daß eine absolute Phasendifferenz (ΔϕGitter) in einem Bildpunkt, welcher zu ei­ nem Objektpunkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objekt­ punkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswer­ tung der Modulation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz (ΔϕGitter) jeweils vorzeichenrichtig zur absoluten Referenzphase (ϕR) addiert wird, die sich aus der mindestens ein­ mal experimentell vorbestimmten Position der Referenzplatte (zOR) im Objektraum und bezogen auf das Beleuchtungsobjektiv (1) und den Geometriedaten der optischen Anordnung errechnet, wodurch sich im Ergebnis dieser Rechenoperation eine absolute Objektphase (ϕObj) für jeden Objektpunkt ergibt, die auf einen Referenzpunkt im Objektraum bezogen ist, wobei Informationen aus dem Signalverlauf des zuge­ hörigen Referenzpunktes abgespeichert werden. 16. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 14, gekennzeichnet dadurch, daß eine absolute Phasendifferenz (ΔϕGitter) in einem Bildpunkt, welcher zu ei­ nem Objektpunkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objekt­ punkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswer­ tung der Modulation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz (ΔϕGitter) je­ weils vorzeichenrichtig zur absoluten Referenzphase (ϕR) addiert wird, die sich aus der mindestens einmal experimentell vorbestimmten Position der Referenzplatte (zOR) im Objektraum und bezogen auf das Be­ leuchtungsobjektiv (1) und den Geometriedaten der optischen Anordnung errechnet, wodurch sich im Er­ gebnis dieser Rechenoperation eine absolute Objektphase (ϕObj) für jeden Objektpunkt ergibt, die auf ei­ nen Referenzpunkt im Objektraum bezogen ist,
und aus dem Signalverlauf des zugehörigen Referenzpunktes der absolute Referenzphasenwert berech­ net und als absoluter Referenzphasenwert abgespeichert wird.
17. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 16, gekennzeichnet dadurch, daß die absolute Phasendifferenz (ΔϕGitter) aus der Phase des strukturiert leuchtenden Arrays selbst so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuch­ tenden Arrays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Si­ gnalverläufe eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulati­ onsmaximums errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase (ϕR) des verschobenen, strukturiert leuchtenden Arrays zugeordnet werden. 18. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 16, gekennzeichnet dadurch, daß die absolute Phasendifferenz (ΔϕGitter) aus der Phase eines mitverschobe­ nen Referenzgitters so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulationsmaximums errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase (ϕR) des mitverschobenen Referenzgitters zugeordnet werden. 19. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 16, gekennzeichnet dadurch, daß die absolute Phasendifferenz (ΔϕGitter) aus der Phase des strukturiert leuchtenden Arrays selbst so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuch­ tenden Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalver­ läufe eines Referenzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des verschobenen strukturiert leuchtenden Arrays (ϕR) zugeordnet werden. 20. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 16, gekennzeichnet dadurch, daß die absolute Phasendifferenz (ΔϕGitter) aus der Phase eines mitverschobe­ nen Referenzgitters so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe ei­ nes Referenzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π- Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des mitverschobenen Refe­ renzgitters (ϕR) zugeordnet werden. 21. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 20, gekennzeichnet dadurch, daß zusätzlich über den Beleuchtungsstrahlengang eine Bildaufnahme des Ob­ jektes (5, 18, 19) oder der Szene mit einem zusätzlichen Empfänger-Array durchgeführt wird und die Bildelemente des zusätzlichen Empfänger-Arrays dabei jeweils eine geradlinige Verschiebung im Array- Raum erfahren. 22. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 21, gekennzeichnet dadurch, daß zusätzlich eine Beleuchtung des Objektes (5, 18, 19) oder der Szene durchgeführt wird mit einem zusätzlichen, strukturiert leuchtenden Array mit leuchtenden Flächenelemen­ ten mit Extrema der Leuchtdichte und diese Extrema dabei jeweils parallel zu einer Geraden (gAP2), die spiegelsymmetrisch zur Geraden (gAP) ist, auf Verschiebungsstrecken im Array-Raum verschoben wer­ den. 23. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 22, gekennzeichnet dadurch, daß die für das Auswerteverfahren benötigte Information über die absolute, late­ ral invariante Objektphase durch optische Bestimmung der absoluten Phase (ϕGitter) direkt aus der Ver­ schiebung des strukturiert leuchtenden Arrays durch optische Kopplung mit einer gerasterten Struktur als Gegengitter und einem Nullpunktgeber für die Berechnung der absoluten, lateral invarianten Objektphase abgeleitet wird. 24. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 23, gekennzeichnet dadurch, daß die für das Auswerteverfahren benötigte Information über die absolute, late­ ral invariante Objektphase durch optische Bestimmung der absoluten Phase (ϕGitter) direkt aus der Bewe­ gung einer starr mit dem strukturiert beleuchteten Array gekoppelten Referenzstruktur, wobei dieser ein Auswertesystem und ein Nullpunktgeber zugeordnet sind, abgeleitet wird. 25. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 24, gekennzeichnet dadurch, daß das Auslesen der Elemente des Empfänger-Arrays bei veränderlichen Werten der Referenzphase mod 2π durchgeführt wird, also asynchron zur Referenzphase (ϕGitter) durchge­ führt wird, wobei der jeweils aktuelle Triggerimpuls für das Detektieren von elektromagnetischer Strahlung der Elemente des Empfänger-Arrays im Zeitintervall Δti bei einer gegebenen präzisionsmechanisch- optischen Anordnung zur 3D-Aufnahme sich in Abhängigkeit von der Geometrie der Anordnung sowie der Lage der Konvergenzpunkte (K1) und (K2) und in Abhängigkeit vom aktuellen Wert der absoluten Refe­ renzphase (ϕGitter) für jedes Element berechnet wird und in einer Phasenkorrekturwert-Tabelle vorliegt und so in jedem Element des Empfänger-Arrays ein Signalverlauf mit zumindest näherungsweise konstanter Ortsfrequenz erzeugt wird,
wobei das Auslesen der Elemente des Empfänger-Arrays in aufeinanderfolgend zumindest annähernd gleichen Phasenschritten (ΔϕEmpfänger) der Phase (ϕEmpfänger) in jedem Element des Empfänger-Arrays er­ folgt und die im Verhältnis zur Phasenschrittweite (ΔϕEmpfänger) selbst kleineren Abweichungen (ΔΔϕ) zwi­ schen der Referenzphase und der in einem Element des Empfänger-Arrays sich ergebenden Phase (ϕEmpfänger) als von der Referenzphase (ϕGitter) abhängige Phasenkorrekturwerte (ΔΔϕ) mindestens einmalig für jedes Element des Empfänger-Arrays errechnet werden und so in einer Phasenkorrekturwert-Tabelle vorliegen und gespeichert werden und die Phasenkorrekturwerte (ΔΔϕ) sowohl für die Bestimmung des jeweiligen Abtastpunktes als auch bei der Berechnung der absoluten Phase verwendet werden
und Verschiebungen der leuchtenden Flächenelemente FEL durchgeführt werden und die Bilder der Ver­ schiebungsstrecken (VSBAj) ein Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) bilden.
26. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß leuchtende Flächenelemente FEL und so auch leuchtende Flächenelemen­ te FEL mit lokalen Extrema der Leuchtdichte im Array-Raum auf Verschiebungsstrecken (VSBAj) verscho­ ben werden, die mit den B-Strecken (BSAj) koinzidieren, und die B-Strecken (BSAj) mittels einer zweistufi­ gen Abbildungsstufe abgebildet werden und
gleichzeitig die Detektion von elektromagnetischer Strahlung von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls (Δti) durch die Elemente des Empfänger-Arrays erfolgt und diese ausge­ lesen werden und so jeweils ein Signalwert gewonnen wird
und so jeweils ein leuchtendes Flächenelement FELj (3A) auf je einer B-Strecke (BSAj) positioniert wird, und die Bilder dieser B-Strecken (BSAj) nach der ersten Abbildung mit einem Beleuchtungsobjektiv (1) zu einem Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) geformt werden und ein zum Konvergenz­ punkt (K1) optisch konjugierter Punkt (K1konj) in den Objektraum in das Zentrum der Pupille (PZOA) des Abbildungsstrahlenganges im Objektraum abgebildet wird
und während des Verschiebungsvorganges von strukturiert leuchtendem Array und Empfänger-Array je­ weils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtendes Flächenelement konstanter relativer Leuchtdichte der strukturierten, leuchtenden Fläche im Objektraum zumindest nähe­ rungsweise gemeinsam auf das Bild einer B-Strecke (BSAj) gebracht werden und so aus dem Bild von ei­ nem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj (3A) je­ weils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt werden.
27. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 26, gekennzeichnet dadurch, daß die B-Strecken (BSAj) mittels eines afokalen Beleuchtungsstrahlenganges mit einem inneren Brennpunkt (FBi) abgebildet werden und die Objektoberflächen mit einem afokalen Ab­ bildungsstrahlengang mit einem inneren Brennpunkt (FAi) abgebildet werden und im Objektraum der Brennpunkt des afokalen Beleuchtungsstrahlenganges und des afokalen Abbildungsstrahlenganges zu­ mindest näherungsweise zusammenfallen und
gleichzeitig die Detektion von elektromagnetischer Strahlung von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls (Δti) durch die Elemente des Empfänger-Arrays erfolgt und diese ausge­ lesen werden und so jeweils ein Signalwert gewonnen wird
und der Konvergenzpunkt (K1) in einem Abstand (dK1) von der optischen Achse des Beleuchtungsobjek­ tivs (1) positioniert wird, wobei der Abstand (dK1) dem halben Abstand vom inneren Brennpunkt (FBi) der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brennebene (Fi) des Beleuchtungsstrahlenganges entspricht, wobei das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils auf der nach außen gekehrten Seite der afokalen Abbildungsstufen zumin­ dest näherungsweise telezentrisch ausgeführt sind,
und so leuchtende Flächenelemente FEL und so auch die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung mit lokalen Extrema der Leuchtdichte zumindest annähernd parallel zu einer Gera­ den (gA) auf Verschiebungsstrecken (VSBAj) verschoben werden und die Gerade (gA) den Brennpunkt (FAB) des Beleuchtungsobjektivs (1) im Array-Raum durchstößt und für die Gerade (gA) der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs (1) und Abstand (dk1) realisiert wird, wobei der Anstieg auf die Hauptebene des Abbildungsobjektivs (2) bezogen ist, und
zumindest annähernd eine geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsobjektivs (2) mit der gleichen Geschwindigkeit wie das leuchtende Array durchgeführt wird und bei der Verschiebung der beiden Arrays mehrfach nacheinander Signalwerte aus je einem einzelnen Element des Empfänger-Arrays ausgelesen werden und so je ein Signalverlauf aus einem einzelnen Ele­ ment gebildet wird und bei Abbildung mit einer Abbildungsstufe von mehrfach so erzeugten Verschie­ bungsstrecken von Elementen aus deren Bildern im Raum nach der Abbildungsstufe zumindest annä­ hernd mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im inneren Brennpunkt (FAi) des Abbildungsobjektivs (2) gebildet wird
und während des Verschiebungsvorganges von einem strukturiert leuchtendem Array und einem Emp­ fänger-Array jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest näherungsweise gemeinsam auf dem Bild (BSOj) einer B-Strecke (BSAj) zur Koinzidenz gebracht und gemeinsam verschoben werden und so aus dem Bild von einem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern verschoben werden.
28. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5, 18, 19) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß die Elemente des Empfänger-Arrays im Aufnahmevorgang elektromagneti­ sche Strahlung von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detek­ tieren und
zwei Empfänger-Arrays, die zur Aufnahme der strukturiert beleuchteten Objektoberflächen in einer Szene im Objektraum verwendet werden, beim Aufnahmevorgang gleichzeitig im Array-Raum auf Verschie­ bungsstrecken (ASA1) und (ASA2) verschoben werden, die einen Winkel zueinander aufweisen,
wobei für die 3D-Aufnahme des Hintergrundes der Szene mindestens zwei Abbildungsstrahlengänge für die Abbildung der Objektoberflächen (5, 18, 19) mit einem ersten Abbildungsobjektiv (2) im ersten Abbil­ dungsstrahlengang und einem zweiten Abbildungsobjektiv (33) im zweiten Abbildungsstrahlengang ange­ ordnet sind, wobei die Abbildungsobjektive (2, 33) räumlich getrennten Öffnungsblenden aufweisen und jedem Abbildungsobjektiv (2, 33) mindestens je ein Empfänger-Array mit Elementen oder einem Bild des­ selben zugeordnet ist und die Brennebenen der Abbildungsstrahlengänge im Objektraum sich schneiden, wobei die Schnittgerade (SG) senkrecht auf der Symmetrielinie (SL) im Hauptschnitt steht,
und die Bilder der Verschiebungsstrecken (ASA1) und (ASA2), die Strecken (ASO1) und (ASO2), annähernd auf der Symmetrielinie zwischen den beiden Achsen der Objektive (2), (33) zur Konvergenz gebracht werden und dort in einem Koinzidenzpunkt (K0) konvergieren und
im Konvergenzpunkt (K0) das Streckenbüschel (S21) der Bilder der Verschiebungsstrecken (ASA1j) der einzelnen Elementes des ersten Empfänger-Arrays, die Strecken (ASO1j), mit dem Konvergenzpunkt (K21) und das Streckenbüschel (S22) der Bilder der Verschiebungsstrecken (ASA2j) der einzelnen Elementes des zweiten Empfänger-Arrays, der Strecken (AS2Oj), mit dem Konvergenzpunkt (K22) zur Koinzidenz ge­ bracht werden und
die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfän­ ger-Arrays im Objektraum für den Zeitbereich (ΔtB) paarweise zumindest näherungsweise zur Koinzidenz gebracht werden, wobei die paarbildenden Elemente der beiden Empfänger-Arrays jeweils korrespondie­ rende Elemente darstellen, und
Signalverläufe (S1) des ersten Empfänger-Arrays durch Auslesen von je einem Element während der Ver­ schiebung des ersten Empfänger-Arrays auf der Verschiebungsstrecke (ASA1j) gebildet werden und die Verschiebung des ersten Empfänger-Arrays parallel zu einer Geraden (gA1P) durchgeführt wird und so die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden (gA1P) auf Ver­ schiebungsstrecken (ASA1j) verschoben werden
und Signalverläufe (S2) des zweiten Empfänger-Arrays durch Auslesen von je einem Element während der Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke (ASA2j) gebildet werden und
die Verschiebung des zweiten Empfänger-Arrays gleichzeitig mit der des ersten Empfänger-Arrays erfolgt und
die Verschiebung des zweiten Empfänger-Arrays parallel zu einer Geraden (gA2P) durchgeführt wird und so die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden (gA2P) auf Verschiebungsstrecken (ASA2j) verschoben werden
und die Gerade (gA1P) in einem Punkt (PA1) in der Hauptebene des Abbildungsobjektivs (2) im Array-Raum und die Gerade (gA2P) in einem Punkt (PA2) in der Hauptebene des Abbildungsobjektivs (33) zum Schnitt gebracht werden und zusätzlich die Gerade (gA1P) den Brennpunkt (FA1) des ersten Abbildungsobjektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array-Raum enthalten,
wobei der Punkt (PA1) im Durchstoßpunkt einer Geraden durch die Hauptebene des ersten Abbildungsob­ jektivs (2) im Array-Raum liegt, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koin­ zidenzpunkt K0 enthält und wobei der Punkt (PA2) im Durchstoßpunkt einer Geraden durch die Hauptebe­ ne des zweiten Abbildungsobjektivs (33) im Array-Raum liegt, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koinzidenzpunkt K0 enthält und
aus den beiden Signalverläufen (S1j) und (S2j) von zwei korrespondierenden Elementen (1j) und (2j) der Empfänger-Arrays, die über dem Weg der Verschiebung der beiden Empfänger-Arrays der beiden Emp­ fänger-Arrays im Speicher eines Rechners abgelegt sind,
durch das synchrone Verschieben einer Fensterfunktion,
wobei diese Fensterfunktion mindestens ein einziges Fenster mit einer minimalen Fensterlänge entspre­ chend zwei Signalwerten und eine maximale Fensterlänge aufweist, die zumindestens näherungsweise der Länge der Signalverläufe (S1j) und (S2j) entspricht,
um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays ent­ spricht, über jeden dieser beiden Signalverläufe (S1j) und (S2j) und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, je ein Signalstück (S1 teil Position k j) und (S2 teil Position k j) gebildet wird,
wobei diese nacheinander gebildeten Signalstücke (S1 teil j Position k j) und (S2 teil j Position k j) sich in jedem der beiden Signalverläufe (S1j) und (S2j) zumindestens in einem Teilbereich überdecken und wobei jeweils am gleichen Ende der beiden Signalverläufe (S1j) und (S2j) mit dem Verschieben der Fensterfunktion in bei­ den Signalstücken begonnen wird,
und jeweils ausgehend von zwei Signalstücken in der Position 1 (S1 teil Position 1 j) und (S2 teil Position 1 j) die Kreuzkorrelationsfunktion berechnet wird, wobei vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signalstück (S1 Teil Position 1 j) und aus einem invertierten Signalstück (S2 Teil Position 1 INV j) das Maximum der Kreuzkorrelationsfunktion (MCC1 2 j Position 1) zwischen 0 und 1 berechnet und gespeichert wird und anschließend nach dem Ver­ schieben der Fensterfunktion in die Position 2
für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion (MCC1 2 j Position 2) in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe (S1j, S2j) in der Position m angekommen ist und wiederum das Maximum (MCC1 2 j Position m) der Kreuzkor­ relationsfunktion M(CC1 2 j Position m) bestimmt wird und
von m berechneten Maxima (MCCm) eine Maximalwert-Kurve gebildet wird,
wobei in dieser Maximalwert-Kurve wiederum das Maximum (Mm j) bestimmt wird und der Ort des Maxi­ mums (Mm j) der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Ver­ schiebung der beiden Empfänger-Arrays zugeordnet wird
und im Falle der Anwendung einer Fensterfunktion mit nur einem Fenster in nur einer Position der Ort des Maximums (M1 j) der berechneten Kreuzkorrelationsfunktion (MCC1 2 j Position 1) den beiden originalen Si­ gnalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird
und der Ort des jeweils so bestimmten Maximums (Mj) als Ort des zu den beiden korrespondierenden Elementen (1j) und (2j) zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche (5) im Array- Raum definiert wird
und aus dem Ort dieses Maximums (Mj) im Array-Raum die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet wird und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche (5, 18, 19) aus der bekann­ ten Geometrie der 3D-Aufnahmeanordnung berechnet wird, und so die Positionen von den Elementen ei­ ner Objektoberfläche (5, 18, 19), von welchen Signalverläufe aufgenommen werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfän­ ger-Arrays vorbestimmt sind.
29. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 28, gekennzeichnet dadurch, daß die Gerade (gA1P) in einem Punkt (PA) in der Hauptebene des Abbildungsob­ jektivs (2) und im Durchstoßpunkt der Symmetrielinie (SL) im Array-Raum und die Gerade (gA2P) im glei­ chen Punkt (PA) zum Schnitt gebracht werden, wobei die optischen Achsen der beiden Abbildungsstrah­ lengänge parallel angeordnet sind, und die Gerade (gA1P) zusätzlich den Brennpunkt (FA1) des ersten Abbildungsobjektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Ar­ ray-Raum enthalten. 30. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß die Empfängerelemente im Aufnahmevorgang elektromagnetische Strah­ lung von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren und beim Aufnahmevorgang die zwei Empfänger-Arrays gleichzeitig und parallel zu jeweiligen optischen Ach­ sen der parallelen Abbildungsobjektive (2, 33), deren Hauptebenen zusammenfallen, verschoben werden,
wobei für die 3D-Aufnahme von Objektoberflächen im Hintergrundes in der Szene mindestens zwei paral­ lele, zumindest näherungsweise baugleiche Abbildungsstrahlengänge für die Abbildung der Objektober­ flächen (5, 18, 19) mit einem ersten Abbildungsobjektiv (2) im ersten Abbildungsstrahlengang und einem zweiten Abbildungsobjektiv (33) im zweiten Abbildungsstrahlengang angeordnet sind und die Abbildungs­ objektive (2, 33) räumlich getrennten Öffnungsblenden aufweisen und jedem Abbildungsobjektiv (2, 33) mindestens je ein Empfänger-Array mit Elementen oder ein Bildes desselben zugeordnet ist,
und der Signalverlauf (S1z) durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß es dem bei einer realen Verschiebung parallel zu einer Geraden (gA1P) entstehenden Signalverlauf (S1) zu­ mindest annähernd entspricht,
und der Signalverlauf (S2z) durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des zweiten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß die­ ser Signalverlauf (S2z) dem bei einer realen Verschiebung parallel zu einer Geraden (gA2P) entstehenden Signalverlauf (S2) zumindest annähernd entspricht
und die Gerade (gA1P) in einem Punkt (PA) in der Hauptebene des ersten Abbildungsobjektivs (2) im Array- Raum und die Gerade (gA2P) im gleichen Punkt (PA) in der Hauptebene des zweiten Abbildungsobjektivs (33), die mit der Hauptebene des ersten Abbildungsobjektivs (2) zumindest näherungsweise zusammen­ fällt, zum Schnitt gebracht werden und zusätzlich die Gerade (gA1P) den Brennpunkt (FA1) des ersten Ab­ bildungsobjektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array- Raum enthalten
und Verschiebungen der leuchtenden Flächenelemente FEL durchgeführt werden,
wobei die zugehörigen Verschiebungsstrecken (VSBAj) parallel zur Symmetrielinie (SL) der beiden opti­ schen Achsen ausgerichtet sind und der Punkt (PA) im Durchstoßpunkt der Symmetrielinie (SL) durch die zusammenfallenden Hauptebenen der beiden Abbildungsobjektive liegt, und
aus den Bildern der Verschiebungsstrecken (VSBAj) ein Streckenbüschel (SB1) mit einem Konvergenz­ punkt (K1) auf der Symmetrielinie (SL) gebildet wird, der mit dem Konvergenzpunkt (K0) zusammenfällt.
31. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung die leuchtenden Flächenelemente FEL relativ zum Beleuchtungsobjektiv (1) verschoben werden und da­ bei zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) stets auf einer B-Strecke (BSAj) positioniert werden, wobei die B-Strecken die Sollorte für die leuchtenden Flächenelemente FEL zumin­ dest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) darstellen und die B-Strecken die Achse des Beleuchtungsobjektivs stets unter einem rechten Winkel schneiden,
und zumindest in einem Zeitbereich (ΔtB) während des Verschiebungsvorganges der leuchtenden Flä­ chenelemente jeweils genau ein Bild von einem feststehenden Element eines feststehenden Empfängers und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest zu einem einzigen Zeitpunkt (ti) innerhalb eines jeden Zeitintervalls (Δti) der Detektion zumindest nähe­ rungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so zumindest zu die­ sem Zeitpunkt (ti) aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flä­ chenelementes FELj (3A) jeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird
und der Zeitpunkt ti für mindestens ein Element eines Empfänger-Arrays aus dem Durchgang mindestens eines leuchtenden Flächenelementes durch einen vorbestimmten Referenzort abgeleitet wird
und die Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen periodischen Signalver­ lauf detektieren und die Phase dieses Signalverlaufes in Bezug zur Phase am Referenzort ausgewertet wird.
32. Verfahren zur 3D-Aufnahme
mit mindestens einer von einer Strahlungsquelle (4) beleuchteten Objektoberfläche (5) in mindestens ei­ ner Szene mit einem ersten und mindestens einem zweiten Abbildungsstrahlengang, wobei die Achse ei­ nes ersten Abbildungsobjektivs (2) für die Abbildung der Objektoberflächen (5, 18, 19) parallel zur Achse eines zweiten Abbildungsobjektivs (33) für die Abbildung der Objektoberflächen (5, 18, 19) ausgerichtet ist, und so zwischen den beiden Achsen der beiden Abbildungsobjektive (2, 33) eine Symmetrielinie (SL) gebildet ist,
und mit mindestens je einem in jedem Abbildungsstrahlengang dem Abbildungsobjektiv zugeordneten Empfänger-Array und die beiden Empfänger-Arrays jeweils Elemente aufweisen, die im Aufnahmevor­ gang im Zeitbereich (ΔtB) elektromagnetische Strahlung von den Elementen der beleuchteten Objekt­ oberflächen im Objektraum detektieren, und
die beiden Abbildungsobjektive (2, 33) mindestens einen Abstand (d) von einem Achtel der Ausdehnung der Öffnungsblende (DB) des ersten Abbildungsobjektivs (2) aufweisen,
und die beiden Empfänger-Arrays im Aufnahmevorgang im Zeitbereich (ΔtB) je eine Verschiebung an ei­ nen anderen Ort erfahren und so auch die einzelnen Elemente der beiden Empfänger-Arrays verschoben werden und so die Empfängerelemente dabei an unterschiedlichen Orten elektromagnetische Strahlung detektieren und
zumindest näherungsweise die Detektion von elektromagnetischer Strahlung von den Elementen der Ob­ jektoberflächen für die Dauer eines Zeitintervalls (Δti) durch die Elemente des Empfänger-Arrays gleich­ zeitig erfolgt und die Elemente des Empfänger-Arrays anschließend ausgelesen werden und jeweils Signalwerte gewonnen werden,
gekennzeichnet dadurch, daß die Objektoberflächen in einer Szene beleuchtet werden und beim Aufnah­ mevorgang die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen optischen Achsen der Abbildungsstrahlengänge, deren Brennebenen im Objektraum zusammenfallen auf Verschiebungsstrec­ ken (ASA1) und (ASA2) verschoben werden
und die Bilder der Verschiebungsstrecken (ASA1) und (ASA2), die Strecken (ASO1) und (ASO1), im Ob­ jektraum zumindest annähernd auf der Symmetrielinie zwischen den beiden Achsen der Objektive (2), (33) positioniert werden
und aus dem Streckenbüschel (SB21) der Bilder der Verschiebungsstrecken (ASA1j) der einzelnen Ele­ mentes des ersten Empfänger-Arrays, die Strecken (ASO1j), ein Konvergenzpunkt (K21) gebildet wird und aus dem Streckenbüschel (SB22) der Bilder der Verschiebungsstrecken (ASA2j) der einzelnen Elementes des zweiten Empfänger-Arrays, die Strecken (ASO2j), ein Konvergenzpunkt (K22) gebildet wird und der Konvergenzpunkt (K22) und der Konvergenzpunkt (K22) auf der Symmetrielinie (SL) zur Koinzidenz ge­ bracht werden und auf der Symmetrielinie (SL) den Konvergenzpunkt (K0) bilden und
die beiden Empfänger-Arrays so verschoben werden, daß deren Bilder zumindest teilweise im Objektraum zusammenfallen,
so daß die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfänger-Arrays im Objektraum paarweise zumindest näherungsweise zur Koinzidenz gebracht werden, wobei die paarbildenden Elemente der beiden Empfänger-Arrays jeweils korrespondierende Elemente darstellen, und so jeweils ein aktueller Koinzidenzpunkt gebildet wird, der durch den Objektraum verscho­ ben wird, und
Signalverläufe (S1) des ersten Empfänger-Arrays durch Auslesen der Elemente während der Verschie­ bung des ersten Empfänger-Arrays auf der Verschiebungsstrecke (ASA1j) gebildet werden und die Ver­ schiebung des ersten Empfänger-Arrays parallel zu einer Geraden (gA1P) durchgeführt wird und so die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden (gA1P) auf Ver­ schiebungsstrecken (ASA1j) verschoben werden
und Signalverläufe (S2) des zweiten Empfänger-Arrays durch Auslesen der Elemente während der Ver­ schiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke (ASA2j) gebildet werden und die Verschiebung des zweiten Empfänger-Arrays parallel zu einer Geraden (gA2P) durchgeführt wird und so die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden (gA2P) auf Verschiebungsstrecken (ASA2j) verschoben werden,
wobei die Verschiebung des zweiten Empfänger-Arrays zumindest näherungsweise gleichzeitig mit der des ersten Empfänger-Arrays erfolgt,
und die Gerade (gA1P) in einem Punkt (PA1) auf der Symmetrielinie (SL) und in der Hauptebene des ersten Abbildungsobjektivs (2) im Array-Raum und die Gerade (gA2P) in einem Punkt (PA2) auf der Symmetrieli­ nie (SL) und in der Hauptebene des zweiten Abbildungsobjektivs (33) zum Schnitt gebracht werden, wo­ bei die Gerade (gA1P) zusätzlich den Brennpunkt (FA1) des ersten Abbildungsobjektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array-Raum enthalten, und
aus den beiden Signalverläufen (S1j) und (S2j) von zwei korrespondierenden Elementen (1j) und (2j) der Empfänger-Arrays, die über dem Weg der Verschiebung der beiden Empfänger-Arrays der beiden Emp­ fänger-Arrays im Speicher eines Rechners abgelegt sind,
durch das synchrone Verschieben einer Fensterfunktion,
wobei diese Fensterfunktion mindestens ein einziges Fenster mit einer minimalen Fensterlänge entspre­ chend zwei Signalwerten und eine maximale Fensterlänge aufweist, die zumindestens näherungsweise der Länge der Signalverläufe (S1j) und (S2j) entspricht,
um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays ent­ spricht,
über jeden dieser beiden Signalverläufe (S1j) und (S2j) und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, je ein Signalstück (S1 teil Position k j) und (S2 teil Position k j) gebildet wird,
wobei diese nacheinander gebildeten Signalstücke (S1 teil j Position k j) und (S2 teil j Position k j) sich in jedem der beiden Signalverläufe (S1j) und (S2j) in einem Teilbereich überdecken und wobei jeweils am gleichen En­ de der beiden Signalverläufe (S1j) und (S2j) mit dem Verschieben der Fensterfunktion in beiden Signal­ stücken begonnen wird,
und jeweils ausgehend von zwei Signalstücken in der Position 1 (S1 teil Position 1 j) und (S2 teil Position 1 j) die Kreuzkorrelationsfunktion berechnet wird, wobei jedoch vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signalstück (S1 Teil Position 1 j) und aus einem invertierten Signalstück (S2 Teil Position 1 INV j) das Maximum der Kreuzkorrelations­ funktion (MCC1 2 j Position 1) zwischen 0 und 1 berechnet und gespeichert wird und anschließend nach dem Verschieben der Fensterfunktion in die Position 2
für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion (MCC1 2 j Position 2) in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe (S1j, S2j) in der Position m angekommen ist und wiederum das Maximum (MCC1 2 j Position m) der Kreuzkor­ relationsfunktion M(CC1 2 j Position m) bestimmt wird und
von m berechneten Maxima (MCCm) eine Maximalwert-Kurve gebildet wird,
wobei in dieser Maximalwert-Kurve wiederum das Maximum (Mm j) bestimmt wird und der Ort des Maxi­ mums (Mm j) der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Ver­ schiebung der beiden Empfänger-Arrays zugeordnet wird
und im Falle der Anwendung einer Fensterfunktion mit nur einem Fenster in nur einer Position der Ort des Maximums (M1 j) der berechneten Kreuzkorrelationsfunktion (MCC1 2 j Position 1) den beiden originalen Si­ gnalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird
und der Ort des jeweils so bestimmten Maximums (Mj) als Ort des zu den beiden korrespondierenden Elementen (1j) und (2j) zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche (5) im Array- Raum definiert wird
und aus dem Ort dieses Maximums (Mj) im Array-Raum die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet wird und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche (5) aus der bekannten Geometrie der 3D-Aufnahmeanordnung berechnet wird, und so die Positionen von den Elementen einer Objektoberfläche (5, 18, 19), denen Signalverläufe zugeordnet werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfänger-Arrays vor­ bestimmt sind.
33. Verfahren zur 3D-Aufnahme
von mindestens einer mit einer Strahlungsquelle (4) beleuchteten Objektoberfläche (5) in mindestens ei­ ner Szene mit einem ersten und mindestens einem zweiten Abbildungsstrahlengang, wobei die Achse ei­ nes ersten Abbildungsobjektivs (2) im Abbildungsstrahlengang für die Abbildung der Objektoberflächen (5, 18, 19) parallel zur Achse eines zweiten Abbildungsobjektivs (33) im Abbildungsstrahlengang für die Abbildung der Objektoberflächen (5, 18, 19) ausgerichtet ist,
und so zwischen den beiden Achsen der beiden Abbildungsobjektive (2, 33) eine Symmetrielinie (SL) gebildet ist,
und mit mindestens je einem in jedem Abbildungsstrahlengang dem Abbildungsobjektiv zugeordneten Empfänger-Array und die beiden Empfänger-Arrays jeweils Elemente aufweisen, die im Aufnahmevor­ gang im Zeitbereich (ΔtB) elektromagnetische Strahlung von den Elementen der beleuchteten Objekt­ oberflächen im Objektraum detektieren, und
die beiden Abbildungsobjektive (2, 33) einen Abstand (d) des Pupillenzentrums (PZOB) des ersten Abbil­ dungsobjektivs (2) vom Pupillenzentrum (PZOA) des zweiten Abbildungsobjektivs (33) im Objektraum von mindestens einem Achtel der Ausdehnung der Öffnungsblende des ersten Abbildungsobjektiv (2) aufwei­ sen,
und die beiden Empfänger-Arrays im Aufnahmevorgang im Zeitbereich (ΔtB) je eine elektronisch gesteu­ erte, mechanische Verschiebung an einen anderen Ort erfahren,
und so auch die einzelnen Empfängerelemente verschoben werden und so die Empfängerelemente dabei an unterschiedlichen Orten elektromagnetische Strahlung detektieren und zumindest näherungsweise die Detektion von elektromagnetischer Strahlung von den Elementen der Ob­ jektoberflächen für die Dauer eines Zeitintervalls (Δti) durch die Elemente des Empfänger-Arrays gleich­ zeitig erfolgt und die Elemente des Empfänger-Arrays anschließend ausgelesen werden und jeweils Signalwerte gewonnen werden,
gekennzeichnet dadurch, daß beim Aufnahmevorgang die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen optischen Achsen der parallelen, zumindest näherungsweise baugleichen Abbildungs­ strahlengänge, deren Hauptebenen zusammenfallen, verschoben werden, wobei die Objektoberflächen in der Szene beleuchtet sind,
und der Signalverlauf (S1z) durch Auslesen von lateral nebeneinander liegenden Elementen des ersten Empfänger-Arrays während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung be­ nutzt werden die auf Strecken (ASA1) liegen, die parallel zu einer Geraden (gA1P) ausgerichtet sind und die den Punkt (PA1) in der gemeinsamen Hauptebene der Abbildungsobjektive (2, 33) schneidet,
und so der gebildete Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden (gA1P) entstehenden Signalverlauf (S1) zumindest annähernd entspricht, und so zumindestens jeweils zu einem Zeitpunkt ti in einem Zeitintervall Δti ein aktueller Koinzidenzpunkt gebildet wird, der im Zeitbereich ΔtB nacheinander jeweils an verschiedenen vorbestimmten Orten des Objektraumes gebildet wird, und
und der Signalverlauf (S2z) durch Auslesen von lateral nebeneinander liegenden Elementen des zweiten Empfänger-Arrays während der Verschiebung des zweiten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung be­ nutzt werden, die auf Strecken (ASA2), liegen, die parallel zu einer Geraden (gA2P) ausgerichtet sind und die den Punkt (PA2) in der gemeinsamen Hauptebene der Abbildungsobjektive (2, 33) schneidet,
und so der gebildete Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden (gA2P) entstehenden Signalverlauf (S2) zumindest annähernd entspricht,
und die Gerade (gA1P) in einem Punkt (PA1) im Durchstoßpunkt der Symmetrielinie (SL) durch die Haup­ tebene des ersten Abbildungsobjektivs (2) im Array-Raum und die Gerade (gA2P) in einem Punkt (PA2) im Durchstoßpunkt der Symmetrielinie (SL) durch die Hauptebene des zweiten Abbildungsobjektivs (33) zum Schnitt gebracht werden und zusätzlich die Gerade (gA1P) den Brennpunkt (FA1) des ersten Abbildungsob­ jektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array-Raum ent­ halten und
aus den beiden Signalverläufen (Sz1j) und (Sz2j) von zwei wechselnden korrespondierenden Elementen (1j) und (2j) der Empfänger-Arrays, die nur zu einem Zeitpunkt ti korrespondieren, wobei die Signalverläu­ fe (Sz1j) und (Sz2j) über dem Weg der Verschiebung der beiden Empfänger-Arrays der beiden Empfänger- Arrays im Speicher eines Rechners abgelegt sind,
durch das synchrone Verschieben einer Fensterfunktion,
wobei diese Fensterfunktion mindestens ein einziges Fenster mit einer minimalen Fensterlänge entspre­ chend zwei Signalwerten und eine maximale Fensterlänge aufweist, die zumindestens näherungsweise der Länge der Signalverläufe (Sz1j) und (Sz2j) entspricht,
um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays ent­ spricht,
über jeden dieser beiden Signalverläufe (Sz1j) und (Sz2j) und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, je ein Signalstück (Sz1 teil Position k j) und (Sz2 teil Position k j) gebildet wird, wobei diese nachein­ ander gebildeten Signalstücke (Sz1 teil j Position k j) und (Sz2 teil j Position k j) sich in jedem der beiden Signalverläu­ fe (Sz1j) und (Sz2j) in einem Teilbereich überdecken und wobei jeweils am gleichen Ende der beiden Si­ gnalverläufe (Sz1j) und (Sz2j) mit dem Verschieben der Fensterfunktion in beiden Signalstücken begonnen wird,
und jeweils ausgehend von zwei Signalstücken in der Position 1 (Sz1 teil Position 1 j) und (Sz2 teil Position 1 j) die Kreuzkorrelationsfunktion berechnet wird, wobei vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signalstück (S1 Teil Position 1 j) und aus einem invertierten Signalstück (Sz2 Teil Position 1 INV j) das Maximum der Kreuzkorrelationsfunktion (MCCz1 2 j Position 1) zwischen 0 und 1 berechnet und gespeichert wird und anschließend nach dem Ver­ schieben der Fensterfunktion in die Position 2
für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion (MCCz1 2 j Position 2) in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe (Sz1j) und (Sz2j) in der Position m angekommen ist und wiederum das Maximum (MCCz1 2 j Position m) der Kreuzkorrelationsfunktion M(CCz1 2 j Position m) bestimmt wird und
von m berechneten Maxima MCCz m eine Maximalwert-Kurve gebildet wird,
wobei in dieser Maximalwert-Kurve wiederum das Maximum (Mz m j) bestimmt wird und der Ort des Ma­ ximums (Mz m j) der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird
und im Falle der Anwendung einer Fensterfunktion mit nur einem Fenster in nur einer Position der Ort des Maximums (Mz 1 j) der berechneten Kreuzkorrelationsfunktion (MCCz 1 2 j Position 1) den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird
und der Ort des jeweils so bestimmten Maximums (Mz j) als Ort des Bildes des jeweiligen Elementes der Objektoberfläche (5) im Array-Raum definiert wird
und aus dem Ort dieses Maximums (Mz j) im Array-Raum die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet wird und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche (5) aus der bekannten Geometrie der 3D-Aufnahmeanordnung berechnet wird, und so die Positionen von den Elementen einer Objektoberfläche (5, 18, 19), denen Signalverläufe zugeordnet werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfänger-Arrays vor­ bestimmt sind.
34. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 29 bis 31, gekennzeichnet dadurch, daß das strukturiert leuchtende Array mit Bereichen unterschiedlicher Leucht­ dichte und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flächenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode (WP) dem dreifachen Streifenabstand der einzelnen verschiedenfarbigen Flächenelemente entspricht,
und nach einem Zeitbereich, der zumindest näherungsweise dem Zeitbereich (ΔtB) entspricht, das struk­ turiert farbig leuchtende Array um den 1,5fachen Abstand der einzelnen farbigen Flächenelemente, dies entspricht der halben Wiederholungsperiode (WP) lateral weiterverschoben wird und Elemente des Emp­ fänger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt werden.
35. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 28 bis 31, gekennzeichnet dadurch, daß das strukturiert leuchtende Array mit Bereichen unterschiedlicher Leucht­ dichte und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flächenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode (WP) dem dreifachen Streifenabstand der einzelnen, farbig leuchtenden Flächenelemente FEL entspricht,
und nach einem Zeitbereich (ΔtB), das strukturiert farbig leuchtende Array um den einfachen Abstand der einzelnen, farbig leuchtenden Flächenelemente FEL, welcher einem Drittel der Wiederholungsperiode (WP) entspricht, lateral weiterverschoben wird, wobei die Elemente des Empfänger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind.
36. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer elektroma­ gnetischen Strahlungsquelle (4), wobei die Strahlungsquelle (4) mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausge­ bildet ist und mindestens ein Flächenelement leuchtet, so daß mindestens ein leuchtendes Flächenele­ mente FELj (3A) gebildet ist, wobei der Begriff Leuchten im Sinne des Abstrahlens von elektromagneti­ scher Strahlung verwendet wird,
mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Ar­ ray, einschließlich einem Bild desselben, zugeordneten Beleuchtungsobjektiv (1), welches eine effektive Öffnungsblende mit einer Ausdehnung (DB) und einem Blendenzentrum (BZB) aufweist, zur strukturierten Beleuchtung der Objektoberflächen (5) im Objektraum, der dem Szenenraum entspricht, und mit mindestens einem dem Beleuchtungsstrahlengang zugeordneten Abbildungsstrahlengang mit mindestens einer Abbildungsstufe für die mindestens eine Objektoberfläche (5) mit mindestens einem dem Empfänger-Array oder einem Bildes desselben zugeordneten Abbildungsobjektiv (2, 33) zur Abbil­ dung der Elemente der Objektoberflächen, welches eine effektive Öffnungsblende mit einem Blendenzen­ trum (BZA) aufweist,
wobei Elemente des mindestens einem Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detektieren,
und mit einem Abstand (d) des Pupillenzentrums (PZOB) des Beleuchtungsobjektivs (1), als Bild des Blendenzentrums (BZB) im Objektraum, vom Pupillenzentrum (PZOA) des Abbildungsobjektivs (2), als Bild des Blendenzentrums (BZA) im Objektraum, wobei der Abstand (d) mindestens ein Achtel der Ausdeh­ nung (DB) der Öffnungsblende des Beleuchtungsobjektivs (1) beträgt,
wobei leuchtende Flächenelemente FEL in einer Leuchtdichteverteilung eine zumindest näherungsweise vorherbestimmte Leuchtdichte aufweisen und
wobei diese im weiteren als leuchtende Flächenelemente FEL bezeichnet werden, so daß durch die Ab­ bildung mit dem Beleuchtungsobjektiv (1) ein Bild eines leuchtenden Flächenelementes FELj (3A) im Objektraum gebildet ist,
gekennzeichnet dadurch, daß dem strukturiert leuchtenden Array ein Bewegungssystem mit mindestens einer beweglichen Komponente zugeordnet ist und zumindest aus der mechanischen Bewegung des strukturiert leuchtenden Arrays die Verschiebungsstrecken (VSBAj) der leuchtenden Flächenelemente FEL im Array-Raum gebildet sind
und nach Abbildung dieser Verschiebungsstrecken (VSBAj) durch das Beleuchtungsobjektiv (1) in den Objektraum, deren Bild zumindest näherungsweise als mindestens ein Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) gebildet ist, und
der Konvergenzpunkt (K1) einen minimalen Abstand (dK1 mm) von der Achse des Beleuchtungsobjektivs (1) vom 16ten Teil und einen maximalen Abstand (dK1 max) vom 16fachen des Abstandes (d) aufweist.
37. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36, gekennzeichnet dadurch, daß der Konvergenzpunkt (K1) zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs (1) im Objektraum und im Pupillenzentrum des Abbildungsobjektivs (2) im Objek­ traum positioniert ist. 38. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 und 37, gekennzeichnet dadurch, daß die Verschiebungsstrecken (VSBAj) der leuchtenden Flächenelemente FEL im Array-Raum zumindest annähernd parallel angeordnet sind und so der Konvergenzpunkt (K1) zumin­ dest annähernd in der Brennebene des Beleuchtungsobjektivs (1) im Objektraum und im Pupillenzentrum des Abbildungsobjektivs (2) im Objektraum positioniert ist. 39. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 und 38, gekennzeichnet dadurch, daß der Konvergenzpunkt (K1) zumindest annähernd in der Brennebene des Beleuchtungsobjektivs (1) und im Brennpunkt des Abbildungsobjektivs (2) im Objektraum positioniert ist. 40. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 39, gekennzeichnet dadurch, daß das leuchtende Array als elektronisch steuerbares Liniengitter mit einer Steuerbarkeit des Ortes der Linien und der Linienbreite ausgebildet ist, wobei die Linien senkrecht zum Hauptschnitt angeordnet sind,
und die Verschiebungsstrecken (VSBAj) der leuchtenden Flächenelemente FEL und so auch der leuch­ tenden Flächenelemente FEL mit lokalen Extrema der Leuchtdichte im Array-Raum - als Resultat der me­ chanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des struktu­ riert leuchtenden Arrays im Array-Raum gebildet sind
und aus diesen Verschiebungsstrecken (VSBAj) im Array-Raum im Hauptschnitt und in jeder zum Haupt­ schnitt parallelen Schnittebene zumindest näherungsweise mindestens ein Streckenbüschel mit einem Konvergenzpunkt (K1) gebildet ist und der Konvergenzpunkt (K1) einen minimalen Abstand (dK1 min) von der Achse des Beleuchtungsobjektivs (1) vom 16ten Teil des Abstandes (d) aufweist
und der Konvergenzpunkt (K1) einen maximalen Abstand (dK1 max) von der Achse des Beleuchtungsobjek­ tivs (1) vom 16fachen des Abstandes (d) aufweist und der Konvergenzpunkt (K1) zwischen Pupillenebene und Brennebenen des Beleuchtungsobjektivs im Objektraum angeordnet ist
und der Konvergenzpunkt (K1) des Streckenbüschels im Hauptschnitt im Pupillenzentrum (PZAA) des Abbildungsobjektivs (2) im Array-Raum angeordnet und die Konvergenzpunkte in den zum Hauptschnitt parallelen Schnitten gemeinsam mit dem Konvergenzpunkt (K1) des Hauptschnittes auf einer Geraden senkrecht zum Hauptschnitt angeordnet sind
und das Pupillenzentrum (PZ0A) des Abbildungsobjektivs (2) und das Pupillenzentrum (PZ0B) des Be­ leuchtungsobjektivs (1) im Objektraum gemeinsam auf einer Geraden angeordnet sind, welche senkrecht zur Achse des Beleuchtungsobjektivs (1) ausgerichtet ist
und bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbil­ dungsobjektivs nur Elemente des Empfänger-Arrays ausgelesen werden und Signalverläufe gebildet wer­ 99999 00070 552 001000280000000200012000285739988800040 0002019919584 00004 99880 den und zur Bildung eines einzelnen Signalverlaufes nur Elemente ausgewählt werden, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschiebungsstrecke (ASAj) im Array-Raum angeordnet sind, deren Verlängerungsgerade jeweils mit einer Geraden senkrecht zum Hauptschnitt, die das Zentrum der Austrittspupille des Abbildungsobjektivs (2) enthält, zum Schnitt gebracht ist, und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum im Hauptschnitt zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt (K2) im Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) gebildet ist.
41. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 40, gekennzeichnet dadurch, daß das leuchtende Array als elektronisch steuerbares Gitter ausgebildet ist und die Verschiebungsstrecken der Orte konstanter relativer Leuchtdichte der strukturierten, leuchtenden Flä­ che und so auch der Orte lokaler Extrema der Leuchtdichte im Array-Raum als Resultat der mechani­ schen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des strukturiert leuchtenden Arrays im Array-Raum so ausgerichtet sind,
daß aus diesen Verschiebungsstrecken im Array-Raum zumindest näherungsweise mindestens ein Streckenbündel mit einem Konvergenzpunkt (KA1) gebildet ist, und der Konvergenzpunkt (KA1) des Strec­ kenbündels im Pupillenzentrum (PZAA) des Abbildungsobjektivs (2) im Array-Raum angeordnet ist und so der Konvergenzpunkt (K1) im Objektraum im Pupillenzentrum (PZ0A) des Abbildungsobjektivs (2) ange­ ordnet ist
und das Pupillenzentrum (PZ0A)des Abbildungsobjektivs (2) und das Pupillenzentrum (PZ0B) des Be­ leuchtungsobjektivs (1) im Objektraum gemeinsam auf einer Geraden angeordnet sind, welche senkrecht zur Achse des Beleuchtungsobjektivs (1) ausgerichtet ist,
und bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbil­ dungsobjektivs nur die Elemente des Empfänger-Arrays ausgelesen werden und Signalverläufe gebildet werden und zur Bildung eines einzelnen Signalverlaufes nur Elemente ausgewählt werden, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschiebungs­ strecke im Array-Raum angeordnet sind, deren Verlängerungsgerade jeweils das Zentrum der Aus­ trittspupille des Abbildungsobjektivs (2) schneidet, und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt (K2) im Pupillenzentrum (PZOA) der Pupille des Abbildungsob­ jektivs (2) gebildet ist.
42. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 39, gekennzeichnet dadurch, daß die Verschiebungsstrecken (VSBAj) der leuchtenden Flächenelemente FEL (3A), wobei die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung eine zumindest nähe­ rungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte aufweisen, zumindest annähernd parallel zu einer definierten Geraden (gAP) angeordnet sind und die Gerade (gAP) den Brennpunkt (FAB) des Beleuchtungsobjektivs (1) im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quoti­ enten Abstand des Pupillenzentrums (PZOA) der Pupille des Abbildungsobjektivs (2) im Objektraum von der Achse des Beleuchtungsobjektivs (1) und Brennweite (fB) des Beleuchtungsobjektivs (1) aufweist, wo­ bei dieser Anstieg der Geraden (gAP) auf die Achse des Beleuchtungsobjektivs (1) bezogen ist. 43. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 42, gekennzeichnet dadurch, daß eine Komponente des Bewegungssystems dem Empfänger-Array zugeord­ net ist und so bei der mechanischen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke (AS) dessen Elemente Verschiebungsstrecken (ASAj) auf parallelen Geraden zugeordnet sind, wobei aus den Bildern (ASOj)dieser Strecken (ASAj) bei Abbildung durch das Abbildungsobjektiv (2) zumindest nä­ herungsweise mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Objektraum gebildet ist,
und der Konvergenzpunkt (K1) und der Konvergenzpunkt (K2) mit dem Brennpunkt (FOA) und dem Pupil­ lenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) im Objektraum zumindest annähernd zur Koin­ zidenz gebracht sind.
44. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 43, gekennzeichnet dadurch, daß die Achse des Beleuchtungsobjektivs (1) und die Achse des Abbildungsob­ jektivs (2) parallel zueinander angeordnet sind und das Abbildungsobjektiv (2) auf der Seite des Raumes der Arrays telezentrisch ausgeführt ist. 45. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 38 und 42 bis 44, gekennzeichnet dadurch, daß eine Komponente des Bewegungssystems dem Empfänger-Array zugeord­ net ist und so bei der mechanischen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke (AS) dessen Elemente Verschiebungsstrecken (ASAj) auf parallelen Geraden zugeordnet sind, wobei aus den Bildern dieser Strecken bei Abbildung durch das Abbildungsobjektiv (2) zumindest näherungsweise mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Objektraum gebildet ist,
und der Konvergenzpunkt (K1) und der Konvergenzpunkt (K2) mit dem Brennpunkt (FOA) und dem Pupil­ lenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) im Objektraum zumindest annähernd zur Koin­ zidenz gebracht sind und das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sind
und die Achsen des Beleuchtungsobjektivs (1) und des Abbildungsobjektivs (2) parallel zueinander ange­ ordnet sind und die Brennebenen derselben im Objektraum zur Koinzidenz gebracht sind.
46. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 45, gekennzeichnet dadurch, daß die Komponenten des Bewegungssystem so angeordnet sind, daß im Ar­ ray-Raum mit dem Brennpunkt (FAB) des Beleuchtungsobjektivs (1) als Bezugspunkt für das leuchtende Array eine Gesamtbewegungsrichtung zumindest annähernd parallel zu einer Geraden (gA) im Array- Raum realisiert ist, so daß die Elemente des strukturiert leuchtenden Arrays sich auf parallelen Geraden zur Gerade (gA) bewegen und diese Gerade (gA) mit dem Brennpunkt (FAB) des Beleuchtungsobjektivs (1) im Array-Raum zum Schnitt gebracht ist und den Anstieg mit dem Betrag aus dem Quotienten Brenn­ weite (fB) des Beleuchtungsobjektivs (1) und Abstand (d) des Brennpunktes (FAA) des Abbildungsobjek­ tivs (2) im Objektraum von der Achse des Beleuchtungsobjektivs (1) aufweist, wobei dieser Anstieg der Geraden (gA) auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs (1) bezogen ist. 47. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 46, gekennzeichnet dadurch, daß das Bewegungssystem aus zwei einzelnen Linearführungen aufgebaut ist und die erste Linearführung dem Empfänger-Array zugeordnet ist und die Bewegungsrichtung dieser Li­ nearführung zumindest annähernd parallel zur optischen Achse des Abbildungsobjektivs (2) justiert ist und die zweite Linearführung der ersten Linearführung und dem strukturiert leuchtenden Array zugeordnet ist und die Bewegungsrichtung der zweiten Linearführung zumindest annähernd senkrecht zur optischen Achse des Beleuchtungsobjektivs (1) justiert ist, so daß als Resultat der linearer Einzelbewegungen der beiden Linearführungen das strukturiert leuchtende Array zumindest annähernd parallel zur Geraden (gA) bewegen. 48. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 44 bis 46, gekennzeichnet dadurch, daß das Bewegungssystem, bestehend aus einer einzigen Linearführung (7) mit einem Schlitten (8) und einer Basis (9), im Raum von strukturiert leuchtendem Array und Empfänger-Array angeordnet ist und die Linearführung (7) wenigstens dem strukturiert leuchtenden Array fest zugeordnet ist und die Bewegungsrichtung für das strukturiert leuchtende Array zumindest annähernd parallel zur Ge­ raden (gA) im Array-Raum ausgerichtet ist. 49. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 46, gekennzeichnet dadurch, daß das Bewegungssystem aus mindestens zwei einzelnen Linearführungen aufgebaut ist und die erste Linearführung beweglichen Komponenten des Beleuchtungsobjektivs (1) zur Innenfokussierung und beweglichen Komponenten des Abbildungsobjektivs (2) zur Innenfokussierung fest zugeordnet ist und die zweite Linearführung dem strukturiert leuchtenden Array zur Bewegung senk­ recht zur optischen Achse des Beleuchtungsobjektivs (1) fest zugeordnet ist. 50. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 44 bis 46, gekennzeichnet dadurch, daß das Bewegungssystem aus einer Linearführung aufgebaut und diese dem Empfänger-Array zugeordnet ist und die Bewegungsrichtung dieser Linearführung zumindest annähernd parallel zur optischen Achse des Abbildungsobjektivs (2) angeordnet ist und ein rotatorischer Antrieb der Linearführung zuordnet ist und das strukturiert leuchtende Array wiederum dem rotatorischen Antrieb zu­ geordnet ist. 51. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 44 bis 46 und 50, gekennzeichnet dadurch, daß das strukturiert leuchtende Array als Gitter mit einer spiralförmigen Figur (30) als Archimedische Spirale mit mindestens einem Gang ausgebildet und drehbar angeordnet ist und mindestens ein Ausschnitt des Gitters mit der spiralförmigen Figur (30) als strukturiertes Array benutzt wird, wobei in Verbindung mit der Strahlungsquelle (4) (4, 16) das strukturiert leuchtende Array gebildet ist, und die Drehachse des Gitters mit der spiralförmigen Figur (30) parallel zur Achse des Beleuchtungs­ objektivs (1) angeordnet und außerdem ein rotatorischer Antriebsmotor dem Gitter mit der spiralförmigen Figur (30) zugeordnet ist. 52. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 41 bis 49, gekennzeichnet dadurch, daß das Abbildungsobjektiv (2) gemeinsam mit dem Empfänger-Array und den zugeordneten Komponenten des Bewegungssystems um eine Achse, welche das Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) durchstößt, im Objektraum drehbar angeordnet ist. 53. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 41 bis 49, gekennzeichnet dadurch, daß das Beleuchtungsobjektiv (1) gemeinsam mit dem strukturiert leuchtenden Array und den zugeordneten Komponenten des Bewegungssystems und der Strahlungsquelle (4) (4) um eine Achse, welche das Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) durchstößt, im Objektraum drehbar angeordnet ist. 54. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 53, gekennzeichnet dadurch, daß das strukturiert leuchtende Array eine gerasterte Struktur mit äquidistanten Abständen aufweist. 55. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 54, gekennzeichnet dadurch, daß dem Liniengitter (3, 17) ein Gegengitter mit der gleichen Gitterkonstante und ein Nullpunktgeber zugeordnet sind. 56. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 55, gekennzeichnet dadurch, daß eine transparente optische Platte der 3D-Aufnahme-Anordnung als perma­ nent verbleibende Referenzplatte in der Nahdistanz zugeordnet ist und auf mindestens einer der beiden Flächen der optischen Platte eine schwach lichtstreuende Mikrostruktur aufgebracht ist. 57. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 36, gekennzeichnet dadurch, daß der Beleuchtungsstrahlengang (71) mit einem afokalen System mit einem inneren Brennpunkt (FBi) aufgebaut ist und der Abbildungsstrahlengang (72) mit einem inneren Brenn­ punkt (FAi)
und im Objektraum der Brennpunkt des afokalen Beleuchtungsstrahlenganges (71) und der Brennpunkt des afokalen Abbildungsstrahlenganges (72) zumindest näherungsweise zusammenfallen und
der Konvergenzpunkt (K1) in einem Abstand (dK1) von der optischen Achse des Beleuchtungsobjektivs (1) angeordnet ist, wobei der Abstand (dK1) dem halben Abstand vom inneren Brennpunkt (FBi) der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges (72) durch die innere Brennebene (Fi) des Beleuchtungsstrahlenganges (71) entspricht, wobei das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils auf der nach außen gekehrten Seite der afokalen Abbildungsstufen zumindest näherungsweise telezentrisch ausgeführt sind,
und das Bewegungssystem (7) mit mindestens einer beweglichen Komponente (8) so angeordnet ist, daß dessen Bewegungsrichtung zumindest annähernd parallel zu einer Geraden (gA) justiert ist und so leuch­ tende Flächenelemente FEL auf Verschiebungsstrecken (VSBAj) verschoben werden und
die Gerade (gA) den Brennpunkt (FAB) des Beleuchtungsobjektivs (1) im Array-Raum durchstößt und für die Gerade (gA) der Anstieg mit dem Betrag aus dem Quotienten Brennweite (fB) des Beleuchtungsobjek­ tivs (1) und Abstand (dK1) realisiert ist, wobei der Anstieg auf die Hauptebene des Abbildungsobjektivs (2) bezogen ist, und
eine zur optischen Achse des Abbildungsobjektivs (2) zumindest annähernd parallele Verschiebung des Empfänger-Arrays besteht
und mindestens ein feststehender Umlenkspiegel dem Abbildungsobjektiv (2) zugeordnet ist und so strukturiert leuchtendes Array und Empfänger-Array in zueinander parallelen Ebenen liegen und so nur ein einziger z-Schlitten (8) für das strukturiert leuchtende Array und das Empfänger-Array angeordnet ist.
58. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 36, gekennzeichnet dadurch, daß zwei verschiebbare Empfänger-Arrays in parallelen Abbildungsstrahlen­ gänge in einer gemeinsamen Ebene angeordnet sind, wobei die Verschiebung des ersten Empfänger- Arrays auf der Verschiebungstrecke (ASA1) und die Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungstrecke (ASA2) stattfindet, und sich die Verschiebungsstrecken (AS1) und die Verschie­ bungstrecke (ASA2) sich in einem Punkt (PA) in der zusammenfallenden array-seitigen Hauptebene schneiden, wobei sich die Elemente des ersten Empfänger-Arrays auf den Verschiebungsstrecken (ASA1j) und sich die Elemente des zweiten Empfänger-Arrays auf den Verschiebungsstrecken (ASA2j) bewegen und
der Koinzidenzpunkt (K21) der Bilder der Verschiebungsstrecken (ASA1j), die Strecken (ASO1j), des ersten Abbildungsstrahlenganges und
der Koinzidenzpunkt (K22) der Bilder der Verschiebungsstrecken (ASA2j), die Strecken (ASO2j), des zwei­ ten Abbildungsstrahlenganges Beleuchtungsstrahlenganges im Koinzidenzpunkt (KO) zusammenfallen
und zu den beiden parallelen Abbildungsstrahlengängen mittig und symmetrisch ein paralleler Beleuch­ tungsstrahlengang mit einem auf der Verschiebungsstrecke (VSAP) verschiebbaren strukturiert leuchten­ den Array mit linienhaften Elementen in der Ebene der beiden Empfänger-Arrays angeordnet ist und das Beleuchtungsobjektiv mittig und symmetrisch angeordnet ist, also mit einer zu den beiden Abbildungs­ strahlengängen parallelen optische Achse, und dessen array-seitiger Hauptpunkt (HAB) mit dem Punkt (PA) zusammenfällt
und der objektseitige Brennpunkt (FOB) des Beleuchtungsstrahlenganges mit dem Koinzidenzpunkt (KO) zusammenfällt und ein strukturiert leuchtendes Array angeordnet ist.
59. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 36, gekennzeichnet dadurch, daß zwei verschiebbare Empfänger-Arrays in parallelen Abbildungsstrahlen­ gänge in einer gemeinsamen Ebene angeordnet sind, wobei die Verschiebung des ersten Empfänger- Arrays auf einer Verschiebungstrecke parallel zur optischen Achse und die Verschiebung des zweiten Empfänger-Arrays auf einer Verschiebungstrecke parallel zur optischen Achse stattfindet, und Elemente der beiden Empfänger-Arrays so ausgelesen werden und Signale gebildet werden, als ob sich die Emp­ fänger-Arrays auf Verschiebungsstrecken (ASA1) befinden würden und die Verschiebungstrecke (ASA2) sich in einem Punkt (PA) in der zusammenfallenden array-seitigen Hauptebene schneiden und
der Koinzidenzpunkt (K21) der Bilder der Verschiebungsstrecken (ASA1j), die Strecken (ASO1j), des er­ sten Abbildungsstrahlenganges und
der Koinzidenzpunkt (K22) der Bilder der Verschiebungsstrecken (ASA2j), die Strecken (ASO2j), des zwei­ ten Abbildungsstrahlenganges Beleuchtungsstrahlenganges im Koinzidenzpunkt (KO) zusammenfallen
und zu den beiden parallelen Abbildungsstrahlengängen mittig und symmetrisch ein paralleler Beleuch­ tungsstrahlengang mit einem auf der Verschiebungsstrecke (VSAP) verschiebbaren strukturiert leuchten­ den Array mit linienhaften Elementen in der Ebene der beiden Empfänger-Arrays angeordnet ist und das Beleuchtungsobjektiv mittig und symmetrisch angeordnet ist, also mit einer zu den beiden Abbildungs­ strahlengängen parallelen optische Achse, und dessen array-seitiger Hauptpunkt (HAB) mit dem Punkt (DA) zusammenfällt
und der objektseitige Brennpunkt des Beleuchtungsstrahlenganges mit dem Koinzidenzpunkt (KO) zu­ sammenfällt und ein strukturiert leuchtendes Array angeordnet ist.
60. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 58 und 59, gekennzeichnet dadurch, daß die Abbildungsobjektive für die beiden Empfänger-Arrays und das leuch­ tende Array zumindest näherungsweise baugleich sind und deren Brennebenen im Objektraum koinzidie­ ren und
das strukturiert leuchtende Array mit leuchtenden Farbstreifen gebildet ist, die zumindest näherungsweise lückenlos aneinandergereiht sind, wobei das strukturiert Array aus transmittierenden Mikroelementen und aus reflektierenden Mikroelementen aufgebaut ist, und dem strukturierten Array eine Rotlichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet ist, wobei die elektromagnetische Strahlung minde­ stens einer Strahlungsquelle (4) das strukturierte Array in einer fokussierenden Struktur durchsetzt und die elektromagnetische Strahlung von mindestens zwei Strahlungsquelle (4)n auf Mikrospiegelelemente trifft
und die beiden Empfänger-Arrays und das strukturierten Array mit einem Bewegungssystem zur präzisen, synchronen Bewegung verbunden sind, wobei die optisch aktiven Ebenen der beiden verschiebbaren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebe­ ne gehalten werden, wodurch die optisch konjugierten Ebenen im Objektraum koinzidieren.
61. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 und 60, gekennzeichnet dadurch, daß mindestens ein farbig leuchtendes Array als Gitter mit einem asymmetri­ schen Furchenprofil mit Dreieckprofilen, die Makro-Profilflächen aufweisen, und mit einer auf dem gesam­ ten Gitter zumindest näherungsweise gleichbleibenden Gitterkonstante zwischen 0,01 mm und 2 mm, die als Makro-Gitterkonstante bezeichnet wird, mit mindestens einer zugeordneten Strahlungsquelle (4) zur Beleuchtung gebildet ist,
so daß auf der Oberfläche des Gitters zumindest näherungsweise Dreieckprofile gebildet sind und auf den Makro-Profilflächen derselben jeweils zusätzlich ein Mikrofurchenprofil mit einer innerhalb einer Makro- Profilfläche veränderlichen Gitterkonstante des Mikrofurchenprofils und einer mittleren Mikro- Gitterkonstante desselben zwischen 0,0005 mm und 0,01 mm ausgebildet ist,
so daß für die einfallende elektromagnetische Strahlung eine fokussierende Wirkung verbunden mit einer Farbaufspaltung zumindest in die drei Farbbereiche blau grün rot gegeben ist.
62. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 61, gekennzeichnet dadurch, daß das Mikrofurchenprofil auf den Makro-Flächen als ein asymmetrischen Mi­ kro-Dreieckprofil ausgebildet ist. 63. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 61, gekennzeichnet dadurch, daß das Gitter mit einem asymmetrischen Furchenprofil mit Makro- Dreieckprismen ausgebildet ist, wobei das Mikroprofil auf den Hauptflächen der Makro-Dreieckprismen als ein asymmetrischen Mikro-Dreieckprofil mit Mikroprismen ausgebildet ist. 64. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36, 58 und 59, gekennzeichnet dadurch, daß die Abbildungsobjektive für die beiden Empfänger-Arrays und das leuch­ tende Array zumindest näherungsweise baugleich sind und deren Brennebenen im Objektraum koinzidie­ ren
und das leuchtende Array aus transmittierenden und gleichzeitig fokussierenden Mikroelementen und aus reflektierenden Mikroelementen gebildet ist,
wobei je einem transmittierenden und gleichzeitig fokussierenden Element zwei flankierende, reflektieren­ de Elemente zugeordnet sind,
und dem strukturierten Array eine Rotlichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet ist, wobei die elektromagnetische Strahlung mindestens einer Strahlungsquelle (4) das leuchtende Array in den fokussierenden Elementen durchsetzt und die elektromagnetische Strahlung von mindestens zwei separaten Strahlungsquelle (4)n unter einem Einfallswinkel von mindestens 10° auf die reflektierenden Elemente trifft.
65. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 64, gekennzeichnet dadurch, daß die beiden Empfänger-Arrays und das leuchtende Array mit einem Bewe­ gungssystem zur präzisen, synchronen Bewegung verbunden sind, wobei die optisch aktiven Ebenen der beiden verschiebbaren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebene gehalten sind, wodurch die optisch konjugierten Ebenen im Objektraum per­ manent zur Koinzidenz gebracht sind. 66. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 65, gekennzeichnet dadurch, daß dem strukturierten Array ein steuerbarer Stellmechanismus zur lateralen Bewegung zugeordnet ist. 67. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 60, gekennzeichnet dadurch, daß das strukturiert leuchtende Array mit Bereichen (LBARRAY j) unterschiedlicher Leuchtdichte und mit leuchtenden Flächenelemente FEL
mit Mikro-Farbteilern ausgebildet ist, so daß eine nahezu planare Struktur gebildet ist.
68. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 60, gekennzeichnet dadurch, daß das strukturiert leuchtende Array mit Bereichen (LBARRAY j) mit zumindest näherungsweise gleichem Abstand der leuchtenden Flächenelemente FEL in einer Ebene in den Farbbe­ reichen rot, grün und blau gebildet ist, wobei die Wiederholungsperiode (WP) dem dreifachen Streifenab­ stand der einzelnen verschiedenfarbigen Flächenelemente entspricht und Elemente des Empfänger-Arrays farbsensitiv und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind. 69. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 46 und 51 bis 68, gekennzeichnet dadurch, daß das strukturierte Array zumindest auf einem Teilbereich mindestens einer Scheibe ausgebildet ist, der eine rotatorische Präzisionslagerung mit einer Welle mit einem rotatorischen Präzisionsmotor zugeordnet ist, so daß mindestens eine rotierende Scheibe gebildet ist. 70. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69, gekennzeichnet dadurch, daß das strukturiert leuchtende Array auf einer rotierenden Scheibe als ein rota­ tionssymmetrisches Transmissions-Gitter ausgebildet ist. 71. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 und 70, gekennzeichnet dadurch, daß an einem äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochge­ naues und hochdynamisch messendes Meßsystem Referenzmarke (89) zur Erfassung der axialen Ablage eines Teilbereiches der rotierenden Scheibe von einer axialen Sollposition angeordnet ist
und das Meßsystem (89) in seiner messenden Funktion einem kreisringförmigen Bereich der rotierenden Scheibe zugeordnet ist, so daß jeweils die axiale Ablage in einem kreisringförmigen Bereich derselben, verursacht durch Axialschlag und Taumelschlag der rotierenden Scheibe hochgenau und hochdynamisch gemessen werden kann.
72. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 71, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Beeinflussung der axialen Ablage von der Sollposition eines Teil­ bereiches der rotierenden Scheibe angeordnet ist,
welches als Komponente eines Lage-Regelkreises der rotierenden Scheibe zugeordnet ist, so daß die axiale Ablage eines Sektors (82), verursacht durch Axialschlag und Taumelschlag bei der Rotation der Kreisscheibe, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe und so auch die axiale Lage zumindest eines Teilbereiches des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird.
73. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 71, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Beeinflussung der axialen Ablage von der Sollposition eines Teil­ bereiches der rotierenden Scheibe angeordnet ist, welches als Komponente eines Lage-Regelkreises ausgebildet und der rotierenden Welle zugeordnet ist, so daß die axiale Ablage eines Teilbereiches der rotierenden Scheibe, verursacht durch Taumelschlag bei der Rotation derselben, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Schei­ be und so auch die axiale Lage des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird. 74. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 71, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisch messendes Meßsystem (87) zur Erfassung der radialen Ablage von einer Sollposition eines Teilbereiches der rotierenden Scheibe angeordnet ist, welches der rotierenden Scheibe zugeordnet ist,
so daß in einem Kreisring der rotierenden Scheibe jeweils die radiale Ablage derselben, verursacht durch Radialschlag bei der Rotation der Kreisscheibe, hochdynamisch und hochgenau gemessen wird.
75. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 74, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Beeinflussung der radialen Ablage von der Sollposition eines Teil­ bereiches der rotierenden Scheibe angeordnet ist,
welches als Komponente eines Lage-Regelkreises der rotierenden Welle der rotierenden Scheibe zuge­ ordnet ist,
so daß die radiale Ablage eines Teilbereiches, verursacht durch Radialschlag bei der Rotation der rotie­ renden Scheibe, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe mit dem strukturiert leuchtenden Array in der radialen Sollposition gehalten wird und so der laterale Abstand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten wird
und so der laterale Abstand der Lage eines vorbestimmten Elementes des Empfänger-Arrays und eines vorbestimmten leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays im Array- Raum konstant gehalten wird.
76. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 74, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Beeinflussung der radialen Ablage von der Sollposition eines Teil­ bereiches der rotierenden Scheibe angeordnet ist,
welches als Komponente eines Lage-Regelkreises dem Empfänger-Array im Abbildungsstrahlengang zu­ geordnet ist,
so daß die laterale Lage des Empfänger-Arrays hochdynamisch geregelt und so und so der laterale Ab­ stand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten wird,
und so der laterale Abstand der Lage eines vorbestimmten Elementes des Empfänger-Arrays und eines vorbestimmten, leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays im Array- Raum konstant gehalten wird.
77. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76, gekennzeichnet dadurch, daß die rotierende Scheibe mit mindestens zwei Sektoren (82) ausgebildet ist und die Sektorenflächen die Stufenflächen einer Wendeltreppe darstellen. 78. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 77, gekennzeichnet dadurch, daß die Sektorenflächen jeweils die Begrenzungsflächen einer transparenten Platte (84) darstellen und diese so gestaltete rotierenden Scheibe im weiteren als Wendeltreppenscheibe (83) bezeichnet wird. 79. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 78, gekennzeichnet dadurch, daß die Wendeltreppenscheibe (83) mit zumindest näherungsweise regelmäßi­ gen, gleichflächigen Stufenflächen als vollflächige Wendeltreppenscheibe (83) mit Stufenabsätzen mit Stufenhöhen (Δhj) gebildet ist und auf die gleichflächigen Stufenflächen der Wendeltreppenscheibe (83) der transparenten Platte je ein strukturiertes Array aufgebracht ist
und die elektromagnetische Strahlung der Strahlungsquelle (4) nach dem Passieren der Fläche des strukturierten Arrays die transparente Platte (84) passiert
und die Stufenflächen zumindest näherungsweise senkrecht zur Drehachse ausgerichtet sind und min­ destens ein einziger Absatz auf der Wendeltreppenscheibe (83) mit mindestens der zweifachen Stufenhö­ he ausgebildet ist, und die Wendeltreppenscheibe (83) eine zumindest näherungsweise mittlere Steigung pro Umdrehung von maximal einem Zwanzigstel des Radius' der Wendeltreppenscheibe (83) aufweist.
80. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 78, gekennzeichnet dadurch, daß die Wendeltreppenscheibe (83) als ein in sich hochstabiler Körper ausge­ bildet ist und die Sektorenflächen der transparenten Platten (84) auf einer Seite der Wendeltreppenschei­ be (83) in einer gemeinsamen Ebene liegen und so eine Fläche bilden und die geometrisch-optische Weglänge der transparente Platte (84) von Stufe zu Stufe vorbestimmt verändert ist, so daß verschieden dicke, transparente Platten (84) gebildet sind und das strukturierte Array auf den gleichflächigen Stufen­ flächen nur auf einem Teilbereich derselben aufgebracht ist. 81. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 80, gekennzeichnet dadurch, daß in den Stufenflächen der Wendeltreppenscheibe (83) je ein weiterer trans­ parenter und unstrukturierter Sektorenbereich für den Abbildungsstrahlengang angeordnet ist. 82. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 82, gekennzeichnet dadurch, daß die strukturierten Arrays auf den Stufenflächen der zugehörigen transparen­ ten Platten in der Art eines als Tangentialgitters aufgebracht sind. 83. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 82, gekennzeichnet dadurch, daß die strukturierten Arrays auf den Stufenflächen der zugehörigen transparen­ ten Platten (84) der Wendeltreppenscheibe (83) in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht ist
und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeord­ neten Präzisionslagerung zugeordnet ist.
84. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 83, gekennzeichnet dadurch, daß das Gitter mit äquidistanten konzentrischen Kreisen von Stufenflächen zu Stufenflächen der Wendeltreppenscheibe (83) einen Sprung in der Struktur dieses Gitter in radialer Rich­ tung in der Art eines Phasensprunges aufweist. 85. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene 69 bis 84, gekennzeichnet dadurch, daß der Sprung in der Phase von Stufenfläche zu Stufenfläche der Wendeltrep­ penscheibe (83) einem ganzzahligen Vielfachen eines Viertels der mittleren Gitterkonstanten des Gitters beträgt. 86. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 85, gekennzeichnet dadurch, daß der Sprung in der Phase von Stufenfläche zu Stufenfläche der Wendeltrep­ penscheibe (83) einem Dreiviertel der mittleren Gitterkonstanten des Gitters beträgt. 87. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 86, gekennzeichnet dadurch, daß auf den Stufenflächen der Wendeltreppenscheibe (83) zumindest in Teilbe­ reichen auf der planen Fläche der Wendeltreppenscheibe (83) ein Referenzgitter aufgebracht ist. 88. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene 69 bis 87, gekennzeichnet dadurch, daß das Referenzgitter auf der planen Fläche der Wendeltreppenscheibe (83) zumindest näherungsweise eine Radialstruktur aufweist. 89. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 88, gekennzeichnet dadurch, daß das Referenzgitter zumindest näherungsweise eine Radialstruktur mit einer cos2-Transparenz-Verteilung und eine Ortsfrequenz aufweist, die der Ortsfrequenz entspricht, die aus der mittleren Phasenänderung des strukturierten Arrays auf einer konzentrischen Bahn der Wendeltreppen­ scheibe (83) über dem Vollkreis resultiert. 90. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 89, gekennzeichnet dadurch, daß an der Wendeltreppenscheibe (83) mindestens eine Referenzmarke (89) (90) aufgebracht ist. 91. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene 69 bis 90, gekennzeichnet dadurch, daß auf den gleichflächigen Stufenflächen der Platten je ein weiterer lichtdurch­ lässiger Teilbereich für den Abbildungsstrahlengang mit einem Farbfilter angeordnet ist. 92. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 91, gekennzeichnet dadurch, daß in jedem Sektor (82) der vollflächigen Wendeltreppenscheibe (83) minde­ stens eine Referenzmarke (90) aufgebracht ist. 93. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 92, gekennzeichnet dadurch, daß die Sektoren (82) eine geringere Ausdehnung in tangentialer Verschie­ bungsrichtung aufweisen als die Ausdehnung des Empfänger-Arrays und so das Empfänger-Array strei­ fenweise ausgelesen wird. 94. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 93, gekennzeichnet dadurch, daß gleichflächige Stufenflächen mit der Anzahl 2 Exponent n auf der vollflächi­ gen Wendeltreppenscheibe (83) angeordnet sind. 95. Anordnung zur 3D-Aufnahme von Objektoberflächen in einer nach 69 bis 76, gekennzeichnet dadurch, daß die rotierende Scheibe als ein Flügelrad mit Flügeln in Form transparenter Platten-Sektoren (82) unterschiedlicher geometrisch-optischer Dicke ausgebildet ist. 96. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76, gekennzeichnet dadurch, daß die rotierende Scheibe als ein Flügelrad mit Flügeln in Form transparenter Platten-Sektoren (82) unterschiedlicher geometrisch-optischer Dicke ausgebildet ist. 97. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76, gekennzeichnet dadurch, daß die rotierende Scheibe als Keilscheibe ausgebildet ist. 98. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97, gekennzeichnet dadurch, daß das strukturierte Array auf der Oberfläche einer Keilscheibe mit einer pla­ nen Unterfläche ausgebildet ist, wobei jedoch nur ein Teilbereich der Keilscheibe als strukturiertes Array zur Anwendung kommt und der Keilscheibe eine rotatorische Präzisionslagerung mit einer Drehachse mit einem rotatorischen Präzisionsmotor zugeordnet ist. 99. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76, 97 und 98, gekennzeichnet dadurch, daß die Keilscheibe als transparenter Körper ausgebildet ist und eine Fläche der Keilscheibe senkrecht zur Drehachse ausgebildet ist. 100. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis 99, gekennzeichnet dadurch, daß die Keilscheibe eine Dickenänderung von maximal einem Zwanzigstel des Radius' der Keilscheibe aufweist, wobei jedoch nur ein Ausschnitt der Keilscheibe als strukturiertes Array zur Anwendung kommt. 101. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis 100, gekennzeichnet dadurch, daß ein Referenzgitter (88) auf der vollflächigen Keilscheibe zumindest nähe­ rungsweise eine Radialstruktur aufweist. 102. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene 69 bis 76 und 97 bis 101, gekennzeichnet dadurch, daß auf der vollflächigen Keilscheibe mindestens eine Referenzmarke (90) auf­ gebracht ist. 103. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis 102, gekennzeichnet dadurch, daß auf der Keilscheibe mehrere strukturierte Arrays in einzelnen Sektoren (82) aufgebracht sind. 104. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis 103, gekennzeichnet dadurch, daß die strukturierten Arrays in der Art eines Tangentialgitters aufgebracht sind. 105. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis 104, gekennzeichnet dadurch, daß die einzelnen Tangentialgitter von Sektor (82) zu Sektor (82) einen Sprung in der Gitterstruktur in radialer Richtung in der Art eines Phasensprunges aufweisen. 106. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis 105, gekennzeichnet dadurch, daß der Sprung in der Phase von Sektor (82) zu Sektor (82) ein Viertel der Pe­ riode des Tangentialgitters beträgt. 107. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76, gekennzeichnet dadurch, daß die rotierende Scheibe als Taumelscheibe ausgebildet ist. 108. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107, gekennzeichnet dadurch, daß das strukturierte Array auf der Oberfläche eines Teilbereiches einer Tau­ melscheibe mit einem Taumelschlag und mit einer planen Unterfläche ausgebildet ist. 109. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76, 107 und 108, gekennzeichnet dadurch, daß die Taumelscheibe als vollflächige Scheibe und als transparenter Körper ausgebildet ist. 110. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 109, gekennzeichnet dadurch, daß der Axialschlag der Taumelscheibe maximal ein Zwanzigstel des Radius der Taumelscheibe aufweist, wobei jedoch nur ein Ausschnitt der Taumelscheibe als strukturiertes Array zur Anwendung kommt. 111. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 110, gekennzeichnet dadurch, daß zumindest auf einem Teilbereich der Taumelscheibe ein strukturiertes Array aufgebracht ist. 112. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 111, gekennzeichnet dadurch, daß das strukturierte Array als Gitter in der Art einer Archimedischen Spirale mit mindestens einem Gang aufgebracht ist. 113. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 112, gekennzeichnet dadurch, daß auf der Taumelscheibe zumindest in Teilbereichen ein Referenzgitter (88) aufgebracht ist. 114. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 113, gekennzeichnet dadurch, daß das Referenzgitter (88) auf der Taumelscheibe zumindest näherungsweise eine Radialstruktur aufweist. 115. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 114, gekennzeichnet dadurch, daß auf der vollflächigen Taumelscheibe mindestens eine Referenzmarke (90) aufgebracht ist. 116. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 115, gekennzeichnet dadurch, daß auf der Taumelscheibe mehrere strukturierte Array in einzelnen Segmenten aufgebracht sind. 117. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 116, gekennzeichnet dadurch, daß die strukturierten Arrays in der Art eines Tangentialgitters aufgebracht sind. 118. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 117, gekennzeichnet dadurch, daß die Tangentialgitter von Sektor (82) zu Sektor (82) einen Sprung in der Struktur in der Art eines Phasensprunges aufweisen. 119. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 118, gekennzeichnet dadurch, daß der Sprung in der Phase mindestens einen ganzzahligen Teil von einem Viertel der Periode des Tangentialgitters beträgt. 120. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 119, gekennzeichnet dadurch, daß auf der Taumelscheibe mehrere strukturierte Array in einzelnen Sektoren (82) in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht ist und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslage­ rung zugeordnet ist und die Gitterstruktur von Sektor (82) zu Sektor (82) in radialer Richtung einen Sprung in der Art eines Phasensprunges aufweist und der Sprung in der Phase von Sektor (82) zu Sektor (82) ein ganzzahliges Vielfaches eines Viertels der mittleren Gitterkonstanten des Gitters beträgt. 121. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76, gekennzeichnet dadurch, daß die rotierende Scheibe als Schraubenfläche ausgebildet ist. 122. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 121, gekennzeichnet dadurch, daß das rotationssymmetrisches Transmissionsgitter auf einer Schraubenfläche einer beleuchteten, rotierenden Scheibe mit maximal einem Gang, also mit einem Kreisausschnitt von maximal 360° ausgebildet ist, und so mindestens einen Absatz aufweist und das rotatorische Transmissi­ onsgitter als Schraubenfläche eine Steigung pro Umdrehung von maximal einem Zehntel des Durchmes­ sers der beleuchteten, rotierenden Scheibe aufweist, wobei jedoch nur ein Ausschnitt des rotationssym­ metrischen Transmissionsgitters als strukturiertes Array im Beleuchtungsstrahlengang zur Anwendung kommt. 123. A70 Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 121 und 122, gekennzeichnet dadurch, daß die Steigung der Schraubenfläche und die Anzahl der Gänge der Spirale in der Schraubenfläche so gewählt werden, daß bei der Drehung der schraubenförmigen Gitterfläche die leuchtenden Flächenelementen FELj (3A) sich auf Verschiebungsstrecken (VSAj) befinden, die zumindest näherungsweise parallel zu einer Geraden (gA) angeordnet sind. 124. A71 Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 121 und 123, gekennzeichnet dadurch, daß dem rotationssymmetrischen Transmissionsgitter auf einer Schraubenflä­ che zur Bestimmung der Referenzphase eine Strahlungsquelle (4) mit einem Laser und einem Kollimator zugeordnet ist und mindestens eine feine Markierung als Referenzmarke (90) auf der Schraubenfläche aufgebracht ist, wobei der Strahlungsquelle (4) ein Gitter mit einer Teilungskonstanten, welche beispiels­ weise dem mittleren Abstand der leuchtenden Flächenelemente FEL entspricht, nachgeordnet ist. 125. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 121 und 124, gekennzeichnet dadurch, daß auf der Schraubenfläche mehrere strukturierte Array in einzelnen Sektoren (82) in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht ist und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslage­ rung zugeordnet ist die Gitterstruktur von Sektor (82) zu Sektor (82) in radialer Richtung einen Sprung in der Art eines Phasensprunges aufweist und der Sprung in der Phase von Sektor (82) zu Sektor (82) ein ganzzahliges Vielfaches eines Viertels der mittleren Gitterkonstanten des Gitters beträgt. 126. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 68, gekennzeichnet dadurch, daß im Beleuchtungsstrahlengang dem Beleuchtungsobjektiv (1) ein bewegli­ ches Keilprisma aus einem transparenten optischen Werkstoff und diesem ein feststehendes gleichwinkli­ ges Kompensationsprisma aus einem transparenten optischen Werkstoff zugeordnet ist. 127. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 126, gekennzeichnet dadurch, daß auf dem Keilprisma ein strukturiertes Array aufgebracht ist und dem Keilprisma eine Linearführung mit einem Linearmotor zugeordnet ist und auch im Abbildungsstrahlengang ein bewegliches Keilprisma aus einem transparenten optischen Werkstoff dem Abbildungsobjektiv (2, 33) zugeordnet ist. 128. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 126 und 127, gekennzeichnet dadurch, daß auf dem beweglichem Keilprisma ein Referenzgitter (88) mit einer Refe­ renzmarke (90) aufgebracht sind und dem Referenzgitter (88) eine Strahlungsquelle (4) und ein opto­ elektronisches Auswertemodul zugeordnet sind. 129. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 126 und 127, gekennzeichnet dadurch, daß bei der Bewegung eines Keilprisma im Beleuchtungsstrahlengang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv (1) dessen axiale Gegen­ standsweite jeweils entsprechend der folgende Bedingung
|(Δϕ.p)/(2π.ΔzAG)| = |d/fB|
zumindest näherungsweise verändert wird und so die leuchtenden Flächenelemente FEL auf Strecken (BSAj) zumindest näherungsweise parallel zu einer Geraden (gAP) verschoben werden,
wobei der linke Term die Phasenänderung (Δϕ) des strukturiert leuchtenden Arrays, bezogen auf die Än­ derung der geometrisch-optischen Weglänge (ΔzAG) im Strahlengang in Richtung der optischen Achse, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenelemen­ tes FELj (3A) des strukturiert leuchtenden Arrays bei der Bewegung eines Keilprismas
und (p) die Gitterkonstante des strukturiert leuchtenden Arrays und (fB) die Brennweite des Beleuch­ tungsobjektivs (1) und (d) den Abstand des Pupillenzentrums des Beleuchtungsobjektivs (1) im Objek­ traum vom Pupillenzentrums des Abbildungsobjektivs (2) im Objektraum bedeuten.
130. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 126, gekennzeichnet dadurch, daß für eine rotierende Scheibe oder Teile derselben im Beleuchtungsstrahlen­ gang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv (1) dessen axiale Gegenstandsweite jeweils entsprechend der folgende Bedingung
|(Δϕ.p)/(2π.ΔzAG)| = |d/fB|
zumindest näherungsweise verändert wird und so die leuchtenden Flächenelemente FEL auf Strecken (BSAj) zumindest näherungsweise parallel zu einer Geraden (gAP) verschoben werden,
wobei der linke Term die Phasenänderung (Δϕ) des strukturiert leuchtenden Arrays, bezogen auf die Än­ derung der geometrisch-optischen Weglänge (ΔzAG) im Strahlengang in Richtung der optischen Achse, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenelemen­ tes FELj (3A) des strukturiert leuchtenden Arrays bei der Bewegung der rotierenden Scheibe
und (p) die Gitterkonstante des strukturiert leuchtenden Arrays und (fB) die Brennweite des Beleuch­ tungsobjektivs (1) und (d) den Abstand des Pupillenzentrums des Beleuchtungsobjektivs (1) im Objek­ traum vom Pupillenzentrums des Abbildungsobjektivs (2) im Objektraum bedeuten.
131. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene mit zwei Abbildungsstrahlen­ gängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (2) und einem zweiten Abbildungsobjektiv (33), wobei die Haup­ tebenen der beiden Abbildungsobjektive (2, 33) zur Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Emp­ fänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist,
gekennzeichnet dadurch, daß dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewe­ gungssystem zugeordnet ist und die resultierende Bewegungsrichtung des ersten Empfänger-Array auf einer Strecke (ASA1) auf dem ersten oberen Ast eines Buchstabens Y erfolgt, und die Strecke (ASA1) parallel zu einer Geraden (gA1P) liegt, die zum einen den Brennpunkt des ersten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet so daß sich die detektierenden Elemente des erstes Empfänger-Arrays auf den Strecken (ASA1j) bewegen, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet
und die resultierende Bewegungsrichtung des zweiten Empfänger-Array auf einer Strecke (AS2) auf dem zweiten oberen Ast des Buchstabens Y erfolgt, und die Strecke (ASA2) parallel zu einer Geraden (gA2P) liegt, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs (33) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet so daß sich die detektierenden Elemente des zweites Empfänger-Arrays auf den Strecken (ASA1j) bewegen, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet.
132. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene mit zwei Abbildungsstrahlen­ gängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (2) und einem zweiten Abbildungsobjektiv (33), wobei die Haupt­ ebenen der beiden Abbildungsobjektive (2, 33) zu Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist,
gekennzeichnet dadurch, daß dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewe­ gungssystem zugeordnet ist und die resultierende Bewegungsrichtung des ersten Empfänger-Array auf einer Strecke (ASA1) parallel zur optischen Achse des ersten Abbildungsobjektivs (2) erfolgt, und genau die Elemente des ersten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet wird, welche sich auf Strecken (ASA1j) befinden, die parallel zu einer Geraden (gA1P) liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbil­ dungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet,
so daß die zur Signalbildung verwendeten Elemente des erstes Empfänger-Array denen entsprechen, welche sich auf Strecken (ASA1j) befinden, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet
und die resultierende Bewegungsrichtung des zweiten Empfänger-Array auf einer Strecke (ASA2) parallel zur optischen Achse des zweiten Abbildungsobjektivs (33) erfolgt, und genau die Elemente des zweiten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet wird, welche sich auf Strecken (ASA2j) befinden, die parallel zu einer Geraden (gA2P) liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet,
so daß die zur Signalbildung verwendeten Elemente des zweiten Empfänger-Array denen entsprechen, welche sich auf Strecken (ASA2j) befinden, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet.
133. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131 und 132, gekennzeichnet dadurch, daß jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer transparenten Platte mit einer vorbestimmten geometrisch-optischen Dicke zugeordnet ist und auf der ro­ tierenden Scheibe Referenzmarken (89, 90) aufgebracht sind und die optische Dicke der transparenten Platte stetig veränderlich ist. 134. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131 und 132, gekennzeichnet dadurch, daß jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer transparenten Platte und jeder transparenten Platte eine vorbestimmte ortsabhängige geometrisch­ optische Dicke zugeordnet ist und auf der rotierenden Scheibe mindestens eine Referenzmarke (90) auf­ gebracht ist und so die optische Dicke sich von transparenter Platte zu transparenter Platte vorherbe­ stimmt verändert. 135. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131 und 132, gekennzeichnet dadurch, daß zwischen jedem Abbildungsobjektiv (2, 33) und jedem Empfänger-Array je mindestens zwei winkelgleiche Keilprismen (98, 99) angeordnet sind, wobei je zwei Keilprismen (98, 99) ein Parallelstück mit einem parallelen Zwischenraum konstanter Dicke bilden, wobei die Strahlachse auf den beiden äußeren Flächen des Parallelstückes zumindest näherungsweise jeweils senkrecht steht. 136. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131 und 132 und 135, gekennzeichnet dadurch, daß bei einem zumindest näherungsweise geradlinig verschiebbaren Keilprisma (99) die Verschiebungsrichtung parallel zur inneren Fläche des feststehenden Keilprismas (98) angeord­ net ist. 137. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131, 132, 135 und 136, gekennzeichnet dadurch, daß zur Kompensation des anamorphotischen Effektes im Luftspalt des Paral­ lelstückes ein zweites baugleiches Parallelstück mit zwei winkelgleichen Keilprismen mit einem gleichge­ stalteten Zwischenraum angeordnet ist, wobei das zweite Parallelstück um die Strahlachse um zumindest näherungsweise 90° gedreht angeordnet ist. 138. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131, 132, 135 bis 137, gekennzeichnet dadurch, daß die Projektionen der Verschiebungsrichtungen der beiden äußeren Keilprismen auf die Ebene der Außenfläche eines Parallelstückes senkrecht zueinander ausgerichtet sind. 139. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 138, gekennzeichnet dadurch, daß das Empfänger-Array eine Farbkamera darstellt. 140. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer elektroma­ gnetischen Strahlungsquelle (4), wobei die Strahlungsquelle (4) mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausge­ bildet ist und mindestens ein Flächenelement leuchtet, so daß mindestens ein leuchtendes Flächenele­ menten FELj (3A) gebildet ist, wobei der Begriff Leuchten im Sinne des Abstrahlens von elektromagneti­ scher Strahlung verwendet wird,
und mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordneten Beleuchtungsobjektiv (1), welches eine effektive Öffnungsblende mit einer Ausdehnung (DB) und einem Blendenzentrum (BZB) aufweist, zur strukturierten Beleuchtung der Objektoberflächen (5, 18, 19) im Objektraum, der dem Szenenraum entspricht,
und mit mindestens einem dem Beleuchtungsstrahlengang zugeordneten Abbildungsstrahlengang mit mindestens einer Abbildungsstufe für die mindestens eine Objektoberflächen (5, 18, 19) mit mindestens einem dem Empfänger-Array oder einem Bildes desselben zugeordneten Abbildungsobjektiv (2) zur Ab­ bildung der Elemente der Objektoberflächen, welches eine effektive Öffnungsblende mit einem Blenden­ zentrum (BZA) aufweist,
wobei Elemente des mindestens einem Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detektieren,
und mit einem Abstand (d) des Pupillenzentrums (PZOB) des Beleuchtungsobjektivs (1), als Bild des Blendenzentrums (BZB) im Objektraum, vom Pupillenzentrum (PZOA) des Abbildungsobjektivs (2), als Bild des Blendenzentrums (BZA) im Objektraum, wobei der Abstand (d) mindestens ein Achtel der Ausdeh­ nung (DB) der Öffnungsblende des Beleuchtungsobjektivs (1) beträgt,
wobei leuchtende Flächenelemente FEL in einer Leuchtdichteverteilung eine zumindest näherungsweise vorherbestimmte Leuchtdichte aufweisen
und diese im weiteren als leuchtende Flächenelemente FEL bezeichnet werden, so daß durch die Abbil­ dung mit dem Beleuchtungsobjektiv (1) mindestens ein Bild eines leuchtenden Flächenelementes FELj (3A) im Objektraum gebildet ist, gekennzeichnet dadurch, daß im Objektraum das Schärfevolumen mindestens eines Bildes eines leuch­ tenden Flächenelementes FELj (3A) in einem strukturiert leuchtenden Array -
durch die vorbestimmte geometrisch-optische Zuordnung des leuchtenden Flächenelementes FELj (3A) zum Beleuchtungsobjektiv und die geometrisch-optische Zuordnung der Elemente des Empfänger-Arrays zum Abbildungsobjektiv und die geometrische Zuordnung von Beleuchtungsobjektiv zum Abbildungsob­ jektiv in der 3D-Aufnahme-Anordnung unter Anwendung der Newtonschen Abbildungsgleichung -
permanent in das Schärfevolumen eingepaßt ist, welches durch die Gesamtheit der Bilder der Elemente des Empfänger-Arrays im Objektraum dargestellt ist,
wobei das Schärfevolumen, welches durch die Gesamtheit der Bilder der Elemente des Empfänger-Arrays in Strahlausbreitungsrichtung gegeben ist, mindestens eine so große Tiefenausdehnung wie das Schärfe­ volumen eines einzelnen Bildes eines leuchtenden Flächenelementes FELj (3A) aufweist, so daß für alle Bilder eines leuchtenden Flächenelementes FELj (3A) ein umschließendes Schärfevolumen von Bildern der Elemente des Empfänger-Arrays gegeben ist
und im Objektraum jeweils ein Bild mindestens eines leuchtenden Flächenelementes FELj (3A) eines strukturierten Arrays (45) jeweils einem Bild mindestens eines Elementes des Empfänger-Arrays fest zu­ geordnet ist.
141. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, gekennzeichnet dadurch, daß in mindestens einem strukturierten Array (45) mindestens eine räumlich strukturierte Sub-Matrix (46) angeordnet sind, wobei in der mindestens einen strukturierten Sub-Matrix(46) wiederum mindestens zwei strukturierte Zellen (47) angeordnet sind, wobei wiederum in jeder strukturier­ ten Zelle (47) durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fensterfläche (48) angeordnet ist und dieses mindestens eine Fensterfläche (48) eine mittlere Gegenstandsweite zum Beleuchtungsobjektiv (1) aufweist, die unterschiedlich zur Fensterfläche (48) der Nachbarzelle im Haupt­ schnitt gemacht ist und eine Fensterfläche (48) in einer strukturierten Zelle (47) jeweils im Zusammenwir­ ken mit der Strahlungsquelle (4) mindestens ein leuchtendes Flächenelement FELj (3A) darstellt. 142. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, gekennzeichnet dadurch, daß in mindestens einem strukturierten Array (45) mindestens eine räumlich strukturierte Sub-Matrix (46) angeordnet sind, wobei in der mindestens einen strukturierten Sub-Matrix (46) wiederum mindestens zwei strukturierte Zellen (47) angeordnet sind, wobei wiederum in jeder struk­ turierten Zelle (47) durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fenster­ fläche (48) angeordnet ist und diese mindestens eine Fensterfläche (48) eine mittlere Gegenstandsweite zum Beleuchtungsobjektiv (1) aufweist, die unterschiedlich zur Fensterfläche (48) der Nachbarzelle im Hauptschnitt gemacht ist und eine Fensterfläche (48) in einer strukturierten Zelle (47) jeweils mindestens ein selbstleuchtendes Flächenelement FELj (3A) darstellt. 143. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 142, gekennzeichnet dadurch, daß die Fensterfläche (48) zumindest näherungsweise in einer Ebene senkrecht zur optischen Achse des Beleuchtungsobjektivs (1) angeordnet ist. 144. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, 141 und 143, gekennzeichnet dadurch, daß mindestens eine strukturierte Sub-Matrix (46) als eine Transmissionsan­ ordnung mit einem optischen Werkstoff ausgebildet ist. 145. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, 141 und 143, gekennzeichnet dadurch, daß die optisch aktive Oberfläche der strukturierten Zellen (47) jeweils einen räumlich strukturierten Bereich aufweist, wobei in diesem räumlichen strukturierten Bereich die Fensterflä­ che (48) als plane Fläche ausgebildet ist
und in der Fensterfläche (48) eine Maske (49) angeordnet ist und die Maske ein Binär-Code- Transparenzprofil mit der Codierung einer maschinenlesbaren Zahl als Positionsnummer aufweist und so die Masken innerhalb einer Zelle jeweils eindeutig und maschinenlesbar voneinander unterscheidbar ge­ macht sind,
und in einem Teilbereich der räumlich strukturierten Zelle (47) neben der Maske (49) auf der Fensterflä­ che (48) eine Mikrolinse mit einer fokussierenden Wirkung angeordnet ist.
146. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 142 und 144 bis 145, gekennzeichnet dadurch, daß die Mikrolinse in einem Teilbereich der räumlich strukturierten Zelle (47) neben der Maske (49) auf der Fensterfläche (48) jeweils als eine Zylinderlinse (50) ausgebildet ist. 147. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 145 und 146 gekennzeichnet dadurch, daß die Mikrolinse (50) so angeordnet ist, daß deren Fokuspunkt zumindest nä­ herungsweise in der Ebene der Maske (49) positioniert ist. 148. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 147, gekennzeichnet dadurch, daß das strukturierte Array (45) als opakes Reliefstück mit mindestens zwei fei­ nen Durchbrüchen, die gegenüber dem Beleuchtungsobjektiv (1) angeordnet sind und sich die Durchbrü­ che beim Einsatz des Reliefstückes in die 3D-Aufnahme-Anordnung in unterschiedlichen Tiefen des Ar­ ray-Raumes befinden, ausgebildet ist. 149. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, gekennzeichnet dadurch, daß das strukturierte Array als ein nichttransparentes Reliefstück mit Durchbrü­ chen versehen ist und die zum Beleuchtungsobjektiv (1) weisende Oberfläche des Reliefstückes so gefer­ tigt ist, daß diese zumindestens näherungsweise die optisch konjugierte Fläche eines zu prüfenden Soll­ stückes darstellt und die Durchbrüche auf der Oberfläche des Reliefstückes zumindestens näherungswei­ se die optisch konjugierten Orte der Sollfläche eines Prüflings darstellen. 150. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, gekennzeichnet dadurch, daß das strukturierte Array als ein transparentes Mikrolinsen-Array ausgebildet ist und die Brennweite und die axiale Lage der Mikrolinsen so gestaltet sind, daß deren Foki in einer 3D- Fläche angeordnet sind, die zumindestens näherungsweise eine zur Sollfläche optisch konjugierte Fläche darstellt und die Foki der Mikrolinsen zumindestens näherungsweise optisch konjugierten Orte der Sollflä­ che eines Prüflings darstellen. 151. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, gekennzeichnet dadurch, daß auf dem strukturierten Array mindestens ein Relief mit einer räumlichen Struktur mit mindestens einer Periode in Form von mindestens einer Rampe (54, 56) mit mindestens einer in der Ausgleichsfläche schrägen Rampenfläche (55, 57) gebildet ist, die mindestens eine Rampenfläche jeweils zum Beleuchtungsobjektiv (1) ausgerichtet ist,
und auf der schrägen Rampenfläche (55, 57) leuchtende Flächenelemente FEL als von der Strahlungs­ quelle (4) beleuchtete Fensterflächen angeordnet sind und die Rampenflächen (55, 57) so geneigt sind, daß die Ausgleichsgerade (AGAj) durch die schräge Rampenfläche (55, 57) im Hauptschnitt nach Abbil­ dung durch das Beleuchtungsobjektivs (1) im Objektraum als Bild eine Gerade (AGOj) liefert,
die zumindestens näherungsweise auf das Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) zielt, wo­ bei für mehrere verschiedene Ausgleichsgeraden (AGOj) von mehreren verschiedenen Rampen (54, 56) nach deren Abbildung durch das Beleuchtungsobjektivs (1) aus deren Bildern ein Geradenbündel (GB1) mit einen Konvergenzpunkt (K1) gebildet ist,
und der Konvergenzpunkt (K1) zumindestens näherungsweise im Pupillenzentrum (PZOA) des Abbil­ dungsobjektivs (2) zur Koinzidenz gebracht ist.
152. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151, gekennzeichnet dadurch, daß das auf der Rampenfläche (55, 57), die eine mittlere Länge WP aufweist, jeweils mindestens eine Maske mit einem Binär-Code-Transparenzprofil mit der Sequenzlänge bz auf ei­ nem stetigen Flächenbereich derselben gebildet ist und die in der Maske mit einem Binär-Code-Profil verwendete minimale Strukturbreite p mindestens so groß gemacht ist, daß diese vom Beleuchtungsob­ jektiv (1) noch ohne merklichen Kontrastverlust scharf abgebildet werden kann, und die Länge WP größer als bz.d/DB gemacht ist und die auf einer Rampenfläche (55, 57) aufgebrachten Masken mit einem Bi­ när-Code-Transparenzprofil jeweils eindeutig und maschinenlesbar voneinander unterscheidbar gemacht sind. 153. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 152, gekennzeichnet dadurch, daß die Rampenflächen (55, 57), als stetige Flächen ausgebildet sind. 154. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 153, gekennzeichnet dadurch, daß innerhalb der Rampenflächen (55, 57), mehrere Stufen ausgebildet sind, wobei sich auf einer Fläche einer Stufe je mindestens eine Maske mit einem Binär-Code- Transparenzprofil mit mindestens einem transparenten Feld aufgebracht ist. 155. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 146 bis 154, gekennzeichnet dadurch, daß das Binär-Code-Profil als Balken-Code-Transparenzprofil mit mindestens einem transparenten Balken ausgebildet ist und die Balken parallel zum Hauptschnitt angeordnet sind und so die Detektierung des Balken-Code-Transparenzprofils senkrecht zum Hauptschnitt erfolgt. 156. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151, gekennzeichnet dadurch, daß das auf den Rampenflächen mit der Länge WP eine Gitterstruktur mit ei­ nem cos2-Transparenzprofil mit mindestens einer Periodenlänge bz aufgebracht ist und die Periodenlänge bz mindestens so groß gemacht ist, daß diese vom Beleuchtungsobjektiv mit einer hohen relativen Licht­ stärke noch ohne merklichen Kontrastverlust abgebildet werden kann, und die Länge WP der Rampenflä­ che jeweils größer als bz.d/DB gemacht ist, wobei die Länge der Rampenfläche mindestens gleich der Periodenlänge bz gemacht ist. 157. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, gekennzeichnet dadurch, daß leuchtende Flächenelemente FEL als von der Strahlungsquelle (4) beleuch­ tete, transparente Fensterflächen, einschließlich Bilder von diesen, im Array-Raum positioniert sind und die dem Beleuchtungsobjektiv (1) zugewandte Seite des strukturierten Array mindestens als ein einziges Relief mit einer räumlichen Struktur mit mindestens einer Periode in Form von mindestens einer Rampe gebildet ist, die jeweils ein transparentes Keilprisma darstellt,
und die Keilprismen einen Keilwinkel aufweisen, der so gewählt ist, daß durch dessen abbildende Wirkung die Bilder der leuchtende Flächenelemente FEL zumindestens näherungsweise auf einer Ausgleichsgera­ de (AGAj) im Hauptschnitt liegen und die Ausgleichsgerade (AGAj) nach Abbildung durch das Beleuch­ tungsobjektivs (1) im Objektraum als Bild eine Gerade (AGOj) liefert,
die auf das Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) zielt, wobei für mehrere Ausgleichsgera­ den (AGOj) von mehreren Rampen nach deren Abbildung durch das Beleuchtungsobjektivs (1) aus deren Bildern ein Geradenbündel mit einen Konvergenzpunkt (K1) gebildet ist, der zumindestens näherungswei­ se mit dem Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) zur Koinzidenz gebracht ist.
158. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 157, gekennzeichnet dadurch, daß die transparenten Keilprismen jeweils so gefertigt sind, daß diese im Mittel zumindestens näherungsweise den Keilwinkel im Bogenmaß mit dem Betrag fB.n/[d.(n-1)] aufweist. 159. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 156, gekennzeichnet dadurch, daß bei einem im Array-Raum telezentrischen Abbildungsobjektiv (2) die Ram­ penflächen im strukturierten Array, die zum Beleuchtungsobjektiv (1) weisen, zumindestens näherungs­ weise gleichwinklig ausgebildet sind, so die Ausgleichsgeraden (AGAj) durch die schrägen Rampenflächen im Hauptschnitt der 3D-Aufnahme-Anordnung
zueinander parallele Geraden darstellen, und die Rampenflächen so gestaltet sind, daß nach Abbildung durch das Beleuchtungsobjektivs (1) aus den Bildern der parallelen Ausgleichsgeraden ein Geradenbün­ del (GB1) mit einen Konvergenzpunkt (K1) gebildet ist, der zumindestens näherungsweise mit dem Pupil­ lenzentrum (PZOA) des Abbildungsobjektivs (2) im Objektraum zur Koinzidenz gebracht ist.
160. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 159, gekennzeichnet dadurch, daß bei einem im Array-Raum telezentrischen Abbildungsobjektiv (2) die Ram­ penflächen (55, 57), im strukturierten Array, die zum Beleuchtungsobjektiv (1) weisen, zumindestens nä­ herungsweise mit der gleichen Länge ausgebildet sind. 161. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 160, gekennzeichnet dadurch, daß dem Abbildungsobjektiv (2) eine transparente Platte (84) mit Keilprismen nachgeordnet ist, die eine Platte mit Rampen darstellt, wobei die Anzahl der Rampen der Anzahl der Sub- Matrizen auf dem strukturierten Array entspricht. 162. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 160, gekennzeichnet dadurch, daß im Abbildungsstrahlengang mindestens ein Mikrolinsen-Array angeordnet ist, wobei die Mikrolinsen innerhalb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen der Foki in Bezug auf eine Ebene senkrecht zur optischen Achse des Abbildungsstrahlenganges aufwei­ sen. 163. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 161, gekennzeichnet dadurch, daß dem Abbildungsobjektiv (2) mindestens ein Mikrolinsen-Array vorgeordnet ist, wobei die Mikrolinsen innerhalb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen der Foki in Bezug auf eine Ebene senkrecht zur optischen Achse des Abbildungsobjektivs (2) aufweisen. 164. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 162 und 163, gekennzeichnet dadurch, daß die Orte der Foki der Mikrolinsen eines Mikrolinsen-Arrays auf einem räum­ lichen Profil angeordnet sind. 165. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 162 und 164, gekennzeichnet dadurch, daß die Orte der Foki der Mikrolinsen eines Mikrolinsen-Arrays zumindestens näherungsweise auf Rampenflächen (55, 57), angeordnet sind. 166. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 162 und 163, gekennzeichnet dadurch, daß dem Abbildungsobjektiv (2) mindestens ein Lichtwellenleiter-Array, welches aus Mikrofasern gefertigt ist, vorgeordnet ist, wobei die Mikrofasern zumindest näherungsweise parallel zur optischen Achse des Abbildungsobjektiv (2) angeordnet sind und die Mikrofaserenden auf der einen Seite des Lichtwellenleiter-Arrays in einer gemeinsamen Ebene liegen und den Elementen des Empfän­ ger-Arrays unmittelbar zugeordnet sind und auf der anderen Seite des Lichtwellenleiter-Arrays dem Abbil­ dungsobjektiv (2) zugeordnet sind und auf dieser Seite die Faserenden auf einem räumlichen Profil ange­ ordnet sind. 167. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 162 und 166, gekennzeichnet dadurch, daß das räumliche Profil zumindestens näherungsweise mit Rampenflächen ausgebildet ist. 168. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 160, gekennzeichnet dadurch, daß das Empfänger-Array mit mindestens acht Elementen ausgebildet ist, die mindestens zwei Bereiche mit mindestens je vier Elementen darstellen, wobei die vier Elemente dann ge­ nau zwei Zellen darstellen,
und die mindestens zwei Bereiche mit einer unterschiedlichen mittleren Höhe der Elemente in einer Flä­ che gebildet sind, die als Sub-Flächen bezeichnet werden,
so daß auf dem Empfänger-Array mindestens zwei Bereiche gebildet sind, die zu einer Sub-Fläche mit einer mittleren Höhe gehören, und auf dem Empfänger-Array mindestens acht Elemente in vier unter­ scheidbaren Höhenstufen angeordnet sind.
169. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 168, gekennzeichnet dadurch, daß die Ausgleichsfläche über die Orte der Elemente des Empfänger-Arrays ei­ ner Sub-Fläche ein räumliches Profil darstellen und daß mindestens zwei Sub-Flächen auf dem Empfän­ ger-Arrays gebildet sind, die zumindest näherungsweise gleich gemacht sind und auch die Form des räumlichen Profils zumindest näherungsweise gleich gemacht ist. 170. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 169, gekennzeichnet dadurch, daß die Anzahl der Bereiche, die zu einer Sub-Fläche auf dem Empfänger-Array gehören, mit der Anzahl der Sub-Matrizen im strukturierten Array übereinstimmt und ein Bereich, der zu einer Sub-Fläche gehört, sich über mindestens zwei linienhafte Bereiche des Empfänger-Arrays, die ge­ trennt elektromagnetische Strahlung detektieren können, erstreckt und die laterale Anordnung der Berei­ che, die zu einer Sub-Fläche gehören, auf der Oberfläche des Empfänger-Arrays mit der lateralen Anord­ nung der Sub-Matrizen auf dem strukturierten Array zumindest näherungsweise geometrisch ähnlich gemacht ist. 171. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 170, gekennzeichnet dadurch, daß das Empfänger-Array als CCD-Matrix-Kamera ausgebildet ist. 172. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 168, gekennzeichnet dadurch, daß das Empfänger-Array als CMOS-Matrix-Kamera ausgebildet ist. 173. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 167, gekennzeichnet dadurch, daß das Empfänger-Array als CCD-Zeilen-Kamera ausgebildet ist. 174. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 167, gekennzeichnet dadurch, daß mindestens zwei Abbildungsstrahlengänge angeordnet sind und jedem Abbildungsstrahlengang jeweils zumindestens eine verkippbare Spiegelfläche vorgeordnet wird und die vorgeordneten, verkippbaren Spiegelflächen starr miteinander verbunden sind und diesen rechnergesteu­ erte Komponenten zur Durchführung einer Verkippung zugeordnet sind. 175. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 167, gekennzeichnet dadurch, daß mindestens zwei Abbildungsstrahlengänge angeordnet sind und den beiden Abbildungsstrahlengängen gemeinsam ein rechnergesteuertes, rotierendes Spiegelpolygon vorgeordnet ist. 176. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 167, gekennzeichnet dadurch, daß einem Beleuchtungsobjektiv (1) ein erstes Abbildungsobjektiv (33) mit ei­ nem Empfänger-Array und mindestens ein zweites Abbildungsobjektiv (2) mit einem Empfänger-Array zu­ geordnet sind, wobei das Pupillenzentrum PZOA des ersten Abbildungsobjektivs (2) im Abstand d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs (1) angeordnet ist und das zweite Abbildungsobjektiv (33) im Abstand k.d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs (1) angeordnet ist, wobei k ≧ 2 gemacht ist. 177. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer beleuchteten Szene mit mindestens zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (33) mit zumindest näherungsweiser ein­ seitiger Telezentrie im Array-Raum und einem zweiten Abbildungsobjektiv (2) mit zumindest näherungs­ weiser einseitiger Telezentrie im Array-Raum, wobei die beiden Hauptebenen der beiden Abbildungsob­ jektive (2, 33) zumindest näherungsweise zur Koinzidenz gebracht sind, wobei das Pupillenzentrum (PZOA1) des ersten Abbildungsobjektivs (33) im Abstand d vom Pupillenzentrum (PZOA2) des zweiten Ab­ bildungsobjektiv (2) angeordnet ist,
und jedem derselben je ein räumlich strukturiertes Empfänger-Array (106, 114) zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array (106, 114) angeordnet sind,
gekennzeichnet dadurch, daß das erste und das zweite räumlich strukturierte Empfänger-Array (106, 114) mindestens je zwei Empfängerflächen (107, 108) und (109, 110) auf räumlich getrennten Stufenflächen aufweisen, die zumindest näherungsweise jeweils senkrecht zum Hauptschnitt liegen, und die Empfän­ gerflächen (107, 108) des ersten Empfänger-Arrays (106) jeweils zumindest näherungsweise parallel zur Geraden (gA1P) angeordnet sind, die den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Haup­ tebenen und den Brennpunkt (FAA1) des ersten Abbildungsobjektivs (33) enthält,
und die Empfängerflächen (109, 110) des zweiten Empfänger-Arrays (114) jeweils zumindest näherungs­ weise parallel zur Geraden (gA2P) angeordnet sind, die den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfal­ lenden Hauptebenen und den Brennpunkt (FAA2) des zweiten Abbildungsobjektivs (2) enthält,
wobei sich Paare von Ausgleichsgeraden, die durch die mindestens je zwei Empfängerflächen (107) und (109) sowie (108) und (110) im Hauptschnitt verlaufen, zumindest näherungsweise in der Hauptebene schneiden und zumindest näherungsweise der mittlere Abstand von Teilen dieser mindestens zwei Emp­ fängerflächen (107) und (109) sowie (108) und (110) von der Hauptebene zumindest näherungsweise je­ weils gleich gemacht ist und so zumindest näherungsweise Paare von optisch konjugierten Bildern von Teilen von Empfängerflächen (107) und (109) des ersten Empfänger-Arrays (106) sowie von Teilen von Empfängerflächen (108) und (110) des zweiten Empfänger-Arrays (114) im Objektraum gebildet sind.
178. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer beleuchteten Szene, mit zwei Abbil­ dungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, zumindest näherungsweise paral­ lel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (2) und einem zweiten Abbildungsobjektiv (33), wobei die Hauptebenen der beiden Abbildungsobjektive (2, 33) zumindest nähe­ rungsweise zur Koinzidenz gebracht sind, wobei das Pupillenzentrum (PZOA1) des ersten Abbildungsob­ jektivs (2) im Abstand d vom Pupillenzentrum (PZOA2) des zweiten Abbildungsobjektiv (33) angeordnet ist,
und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind,
gekennzeichnet dadurch, daß das erste und das zweite Empfänger-Array (6, 14) zumindest näherungs­ weise jeweils senkrecht zum Hauptschnitt angeordnet sind, und die Empfängerfläche des ersten Empfän­ ger-Arrays zumindest näherungsweise so angeordnet ist, daß diese die Strecke (ASA1) enthält, die auf dem ersten oberen Ast eines Buchstabens Y angeordnet ist, und die Strecke (ASA1) zumindest nähe­ rungsweise parallel zu einer Geraden (gA1P) angeordnet ist, die zum einen den Brennpunkt des ersten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symme­ trieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen zumindest näherungsweise schneidet, so daß die detektierenden Ele­ mente des erstes Empfänger-Arrays (6) im Hauptschnitt zumindest näherungsweise auf der Strecke (ASA1) angeordnet sind, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet
und die Empfängerfläche des zweiten Empfänger-Arrays (14) zumindest näherungsweise so angeordnet ist, daß diese die Strecke (AS2) enthält, die auf dem zweiten oberen Ast des Buchstabens Y angeordnet ist, und die Strecke (ASA2) parallel zu einer Geraden (gA2P) angeordnet ist, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs (33) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen zumindest näherungsweise schneidet, so daß die detek­ tierenden Elemente des zweites Empfänger-Arrays im Hauptschnitt zumindest näherungsweise auf der Strecke (ASA1) angeordnet sind, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet und so mindestens aus Bildern von Teilen der beiden Empfängerflächen (6) und (14) im Objek­ traum mindestens ein Paar von zumindest näherungsweise optisch konjugierten Bildern gebildet ist.
179. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer beleuchteten Szene mit mindestens zwei Abbildungsstrahlengängen mit zwei Abbildungsobjektiven, einem ersten (33) und einem zweiten Abbildungsobjektiv (2), wobei das Pupillenzentrum (PZOA1) des ersten Abbildungsobjektivs (33) im Ab­ stand d vom Pupillenzentrum (PZOA2) des zweiten Abbildungsobjektiv (2) angeordnet ist,
und jedem derselben je ein räumlich strukturiertes Empfänger-Array, zugeordnet ist, so daß ein erstes (106) und ein zweites Empfänger-Array (114) angeordnet sind,
gekennzeichnet dadurch, daß das erste (106) und das zweite räumlich strukturierte Empfänger-Array (114) mindestens je zwei Empfängerflächen auf räumlich getrennten Flächen aufweisen und die Empfän­ gerflächen des ersten Empfänger-Arrays (106)jeweils so angeordnet sind,
und die Empfängerflächen des zweiten Empfänger-Arrays (114) jeweils so angeordnet sind,
daß zumindest näherungsweise Paare von optisch konjugierten Bildern zumindestens von Teilen von Empfängerflächen des ersten Empfänger-Arrays (106) sowie von Teilen der Empfängerflächen des zwei­ ten Empfänger-Arrays (114) im Objektraum gebildet sind.
180. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in mindestens einer beleuchteten Szene mit mindestens zwei Abbildungsstrahlengängen mit mindestens je einem Abbildungsobjektiv in jedem Abbildungsstrahlengang, wobei das Pupillenzentrum eines Abbildungsobjektivs eines Abbildungsstrahlenganges mindestens im Abstand d vom Pupillenzentrum eines Abbildungsobjektivs eines anderen Abbildungsstrahlenganges an­ geordnet ist, und der Abstand d mindestens der Ausdehnung der Öffnungsblende des Abbildungsobjektivs mit der größten Ausdehnung der Öffnungsblende entspricht
und jedem Abbildungsobjektiv mindesten je ein Empfänger-Array mit mindestens zwei detektierenden Element zugeordnet ist,
gekennzeichnet dadurch, daß jedem Empfänger-Array mindestens jeweils ein mikrooptisches Array mit mikrooptischen Elementen zur Beeinflussung der geometrisch-optischen Gegenstandsweite der detektie­ renden Elemente zum zugehörigen Abbildungsobjektiv zugeordnet ist
und im Objektraum mindestens ein Paar von zumindest näherungsweise koinzidierenden Bildern von je einem Bild eines Elementes der Empfängerflächen je eines Abbildungsstrahlenganges gebildet ist.
181. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 180, gekennzeichnet dadurch, daß das mikrooptische Array als ein Mikroprismen-Array ausgebildet ist. 182. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) 99999 00085 552 0010002800000002000120002857300489000405919938400529 0002019919584 00004 00481in einer mindestens einer Szene nach 180, gekennzeichnet dadurch, daß das mikrooptische Array als ein Mikrolinsen-Array mit Mikrolinsen unter­ schiedlicher axialer Lage ausgebildet ist. 183. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 180, gekennzeichnet dadurch, daß das mikrooptische Array als ein Mikroprismen-Array Array mit Mikrolinsen unterschiedlicher Brennweite ausgebildet ist. 1. Technisches AnwendungsgebietDas technische Anwendungsgebiet besteht in der Bestimmung der 3D-Form oder 3D-Gestalt von Körpern oder Objekten im Raum oder sogar kompletten Szenen mit mindestens einem Bildaufnehmer in einem optischen Aufnahmesystem. Die dazu notwendige Anordnung wird im weiteren als 3D-Aufnahme-Anordnung und das Verfahren wird als 3D-Aufnahme-Verfahren bezeichnet. Die Anwendung dieser 3D-Aufnahme-Anordnung und dieses Verfahrens erfolgt erstens im Sinne der 3D-Meßtechnik. Als Ergebnis der Berechnung wird aus optisch gewonnenen Signalen die 3D-Punktwolke von Objektoberflächen in einer Szene als digital vorliegender Datensatz mit Bezug zu einem Nullpunkt der 3D-Aufnahme-Anordnung ermittelt. Die errechnete Punktwolke kann beispielsweise in einem CAD-System weiterverarbeitet werden.Eine weitere, mögliche meßtechnische Applikation stellt die Positionsbestimmung eines Fahrzeuges im Freien dar, ohne die Notwendigkeit das Fahrzeug durch eine interne oder externe Beleuchtungseinrichtung der 3D-Aufnahme-Anordnung beleuchten zu müssen.Das zweite Anwendungsgebiet stellt das Gewinnen von 3D-Bildern als Punktwolke von Objektoberflächen in einer Szene im Nah- und im Fernbereich für 3D-Wiedergabe-Geräte und 3D-Wiedergabe-Verfahren dar. Dabei können auch die Farben der Objektoberflächen erfaßt werden. Dieses Verfahren betrifft vor allem den Multimedia- und Fernsehbereich im Studio. Es kann aber auch bei Außenaufnahmen eingesetzt werden.Weiterhin kann das Verfahren und die Anordnung zur digitalen 3D-Schwarzweiß- und zur digitalen 3D-Farbaufnahme im Nah- und im Fernbereich im Sinne der Fotografie angewendet werden, wobei ein digitaler Datensatz erzeugt wird, der zu einem 3D-Bild weiterverarbeitet werden kann. 2. Stand der TechnikDie 3D-Form von Oberflächen wird häufig mit Streifen-Triangulationsverfahren vermessen. Dabei wird in der Regel das Objekt oder die Szene unter einem großen Einfallswinkel beleuchtet, beispielsweise zwischen 30° und 60°. Dies führt jedoch häufig zu störenden Abschattungen des Objekts oder von Details von Objektoberflächen in der Szene.Es sind vielfältige 3D-Meßanordnungen mit kohärentem Licht bekannt. Der Einfluß des Speckle-Phänomens begrenzt jedoch den Einsatz dieser Verfahren. Dies wurde von H. J. Tiziani in der Arbeit "Automatisierung der optischen Qualitätsprüfung" in Technisches Messen, 55. Jahrgang, Heft 1211988, S. 481-491 auf Seite 488 dargestellt. Es werden auch Interferenzstreifen-Felder für die Streifen-Projektionstechnik eingesetzt. Diese werden durch die Überlagerung kohärenter Planwellen erzeugt und weisen ebenfalls Speckle-Effekte auf, s. Technisches Messen, 62. Jahrgang, Heft 9/1995, S. 328-330. Diese Speckle-Effekte begrenzen die sinnvolle Höhenauflösung häufig auf weniger als 1/40 der effektiven Wellenlänge.Bei der herkömmlichen optischen 3D-Messung stellen diskontinuierliche Oberflächen oft ein Problem dar. Beispielsweise können größere Absätze oder Stufen in der Oberfläche des Objektes zu einer Verletzung des Sampling-Theorems führen. Abhilfe schafft hier das Gray-Code-Verfahren, bei dem eine Folge von Binär-Bildern aufprojiziert wird. Zusätzlich werden anschließend - besonders bei höheren Genauigkeitsforderungen - Sinusgitter auf die Objektoberfläche abgebildet, wobei die bekannte Phasenschiebemethode zur Anwendung kommt. Ein Beispiel stellt das Modulare optische 3D-Meßsystem optoTOP der Fa. Breuckmann GmbH in D-88709 Meersburg dar. Weiterhin ist das COMET-500-System der Fa. Steinbichler Optotechnik GmbH in D-83115 Neubeuern zu nennen.Die Firma ABW in D-72636 Frickenhausen bietet programmierbare Linienprojektoren mit bis zu 1280 Linien für das absolut messende Moire-Verfahren an. Projektoren auf LCD-Basis arbeiten noch relativ langsam und der zu beobachtende Streifenkontrast auf dem Objekt ist schlechter als bei Projektoren mit Gitterstrukturen auf Glasplatten.Die Firma Gottfried Frankowski Meßtechnik in D-14513 Teltow bietet die Digitale Lichtprojektion auf der Basis von beleuchteten Mikrospiegeln, Digital Light Mirror Devices, auch als DMD bekannt, an. Es können Gitterbilder mit einer Folgefrequenz von etwa 10 Hz erzeugt und eingelesen werden. Diese Frequenz ist jedoch für die Hochgeschwindigkeits-Bildaufnahme noch nicht ausreichend. Weiterhin werden bei der Messung Flächenelemente gleicher relativer Leuchtdichte innerhalb eines Musters leuchtender Streifen verschoben. Diese Flächenelemente werden nacheinander durch verschiedene beleuchtete Mikrospiegel dargestellt und bilden eine strukturiert leuchtenden Fläche. Die relative Leuchtdichte ist auf die mittlere Leuchtdichte des Umfeldes bezogen. Für die Flächenelemente gleicher relativer Leuchtdichte werden kurze Verschiebungsstrecken, beispielsweise von der Länge von vier oder acht Mikrospiegelabmessungen, realisiert, die einer Streifenperiode in der Ebene des Digital Light Mirror Devices entsprechen. Durch die senkrechte Ausrichtung des Digital Light Mirror Devices zur optischen Achse des Beleuchtungsobjektivs werden die Flächenelemente oder die Orte gleicher Leuchtdichte in einer ebene senkrecht zur optischen Achse des Beleuchtungsobjektivs auf Verschiebungsstrecken verschoben. Dabei entspricht die Verschiebung um einen Streifen einer Änderung der Phase im abgebildeten Streifenfeld um 360°. Dieser Wert ist für die phasenauswertende Streifenprojektionsmeßtechnik auf der Grundlage der Triangulation für die Bestimmung der Punktwolke einer Objektoberfläche geeignet. Jedoch können keine Objekte mit einer in Bezug zur Brennweite des Beleuchtungsobjektivs großen Tiefe vermessen werden, wenn sehr feine Streifen zum Erreichen eines hohen Tiefenauflösungsvermögens abgebildet werden. Der Tiefenmeßbereich ist hierbei durch die Ausdehnung der Öffnungsblende DB des Beleuchtungsobjektivs begrenzt.Um einen großen Schärfentiefebereich bei der Vermessung von tiefen Objekten zu erreichen, wird bei allen genannten Verfahren in der Regel mehr oder weniger stark abgeblendet, sowohl bei der Beleuchtung als auch bei der abbildung der Objektoberfläche. Es wird meistens mit kleinen Objektivöffnungen, beispielsweise mit einer relativen Lichtstärke von 1 : 8 bis 1 : 22 gearbeitet. Dies erfordert starke Lichtquellen, beispielsweise in Form von Blitzlampen oder starken Halogenlampen, oder es ist nur die Ausleuchtung vergleichsweise kleiner Felder möglich, beispielsweise 200 mm × 200 mm bis 500 mm × 500 mm.Auf dem 2. ABW-Workshop 3-DBVITAE vom 25.-26.1.1996 wurde von R. Lampalzer, G. Häusler und Schielzeth auf den Vorteil einer großen Beleuchtungsapertur zur Verringerung des Speckle-Rauschens durch die Gewinnung räumlicher Inkohärenz hingewiesen.In der Vergangenheit kam es durch die Verwendung von zwei Kameras zu Problemen mit der lateralen Genauigkeit bei der Generierung der 3D-Punktwolke. Neue Entwicklungen, beispielsweise von der Firma gom in D-38106 in Braunschweig, führten zu einer Serie von 3D-Sensoren auf der Basis der Projektion von unterschiedlichen Streifenmustern und der Erfassung mit zwei Kameras aus unterschiedlichen Blickwinkeln. Jedoch es bleibt das Problem einer begrenzten Tiefenausdehnung des Meßraumes bestehen, wenn zum Erreichen einer hohen Tiefenauflösung Gitter mit einer kleinen Gitterperiode abgebildet werden.Ein neues Verfahren mit drei Kameras mit parallel angeordneten optischen Achsen und einem geeigneten Basisabstand löst das Problem der Erfassung der 3D-Szene durch die Auswertung stereoskopischer Bilder mittels Hochleistungsrechner, s.VDI-Nachrichten Nr. 21 vom 22. Mai 1998, Seite 15, "Reise in die strahlende Ruine". Diese so gewonnenen 3D-Informationen werden zum Steuern eines Roboters, des Roboter "Pioneer", in der Tschernobyl-Ruine und zur 3D-Erfassung der baulichen Gegebenheiten und des Umfeldes angewendet. Nur mit Hochleistungs-Rechentechnik ist eine echtzeitnahe 3D-Bildrekonstruktion möglich. Das Bauvolumen dieser Anordnung ist durch die drei Kameras vergleichsweise groß.Im Tagungsband "Optische Formerfassung" GMA-Bericht 30, DGZfP - VDINDE-GMA Fachtagung 28./29. April 1997, Langen, Bundesrepublik Deutschland, S. 199-209, wird von den Autoren, R. Schwarte, H. Heinol, z.Xu, J. OIk und W. Tai darauf hingewiesen, daß für die schnelle Formerfassung im ca. 20 cm- bis 50 m-Bereich kein präzises, flexibles und kostengünstiges Verfahren zur Verfügung steht. Diese Aussage gilt besonders für den Bereich von 20 cm bis 2 m, da hier auch die Laufzeitverfahren nur eine Tiefen-Meßgenauigkeit von 2 mm bis 20 mm aufweisen. Die in oben genannter Veröffentlichung dargestellte technische Lösung auf der Basis eines Photomischdetektors PMD wird als gegenwärtig noch nicht geeignet angesehen, im genannten Nahbereich eine hohe Tiefen-Genauigkeit zu realisieren. Auch wird der technische Aufwand z. Z. noch als recht hoch eingeschätzt. Im o. g. Tagungsband "Optische Formerfassung" wird auf den Seiten 211-222, von den Autoren W. Schreiber, V. Kirchner und G. Notni das Konzept für ein selbsteinmessendes, optisches 3D-Meßsystem auf der Basis strukturierter Beleuchtung dargestellt. Es gestattet, ausgehend von der Erfahrungen in der Photogrammetrie, die gleichzeitige Bestimmung von Systemparametern und Koordinaten aus den Meßwerten. Es wird eine hohe Meßgenauigkeit für die Objektkoordinaten mit einem relativen Fehler von bis zu 10-5 erreicht. Dazu muß jedoch eine mehrmalige Meßwertaufnahme erfolgen, wobei Gray-Code-Sequenzen und Streifen mit sinusähnlichem Profil in Verbindung mit Phasenschiebechniken eingesetzt werden. Dies bedeutet einen erheblichen Zeitaufwand für die Durchführung der Messung aufgrund des notwendigen Einsatzes mehrerer Gitter in einer Meßfolge. Auch muß das Objekt, aufeinanderfolgend von mehreren Projektoren, in unterschiedlichen Positionen oder vom gleichen Projektor aus in verschiedenen Richtungen beleuchtet werden. Auch dies ermöglicht keine hochdynamische Messung oder eine echtzeitnahe 3D-Erfassung von Objekten.Die Grundzüge dieses optischen Verfahrens sind unter dem Titel "Optische Dreikoordinatenmessung mit strukturierter Beleuchtung" in Technisches Messen, 62. Jahrgang, Heft 9/1995, S. 321-329 von W. Schreiber, J. Gerber und R. Kowarschik dargestellt. Der Referenzpunkt für das Koordinatensystem liegt dabei im Bereich des Objektes. In Bild 2 dieser letztgenannten Veröffentlichung wird eine Anordnung mit parallelen Achsen für das Beleuchtungs- und das Abbildungsobjektiv und einer zweiseitig zentralperspektivischen Abbildung dargestellt. Jedoch läßt sich abgeschätzen, daß sich hierbei aufgrund des angegebenen Apparates und des mathematischen Modells die Umsetzung der Auswerte-Algorithmen in straight forward-Algorithmen sehr schwierig gestaltet, so daß eine Echtzeit-Auswertung mittels spezieller Hochgeschwindigkeits-Prozessoren auf diesem Weg kaum möglich ist.Da die Kamera und der Projektor räumlich getrennt sind, ist die Realisierung eines kompaktes 3D-Meßmoduls nicht möglich.Die Daimler-Benz Aerospace stellte 1997 die 2. Generation einer Laserkamera auf der Basis der Laufzeitmessung des Lichtes dar. Die Meßgenauigkeit liegt nur bei etwa 2% des Meßbereiches und wird damit für meßtechnische Applikationen im Nahbereich als ungeeignet angesehen. Die Gewinnung der Farbinformation von der Szene gilt hierbei als praktisch ausgeschlossen.In der Arbeit "General approach for the description of optical 3D-measuring system" der Autoren P. Andrä, W. Jüptner, W. Kebbel und W. Osten in SPIE Vol. 3174, S. 207-215 wird eine allgemeine Beschreibung optischer Methoden für die 3D-Koordinatenmessung gegeben. Die Ableitung von geeigneten Algorithmen für die Hochgeschwindigkeitsauswertung von Bildserien für die 3D-Messung ist hierbei nicht gegeben, stellte aber auch nicht das Ziel dieser Arbeit dar.Eine 3D-Echtzeitkamera wurde im Poster P28 der 99. Tagung der Deutschen Gesellschaft für angewandte Optik vom 2.6. bis 6.6.1998 in Bad Nenndorf von G. Bohn, L. Cloutot, G. Häusler, M. Hernandez, C. Horneber, R. Lampalzer, S. Seeger unter Einsatz eines ferroelektrischen Displays vorgestellt. Dieses ferroelektrische Display ist in 0,1 ms umschaltbar und wird in Verbindung mit einer astigmatischen Abbildung zur Generierung von sinusförmigen Streifen fester Ortsfrequenz verwendet. Die Meßzeit des Prototypen beträgt zur Zeit 320 ms. Eine absolute Kodierung des Raumes mittels strukturiertem Licht ist damit bisher jedoch nicht möglich. Die erreichbare Genauigkeit ist gegenwärtig auf etwa 1/2000 des Meßbereiches begrenzt.In der Patentschrift WO9214118 wird eine 3D-Meßanordnung beschrieben, die als "konfokal" bezeichnet wird, die den Kontrast eines auf die Objektoberfläche projizierten Streifenmusters auswertet. Dabei werden sowohl das Beleuchtungs- als auch das Abbildungsobjektiv oder ein gemeinsames Objektiv jeweils auf die gleiche Ebene im Raum des Objektes fokussiert. Es ist jedoch keine Möglichkeit angegeben, für Objektabstände im Dezimeter- und im Meterbereich eine hohe Genauigkeit zu erzielen. Mit der Auswertung des Kontrastes des projizierten Streifenmusters läßt sich bei mittleren und großen Objektabständen mit handelsüblichen Projektionsobjektiven mit einem Öffnungsblendendurchmesser von bis zu 30 mmbekannterweise keine hohe Genauigkeit in der Tiefe erreichen. Dabei wird ein beleuchtetes Transmissionsgitters auf einer Verschiebungsstrecke, beispielsweise von der Länge von einigen Millimetern verschoben. Dies erfolgt in Richtung parallel zur optischen Achse des Beleuchtungsobjektivs, um die Lage der Schärfefläche im Raum des Objektes zu verändern, im Sinne eines Scannens. Dadurch ändert sich auch die Streifenbreite im abgebildeten Streifenfeld. Zusätzlich wird durch einen Piezo-Aktuator, der mit dem beleuchteten Gitter verbunden ist, das beleuchtete Gitter in Schritten der halben Gitterkonstante gestellt. So detektieren die Elemente eines Bildempfängers, die zu diesen Gitterelementen optische konjugiert liegen, eine Hell-Dunkel-Verteilung. Die Größe der Amplitude des entstehenden Signals wird zur Bestimmung der Kontrastfunktion benutzt. Das Bestimmung des Ortes des Maximums der Kontrastfunktion über der z-Position des beleuchteten Gitters dient der Bestimmung der z-Position eines jeden Objektpunktes. Diese Methode der Bestimmung der z-Position von Objektpunkten für die Gewinnung der Punktwolke ermöglicht jedoch keine sehr hohe Tiefenauflösung.Zur Verbesserung der lateralen Auflösung bei der Abbildung der Objektoberfläche kann gemäß der Patentschrift WO 92 14 118 der Empfänger als Zeilen- oder Matrix-Empfänger auch in Schritten unterhalb des mittleren Bildelementabstandes, also des Pixel Pitch', lateral bewegt werden. Dies ist keine mit der Verschiebung des Bildempfängers in z-Richtung, also in achsparalleler Richtung, gekoppelte Bewegung. Die laterale Bewegung wird allein mit dem Ziel durchgeführt, die laterale Auflösung bei der Aufnahme der Objektoberflächen zu erhöhen.Allgemein läßt sich feststellen, daß in der phasenauswertenden Streifenprojektionsmeßtechnik auf der Grundlage der Triangulation stets die Öffnungsblende oder die Pupille des Beleuchtunggsobjektivs von der Öffnungsblende oder Pupille des Abbildungsobjektivs räumlich getrennt ist. Die Öffnungsblende mit einem Zentrum kann im Objektraum des körperlich vorhanden sein oder als Bild der Öffnungsblende. Das Bild der Öffnungsblende wird als Pupille bezeichnet. Der Abstand d der Blenden- oder Pupillenzentren im Raum des Objektes kann 5 mm, aber auch durchaus auch einen Meter betragen.Es sind Arrays mit vertikal abstrahlenden Laserdioden bekannt geworden, die als ein adressierbares, strukturiert leuchtendes Array anzusehen sind. Die Elemente, hier die vertikal abstrahlenden Laserdioden, sind einzeln elektronisch in ihrer Leuchtdichte, bzw. Helligkeit steuerbar. 3. Mit der Erfindung gelöste AufgabeDie Erfindung löst die Aufgabe der flächenhaften Prüfung der 3D-Gestalt technischer und natürlicher Oberflächen von Objekten im Raum und Szenen mit einem absoluten Bezug zur 3D-Aufnahme-Anordnung. Die Gestalt von Objektoberflächen in einer Szene kann mit hoher Meßgenauigkeit in der Tiefe und mit hoher Geschwindigkeit gemessen werden.Weiterhin wird die benötigte Lichtleistung für die Ausleuchtung von Objektoberflächen in einer Szene zum Teil stark reduziert, bzw. es kann die Bildaufnahmefrequenz bei hoher Lichtleistung erhöht werden. Durch das Auswerteverfahren wird eine hohe Auflösung der effektiven Wellenlänge in der Tiefe erreichbar.Technisch wird die Prüfung der Oberflächengestalt von Werkstücken des Maschinenbaus, des Fahrzeugbaus und auch der Luft- und Raumfahrt weiter verbessert. Damit ist die Applikation in der automatisierten Produktion, in der Robotik, im Bauwesen, in der Medizin, beispielsweise bei der geometrischen Vermessung von Menschen, biologischen Objekten und auch im künstlerischen Bereich bei Plastiken oder Stuckwerken gegeben.Weiterhin wird die Aufgabe der Hohlraum- und der Innenraum-Inspektion gelöst. Labyrinthe in unterschiedlicher Größe und auch verstrahlte oder kontaminierte Innenräume, die dem Menschen aufgrund von ernsthaften gesundheitlichen Gefahren oder aufgrund der geringen Abmessungen nicht zugänglich sind, können durch Roboter begangen werden, die mit einer oder mehreren 3D-Aufnahme-Anordnungen ausgerüstet sind. Dabei kann es sich um rollende, schreitende, saugende, schwimmende, fliegende, kriechende und krabbelnde Roboter handeln. Auch ist der Unterwassereinsatz für die Schiffswrack-Inspektion mit der 3D-Aufnahme-Anordnung grundsätzlich möglich.Auch die elektronische Unterstützung von sehbehinderten Menschen zur Orientierung im Raum ist mit einer miniaturisierten 3D-Aufnahme-Anordnung möglich.Bei Recyclingprozessen ist eine Möglichkeit der automatisierten Demontage von Altgeräten, alten Karosserien sowie die Trennung von Abfallprodukten auch in einer für den Menschen gefährlichen Umgebung gegeben.Das unterschiedliche Reflexionsvermögen von technischen Oberflächen, welches beispielsweise durch eine ausgeprägte Textur verursacht wird, kann kompensiert werden.Die Erfindung ermöglicht das schnelle und kontinuierliche Erfassen der Punktwolke von Objekten und Szenen durch aktive Beleuchtung mittels strukturiertem Licht und die schnelle, praktisch gleichzeitige Erfassung von selbstleuchtenden oder künstlich oder natürlich beleuchteten Objekten und Szenen mittels einer einzigen 3D-Aufnahme-Anordnung. Die schnelle und kontinuierliche Erfassen der Punktwolke von Objekten und Szenen kann bei Verwendung geeigneter Hardware und Software im Videotakt erfolgen. 4. Erreichte Verbesserungen und Vorteile gegenüber dem Stand der TechnikDie Erfindung ermöglicht die schnelle Erfassung und Prüfung der 3D-Gestalt von Körpern in Szenen mit großer Tiefenausdehnung in Bezug zu deren Ausdehnung, vorzugsweise mit Abmessungen im Bereich oberhalb eines Millimeters.Die Beleuchtung des Objektes erfolgt unter einem vergleichsweise geringen Triangulationswinkel, beispielsweise um 10° oder kleiner. Die bei der Erfassung räumlicher Strukturen störenden Lichtschatten aufgrund eines relativ großen Triangulationswinkels von 30° bis beispielsweise 60° werden so weitgehend vermieden. Der in seiner 3D-Form zu erfassende Körper oder die gesamte Szene stehen vorzugsweise senkrecht zur optischen Achse des Aufnahmeobjektivs. Das ermöglicht, aufgrund der optimalen Abbildungsbedingungen eine hohe laterale Auflösung und den Einsatz tomographischer oder tiefenscannender Verfahren. Die 3D-Punktwolke besitzt einen absoluten geometrischen Bezug zu einem Nullpunkt der 3D-Aufnahme-Anordnung.Außerdem können nichttechnische Objekte in ihrer räumlichen Struktur erfaßt werden, wobei der Raum, in welchem sich die Objekte befinden, in unterschiedlichen Tiefen zeitlich nacheinander strukturiert beleuchtet wird. Bei entsprechend hoher Dynamik der für die 3D-Aufnahme eingesetzten Komponenten können auch sich bewegende Objekte und Szenen, einschließlich Personen und Tiere, aufgenommen werden. Dabei sind grundsätzlich mehrere 3D-Aufnahme-Anordnungen gleichzeitig einsetzbar, und es kann die Farbe der Objektpunkte bei Verwendung von farbtüchtigen Bildaufnehmern verarbeitet werden. Eine weitere Verbesserung stellt die deutliche Erhöhung der Auswertegeschwindigkeit bei der 3D-Erfassung dar. Es besteht die technische Möglichkeit, die 3D-Punktwolke des Objektes oder der Szene im Video-Takt zur Verfügung zu stellen.Die Anwendung der Erfindung ermöglicht die nahezu vollständige Ausnutzung der hohen Leistungsfähigkeit optischer Abbildungsysteme für die Prüfung der 3D-Oberflächengestalt. Die Realisierung einer hohen Beleuchtungsapertur sichert ein geringes Speckle-Rauschen in den Pixeln der Kamera.Andererseits können komplette Szenen mit bewegten Objekten echtzeitnah als 3D-Szenen aufgenommen werden. Die Grenze für das erfaßbare Volumen stellt die verfügbare Lichtenergie, die Lichtstärke der verwendeten Objektive sowie die photometrische Empfindlichkeit der verwendeten Bildempfänger dar. Der in der Tiefe erfaßbare Raum kann bei geeigneter Beleuchtung durchaus bis zu 20 m betragen. Die Begrenzung erfolgt letztlich durch das Signal-Rausch-Verhältnis im Lichtempfänger bzw. im Bildempfänger.Durch die zusätzliche Erfassung von selbstleuchtenden Objekten und Szenen, beispielsweise im Hintergrund eines künstlich beleuchteten Objektes, können Objektoberflächen in einer Szene von einem Nahpunkt bis zur Unendlich-Position in einem Aufnahmevorgang in Echtzeit und in Farbe aufgenommen werden, wobei die 3D-Daten als Punktwolke berechnet werden können, so daß ein 3D-Datensatz zur Verfügung steht. 5. Grundzüge des LösungswegesEs werden die Grundzüge des Verfahrens und der Anordnung beschrieben. Mittels einer transmissiven oder reflektierenden, gerasterten Struktur mit mehreren Maxima und Minima der Transmission oder Reflexion und einer Strahlungsquelle wird ein strukturiert leuchtendes Array mit lokalen Extrema der Leuchtdichte erzeugt. Diese gerasterte Struktur wird im weiteren als strukturiert leuchtendes Array bezeichnet. Dem strukturiert leuchtenden Array ist mindestens ein möglichst hochgeöffnetes Beleuchtungsobjektiv mit einer positiven Brennweite zu dessen Abbildung nachgeordnet. So entsteht durch die Abbildung des strukturiert leuchtenden Arrays im Objektraum auf dessen Oberfläche eine strukturierte Beleuchtung.Grundsätzlich kann das strukturiert leuchtende Array auch selbstleuchtend sein und lokale Extrema der Leuchtdichte aufweisen.Zu dem erfinderischem Zweck ist bei der Abbildung des strukturiert leuchtenden Arrays in die Tiefe des Objektraumes eine möglichst geringe Ausdehnung des Schärfebereiches realisiert, so daß die räumlich strukturierte Beleuchtung sich mehr in einem scheibenförmigen Volumen befindet. Zum Beleuchtungsobjektiv ist mindestens ein Objektiv zur Abbildung des Objektes oder der Szenen, das Abbildungsobjektiv angeordnet. Beleuchtungs- und Abbildungsobjektiv sind vorzugsweise von gleicher Bauart und weisen somit auch die gleiche Brennweite auf. Auch fallen die Brennebenen der beiden Objektive im Objektraum vorzugsweise zusammen und die beiden Objektive sind vorzugsweise in geringem Abstand voneinander angeordnet mit vorzugsweise parallelen Achsen. Gegebenfalls können die Linsen sogar in einem gemeinsamen Gehäuse untergebracht sein.Die Objektive weisen vorteilhafterweise ein großes Bildfeld auf. Das Objektiv sollte jeweils in einem großen Tiefenbereich gut korrigiert sein. Durch die Koinzidenz der Brennebenen im Objektraum können die Objektive stets auf die gleiche Objekt- und Bildebene eingestellt werden und bilden dann durch den geringen Abstand der Objektivachsen in einem Bereich, vorzugsweise mit einem Abstand deutlich unterhalb des einhundertfachen Pupillendurchmessers des Beleuchtungsobjektivs - typisch ist der dreifache bis zehnfache Pupillendurchmesser - zumindest einen identischen Teil des Objektfeldes im Objektraum, in der Regel verkleinernd, in den Array-Raum ab. In diesem Raum bestehen getrennte Bildfelder, jedoch in einer vorzugsweise gemeinsamen Ebene, die vorzugsweise senkrecht auf der optischen Achse steht. Die Schärfeflächen der beiden Objektive im Objektraum fallen vorzugsweise in einem möglichst großen Bereich zusammen.Das Abbildungsobjektiv weist im Array-Raum einen vorzugsweise telezentrischen Strahlengang im strengen Sinne auf, d. h. die Austrittspupille liegt sehr weit vom Objektiv entfernt, beispielsweise um 100 m. Dagegen fallen objektseitig der Brennpunkt und das Zentrum der Eintrittspupille zusammen. Das Beleuchtungsobjektiv weist im Array-Raum vorzugsweise einen ebenfalls gut korrigierten telezentrischen Strahlengang auf. Es ist jedoch auch grundsätzlich möglich, daß dieses Beleuchtungsobjektiv im Array-Raum einen parallelen Strahlengang mit einer dezentrierten Eintrittspupille aufweist.In der Bildebene des Abbildungsobjektivs ist ein weiteres Array, das Empfänger-Array angeordnet. Auch dieses Array befindet sich vorzugsweise in einem telezentrischen Strahlengang. Dieses Empfänger-Array kann ein gerasterter Bildempfänger, beispielsweise eine Empfänger-Matrix oder aber auch ein mikrooptisches Array sein. Das mikrooptische Array in der Bildebene des Beleuchtungsobjektivs ist vorzugsweise ein Mikrolinsen-Array aus diffraktiven oder refraktiven Elementen.Die Telezentrie des Abbildungsobjektiv im Array-Raum sichert, daß beim Bewegen des Empfänger-Arrays parallel zur Achse des Abbildungsobjektivs, also in der üblichen Notation in z-Richtung - hier die zA-Richtung, die Abbildungsstrahlen eine feste Position zu den Elementen des Empfänger-Arrays beibehalten, also die Abbildungsstrahlen nicht lateral auswandern. Im Objektraum weisen das Beleuchtungs- und das Abbildungsobjektiv dagegen einen vorzugsweise zentralperspektivischen Strahlengang auf, um einen großen Raumbereich erfassen zu können.Im Fall der Verwendung eines Mikrolinsen-Arrays im Abbildungsstrahlengang als Empfänger-Array sind dem Mikrolinsen-Array weitere Komponenten, beispielsweise ein Bildempfänger, nachgeordnet.Durch das gemeinsame Bewegen des strukturiert leuchtenden Arrays und des Empfänger-Arrays mittels eines Bewegungs-Systems, parallel zur optischen Achsen des Beleuchtungsobjektivs, also in der zA-Richtung, werden nach und nach alle Bereiche des Objektes oder der Szene in der Tiefe in der jeweiligen Schärfefläche beleuchtet und abgebildet. Dabei ist das Bewegungssystem vorzugsweise als translatorisch arbeitendes Bewegungssystem ausgeführt. Es entsteht eine strukturierte Beleuchtung in jeweils genau der Ebene des Objektes oder der Szene durch die Abbildung des strukturiert leuchtenden Arrays, welche durch das Abbildungsobjektiv scharf auf das Empfänger-Array abgebildet wird. Durch die Anpassung der Leuchtdichte der Strahlungsquelle an die jeweilige Entfernung der Schärfefläche von der 3D-Aufnahme-Anordnung wird die bekannte Abnahme der Beleuchtungsstärke auf der Objektoberfläche in Abhängigkeit von deren Entfernung ausgeglichen.Dabei wird das folgende Bewegungsregime für das strukturiert leuchtende Array und das Empfänger-Array realisiert: Die Beträge der Bewegung der beiden Arrays parallel zur optischen Achse des Beleuchtungs- und des Abbildungsobjektivs, die zA-Richtung, sind bei einem Beleuchtungs- und Abbildungsobjektiv mit gleicher Brennweite gleich.Das strukturiert leuchtende Array führt mittels einer Linearführung zusätzlich und vorzugsweise zeitgleich zur Bewegung parallel zur optischen Achse des Beleuchtungsobjektivs eine laterale Bewegung aus, also senkrecht zur optischen Achse des Beleuchtungsobjektivs.Bei einem elektronisch steuerbaren strukturiert leuchtenden Array erfolgt die laterale Verschiebung der Elemente gleicher Leuchtdichte, bzw. die Verschiebung der Orte der lokalen Extrema der Leuchtdichte vorzugsweise zeitgleich zu der Bewegung parallel zur optischen Achse des Beleuchtungsobjektivs durch eine elektronische Steuerung der Transmission, der Reflexion - oder der Leuchtdichte bei einem selbstleuchtenden Array - jeweils in den Elementen des Arrays. Auf dem elektronisch steuerbaren Array, welches ein elektronisch steuerbares Liniengitter darstellen kann, werden die lokalen Extrema der Leuchtdichte durch lokale Extrema der Transmission, der Reflexion - oder durch eine direkte Steuerung der Leuchtdichteverteilung bei einem selbstleuchtenden Array - erzeugt.Für die Gitterelemente oder die Elemente gleicher Leuchtdichte, bzw. die Orte der lokalen Extrema der Leuchtdichte des strukturiert leuchtenden Arrays, bzw. auch der Orte gleicher Phase der Leuchtdichtverteilung wird so eine lineare Bewegung erzeugt, die parallel zu einer Geraden gA ausgerichtet ist. Diese Gerade gA ist so definiert, daß diese stets den Brennpunkt des Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg, definiert als Quotient aus Brennweite des Beleuchtungsobjektivs im Array-Raum und Abstand des Brennpunktes des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs, aufweist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist, die beispielsweise in dessen Brennebene im Array-Raum liegt.Im Fall der parallelen Lage der beiden Achsen von Beleuchtungs- und Abbildungsobjektiv entspricht der Abstand der beiden Achsen von Beleuchtungs- und Abbildungsobjektiv dem Abstand des Brennpunktes des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs.Die Gerade gA schneidet - bei einer gegebenen Anordnung mit zwei parallelen Achsen von Beleuchtungs- und Abbildungsobjektiv und zusammenfallenden Brenn- und Hauptebenen der beiden Objektive - stets sowohl den Brennpunkt des Beleuchtungsobjektivs auf der Seite des strukturiert leuchtenden Arrays als auch auf der gleichen Seite des Arrays den Hauptpunkt des Abbildungsobjektivs. Punkte entlang dieser Geraden werden in diesem Fall auf eine zur Objektivachse des Beleuchtungsobjektivs parallele Gerade gO abgebildet.Die Bilder der zur Geraden gA parallelen Geraden, welche die Orte der Elemente des strukturiert leuchtenden Arrays enthalten, bilden im Objektraum mit der Geraden gO ein Geradenbündel, wobei der Schnittpunkt aller Geraden dieses Bündels bei der beschriebenen Anordnung stets im Brennpunkt des Abbildungsobjektivs im Objektraum liegen soll. Gleichzeitig schneiden alle Abbildungsstrahlen des Abbildungsobjektivs bei Telezentrie im Array-Raum ebenfalls den Brennpunkt des Abbildungsobjektiv im Objektraum und bilden so ein Strahlenbündel. Die Geraden des Geradenbündels und die Strahlen des Strahlenbündels koinzidieren. So detektieren, bei einer achssenkrechten Objektoberfläche im Array-Raum und einer Bewegung des strukturiert leuchtenden Arrays in Richtung der Geraden gA die zu den jeweiligen Abbildungsstrahlen gehörenden Bildpunkte auf dem Empfänger-Array jeweils den gleichen Betrag der Phasenverschiebung. Diese Phasenverschiebung entspricht der Verschiebung von leuchtenden Flächenelementen des strukturiert leuchtenden Arrays oder der Verschiebung der Leuchtdichteverteilung auf dem strukturiert leuchtenden Array. Ein paralleles Verschieben dieser Objektoberfläche führt zum gleichen Betrag der Phasenverschiebung in den Signalen, die in allen Bildpunkten detektiert werden können. Dies bedeutet, daß die Tiefenempfindlichkeit der beschriebenen 3D-Aufnahme-Anordnung in einer achssenkrechten Ebene im Objektraum eine Konstante ist, also keine laterale Abhängigkeit aufweist. Die Tiefenempfindlichkeit kann durch die effektive Wellenlänge der 3D-Aufnahme-Anordnung beschrieben werden. Die effektive Wellenlänge wird hier als der Betrag der Verschiebung Δz2 π eines Objektpunktes auf einem Abbildungsstrahl definiert, bei dem sich die Phase genau um 2π im selben Abbildungsstrahl verändert hat, mit zOB als der zur Achse des Beleuchtungsobjektivs parallelen Koordinate im Objektraum.Auf der Grundlage der in einer achssenkrechten Ebene konstanten Tiefenempfindlichkeit wird die Weiterverarbeitung von errechneten Phasenwerten zur 3D-Punktwolke stark vereinfacht. In diesem Fall können die Berechnungen besonders schnell erfolgen. Es können straight forward-Algorithmen zur Anwendung kommen. Eine Anordnung mit zwei starr angeordneten Objektiven ist technisch mit großer Genauigkeit bezüglich der Parallelität der Achsen und der Lage der Brennebenen realisierbar und auch vergleichsweise wirtschaftlich herstellbar und wird deshalb zunächst vorzugsweise dargestellt.Die 3D-Aufnahme-Anordnung kann jedoch auch wie folgt aufgebaut sein: Dem strukturiert leuchtenden Array ist ein Beleuchtungsobjektiv zum Zweck der Abbildung zugeordnet, wobei das strukturiert leuchtende Array schiefwinklig zur Achse des Beleuchtungsobjektivs bewegbar ist. Die geradlinige Bewegungsrichtung des strukturiert leuchtenden Arrays definiert die Lage einer Geraden gA und ist zur Lage der Achse des Beleuchtungsobjektivs konstruktiv unveränderlich gemacht. Die Anordnung ist so aufgebaut, daß die Gerade gA möglichst genau den Brennpunkt im Raum des Arrays sowie die Hauptebene des Beleuchtungsobjektivs in einer endlichen Entfernung von dessen optischer Achse schneidet, nämlich dort, wo die Achse des Abbildungsobjektivs liegen soll. Die reale oder gedankliche Abbildung der Geraden gA durch das Beleuchtungsobjektiv in den Objektraum erzeugt die zur Achse des Beleuchtungsobjektivs parallele Gerade gO. Diese Geraden gO durchstößt die Brennebene des Beleuchtungsobjektivs im Objektraum. Der objektseitige Brennpunkt des Abbildungsobjektivs ist in den Durchstoßpunkt der Geraden gO durch die Brennebene des Beleuchtungsobjektivs möglichst genau einjustiert, wobei die Achse des Abbildungsobjektivs vorzugsweise parallel zur Achse des Beleuchtungsobjektivs ausgerichtet ist, so daß die Achse des Abbildungsobjektivs mit der Lage der Geraden gO zusammenfällt. Die Gerade gA weist so, mehr oder weniger gut angenähert, den Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand des Brennpunktes des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs auf, wobei dieser Anstieg auf eine senkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist.Das Bewegungsregime für die 3D-Aufnahme-Anordnung ist zum einen durch ein System mit zwei Linearführungen realisierbar, deren Achsen vorzugsweise senkrecht zueinander ausgerichtet sind. Die bewegten Komponenten dieser Linearführungen, auch als Schlitten bezeichnet, sind unabhängig voneinander in den Linearbewegungen steuerbar. Eine Miniaturisierung dieser Komponenten ist möglich. Es können lineare Direktantriebe verwendet werden, beispielsweise elektrodynamische Tauchspulsysteme oder Linearmotore. Die Bewegungsrichtung der bewegten Komponente der ersten Linearführung ist parallel zur Richtung der optischen Achse, der zA-Koordinate, die der Bewegungskomponente der zweiten Linearführung in einer dazu achssenkrechten Richtung, der xA -Richtung. Diese beiden Linearführungen erzeugen so die Bewegung der Elemente des strukturiert leuchtenden Arrays parallel zur Geraden gA. Dabei ist das Empfänger-Array der ersten Linearführung zugeordnet, die in Richtung der optischen Achse arbeitet. Der Schlitten der ersten Linearführung trägt also das Empfänger-Array und vorzugsweise die zweite Linearführung und der Schlitten dieser zweiten Linearführung das strukturiert leuchtende Array.Andererseits kann auch eine einzige Linearführung mit einem Schlitten, der gleichzeitig auf diesem Schlitten das strukturiert leuchtende Array und das Empfänger-Array trägt, eingesetzt werden. Die Bewegungsrichtung dieses Schlittens ist parallel zur Geraden gA - also nicht achssenkrecht, sondern schiefwinklig zu den Objektivachsen. Im letztgenannten Fall gibt es jedoch, entsprechend der Schlittenbewegung, auf dem Empfänger-Array eine Verschiebung des Bildes zu den Pixeln des Empfänger-Arrays. Diese Verschiebung kann im Bildauswerte-Algorithmus pixelweise zurückgerechnet werden. Eine hohe Rechengeschwindigkeit ist dann erreichbar, wenn die Schlittenbewegung und die Aufnahme von Bildern synchronisiert sind und Bilder in Abhängigkeit von der Schlittenposition nur dann aufgenommen werden, wenn die aufgetretene Verschiebung des Bildes auf dem Empfänger-Arrays jeweils mindestens ein ganzes Pixel oder ein davon ganzzahliges Vielfaches beträgt. Die Ablage der Bilddaten im Datensatz erfolgt stets unter Berücksichtigung der aufgetretenen Bildverschiebung, so daß im Ergebnis eine Kompensation der Verschiebung des Bildes mit Hilfe numerischer Methoden erfolgt ist. So wird beispielsweise ein bestimmter realer Abbildungsstrahl im Objektraum durch die Zuordnung der abgelegten Daten im Bilddaten-Satz verfolgt, der aus mehreren Schichten, beziehungsweise Datenfeldern besteht. Jede Schicht entspricht dabei einem aufgenommenen Bild. So bleibt ein realer Abbildungsstrahl, der von einem bestimmten Element des strukturiert leuchtenden Arrays ausgeht, im gesamten Bewegungsvorgang der beiden Arrays stets einem Element mit gleichen Indizes, also gleicher Position, in jeder Schicht oder jedem Datenfeld des gesamten Bilddatensatzes zugeordnet.Damit sich bei dem Verfahren mit nur einer Linearführung die effektiv erfaßte Objektbreite durch die laterale Verschiebung des Empfänger-Arrays nicht verringert, wird in Abhängigkeit von der Verschiebungslänge ein längeres Empfänger-Array eingesetzt. Die zusätzlich benötigte Länge des Empfänger-Arrays ist allein von der Anzahl der aufgenommenen Bilder pro Bewegungsvorgang des Schlittens, auch als Scan bezeichnet, abhängig.Bei einem Bewegungs-System mit zwei Linearführungen wird wie folgt vorgegangen: Die laterale und lineare Bewegung des strukturiert leuchtenden Arrays erfolgt mittels des Schlittens der zweiten Linearführung und beginnt vorzugsweise an einem hochstabilen Nullpunkt. Das strukturiert leuchtende Array kann ein beleuchtetes Liniengitter darstellen, dessen Translation durch ein hochgenaues Längenmeßsystem erfaßt werden kann. Vorzugsweise wird die Gitterbewegung jedoch hochgenau mittels eines zweiten Liniengitters phasenmäßig erfaßt, so daß die auf den Nullpunkt bezogene absolute Gitterphase auch in Bruchteilen von 2π bekannt ist. Hochauflösende Interpolationstechniken sind aus der inkrementalen Längenmeßtechnik bekannt. Damit kann die Gitterphase selbst die Referenz für das Abtasten der von der Objektoberfläche aus dem Objektraum aufgenommenen optischen Signale darstellen. So kann die Phase dieser Signale hochgenau bestimmt werden. Das ist sehr wesentlich, da in der Phase der optischen Signale in Verbindung mit den Geometrie-Parametern der Anordnung die Information über die jeweilige Objektposition enthalten ist.Die Fläche des Empfänger-Arrays befindet sich bei Objektiven gleicher Bauart vorzugsweise in der gleichen Ebene wie die Fläche des strukturiert leuchtenden Arrays. Außerdem führt das strukturiert leuchtende Array, hier das beleuchtete Liniengitter, durch das Bewegungssystem oder bei einem elektronisch steuerbaren Array die lokalen Extrema der Leuchtdichte führen zusätzlich zur Bewegung in der Tiefe eine laterale Bewegung aus, so daß als resultierende Bewegung des Liniengitters oder der lokalen Extrema der Leuchtdichte eine lineare Bewegung parallel zu der bereits genannten Geraden gA erfolgt. Durch diese Bewegung ändert sich die Phase eines Signals, welches im Bildpunkt eines Objektpunktes beobachtet werden kann.Andererseits wird durch dieses Bewegungsregime, die Geometrie der Anordnung und die Telezentrie der Objektive im Array-Raum erreicht, daß ein Beleuchtungsstrahl eines leuchtenden Elementes einer bestimmten Phase und ein Abbildungsstrahl, die sich in einer beliebigen Schärfefläche schneiden, sich in allen Schärfeflächen schneiden. So ist auch gegeben, daß beim Bewegen der beiden Arrays die Bilder der leuchtenden Elemente gleicher Phase und die der empfangenden Elemente der beiden Arrays bei einer idealen Anordnung im gesamten Objektraum stets zusammenfallen. Dabei sind Objektive mit geringer Verzeichnung und sehr geringen Fehlern und eine möglichst geringe Brennweitendifferenz der beiden Objektive und eine möglichst präzise Justierung grundsätzlich von Vorteil und reduzieren den numerischen Korrekturaufwand erheblich. Die Abweichungen vom Idealzustand können innerhalb gewisser Grenzen toleriert werden.Durch die Bewegung des Liniengitters parallel zur Geraden gA und die "feste Kopplung der Schärfeflächen" der beiden Objektive im Objektraum zu einer gemeinsamen Schärfefläche erfolgt das "Mitführen der Phase im Abbildungsstrahl". Dies bedeutet, die Phase bleibt in jedem Abbildungsstrahl konstant, der von einem in der gemeinsamen Schärfefläche mitbewegten Punkt der Objektoberfläche in das Abbildungsobjektiv gelangt, auch wenn sich die Lage dieser Schärfefläche in der Tiefe des Array-Raums ändert. Ein gedachter, im Abbildungsstrahl in der Schärfefläche stetig mitlaufender Objektpunkt würde demzufolge beim Bewegen des Liniengitters keine Phasenänderung im detektierbaren Signal erfahren, da beispielsweise immer der gleiche Ausschnitt des Streifens im zum Abbildungsstrahl zugehörigen Bildpunkt detektiert wird.Dagegen ist im Bildpunkt eines feststehenden Objektpunktes beim Bewegen des beleuchteten Liniengitters stets ein periodisches Signal zu beobachten. In diesem periodischen Signal selbst und durch seine Lage in Bezug auf die Phase des beleuchteten Liniengitters ist die Information über die aktuelle zOB-Position dieses Objektpunktes im Objektraum eindeutig enthalten.Das Ziel besteht darin, durch das Variieren der Lage der Schärfeflächen in der Tiefe bis zu jedem Objektpunkt und einen kleinen Betrag darüber hinaus, um das Signal auch im Umfeld des Objektpunktes erfassen zu können, die Objektphase jeder zu einem Objektpunkt zugehörigen achssenkrechten Ebene zu bestimmen. Dies wird durch die Detektion eines modulierten periodischen Signals mit einem Modulationsmaximum in jedem abgebildeten Objektpunkt, also im zugehörigen Bildpunkt, erreicht. Das periodische Signal entsteht beim Durchgang der beiden koinzidierenden Schärfeflächen durch die Ebene des jeweiligen Objektpunktes und das Modulationsmaximum entspricht der Lage der koinzidierenden Schärfeflächen. Eine gewisse Abweichung von der Koinzidenz der Schärfeflächen führt zu einer effektiven Schärfefläche und ist innerhalb gewisser Grenzen tolerierbar. Es tritt eine Verringerung des Modulationsmaximums im detektierten Signal auf.Es ist möglich, die Kopplung der Schärfeflächen der beiden Objektive im Objektraum so auszuführen, daß sich ein bestimmter Phasenwert in Bezug auf das Modulationsmaximum im beobachteten Signal durch das laterale Feinjustieren des strukturiert leuchtenden Arrays, bzw. des beleuchteten Liniengitters, ergibt.Das periodische Signal wird in den Bildpunkten vorzugsweise in Schritten konstanter Phasenänderung abgetastet. Schritte konstanter Phasenänderung entstehen im Objektraum durch konstante Schritte eines bewegten Liniengitters, welches ein beleuchtetes Liniengitter mit konstanter Gitterperiode darstellt, im Array-Raum. Unter Array-Raum wird immer der Raum verstanden, wo sich das Empfänger-Array und das strukturiert leuchtende Array, hier das beleuchtete Liniengitter, befinden.Es wird davon ausgegangen, daß die zOB-Position als Abstand von der Brennebene des Beleuchtungsobjektivs im Raum des Objekts jeder achssenkrechten Ebene im Objektraum durch eine lateral invariante, absolute Objektphase ϕObj beschrieben werden kann, so daß es achssenkrechte Ebenen konstanter Phase im Objektraum gibt.Die lateral invariante, absolute Objektphase ϕObj in einem Punkt des Objektes ist nur von der Position ZObj desselben und der Geometrie der optischen Anordnung abhängig und besitzt deshalb bei idealen Abbildungsverhältnissen und Justierungen grundsätzlich keine laterale Abhängigkeit. Im weiteren wird in der Regel von der Objektphase ϕObj gesprochen. Die Geometrie der optischen Anordnung ist durch die Brennweite fB des Beleuchtungsobjektivs, den Abstand d der beiden zueinander parallelen Objektivachsen und die Gitterkonstante p des strukturiert leuchtenden Arrays, hier ein Liniengitter, beschrieben. Die Gerade gO, das Bild der Geraden gA, fällt mit der Achse des Abbildungsobjektivs zusammen, so daß die Größe d auch den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs beschreibt.Es wird von folgendem Geometrie-Modell ausgegangen: Die lateral invariante, absolute Objektphase ϕObj für eine achssenkrechte Ebene mit dem Abstand zOB entspricht immer der Anzahl der Streifenordnungen zuzüglich der beiden Streifenbruchteile, die auf der Strecke zwischen einem Punkt dieser Ebene auf der optischen Achse des Abbildungsobjektivs und einem Punkt dieser Ebene auf der Geraden gO liegen.Im Unendlichen ist deshalb die Objektphase wegen der unendlichen Streifenbreite null und in der Brennebene des Objektraumes nähert sich die Objektphase aufgrund des Streifenabstandes null dem Unendlichen an. Die Objektphase ϕObj weist bei der gewählten Notation in der Regel negative Werte auf. Für (-)zOB = fB wird die Objektphase ϕObj = ϕfB und es gilt
mit d als dem Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier auch dem Abstand der parallelen Achsen der beiden Objektive voneinander und mit p als der Gitterkonstanten des beleuchteten Liniengitters, welches als strukturiert leuchtendes Array verwendet wird.Mit einer ebenen und achssenkrechten Referenzplatte kann im Objektraum die Objektphase als die Anzahl der Streifenordnungen zwischen der Geraden gO und der Achse des Beleuchtungsobjektivs, beziehungsweise hier zwischen den beiden optischen Achsen, durch Auszählen von Streifen oder genauer mittels bekannter Phasenschiebetechnik ermittelt werden. Das Problem stellt hier zunächst die Kenntnis der genauen Lage der beiden optischen Achsen in der Anordnung dar. Die hochgenaue Bestimmung der Streifenanzahl zwischen den optischen Achsen kann beim parallelen Verschieben der Referenzplatte in mehreren Schritten - sowohl als Justierkriterium für die Kontrolle der Abweichung von der Parallelität der optischen Achsen der beiden Objektive als auch der achssenkrechten Lage der Referenzplatte - genutzt werden. Bei einer eingemessenen Anordnung mit bekannter Lage der optischen Achsen bzgl. des Sender- und Empfänger-Arrays kann die Referenzphase so auf experimentellem Weg bestimmt werden.Um entlang eines Abbildungsstrahls die zOB-Koordinate eines Objektpunktes zObj zu erhalten, ist in jedem Objektpunkt die lateral invariante, absolute Objektphase ϕObj zu bestimmen, die im weiteren als Objektphase bezeichnet wird. Ein Abbildungsstrahl soll hier im Modell jeweils genau auf ein Pixel der lateral feststehenden Empfängerfläche treffen.Die Objektphase ϕObj eines Objektpunktes wird in Bezug auf eine Referenzfläche bestimmt. Die absolute, lateral invariante Phase der Referenzfläche, die Referenzphase ϕR, wird aus einem als bekannt angenommenen, vorzeichenbehafteten Abstand zOB = ZOR der Referenzfläche mit
errechnet, wobei d den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier den Abstand der parallelen Achsen der beiden Objektive voneinander, fB die Brennweite des Beleuchtungsobjektivs und p die Gitterkonstante des strukturiert leuchtenden Arrays, beziehungsweise des beleuchteten Gitters, darstellen. Da zOR in die negative Achsrichtung gezählt wird, ergibt sich auch ein negativer Wert für die Referenzphase ϕR. Der Abstand zOR der Referenzfläche wird möglichst genau experimentell ermittelt. In der Regel treffen alle zur Erfassung der Objektoberflächen in der Szene genutzten Abbildungsstrahlen auch auf die Referenzplatte.Der Grundgedanke besteht darin, in jedem Abbildungsstrahl aus der Auswertung des im zugehörigen Bildpunkt eines Referenzpunktes der Referenzplatte über der Phase des Gitters ϕGitter zu beobachtenden modulierten, periodischen Signals und des in einem Bildpunkt eines Objektpunkt über der Phase des Gitters zu beobachtenden modulierten, periodischen Signals die absolute Phasendifferenz ΔϕGitter dieser beiden Signallagen aus der Phase des Gitters zu bestimmen. Dabei wird davon ausgegangen, daß die periodischen Signale eine Modulation mit einem Modulationsmaximum aufweisen. Die Breite dieser Modulationskurve über der Phase des Liniengitters ϕGitter oder dem zugeordneten Verschiebeweg des Liniengitters ist abhängig vom Achsabstand d der beiden Objektivachsen, den Brennweiten der beiden Objektive und der relativen Öffnung der beiden Objektive, beschrieben jeweils durch die Blendenzahl k der beiden Objektive, und den Eigenschaften der Oberfläche hinsichtlich der Lichtstreuung.Die Bestimmung der absoluten Phasendifferenz ΔϕGitter kann so erfolgen, daß der in einem Objektpunkt über der Phase des Gitters zu beobachtende Signalverlauf über der Phase, die aus dem Verschiebeweg des Gitters abgeleitet ist, um genau den Phasenbetrag soweit verschoben wird, daß sich dieser Signalverlauf mit dem im zugehörigen Referenzpunkt der Referenzplatte zu beobachtenden Signalverlauf möglichst genau deckt, d. h. die Korrelation dieser beiden Signalverläufe möglichst hoch ist. Dieser so ermittelte Phasenbetrag entspricht dann der absoluten Phasendifferenz ΔϕGitter als die Differenz der jeweils zu den beiden Signalverläufen zugehörigen absoluten Phase des Liniengitters ΔϕGitter.Dazu wird erstens aus einer Abtastung des Signals über der Phase im Bildpunkt eines Referenzpunktes der relative Referenzphasenwert ϕRR mod 2π bestimmt. Zweitens wird aus einer Abtastung des Signals über der Phase im Bildpunkt eines jeden Objektpunktes der relative Objektphasenwert ϕRObj mod 2π bestimmt. Der relative Referenzphasenwert ϕRR und der relative Objektphasenwert ϕRObj werden dabei jeweils der absoluten Phase des Liniengitters ϕGitter zugeordnet und unter Beachtung des jeweiligen Vorzeichens von dieser subtrahiert. So entstehen die absoluten Phasenwerte der Gitterphase ϕGitterR für einen Referenzpunkt und ϕGitterObj für einen Objektpunkt. Mit der Differenz
ΔϕGitter = ϕGitterObj - ϕGitterR (3)
wird die absolute Phasendifferenz ΔϕGitter bestimmt, die einen positiven Wert aufweist, wenn der erfaßte Objektpunkt weiter von der Brennebene als der zugehörige Referenzpunkt entfernt ist. Durch die vorzeichenbehaftete Addition der absoluten Phasendifferenz ΔϕGitter zur experimentell oder konstruktiv abgeleiteten Referenzphase ϕR wird die absolute Objektphase ϕObj dann mit
ΔϕObj = (-)ϕR + ΔϕGitter (4)
bestimmt. Da das Vorzeichen der Phase der Referenzfläche ϕR negativ ist und die Phasendifferenz ΔϕGitter im Betrag stets kleiner ist als Phase der Referenzfläche ϕR, ergibt sich für die absolute Objektphase ϕObj ein negativer Wert. Die Koordinate eines Objektpunktes zOB = zObj kann dann mit der Gleichung
bestimmt werden, die für eine negative absolute Objektphase ebenfalls einen negativen Wert liefert. Dabei stellen d den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier den Abstand der parallelen Achsen der beiden Objektive voneinander, fB die Brennweite des Beleuchtungsobjektivs, ϕObj die absolute, lateral invariante Objektphase und p die Gitterkonstante des beleuchteten Liniengitters dar.Als Nullebene der 3D-Aufnahme-Anordnung wird die achssenkrechte Ebene für zOB = 0, die Brennebene des Beleuchtungsobjektiv im Objektraum, gewählt. Demzufolge stellt der Brennpunkt FOB des Beleuchtungsobjektivs im Objektraum den Nullpunkt der 3D-Aufnahme-Anordnung dar.Der möglichst genauen Bestimmung der absoluten Phasendifferenz ΔϕGitter in der Phase des beleuchteten Liniengitters ΔϕGitter kommt für das Verfahren eine besonders große Bedeutung zu.Eine weitere Möglichkeit besteht darin, nicht die relativen Phasenwerte im Referenzpunkt-Signal und im Objektpunkt-Signal, sondern die Lage der Orte gleicher Phase im Referenzpunkt-Signal und im Objektpunkt-Signal in Bezug auf die Phase des Liniengitters ϕGitter zu bestimmen, beispielsweise anhand der Orte gleicher Phasenlagen.Grundsätzlich kann auch über ein Längenmeßsystem, welches die Bewegung oder Verschiebung des Liniengitters hochaufgelöst mißt, die Ortsdifferenz der Lagen des Referenzpunkt-Signals und des Objektpunkt-Signals bestimmt werden. Aus der bekannten Gitterkonstante p des Liniengitters kann aus der gemessenen Ortsdifferenz die zugehörige Phasendifferenz ΔϕGitter in bekannter Weise errechnet werden. Dies ist anzuwenden, wenn nur eine einzige Linearführung mit einem Nullpunktgeber verwendet wird, da die phasenmäßige Abtastung des Liniengitters aufgrund des Bewegens desselben mit einer dann auch auftretenden Bewegungskomponente in Richtung der optischen Achse mit einem Gegengitter technisch besonders schwierig ist.Mit der vorzugsweise hochebenen Referenzplatte muß die 3D-Aufnahme-Anordnung in mindestens einer achssenkrechten Positionen eingemessen werden. Aus dem experimentell bestimmten Wert zORexp für die Lage der Referenzplattewird der Wert der Referenzphase ϕR mittels der angegebenen Gleichung (2) errechnet. Die gemessene Verschiebung in zOB-Richtung wird mit dem der durch die 3D-Aufnahme-Anordnung ermittelten zOR-Wert verglichen. So kann die 3D-Aufnahme-Anordnung kontrolliert werden. Bei Abweichungen von der hochgenau gemessenen Verschiebung von der rechnerisch bestimmten liegt für eine in sich gut einjustierte 3D-Aufnahme-Anordnung ein falscher Wert für die Referenzphase ϕR vor. Numerisch wird die Referenzphase verändert bis sich eine möglichst gute Übereinstimmung mit den experimentell bestimmten Verschiebewerten ergibt.Zusammengefaßt gilt: Für die Bestimmung der Objektphase ϕObj im Objektraum wird vorteilhafterweise folgende Bedingung im Gesamt-Abbildungssystem realisiert, die sich aus der parallelen Bewegung des Liniengitters - oder ganz allgemein formuliert aus der parallelen Bewegung der Maxima und Minima der Leuchtdichte auf dem strukturiert leuchtenden Array - zur Geraden gA ergibt: Beim Durchlaufen der beiden koinzidierenden Schärfeflächen von Beleuchtungs- und Abbildungsobjektiv durch die Tiefe des Raumes des Objektes bleibt die beobachtete Phase im Schnittpunkt eines Strahls des Abbildungsobjektivs mit der gemeinsamen Schärfefläche durch die zusätzliche laterale Bewegung des Liniengitters stets konstant, so daß ein gedachter, in einem Strahl des Abbildungsobjektivs in der gemeinsamen Schärfefläche mitlaufender Objektpunkt in der gesamten Tiefe keine Phasenänderung erfährt. Dies wird als "Mitführung der Phase" bezeichnet. Dabei kann die zusätzliche laterale Bewegung des Liniengitters durch eine zweite Linearführung erfolgen oder sich aus der Schrägstellung einer gemeinsamen Linearführung für Sender- und Empfänger-Array ergeben. Andererseits kann diese Bedingung auch durch ein elektronisch gesteuertes Gitter, beispielsweise ein Liniengitter, realisiert werden, indem zusätzlich zum kontinuierlichen Bewegen des Liniengitters in zA-Richtung, die Phasenlage des Liniengitters ebenfalls kontinuierlich verändert wird, indem die Lage der Orte der lokalen Extrema der Leuchtdichte, auf dem elektronisch steuerbaren Liniengitter verändert wird.Dazu ist folgendes zu bemerken: Optisch konjugierte Punkte weisen im Array-raum und im Objektraum betragsmäßig die gleiche absolute Phase auf. Diese absolute Phase kann jeweils als laterale Koordinate verstanden werden. Die absolute Phase leitet sich aus der Beleuchtungssituation ab und kann im Array-raum aus der xAB-Position im Gitterelement GAB bestimmt werden, welches sich im Aufnahmeprozeß auf einer Geraden gA bewegt und bei dieser Bewegung genau den array-seitigen Brennpunkt FAB schneidet. Aus diesem Zusammenhang ergibt sich die absolute Phase im Array-Raum mit
mit xAB1 als der lateralen Koordinate des Durchstoßpunktes der Geraden gA durch das Gitterelement GAB und p als Gitterkonstante des Liniengitters. Im optisch konjugierten Punkt GOB ergibt sich die gleiche absolute Phase wie im Punkt GAB, jedoch mit umgekehrtem Vorzeichen.Weiterhin muß das Empfänger-Array kein Bildempfänger sein, sondern kann nach dem Stand der Technik als Mikrolinsen-Array ausgeführt sein, um eine hohe Tiefenauflösung auf der Basis einer hohen Streifendichte erreichen zu können. Das Mikrolinsen-Array befindet sich im Array-Raum in einer zum strukturiert leuchtenden Array optisch konjugierten Ebene. Wie bekannt, ist dem Mikrolinsen-Array ein weiteres Objektiv nachgeordnet. Dieses Objektivist auf der dem Mikrolinsen-Array zugeordneten Seite möglichst gut telezentrisch ausgeführt. Auf der zweiten Seite des Objektivsbefindet sich der Bildaufnehmer.Auch kann in der Ebene des Empfänger-Arrays ein elektronisch steuerbares, vorzugsweise transmissives Array angeordnet sein. Dabei wird wie folgt vorgegangen: Es erfolgt eine erste Gewinnung einer 3D-Punktwolke mit einer beispielsweise mittleren Transmission in den Array-Elementen. Anschließend wird die Aussteuerung in den Elementen des Bildempfänger kontrolliert und die Transmission elementeweise so eingestellt, daß sich eine geeignete Aussteuerung in den Bildelementen eines nachgeordneten Bildempfängers ergibt. Das elektronisch steuerbare, transmissive Array kann vorzugsweise dem Mikrolinsen-Array zugeordnet sein. Es ist aber auch möglich, daß es dem Bildaufnehmer zugeordnet ist. Auch kann es dem strukturiert leuchtenden Array zugeordnet sein. Letztlich muß die Zuordnung nur zu einer optisch konjugierten Ebene des Empfänger-Arrays erfolgen.Zur Bestimmung der Phasenlage der periodischen Signale in den Bildpunkten des Empfänger-Arrays kommen im einfachsten Fall die bekannten Phasenschiebe-Algorithmen mit 3 bis 5 Intensitätswerten zur Anwendung. Dabei wird die Intensität in den Bildpunkten des Empfänger-Arrays entsprechend der Phasenlage des strukturiert leuchtenden Arrays abgetastet. Möglich ist hier eine Abtastung in diskreten 90°-Phasenschritten. Mit den ausgelesenen Intensitätswerten kann beispielsweise auch die Modulation über der Phase in 90°-Schritten mit den bekannten Elementargleichungen bestimmt werden. Die Auswertung der Phasenlage kann in jeweils 180°-Schritten der Phase des strukturiert leuchtenden Arrays, hier des Liniengitters, erfolgen.Besser für die Genauigkeit der Phasenbestimmung und damit für die Tiefenmeßgenauigkeit sind jedoch Algorithmen, die über eine größere Anzahl von Intensitätswerten, beispielsweise 8, 16 oder 32, die Phase im Signal wie auch den Ort des Modulationsmaximums bestimmen. Das gesamte Know-how der Signalverarbeitung, wie es in der Elektrotechnik bereits bekannt ist, kann hier angewendet werden. Beispiele für die erfolgreiche Applikation derartiger Signalauswertungen sind aus der Weißlicht-Interferenzmikroskopie bekannt. Im allgemeinen werden diese Signalauswertungs-Methoden bei Kurzkohärenz-Methoden angewendet.Da die Gitterkonstante, des strukturiert leuchtenden Arrays vorzugsweise konstant ist, ist die Phasenänderungsgeschwindigkeit bei einer konstanten Bewegung des strukturiert leuchtenden Arrays, ebenfalls konstant. Dies ermöglicht auch das Anwenden der Sub-Nyquist-Abtastung, da hier aufgrund der Kenntnis der Signalfrequenz das bekannte Abtast-Theorem ohne Nachteile verletzt werden kann. Dies reduziert die Anzahl der aufzunehmenden Bilder ganz erheblich, so daß grundsätzlich eine hohe Geschwindigkeit der Bewegung des Liniengitters realisiert werden kann und so eine Hochgeschwindigkeits-Auswertung realisierbar wird. Digitale Filteroperationen sind in der bekannten Art mit den Phasen-Auswerte-Methoden zu kombinieren, bzw. bereits vor der Phasenauswertung durchzuführen. Dieser Sachverhalt wird hier nicht weiter vertieft, obwohl von der optimalen Gestaltung der Algorithmen die Leistungsfähigkeit des gesamten Auswerte-Verfahrens abhängt. Die Ausführung der Rechenoperationen kann dabei mittels spezieller Hochgeschwindigkeits-Prozessoren erfolgen.Es ist vorteilhaft, wenn das strukturiert leuchtende Array, hier das Liniengitter, zusätzlich eine Nullpunktmarke aufweist und die laterale Gitterbewegung mit einem Gegengitter phasenmäßig erfaßt wird. Durch das Positionieren der Referenzplatte im Objektraum in einer bekannten zOB-Position zOB = zOR wird die absolute Phase des Nullpunktes bestimmt. Auch werden die Referenz-Phasen mod 2π als relative Referenzphasen ϕRR durch die Auswertung des Signalverlaufs in den Abbildungsstrahlen im Bereich der scharfen Abbildung der Referenzplatte ermittelt und gespeichert. Bei einem unbekannten Objekt wird durch den Signalverlauf im Schärfebereich des Objektpunktes die zugehörige Phase des Liniengitters ϕGitter an der Stelle im Signalverlauf im Bereich des Maximums der Modulation ermittelt, die der zugehörigen Referenz-Anfangsphase im Bereich des Maximums der Modulation entspricht.Dann kann die Objektphase für jede Ebene in der Entfernung zOB mittels der Phase, die aus der Gitterverschiebung abgeleitet wird, bestimmt werden. Die hochstabile Nullpunktmarke kann als Startpunkt für die laterale Bewegung des Liniengitters dabei so einjustiert werden, daß der Start der Bildaufnahme kurz vor dem Erreichen der scharfen Abbildung der Referenzplatte durch die koordinierte Bewegung von Liniengitter und Bildempfänger beginnt. Auch nach dem Entfernen der Referenzplatte bleibt die Lage der Referenzplatte beim Einmessen jeweils als "die Referenzfläche des 3D-Aufnahmesystems" bis zum neuen Einmessen bestehen.In der vorangegangenen Darstellung wurde davon ausgegangen, daß das Beleuchtungsobjektiv und das Abbildungsobjektiv stets fest angeordnet sind und in sich starre Objektive darstellen, also keine eigene Fokussierung aufweisen, bzw. die gegebenenfalls vorhandene, objektiveigene Fokussierung nicht benutzt wird. Die Brennebenen der Objektive stehen demzufolge fest im Raum. Das Fokussieren im Sinne des Veränderns der Lage der Schärfeflächen im Objektraum erfolgte in der bisherigen Darstellung jeweils über das Bewegen des strukturiert leuchtenden Arrays und des Empfänger-Arrays in einer Komponente parallel zur optischen Achse der Objektive.Im Fall des Veränderns der Lage der Schärfeflächen im Objektraum über die Fokussierung des Objektivs, beispielsweise durch eine interne Fokussierung, wie es dem Stand bei modernen Fotoobjektiven entspricht, muß die Fokussierung elektronisch steuerbar sein, d. h. die Objektive müssen auch eine motorische Fokussierung gestatten. Auch beim Verschieben des gesamten Objektivs zum Zweck der Fokussierung muß eine motorische Verschiebung gewährleistet sein.Da moderne Objektive mit interner Fokussiermöglichkeit durch das Verschieben von massearmen, optischen Komponenten im allgemeinen eine recht schnelle Fokussierung ermöglichen, wird dieser Fall betrachtet.Grundsätzlich kommt es aber bei der erfindungsgemäßen 3D-Aufnahme-Anordnung und dem 3D-Aufnahme-Verfahren jedoch nur darauf an, eine definierte Relativbewegung zwischen den Brennebenen der Objektive und den jeweils zugehörigen Arrays oder den Orten der Extrema der Leuchtdichte auf diesen zu erreichen. Zum Erreichen der Relativbewegung können auch die Brennebenen im Raum bewegt werden, beispielsweise durch eine interne Fokussierung des Objektivs.Ziel ist letztlich die Detektierung eines modulierten cos2-ähnlichen Signals mit einem Modulationsmaximum in den Bildpunkten des Empfänger-Arrays. Die Annäherung an die cos2-Charakteristik wird bekannterweise durch die optische Modulationsübertragungfunktion des Objektivs in der jeweiligen Abbildungssituation unterstützt.Es muß realisiert werden, daß die Bewegung des Punktes des strukturiert leuchtenden Arrays, welcher in der Brennebenenlage des strukturiert leuchtenden Arrays mit dem Brennpunkt des Beleuchtungsobjektivs koinzidiert, auf einer Geraden gA erfolgt. Andere Punkte, bzw. Elemente des strukturiert leuchtenden Arrays bewegen sich auf parallelen Geraden zur Geraden gA. Diese Gerade gA ist so definiert, daß diese stets den Brennpunkt des Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg, definiert als Quotient aus Brennweite des Beleuchtungsobjektivs im Array-Raum und Abstand des Brennpunktes vom Abbildungsobjektiv, aufweist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist. Demzufolge bewegt sich die Gerade gA gemeinsam mit der Brennebene des Beleuchtungsobjektivs. Da sich beim internen Fokussieren der Brennpunkt stets auf der Achse des Beleuchtungsobjektivs bewegt, ist zur Realisierung der Bewegung der Elemente des strukturiert leuchtenden Arrays auf einer Geraden gA, noch eine zusätzliche Bewegung des strukturiert leuchtenden Arrays senkrecht zur optischen Achse erforderlich. Bei einem elektronisch steuerbaren Liniengitter wird eine Veränderung der Orte der lokalen Extrema der Leuchtdichte erzeugt. Dies kann auch als eine Bewegung senkrecht zur optischen Achse verstanden werden.Es ist sehr wesentlich für die Genauigkeit des Meßverfahrens, daß die beschriebene Bewegung oder Verschiebung der Brennebene des Beleuchtungsobjektivs sehr genau erfolgt, so daß die Bewegung auf der Geraden gA nur mit möglichst kleinen Lageabweichungen erfolgt. Dies kann mittels eines hochauflösenden, internen Wegmeßsystems für die zwecks interner Fokussierung bewegten optischen Komponenten im Beleuchtungsobjektiv unterstützt werden.Die interne Fokussierung des Abbildungsobjektivs mit einer miniaturisierten Linearführung sollte so erfolgen, daß die Schärfefläche des Abbildungsobjektivs mit der durch das Beleuchtungsobjektiv vorgegebenen Schärfefläche im Objektraum möglichst gut koinzidiert. Möglich ist auch hier die Verwendung eines hochauflösenden, internen Wegmeßsystems für die zwecks interner Fokussierung im Abbildungsobjektiv bewegten optischen Komponenten. Auch ist eine starre Kopplung der bewegten Komponenten der beiden Objektive grundsätzlich möglich.Um die Anforderungen an die Genauigkeit der internen Fokussierung des Abbildungsobjektivs zu verringern, kann das Abbildungsobjektiv etwas stärker abgeblendet werden, da sich dann der Schärfentiefebereich vergrößert. Im Extremfall ist auch eine so starke Abblendung des Abbildungsobjektivs denkbar, daß dann bei einem Objekt mit begrenzter Tiefenausdehnung sowohl auf dessen interne Fokussierung als auch auf eine Bewegung des Empfänger-Arrays - also auf eine Fokussierung im Abbildungsstrahlengang überhaupt - verzichtet werden kann.So wird erfindungsgemäß auch eine Anordnung vorgeschlagen, die mit einem elektronisch steuerbaren Liniengitter als strukturiert leuchtendes Array arbeitet, welches eine Verschiebung der Orte der lokalen Extrema der Leuchtdichte auf dem Empfänger-Array, beziehungsweise bei einer cos2-ähnlichen Leuchtdichteverteilung auf dem strukturiert leuchtenden Array eine Verschiebung der Phasenlage, erzeugt, und das zugehörige Beleuchtungsobjektiv gleichzeitig eine interne Fokussierung aufweist. Dadurch bewegen sich die Orte der Extrema oder die Orte gleicher Phase der Leuchtdichteverteilung auf dem strukturiert leuchtendes Array auch bei der internen Fokussierung auf einer sich im Raum bewegenden Geraden gA.Grundsätzlich ist es möglich, daß die beiden Achsen von Beleuchtungsobjektiv und Abbildungsobjektiv zueinander geneigt sind. Jedoch ist es in diesem Fall von großem Vorteil, wenn der Brennpunkt FOA des Abbildungsobjektivs im Objektraum in der Brennebene des Beleuchtungsobjektivs liegt. Die Lage dieses Brennpunktes FOA definiert den Ort der Geraden gO, die als Bild der Geraden gA definitionsgemäß diesen Brennpunkt FOA enthalten und parallel zur Achse des Beleuchtungsobjektivs liegen muß. Dies führt dazu, daß die Tiefenempfindlichkeit der 3D-Aufnahme-Anordnung in einer zur Achse des Beleuchtungsobjektivs senkrechten Ebene im Objektraum eine Konstante ist, also die Tiefenempfindlichkeit keine laterale Abhängigkeit in der Ebene aufweist.Bei einer gegebenen Anordnung von Beleuchtungs- und Abbildungsobjektiv muß die Richtung der Bewegung der Elemente des strukturiert leuchtenden Arrays parallel zur Geraden gA liegen. Wie bereits dargestellt, ist die Gerade gA dabei so definiert, daß deren Bild im Objektraum, die Gerade gO, den Brennpunkt des Abbildungsobjektivs im Objektraum bei gleichzeitig paralleler Lage zur Achse des Beleuchtungsobjektivs schneidet. Die Anordnung mit zueinander geneigten optischen Achsen der Objektive bringt Vorteile, wenn sich Bereiche des Objektes in besonders geringer Entfernung vom Beleuchtungsobjektiv befinden und diese vom Abbildungsobjektiv bei einer parallelen Anordnung der Objektive nicht mehr aufgenommen werden können. Hierbei ist es von Vorteil, wenn das Abbildungsobjektiv so aus der parallelen Lage herausgedreht ist oder motorisch und rechnergesteuert herausgedreht wird, daß es die Bereiche des Objektes in besonders geringer Entfernung erfassen kann.Weiterhin ist es möglich, daß das Empfänger-Array zusätzlich rechnergesteuert drehbar angeordnet ist, um die Scheimpflugbedingung zu erfüllen, wodurch die Koinzidenz der Schärfeflächen im Objektraum erreichbar ist. Es ist auch möglich, daß die beiden Objektive unterschiedliche Brennweiten aufweisen können, wobei das Abbildungsobjektiv wesentlich kurzbrennweitiger gestaltet ist, wenn sich nur der Brennpunkt des Abbildungsobjektivs in der Brennebene des Beleuchtungsobjektivs im Objektraum befindet.Es ist weiterhin von Vorteil für das Einmessen und Kontrollieren der 3D-Aufnahme-Anordnung, daß eine transparente Platte als permanent verbleibende Referenzplatte achssenkrecht in der Nahdistanz im Objektraum zur Selbsteinmessung zugeordnet ist, wobei auf mindestens einer der beiden Flächen eine schwach lichtstreuende Mikrostruktur aufgebracht ist. Die Mikrostruktur bewirkt eine für die Erfassung der Fläche der Referenzplatte ausreichende Rückstreuung in die 3D-Aufnahme-Anordnung. Die Einmessung kann beliebig oft kontrolliert und gegebenenfalls korrigiert werden, beispielsweise beim Auftreten von Temperaturänderungen. Auch ist es möglich, die Anordnung zu kapseln und thermisch durch eine Temperaturregelung zu stabilisieren, um ein temperaturbedingtes Driften der Phasenlagen zu verhindern. Auch ist zum Einmessen die Verwendung einer Anordnung mit zwei parallel angeordneten transparenten Platten mit Luftspalt im Objektraum möglich, wobei der Luftspalt konstant und dessen Geometrie bekannt ist.Grundsätzlich können die mit einer Referenzplatte gemessenen relativen Phasenwerte ϕRR in einer Rerenzphasen-Matrix abgelegt werden und zur Berechnung der Objektkoordinaten genutzt werden, auch wenn die Referenzplatte bereits wieder entfernt ist.Es ist auch möglich, Verzeichnungen der Objektive und Justierfehler der Anordnung als Phasenbeträge über die Raumkoordinaten zu ermitteln und zu speichern und bei Bedarf zur Korrektur zu verwenden. Die beschriebene Vorgehensweise gestattet grundsätzlich die zeitoptimale Auswertung auf der Basis von straight forward-Algorithmen. Diese Algorithmen können in speziellen Hochgeschwindigkeits-Prozessoren implementiert werden, wodurch eine Echtzeitauswertung von bewegten Objekten und Personen möglich wird.Für ein optimales Signal-Rausch-Verhältnis in den Signalen kann die Helligkeit der Strahlungsquelle in Abhängigkeit von der Position des strukturiert leuchtenden Arrays gesteuert werden. Für die Anpassung an das lateral unterschiedliche Reflexionsvermögen in den einzelnen Objektpunkten kann dagegen in einem elektronisch steuerbaren, strukturiert leuchtenden Array die Lichtintensität pixelweise objektorientiert angepaßt werden. Dabei kann das elektronisch steuerbare strukturiert leuchtende Array lateral bewegt werden, um die Phase zu ändern, aber auch lateral feststehen und elektronisch durch Verschieben der Gitterlinien eine Phasenänderung erzeugen, beispielsweise mit konstanter Phasengeschwindigkeit.Weiterhin kann die Lichtstärke der Objektive verändert werden. Es kann abgeblendet werden, um den Schärfentiefebereich beispielsweise bei schnellen Orientierungsmessungen vergrößern zu können. Dies verringert die Anzahl der notwendigen Bilder, verringert aber auch die Tiefenmeßgenauigkeit. Um dagegen den Schärfentiefebereich verkleinern zu können, werden eine oder zwei Apodisationsblenden angeordnet, eine in der Austrittspupille des Beleuchtungsobjektivs und eine in der Eintrittspupille des Abbildungsobjektivs also jeweils im Objektraum. Diese Blenden sind so gestaltet, daß die achsnahen Strahlen geschwächt oder ausgeblendet werden, um eine stärkere Wirkung der Randstrahlen zu erreichen. Es sind die aus der Spektroskopie bekannten Apodisationsfunktionen, beispielsweise Rechteck, Dreieck- oder Gaußfunktion einsetzbar.Andererseits kann in bestimmten Fällen, beispielsweise für die besonders schnelle 3D-Aufnahme, auch ein Bewegungssystem mit einem rotatorischen Antrieb zur kontinuierlichen, rotatorischen Bewegung eines strukturiert leuchtenden Arrays, vorzugsweise in der Art eines Radialgitters mit mindestens einer Referenzmarke, angeordnet sein, wobei ein Ausschnitt des Radialgittes das Feld des Beleuchtungsobjektivs vollständig ausfüllt. Dem Radialgitter ist ein Gegengitter zur phasenmäßigen Abtastung zugeordnet, welches die Gegenstruktur zur Abtastung enthält, sowie die Beleuchtung, ein Optikmodul und die Auswerte-Elektronik mit Rechnerschnittstelle. Auch auf dem Gegengitter befindet sich außerdem noch eine Referenzmarke für das Gewinnen mindestens eines hochgenauen Nullpunkt-Signals.Weiterhin weist dieses Bewegungssystem eine Linearführung auf, die den rotatorischen Antrieb zur vorzugsweise kontinuierlichen rotatorischen Bewegung des strukturiert leuchtenden Arrays und das Empfänger-Array trägt. Die Bewegungsrichtung der Linearführung liegt parallel zur optischen Achse des Abbildungsobjektivs in zA-Richtung. Durch die Kopplung des Radialgitters mit einem rotatorischen Antrieb wird erreicht, daß das strukturiert leuchtende Array einen kontinuierlichen Lauf erfährt, der durch die phasenmäßige Abtastung hochgenau geregelt werden kann. Bei dieser Lösung tritt wegen der Struktur des Radialgitters eine Variation der Gitterkonstante entlang der Koordinate xA auf. Für Radialgitter mit einem vergleichsweise großen Durchmesser zum Feld des Abbildungsobjektivs ist diese Tatsache in Verbindung mit numerischen Methoden akzeptierbar. Es ist grundsätzlich möglich, für das Beleuchtungs- und das Abbildungsobjektiv rechnergesteuerte Zoom-Objektive einzusetzen, die vorzugsweise jeweils mit der gleichen Brennweiteneinstellung arbeiten.Um vom strukturiert leuchtenden Array weit geöffnete Strahlenbündel ausgehen zu lassen, kann das strukturiert leuchtende Array mit einem speziellen Mikrolinsen-Array gekoppelt sein, beispielsweise kann dieses Mikrolinsen-Array dem strukturiert leuchtendes Array in Lichtrichtung vorgeordnet sein. Es ist auch möglich, das strukturiert leuchtende Array selbst als Zylinderlinsen-Array hoher Apertur auszuführen.Die Kontrolle der Parallelität der optischen Achsen der beiden Objektive kann mit Hilfe des Vergleichs der Phasenlagen zwischen der Phase des am strukturiert leuchtenden Array abgenommenen Signals und der Phase, die im Signal in einem Bildpunkt auf der optischen Achse des Abbildungsobjektivs detektiert werden kann, erfolgen, wenn eine Referenzplatte dabei in der Tiefe verschoben wird und der Verschiebeweg dabei gemessen wird.Es ist mit einem elektronisch gesteuerten, strukturiert leuchtenden Array möglich, die durch Telezentriefehler des Beleuchtungsobjektivs beim Tiefen-Scannen auftretenden Phasenfehler durch Dehnen oder Stauchen des elektronisch gesteuerten strukturiert leuchtenden Arrays auszugleichen.Für das Einmessen und Kontrollieren der Tiefenempfindlichkeit der Anordnung kann eine Stiftplatte verwendet werden. Die Stifte sind sehr präzise und fest an einer Trägerplatte in einem bekannten Raster befestigt und weisen bezogen auf die Trägerplatte zwei unterschiedliche, aber bekannte Stiftlängen auf. Die Abstände der Stifte sind so groß gewählt, daß in einem bestimmten Entfernungsbereich der Platte von der Anordnung auf den Stirnflächen der Stifte keine Abschattung auftritt. So werden zwei Ebenen mit einem sehr genau bekannten Abstand dargestellt. Dieser Abstand kann mit einer hochgenauen Koordinaten-Meßmaschine vermessen werden. In verschiedenen Abständen der Platte von der Anordnung kann so die Tiefenempfindlichkeit dieser Anordnung, aber auch die Verzeichnungen der Objektive bestimmt werden.Um sehr große Objekte teilweise oder rundum vermessen zu können, wird aus einer größeren Zahl von 3D-Aufnahme-Anordnungen ein Schirm aufgebaut. Dieser Schirm kann näherungsweise die Grobform des zu vermessenden Objektes, beispielsweise die Form einer kompletten Automobilkarosserie, aufweisen. Die erfaßten Objekträume der 3D-Aufnahme-Anordnungen überdecken sich teilweise. Das Einmessen kann durch mehrere Referenzkörper, auch Planplatten, gegebenenfalls mit Marken erfolgen, die gleichzeitig von zwei 3D-Aufnahme-Anordnungen im Überdeckungsbereich erfaßt werden.Auch ist es möglich, daß mehrere 3D-Aufnahme-Anordnungen nebeneinander so positioniert sind, daß sich ein Objekt oder eine Szene vollständig oder in einem großen Bereich erfassen läßt, wobei sich die erfaßten Bereiche im Objektraum der unmittelbar nebeneinander positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es findet keine Überdeckung mit der übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt mit einer jeweils andersfarbigen Strahlungsquelle ab. Dann beleuchten beispielsweise die 3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt mit rotem Licht und die 3D-Aufnahme-Anordnungen mit einer ungeradzahligen Positionsnummer das Objekt mit grünem Licht. Im Abbildungsstrahlengang der 3D-Aufnahme-Anordnungen befinden sich entsprechend schmalbandige Filter, die nur das Licht der eigenen Strahlungsquelle passieren lassen. Denkbar sind auch mehrere Lichtfarben, wodurch mehr als zwei 3D-Aufnahme-Anordnungen den gleichen Teil des Objektes erfassen können.Weiterhin können mehrere Beleuchtungsobjektive einem Abbildungsobjektiv zugeordnet sein, beispielsweise zwei. Dabei kann jedem Beuchtungsobjektiv eine andersfarbige Strahlungsquelle zugeordnet sein, beispielsweise dem ersten eine rote und dem zweiten eine grüne. Dem Abbildungsobjektiv ist ein mechanisch oder elektronisch schaltbares Filter zugeordnet, um jeweils nur Licht einer einzigen Strahlungsquelle auf den Bildempfänger gelangen zu lassen.Andererseits kann auch eine farbtüchtige Kamera angeordnet sein, um gleichzeitig das strukturierte Licht aus den beiden Beleuchtungsobjektiven getrennt zu verarbeiten. So können verschiedene Beleuchtungsrichtungen im Objektraum realisiert werden, um beispielsweise direkte Reflexe von einem speziellen Objektdetail wenigstens bei einer Aufnahme nicht auftreten zu lassen. Auch werden die Schatten der jeweils anderen Aufnahme ausgeleuchtet und so können auch diese Objektteile sichtbar gemacht werden.Möglich ist Trennung der Bilder von verschiedenen Beleuchtungsobjektiven auch mittels drehbarer Polarisatoren und der Verwendung von polarisiertem Licht.Für die Farb-Aufnahmetechnik mit farbsensitiven Bildaufnehmern kann wie folgt vorgegangen werden:
Die Beleuchtung des Objektes oder der Szene erfolgt vorzugsweise mit weißem Licht und mehrere 3D-Aufnahme-Anordnungen sind so positioniert, daß sich ein Objekt oder eine Szene vollständig oder in einem großen Bereich erfassen läßt, wobei sich die erfaßten Bereich oder Winkel-Bereiche im Objektraum der unmittelbar nebeneinander positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es findet keine Überdeckung der mit der übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt zu jeweils unterschiedlichen Zeiten ab. Zu diesem Zweck sind alle 3D-Aufnahme-Anordnungen von einer Leitstelle aus synchronisiert, so daß das Aufnehmen von Bildern auch synchron erfolgt. Dann erfassen beispielsweise die 3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt im Hinlauf der bewegten Arrays und die 3D-Aufnahme-Anordnungen mit einer ungeradzahligen Positionsnummer das Objekt im Rücklauf der bewegten Arrays und die Objekte sind nur beleuchtet, wenn jeweils die Aufnahme von Bildern erfolgt.Bei Verwendung einer farbtüchtigen Kamera als Bildaufnehmer sind vorzugsweise die jeweils zusammengehörenden farblich sensitiven Elemente, auch als RGB-Sensoren bekannt, linienförmig und in Richtung der Streifen des Liniengitters, also auf Linien gleicher Phase, angeordnet. Dadurch wird erreicht, daß es keine farblich bedingten Phasenlagen in den Signalen gibt. Dagegen kann die Phase zwischen den RGB-Sensoren objektbedingt durchaus verschieden sein.Weiterhin ist es auch möglich, daß ein Roboterarm eine einzige 3D-Aufnahme- Anordnung über das Objekt führt und die Daten nacheinander eingelesen werden. Durch Überdeckung der erfaßten Bereiche der Objektoberfläche erfolgt ein "Weiterhangeln" über die Objektoberfläche, welches grundsätzlich ohne das Vorhandensein von Bezugsmarken auf der Objektoberfläche möglich ist. Die jeweils erfaßten Objekträume werden numerisch zusammengesetzt.Das Abbildungsobjektiv kann fest angeordnet sein. Dabei ist mindestens ein Beleuchtungsobjektiv gemeinsam mit dem strukturiert leuchtenden Array und der kompletten Beleuchtungsanordnung um das Abbildungsobjektiv drehbar oder schwenkbar angeordnet, wobei vorteilhafterweise die optische Achse des Abbildungsobjektivs die Drehachse für das Beleuchtungsobjektiv darstellen kann. Damit ist eine Beleuchtung des Objektes aus verschiedenen Richtungen möglich, um Schatten zu eliminieren. Die Drehbewegung wird rechnergesteuert.Auch ist es möglich, daß sich vor der 3D-Aufnahme-Anordnung ein schwenkbarer Planspiegel befindet, der in den Strahlengang geschwenkt werden kann und so eine fest angeordnete Referenzplatte vermessen und nach erfolgter Vermessung der Planspiegel zurückgeschwenkt wird.Vorteilhaft ist es, wenn zu Beginn eines 3D-Aufnahmeverfahrens in einem Bildaufnahmevorgang ein erster Datensatz gewonnen und gespeichert wird und die errechneten Objektpunkte eliminiert werden, die eine Abweichung vom Modulationsmaximum aufweisen. Anschließend kann das strukturiert leuchtende Array um einen Bruchteil der Gitterperiode verschoben werden und mindestens ein zweiter Datensatz aufgenommen und gespeichert wird, wobei die errechneten Werte ebenfalls eliminiert werden, die sich nicht in unmittelbarer Lage des Modulationsmaximums befinden. Aufgrund der durch die Gitterverschiebung im Bruchteil der Gitterperiode erfolgten Phasenänderung sind die errechneten Objektpunkte der ersten Messung mit denen der zweiten Messung nicht identisch, so daß eine vollständige Erfassung der Mehrzahl der Objektpunkte erreicht wird. Vorzugsweise entspricht die beschriebene Verschiebung des strukturiert leuchtenden Arrays dem Betrag der viertel Gitterperiode. Im folgenden werden weitere Merkmale des Verfahrens und der Anordnung zur 3D-Aufnahme von Objekt­ oberflächen in Szenen dargestellt.Weiterhin ist in einem Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche in mindestens einer Szene mindestens eine elektromagnetischen Strahlungsquelle angeordnet und die Strahlungsquelle ist mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausgebildet.Dabei leuchtet mindestens ein Flächenelement, so daß mindestens ein leuchtendes Flächenelement ge­ bildet ist. Dabei ist jedes leuchtende Flächenelement FELj des strukturiert leuchtenden Arrays selbst, oder deren Bilder, in einer Leuchtdichteverteilung durch eine zumindest näherungsweise vorbestimmte Leuchtdichte und durch einen zumindest näherungsweise vorbestimmten Ort definiert, welches im weite­ ren als leuchtendes Flächenelement FELj bezeichnet wird. Der Begriff "Leuchten" wird hier als das Ab­ strahlen von elektromagnetischer Strahlung verstanden.Das strukturiert leuchtende Array kann auch als ein Sender-Array und die leuchtenden Flächenelemente FEL können als Senderelemente dieses Sender-Arrays verstanden werden. Weiterhin kann das struktu­ riert leuchtende Array dabei ein Array aus äquidistanten steuerbaren Mikro-Lichtquellen, beispielsweise Mikro-Laser oder auch Mikro-Leuchtdioden darstellen. So ist es auch möglich, ein strukturiert leuchtendes Array beispielsweise mit vertikal abstrahlenden Laserdioden zu erzeugen, die mittels eines Rechners, auch einzeln, angesteuert werden. Beispielsweise kann ein leuchtendes Flächenelement FELj so das 100fache der mittleren Leuchtdichte des Arrays aufweisen, also vergleichsweise intensiv leuchten.Die Strahlungsquelle kann aber auch als eine flächige und unstrukturierte Strahlungsquelle einem struktu­ rierten Array, welches ein Transmissions- oder ein Reflexionsgitter darstellen kann, vorgeordnet sein. So kann ebenfalls ein strukturiert leuchtendes Array mit Bereichen unterschiedlicher Leuchtdichte realisiert werden. In jedem Fall stellen die leuchtenden Bereiche des strukturiert leuchtenden Arrays selbst, ein­ schließlich deren Bilder, leuchtende Flächenelemente FEL in einer Leuchtdichteverteilung mit einer zu­ mindest näherungsweise vorbestimmten Leuchtdichte in Bezug zur mittleren Leuchtdichte der Leuchtdich­ teverteilung im strukturiert leuchtenden Array dar.Weiterhin ist mindestens ein Beleuchtungsstrahlengang mit mindestens einem Beleuchtungsobjektiv an­ geordnet, welches mindestens einem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordnet ist. So wird eine Abbildung des mindestens einen leuchtenden Flächenelementes FELj reali­ siert und die Objektoberflächen können zumindest zu einen einzigen Zeitpunkt strukturiert beleuchtet wer­ den.Es ist weiterhin möglich, daß durch die Überlagerung von kohärenten Lichtbündeln auf den Objektoberflä­ chen in der Szene eine strukturierte Beleuchtung auf der Basis der Interferenz elektromagnetischer Wel­ len erzeugt wird. Vorzugsweise können zwei kohärente Lichtbündel zur Interferenz gebracht werden. Vor­ zugsweise können diese zumindest näherungsweise Ausschnitte aus Kugelwellen darstellen, und es kann ein Streifenmuster gebildet werden. Die Lage der Streifen kann durch die Änderung des optischen Gangunterschiedes zwischen den kohärentem Lichtbündeln verändert werden.Weiterhin ist mindestens ein Abbildungsstrahlengang für die Abbildung von Elementen der mindestens ei­ nen Objektoberfläche und mindestens ein Empfänger-Array mit mindestens zwei Elementen und minde­ stens einem dem Empfänger-Array zugeordneten Abbildungsobjektiv angeordnet. Dabei detektieren Ele­ mente des Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von Elementen der mindestens einen beleuchteten Objektoberfläche im Objektraum.Weiterhin werden von Elementen des Empfänger-Arrays durch das Abbildungsobjektiv stets auch Bilder im Objektraum, der dem Szenenraum entspricht, mit einem geometrisch-optischen Schärfevolumen gebil­ det. Die Elemente der mindestens einen Objektoberfläche werden mit mindestens einem Abbildungsob­ jektiv abgebildet. Mindestens ein leuchtendes Flächenelement FELj des strukturiert leuchtenden Arrays kann eine Verschiebung erfahren. Durch die Abbildung des mindestens einen leuchtenden Flächenele­ mentes FELj mit dem mindestens einen Beleuchtungsobjektiv wird ein Bild mindestens eines leuchtenden Flächenelementes FELj im Objektraum mit einem geometrisch-optischen Schärfevolumen gebildet.Das Empfänger-Array kann auch einen Film oder eine Platte mit einer Beschichtung darstellen, die für Röntgen-, UV-, VIS- oder IR-Strahlung sensibilisiert ist, und gerastert ausgelesen wird. Die Verwendung eines Targets, welches für UV-, VIS- oder IR-Strahlung empfindlich gemacht ist, ist ebenfalls möglich.Die Detektion von elektromagnetischer Strahlung von den Elementen der mindestens einen Objektober­ fläche durch die Elemente des Empfänger-Arrays erfolgt mindestens in einem Zeitbereich ΔtB, in welchem auch die Verschiebung mindestens eines leuchtenden Flächenelementes FELj des strukturiert leuchten­ den Arrays durchgeführt wird, wobei jeweils mindestens ein Signalwert gewonnen wird.Dabei wird innerhalb des Zeitbereichs ΔtB mindestens mit einem leuchtenden Flächenelement FELj des strukturiert leuchtenden Arrays eine zumindest näherungsweise vorbestimmte Verschiebung durchge­ führt, - einschließlich einer vorbestimmten optischen Verschiebung desselben als Ergebnis einer geome­ trisch-optischen Weglängenänderung - und so sendet mindestens ein leuchtendes Flächenelement FELj zu unterschiedlichen Zeitpunkten an mindestens zwei unterschiedlichen Orten elektromagnetische Strah­ lung aus.Dabei werden das Schärfevolumen mindestens eines Bildes mindestens eines vorbestimmten, leuchten­ den Flächenelementes FELj des mindestens einen strukturiert leuchtenden Arrays, wobei dieses Schär­ fevolumen im Objektraum gebildet ist, und das Schärfevolumen mindestens eines Bildes mindestens ei­ nes vorbestimmten Elementes des Empfänger-Arrays, wobei dieses Schärfevolumen ebenfalls im Objekt­ raum gebildet ist, und mindestens ein Element der mindestens einen Objektoberfläche zumindest nähe­ rungsweise einmal aufgrund der Durchführung der vorbestimmten Verschiebung mindestens eines vor­ bestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays mit zumindest einer Verschiebungskomponente in zA-Richtung im Array-Raum, also mit einer Verschiebungskomponente parallel zur optischen Achse des Beleuchtungsobjektivs, zur Koinzidenz gebracht. So wird im Objektraum zumindest einmal und zumindest näherungsweise die Koinzidenz des Schärfevolumens eines Bildes ei­ nes vorbestimmten, feuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays und des Schärfevolumes eines Bildes eines vorbestimmten Elementes des Empfänger-Arrays und mindestens ei­ nes Elementes der mindestens einen Objektoberfläche erzeugt. Beim Auftreten der Koinzidenz erfährt zumindest das an dieser Koinzidenz beteiligte Element des Empfänger-Arrays zumindest einmal eine zeit­ lich veränderte Bestrahlung gegenüber dem Fall der Nichtkoinzidenz und so detektiert dieses Element des Empfänger-Arrays zumindest einmal ein verändertes Signal. So werden durch die Realisierung der Verschiebung nach und nach Elemente der mindestens einen Ob­ jektoberfläche gleichzeitig zur Koinzidenz mit dem Schärfevolumen eines Bildes eines vorbestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays und dem Schärfevolumen eines Bildes eines vorbestimmten Elementes des Empfänger-Arrays gebracht. Jeweils beim Auftreten der Koin­ zidenz erfährt das an dieser Koinzidenz jeweils beteiligte Element des Empfänger-Arrays zumindest ein­ mal eine zeitlich veränderte Bestrahlung und so detektiert dieses Element des Empfänger-Arrays zumin­ dest einmal ein verändertes Signal.Ein leuchtendes Flächenelement kann fest an eine geometrische Struktur eines Körpers gebunden sein, beispielsweise an ein Transparenzmaximum auf einem verschiebbaren Transmissionsgitter in Verbindung mit einer vorgeordneten Strahlungsquelle.Die feste Kopplung an eine geometrische Struktur eines Körpers muß jedoch nicht sein, denn in einem elektronisch steuerbaren, strukturiert leuchtenden Array, mit zwei Flächenelementen kann sich das leuchtende Flächenelement FELj zu jeweils unterschiedlichen Zeitpunkten sowohl am Ort des ersten, als auch am Ort des zweiten Flächenelementes befinden.Es ist aber auch grundsätzlich in der beschriebenen Anordnung und nach dem beschriebenen Verfahren möglich, daß ein strukturiert leuchtendes Array mit mehreren fest angeordneten leuchtenden Flächenele­ menten FELj in einer räumlichen vorbestimmten Struktur aufgebaut ist. Im Objektraum entstehen nach Abbildung der fest angeordneten leuchtenden Flächenelementen FEL durch das Beleuchtungsobjektiv an verschiedenen Orten Bilder der fest angeordneten leuchtenden Flächenelementen FEL. In der 3D-Auf­ nahme-Anordung ist in den optisch konjugierten Orten im Array-Raum des Abbildungobjektivs jeweils mindestens ein Element eines Empfänger-Arrays angeordnet. Bei der exakten Positionierung eines Objek­ tes im Objektraum, welches genau dort Elemente der Objektoberfläche aufweist, wo sich genau ein Bild der leuchtenden Flächenelemente FEL befindet, detektieren die Elemente des Empfänger-Arrays jeweils einen Signalwert oberhalb eines Schwellwertes.Für die Verschiebung werden die Positionen der leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays und die Positionen der Bilder der leuchtenden Flächenelemente FEL im Objektraum nach der Newtonschen Abbildungsgleichung aus der Lage des Beleuchtungsobjektivs in der 3D- Aufnahme-Anordnung und der Brennweite fB des Beleuchtungsobjektivs bestimmt und realisiert. Die Ver­ schiebung erfolgt dabei zum einen vorzugsweise mit konstanter Geschwindigkeit. Andererseits kann die Gegenstandsweite des strukturiert leuchtenden Arrays auch sprunghaft verändert werden.Aus dem Datensatz von einer bekannten Soll-Objektoberfläche kann ein strukturiert leuchtendes Array mit mehreren fest angeordneten leuchtenden Flächenelementen FEL in einer räumlichen Struktur gestaltet werden. Eine 3D-Aufnahme-Anordnung kann mit diesem speziellen, strukturiert leuchtenden Array zur Prüfung von massenhaft gefertigten Ist-Objektoberflächen bei entsprechend genauer Positionierung in der beschriebenen 3D-Aufnahme-Anordnung eingesetzt werden. In diesem Fall erfolgt keine physische Ver­ schiebung der leuchtenden Flächenelementen FELj im Array-Raum, sondern nur eine parallele Detektion durch die Elemente des Empfänger-Arrays. Dieses Verfahren kann mit einer außerordentlich hohen Ge­ schwindigkeit durchgeführt werden. Die Begrenzung liegt in der Regel bei der Positionierung. Es ist grundsätzlich eine Prüfung von Objektoberflächen von Werkstücken im Flug oder im freien Fall möglich. Um für das Verfahren zur 3D-Aufnahme einen großen Tiefenschärfebereich bei der Abbildung von Ob­ jektoberflächen in einer Szene zu erreichen, können die Orte bestimmter relativer Leuchtdichte der struk­ turierten, leuchtenden Fläche und so auch die Orte lokaler Extrema der Leuchtdichte im Array-Raum auf Bahnkurven verschoben werden. Das strukturiert leuchtendes Array kann ein elektronisch steuerbares, strukturiert leuchtendes Array, beispielsweise ein LCD mit einer vorgeordneten Strahlungsquelle sein, welches durch ein Bewegungssystem geradlinig verschoben wird. Es kann durch die elektronisch gesteu­ erte laterale Verschiebung der lokalen Extrema der Leuchtdichte auch eine definierte Abweichung der Bahnkurven von der Geradheit erzeugt werden, beispielsweise durch die Verschiebung von transparenten Linien eines sehr feinstrukturierten LCDs mit einer sehr großen Anzahl von Elementen beispielsweise in der Größenordnung 106. So kann die zA-abhängige Verzeichnung des Beleuchtungsobjektivs oder die systematische Abweichung von der Geradlinigkeit des Bewegungssystem so beeinflußt werden, daß sich bei der Verschiebung des strukturiert leuchtenden Arrays die Bilder der Bahnkurven im Objektraum Bah­ nen mit einer sehr geringen Abweichung von der Geradheit, also Strecken darstellen.Die Bahnkurven können dabei so r 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880ealisiert werden, daß nach deren Abbildung mit dem Beleuchtungsob­ jektiv aus deren Bildern zumindest näherungsweise im Objektraum ein erstes Streckenbüschel SB1 mit einem Konvergenzpunkt K1 der Strecken gebildet werden kann. Diese Strecken können im Objektraum als Spuren von nacheinander abgebildeten Lichtpunkten verstanden werden, beispielsweise als die ver­ schobenen Extrema der Leuchtdichte bei einem beleuchtetem Liniengitter im Transparenzmaximum oder die Spur eines Bildes eines beleuchteten Spaltes. Die Spuren der Lichtpunkte können im Objektraum auf einer Objektoberfläche beobachtet werden, wenn das Bild eines Lichtpunktes und der beobachtete Punkt der Objektoberfläche zumindest näherungsweise koinzidieren. Durch den Triangulationseffekt kann bei der Verschiebung des Bildes eines leuchtenden Flächenelementes FELj und des mit diesem koinzidie­ renden Bild eines Elementes des Empfänger-Arrays ein laterales Auswandern des Bildes des Lichtpunk­ tes beobachtet werden. Die Ablage von der Ausgangsposition nimmt mit zunehmender Abweichung des beleuchteten Bereiches der Objektoberfläche vom aktuellen Koinzidenzpunkt der beiden Bildern zu, wobei das Element des Empfänger-Arrays ein zunehmend unscharfes Bild des leuchtenden Flächenelementes FELj detektiert, beziehungsweise ein in der Regel ebenfalls unscharfes, leuchtendes Flächenelement FELj+1 in der Nachbarposition von dem ersten leuchtenden Flächenelement FELj auf dem strukturiert leuchtenden Array. Dabei erfolgt die Abbildung des leuchtenden Flächenelementes FELj stets über die Objektoberfläche. Im Falle eines einzelnen leuchtenden Flächenelementes FELj registriert das zugehöri­ ge Element eines Empfänger-Arrays eine geringere Lichtintensität, so daß beim Abbilden eines einzelnen Lichtspaltes sich ein Signalverlauf mit einer Veränderung der Signalintensität, beispielsweise auch ein Si­ gnalverlauf mit einem Extremum - in der bereits beschriebenen dreifachen Koinzidenzsituation, ergibt.Dieses Verfahren ermöglicht in einem vorbestimmten Verschiebungsvorgang des strukturiert leuchtenden Arrays und so auch der leuchtenden Flächenelemente FEL in einer Verschiebungsrichtung mit einer Komponente in zA-Richtung, also auch mit einer Komponente parallel zur optischen Achse des Beleuch­ tungsobjektivs, eine eindeutige Aussage über das Vorhandensein eines Elementes der Objektoberfläche an einem vorbestimmten Ort im Objektraum. Dabei wird der Betrag in zA-Richtung so gewählt, daß die Schärfefläche den Objektraum von einem Nahbereich, welcher der Fläche Fmin entspricht, beispielsweise in der zehnfachen Brennweite des Beleuchtungsobjektivs, bis zu einem Fernbereich, welcher der Fläche Fmax entspricht, beispielsweise in einer Entfernung von der 3D-Aufnahmeanordnung der 100fachen Brennweite, nach und nach durch eine vorbestimmte, beispielsweise eine elektronisch gesteuerte Ver­ schiebung der leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays durchwandert. Da­ bei liegt der Betrag der Verschiebung der leuchtenden Flächenelemente FEL vorzugsweise in der Größe eines Zehntels der Brennweite des Beleuchtungsobjektivs.Dieses Verfahren wird mit der Gesamtheit der leuchtenden Flächenelemente des strukturiert leuchtenden Arrays und der Gesamtheit der Elemente des Empfänger-Arrays für die Gesamtheit der Elemente der Objektoberflächen im Erfassungsvolumen der 3D-Aufnahmeanordnung durchgeführt.Durch mehrfaches Detektieren und Auslesen während des Verschiebungsvorganges von mindestens ei­ nem vorbestimmten Element des Empfänger-Arrays kann eine Interpolation zur Verbesserung der Genau­ igkeit der Bestimmung des Ortes eines erfaßten Elementes der Objektoberfläche durchgeführt werden.Die Öffnungsblende des Abbildungsobjektiv kann hierbei vorzugsweise vergleichsweise klein gemacht sein, beispielsweise kann die relative Öffnung 1 : 22 betragen, so daß das Schärfevolumen des Bildes der Elemente des Empfänger-Arrays eine vergleichsweise große Tiefe besitzt, beispielsweise in der Form ei­ nes langen Ausschnittes aus einer schlanken Pyramide - bei einem Element mit einer quadratischen Flä­ che.Die Größe des Schärfevolumens ist im Objektraum von der Entfernung vom zugehörigen Objektiv ab­ hängig. Bei der Abbildung eines Elementes des Empfänger-Arrays in den Objektraum soll es einen Tie­ fenbereich aufweisen, in welchem das Bild eines Elementes des Empfänger-Arrays aufgrund der geome­ trisch-optischen Unschärfe sich nicht um mehr als die zweifache Fläche vergrößert - gegenüber der idea­ len geometrisch-optischen Abbildung. So weist das Schärfevolumen nach dieser Definition an einem Punkt des Objektraum im Mittel die zweifache Fläche eines Bildes eines Elementes des Empfänger- Arrays auf. Der Tiefenbereich ergibt sich dann als der Bereich, in dem die Bildfläche eines Elementes des Empfänger-Arrays sich unschärfebedingt nicht größer als verdoppelt darstellt.Dagegen kann das Beleuchtungsobjektiv eine vergleichsweise große relative Öffnung besitzen. Bei­ spielsweise kann die relative Öffnung 1 : 2,0 betragen. Dadurch kann das Schärfevolumen des Bildes von leuchtenden Flächenelementen FEL eine vergleichsweise geringe Tiefe aufweisen, beispielsweise in der Form eines kurzen Ausschnittes aus einer Pyramide.Das Schärfevolumen soll bei der Abbildung eines leuchtenden Flächenelementes FELj in den Objektraum einen Tiefenbereich aufweisen, in welchem das Bild von leuchtenden Flächenelementen FEL aufgrund der geometrisch-optischen Unschärfe sich nicht um mehr als die zweifache Fläche vergrößert. Es gilt das gleiche Kriterium. Bei einem linienförmigen, leuchtenden Flächenelement FELj kann eine Verdoppelung der Breite des Bildes des linienförmigen, leuchtenden Flächenelementes FELj als Unschärfe-Kriterium angenommen werden. So weist ein Schärfevolumen an einem Punkt des Objektraum im Mittel die zweifa­ che Fläche eines Bildes eines leuchtenden Flächenelementes FELj. Der Tiefenbereich ergibt sich dann auch hier als der Bereich, in dem die Bildfläche eines Elementes des Empfänger-Arrays sich nicht größer als verdoppelt darstellt.Die exakte Definition des jeweiligen Schärfevolumens spielt jedoch hier für die Gewinnung der 3D- Punktwolke keine Rolle, da von der Definition des Schärfevolumens keine Rechenvorschrift abgeleitet wird.Bei der vorbestimmten Verschiebung eines leuchtenden Flächenelementes FELj im Array-Raum bewegt sich im hier dargestellten Fall das Schärfevolumen jeweils eines Bildes eines leuchtenden Flächenelemen­ tes FELj im Schärfevolumen jeweils eines Bildes eines Elementes des Empfänger-Arrays. So kann sich in diesem Fall ein Element der Objektoberfläche permanent im Schärfevolumen eines Bildes eines Empfän­ gerelementes befinden. Jedoch erst bei der Koinzidenz des Schärfevolumens des Bildes eines leuchten­ den Flächenelementes mit einem Element der Objektoberfläche erfolgt eine strukturierte Beleuchtung die­ ses Elementes der Objektoberfläche. So kann durch das - bei der vorbestimmten Verschiebung eines leuchtenden Flächenelementes FELj - mehrfach ausgelesene Element eines Empfänger-Arrays bei­ spielsweise ein Signalverlauf mit einem relativen Maximum zum Zeitpunkt der Koinzidenz detektiert wer­ den.Die vorbestimmte Verschiebung der leuchtenden Flächenelemente FELj kann elektronisch gesteuert er­ folgen. Um die mechanische Bewegung des strukturiert leuchtenden Arrays zu vermeiden, können die Orte der lokalen Extrema der Leuchtdichte der strukturierten, leuchtenden Fläche jeweils Verschiebungen auf Bahnkurven im Array-Raum erfahren, die sich aus der elektronisch gesteuerten Veränderung der opti­ schen Weglänge im Array-Raum und der elektronisch gesteuerten Verschiebung der lokalen Extrema der Leuchtdichte auf dem strukturiert leuchtendes Array ergeben. Zusätzlich kann auch eine elektronisch ge­ steuerte Veränderung der optischen Weglänge im Raum vor dem Empfänger-Array durchgeführt werden, die zu scheinbaren Verschiebungen der sensitiven Elemente des Empfänger-Arrays entlang von Bahn­ kurven führen.Weiterhin kann vorzugsweise je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der De­ tektion von Licht in einem Zeitbereich ΔtB zumindest näherungsweise auf je einer Verschiebungsstrecke VSBAj relativ zum Beleuchtungsobjektiv verschoben werden. Durch das Beleuchtungsobjektiv kann dieses leuchtende Flächenelement FELj in einer Leuchtdichteverteilung mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf eine vorherbestimmte Strecke im Objektraum BSOj abgebildet werden.Der Ort des Bildes des leuchtenden Flächenelementes FELj wird dabei auf der Strecke BSOj nach und nach verändert und so wird das Bild des leuchtenden Flächenelementes FELj mit einer zumindest nähe­ rungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach durch den Objektraum verschoben. Bei der Verschiebung je eines leuchtenden Flächenelementes FELj werden mehrfach nach­ einander Signalwerte aus Elementen des Empfänger-Arrays ausgelesen und so wird ein Signalverlauf gebildet, wobei der Ort des jeweils ausgelesenen Elementes des Empfänger-Arrays verändert wird. Die Orte der ausgelesenen Elemente des Empfänger-Arrays liegen auf einer Strecke ASAj und das Bild dieser Strecke ASAj, die Strecke ASOj, ist mit der vorherbestimmten Strecke BSOj der Bilder der leuchtenden Flächenelemente FEL im Objektraum optisch konjugiert. So kann je ein Bild eines Elementes des Emp­ fänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenelementes FELj zumindest zu einem Zeit­ punkt ti innerhalb des Zeitintervalls Δti im Zeitbereich ΔtB im Objektraum zur Koinzidenz gebracht sein und so wird je ein Paar mit wechselnden Bildern erzeugt, wobei dieses Paar nach und nach durch den Objek­ traum geschoben wird. So ist gegeben, daß je ein Schärfevolumen des Bildes eines leuchtenden Flä­ chenelementes des strukturiert leuchtenden Arrays und je ein Bild eines Elementes des Empfänger- Arrays mit je einem Flächenelement der Objektoberfläche einmal im Verschiebungsvorgang innerhalb ei­ nes Zeitbereich ΔtB zusammenfallen, wenn sich ein Element der Objektoberfläche auf dem Abbildungs­ strahl zwischen den Bildern der beiden Flächen Fmin und Fmax im erfaßten Bereich des Objektraum es be­ findet. Die ausgelesenen Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzidenz einen veränderlichen Signalverlauf vorzugsweise mit mindestens einem relativen Extremum der Signal­ größe, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zei­ tintervall Δti im Zeitbereich ΔtB zeitlich eingepaßt werden kann.Vorteilhaft kann auch ein einem mechanisch feststehendem Empfänger-Array verwendet werden, bei­ spielsweise eine CCD-Kamera, die nicht senkrecht zur optischen Achse des Abbildungsobjektivs steht. Dies ermöglicht ausgewählte Elemente der Objektoberflächen aus unterschiedlichen Tiefen des Objek­ traum scharf abzubilden. Es kann auch ein räumlich strukturiertes Empfänger-Array eingesetzt werden.Dieser Ansatz ist besonders für kleine oder für flache Meßvolumina mit geeignet. Vorzugsweise kann das leuchtende Array auch einen beleuchteten Einzelspalt darstellen. Andererseits kann beispielsweise auch ein Direct Mirror Device oder einem LCD-Array als steuerbares Array in Verbindung mit einer im Beleuch­ tungsstrahlengang vorgeordneten Lichtquelle eingesetzt werden.Ein beleuchteter Einzelspalt kann beispielsweise linear verschobenen werden. Der Abbildungsstrahl, wo­ bei die Lage dieses Abbildungsstrahls ABSO als Gerade durch den Ort des photometrischen Schwerpunk­ tes des gerade ausgelesenen Elementes des Empfänger-Arrays und den Ort des Zentrums der Öff­ nungsblende des Abbildungsobjektivs bestimmt ist, wandert dabei zunächst über die nicht vom Bild des Lichtspaltes beleuchteten Flächenelemente der Objektoberfläche. Der Lichtspalt wird erst in der Koinzi­ denzsituation vom Bild des leuchtendem Flächenelementes, vom Bild des Elementes des Empfänger- Arrays und vom Element der Objektoberfläche vom Element des Empfänger-Arrays detektiert. Jedoch fällt je ein Bild eines leuchtenden Flächenelementes FELj, z. B. ein Spaltbild, stets mit dem Bild eines Elemen­ tes des Empfängers für das Zeitintervall Δti zusammen, sozusagen immer in der "Erwartung" der Objekto­ berfläche. Im nächsten Zeitintervall Δti+1 kommt das nächste Element des Empfängers mit einem Bild ei­ nes leuchtenden Flächenelementes zur "Paarbildung". So bildet ein bestimmtes leuchtendes Flächenele­ mentes FELj mit Bildern wechselnder Elemente des Empfänger-Arrays für das Zeitintervall Δti jeweils ein Paar, wobei durch die getrennten Pupillen des Beleuchtungsobjektivs und des Abbildungsobjektivs ein Triangulationswinkel zwischen dem Hauptbeleuchtungsstrahl und dem Hauptabbildungstrahl besteht, so daß das Element des Empfänger-Arrays nur dann das leuchtende Flächenelement detektieren kann, wenn gleichzeitig, also im Zeitintervall Δti, auch noch ein Element der Objektoberfläche zumindest nähe­ rungsweise mit dem gerade, also im Zeitintervall Δti, bestehenden Bildpaar koinzidiert, also auch das Element der Objektoberfläche mit dem Schärfevolumen des Bildes des leuchtenden Flächenelementes zusammenfällt. So besteht ein Tripel. In dieser Position detektiert das Element des Empfänger-Arrays das Lichtspaltbild auf der Objektoberfläche. Weit außerhalb des Schärfevolumen detektiert es dagegen nur die undurchlässigen Bereiche der Maske auf der gegebenenfalls vorhandenen Objektoberfläche. Dazwischen besteht ein Übergangsbereich. Die Signalwerte von den Elementen des Empfänger-Arrays, die innerhalb eines Zeitintervalls ΔtB zu einem Bildpaar gehört haben, bilden einen Signalverlauf mit einem Maximum, der dem von konfokalen 3D-Meßmikroskopen entspricht.Dabei kann sich auch stets das gleiche leuchtende Flächenelement FELj auf den Punkten der Verschie­ bungsstrecke befinden. Dies entspricht dem realen mechanischen Verschieben des leuchtenden Flä­ chenelementes FELj. Dies muß nicht immer so sein, da andererseits auch der Aufenthalt eines beliebi­ gen, leuchtendes Flächenelementes FELj zum Zeitpunkt ti innerhalb des Zeitintervalls Δti genügt.Dabei kann das strukturiert leuchtende Array auch aus zumindest näherungsweise punktförmigen oder linienhaften Strahlungsquellen in einer gerasterten Struktur bestehen. So kann ein strukturiert leuchtendes Array mit Bereichen unterschiedlicher Leuchtdichte gebildet sein. Weiterhin können auch leuchtende Flä­ chenelemente FEL mit lokalen Extrema der Leuchtdichte verschoben werden. Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL an einen anderen Ort kann mit mechanischen Mit­ teln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elektronisch gesteuerte Verschie­ bung möglich.Leuchtende Flächenelemente FEL können in einer Leuchtdichteverteilung mit einer zumindest nähe­ rungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zeitlich nacheinander an unter­ schiedlichen Orten elektromagnetische Strahlung aussenden und gleichzeitig erfolgt die Detektion von elektromagnetischer Strahlung von den Elementen der Objektoberflächen für die Dauer eines Zeitinter­ valls Δti.Es wird weiterhin vorgeschlagen, die strukturierte Beleuchtung mit einem Beleuchtungsobjektiv mit einer vergleichsweise großen Pupillenöffnung und mit einem strukturiert leuchtendes Array, welches ein parallel zur optischen Achse des Beleuchtungsobjektivs verschobenes Liniengitter, beziehungsweise eine Punkt- oder eine Schlitzmaske sein kann, und die Abbildung mit einem Abbildungsobjektiv mit einer vergleichs­ weise besonders kleinen Pupillenöffnung durchzuführen. Die kleine Pupillenöffnung führt zu einem größe­ ren Tiefenschärfebereich und so wird erreicht, daß ein Objekt mit einer größeren Tiefenausdehnung er­ faßt werden kann, ohne daß das strukturiert leuchtendes Array bewegt werden muß. Da auch miniaturi­ sierte Objektive eingesetzt werden können, ergibt sich so eine besonders kompakte Anordnung. Wenn das Liniengitter mit einer konstanten Geschwindigkeit bewegt wird, können so bei der Aufnahme in den Elementen des strukturiert leuchtenden Arrays periodische Signale mit einer konstanten Frequenz und ei­ nem Modulationsmaximum gewonnen werden. Dies vereinfacht die Signalauswertung und kann deshalb zu einer erheblichen Reduzierung der Rechenzeit bei der Bestimmung der absoluten Phase und führen. Bei der Verwendung von einer Punkt- oder Schlitzmaske entstehen dagegen in den Elementen des strukturiert leuchtenden Arrays Signale mit einem einzelnen Maximum. Aus der Lage des Maximums kann in der bekannter Weise die zugehörige zO-Position des Objektpunktes bestimmt werden.Weiterhin kann bei einem Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorzugswei­ se je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der Detektion in einem Zeitbereich ΔtB zumindest näherungsweise auf je einer eigenen Verschiebungsstrecke VSBAj relativ zum Beleuch­ tungsobjektiv verschoben werden und durch das Beleuchtungsobjektiv abgebildet sein. Dabei bedeutet die Formulierung "relativ", daß auch die Position des leuchtenden Flächenelementes FELj ortsfest sein kann und sich in diesem Fall zumindest Komponenten des Beleuchtungsobjektivs bewegen. Dieses leuchtende Flächenelement FELj wird zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf eine Strecke BSOj auf einen vorherbestimmten Abbildungsstrahl ABSO, im Objektraum abgebil­ det. Die Strecke BSOj kann dann auch das Bild der Verschiebungsstrecke VSBAj darstellen und sich der Ort des Bildes des leuchtenden Flächenelementes FELj auf der Verschiebungsstrecke VSBAj zumindest näherungsweise kontinuierlich - innerhalb eines Zeitbereich ΔtB - ändern und so das Bild des leuchtenden Flächenelementes FELj mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach auf der Strecke BSOj durch den Objektraum verschoben werden. Außerdem wird eine zumindest näherungsweise geradlinige, relative Verschiebung des Empfänger-Arrays zum Ab­ bildungsobjektiv und parallel zur optischen Achse des Abbildungsobjektivs durchgeführt, wobei die For­ mulierung "relativ" bedeutet, daß auch die Position des Empfänger-Arrays ortsfest sein kann und sich in diesem Fall zumindest Komponenten des Abbildungsobjektivs bewegen. Bei der Verschiebung können mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen werden und so je ein Signalverlauf mittels eines einzelnen Empfängerelementes gebildet werden, wobei der Ort je ei­ nes Elementes des Empfänger-Arrays zumindest näherungsweise kontinuierlich ändert. Die geradlinige relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv parallel zur optischen Achse des Abbildungsobjektivs wird vorzugsweise so durchgeführt, daß je ein Bild eines Elementes des Empfänger- Arrays mit dem Bild eines leuchtenden Flächenelementes FELj mit einer zumindest näherungsweise vor­ herbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb des Zei­ tintervalls Δti im Objektraum zur Koinzidenz gebracht ist und so ein Paar von Bildern erzeugt wird, wel­ ches und nach durch den Objektraum geschoben wird.Dabei fallen vorzugsweise Schärfevolumina von Bildern der leuchtenden Flächenelemente mit Flä­ chenelementen der Objektoberfläche mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitin­ tervalls ΔtB zusammen und die Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzi­ denz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße. Der Zeitbereich ΔtB kann dabei größer als das Zeitintervall Δti gemacht sein und so wird mindestens ein Zeitintervall Δti im Zeitbereich ΔtB zeitlich eingepaßt.Hier wird der Fall mit einem bewegten Empfänger-Array dargestellt. Dieser ist ein sehr relevanter Fall, da so auch Objekte mit vergleichsweise großer Tiefenausdehnung vermessen werden können. Außerdem sind einseitig telezentrische Systeme mit einem geringen Bauvolumen in der Regel nicht extrem lichtstark, so daß für das Erreichen einer hinreichend schmalen Einhüllenden, um die Ordnung eines Streifens identifizieren zu können, beide Systeme hohe relative Öffnungen aufweisen sollten.Dabei ist die Lage des Abbildungsstrahls ABSO als Gerade durch den Ort des photometrischen Schwer­ punktes eines Elementes des Empfänger-Arrays und einen optisch konjugierten Ort des effektiven Zen­ trums der Öffnungsblende des Abbildungsobjektivs bestimmt.Auch ein beleuchteter Spalt kann als leuchtendes Array - im Sinne einer leuchtenden Struktur - eingesetzt werden. So fällt je ein Bild eines vorbestimmten beleuchteten Flächenelementes, z. B. ein Spaltbild, stets mit dem Bild eines vorbestimmten Elementes des Empfänger-Arrays zusammen und bildet so ein Bild­ paar. Durch die zumindest um einen kleinen Abstand getrennten Pupillen des Beleuchtungs- und des Abbildungsobjektivs besteht ein Triangulationswinkel zwischen dem Hauptbeleuchtungsstrahl und dem Hauptabbildunggstrahl, so daß das Element des Empfänger-Arrays nur dann das leuchtende Flächenele­ ment detektieren kann, wenn auch noch ein Element der Objektoberfläche mit dem Bildpaar koinzidiert, also auch das Element der Objektoberfläche mit dem Schärfevolumen des Bildes des leuchtenden Flä­ chenelementes zusammenfällt. Dann detektiert das Element des Empfänger-Arrays das Lichtspaltbild. Weit außerhalb des Schärfevolumen werden nur die undurchlässigen Bereiche der Maske detektiert. Da­ zwischen besteht jedoch ein Übergangsbereich. Die Signalwerte von den Elementen des Empfänger- Arrays, die innerhalb eines Zeitintervalls ΔtB zu einem Bildpaar gehört haben, bilden einen Signalverlauf mit einem Maximum, der dem von konfokalen Meßanordnungen entspricht. Der Abstand zwischen den Pupillen des Beleuchtungs- und des Abbildungsobjektivs kann dabei beispielsweise im Minimum nur ein Achtel der Ausdehnung der Pupille des Beleuchtungsobjektivs betragen. Dementsprechend ist die Tie­ fenempfindlichkeit auch nur sehr gering. Andererseits kann der Abstand zwischen den Pupillen des Be­ leuchtungs- und des Abbildungsobjektivs im Objektraum dabei beispielsweise das Bfache der mittleren Ausdehnung der Pupille des Beleuchtungsobjektivs betragen. Dementsprechend ist das Tiefenauflö­ sungsvermögen hier etwa um zwei Größenordnungen gegenüber dem vorherigen Beispiel vergrößert.Dieses Verfahren ist auch für die Anwendung von vollflächigen, strukturiert leuchtenden Arrays und Emp­ fänger-Arrays geeignet. So kann auch ein bewegtes, beleuchtetes Transmissionsgitter als strukturiert leuchtendes Array eingesetzt werden. Die detektierbaren Signale entsprechen in ihrer Charakteristik in diesem Fall denen der Kurzkohärenz-Interferometrie.Bei mehreren teildurchlässigen Objektoberflächen in Richtung der Hauptachse des Abbildungsstrahls mit einer jeweils geringen Lichtstreuung bringt jede Objektoberfläche ein eigenes relatives Extremum im Si­ gnalverlauf.Die permanente Koinzidenz vom Bild eines leuchtenden Flächenelementes FELj mit dem Bild eines Empfängerelemente im Objektraum kann, muß aber nicht bestehen. Im Fall der permanenten Koinzidenz bewegt sich das Bild eines leuchtenden Flächenelementes stets direkt auf einer Strecke auf dem Abbil­ dungsstrahl.Das leuchtende Flächenelement FELj in einer Leuchtdichteverteilung mit einer zumindest näherungswei­ se vorherbestimmt gleichbleibenden, relativen Leuchtdichte mit einem vorbestimmten Wellenlängenspek­ trum kann monochromatisches, quasi-monochromatisches oder polychromatisches Licht im sichtbaren oder im unsichtbaren Spektralbereich aussenden.Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL an einen anderen Ort kann mit mechanischen Mitteln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elek­ tronisch gesteuerte Verschiebung möglich.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der Detektion von Licht in einem Zeitbereich ΔtB zumindest näherungsweise an je einem eigenen Ort OABj im strukturiert leuchtenden Array relativ zum Beleuchtungsobjektiv angeordnet und durch Ansteuerung zum Leuchten gebracht werden und durch das Beleuchtungsobjektiv abgebildet wird und dieses leuchtende Flä­ chenelement FELj zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf einen vorher­ bestimmten Ort im Objektraum OOBj abgebildet wird. Dieser Bildort OOBj eines jeweils leuchtenden Flä­ chenelementes FEL wird im Objektraum durch eine Ansteuerung verändert, indem ein jeweils anderes, vorbestimmtes Flächenelement angesteuert und zum Leuchten gebracht wird, so daß das Bild je eines leuchtenden Flächenelementes FELj auf einer steuerbaren Bahnkurve, strukturiert aus Abstandsinkre­ menten AIO der Bilder der Abstände AIA der leuchtenden Flächenelementes FEL im Array-Raum, durch den Objektraum geschoben wird - im Sinne des gesteuerten Einnehmens vorherbestimmter, unterschied­ licher Positionen. In jeder Position nach der Verschiebung - um mindestens ein ganzzahliges Vielfaches n, einschließlich n = 1, des Abstandsinkrementes AIO - wird mindestens ein Signalwert aus einem Empfän­ gerelement detektiert und ausgelesen und so wird aus mehreren Vorgängen des Detektierens und Ausle­ sens von Elementen des Empfänger-Arrays ein Signalverlauf gebildet. So wird der Ort des detektierten und ausgelesenen Elementes des Empfänger-Arrays kontinuierlich verändert. Die Orte der detektierten und ausgelesenen Elemente des Empfänger-Arrays liegen an Orten OAAj im Empfänger-Array und das Bild dieses Ortes OAAj, der Bildort OOAj, ist mit dem vorherbestimmten Bildort OOBj des leuchtenden Flä­ chenelementes FELj im Objektraum optisch konjugiert. So ist je ein Bild eines detektierten und ausgele­ senen Elementes des Empfänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenelementes FELj zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti im Objektraum zur Koinzidenz gebracht und so wird je ein Paar von Bildern mit wechselnden Bildern erzeugt, welches und nach verschiedene Positionen im Objektraum einnimmt. Der Objektraum wird so in der Tiefe nach und nach durch derartige Paare durchsetzt. Dabei fallen Schärfevolumina des Bildes je eines leuchtenden Flächenelementes FELj mit je einem Flächenelement der Objektoberfläche mindestens einmal im Zeitbereich ΔtB in einem Zeitin­ tervall ΔtB zusammen und die detektierten und die ausgelesenen Elemente des Empfänger-Arrays weisen im Zeitintervall Δti der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Si­ gnalgröße auf, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zeitintervall Δti in den Zeitbereich ΔtB zeitlich eingepaßt wird.Dieses Verfahren kann auch ohne jede Bewegung eines Arrays realisiert werden, also vollständig elek­ tronisch. Das strukturiert leuchtende Array und das Empfänger-Array können in sich starre, vorzugsweise dreidimensionale Strukturen darstellen, beispielsweise kann das leuchtende Array Luminiszenzdioden oder vertikal abstrahlende Laserdioden in einer 3D-Anordnung aufweisen. Diese können vorzugsweise in einer Kompaktanordnung und starr miteinander gekoppelt sein. Nach und nach werden einzelne Flä­ chenelemente elektronisch angesteuert und zum Leuchten gebracht.Dabei kann auch ein beleuchteter Mikrospiegel eines zweidimensionalen oder dreidimensionalen Direct Mirror Device DMD oder ein beleuchtetes LCD-Element oder ein vertikal abstrahlendes Mikro- Laserelement oder eine Mikro-Luminiszenzdiode in der dreidimensionalen Struktur zur Anwendung kom­ men. Durch die Ansteuerung von vorherbestimmten, leuchtenden Flächenelementen und das Auslesen von Elementen eines Empfänger-Arrays, wobei deren Bilder im Objektraum ein Bildpaar darstellen, wird genau dann ein Extremum im Signalwert eines Elementes des Empfänger-Arrays gewonnen, wenn das Bildpaar mit einem Element der Objektoberfläche zumindest näherungsweise koinzidiert. Das ist der Fall, wenn das Schärfevolumen des Bildes des leuchtenden Flächenelementes das Element der Objektoberflä­ che durchsetzt.Das Verfahren kann auch als optoelektronische Abfrage des Vorhandenseins von Elementen einer Objekt­ oberfläche verstanden werden. Besonders gut möglich ist damit die Anwesenheitskontrolle von Bauele­ menten in einer komplexen, dreidimensionalen Struktur mit einer vergleichsweise großen Tiefenausdeh­ nung.Ein leuchtendes Flächenelement repräsentiert durch seine feste Position im Verbund des strukturiert leuchtenden Arrays und durch die Parameter seiner Abbildung in den Objektraum stets ein kleines Volu­ menelement. Durch das Auslesen genau des Elementes eines Empfänger-Arrays, welches im Objektraum ein Bild besitzt, welches zumindest mit dem Bild des leuchtenden Flächenelementes optisch konjugiert ist, erfolgt eine Abfrage des Vorhandenseins eines Elementes der Objektoberfläche in diesem Volumenele­ ment. Es kann hier durch eine Triggerschwelle eine ja/nein-Entscheidung getroffen werden. Dies ist bei Oberflächen ohne Textur ein gangbarer und schneller Weg. Besser ist es für die Genauigkeit der Orts­ bestimmung des jeweiligen Elementes der Objektoberfläche, mehrere Elemente des Empfänger-Arrays auszulesen und aus dem gebildeten Signalverlauf den Ort des relativen Extremums oder den Schwer­ punkt des Signalverlaufes zu bestimmen. Aus diesem kann bei Kenntnis der Geometrie der optischen An­ ordnung der Ort eines Elementes der Objektoberfläche bestimmt werden.Dabei kann der Wert der relativen Leuchtdichte eines leuchtenden Flächenelementes vorzugsweise nur zwei Werte annehmen, ein Minimum und ein Maximum, gleichbedeutend mit dem logischen 0 und L. Je­ doch kann wegen der Anpassung an den Reflexionsgrad des Elementes der Objektoberfläche, beispiels­ weise als Ergebnis einer zuvor durchgeführten Überblicksmessung, und der Berücksichtigung der Entfer­ nung des Elementes der Objektoberfläche vom Beleuchtungsobjektiv eine Veränderung des absoluten Wertes der Leuchtdichte vorgenommen werden.Weiterhin bilden die Abstandsinkremente, die zu den Bildern der leuchtenden Flächenelemente FELj ge­ hören, im Objektraum vorzugsweise Strecken auf einer Geraden, die zu einem Streckenbündel SB1 mit einem Konvergenzzentrum K1 gehören, vorzugsweise mit dem Konvergenzzentrum K1 in der Brennebene des Beleuchtungsobjektivs. So ist die Eindeutigkeit der Signalgewinnung gegeben, da sich die Strecken des Streckenbündels SB1 im Objektraum nicht überkreuzen.Bei Anwendung einer nachgeschalteten Abbildungsstufe im Beleuchtungsstrahlengang kann das Konver­ genzzentrum des Streckenbündels auch im Unendlichen liegen. Dies entspricht dem telezentrischen Fall. Vorteilhaft ist, wenn das Konvergenzzentrum in der Pupille eines Abbildungsobjektivs für die Aufnahme der Objektoberfläche liegt.Bei a priori-Kenntnissen über die Objektoberfläche können aus Abstandsinkrementen auch einzelne Bahnkurven oder Teilstrecken zusammengesetzt werden. So wird durch die Ansteuerung verschiedener leuchtender Flächenelemente FEL reale Verschiebung eines leuchtenden Flächenelemente FELj nach­ gebildet. Grundsätzlich kann das leuchtende Array sogar in seiner mechanischen Gestaltung ein verklei­ nertes 3D-Flächen-Modell der zu untersuchenden Objektoberfläche oder der prüftechnisch relevanten Be­ reiche derselben darstellen und die einzelnen leuchtenden Flächenelemente werden gleichzeitig oder nacheinander auf die Objektoberfläche abgebildet. Analog gilt dies auch für die Struktur des Empfänger- Arrays. Auch dieses kann eine objektangepaßte 3D-Struktur aufweisen. Universeller sind durch die Mög­ lichkeiten der Steuerung jedoch strukturiert leuchtende Arrays mit lateral äquidistanten Abständen der leuchtenden Flächenelemente FEL Empfänger-Arrays mit lateral äquidistanten Abständen der Elemente des Empfänger-Arrays in einer Fläche. Sowohl das leuchtende Array als auch das Empfänger-Array kön­ nen in der Tiefe mehrere aktive Flächen mit leuchtenden Elementen, beziehungsweise empfangenden, Elementen aufweisen, so daß die Erfassung von dreidimensionalen Objektoberflächen vergleichsweise großer Tiefe ohne jede mechanische Verschiebung möglich ist. So können mit diesen rechnergesteuerten leuchtenden Arrays und Empfänger-Arrays auch in einem definierten Meßvolumen völlig unbekannte Ob­ jektoberflächen erfaßt werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht die leuchtenden Flächenelemente FEL je einer eigenen Verschiebungsstrecke VSBAj relativ zum Beleuchtungsobjektiv verschoben werden.Die leuchtenden Flächenelemente FEL weisen dabei in einer Leuchtdichteverteilung vorzugsweise eine zumindest näherungsweise vorherbestimmt gleichbleibende, relative Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb eines Zeitintervalls Δti auf. Weiterhin werden die leuchtenden Flächenelemente FEL auf einer B-Strecke BSAj positioniert, wobei die B-Strecke BSAj die Sollorte für die leuchtenden Flä­ chenelemente FEL zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti darstellen.Die Bilder dieser B-Strecken BSAj sind im Objektraum durch Abbildung mit mindestens einem Beleuch­ tungsobjektiv vorzugsweise stets zu einem Streckenbüschel SB1 mit einem Konvergenzpunkt K1 geformt. Dabei ist der Konvergenzpunkt K1, mindestens in einem Abstand dK1 min von der optischen Achse des Be­ leuchtungsobjektivs vom 16ten Teil. Dementsprechend ist die Tiefenempfindlichkeit auch nur sehr gering. Maximal beträgt der Abstand dK1 max das 16fache des Abstandes d des Pupillenzentrums PZOB des Be­ leuchtungsobjektivs vom Pupillenzentrum des am weitesten entfernten Abbildungsobjektivs. Zumindest in einem Zeitbereich ΔtB während des Verschiebungsvorganges der leuchtenden Flächenelemente auf Ver­ schiebungsstrecken VSBAj werden jeweils genau ein Bild von einem Empfängerelement und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest zu einem einzigen Zeit­ punkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert.So wird vorzugsweise zumindest zu diesem Zeitpunkt ti aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare erzeugt und diese derartigen Paare werden durch den Objektraum geschoben. Dabei fallen Schärfevolumina von Bildern der leuchtenden Flächenelemente FELj mit Flächenelementen der Objektoberfläche mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitintervalls ΔtB zusammen. Am Ort dieser Paare ist im Schwerpunkt des aktuellen Schnittvolu­ mens des Schärfevolumens der beiden Bilder so zu diesem Zeitpunkt ti ein aktueller Koinzidenzpunkt Koj i gebildet, der durch den Objektraum geschoben wird. Dabei kann der aktuelle Koinzidenzpunkt Koj i mit konstanter Geschwindigkeit, aber auch sprunghaft verschoben werden.Die Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzidenz vorzugsweise einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zeitintervall Δti im Zeitbereich ΔtB zeitlich ein­ gepaßt wird. So werden die leuchtenden Flächenelemente FELj des strukturiert leuchtenden Arrays und die Elemente des Empfänger-Arrays jeweils zumindest zu einem Zeitpunkt ti innerhalb eines Zeitintervalls Δti, also stets zur gleichen Zeit, im Objektraum aufeinander abgebildet.Bei der Verschiebung werden die Positionen der leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays und die Positionen der Elemente des Empfänger-Arrays stets nach der Newtonschen Abbildungsgleichung aus der Lage des Beleuchtungsobjektivs und der Lage des Abbildungsobjektivs in der 3D-Aufnahme-Anordnung und der Brennweite fB des Beleuchtungsobjektivs und der Brennweite fA des Abbildungsobjektivs bestimmt und realisiert. So werden im Objektraum sowohl die leuchtenden Flä­ chenelemente FEL des strukturiert leuchtenden Arrays als auch die Elemente des Empfänger-Arrays zu­ mindest näherungsweise in einem Teil des Objektraumes in die gleiche Ebene abgebildet.Typisch für dieses Verfahren ist vorzugsweise der Abstand dk1 = d. Es kann ein einmaliger oder mehrma­ liger Durchgang durch oder auch ständiger Aufenthalt eines leuchtenden Flächenelementes FELj auf ei­ ner B-Strecke BSAj erfolgen. Vorteilhaft ist hier die Verwendung eines vollflächigen und mechanisch be­ wegten, strukturiert leuchtenden Arrays. Dabei kann das Empfänger-Array auch fest angeordnet sein.Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL einen anderen Ort kann mit mechanischen Mitteln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elektronisch gesteuert Verschiebung möglich.A-priori-Kenntnisse über Lage der Objektoberfläche sind nicht notwendig, wenn eine große Anzahl von Zeitintervallen Δti nacheinander durchfahren wird. Deshalb ist dieses Verfahren für völlig unbekannte Ob­ jektlagen und Objektformen sehr geeignet. Bei a-priori-Kenntnissen über die Lage der Objektoberfläche und deren Tiefenausdehnung kann der Zeitbereich ΔtB - zumindest bei Objekten mit einer geringen Tie­ fenausdehnung - in der Regel kleiner gemacht werden, im Vergleich zu einer Situation mit einer völlig un­ bekannten Szene. Die Verschiebungsstrecken VSBAj stellen die Ist-Strecken, also die Ist-Orte oder die Ist- Positionen der photometrischen Schwerpunkte der leuchtenden Flächenelemente FELj 3A dar und die B- Strecken BSAj stellen die Soll-Orte dar, die zumindest zum Zeitpunkt ti des Zeitintervalls Δti eingenommen sein sollten. Nur zum Zeitpunkt der Detektion, d. h. nur zu einem Zeitpunkt ti im Bereich des Zeitintervalls Δti müssen die Ist- und Soll-Orte übereinstimmen und die Verschiebungsstrecken VSBAj sich mit den B- Strecken BSAj schneiden. Natürlich können die Verschiebungsstrecken VSBAj-Strecken mit den B- Strecken BSAj auch permanent im gesamten Verschiebungsvorgang zusammenfallen.Der Konvergenzpunkt K1 der Bilder der B-Strecken BSAj kann mindestens in einem Abstand dK1 min von der optischen Achse des Beleuchtungsobjektivs vom 16ten Teil des Abstandes d des Pupillenzentrums PZOB des Beleuchtungsobjektivs vom Pupillenzentrum PZO des Abbildungsobjektivs positioniert werden. Dieser kleine Abstand ist für strahlteilergekoppelte Strahlengänge für schnelle Messungen mit vergleichsweise geringer Tiefenauflösung sehr geeignet.Der maximale Abstand dK1 max kann das 16fache des Abstandes d des Pupillenzentrums PZOB des Be­ leuchtungsobjektivs vom Pupillenzentrum PZOA des Abbildungsobjektivs betragen. Dieser ist typisch für 3D-Aufnahme mit einer höheren Geschwindigkeit, beispielsweise mit kontinuierlich rotierenden Gittern. In diesem Fall erfolgt die Bestimmung der Phasenverschiebung ϕ auf der Basis eines Trägerfrequenzverfah­ rens zu einer von der Bewegung des strukturiert leuchtenden Arrays direkt abgeleiteten Trägerfrequenz im Sinne einer Referenzfrequenz. Dieses Verfahren ist auch geeignet, um Streifen im Objektraum auf­ grund der hohen Geschwindigkeit für Beobachter unsichtbar werden zu lassen. Bei einem begrenztem Szenenvolumen kann das durch die höhere Geschwindigkeit vergleichsweise geringere Einschaltverhält­ nis der Empfängerelemente akzeptiert werden.Vorzugsweise wird der Wert dk1 = d realisiert. In diesem Fall entspricht die im Signalverlauf auftretende Phasenveränderung der Ablage der detektierten Elemente der Objektoberfläche von einer vorbestimmten Position. Verfahrenstechnisch bringt ein größeres dk1 als d deshalb keinen Vorteil, da dieser für die Aus­ wertung sehr wichtige quantitative Zusammenhang verloren gehen kann. Außerdem muß im Fall mit ei­ nem größeren dk1 - bei der Bewegung der leuchtenden Flächenelemente FEL mit der gleicher Geschwin­ digkeit in z-Richtung wie für den Fall dk1 = d - die Kamera besonders schnell ausgelesen werden muß. Für sehr viele größere Werte für dK1 als d weist dieses Verfahren die Merkmale eines Trägerfrequenzverfah­ rens auf.Das dargestellte Verfahrensmerkmal ist auch sehr geeignet für die Aufnahme mit zwei zentralperspektivi­ schen Objektiven sein. Auch können die Hauptebenen derselben koinzidieren. Dabei ist das Empfänger- Array vorzugsweise feststehend. Hierbei wird davon ausgegangen, daß leuchtende Flächenelemente FEL der strukturierten leuchtenden Fläche mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte sich nicht wirklich auf einer B-Strecke BSAj bewegen müssen, sondern die Verschiebungs­ strecken VSBAj der leuchtenden Flächenelemente FEL schneiden nur zu einem Zeitpunkt ti, also kurzzei­ tig die B-Strecken BSAj, wobei vor und nach diesem Zeitpunkt ti die Elemente des Empfänger-Arrays be­ reits Licht detektieren, so daß sich leuchtende Flächenelemente FEL nur kurzzeitig auf den B-Strecken BSAj befinden.Ein zumindest näherungsweise kontinuierliches Verschieben bedeutet, eine Kurve oder eine Treppen­ funktion um eine Strecke oder Gerade als mittlere Lage zu erzeugen. Das Verschieben von Orten kon­ stanter, relativer Leuchtdichte einer Leuchtdichteverteilung bedeutet hier, daß vorzugsweise genau die Orte verschoben werden, die eine bestimmte gleichbleibende relative Leuchtdichte aufweisen, beispiels­ weise von 70%. Diese Orte mit einer relativen Leuchtdichte von 70% werden vorzugsweise entlang einer Strecke verschoben und die Leuchtdichte bleibt dabei stets 70%, bezogen auf das gesamte leuchtende Array oder einen Teilbereich desselben.Aus dem Signalverlauf kann auch die mittlere Objektpunkthelligkeit und die Farbinformation bei Verwen­ dung einer Farbkamera gewonnen werden. Dabei kann die Objektoberfläche mit weißem Licht oder mit farbigem Licht beleuchtet werden.Es ist weiterhin möglich, durch eine Verschiebung des Objektes oder eine schwingende Bewegung eine Mittelwertbildung über einen beliebigen Oberflächenbereich durchzuführen und so einen Anfangsphasen­ wert in jedem Element des Empfänger-Arrays zu bestimmen.Weiterhin wird vorzugsweise ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vor­ geschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchten­ des Flächenelement FELj auf je einer B-Strecke BSAj positioniert wird. Die B-Strecken BSAj werden dabei auf das Pupillenzentrum PZOA des Abbildungsobjektivs im Array-Raum gerichtet, so daß der Konvergenz­ punkt K1 zumindest annähernd im Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum positio­ niert ist. Weiterhin ist der Konvergenzpunkt K1 auch in der Pupillenebene des Beleuchtungsobjektivs posi­ tioniert und so werden während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerele­ ment und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest nähe­ rungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert.So kann aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet werden und so im Objektraum derarti­ ge Paare von Bildern erzeugt werden und während des Verschiebungsvorganges der leuchtenden Flä­ chenelemente FELjeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchten­ den Flächenelement FELj im Objektraum einmal zumindest näherungsweise zur Koinzidenz gebracht werden.Hierbei ist der Fall mit zwei zentralperspektivischen Objektiven mit koinzidierenden Hauptebenen einge­ schlossen. Dabei kann das Empfänger-Array feststehend und so eingestellt sein, daß der "durchlaufende" Schärfebereich oder die Schärfeebene, des Beleuchtungsobjektivs zumindest einmal mit der Schärfeebe­ ne des Abbildungsobjektivs zusammenfällt. Dagegen ist es von Vorteil, wenn die "durchlaufende" Schär­ feebene des Beleuchtungsobjektivs stets im durch starke Abblendung vergleichsweise groß gemachten Tiefenschärfebereich des Abbildungsobjektivs verbleibt. Hierbei wird davon ausgegangen, daß die leuch­ tenden Flächenelemente FEL der strukturierten leuchtenden Fläche mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte sich wirklich auf einer B-Strecke bewegen, wobei diese B- Strecke, wie alle B-Strecken in diesem Fall, auf das Pupillenzentrum PZOA im Array-Raum zielt.Dieser Ansatz ist beispielsweise realisierbar mit elektronischen Gittern mit einer sehr hohen Pixelzahl, beispielsweise von mindestens einer Million Pixeln. Elektronische Gitter können im Verschiebungsvorgang kontinuierlich gedehnt oder gestaucht werden, um die Bedingung der Konvergenz des Streckenbündels zu erfüllen. Im Ergebnis kann das Bild jedes leuchtenden Flächenelementes FELj zumindest näherungs­ weise mit einem Bild eines Empfängerelementes zur Koinzidenz gebracht werden, so daß ein aktueller Koinzidenzpunkt gebildet wird, der sich durch den Objektraum bewegt.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchtendes Flächenele­ ment FEL zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf je einer B-Strecke BSAj positio­ niert wird. Dabei wird wobei der Konvergenzpunkt K1 zumindest annähernd in der Brennebene des Be­ leuchtungsobjektivs im Objektraum und zusätzlich im Pupillenzentrum PZOA der Pupille eines Abbildungs­ objektivs im Objektraum positioniert. Während des Verschiebungsvorganges werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FEL im Objek­ traum zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest nä­ herungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so zumindest zu diesem Zeitpunkt ti werden aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flä­ chenelementes FELjeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objek­ traum derartige Paare mit fester Zuordnung erzeugt. Während des Verschiebungsvorganges der leuch­ tenden Flächenelemente FEL werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum genau einmal zumindest näherungsweise zur Koinzidenz gebracht. Die B-Strecken BSAj werden dabei parallel einer zu Geraden gAP positioniert, wobei die Gerade gAP den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und der Brennweite fB des Beleuchtungsobjektivs aufweist, wo­ bei dieser Anstieg der Geraden gAP auf die Achse des Beleuchtungsobjektivs bezogen ist.Es können zwei zentralperspektivische Objektive mit zueinander geneigten Achsen eingesetzt werden. Das Empfänger-Array kann vorzugsweise feststehend und so eingestellt sein, daß die "durchlaufende" Schärfeebene des Beleuchtungsobjektivs zumindest einmal mit der Schärfeebene des Abbildungsobjek­ tivs in einem Schnitt, zusammenfällt. Wenn das Abbildungsobjektivs stark abgeblendet wird, kann der Tiefenbereich der 3D-Aufnahme vergleichsweise groß gemacht werden. Dieser Fall kann als ein Stan­ dardfall mit einem starren Gitter angesehen werden.Hierbei wird vorzugsweise davon ausgegangen, daß die leuchtenden Flächenelemente FEL von einem Starrkörpergitter sich nicht wirklich auf einer B-Strecke bewegen müssen. Es ist möglich, daß sich die Verschiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL bei einem starren, beleuchteten Gitter nur zu einem Zeitpunkt ti, also kurzzeitig, die B-Strecken BSAj, schneiden. Dabei detektieren die Elemente des Empfänger-Arrays vorzugsweise sowohl vor als auch nach diesem Zeitpunkt ti Licht. So be­ finden sich die leuchtende Flächenelemente FEL von Starrkörpergittern nur kurzzeitig auf den B-Strecke. Der Vorteil liegt darin, daß so für die mechanische Verschiebung der Starrkörpergitter ein kürzerer Stell­ weg realisiert werden kann. Dies dient der Erhöhung der Aufnahmegeschwindigkeit.Für elektronisch steuerbare Gitter hat die Einschränkung der Detektion auf einen Bereich innerhalb des Zeitintervalls Δti keine praktische Bedeutung, da diese "masselosen Gitter" stets so gesteuert werden können, daß im gesamten Intervall Δti der Detektion die Bedingung der Koinzidenz der Strecken VSBAj und BSAj ohne Probleme zu erfüllen ist. Damit kann grundsätzlich im Vergleich zu starren Gittern ohne die Realisierung der Koinzidenz der Strecken VSBAj und BSAj, eine höhere relative Integrationszeit erreicht werden. Dies setzt jedoch eine entsprechend hohe Dynamik der elektronischen Gitter voraus.Hierbei können grundsätzlich für die strukturierte Beleuchtung der Objektoberfläche ein arrayseitig tele­ zentrisches Objektiv und für die Abbildung derselben ein arrayseitig telezentrisches Objektiv eingesetzt werden.Um die Konvergenzbedingung zu erfüllen, kann in diesem Fall ein Starrkörper-Gitter verwendet werden, da durch die Lage des Konvergenzzentrums K1 keine Dehnung im Array notwendig ist. Z. B. kann, um Verschiebeweg für das Starrkörper-Gitter bei der Generierung von +270°-Phasenschritten für ein Sub- Nyquist-Verfahren zu sparen, ein beleuchtetes Liniengitter in x-Richtung mit entgegengesetztem Rich­ tungssinn verschoben werden, um dann -90°-Phasenschritte zu realisieren. Denn wie bereits ausgeführt, nur zum Zeitpunkt der Detektion von Licht muß die Bedingung der Position des Gitters erfüllt sein. Die kürzeren Verschiebungswege bringen, die hier im Beispiel nur ein Drittel betragen, eine höhere Dynamik.Dieses Verfahren kann besonders vorteilhaft für eine Zeile, bzw. für einen eingeschränkten Tiefenbereich eingesetzt werden. Der besondere Vorteil liegt in der einfachen Anordnung und im hohen Tiefenauflö­ sungsvermögen, aufgrund des vergleichsweise großen Triangulationswinkels von beispielsweise 30°.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Verschiebungsstrecken VSBAj und die B-Strecken BSAj im Verschiebungsvorgang zumindest näherungsweise im Zeitintervall Δtk koinzidieren, wobei das Zeitintervall Δtk zumindest die Län­ ge des Zeitintervalls Δti und maximal die Länge des Zeitbereiches ΔtB aufweist. Während des Verschie­ bungsvorganges werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FEL im Objektraum zumindest zeitweilig und zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so wird aus dem Bild von einem Empfän­ gerelement und dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein perma­ nentes Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare von Bildern er­ zeugt.Während des Verschiebungsvorganges im Zeitbereich ΔtB der leuchtenden Flächenelemente FEL werden vorzugsweise jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest näherungsweise einmal zur Koinzidenz gebracht, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δtk gemacht wird und das Zeitintervall Δtk in den Zeitbereich ΔtB eingepaßt ist und die leuchtenden Flächenelemente in einer gerasterten Struktur mit äquidistanten Abständen verschoben werden.Hierbei wird davon ausgegangen, daß die leuchtenden Flächenelemente FEL sich wirklich auf einer B- Strecke bewegen, und die Verschiebungsstrecken der leuchtenden Flächenelemente FEL mit den B- Strecken BSAi. Dies ist mit einem beleuchteten Liniengitter zu realisieren. Natürlich kann auch ein elektro­ nisches Gitter so angesteuert werden. Das Empfänger-Array kann dabei feststehen, so daß der Tiefen­ meßbereich begrenzt ist. Durch die Wahl einer kleinen Blende für das Abbildungsobjektiv sind sehr viele Meßaufgaben mit einem vergleichsweise großen Tiefenmeßbereich, bezogen auf den mittleren Abstand des Meßvolumens von der 3D-Aufnahmeanordnung, lösbar. Da für das Beleuchtungsobjektiv eine sehr große Blendenöffnung gewählt werden kann, wird die Szene gut strukturiert ausgeleuchtet, so daß das Umgebungslicht weitgehend für die 3D-Aufnahme unschädlich ist.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise durch die Steuerung der Dauer eines jeden Zeitintervalls Δti und durch die Steuerung der relativen Einschaltzeiten in Bezug zur Dauer eines jeden Zeitintervalls Δti der einzelnen leuchtenden Flächenelemente FEL, die über die Objektoberfläche jeweils ein Empfängerelement beleuchten und durch die Steuerung der Leuchtdichte der leuchtenden Flächenelemente, photometrisch der Fall der Verschie­ bung von leuchtenden Flächenelementen mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf B-Strecken BSAj nachgebildet wird. So werden vorzugsweise effektiv leuchtende Flä­ chenelemente FEL mit ihrem jeweiligen effektiven Schwerpunkt auf B-Strecken BSAj verschoben, wobei der Konvergenzpunkt K1 zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs und im Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum positioniert ist, und die B-Strecken BSAj auf das Pupillenzentrum PZOA des Abbildungsobjektivs im Array-Raum gerichtet sind.Es können zwei zentralperspektivische Objektive in einer Anordnung mit koinzidierenden Hauptebenen eingesetzt werden. Hierbei wird davon ausgegangen, daß die leuchtenden Flächenelemente FEL auf­ grund eines zu "groben" Rasters des strukturiert leuchtenden Arrays nicht genau genug auf einer B- Strecke bewegen können, sondern erst in der photometrischen Wirkung eine bessere Annäherung er­ reicht wird. So wird der Fall nachgebildet, daß sich zu einem Zeitpunkt die Verschiebungsstrecken der leuchtenden Flächenelemente FEL mit den B-Strecken BSAj schneiden. Für vergleichsweise kleine Meß­ volumina ist die kurze relative Detektionszeit kein Nachteil. Der besonders Vorteil besteht darin, daß ohne ein "dehnbares", strukturiert leuchtendes Array benutzen zu müssen, der Fall der Verschiebung auf den B-Strecken BSAj nachgebildet werden kann.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchtendes Flächenele­ ment FELj eines strukturiert leuchtenden Arrays mit äquidistanten Abständen der leuchtenden Flä­ chenelemente zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte aufje einer B-Strecke BSAj positioniert wird. Da­ bei wird der Konvergenzpunkt K1 mit dem Brennpunkt FOA mindestens eines Abbildungsobjektivs im Ob­ jektraum zumindest annähernd zur Koinzidenz gebracht. Zumindest annähernd wird dabei eine geradlini­ ge relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv parallel zur optischen Achse des Abbildungsobjektivs durchgeführt und bei der Verschiebung werden mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen und so wird je ein Signalverlauf mittels einem ein­ zelnen Empfängerelement gebildet und bei Abbildung von mehrfach so erzeugten Verschiebungsstrecken ASAj von Elementen des Empfänger-Arrays mit dem Abbildungsobjektiv wird aus deren Bildern im Objek­ traum zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im Brennpunkt FOA des Abbildungsobjektivs gebildet. Die geradlinige Verschiebung des Empfänger-Arrays wird parallel zur optischen Achse des Abbildungsobjektivs so durchgeführt, so daß während des Ver­ schiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj zur Koinzidenz gebracht und verschoben werden und so aus dem Bild von je einem Element des Empfänger-Arrays und dem Bild je eines leuchtenden Flächenelementes FELj jeweils zumindest zu diesem Zeitpunkt ti ein Paar mit fester Zuordnung gebildet wird und so im Objektraum Paare von Bildern erzeugt werden.Da jedes Element des Empfänger-Arrays die Gewinnung eines eigenen Signalverlaufs ermöglicht, ist die Möglichkeit der Parallelverarbeitung mit einem Parallelrechner-System für die einzelnen Elemente eines Empfänger-Arrays gegeben. Es besteht die Möglichkeit einer sehr hohen Verarbeitungsgeschwindigkeit.Weiterhin ist das Erreichen eines sehr großen Tiefenmeßbereiches bei der 3D-Aufnahme möglich, da das Empfänger-Array so nachgeführt wird, daß die Schärfeflächen im Objektraum gemäß der bekannten Ab­ bildungsgleichungen zumindest näherungsweise zusammenfallen, beispielsweise bei einer Anordnung mit parallelen Achsen der Objektive.Es können je ein Bild eines leuchtenden Flächenelementes und je ein Bild eines Empfängerelementes in der gesamten Tiefe des Raumes koinzidieren. Es muß jedoch keine permanente Koinzidenz zwischen dem Bild eines leuchtenden Flächenelementes und dem eines Empfängerelementes bestehen.Weiterhin kann auch das Abbildungsobjektiv relativ zum Empfänger-Array verschoben werden, beispiels­ weise auch durch eine Innenfokussierung desselben. Deshalb kann es sich hierbei auch um eine relative Verschiebung handeln. Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Element eines Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flä­ chenelement FELj im Objektraum zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj permanent zur Koinzidenz gebracht und verschoben werden. Die permanente Koinzidenz führt zu einem hohen relativen Detektionsverhältnis, beispielsweise von 90% bei 90°-Phasenschritten.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise der Konvergenzpunkt K1 des Streckenbüschels SB1 gemeinsam mit dem Konvergenz­ punkt K2 des Streckenbüschels SB2 im Objektraum sowohl mit dem Brennpunkt FOA als auch mit dem Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs zumindest annähernd zur Koinzidenz gebracht werden, wobei das Beleuchtungsobjektiv und das Abbildungsobjektiv jeweils arrayseitig zumindest nähe­ rungsweise telezentrisch ausgeführt sind. Die leuchtenden Flächenelemente FEL werden zumindest an­ nähernd parallel zu einer Geraden gA auf Verschiebungsstrecken VSBAj verschoben. Die Gerade gA durchstößt den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum. Für die Gerade gA ist der An­ stieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand d des Brennpunktes FAA des Abbildungsobjektivs von der Achse des Beleuchtungsobjektivs im Objektraum rea­ lisiert, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch­ tungsobjektivs bezogen ist und wegen der Telezentrie des Abbildungsobjektivs im Array-Raum in diesem Fall die Gerade gA mit der Geraden gAP koinzidiert.Dieses Verfahren ermöglicht die 3D-Aufnahme in einem sehr großen Tiefenmeßbereich, wobei eine An­ ordnung mit parallelen und zumindest näherungsweise baugleichen Objektiven mit Vorteil gewählt werden kann. Die detektierten Signale weisen bei einer Bewegung des strukturiert leuchtenden Arrays, beispiels­ weise eines Liniengitters mit äquidistanten Linienabständen, eine konstante Frequenz auf. Die Schärfeflä­ chen werden durch das synchrone Stellen des strukturiert leuchtenden Arrays und des Empfänger-Arrays zur Koinzidenz gebracht. Dabei ist ein starre Kopplung des strukturiert leuchtenden Arrays und des Emp­ fänger-Arrays von Vorteil.Um für eine gute Ausleuchtung des Objektes ein Abbildungsobjektiv mit einer hohen relativen Öffnung einsetzen zu können und dennoch eine große Tiefenausdehnung bei der 3D-Aufnahme erreichen zu kön­ nen, wird eine geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbil­ dungsobjektivs durchgeführt. Bei der Verschiebung werden nacheinander Signalwerte aus einzelnen, ne­ beneinander liegenden Elementen des Empfänger-Arrays ausgelesen. Aus diesen Signalwerten wird ein Signalverlauf gebildet. Dabei werden zur Bildung eines einzelnen Signalverlaufes jedoch nur Elemente ausgewählt aus deren Orten zumindest näherungsweise jeweils eine Strecke erzeugt werden kann, die im Zentrum der Austrittspupille des Abbildungsobjektivs im Objektraum konvergiert. Die Abbildung dieser Strecke mit dem Abbildungsobjektiv liefert ein Bild, welches zumindest annähernd zu einem zweiten Streckenbüschel mit einem Konvergenzpunkt K2 der Strecken im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs im Objektraum gehört. Dieses Verfahren führt zu einem Signal mit einer zuminde­ stens näherungsweise konstanter Frequenz beim Verschieben des Liniengitters mit konstanter Ge­ schwindigkeit in zA-Richtung.Bei Objekten mit vergleichsweise großen Abmessungen und mit einer großen Tiefenausdehnung ist für die technische Realisierung folgendes von Vorteil: Die strukturierte Beleuchtung erfolgt vorzugsweise mit einem im Array-Raum telezentrischen Beleuchtungsobjektiv und einem beleuchteten Liniengitter sowie die Abbildung mit einem im Array-Raum telezentrischen Abbildungsobjektiv. Für das Empfänger-Array wird eine geradlinige Verschiebung parallel zur optischen Achse des Abbildungsobjektivs durchgeführt. So wird für jedes Element des Empfänger-Arrays eine eigene Verschiebungsstrecke erzeugt. Bei Abbildung dieser Verschiebungsstrecken mit dem Abbildungsobjektiv entsteht aus den Bildern dieser Verschiebungsstrec­ ken ein zweites Streckenbüschel mit einem Konvergenzpunkt K2 der abgebildeten Strecken im Objek­ traum im Brennpunkt FOA des Abbildungsobjektivs. Weiterhin werden der Konvergenzpunkt K1 und der Brennpunkt FOA des Abbildungsobjektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht, so daß auch der Konvergenzpunkt K2 mit dem Konvergenzpunkt K1 zusammenfallen. Dabei wird der Kon­ vergenzpunkt K1 der Strecken im Objektraum so gebildet, indem die Orte bestimmter relativer Leuchtdich­ te des beleuchteten Liniengitters, beispielsweise die Maxima der Transmission des Liniengitters, auf Ver­ schiebungsstrecken zumindest annähernd parallel zu einer Geraden gA verschoben werden. Die Gerade gA durchstößt den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum, wobei für die Gerade gA der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand des Brennpunktes FAA des Abbildungsobjektivs von der Achse des Beleuchtungsobjektivs im Objektraum rea­ lisiert wird, und dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch­ tungsobjektivs bezogen ist. Da das Beleuchtungsobjektiv und das Abbildungsobjektiv vorzugsweise je­ weils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sind, fallen im Objektraum der Brenn­ punkt FOA und das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs zusammen. So werden auch der Konvergenzpunkt K1 und der Konvergenzpunkt K2 im zusammenfallenden Pupillenzentrum PZOA und Brennpunkt FOA des Abbildungsobjektivs zur Koinzidenz gebracht. Weiterhin ist wesentlich, daß während des gesamten Verschiebungsvorganges jeweils ein Bildelement eines Ortes bestimmter relativer Leucht­ dichte des beleuchteten Liniengitters und jeweils ein Bildelement eines Elementes des Empfänger-Arrays im Objektraum wenigstens näherungsweise zur Koinzidenz gebracht werden und so im Objektraum flä­ chendeckend feste Paare von einander unveränderlich zugeordneten Bildelementen erzeugt werden. Dies bedeutet, daß im Objektraum die Schärfeflächen des Beleuchtungs- und des Abbildungsobjektivs stets zumindest teilweise koinzidieren. In den Elementen des Empfänger-Arrays können bei diesem Verfahren periodische Signale mit einem Modulationsmaximum detektiert werden, aus denen die Information über die absolute Phase eines Objektpunktes im Zusammenhang mit der Anordnung gewonnen werden kann.Wenn das beleuchtete Liniengitter mit einer konstanten Geschwindigkeit bewegt wird, können bei der Aufnahme in den Elementen des strukturiert leuchtenden Arrays periodische Signale mit einer konstanten Frequenz gewonnen werden. Dies vereinfacht die Signalauswertung und kann deshalb zu einer erhebli­ chen Reduzierung der Rechenzeit führen.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise zumindest näherungsweise eine geradlinige Verschiebung des Empfänger-Arrays durchgeführt wird und bei der Verschiebung nacheinander Signalwerte aus einzelnen, auch nebeneinan­ der liegenden Elementen des Empfänger-Arrays ausgelesen werden und Signalverläufe auch durch ge­ wichtete Summierung der Signale einzelner Elemente des Empfänger-Arrays, so daß Signale von virtuel­ len Elementen gebildet werden. Zur Bildung eines einzelnen Signalverlaufes werden so Signalwerte von virtuellen Elementen des Empfänger-Arrays verwendet, wobei diese virtuellen Elemente des Empfänger- Arrays beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschie­ bungsstrecke ASAj im Array-Raum liegen, deren Verlängerung das Zentrum der Austrittspupille des Abbil­ dungsobjektivs schneidet. Bei Abbildung von mehrfach so erzeugten Strecken wird mit dem Abbildungsob­ jektiv aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel mit einem Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet und während des Verschiebungsvorganges der Elemente des Empfänger-Arrays werden diese mehrfach nacheinander ausgelesen.Innerhalb des Verschiebungsvorganges werden vorzugsweise jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zu­ mindest während eines Zeitintervalls Δti innerhalb des Verschiebungsvorganges zumindest näherungs­ weise zur Koinzidenz auf B-Strecken BSAj gebracht. So wird aus dem Bild von einem Empfängerelement und dem Bild von einem leuchtenden Flächenelement FELj, welches auch als ein aktueller Koinzidenz­ punkt angesehen werden kann, jeweils ein Paar mit fester Zuordnung gebildet und so werden im Objek­ traum derartige Paare erzeugt.Hier durch wird erreicht, daß bei Verwendung von Arrays mit großen Pixelzahlen ein effektiv leuchtendes Flächenelement und ein virtuelles Empfängerelement so gebildet werden, daß diese für die Dauer eines Zeitintervalls der Detektion von Licht von einem Element der Objektoberfläche im Objektraum koinzidie­ ren. Das ist die Nachbildung des Falles, daß bei einer Anordnung mit zwei zumindest näherungsweise baugleichen zentralperspektivischen Objektiven in paralleler Lage und mit koinzidierenden der Hauptebe­ nen sowohl ein reales, leuchtendes Flächenelement FELj als auch ein reales Empfängerelement auf ei­ ner Verschiebungsstrecke in Richtung des Pupillenzentrums des Abbildungsobjektivs bewegt werden. Dies ist ein kostengünstiger Fall für die optischen Komponenten, da Standardobjektive eingesetzt werden können.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Verschie­ bungsstrecken VSBAj durchgeführt werden und bei Abbildung der erzeugten, parallelen Verschiebungs­ strecken VSBAj mit dem Beleuchtungsobjektiv aus deren Bildern zumindest näherungsweise mindestens ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 im Objektraum im Brennpunkt FOB des Beleuch­ tungsobjektivs gebildet wird. Zusätzlich eine geradlinige Verschiebung des Empfänger-Arrays, die syn­ chronisiert mit den Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Verschie­ bungsstrecken VSBAj durchgeführt wird, werden während der Verschiebung nacheinander Signalwerte aus einzelnen, nebeneinander liegenden Elementen des Empfänger-Arrays ausgelesen. Aus diesen wer­ den Signalverläufe gebildet. Zur Bildung eines einzelnen Signalverlaufes werden nebeneinander liegende Elemente des Empfänger-Arrays ausgewählt, deren Orte beim Verschieben des Empfänger-Arrays zu­ mindest näherungsweise jeweils auf einer A-Strecke ASAj im Array-Raum liegen und die Verlängerung der A-Strecke ASAj jeweils auf das Pupillenzentrum PZAB des Beleuchtungsobjektivs im Array-Raum zielt. Bei Abbildung von mehrfach so erzeugten parallelen A-Strecken ASAj mit dem Abbildungsobjektiv wird aus de­ ren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konver­ genzpunkt K2 im Pupillenzentrum PZOB der Pupille des Beleuchtungsobjektivs gebildet. Die A-Strecken ASAj werden parallel zu einer Geraden gAA ausgerichtet und die Gerade gAA schneidet den Brennpunkt FAA des Abbildungsobjektivs im Array-Raum und weist den Anstieg mit dem Betrag aus dem Quotienten Ab­ stand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und der Brennweite fA des Abbildungsobjektivs auf, wobei dieser Anstieg der Ge­ raden gAA auf die Achse des Beleuchtungsobjektivs bezogen ist. Während des synchronisierten Verschie­ bungsvorganges der leuchtenden Flächenelemente FEL und der Elemente des Empfänger-Arrays werden die Elemente des Empfänger-Arrays mehrfach nacheinander ausgelesen. Jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Ob­ jektraum werden innerhalb des Verschiebungsvorganges zumindest während eines Zeitintervalls Δti in­ nerhalb des Verschiebungsvorganges zumindest näherungsweise zur Koinzidenz gebracht und so wird aus dem Bild von einem des Empfängerelement und dem Bildpunkt jeweils ein verschiebbares Paar mit fester Zuordnung gebildet und so werden im Objektraum verschiebbare Paare erzeugt.Dabei kann die Geraden gAA den Durchstoßpunkt einer zur Achse des Beleuchtungsobjektivs parallelen Geraden, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs im Objektraum enthält, durch die array-seitige Hauptebene des Beleuchtungsobjektiv schneiden.Dieser Ansatz stellt eine Möglichkeit für schnelle Überblicksmessungen ohne die Notwendigkeit der latera­ len Verschiebung eines beleuchteten Liniengitters dar. Sowohl das beleuchtete Liniengitter als auch das Empfänger-Array bewegen sich vorzugsweise synchron und parallel zu den parallelen Achsen der beiden Objektive. Dabei koinzidieren die Schärfeflächen des Beleuchtungs- und des Abbildungsstrahlenganges im Objektraum. Bei einem hochgeöffneten Abbildungsobjektiv ist die Verschmierung der Abbildung durch das laterale Bewegen der Abbildungsstrahlen über die Objektoberfläche für eine Überblicksmessung in der Regel zu tolerieren.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise eine absolute Phasendifferenz ΔϕGitter in einem Bildpunkt, welcher zu einem Objekt­ punkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objektpunkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswertung der Modu­ lation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz jeweils vorzeichenrichtig zur absoluten Referenzphase ϕR addiert wird, die sich aus der mindestens einmal experimentell vorbestimm­ ten Position der Referenzplatte zOR im Objektraum und bezogen auf das Beleuchtungsobjektiv und den Geometriedaten der optischen Anordnung errechnet. Dadurch ergibt sich im Ergebnis dieser Rechenope­ ration eine absolute Objektphase ϕObj für jeden Objektpunkt, die auf einen Referenzpunkt im Objektraum bezogen ist, wobei Informationen aus dem Signalverlauf des zugehörigen Referenzpunktes abgespeichert werden.Dabei kann die Position der Referenzplatte zOR im Objektraum vor der Messung der Objektoberfläche oder der Szenen zumindest im Nahbereich mehrfach gemessen werden und die gegebenenfalls ortsab­ hängige Zuordnung der jeweiligen Phasenlage des Signals zum Modulationsmaximum bestimmt werden. Dies stellt eine Möglichkeit dar, um Phasenkorrekturwerte zu gewinnen. Diese Veränderung der jeweiligen Phasenlage des Signals zum Modulationsmaximum resultiert beispielsweise aus den ortsabhängigen Verzeichnungen der Objektive. Dieser Phasengang wird in Abhängigkeit vom Ort bestimmt und für die rechnergestützte Korrektur tabelliert. Weitere Details hierzu wurden bereits im ersten Teil der Offenbarung dargestellt.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise eine absolute Phasendifferenz ΔϕGitter in einem Bildpunkt, welcher zu einem Objekt­ punkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objektpunkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswertung der Modu­ lation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz jeweils vorzeichenrichtig zur absoluten Referenzphase ϕR addiert wird, die sich aus der mindestens einmal experimentell vorbestimm­ ten Position der Referenzplatte zOR im Objektraum und bezogen auf das Beleuchtungsobjektiv und den Geometriedaten der optischen Anordnung errechnet, wodurch sich im Ergebnis dieser Rechenoperation eine absolute Objektphase ϕObj für jeden Objektpunkt ergibt, die auf einen Referenzpunkt im Objektraum bezogen ist,
und aus dem Signalverlauf des zugehörigen Referenzpunktes der absolute Referenzphasenwert berech­ net und als absoluter Referenzphasenwert abgespeichert wird.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase des strukturiert leuchtenden Arrays selbst so abgeleitet werden kann, daß die - aus dem beim Verschieben des strukturiert leuchtenden Ar­ rays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulationsmaximums errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase ϕR des verschobenen strukturiert leuchtenden Arrays zugeordnet werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase eines mitverschobenen Refe­ renzgitters so abgeleitet werden kann, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulationsmaximums errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase ϕR des mitverschobenen Referenzgitters zugeordnet werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase des strukturiert leuchtenden Arrays selbst so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Refe­ renzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des verschobenen strukturiert leuchtenden Arrays ϕR zugeordnet werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase eines mitverschobenen Refe­ renzgitters so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Re­ ferenzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π- Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des mitverschobenen Refe­ renzgitters ϕR zugeordnet werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise zusätzlich über den Beleuchtungsstrahlengang eine Bildaufnahme des Objektes oder der Szene mit einem zusätzlichen Empfänger-Array durchgeführt wird und die Bildelemente des zusätzli­ chen Empfänger-Arrays dabei jeweils eine geradlinige Verschiebung im Array-Raum erfahren.Die Realisierung einer zweiten Beobachtungsrichtung ermöglicht eine bessere Erfassung der Szene. So kann die Schattenbildung verringert werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise zusätzlich eine Beleuchtung des Objektes oder der Szene durchgeführt wird mit einem zusätzlichen, strukturiert leuchtenden Array mit leuchtenden Flächenelementen mit Extrema der Leucht­ dichte und diese Extrema dabei jeweils parallel zu einer Geraden gAP2, die spiegelsymmetrisch zur Gera­ den gAP ist, auf Verschiebungsstrecken im Array-Raum verschoben werden.Die Realisierung einer zweiten Beleuchtungsrichtung ermöglicht eine bessere Ausleuchtung der Szene und reduziert gegebenenfalls Schatten auf den Objektoberflächen.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die für das Auswerteverfahren benötigte Information über die absolute, lateral invarian­ te Objektphase durch optische Bestimmung der absoluten Phase ϕGitter direkt aus der Verschiebung des strukturiert leuchtenden Arrays durch optische Kopplung mit einer gerasterten Struktur als Gegengitter und einem Nullpunktgeber für die Berechnung der absoluten, lateral invarianten Objektphase abgeleitet wird.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die für das Auswerteverfahren benötigte Information über die absolute, lateral invarian­ te Objektphase durch optische Bestimmung der absoluten Phase ϕGitter direkt aus der Bewegung einer starr mit dem strukturiert beleuchteten Array gekoppelten Referenzstruktur abgeleitet wird. Dabei ist die­ ser ein Auswertesystem und ein Nullpunktgeber für die Berechnung der absoluten, lateral invarianten Objektphase zugeordnet.Der Referenzstruktur, beispielsweise am Umfang einer rotierenden Scheibe; ist vorzugsweise ein Auswer­ tesystem und ein Nullpunktgeber zugeordnet, um die Information der Referenzstruktur auswerten zu kön­ nen. So kann, von einem Nullpunkt beginnend, die absolute, lateral invarianten Objektphase bestimmt werden. Aber es kann auch allgemein in grundsätzlich beliebigen Einheiten, beispielsweise in einer Län­ geneinheit oder in der Form von Zählimpulsen, die Weginkremente verkörpern können, ein Referenzwert gewonnen werden, welcher ein Äquivalent für die absolute, lateral invariante Objektphase darstellt.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise das Auslesen der Elemente des Empfänger-Arrays bei veränderlichen Werten der Referenzphase mod 2π durchgeführt wird, also asynchron zur Referenzphase ϕGitter durchgeführt wird, wobei der jeweils aktuelle Triggerimpuls für das Detektieren von Licht der Elemente des Empfänger- Arrays im Zeitintervall Δti bei einer gegebenen präzisonsmechanisch-optischen Anordnung zur 3D- Aufnahme sich in Abhängigkeit von deren Geometrie der Anordnung sowie der Lage der Konvergenz­ punkte K1 und K2 und in Abhängigkeit vom aktuellen Wert der absoluten Referenzphase ϕGitter für jedes Element berechnet wird und in einer Phasenkorrekturwert-Tabelle vorliegt. So wird in jedem Element des Empfänger-Arrays ein Signalverlauf mit zumindest näherungsweise konstanter Ortsfrequenz erzeugt. Da­ bei erfolgt das Auslesen der Elemente des Empfänger-Arrays in aufeinanderfolgend zumindest annähernd gleichen Phasenschritten ΔϕEmpfänger der Phase ϕEmpfänger in jedem Element des Empfänger-Arrays und die im Verhältnis zur Phasenschrittweite ΔϕEmpfänger selbst kleineren Abweichungen ΔΔϕ zwischen der Refe­ renzphase und der in einem Element des Empfänger-Arrays sich ergebenden Phase ϕEmpfänger als von der Referenzphase ϕGitter abhängige Phasenkorrekturwerte ΔΔϕ werden mindestens einmalig für jedes Ele­ ment des Empfänger-Arrays errechnet. Diese von der Referenzphase ϕGitter abhängige Phasenkorrektur­ werte ΔΔϕ und liegen so in einer Phasenkorrekturwert-Tabelle vor und werden gespeichert. Die Phasen­ korrekturwerte ΔΔϕ werden sowohl für die Bestimmung des jeweiligen Abtastpunktes als auch bei der Be­ rechnung der absoluten Phase verwendet. Weiterhin werden Verschiebungen der leuchtenden Flä­ chenelemente FEL durchgeführt, wobei die Bilder der Verschiebungsstrecken VSBAj ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 bilden.Hierbei wird bei Kenntnis der Geometrie der Anordnung, der Lage der Konvergenzpunkte K1 und K2 und der Kenntnis der Lage der realen Verschiebungsstrecken der Zeitpunkt des Abtastintervalls Δti verscho­ ben, um zumindest annähernd ein Signal mit einer konstanten Frequenz zu erhalten, das sehr schnell ausgewertet werden kann.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise leuchtende Flächenelemente FEL - und so auch leuchtende Flächenelemente FEL mit lokalen Extrema der Leuchtdichte - im Array-Raum auf Verschiebungsstrecken VSBAj verschoben werden, die mit den B-Strecken BSAj koinzidieren, und die B-Strecken BSAj mittels einer zweistufigen Abbildungs­ stufe abgebildet werden. Gleichzeitig erfolgt die Detektion von Licht von den Elementen der Objektober­ flächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays. Diese werden ausgelesen und so wird jeweils ein Signalwert gewonnen und so wird jeweils ein leuchtendes Flä­ chenelement FELj auf je einer B-Strecke BSAj positioniert, und die Bilder dieser B-Strecken BSAj werden nach der ersten Abbildung mit einem Beleuchtungsobjektiv zu einem Streckenbüschel SB1 mit einem Konvergenzpunkt K1 geformt und ein zum Konvergenzpunkt K1 optisch konjugierter Punkt K1konj wird in den Objektraum in das Zentrum der Pupille PZOA des Abildungsstrahlenganges im Objektraum abgebildet. Während des Verschiebungsvorganges von strukturiert leuchtendem Array und Empfänger-Array werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtendes Flächenelement konstanter relativer Leuchtdichte der strukturierten, leuchtenden Fläche im Objektraum zumindest nähe­ rungsweise gemeinsam auf das Bild einer B-Strecke BSAj gebracht und so werden aus dem Bild von ei­ nem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj jeweils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt.Bei diesem Verfahren ist der telezentrische Fall für die Beleuchtung und die Abbildung im Objektraum ein­ geschlossen, d. h. die Pupille im Objektraum kann jeweils auch im Unendlichen liegen. Die Beobachtung kann mit einer Kamera von oben erfolgen. Vorteilhaft ist, daß nur das strukturiert leuchtende Array und das Empfänger-Array bewegt werden, nicht jedoch ein Objekt. Dieses Verfahren ist deshalb beispielswei­ se für das 3D-Aufnahmeverfahren bei chirurgischen Operationen geeignet, da der in sich bewegliche Pa­ tient und auch das schwere 3D-Aufnahmegerät in Ruhe verbleiben können. Weiterhin ist von Vorteil, daß bei einem telezentrischen Strahlengang die effektive Wellenlänge im gesamten Objektraum konstant ist.Die leuchtenden Flächenelemente FEL können sich hierbei ständig auf den B-Strecken BSAj befinden. Dabei sind keine Kenntnisse über die Lage und Form der Objektoberfläche notwendig, wenn ein großer Tiefenbereich im Objektraum gewählt wird. Bei A-priori-Kenntnissen über die Lage und Grobform der Ob­ jektoberfläche kann der Zeitbereich ΔtB bei flachen Objekten kleiner gemacht werden, wenn bekannt ist, wo sich die Objektoberfläche befindet und die an die Objektoberfläche angrenzende Tangentialebene zumindest näherungsweise senkrecht zur optischen Achse des Beleuchtungsobjektivs steht.Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse in Bezug zur Tangen­ tialebene der Objektoberfläche wählbar, so daß zum einen eine senkrechte Beobachtung und Schrägbe­ leuchtung möglich und andererseits eine senkrechte Beleuchtung und Schrägbeobachtung möglich sind.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die B-Strecken BSAj mittels eines afokalen Beleuchtungsstrahlenganges mit einem in­ neren Brennpunkt FBi abgebildet werden und die Objektoberflächen mit einem afokalen Abbildungsstrah­ lengang mit einem inneren Brennpunkt FAi abgebildet werden und im Objektraum der Brennpunkt des afo­ kalen Beleuchtungsstrahlenganges und des afokalen Abbildungsstrahlenganges zusammenfallen. Gleich­ zeitig erfolgt die Detektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitin­ tervalls Δti durch die Elemente des Empfänger-Arrays und diese werden ausgelesen und so wird jeweils ein Signalwert gewonnen. Der Konvergenzpunkt K1 wird in einem Abstand dK1 von der optischen Achse des Beleuchtungsobjektivs positioniert, wobei der Abstand dK1 dem halben Abstand vom inneren Brenn­ punkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brennebene Fi des Beleuchtungsstrahlenganges entspricht. Dabei sind das Beleuch­ tungsobjektiv und das Abbildungsobjektiv jeweils auf der nach außen gekehrten Seite der afokalen Abbil­ dungsstufen zumindest näherungsweise telezentrisch ausgeführt. So werden leuchtende Flächenelemen­ te FEL und so auch die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung mit lokalen Ex­ trema der Leuchtdichte zumindest annähernd parallel zu einer Geraden gA auf Verschiebungsstrecken VSBAj verschoben. Die Gerade gA durchstößt dabei den Brennpunkt FAB des Beleuchtungsobjektivs im Ar­ ray-Raum und für die Gerade gA ist der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Be­ leuchtungsobjektivs und Abstand dk1 realisiert, wobei der Anstieg auf die Hauptebene des Abbildungsob­ jektivs bezogen ist. Zumindest annähernd wird eine geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsobjektivs mit der gleichen Geschwindigkeit wie das leuchten­ de Array durchgeführt und bei der Verschiebung der beiden Arrays werden mehrfach nacheinander Signalwerte aus je einem einzelnen Element des Empfänger-Arrays ausgelesen. So wird je ein Signalver­ lauf aus einem einzelnen Element des Empfänger-Arrays gebildet und bei Abbildung mit einer Abbil­ dungsstufe von mehrfach so erzeugten Verschiebungsstrecken von Elementen wird aus deren Bildern im Raum nach der Abbildungsstufe zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im inneren Brennpunkt FAi des Abbildungsobjektivs gebildet. Während des Verschiebungsvorganges von einem strukturiert leuchtendem Array und einem Empfänger- Array werden vorzugsweise jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest näherungsweise gemeinsam auf dem Bild BSOj einer B-Strecke BSAj zur Koinzidenz gebracht und gemeinsam verschoben. So wird aus dem Bild von einem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj jeweils ein Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare von Bildern ver­ schoben.Dieses Verfahren stellt den telezentrische Fall für die Beleuchtung und die Abbildung im Objektraum dar, d. h. die Pupille im Objektraum liegt jeweils im Unendlichen. Die Beobachtung kann mit einer Kamera von oben erfolgen. Vorteilhaft ist, daß nur das strukturiert leuchtende Array und das Empfänger-Array bewegt werden müssen. Die leuchtenden Flächenelemente FEL befinden sich vorzugsweise ständig auf den B- Strecken BSAj. Dabei sind keine Kenntnisse über die Lage und die Form der Objektoberfläche notwendig. Bei A-priori-Kenntnissen über die Lage und Grobform der Objektoberfläche kann in der Regel der Zeitbe­ reich ΔtB bei flachen Objekten kleiner gemacht werden, wenn bekannt ist, wo sich die Objektoberfläche befindet.Der Abstand dK1 entspricht dem halben Abstand vom inneren Brennpunkt FBi der afokalen Abbildungsstu­ fe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brennebene Fi des Beleuchtungsstrahlenganges. Dies ist gleichbedeutend mit der Tatsache, daß der Konvergenzpunkt K1 im Durchstoßpunkt der Winkelhalbierenden der Achsen des Beleuchtungsstrahlenganges und des Abbil­ dungsstrahlenganges durch die innere Brennebene des Beleuchtungsstrahlenganges liegt.Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse in Bezug zur Tangen­ tialebene der Objektoberfläche wählbar, so daß zum einen eine senkrechte Beobachtung und Schrägbe­ leuchtung möglich und andererseits eine senkrechte Beleuchtung und Schrägbeobachtung möglich sind.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Elemente des Empfänger-Arrays im Aufnahmevorgang Licht von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren und die zwei Empfänger- Arrays, die zur Aufnahme der strukturiert beleuchteten Objektoberflächen in einer Szene im Objektraum verwendet werden, beim Aufnahmevorgang gleichzeitig im Array-Raum auf Verschiebungsstrecken ASA1 und ASA2 verschoben werden, die einen Winkel zueinander aufweisen.Dabei sind für die 3D-Aufnahme des Hintergrundes der Szene mindestens zwei Abbildungsstrahlengänge für die Abbildung der Objektoberflächen mit einem ersten Abbildungsobjektiv im ersten Abbildungsstrah­ lengang und einem zweiten Abbildungsobjektiv im zweiten Abbildungsstrahlengang angeordnet, wobei die Abbildungsobjektive räumlich getrennten Öffnungsblenden aufweisen und jedem Abbildungsobjektiv mit mindestens je einem Empfänger-Array mit Elementen oder einem Bild desselben zugeordnet ist. Die Brennebenen der Abbildungsstrahlengänge schneiden sich im Objektraum, wobei die Schnittgerade SG senkrecht auf der Symmetrielinie SL im Hauptschnitt steht, und die Bilder der Verschiebungsstrecken ASA1 und ASA2 die Strecken ASO1 und ASO1, annähernd auf der Symmetrielinie zwischen den beiden Ach­ sen der Objektive zur Konvergenz gebracht werden und dort in einem Koinzidenzpunkt K0 konvergieren.Im Konvergenzpunkt K0 werden das Streckenbüschel S21 der Bilder der Verschiebungsstrecken ASA1j der einzelnen Elementes des ersten Empfänger-Arrays, die Strecken ASO1j, mit dem Konvergenzpunkt K21 und das Streckenbüschel S22 der Bilder der Verschiebungsstrecken ASA2j der einzelnen Elementes des zweiten Empfänger-Arrays, der Strecken ASO2j, mit dem Konvergenzpunkt K22 zur Koinzidenz gebracht. Die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfän­ ger-Arrays werden im Objektraum für den Zeitbereich ΔtB paarweise zumindest näherungsweise zur Ko­ inzidenz gebracht und die paarbildenden Elemente der beiden Empfänger-Arrays stellen jeweils korre­ spondierende Elemente dar.Die Signalverläufe S1 des ersten Empfänger-Arrays werden durch Auslesen von je einem Element wäh­ rend der Verschiebung des ersten Empfänger-Arrays auf der Verschiebungsstrecke ASA1j gebildet und die Verschiebung des ersten Empfänger-Arrays wird parallel zu einer Geraden gA1P durchgeführt und so wer­ den die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA1P auf Verschiebungsstrecken ASA1j verschoben. Die Signalverläufe S2 des zweiten Empfänger-Arrays werden durch Auslesen von je einem Element während der Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke AS2j gebildet und die Verschiebung des zweiten Empfänger-Arrays erfolgt gleich­ zeitig mit der des ersten Empfänger-Arrays und die Verschiebung des zweiten Empfänger-Arrays wird parallel zu einer Geraden gA2P durchgeführt und so werden die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA2P auf Verschiebungsstrecken ASA2j verschoben. Die Gerade gA1P wird in einem Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 in der Hauptebene des Abbildungsobjektivs zum Schnitt gebracht, wobei zusätzlich die Gerade gA1P den Brennpunkt FA1 des ersten Abbildungsobjektivs enthält und die Ge­ rade gA2P den Brennpunkt FA2 des Abbildungsobjektivs im A 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880rray-Raum enthält. Dabei liegt der Punkt PA1 im Durchstoßpunkt einer Geraden durch die Hauptebene des ersten Abbildungsobjektivs im Array-Raum, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koinzidenzpunkt K0 enthält. Der Punkt PA2 liegt im Durchstoßpunkt einer Geraden durch die Hauptebene des zweiten Abbildungsobjektivs im Array-Raum, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koinzidenzpunkt K0 enthält.Bei Schärfeeinstellungen auf eine große Entfernung von der 3D-Aufnahmeanordnung, dies entspricht ei­ ner Positionierung der leuchtenden Flächenelemente FEL der strukturierten Beleuchtung in der Nähe der Brennebene des Beleuchtungsobjektivs im Array-Raum, beispielsweise auf den Hintergrund einer Szene, können die abgebildeten leuchtenden Flächenelemente FEL der strukturierten Beleuchtung nicht mehr detektiert werden. Die gegebene Beleuchtung und die strukturierte Beleuchtung, wenn diese noch einen detektierbaren Beitrag leistet, werden ohnehin vermischt. So kann die absoluten Phaseabs nicht mehr zu­ verlässig bestimmt werden. Hier kommt deshalb vorzugsweise dieses nachstehend Auswerteverfahren zur Anwendung.Aufgrund der natürlichen Strukturierung der teilweise strukturiert oder natürlich beleuchteten und auch selbstleuchtenden Objektoberfläche sind die in jedem Element des Empfänger-Arrays aufgenommenen Signalverläufe S1j und S2j mehr oder weniger moduliert. Aus der Auswertung dieser Modulation, die be­ sonders an den scharf abgebildeten Elementen der Objektoberfläche auftritt, soll die zO-Position des je­ weils zugehörigen Elementes der Objektoberfläche bestimmt werden.Die beiden Signalverläufe S1j und S2j von zwei korrespondierenden Elementen 1j und 2j der Empfänger- Arrays sind über dem Weg der Verschiebung der beiden Empfänger-Arrays im Speicher eines Rechners abgelegt. Dabei stellen genau die Elemente von zwei Empfänger-Arrays korrespondierende Elemente dar, deren Bilder im Objektraum in einem Schärfevolumen zumindestens zu einem Zeitpunkt koinzidieren. So bilden genau ein Element des ersten und ein Element des zweiten Empfänger-Arrays in einem gemein­ samen Schärfevolumen zumindestens zu einem Zeitpunkt ein Paar korrespondierender Elemente.Es werden nun aus jedem der beiden Signalverläufe S1j und S2j mittels einer Fensterfunktion mit minde­ stens einem einzigen Fenster, mit einer minimalen Fensterlänge entsprechend zwei Signalwerten und ei­ ner maximalen Fensterlänge, die zumindestens näherungsweise der Länge der Signalverläufe S1j und S2j entspricht, sich überdeckende Signalstücke S1 teil j und S2 teil j in jedem der beiden Signalverläufe S1j und S2j aus den Fenstern gebildet. Vorteilhaft sind Fensterlängen mit einer Länge von beispielsweise 8 oder 16 Signalwerte, andere, auch größere Werte sind möglich.Es erfolgt synchrone Verschieben dieser Fensterfunktion, um mindestens einen Signalwert, der einem In­ krement der Verschiebung der Empfänger-Arrays entspricht, über jeden dieser beiden Signalverläufe S1j und S2j und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, wird je ein Signalstück S1 teil Position k j und S2 teil Position k j gebildet.Dabei überdecken sich diese nacheinander gebildeten Signalstücke S1 teil j Position k j und S2 teil j Position k j in je­ dem der beiden Signalverläufe S1j und S2j in einem Teilbereich und wobei jeweils am gleichen Ende der beiden Signalverläufe S1j und S2j mit dem Verschieben der Fensterfunktion in beiden Signalstücken be­ gonnen wird.Anschließend wird, jeweils ausgehend von zwei Signalstücken in der Position 1 S1 teil Position 1 j und S2 teil Position 1 j, die Kreuzkorrelationsfunktion berechnet, wobei jedoch vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signal- Stück S1 Teil Position 1 j und aus einem invertierten Signalstück S2 Teil Position 1 INV j das Maximum der Kreuzkorre­ lationsfunktion MCC1 2 j Position 1 zwischen 0 und 1 berechnet und gespeichert wird.Die Invertierung ist notwendig um korrelierbare Signale zu erhalten, da die Abbildungsstrahlen der Ele­ mente eines korrespondierenden Paares sich im Objektraum bei der Verschiebung in einem zumindest näherungsweise gleichen Ausschnitt der Szene im Verschiebungsvorgang entlang einer Spur gegensinnig bewegen, also beispielsweise aufeinander zu. Dabei liegt diese Spur parallel zum Hauptschnitt der 3D- Aufnahmeanordnung.Nach dem Berechnen des Maximums der Kreuzkorrelationsfunktion MCC1 2 j Position 1 in der Position 1 er­ folgt das Verschieben der Fensterfunktion in die Position 2, so daß für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion MCC1 2 j Position 2 in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe S1j und S2j in der Position m angekom­ men ist und wiederum das Maximum MCC1 2 j Position m der Kreuzkorrelationsfunktion MCC1 2 j Position m be­ stimmt wird. Aus den m berechneten Maxima MCCm wird eine Maximalwert-Kurve gebildet, wobei in die­ ser Maximalwert-Kurve wiederum das sich ergebende Maximum Mm j zwischen 0 und 1 bestimmt wird und der Ort des Maximums Mm j der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird. Diese so berechnete Maxi­ malwert-Kurve kann den Verlauf einer Gauß-Funktion aufweisen. Um Fehlern vorzubeugen, kann eine Intensitätsschwelle verwendet werden, wodurch Signalstücke mit sehr geringer mittlerer Intensität von der weiteren Verarbeitung ausgeschlossen werden. Das Maximum der Maximalwert-Kurve kann auch über eine Schwerpunktbildung erfolgen. Dabei können Interpolationsmethoden angewendet werden.So wird der Ort des jeweiligen so bestimmten Maximums Mj als Ort des zu den beiden korrespondieren­ den Elementen 1j und 2j zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche im Array- Raum definiert.Aus dem Ort dieses Maximums Mj im Array-Raum wird die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche, da die Geometrie der 3D- Aufnahmeanordnung bekannten ist. So können die Positionen von den Elementen einer Objektoberfläche, von welchen Signalverläufe aufgenommen werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen, einschließlich die Schrittweite der Verschie­ bung, der beiden Empfänger-Arrays vorbestimmt sind.Dieser so berechnete Kurvenzug über dem Weg der Verschiebung kann den Verlauf einer Gauß-Funktion aufweisen. Es wird in diesem Kurvenzug das Maximum bestimmt, wobei der Ort des Maximums des Kur­ venzuges den beiden originalen Signalverläufen S1j und S2j und damit dem Weg der Verschiebung zuge­ ordnet wird. Das Maximums des Kurvenzuges kann auch über eine Schwerpunktbildung erfolgen. Der Ort des Maximums wird als Ort des zugehörigen Elementes der Objektoberfläche definiert. Dabei können In­ terpolationsmethoden angewendet werden.Dieses Verfahren kann als Korrelationsverfahren mit zwei gefensterten Signalverläufen und einem dabei stückweise jeweils invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objekt­ oberfläche bezeichnet werden. Es wird darauf in der Offenbarung unter dieser Bezeichnung auf dieses Korrelationsverfahren mit zwei gefensterten Signalverläufen noch weiter Bezug genommen.Weiterhin werden vorzugsweise für die Bestimmung der mittleren Beleuchtungsstärke von Elementen der Objektoberfläche zumindest die Elemente des Empfänger-Arrays im Verschiebungsvorgang der Empfän­ ger-Arrays ausgelesen, die im Verschiebungsvorgang zumindest näherungsweise je auf einer Strecke lie­ gen im Array-Raum liegen, die durch einen ortsfesten Abbildungsstrahl im Objektraum vorgegeben ist.Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL und die der Empfänger- Arrays an einen anderen Ort kann mit mechanischen oder mit mikromechanischen Mitteln erfolgen.Die beiden Achsen der Abbildungsobjektive können zueinander geneigt sein. Bei einer parallelen Anord­ nung der beiden Achsen der Abbildungsobjektive fallen der Punkt PA1 und der Punkt PA2 im Punkt PA zu­ sammen. In diesem Fall und wenn die Rasterkonstanten und die aktiven Flächen der Empfänger-Arrays übereinstimmen und die Abbildungsobjektive zumindest näherungsweise baugleich sind und die Empfän­ ger-Arrays sich zumindest näherungsweise gemeinsam in einer Ebene befinden bilden alle Elemente der beiden Empfänger-Arrays jeweils korrespondierende Paare. Die realen Verschiebungen der beiden Emp­ fänger-Arrays auf den Verschiebungsstrecken ASA1 und ASA2 und deren Bilder ASO1 und ASO2 im Objek­ traum bilden den Buchstaben Y, so daß hier zur Abgrenzung vom 3D-Y-Verfahren gesprochen werden kann. Bei der Bestimmung der 3D-Punktwolke kann im Vordergrund der Szene das bereits beschriebene Ver­ fahren mit der Verschiebung der leuchtenden Flächenelemente FEL und der Bestimmung der absoluten Phase eingesetzt werden. Für den Hintergrund wird das soeben beschriebene Korrelationsverfahren ein­ gesetzt. Es ist dabei ein Übergangsbereich notwendig. Gegebenenfalls müssen die Verfahren zeitlich nacheinander angewendet werden, um einen Übergangsbereich ohne Informationsverluste überbrücken zu können. Dies ist notwendig, da bei dem Verfahren zur Bestimmung der absoluten Phase sich in der Regel die Elemente des Empfänger-Arrays auf ASAj-Strecken, also parallel zu den Achse des jeweiligen Abbildungsobjektivs bewegen. Dagegen erfolgt die Verschiebung der Empfänger-Arrays beim 3D-Y- Verfahren vorzugsweise auf anderen Strecken, den beiden oberen Y-Ästen. Dies erfordert eine jeweils andere mechanische Bewegung und somit auch der Steuerung der Empfänger-Arrays. Für das 3D-Y- Verfahren mit der beschriebenen Bestimmung des Korrelationsmaximums Mj findet die Verschiebung der leuchtenden Flächenelemente FEL auf Strecken parallel zu der Achse des jeweiligen Beleuchtungsobjek­ tivs statt.Im phasenauswertenden Verfahren kann aus dem Signalverlauf, der von einem Element der Objektober­ fläche gewonnen werden kann, die mittlere Beleuchtungsstärke eines Elementes der Objektoberfläche und auch gegebenenfalls dessen Farbe, durch den Einsatz farbsensitiver Elemente des Empfänger- Arrays aus dem detektierten Signalverlauf bestimmt werden. Dies ist für das hier beschriebene Korrelati­ onsverfahren jedoch nicht ohne weiteres möglich, da ein verschobenes Element des Empfänger-Arrays nicht an einen ortsfesten Abbildungsstrahl gebunden ist, sondern an einen Abbildungsstrahl, der über die Objektoberfläche "wandert", beziehungsweise an unterschiedliche Abbildungsstrahlen von verschiedenen Elementen der Objektoberfläche oder der Szene.Deshalb werden zusätzlich für das Korrelationsverfahren zur Bestimmung der mittleren Beleuchtungsstär­ ke von Elementen der Objektoberfläche vorzugsweise genau die Elemente des Empfänger-Arrays im Verschiebungsvorgang der Empfänger-Arrays ausgelesen, die zumindest näherungsweise je auf einer Strecke im Array-Raum liegen, die durch einen ortsfesten Abbildungsstrahl im Objektraum vorgegeben ist, wobei ein ortsfester Abbildungsstrahl im Objektraum durch ein feststehendes Element der Objektoberflä­ che oder der Szene und das Pupillenzentrum des zugehörigen Abbildungsobjektivs vorbestimmt ist. Das heißt, bereits vor und nach dem Durchgang der Schärfevolumens durch die Elemente der Objektoberflä­ che wird von einem Element derselben mindestens ein Signalwert gewonnen. So kann der Einfluß des strukturierten Lichtes in den Elementen der Objektoberfläche durch dessen unscharfe Abbildung für die Bestimmung der mittleren Beleuchtungsstärke eliminiert werden und so auch die Farbe, beziehungsweise die spektrale Zusammensetzung des reflektierten Lichtes von einem Element der Objektoberfläche be­ stimmt werden. So kann auch von einer Freiraumszene mit einem Vordergrund die 3D-Punktwolke be­ stimmt werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Gerade gA1P in einem Punkt PA in der Hauptebene des Abbildungsobjektivs und im Durchstoßpunkt der Symmetrielinie SL im Array-Raum und die Gerade gA2P im gleichen Punkt PA zum Schnitt gebracht werden, wobei die optischen Achsen der beiden Abbildungsstrahlengänge parallel ange­ ordnet sind, und die Gerade gA1P zusätzlich den Brennpunkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P den Brennpunkt FA2 des Abbildungsobjektivs im Array-Raum enthalten. Bei dieser parallelen Anordnung der beiden Achsen der Abbildungsobjektive fallen der Punkt PA1 und der Punkt PA2 im Punkt PA zusammen. In diesem Fall und wenn die Rasterkonstanten und die aktiven Flächen der Empfänger-Arrays übereinstimmen sowie die Abbildungsobjektive zumindest näherungsweise bau­ gleich sind und die Empfänger-Arrays sich zumindest näherungsweise gemeinsam in einer Ebene befin­ den, bilden alle Elemente der beiden Empfänger-Arrays jeweils korrespondierende Paare. Die realen Ver­ schiebungen der beiden Empfänger-Arrays auf den Verschiebungsstrecken ASA1 und ASA2 und deren Bil­ der ASO1 und ASO2 im Objektraum bilden den Buchstaben Y, so daß hier zur Abgrenzung vom 3D-Y- Verfahren gesprochen werden kann.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Empfängerelemente im Aufnahmevorgang Licht von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren und beim Aufnahmevorgang die zwei Emp­ fänger-Arrays gleichzeitig und parallel zu jeweiligen optischen Achsen der parallelen Abbildungsobjektive, deren Hauptebenen zusammenfallen, verschoben werden. Dabei sind für die 3D-Aufnahme des Hinter­ grundes der Szene mindestens zwei parallele, zumindest näherungsweise baugleiche Abbildungsstrah­ lengänge für die Abbildung der Objektoberflächen mit einem ersten Abbildungsobjektiv im ersten Abbil­ dungsstrahlengang und einem zweiten Abbildungsobjektiv im zweiten Abbildungsstrahlengang angeordnet und die Abbildungsobjektive weisen räumlich getrennten Öffnungsblenden auf. Jedem Abbildungsobjektiv ist mindestens je ein Empfänger-Array mit Elementen oder ein Bildes desselben zugeordnet und das Si­ gnal S1z wird durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß es dem bei einer realen Verschiebung parallel zu einer Geraden gA1P entstehenden Signal S1 zumindest annähernd entspricht, und das Signal S2z wird durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des zweiten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß dieses Signal S2z dem bei einer realen Verschiebung parallel zu einer Geraden gA2P entstehenden Signal S2 zu­ mindest annähernd entspricht. Die Gerade gA1P wird in einem Punkt PA in der Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird im gleichen Punkt PA in der Hauptebene des zweiten Abbildungsobjektivs, die mit der Hauptebene des ersten Abbildungsobjektivs zumindest nä­ herungsweise zusammen fällt, zum Schnitt gebracht und zusätzlich enthält die Gerade gA1P den Brenn­ punkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P enthält den Brennpunkt FA2 des Abbil­ dungsobjektivs im Array-Raum, wobei Verschiebungen der leuchtenden Flächenelemente FEL durchge­ führt werden und die zugehörigen Verschiebungsstrecken VSBAj parallel zur Symmetrielinie SL der beiden optischen Achsen ausgerichtet sind und der Punkt PA im Durchstoßpunkt der Symmetrielinie SL durch die zusammenfallenden Hauptebenen der beiden Abbildungsobjektive liegt. Aus den Bildern der Verschie­ bungsstrecken VSBAj wird ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 auf der Symmetrielinie SL gebildet, der mit dem Konvergenzpunkt K0 zusammenfällt.Der Vordergrund der Szene wird strukturiert beleuchtet. Der entfernte Hintergrund der Szene wird nicht mehr von der strukturiert leuchtenden Flächenelementen ausgeleuchtet. Hier wird anstelle der Bestim­ mung absoluten Phase ϕabs dann das Korrelationsprinzip zur Bestimmung der zO-Positionen der Elemente der Objektoberlläche angewendet. Von Vorteil ist, daß keine laterale Bewegung der leuchtenden Flä­ chenelemente notwendig ist. Dieses Verfahren ist auch für eine Freiraumszene geeignet. Es ist weiterhin möglich, daß die Hauptebene des Abbildungsobjektivs im Array-Raum und die Hauptebe­ ne des Abbildungsobjektivs in einer gemeinsamen Ebene zusammenfallen. So können der Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symmetrielinie SL und der Punkt PA2 in der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrielinie SL liegen und so die beiden Punkte PA1 und PA2 zur Koinzidenz gebracht werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht die leuchtenden Flächenelemente FEL relativ zum Beleuchtungsobjektiv verschoben werden und dabei zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf einer B-Strecke BSAj positioniert werden, wobei die B-Strecken die Sollorte für die leuchtenden Flächenelemente FEL zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti darstellen und die B-Strecken die Achse des Beleuchtungsobjektivs stets unter einem rechten Winkel schneiden. Zumindest in einem Zeitbereich ΔtB während des Verschiebungsvorganges der leuchtenden Flächenelemente werden jeweils genau ein Bild von einem feststehenden Element eines feststehenden Empfängers und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zu­ mindest zu einem einzigen Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest nä­ herungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so wird zumindest zu diesem Zeitpunkt ti aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelemen­ tes FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet. Der Zeitpunkt ti für mindestens ein Element eines Empfänger-Arrays wird aus dem Durchgang mindestens eines leuchtenden Flächenele­ mentes durch einen vorbestimmten Referenzort abgeleitet. Die Elemente des Empfänger-Arrays detektie­ ren im Zeitintervall Δti der Koinzidenz einen periodischen Signalverlauf und die Phase diese Signalverlau­ fes wird in Bezug zur Phase am Referenzort ausgewertet.Dies ist ein Ansatz, bei dem nur der vorhandene Schärfentiefebereich im Abbildungsstrahlengang ausge­ nutzt wird. Es erfolgt keine Verschiebung der leuchtenden Flächenelemente FEL und der Elemente des Empfänger-Arrays in zA-Richtung im Array-Raum. Dieses Verfahren ermöglicht die Detektierung einer sich schnell ändernden Form einer Objektoberfläche oder deren Verformung, beziehungsweise die Detektion von Schwingungen der Elemente einer Oberfläche.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise mit einer von einer Strahlungsquelle beleuchteten Objektoberflächen mit einem ersten und mindestens einem zweiten Abbildungsstrahlengang, wobei die Achse eines ersten Abbildungsobjek­ tivs für die Abbildung der Objektoberflächen parallel zur Achse eines zweiten Abbildungsobjektivs für die Abbildung der Objektoberflächen ausgerichtet ist, und so zwischen den beiden Achsen der beiden Abbil­ dungsobjektive eine Symmetrielinie SL gebildet ist. Jedem Abbildungsstrahlengang ist mindestens ein zu­ geordneten Empfänger-Array zugeordnet und die beiden Empfänger-Arrays weisen jeweils Empfängere­ lemente auf, die im Aufnahmevorgang im Zeitbereich ΔtB Licht von den Elementen der beleuchteten Ob­ jektoberflächen im Objektraum detektieren und
die beiden Abbildungsobjektive weisen mindestens einen Abstand d von einem Achtel der Ausdehnung der Öffnungsblende des ersten Abbildungsobjektivs auf und die beiden Empfänger-Arrays erfahren im Aufnahmevorgang im Zeitbereich ΔtB je eine Verschiebung an einen anderen Ort. So werden auch die einzelnen Empfängerelemente verschoben und so detektieren die Empfängerelemente dabei an unter­ schiedlichen Orten elektromagnetische Strahlung. Zumindest näherungsweise erfolgt gleichzeitig die De­ tektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays und die Elemente des Empfänger-Arrays werden anschließend ausgele­ sen, wobei jeweils Signalwerte gewonnen werden.Die optischen Achsen der beiden Abbildungsstrahlengänge sind vorzugsweise parallel angeordnet. Es ist vorzugsweise eine räumlich gleichmäßige Beleuchtung von Objektoberflächen im Vordergrund und gege­ benenfalls auch des weiter entfernter Hintergrundes der Szene, beispielsweise auch von einer Frei­ raumszene, gegeben.Beim Aufnahmevorgang werden die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen op­ tischen Achsen der Abbildungsstrahlengänge, deren Brennebenen im Objektraum zusammenfallen, auf Verschiebungsstrecken ASA1 und ASA2 verschoben. Die Bilder der Verschiebungsstrecken ASA1 und ASA2, die Strecken ASO1 und ASO2, werden im Objektraum zumindest annähernd auf der Symmetrielinie zwi­ schen den beiden Achsen der Objektive positioniert.Aus dem Streckenbüschel SB21 der Bilder der Verschiebungsstrecken ASA1j der einzelnen Elementes des ersten Empfänger-Arrays, die Strecken ASO1j wird ein Konvergenzpunkt K21 gebildet und aus dem Strec­ kenbüschel SB22 der Bilder der Verschiebungsstrecken AS2j der einzelnen Elementes des zweiten Emp­ fänger-Arrays, die Strecken ASO2j, wird ein Konvergenzpunkt K22 gebildet und der Konvergenzpunkt K22 und der Konvergenzpunkt K22 werden auf der Symmetrielinie SL zur Koinzidenz gebracht und bilden auf der Symmetrielinie SL den Konvergenzpunkt K0 und die beiden Empfänger-Arrays werden so verschoben, daß deren Bilder zumindest teilweise im Objektraum zusammenfallen, so daß die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfänger-Arrays im Objektraum paarweise zumindest näherungsweise zur Koinzidenz gebracht werden, wobei die paarbildenden Elemen­ te der beiden Empfänger-Arrays jeweils korrespondierende Elemente darstellen. So wird vorzugsweise jeweils ein aktueller Koinzidenzpunkt aus diesen zwei Bildern von Elementen gebildet, der durch den Ob­ jektraum verschoben wird. Dies erfolgt vozugsweise mit allen Elementen der Empfänger-Arrays. Es wer­ den vorzugsweise Signalverläufe S1 des ersten Empfänger-Arrays durch Auslesen der Elemente während der Verschiebung des ersten Empfänger-Arrays auf der Verschiebungsstrecke ASA1j gebildet und es wird die Verschiebung des ersten Empfänger-Arrays parallel zu einer Geraden gA1P durchgeführt und so wer­ den die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA1P auf Verschiebungsstrecken ASA1j verschoben.Weiterhin werden Signalverläufe S2 des zweiten Empfänger-Arrays durch Auslesen der Elemente wäh­ rend der Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke ASA2j gebildet und die Verschiebung des zweiten Empfänger-Arrays wird parallel zu einer Geraden gA2P durchgeführt und so werden die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA2P auf Verschiebungsstrecken ASA2j verschoben, wobei die Verschiebung des zweiten Empfänger-Arrays zumindest näherungsweise gleichzeitig mit der des ersten Empfänger-Arrays erfolgt. Die Gerade gA1P wird in einem Punkt PA1 auf der Symmetrielinie SL und in der Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 auf der Symmetrielinie SL und in der Hauptebe­ ne des zweiten Abbildungsobjektivs zum Schnitt gebracht, wobei die Gerade gA1P zusätzlich den Brenn­ punkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P den Brennpunkt FA2 des Abbildungsobjek­ tivs im Array-Raum enthält.Aus den beiden Signalverläufen S1j, S2j von zwei korrespondierenden Elementen 1j und 2j der Empfänger- Arrays wird durch das vordem bereits beschriebene Korrelationsverfahren mit zwei gefensterten Signal­ verläufen und einem dabei invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objektoberfläche die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung be­ rechnet und so auch deren xO- und yO-Position und so wird die gesamte 3D-Punktwolke von Objektober­ flächen in einer Szene berechnet, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Ver­ schiebungen der Empfänger-Arrays vorbestimmt sind.Bei der Verschiebung der Empfänger-Arrays kann es sich um eine elektronisch gesteuerte, mechanische Bewegung handeln. Es ist weiterhin möglich, daß die Hauptebene des Abbildungsobjektivs im Array- Raum und die Hauptebene des Abbildungsobjektivs in einer gemeinsamen Ebene zusammenfallen. So ist gegeben, daß der Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symme­ trielinie SL liegt und der Punkt PA2 in der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrie­ linie SL liegt und so die beiden Punkte PA1 und PA2 in einem Punkt PA zur Koinzidenz gebracht werden.Hierbei handelt es sich um das 3D-Y-Verfahren mit einer realen Verschiebung der beiden Empfänger- Arrays auf ASA1- und ASA2-Strecken, also auf den beiden oberen Y-Ästen. So kann von Freiraumszenen bei Tageslicht - einschließlich direktem Sonnenlicht - von Objektoberflächen auch im Hintergrund der Szene die 3D-Punktwolke gewonnen werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise beleuchtete Objektoberflächen mit einem ersten und mindestens einem zweiten Abbil­ dungsstrahlengang abgebildet werden. Dabei ist die Achse eines ersten Abbildungsobjektivs im Abbil­ dungsstrahlengang für die Abbildung der Objektoberflächen parallel zur Achse eines zweiten Abbildungs­ objektivs im Abbildungsstrahlengang für die Abbildung der Objektoberflächen ausgerichtet. So ist zwi­ schen den beiden Achsen der beiden Abbildungsobjektive eine Symmetrielinie SL gebildet.Jedem Abbildungsstrahlengang ist mindestens je ein Empfänger-Array zugeordnet und die beiden Emp­ fänger-Arrays weisen jeweils Elemente auf, die im Aufnahmevorgang im Zeitbereich ΔtB Licht von den Elementen der beleuchteten Objektoberflächen im Objektraum detektieren, und die beiden Abbildungsob­ jektive weisen einen Abstand d des Pupillenzentrums PZOB des ersten Abbildungsobjektivs vom Pupillen­ zentrum PZOA des zweiten Abbildungsobjektivs im Objektraum von mindestens einem Achtel der Ausdeh­ nung der Öffnungsblende des ersten Abbildungsobjektiv auf.Die beiden Empfänger-Arrays erfahren im Aufnahmevorgang im Zeitbereich ΔtB je eine elektronisch ge­ steuerte, mechanische Verschiebung im array-Raum und so werden auch die einzelnen Empfängerele­ mente verschoben und so detektieren dabei die Empfängerelemente an unterschiedlichen Orten elektro­ magnetische Strahlung.Die Detektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays erfolgt zumindest näherungsweise gleichzeitig. Die Elemente des Empfänger-Arrays werden anschließend ausgelesen, und es werden jeweils Signalwerte gewonnen und im Aufnahmevorgang werden die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen optischen Achsen der parallelen, zumindest näherungsweise baugleichen Abbildungsstrahlengänge, de­ ren Hauptebenen zusammenfallen, verschoben, wobei die Objektoberflächen in der Szene beleuchtet sind.Der Signalverlauf S1z wird durch Auslesen von lateral nebeneinander liegenden Elementen des ersten Empfänger-Arrays während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung benutzt werden, die auf Strecken ASA1 liegen, die parallel zu einer Geraden gA1P ausgerichtet sind und die den Punkt PA1 in der gemeinsamen Hauptebene der Abbildungsobjektive schneidet. So entspricht der gebilde­ te Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden gA1P entstehenden Signal­ verlauf S1 zumindest annähernd und der Signalverlauf S2z wird durch Auslesen von lateral nebeneinander liegenden Elementen des zweiten Empfänger-Arrays während der Verschiebung des zweiten Empfänger- Arrays in Richtung der optischen Achsen so gebildet, daß jeweils genau die Elemente des Empfänger- Arrays zur Signalbildung benutzt werden, die auf Strecken ASA2 liegen, die parallel zu einer Geraden gA2P ausgerichtet sind und die den Punkt PA2 in der gemeinsamen Hauptebene der Abbildungsobjektive schneidet.So entspricht der gebildete Signalverlauf S2z dem bei einer realen Verschiebung parallel zu einer Geraden gA2P entstehenden Signal S2 zumindest annähernd. So wird zumindestens jeweils zu einem Zeitpunkt ti in einem Zeitintervall Δti ein aktueller Koinzidenzpunkt von Elementen der beiden Empfänger-Arrays gebil­ det, der im Zeitbereich ΔtB nacheinander jeweils an verschiedenen vorbestimmten Orten des Objektrau­ mes gebildet wird.Die Gerade gA1P wird in einem Punkt PA1 im Durchstoßpunkt der Symmetrielinie SL durch die Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 im Durch­ stoßpunkt der Symmetrielinie SL durch die Hauptebene des zweiten Abbildungsobjektivs zum Schnitt ge­ bracht und zusätzlich enthält die Gerade gA1P den Brennpunkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P enthält den Brennpunkt FA2 des Abbildungsobjektivs im Array-Raum.Aus den beiden Signalverläufen S1j, S2j von zwei zumindestens jeweils zu einem Zeitpunkt korrespondie­ renden Elementen der Empfänger-Arrays wird durch das vordem bereits beschriebene Korrelationsverfah­ ren mit zwei gefensterten Signalverläufen und einem dabei invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objektoberfläche die zO-Koordinate des jeweiligen Elementes der Objek­ toberfläche berechnet und so auch deren xO- und yO-Position und so wird die gesamte 3D-Punktwolke von Objektoberflächen in einer Szene berechnet, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfänger-Arrays vorbestimmt sind.Die optischen Achsen der beiden Abbildungsstrahlengänge sind auch in diesem Fall vorzugsweise paral­ lel angeordnet. Es ist eine räumlich gleichmäßige Beleuchtung von Objektoberflächen im Vordergrund und gegebenenfalls auch des weiter entfernter Hintergrundes der Szene, beispielsweise auch von einer Frei­ raumszene, gegeben.Die Hauptebene des Abbildungsobjektivs im Array-Raum und die Hauptebene des Abbildungsobjektivs können in einer gemeinsamen Ebene zusammenfallen. So kann der Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symmetrielinie SL und der Punkt PA2 in der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrielinie SL liegen und so die beiden Punkte PA1 und PA2 in ei­ nem Punkt PA zur Koinzidenz gebracht werden. Auch kann es sich bei der Verschiebung der Empfänger- Arrays um eine elektronisch gesteuerte, mechanische Bewegung handeln.Es erfolgt keine reale Verschiebung der beiden Empfänger-Arrays auf den oberen Y-Ästen, sondern eine Verschiebung parallel zu den optischen Achsen der beiden Abbildungsobjektive. So wird durch das Aus­ leseverfahren der Elemente der Fall des Bewegens auf den oberen Y-Ästen nachgebildet.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise das strukturiert leuchtende Array mit Bereichen LBARRAY j unterschiedlicher Leuchtdich­ te und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flä­ chenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode WP dem dreifachen Streifenabstand der einzelnen verschiedenfarbigen Flächenelemente entspricht.Nach einem Zeitbereich, der zumindest näherungsweise dem Zeitbereich ΔtB entspricht, wird das struktu­ riert farbig leuchtende Array um den 1,5fachen Abstand der einzelnen farbigen Flächenelemente, dies entspricht der halben Wiederholungsperiode WP lateral weiterverschoben, wobei Elemente des Empfän­ ger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind.Dieses Verfahren ermöglicht für das bereits beschriebene Korrelationsverfahren eine höhere Tiefenauflö­ sung, da durch die in der Regel höhere Anzahl von lichtempfindlichen Elementen bei farbsensitiven Emp­ fänger-Arrays, eine grundsätzlich höhere Streifendichte verwendet werden kann, wenn jedes leuchtende Flächenelement FELj in einer Richtung als Farbstreifen einzeln gezählt wird. Es werden die Signale in den einzelnen Wellenlängenbereichen, beziehungsweise Farben einzeln verarbeitet. Wenn ein detektier­ tes Element einer Objektoberfläche oder eines Bereiches der Objektoberfläche einfarbig ist, beispielswei­ se in der Farbe rot, detektiert nur das rotempfindliche Element des Empfänger-Arrays einen Signalverlauf. Die zu diesem rotempfindlichen Element unmittelbar benachbarten Elemente mit einer nicht rotempfindli­ chen Charakteristik registrieren dann nur ein sehr schwaches oder gar kein Signal.Durch das laterale Weiterverschieben des strukturiert farbig leuchtenden Arrays um den vorzugsweise 1,5fachen Abstand der einzelnen farbigen Flächenelemente wird erreicht, das die zuvor nicht vom einer vorbestimmten Farbe ausgeleuchteten Elemente der Objektoberfläche nun ausgeleuchtet werden. Dabei wird davon ausgegangen, daß durch die Abbildung der farbig leuchtenden Flächenelemente FEL eine Verbreiterung auf der Objektoberfläche stattfindet, so daß keine Lücken zwischen den Farbstreifen. Mit diesem Verfahren können auch verschiedenfarbige Elemente in der Objektoberfläche erfaßt werden.Es ist aber auch grundsätzlich möglich, die Signalauswertung mit dem bereits beschriebenen phasenaus­ wertenden Verfahren, beispielsweise im Nahbereich der Szene, durchzuführen. In diesem Fall werden die farbig leuchtenden Flächenelemente FEL auf den bereits beschriebenen Verschiebungsstrecken VBSAj bewegt und die Auswertung für die farbsensitiven Elemente des Empfänger-Arrays durchgeführt. Aus der Verrechnung der Signalintensitäten in den drei Farben oder Wellenlängenspektren kann in der aus der Farbfernsehtechnik bekannten Art und Weise das Farb- und das Helligkeitssignal für jedes erfaßte Ele­ ment der Objektoberfläche gewonnen werden. So kann für jedes Element der Objektoberfläche die Infor­ mation über die mittlere Helligkeit, beziehungsweise Beleuchtungsstärke oder Leuchtdichte, und die zu­ mindest näherungsweise spektrale Zusammensetzung, also die Farbe, und der zO-Wert gewonnen wer­ den. Aus der bekannten, vorbestimmten Lage der Elemente der mindestens zwei Empfänger-Arrays und der bekannten Geometrie der 3D-Aufnahmeanordnung können so auch die zO-, die xO- und die yO- Raumkoordinaten für die Gesamtheit der detektierten Elemente der Oberflächen in einer Szenen eindeu­ tig bestimmt werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise das strukturiert leuchtende Array mit Bereichen LBARRAY J unterschiedlicher Leuchtdich­ te und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flä­ chenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode WP dem dreifachen Streifenabstand der einzelnen, farbig leuchtenden Flächenelemente FEL entspricht.Nach einem Zeitbereich ΔtB, wird das strukturiert farbig leuchtende Array um den einfachen Abstand der einzelnen, farbig leuchtenden Flächenelemente FEL, welcher einem Drittel der Wiederholungsperiode WP entspricht, lateral weiterverschoben, wobei die Elemente des Empfänger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind.Dieses Verfahren ermöglicht für das bereits beschriebene Korrelationsverfahren eine höhere Tiefenauflö­ sung, da durch die höhere Anzahl von Elementen bei farbempfindlichen Empfänger-Arrays, eine grund­ sätzlich höhere Streifendichte verwendet werden kann. Es werden vorzugsweise die Signale in den ein­ zelnen Wellenlängenbereichen, beziehungsweise Farben einzeln verarbeitet. Wenn ein detektiertes Ele­ ment einer Objektoberfläche oder eines Bereiches der Objektoberfläche einfarbig ist, beispielsweise in der Farbe rot, detektiert nur das rotempfindliche Element des Empfänger-Arrays einen Signalverlauf.Durch das laterale Weiterverschieben des strukturiert farbig leuchtenden Arrays um den einfachen Ab­ stand der einzelnen farbigen Flächenelemente wird erreicht, daß die zuvor nicht von einer vorbestimmten Farbe ausgeleuchteten Elemente der Objektoberfläche nun vollständig ausgeleuchtet werden. Dies ist vorteilhaft, wenn als Beleuchtungsobjektiv ein Präzisionsobjektive mit einer sehr guten Modulationsüber­ tragung verwendet wird. Dadurch ergibt sich im Aufnahmevorgang eine gleichmäßige Ausleuchtung der Objektoberfläche, und es können so auch Elemente in verschiedenen Farben der Objektoberfläche erfaßt werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene mit mindestens ei­ ner Strahlungsquelle vorgeschlagen, die als ein strukturiert leuchtendes Array mit Bereichen unterschied­ licher Leuchtdichte ausgebildet ist. Weiterhin ist vorzugsweise mindestens eine elektromagnetische Strahlungsquelle mittels mindestens eines strukturierten Arrays als ein strukturiert leuchtendes Array mit leuchtenden Flächenelementen FEL ausgebildet.Dabei kann vorzugsweise auch ein strukturiertes Array in der Art eines Liniengitters mit einer vorgeordne­ ten Strahlungsquelle zur Anwendung kommen. Weiterhin kann im Array-Raum ein strukturiert leuchtendes Array angeordnet sein, welches als ein von der Strahlungsquelle beleuchtetes klassisches Liniengitter, als strukturiertes Array, aber auch als elektronisch steuerbares Liniengitter ausgeführt sein kann. Das Lini­ engitter kann dabei ein symmetrisches Transparenzprofil mit einer cos2-Verteilung oder auch ein stark un­ symmetrisches Transparenzprofil mit einem Rechteckprofil aufweisen, wobei letzteres vergleichsweise nur wenige Linien oder nur eine einzelne Linie besitzt. Der letztgenannte Fall sichert bei einem einfachen Auswertealgorithmus die Eindeutigkeit der Gewinnung von Meßpunkten. Die Strahlungsquelle und das strukturierte Array bilden gemeinsam das strukturiert leuchtende Array. Die Orte bestimmter relativer Leuchtdichte des strukturiert leuchtenden Arrays und auch die der lokalen Extrema der Leuchtdichte die­ ses strukturiert leuchtenden Arrays können elektronisch verschiebbar gemacht sein. Die leuchtenden Flä­ chenelemente FEL können sich dabei an den Orten der Phase ϕ = 0, als Ort der maximalen Transparenz befinden.Die Strahlungsquelle kann für elektromagnetische Strahlung im sichtbaren und im unsichtbaren Spektral­ bereich ausgelegt sein, beispielsweise im Spektralbereich von 750 nm bis 900 nm. Auch elektromagneti­ sche Strahlung im infraroten Spektralbereich mit Wellenlängen größer als 900 nm kann zur Anwendung kommen.Weiterhin ist mindestens ein Beleuchtungsstrahlengang mit mindestens einem Beleuchtungsobjektiv an­ geordnet. Dem Beleuchtungsobjektiv ist das strukturiert leuchtende Array zugeordnet. Es kann aber auch ein Bild des strukturiert leuchtenden Arrays dem Beleuchtungsobjektiv zur Abbildung zugeordnet sein. Dabei weist das Beleuchtungsobjektiv eine effektive Öffnungsblende mit einer Ausdehnung DB und einem Blendenzentrum BZB auf. Das strukturiert leuchtende Array und das Beleuchtungsobjektiv dienen zur strukturierten Beleuchtung der Objektoberflächen in der Szene.Weiterhin ist mindestens ein Abbildungsstrahlengang mit mindestens einer Abbildungsstufe für die Abbil­ dung der Elemente der Objektoberflächen in der Szene angeordnet. Diesem Abbildungsobjektiv ist min­ destens ein Empfänger-Array zugeordnet. Das Abbildungsobjektiv weist zur Abbildung der Elemente der Objektoberflächen eine effektive Öffnungsblende mit einem Blendenzentrum BZA auf. Diesem Abbil­ dungsobjektiv ist mindestens ein Empfänger-Array mit Elementen, die im Aufnahmevorgang Licht von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren, zugeordnet. Dabei beträgt der Abstand d des Pupillenzentrums PZOB des Beleuchtungsobjektivs, als Bild des Blendenzen­ trums BZB im Objektraum, vom Pupillenzentrum PZOA des Abbildungsobjektivs, als Bild des Blendenzen­ trums BZA im Objektraum, mindestens ein Achtel der Ausdehnung DB der Öffnungsblende des Beleuch­ tungsobjektivs.Dabei wird aus einem leuchtenden Flächenelement in einer Leuchtdichteverteilung mit einer vorzugsweise zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte mit einem vorbe­ stimmten Wellenlängenspektrum, wobei diese im weiteren als leuchtende Flächenelemente FEL bezeich­ net werden, durch Abbildung mit dem Beleuchtungsobjektiv ein Bild eines leuchtenden Flächenelementes FEL im Objektraum gebildet.Speziell bei kleinen Objekten können der Beleuchtungs- und der Abbildungsstrahlengang ein gemeinsa­ mes Frontobjektiv besitzen.Weiterhin ist ein Bewegungssystem mit vorzugsweise mindestens einer beweglichen Komponente ange­ ordnet, welches dem strukturiert leuchtenden Array dieses Bewegungssystem zugeordnet ist. Die Ver­ schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL im Array-Raum und sind vorzugsweise aus der mechanischen Bewegung des strukturiert leuchtenden Arrays gebildet. Es ist aber auch möglich, daß zeitgleich eine elektronische Verschiebung der leuchtenden Flächenelemente FEL, beispielsweise in lateraler Richtung stattfindet und das Bewegungssystem mit mindestens einer beweglichen Komponente eine Bewegung des strukturiert leuchtenden Arrays parallel zur optischen Achse des Beleuchtungsobjek­ tivs realisiert.Nach Abbildung dieser Verschiebungsstrecken VSBAj durch das Beleuchtungsobjektiv in den Objektraum, ist deren Bild zumindest näherungsweise als mindestens ein Streckenbüschel SB1 mit einem Konver­ genzpunkt K1 gebildet. Der Konvergenzpunkt K1 weist dabei vorzugsweise einen minimalen Abstand dK1 min von der Achse des Beleuchtungsobjektivs vom 16ten Teil und einen maximalen Abstand dK1 max vom 16fachen des Abstandes d auf.Die Pupillen des Beleuchtungs- und des Abbildungsstrahlenganges sind stets räumlich getrennt. Jedoch fallen die Schärfebereiche des Beleuchtungsstrahlenganges im Objektraum mit Schärfebereichen des Abbildungsstrahlenganges zumindest teilweise zusammen. Die Beleuchtungsstrahlen und die Abbil­ dungsstrahlen schließen im Objektraum miteinander einen Winkel, den Triangulationswinkel, ein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit der Kon­ vergenzpunkt K1 zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs im Objektraum und im Pupillenzentrum des Abbildungsobjektivs im Objektraum positioniert sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Ver­ schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL zumindest annähernd parallel ange­ ordnet sein und so der Konvergenzpunkt K1 zumindest annähernd in der Brennebene des Beleuchtungs­ objektivs im Objektraum und im Pupillenzentrum des Abbildungsobjektivs im Objektraum positioniert sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Konver­ genzpunkt K1 zumindest annähernd in der Brennebene des Beleuchtungsobjektivs und im Brennpunkt des Abbildungsobjektivs im Objektraum positioniert sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der das leuchtende Array als elektronisch steuerbares Liniengitter mit einer Steuerbarkeit des Ortes der Linien und der Linienbreite ausgebildet sein. Dabei können die Linien senkrecht zum Hauptschnitt angeordnet sein und die Verschiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL und so auch der leuchten­ den Flächenelemente FEL mit lokalen Extrema der Leuchtdichte im Array-Raum - als Resultat der me­ chanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des struktu­ riert leuchtenden Arrays im Array-Raum gebildet sein. Aus diesen Verschiebungsstrecken VSBAj kann im Array-Raum im Hauptschnitt und in jeder zum Hauptschnitt parallelen Schnittebene zumindest nähe­ rungsweise mindestens ein Streckenbüschel mit einem Konvergenzpunkt K1 gebildet sein und dabei der Konvergenzpunkt K1 einen minimalen Abstand dK1 min von der Achse des Beleuchtungsobjektivs vom 16ten Teil des Abstandes d aufweisen. Der Konvergenzpunkt K1 kann dabei einen maximalen Abstand dK1 max von der Achse des Beleuchtungsobjektivs vom 16fachen des Abstandes d aufweisen und zwischen Pupillenebene und Brennebenen des Beleuchtungsobjektivs im Objektraum angeordnet sein. Weiterhin kann der Konvergenzpunkt K1 des Streckenbüschels im Hauptschnitt im Pupillenzentrum PZAA des Abbil­ dungsobjektivs im Array-Raum angeordnet sein und die Konvergenzpunkte in den zum Hauptschnitt paral­ lelen Schnitten gemeinsam mit dem Konvergenzpunkt K1 des Hauptschnittes auf einer Geraden senkrecht zum Hauptschnitt angeordnet sein. Das Pupillenzentrum PZOA des Abbildungsobjektivs und das Pupillen­ zentrum PZ0B des Beleuchtungsobjektivs im Objektraum können gemeinsam auf einer Geraden angeord­ net sein, welche senkrecht zur Achse des Beleuchtungsobjektivs ausgerichtet ist.Bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsob­ jektivs werden vorzugsweise nur Elemente des Empfänger-Arrays ausgelesen und Signalverläufe gebildet und zur Bildung eines einzelnen Signalverlaufes nur Elemente ausgewählt, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschiebungsstrecke ASAj im Array- Raum angeordnet sind, deren Verlängerungsgerade jeweils mit einer Geraden senkrecht zum Haupt­ schnitt, die das Zentrum der Austrittspupille des Abbildungsobjektivs enthält, zum Schnitt gebracht ist, wobei bei der Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv aus deren Bil­ dern im Objektraum im Hauptschnitt zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das leuch­ tende Array als elektronisch steuerbares Gitter ausgebildet sein und vorzugsweise die Verschiebungs­ strecken der Orte konstanter relativer Leuchtdichte der strukturierten, leuchtenden Fläche und so auch der Orte lokaler Extrema der Leuchtdichte im Array-Raum als Resultat der mechanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des strukturiert leuchtenden Arrays im Array-Raum ausgerichtet sein und aus diesen Verschiebungsstrecken im Array-Raum kann zumindest näherungsweise mindestens ein Streckenbündel mit einem Konvergenzpunkt KA1 gebildet sein. Der Kon­ vergenzpunkt KA1 des Streckenbündels kann im Pupillenzentrum PZAA, des Abbildungsobjektivs im Array- Raum angeordnet sein und so kann der Konvergenzpunkt K1 im Objektraum im Pupillenzentrum PZ0A des Abbildungsobjektivs angeordnet sein. Das Pupillenzentrum PZ0A des Abbildungsobjektivs und das Pupil­ lenzentrum PZ0B des Beleuchtungsobjektivs können im Objektraum gemeinsam auf einer Geraden ange­ ordnet sein, welche senkrecht zur Achse des Beleuchtungsobjektivs ausgerichtet ist. Bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsobjektivs können nur die Elemente des Empfänger-Arrays ausgelesen und Signalverläufe gebildet und zur Bildung eines ein­ zelnen Signalverlaufes nur Elemente ausgewählt werden, deren Orte beim Verschieben des Empfänger- Arrays zumindest näherungsweise jeweils auf einer Verschiebungsstrecke im Array-Raum angeordnet sind, deren Verlängerungsgerade jeweils das Zentrum der Austrittspupille des Abbildungsobjektivs schneidet, und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet ist.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Ver­ schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL zumindest annähernd parallel zu einer definierten Geraden gAP angeordnet sein. Dabei weisen die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung vorzugsweise eine zumindest näherungsweise vorherbestimmt gleichbleibende relative Leuchtdichte auf. Die Gerade gAP schneidet den Brennpunkt FAB des Beleuchtungsobjektivs im Ar­ ray-Raum und weist den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und Brennweite fB des Beleuchtungsobjektivs auf, wobei dieser Anstieg der Geraden gAP auf die Achse des Beleuchtungsobjektivs bezogen ist.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene, dem eine Komponente des Bewegungssystems dem Empfänger-Array zugeordnet ist, und so bei der mechani­ schen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke A5 dessen Elemente Verschie­ bungsstrecken ASAj auf parallelen Geraden zugeordnet sein, wobei vorzugsweise aus den Bildern ASOj dieser Strecken ASAj bei Abbildung durch das Abbildungsobjektiv zumindest näherungsweise mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im Objektraum gebildet sein kann. Dabei kann der Konvergenzpunkt K1 und der Konvergenzpunkt K2 mit dem Brennpunkt FOA und dem Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Achse des Beleuchtungsobjektivs und die Achse des Abbildungsobjektivs parallel zueinander angeordnet sind und das Abbildungsobjektiv auf der Seite des Raumes der Arrays telezentrisch ausgeführt sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene eine Kom­ ponente des Bewegungssystems dem Empfänger-Array zugeordnet sein und so bei der mechanischen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke AS dessen Elemente Verschiebungs­ strecken ASAj auf parallelen Geraden zugeordnet sein, wobei aus den Bildern dieser Strecken bei Abbil­ dung durch das Abbildungsobjektiv zumindest näherungsweise mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im Objektraum gebildet ist. Der Konvergenzpunkt K1 und der Konvergenz­ punkt K2 können mit dem Brennpunkt FOA und dem Pupillenzentrum PZOA der Pupille des Abbildungsob­ jektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht sein und das Beleuchtungsobjektiv und das Abbildungsobjektiv jeweils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sein. So können die Achsen des Beleuchtungsobjektivs und des Abbildungsobjektivs parallel zueinander angeord­ net sein und die Brennebenen derselben im Objektraum zur Koinzidenz gebracht sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der die Komponenten des Bewegungssystem so angeordnet sein, daß im Array-Raum mit dem Brennpunkt FAB des Beleuchtungsobjektivs als Bezugspunkt für das leuchtende Array eine Gesamtbewegungsrichtung zumindest annähernd parallel zu einer Geraden gA im Array-Raum realisiert ist, so daß die Elemente des strukturiert leuchtenden Arrays sich auf parallelen Geraden zur Gerade gA bewegen und diese Gerade gA mit dem Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum zum Schnitt gebracht ist und den Anstieg mit dem Betrag aus dem Quotienten Brennweite fB des Beleuchtungsobjektivs und Abstand d des Brennpunktes FAA des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs auf­ weist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch­ tungsobjektivs bezogen ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe­ gungssystem aus zwei einzelnen Linearführungen aufgebaut sein und die erste Linearführung dem Emp­ fänger-Array zugeordnet sein und die Bewegungsrichtung dieser Linearführung zumindest annähernd parallel zur optischen Achse des Abbildungsobjektivs justiert sein und die zweite Linearführung der ersten Linearführung und dem strukturiert leuchtenden Array zugeordnet sein und die Bewegungsrichtung der zweiten Linearführung zumindest annähernd senkrecht zur optischen Achse des Beleuchtungsobjektivs justiert sein, so daß als Resultat der linearer Einzelbewegungen der beiden Linearführungen das struktu­ riert leuchtende Array zumindest annähernd parallel zur Geraden gA bewegen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe­ gungssystem, bestehend aus einer einzigen Linearführung mit einem Schlitten und einer Basis, im Raum des strukturiert leuchtenden Arrays und Empfänger-Array angeordnet sein und die Linearführung wenig­ stens dem strukturiert leuchtenden Array fest zugeordnet sein und die Bewegungsrichtung für das struk­ turiert leuchtende Array zumindest annähernd parallel zur Geraden gA im Array-Raum ausgerichtet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe­ gungssystem aus mindestens zwei einzelnen Linearführungen aufgebaut sein und die erste Linearführung beweglichen Komponenten des Beleuchtungsobjektivs zur Innenfokussierung und beweglichen Kompo­ nenten des Abbildungssobjektivs zur Innenfokussierung fest zugeordnet sein und die zweite Linearfüh­ rung dem strukturiert leuchtenden Array zur Bewegung senkrecht zur optischen Achse des Beleuchtungs­ objektivs fest zugeordnet sein. Bei der Verwendung von präzisen Linearführungen kann so eine hochdy­ namische 3D-Aufnahme-Anordnung realisiert werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe­ gungssystem aus einer Linearführung aufgebaut und diese dem Empfänger-Array zugeordnet sein und die Bewegungsrichtung dieser Linearführung zumindest annähernd parallel zur optischen Achse des Ab­ bildungsobjektivs angeordnet sein und ein rotatorischer Antrieb der Linearführung zuordnet sein und das strukturiert leuchtende Array wiederum dem rotatorischen Antrieb zugeordnet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ riert leuchtende Array als Gitter mit einer spiralförmigen Figur als Archimedische Spirale mit mindestens einem Gang ausgebildet und drehbar angeordnet sein und mindestens ein Ausschnitt des Gitters mit der spiralförmigen Figur als strukturiertes Array benutzt werden, wobei vorzugsweise in Verbindung mit der Strahlungsquelle das strukturiert leuchtende Array gebildet ist, und die Drehachse des Gitters mit der spi­ ralförmigen Figur parallel zur Achse des Beleuchtungsobjektivs angeordnet und außerdem ein rotatori­ scher Antriebsmotor dem Gitter mit der spiralförmigen Figur zugeordnet ist. Um eine kontinuierliche Aufnahme von bewegten Objekten mit einer hohen Geschwindigkeit erreichen zu können und dabei gleichzeitig die störende Wirkung von impulsförmigen Reaktionskräften auf die 3D- Aufnahme-Anordnung zu vermeiden, kann ein Gitter mit einer spiralförmigen Figur als Archimedische Spi­ rale mit mindestens einem Gang ausgebildet und drehbar angeordnet sein. Das Gitter mit der spiralförmi­ gen Figur ist dabei bezüglich seiner Drehachse sorgfältig ausgewuchtet. Es wird eine Präzisionslagerung verwendet. Ein Ausschnitt des rotierenden Gitters mit der spiralförmigen Figur dient als strukturiert leuch­ tendes Array. Die Drehachse des Gitters mit der spiralförmigen Figur ist dabei vorzugsweise parallel zur Achse des Beleuchtungsobjektivs angeordnet. Es wird für die Erzeugung der Drehbewegung ein rechner­ gesteuerter rotatorischer Antriebsmotor dem Gitter mit der spiralförmigen Figur zugeordnet. Die Phase des Gitters mit der spiralförmigen Figur kann mit einer radial angeordneten, schnell auslesbaren Foto- Diodenzeile bestimmt werden. Es kann auch eine CCD-Zeile mit einer Bildauslesefrequenz im 10 KHz- Bereich eingesetzt werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Abbil­ dungsobjektiv gemeinsam mit dem Empfänger-Array und den zugeordneten Komponenten des Bewe­ gungssystems um eine Achse, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs durchstößt, im Objektraum drehbar angeordnet sein. So können die Objektflächen in einer Szene aus unterschiedlichen Richtungen beobachtet werden, ohne daß die durch die Beleuchtung vorgegebene ab­ solute Phase verändert wird.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Be­ leuchtungsobjektiv gemeinsam mit dem strukturiert leuchtenden Array und den zugeordneten Komponen­ ten des Bewegungssystems und der Strahlungsquelle um eine Achse, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs durchstößt, im Objektraum drehbar angeordnet sein. So können die Objektflächen in einer Szene aus unterschiedlichen Richtungen beleuchtet werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ riert leuchtende Array eine gerasterte Struktur mit äquidistanten Abständen aufweisen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem Lini­ engitter ein Gegengitter mit der gleichen Gitterkonstante und ein Nullpunktgeber zugeordnet sein. Da­ durch ist eine besonders präzise Gewinnung der absoluten IstphaseGitter möglich. So kann die für das Auswerteverfahren benötigte Information über die absolute, lateral invariante Objektphase durch optische Bestimmung der absoluten IstphaseGitter direkt aus der Bewegung des beleuchteten Liniengitters durch optische Kopplung des Liniengitters mit einem Gegengitter und einem Nullpunktgeber unter Verwendung eines elektronischen Auswerte-Moduls mit einem Rechnerinterface für die Berechnung der absoluten, la­ teral invarianten Objektphase abgeleitet werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene eine trans­ parente optische Platte der 3D-Aufnahme-Anordnung als permanent verbleibende Referenzplatte in der Nahdistanz zugeordnet sein, wobei vorzugsweise auf mindestens einer der beiden Flächen der optischen Platte eine schwach lichtstreuende Mikrostruktur aufgebracht ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Beleuch­ tungsstrahlengang mit einem afokalen System mit einem inneren Brennpunkt FBi aufgebaut sein und der Abbildungsstrahlengang mit einem inneren Brennpunkt FAi und im Objektraum der Brennpunkt des afoka­ len Beleuchtungsstrahlenganges und der Brennpunkt des afokalen Abbildungsstrahlenganges zumindest näherungsweise zusammenfallen und der Konvergenzpunkt K1 in einem Abstand dK1 von der optischen Achse des Beleuchtungsobjektivs angeordnet sein, wobei der Abstand dK1 dem halben Abstand vom inne­ ren Brennpunkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlen­ ganges durch die innere Brennebene Fi des Beleuchtungsstrahlenganges entspricht, wobei das Beleuch­ tungsobjektiv und das Abbildungsobjektiv jeweils auf der nach außen gekehrten Seite der afokalen Abbil­ dungsstufen zumindest näherungsweise telezentrisch ausgeführt sind.Das Bewegungssystem kann mit mindestens einer beweglichen Komponente so angeordnet sein, daß dessen Bewegungsrichtung zumindest annähernd parallel zu einer Geraden gA justiert ist und so leuch­ tende Flächenelemente FEL auf Verschiebungsstrecken VSBAj verschoben werden und die Gerade gA kann den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum durchstoßen und für die Gerade gA kann der Anstieg mit dem Betrag aus dem Quotienten Brennweite fB des Beleuchtungsobjektivs und Ab­ stand dK1 realisiert sein, wobei der Anstieg auf die Hauptebene des Abbildungsobjektivs bezogen ist, und eine zur optischen Achse des Abbildungsobjektivs zumindest annähernd parallele Verschiebung des Empfänger-Arrays besteht.Weiterhin kann mindestens ein feststehender Umlenkspiegel dem Abbildungsobjektiv zugeordnet sein und so strukturiert leuchtendes Array und Empfänger-Array in zueinander parallelen Ebenen liegen und so nur ein einziger z-Schlitten für das leuchtende Array und das Empfänger-Array angeordnet ist.Diese Anordnung ist für 3D-Aufnahmen im Makro-Raum sehr geeignet. Dabei können die beiden Objekti­ ve im afokalen System auch sehr unterschiedliche Brennweiten aufweisen. Von Vorteil ist weiterhin, daß die effektive Wellenlänge im gesamten Objektraum konstant ist. Die leuchtenden Flächenelemente FEL befinden sich ständig auf den B-Strecken BSAj.Der Abstand dK1 entspricht vorzugsweise dem halben Abstand vom inneren Brennpunkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brenne­ bene Fi des Beleuchtungsstrahlenganges. Dies bedeutet, daß der Konvergenzpunkt K1 im Durchstoß­ punkt der Winkelhalbierenden der Achsen des Beleuchtungsstrahlenganges und des Abbildungsstrahlen­ ganges durch die innere Brennebene des Beleuchtungsstrahlenganges liegt. Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse wählbar, so daß sowohl eine senkrechte Beobach­ tung und Schrägbeleuchtung als auch eine senkrechte Beobachtung und Schrägbeobachtung möglich sind.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zwei ver­ schiebbare Empfänger-Arrays in parallelen Abbildungsstrahlengänge in einer gemeinsamen Ebene ange­ ordnet sein, wobei die Verschiebung des ersten Empfänger-Arrays auf der Verschiebungstrecke ASA1 und die Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungstrecke ASA2 stattfindet. Die Ver­ schiebungsstrecken ASA1 und die Verschiebungstrecke ASA2 können sich in einem Punkt PA in der zu­ sammenfallenden array-seitigen Hauptebene schneiden, wobei sich die Elemente des ersten Empfänger- Arrays auf den Verschiebungsstrecken ASA1j und sich die Elemente des zweiten Empfänger-Arrays auf den Verschiebungsstrecken ASA2j bewegen.Der Koinzidenzpunkt K21 der Bilder der Verschiebungsstrecken ASA1j, die Strecken ASO1j, des ersten Abbildungsstrahlenganges und der Koinzidenzpunkt K22 der Bilder der Verschiebungsstrecken ASA2j, die Strecken ASO2j, des zweiten Abbildungsstrahlenganges Beleuchtungsstrahlenganges können im Koinzi­ denzpunkt KO zusammenfallen. Zu den beiden parallelen Abbildungsstrahlengängen kann mittig und symmetrisch ein paralleler Beleuchtungsstrahlengang mit einem auf der Verschiebungsstrecke VSAP ver­ schiebbaren strukturiert leuchtenden Array mit linienhaften Elementen in der Ebene der beiden Empfän­ ger-Arrays angeordnet sein und das Beleuchtungsobjektiv kann mittig und symmetrisch angeordnet sein, also mit einer zu den beiden Abbildungsstrahlengängen parallelen optische Achse, und dessen array­ seitiger Hauptpunkt HAB kann mit dem Punkt PA zusammenfallen. Der objektseitige Brennpunkt FOB des Beleuchtungsstrahlenganges kann mit dem Koinzidenzpunkt KO zusammenfallen, und es kann ein be­ leuchtetes Liniengitter als strukturiert leuchtendes Array angeordnet sein.Die Empfänger-Arrays bewegen sich hierbei vorzugsweise real auf den Verschiebungsstrecken ASA1 und ASA2 und die Elemente der Empfänger-Arrays auf den Verschiebungsstrecken ASA1j und ASA2j.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zwei ver­ schiebbare Empfänger-Arrays in parallelen Abbildungsstrahlengänge in einer gemeinsamen Ebene ange­ ordnet sein, wobei die Verschiebung des ersten Empfänger-Arrays auf einer Verschiebungstrecke parallel zur optischen Achse und die Verschiebung des zweiten Empfänger-Arrays auf einer Verschiebungstrecke parallel zur optischen Achse stattfindet. Die Elemente der beiden Empfänger-Arrays können so ausgele­ sen werden und Signale gebildet werden, als ob sich die Empfänger-Arrays auf Verschiebungsstrecken ASA1 befinden würden und die Verschiebungstrecke ASA2 sich in einem Punkt PA in der zusammenfallen­ den array-seitigen Hauptebene schneiden. Der Koinzidenzpunkt K21 der Bilder der Verschiebungsstrecken ASA1j, die Strecken ASO1j, des ersten Abbildungsstrahlenganges und der Koinzidenzpunkt K22 der Bilder der Verschiebungsstrecken ASA2j, die Strecken ASO2j, des zweiten Abbildungsstrahlenganges Beleuch­ tungsstrahlenganges können im Koinzidenzpunkt KO zusammenfallen. Zu den beiden parallelen Abbil­ dungsstrahlengängen kann mittig und symmetrisch ein paralleler Beleuchtungsstrahlengang mit einem auf der Verschiebungsstrecke VSAP verschiebbaren strukturiert leuchtenden Array mit linienhaften Elementen in der Ebene der beiden Empfänger-Arrays angeordnet sein und das Beleuchtungsobjektiv kann mittig und symmetrisch angeordnet sein, also mit einer zu den beiden Abbildungsstrahlengängen parallelen op­ tische Achse, und dessen arrayseitiger Hauptpunkt HAB mit dem Punkt PA zusammenfällt. Der objektseiti­ ge Brennpunkt des Beleuchtungsstrahlenganges kann mit dem Koinzidenzpunkt KO zusammenfallen und es kann ein strukturiert leuchtendes Array angeordnet sein.Die Empfänger-Arrays bewegen sich vorzugsweise nicht real auf den Verschiebungsstrecken ASA1 und ASA2, sondern es werden die Elemente der Empfänger-Arrays ausgelesen, die in Zusammenwirken mit der Parallelverschiebung den Effekt ergeben, als ob diese sich auf den Verschiebungsstrecken ASA1j und ASA2j bewegen würden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Abbil­ dungsobjektive für die beiden Empfänger-Arrays und das leuchtende Array zumindest näherungsweise baugleich sein und deren Brennebenen können im Objektraum koinzidieren. Das leuchtende Array kann mit leuchtenden Farbstreifen gebildet sein, die zumindest näherungsweise lückenlos aneinandergereiht sind, wobei das leuchtende Array aus transmittierenden Mikroelementen und aus reflektierenden Mikro­ elementen aufgebaut ist, und dem strukturierten Array kann eine Rotlichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet sein, wobei das Licht mindestens einer Lichtquelle das strukturierte Array in einer fokussierenden Struktur durchsetzt und das Licht von mindestens zwei Lichtquellen auf Mikro­ spiegelelemente trifft.Die beiden Empfänger-Arrays und das strukturierten Array können mit einem Bewegungssystem zur prä­ zisen, synchronen Bewegung verbunden sein, wobei die optisch aktiven Ebenen der beiden verschiebba­ ren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebene gehalten werden können, wodurch die optisch konjugierten Ebenen im Objektraum stets koinzidie­ ren.Dadurch wird erreicht, daß eine im strukturiert leuchtenden Array im Vergleich zu einer Farbfilterung ver­ lustarme Erzeugung von zumindest näherungsweise lückenlosen Farbstreifen ermöglicht ist. Die Strah­ lungsquellen können dabei als Laserlichtquellen, farbige Lichtquellen oder als konventionelle weiße Licht­ quellen mit Farbfiltern gebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene ein farbig leuchtendes Array als Gitter mit einem asymmetrischen Furchenprofil gebildet sein. Dieses besteht aus Dreieckprofilen, die Makro-Profilflächen aufweisen, und besitzt eine auf dem gesamten Gitter zumindest näherungsweise gleichbleibenden Gitterkonstante zwischen 0,01 mm und 2 mm, die als Makro- Gitterkonstante bezeichnet wird. Dem Gitter ist mindestens eine Strahlungsquelle zur Beleuchtung zuge­ ordnet.Auf der Oberfläche des Gitters können zumindest näherungsweise Dreieckprofile gebildet sein und auf den Makro-Profilflächen derselben jeweils zusätzlich ein Mikrofurchenprofil mit einer innerhalb einer Ma­ kro-Profilfläche veränderlichen Gitterkonstante des Mikrofurchenprofils und einer mittleren Mikro- Gitterkonstante desselben zwischen 0,0005 mm und 0,01 mm ausgebildet sein. So besteht für das einfal­ lende Licht eine fokussierende Wirkung verbunden mit einer Farbaufspaltung zumindest in die drei Farb­ bereiche blau grün rot. Hierbei kann auch ein diffraktives Reflexionsgitter eingesetzt werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Mi­ krofurchenprofil auf den Makro-Flächen als ein asymmetrischen Mikro-Dreieckprofil ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Gitter als Transmissionsgitters mit einem asymmetrischen Furchenprofil mit Makro-Dreieckprismen ausgebildet sein, Dabei ist vorzugsweise das Mikroprofil auf den Hauptflächen der Makro-Dreieckprismen als ein asymmetrischen Mikro-Dreieckprofil mit Mikroprismen ausgebildet.Dabei können je einem transmittierenden und gleichzeitig fokussierenden Element zwei flankierende, re­ flektierende Elemente zugeordnet sein. Dem Transmissionsgitters können eine Rotlichtquelle, eine Grün­ lichtquelle und eine Blaulichtquelle zugeordnet sein, wobei vorzugsweise das Licht einer Lichtquelle das leuchtende Array in den fokussierenden Elementen durchsetzt und das Licht von mindestens zwei separa­ ten Lichtquellen auf die reflektierenden Elemente trifft.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Abbil­ dungsobjektive für die beiden Empfänger-Arrays und das leuchtende Array zumindest näherungsweise baugleich sein und deren Brennebenen im Objektraum koinzidieren. Das strukturiert leuchtende Array ist dabei aus transmittierenden und gleichzeitig fokussierenden Mikroelementen und aus reflektierenden Mi­ kroelementen gebildet, wobei je einem transmittierenden und gleichzeitig fokussierenden Element zwei flankierende, reflektierende Elemente zugeordnet sind. Dem strukturiert leuchtende Array ist eine Rot­ lichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet, wobei vorzugsweise das Licht einer Lichtquelle das leuchtende Array in den fokussierenden Elementen durchsetzt und das Licht von minde­ stens zwei separaten Lichtquellen unter einem Einfallswinkel von mindestens 10° auf die reflektierenden Elemente trifft. So kann mit drei einzelnen Lichtquellen mit vergleichsweise wenig Lichtverlusten ein farbig leuchtendes Array realisiert werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die beiden Empfänger-Arrays und das leuchtende Array mit einem Bewegungssystem zur präzisen, synchronen Be­ wegung verbunden sein, wobei vorzugsweise die optisch aktiven Ebenen der beiden verschiebbaren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebe­ ne gehalten sind, wodurch die optisch konjugierten Ebenen im Objektraum permanent zur Koinzidenz ge­ bracht sind.So ist gegeben, daß eine im strukturiert leuchtenden Array im Vergleich zu einer Farbfilterung besonders verlustarme Erzeugung von zumindest näherungsweise lückenlosen Farbstreifen ermöglicht ist. Ein gro­ ßer Anteil des transmittierten Anteils kann das leuchtende Array passieren und trägt so zur Ausleuchtung der Objektoberfläche bei. Weiterhin wird dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumindest nähe­ rungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem struk­ turierten Array ein steuerbarer Stellmechanismus zur lateralen Bewegung zugeordnet sein.Dieser Stellmechanismus am strukturierten Array dient vorzugsweise der vergleichsweise langsamen late­ ralen Bewegung, um im Aufnahmevorhang nach und nach jedes Element einer Objektoberfläche mit den Farben rot, grün und blau beleuchten zu können. Dieser Stellmechanismus zur lateralen Bewegung kann sich dabei schrittweise vorwärts und rückwärts bewegen. Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberllächen in einer Szene das struktu­ riert leuchtende Array mit Bereichen LBARRAY j unterschiedlicher Leuchtdichte und mit leuchtenden Flä­ chenelemente FEL mit Mikro-Farbteilern ausgebildet sein, so daß vorzugsweise eine nahezu planare Struktur gebildet ist. Dies führt zu einem sehr guten Lichtwirkungsgrad.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ riert leuchtende Array mit Bereichen LBARRAY j mit zumindest näherungsweise gleichem Abstand der leuchtenden Flächenelemente FEL in einer Ebene in den Farben rot, grün und blau gebildet sein, wobei vorzugsweise die Wiederholungsperiode WP dem dreifachen Streifenabstand der einzelnen verschieden­ farbigen Flächenelemente entspricht und vorzugsweise Elemente des Empfänger-Arrays farbsensitiv und auf das Wellenlängenspektrum der leuchtenden Flächenelemente abgestimmt FEL sind.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ rierte Array zumindest auf einem Teilbereich einer Scheibe ausgebildet sein, der vorzugsweise eine rota­ torische Präzisionslagerung mit einer Welle mit einem rotatorischen Präzisionsmotor zugeordnet ist, so daß eine rotierende Scheibe gebildet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ riert leuchtende Array auf einer rotierenden Scheibe als ein rotationssymmetrisches Transmissions-Gitter ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene an einem äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisch messendes Meßsystem zur Erfassung der axialen Ablage eines Teilbereiches der rotierenden Scheibe von einer axialen Sollposition angeordnet sein.Dabei ist das Meßsystem in seiner messenden Funktion vorzugsweise einem kreisringförmigen Bereich der rotierenden Scheibe zugeordnet, so daß jeweils die axiale Ablage in einem kreisringförmigen Bereich derselben, verursacht durch Axialschlag und Taumelschlag der rotierenden Scheibe hochgenau und hochdynamisch gemessen werden kann.Das Meßsystem kann ein kapazitives, induktives oder auch optisches Meßprinzip aufweisen. Das Meß­ systems befindet sich in unmittelbarer Nähe des jeweils abgebildeten Ausschnittes des strukturierten Ar­ rays auf der Kreisscheibe. Für die optische Messung befindet sich auf der Scheibe dazu vorzugsweise auf einer stetigen Planfläche ein zumindest teilweise reflektierender Bereich. Das Meßsystem befindet sich vorzugsweise in einem Rachen des hochstabilen Gestells aus einem Werkstoff mit einem vorzugsweise geringen Temperaturausdehnungskoeffizienten wie beispielsweise Keramik oder eine Eisen-Nickel- Legierung.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be­ einflussung der axialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe angeord­ net sein, welches vorzugsweise als Komponente eines Lage-Regelkreises der rotierenden Scheibe zuge­ ordnet ist, so daß die axiale Ablage eines Sektors, verursacht durch Axialschlag und Taumelschlag bei der Rotation der Kreisscheibe, hochdynamisch ausgeregelt und so vorzugsweise jeweils ein Teilbereich der rotierenden Scheibe und so auch die axiale Lage zumindest eines Teilbereiches des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird. Das Stellsystem kann als Piezo- Steller als Komponente eines Lage-Regelkreises ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be­ einflussung der axialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe angeord­ net sein, welches vorzugsweise als Komponente eines Lage-Regelkreises ausgebildet und der rotieren­ den Welle zugeordnet ist, so daß vorzugsweise die axiale Ablage eines Teilbereiches der rotierenden Scheibe, verursacht durch Taumelschlag bei der Rotation derselben, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe und so auch die axiale Lage des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird. Das Stellsystem kann auch Komponenten des Beleuchtungsobjektivs zugeordnet sein, so daß im Objektraum das Bild des strukturiert leuchtenden Ar­ rays sich stets in der gleichen Position befindet.Das Stellsystem kann als Piezo-Steller als Komponente eines Lage-Regelkreises ausgebildet sein. Im Effekt werden sowohl der Axialschlag als auch ein gegebenenfalls vorhandener Taumelschlag der rotie­ renden Scheibe ausgeregelt. Es ist auch möglich, daß die rotierende Scheibe keine sehr hohe Steifigkeit aufweist und das Stellsystem durch eine elastische Deformation die axiale Sollposition realisiert, bei­ spielsweise durch die Wirkung magnetischer Kräfte.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisch messendes Meßsy­ stem zur Erfassung der radialen Ablage von einer Sollposition eines Teilbereiches der rotierenden Schei­ be angeordnet sein, welches vorzugsweise der rotierenden Scheibe zugeordnet ist, so daß in einem Kreisring der rotierenden Scheibe jeweils die radiale Ablage derselben, verursacht durch Radialschlag bei der Rotation der Kreisscheibe, hochdynamisch und hochgenau gemessen werden kann.Das Meßsystem kann ein kapazitives, induktives oder auch optisches Meßprinzip aufweisen. Im Fall der Anwendung eines optischen Meßverfahrens kann sich eine Referenzspur in Form eines konzentrischen Kreises in unmittelbarer Nachbarschaft, beispielsweise in einem mittleren Abstand maximal 10 mm, zum strukturiert leuchtenden Array auf der rotierenden Scheibe befinden. Diese Referenzspur kann mit einer Genauigkeit von 0,1 µm zu einer Referenz- oder Symmetrielinie des strukturiert leuchtenden Arrays posi­ tioniert sein. Es kann auch ein präziser Ringspalt als Referenzspur gebildet sein, so daß das transmittierte Licht für die Bestimmung der radialen Ablage ausgewertet wird.Als Basiswerkstoff kann aus Gründen der Invarianz gegenüber Temperaturänderungen Quarzglas für die rotierenden Scheibe eingesetzt werden. Für nichttransparente Bereiche der Scheibe kann auch ein faser­ verstärkter Werkstoff eingesetzt werden. Der abgebildete Ausschnitt des strukturierten Arrays befindet sich vorzugsweise in unmittelbarer Nähe des Meßsystems. Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Steilsystem zur Be­ einflussung der radialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe ange­ ordnet sein. Dieses Steilsystem ist vorzugsweise als Komponente eines Lage-Regelkreises der rotieren­ den Welle der rotierenden Scheibe zugeordnet, so daß die radiale Ablage eines Teilbereiches, verursacht durch Radialschlag bei der Rotation der rotierenden Scheibe, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe mit dem strukturiert leuchtenden Array in der radialen Sollposition gehalten und so der laterale Abstand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten werden kann. So kann vorzugsweise auch der laterale Abstand der Lage eines vorbestimmten Elementes des Empfänger-Arrays und eines vorbestimmten leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays im Array-Raum konstant gehalten werden kann.Dadurch wird der Triangulationswinkel, bezogen auf jedes Element der Objektoberfläche im Objektraum jeweils unabhängig vom Radialschlag konstant gehalten und die genaue laterale Zuordnung zwischen ei­ nem vorbestimmten Elementes des Empfänger-Arrays und einem vorbestimmten, leuchtenden Flä­ chenelementes FELj des strukturiert leuchtenden Arrays bleibt im Zeitbereich ΔtB erhalten. Dies ist für die Genauigkeit bei phasenauswertenden Verfahren wichtig.Das Stellsystem kann als Piezo-Steller als Komponente eines Lage Regelkreises ausgebildet sein, der gemeinsam mit dem Meßsystem eine Komponente eines Lage-Regelkreises darstellt. Als Kriterium für die Lageregelung gilt, daß der Abstand eines vorbestimmtes leuchtenden Flächenelementes FELj und eines vorbestimmten Element des Empfänger-Arrays während der Rotation der rotierenden Scheibe konstant gehalten werden soll, so daß gegebenenfalls auftretender Radialschlag gemessen und durch das Stellsy­ stem ausgeregelt werden kann.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be­ einflussung der radialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe ange­ ordnet sein. Das Stellsystem ist vorzugsweise als Komponente eines Lage-Regelkreises dem Empfänger- Array im Abbildungsstrahlengang zugeordnet, so daß die laterale Lage des Empfänger-Arrays hochdy­ namisch geregelt und so und so der laterale Abstand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten und so der laterale Abstand der Lage eines vorbestimmten Elementes des Emp­ fänger-Arrays und eines vorbestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchten­ den Arrays im Array-Raum konstant gehalten werden kann.Dadurch wird der Triangulationswinkel, bezogen auf jedes Element der Objektoberfläche im Objektraum jeweils unabhängig vom Radialschlag gehalten und die genaue laterale Zuordnung zwischen einem vor­ bestimmten Elementes des Empfänger-Arrays und einem vorbestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays bleibt im Zeitbereich tB erhalten. Das Stellsystem kann als Pie­ zo-Steller ausgebildet sein, der gemeinsam mit dem Meßsystem eine Komponente eines Lage- Regelkreises darstellt. Als Kriterium gilt, daß der Abstand eines vorbestimmtes leuchtenden Flächenele­ mentes FELj des strukturiert leuchtenden Arrays von einem vorbestimmten Element des Empfänger- Arrays während der Rotation der Scheibe konstant gehalten werden soll, so daß eine gegebenenfalls auf­ tretende Abweichung vom Sollabstand des Empfänger-Arrays vom strukturiert leuchtenden Array gemes­ sen und durch das Stellsystem, welches die laterale Position des Empfänger-Arrays bestimmt, ausgere­ gelt werden kann.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe mit mindestens zwei Sektoren ausgebildet sein und die Sektorenflächen die Stufenflächen ei­ ner Wendeltreppe darstellen.So können unterschiedliche Bereiche eines strukturierten Arrays in den Beleuchtungsstrahlengang ge­ bracht werden, wobei sich deren geometrisch-optische Weglänge zum Beleuchtungsobjektiv definiert än­ dert, und so deren Bild in unterschiedliche Tiefen des Objektraumes abgebildet wird.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Sekto­ renflächen jeweils die Begrenzungsflächen einer transparenten Platte darstellen, wobei diese so gestalte­ te rotierenden Scheibe im weiteren als Wendeltreppenscheibe bezeichnet wird.So können unterschiedliche Bereiche eines strukturierten Arrays in den Beleuchtungsstrahlengang ge­ bracht werden, wobei sich die axiale Gegenstandsweite der unterschiedlichen Bereiche des strukturierten Arrays im Beleuchtungsstrahlengang durch die Dicke der Platte ändert, und so deren Bilder in unter­ schiedliche Tiefen des Objektraumes abgebildet werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Wendel­ treppenscheibe mit zumindest näherungsweise regelmäßigen, gleichflächigen Stufenflächen als vollflächi­ ge Wendeltreppenscheibe mit Stufenabsätzen mit Stufenhöhen Δhj gebildet sein und auf die gleichflächi­ gen Stufenflächen der Sektoren der transparenten Platte je ein strukturiertes Array aufgebracht sein und vorzugsweise das Licht der Strahlungsquelle erst nach dem Passieren der Fläche des strukturierten Ar­ rays die Platte passiert. Weiterhin können die Stufenflächen zumindest näherungsweise senkrecht zur Drehachse ausgerichtet sein und vorzugsweise mindestens ein einziger Absatz auf der Wendeltreppen­ scheibe mit mindestens der zweifachen Stufenhöhe ausgebildet sein. Die Wendeltreppenscheibe kann dabei eine zumindest näherungsweise mittlere Steigung pro Umdrehung von maximal einem Zwanzigstel des Radius' der Wendeltreppenscheibe aufweisen.Vorzugsweise kommt auf der Wendeltreppenscheibe nur die Fläche einer Stufe, beziehungsweise eines Sektors in den optischen Strahlengang zu einem Zeitpunkt zur Wirkung. Es ist aber auch möglich, daß mehrere Sektorenflächen, wenn diese sehr schmal ausgeführt sind, im optischen Strahlengang zur Wir­ kung kommen. In diesem Fall detektieren die Bereiche eines Empfänger-Arrays zu unterschiedlichen Zeiten Signalwerte von verschiedenen Sektorenflächen.So kann der mittlere geometrisch-optische Abstand eines strukturierten Array, die Gegenstandsweite, dem jeweils eine Strahlungsquelle zugeordnet ist, vom zugeordneten Beleuchtungsobjektiv bei der Rotati­ on der Wendeltreppenscheibe sehr schnell, hochgenau und vorbestimmt durch die geometrisch-optische Weglängenänderung durch die Stufenwirkung verändert werden. Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Wendel­ treppenscheibe als ein in sich hochstabiler Körper aus gebildet sein und die Sektorenflächen der transpa­ renten Platten auf einer Seite der Wendeltreppenscheibe können in einer gemeinsamen Ebene liegen und so eine Fläche bilden. So kann die geometrisch-optische Weglänge der transparenten Platten den Stufe zu Stufe vorbestimmt verändert werden, indem vorzugsweise verschieden dicke, transparente Platten gebildet sind.So kann der mittlere geometrisch-optische Abstand, die Gegenstandsweite, eines strukturierten Array dem jeweils eine Strahlungsquelle und das Beleuchtungsobjektiv zugeordnet ist, vom zugeordneten Be­ leuchtungsobjektiv bei der Rotation der Wendeltreppenscheibe sehr schnell, hochgenau und vorbestimmt durch die geometrisch-optische Weglängenänderung durch die verschieden dicken transparenten Platten verändert werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene in den Stu­ fenflächen der vollflächigen Wendeltreppenscheibe je ein weiterer transparenter und unstrukturierter Sektorenbereich für den Abbildungsstrahlengang angeordnet sein.So kann für den Abbildungsstrahlengang ebenfalls sehr schnell und auch synchron sowie hochgenau und vorbestimmt eine geometrisch-optische Weglängenänderung im Zeitbereich ΔtB realisiert werden und so können bei zumindest näherungsweise baugleicher Ausführung, paralleler Achslage und entsprechender Justierung sowohl der Beleuchtungsstrahlengang als auch der Abbildungsstrahlengang auf die jeweils gleiche Schärfeebene fokussiert sein. Die Rotationsbewegung der Wendeltreppenscheibe wird so mit dem Auslesen der Elemente des Empfänger-Array synchronisiert, daß in der Integrationszeit beispielsweise einer Matrixkamera eine bewegte Segmentfläche die Fläche der Matrixkamera vollständig überdeckt, wo­ bei die Segmentfläche größer als die Fläche der Matrixkamera ist. Es ist jedoch auch eine gesteuerte teil­ weise Überdeckung möglich. In diesem Fall können die Elemente der Matrixkamera zeilenweise oder in Gruppen von Zeilen ausgelesen werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk­ turierten Arrays auf den Stufenflächen der zugehörigen Platten in der Art eines als Tangentialgitters auf­ gebracht sein. So kann über der Rotation der Scheibe eine nur vergleichsweise geringe oder gar keine Phasenänderung in einem Feld eines strukturiert leuchtenden Arrays erzeugt werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk­ turierten Arrays auf den Stufenflächen der zugehörigen Platten der Wendeltreppenscheibe in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht sein und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet sein. So kann die Phase von einem Signal, welches aus einem Feld eines strukturiert leuchtenden Arrays bei der Rotation innerhalb eines Zeitintervalls gewonnen wird, beispielsweise des Zeitintervalls der Inte­ gration zumindest eines Bereiches des Empfänger-Arrays, beispielsweise einer Zeile, konstant gehalten werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Gitter mit äquidistanten konzentrischen Kreisen von Stufenflächen zu Stufenflächen der Wendeltreppenscheibe einen Sprung in der Struktur dieses Gitter in radialer Richtung in der Art eines Phasensprunges aufwei­ sen. So besteht die Möglichkeit, die Phasenlage bei der Rotation der Wendeltreppenscheibe im Beleuch­ tungsstrahlengang in definierten Schritten zu verändern.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase von Stufenfläche zu Stufenfläche der Wendeltreppenscheibe einem ganzzahligen Vielfachen eines Viertels der mittleren Gitterkonstanten des Gitters betragen. So können bekannte Phasen- Auswerte-Algorithmen eingesetzt werden, die vorzugsweise mit einem ganzzahligen Vielfachen von 90° arbeiten, wobei der Wert von 90° eingeschlossen ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase von Stufenfläche zu Stufenfläche der Wendeltreppenscheibe einem Dreiviertel der mittleren Gitterkonstanten des Gitters betragen. So können bekannte Sub-Nyquist-Phasen-Auswerte-Algorithmen eingesetzt werden, die insgesamt weniger Stützstellen benötigen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf den Stufenflächen der Wendeltreppenscheibe zumindest in Teilbereichen auf der planen Fläche der Wendel­ treppenscheibe ein Referenzgitter aufgebracht sein. So kann die Rotation und die aktuelle Winkellage der Wendeltreppenscheibe gemessen werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe­ renzgitter auf der planen Fläche der Wendeltreppenscheibe zumindest näherungsweise eine Radialstruk­ tur aufweisen. So kann die Rotation und die aktuelle Winkellage der Wendeltreppenscheibe hochgenau gemessen werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe­ renzgitter zumindest näherungsweise eine Radialstruktur mit einer cos2-Transparenz-Verteilung und eine Ortsfrequenz aufweisen, die vorzugsweise der Ortsfrequenz entspricht, die aus der mittleren Phasenän­ derung des strukturierten Arrays auf einer konzentrischen Bahn der Wendeltreppenscheibe über dem Vollkreis resultiert. So kann mittels geeignetem optoelektronischem Zubehör und Auswerte-Modulen ein cos2-ähnliches Signal als Referenzsignal gewonnen werden, in welches der detektierte Signalverlauf, der zumindest näherungsweise ein cos2-Signal darstellen kann, phasenmäßig eingepaßt werden kann.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene, daß an der vollflächigen Wendeltreppenscheibe mindestens eine Referenzmarke aufgebracht sein. Beispielsweise kann die Referenzmarke am Ort des maximalen geometrisch-optischen Abstandes der leuchtenden Flä­ chenelemente FEL von der zugeordneten Brennebene des Beleuchtungsobjektivs aufgebracht sein, bei­ spielsweise auch am Umfang oder auf der planen Fläche. Dann beginnt an der Referenzmarke das Ein­ zählen von Impulsen in einen Zähler und gleichzeitig detektieren die Elemente des Empfänger-Arrays vor­ zugsweise periodische Signale mit einer Modulation und ein Signal mit einem Maximum, wenn sich ein Oberflächenelement im Schärfevolumen des Bildes eines leuchtenden Flächenelementes FELj und gleichzeitig im Schärfevolumen des Bildes eines Elementes des Empfänger-Arrays befindet. Der Impuls, der dem Ort des absoluten Signalmaximums entspricht, wird zur Berechnung der zO-Position benutzt.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf den gleichflächigen Stufenflächen der Platten je ein weiterer lichtdurchlässiger Teilbereich für den Abbil­ dungsstrahlengang mit einem Farbfilter angeordnet sein. Dieser lichtdurchlässige Teilbereich kann als Farbfilter und vorzugsweise auch einen Farbteiler aufweisen, wobei vorzugsweise die Anteile der ge­ wünschten Farbe transmittieren. So kann ein Filterrad gebildet sein und eine Farbfilterung des Lichtes von den Elementen der Objektoberflächen in einer Szene realisiert und so die Farbinformation gewonnen werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene in jedem Sektor der vollflächigen Wendeltreppenscheibe mindestens eine Referenzmarke aufgebracht sein. Da­ durch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächen 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880elemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Sekto­ ren eine geringere Ausdehnung in tangentialer Verschiebungsrichtung aufweisen als die Ausdehnung des Empfänger-Arrays und so vorzugsweise das Empfänger-Array streifenweise ausgelesen wird. Die strei­ fenweise Auslesung, im speziellen sogar die zeilenweise Auslesung, ermöglicht eine hohe Anzahl von Segmenten. Dadurch ist gegebenenfalls eine Verringerung der Umfangsgeschwindigkeit der Wendeltrep­ penscheibe möglich. So wird für die Wendeltreppenscheibe der stetige Fall angenähert. Durch das An­ wenden von Auftragetechniken für die Segmente der Wendeltreppenscheibe können Dickenzuwächsen z. B in 5 µm-Schritten von Segment zu Segment einer Platte realisiert werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene gleichflä­ chige Stufenflächen mit der Anzahl 2 Exponent n auf der vollflächigen Wendeltreppenscheibe angeordnet sein. Dies ist für die schnelle numerische Auswertung oft von Vorteil.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als ein Flügelrad mit Flügeln in Form transparenter Platten-Sektoren unterschiedlicher geome­ trisch-optischer Dicke ausgebildet sein. Durch eine Ausführung der Scheibe in Kunststoff ist so eine Low­ cost-Realisierung möglich. Ein auftretender Axialschlag kann gegebenenfalls im Elastizitätsbereich der Scheibe ausgeregelt werden. Es können dazu magnetische, elektrostatische, elektromagnetische Kraft­ wirkungen zur Anwendung kommen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als ein Flügelrad mit Flügeln in Form transparenter Platten-Sektoren unterschiedlicher geome­ trisch-optischer Dicke ausgebildet sein. Die Platten können dabei Planparallelplatten darstellen. Es kann die geometrische Dicke von Flügel zu Flügel verändert sein. Möglich ist auch der Einsatz unterschiedli­ cher Brechungsindizes für den Optikwerkstoff. So kann eine geometrisch-optischen Weglängenänderung im Beleuchtungsstrahlengang und für die leuchtenden Flächenelemente eine axiale Gegenstandsver­ schiebung erreicht werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als Keilscheibe ausgebildet sein. So kann ebenfalls eine geometrisch-optische Weglängenän­ derung im Beleuchtungsstrahlengang und für das auf die Taumelscheibe aufgebrachte strukturierte Array eine axiale Gegenstandsverschiebung erreicht werden. Im Abbildungsstrahlengang kann so eine axiale Bildverschiebung für die abgebildeten Elemente der mindestens einen Objektoberfläche realisiert werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ rierte Array auf der Oberfläche einer Keilscheibe mit einer planen Unterfläche ausgebildet sein, wobei vor­ zugsweise jedoch nur ein Teilbereich der Keilscheibe als strukturiertes Array zur Anwendung kommt und der Keilscheibe eine rotatorische Präzisionslagerung mit einer Drehachse mit einem rotatorischen Präzisi­ onsmotor zugeordnet ist. So kann das strukturiertes Array auf einer Planfläche aufgebracht sein. Dies ist für dessen Herstellung vorteilhaft.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Keil­ scheibe als transparenter Körper ausgebildet ist und eine Fläche der Keilscheibe senkrecht zur Drehach­ se ausgebildet sein. Dies ist für die Justierung der 3D-Aufnahme-Anordnung und zur Vermeidung eines variablen lateralen Versatzes bei der Rotation der Scheibe von Vorteil.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Keil­ scheibe eine Dickenänderung von maximal einem Zwanzigstel des Radius' der Keilscheibe aufweisen, wobei jedoch vorzugsweise nur ein Ausschnitt der Keilscheibe als strukturiertes Array zur Anwendung kommt.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene ein Refe­ renzgitter auf der vollflächigen Keilscheibe zumindest näherungsweise eine Radialstruktur aufweisen. Diese kann optisch hochgenau erfaßt werden und zur Bestimmung eines Referenzwertes, beispielsweise als Referenzphase verwendet werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der voll­ flächigen Keilscheibe mindestens eine Referenzmarke aufgebracht sein. Diese kann optisch hochgenau erfaßt werden und zur Bestimmung eines absoluten Wertes der Referenzphase verwendet werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Keil­ scheibe mehrere strukturierte Arrays in einzelnen Sektoren aufgebracht sind. Diese strukturierte Arrays werden beleuchtet bei der Rotation der Scheibe nacheinander vom Beleuchtungsobjektiv in den Objek­ traum abgebildet.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk­ turierten Arrays in der Art eines Tangentialgitters aufgebracht sein. Diese strukturierte Arrays in der Art eines Tangentialgitters ermöglichen auch bei einer vergleichsweise hohen Drehgeschwindigkeit eine ver­ gleichsweise geringe Veränderung der Phase.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die einzel­ nen Tangentialgitter von Sektor zu Sektor einen Sprung in der Gitterstruktur in radialer Richtung in der Art eines Phasensprunges aufweisen. So kann die für die Auswertung benötigte Veränderung der Phase im Signalverlauf realisiert werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase von Sektor zu Sektor ein Viertel der Periode des Tangentialgitters betragen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als Taumelscheibe ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ rierte Array auf der Oberfläche eines Teilbereiches einer Taumelscheibe mit einem Taumelschlag und mit einer planen Unterfläche ausgebildet sein. Auch ein Taumelschlag erzeugt bei der Rotation einer Scheibe eine geometrisch-optische Weglängenänderung für das auf die Taumelscheibe aufgebrachte strukturierte Array somit eine axiale Gegenstandsverschiebung bei der Abbildung desselben.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Taumel­ scheibe als vollflächige Scheibe und als transparenter Körper ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Axial­ schlag der Taumelscheibe maximal ein Zwanzigstel des Radius der Taumelscheibe aufweisen, wobei vor­ zugsweise jedoch nur ein Ausschnitt der Taumelscheibe als strukturiertes Array zur Anwendung kommt.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zumindest auf einem Teilbereich der Taumelscheibe ein strukturiertes Array aufgebracht sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ rierte Array als Gitter in der Art einer Archimedischen Spirale mit mindestens einem Gang aufgebracht sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Taumelscheibe zumindest in Teilbereichen ein Referenzgitter aufgebracht sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe­ renzgitter auf der Taumelscheibe zumindest näherungsweise eine Radialstruktur aufweisen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der voll­ flächigen Taumelscheibe mindestens eine Referenzmarke aufgebracht sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Taumelscheibe mehrere strukturierte Array in einzelnen Segmenten aufgebracht sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk­ turierten Arrays in der Art eines Tangentialgitters aufgebracht sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Tan­ gentialgitter von Sektor zu Sektor einen Sprung in der Struktur in der Art eines Phasensprunges aufwei­ sen.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase mindestens einen ganzzahligen Teil von einem Viertel der Periode des Tangentialgit­ ters betragen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Taumelscheibe mehrere strukturierte Array in einzelnen Sektoren in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht sein, wobei vorzugsweise der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet ist und vorzugsweise die Gitterstruktur von Sektor zu Sektor in radialer Richtung einen Sprung in der Art eines Phasensprunges aufweist und der Sprung in der Phase von Sektor zu Sektor ein ganzzahliges Vielfaches eines Viertels der mittleren Gitterkonstanten des Gitters beträgt. Dadurch wird erreicht, daß sich zumin­ dest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenele­ mente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als Schraubenfläche ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das rotati­ onssymmetrisches Transmissionsgitter auf einer Schraubenfläche einer beleuchteten, rotierenden Schei­ be mit maximal einem Gang, also mit einem Kreisausschnitt von maximal 360° ausgebildet sein, und so mindestens einen Absatz aufweisen, und das rotatorische Transmissionsgitter kann als Schraubenfläche eine Steigung pro Umdrehung von maximal einem Zehntel des Durchmessers der beleuchteten, rotieren­ den Scheibe aufweisen, wobei vorzugsweise jedoch nur ein Ausschnitt des Transmissionsgitters als strukturiertes Array im Beleuchtungsstrahlengang zur Anwendung kommen. Dabei kann der Absatz vor­ zugsweise einen zumindest näherungsweise radialen Verlauf aufweisen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Steigung der Schraubenfläche und die Anzahl der Gänge der Spirale in der Schraubenfläche so gewählt werden, daß bei der Drehung der schraubenförmigen Gitterfläche die leuchtenden Flächenelementen FEL sich auf Verschiebungsstrecken VSAj befinden, die vorzugsweise zumindest näherungsweise parallel zu einer Ge­ raden gA angeordnet sind.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem rotati­ onssymmetrischen Transmissionsgitter auf einer Schraubenfläche zur Bestimmung der Referenzphase eine Baugruppe mit einem Laser und einem Kollimator zugeordnet sein und mindestens eine feine Markie­ rung als Referenzmarke auf der Schraubenfläche aufgebracht sein, wobei der Baugruppe vorzugsweise ein Gitter mit einer Teilungskonstanten, welche beispielsweise dem mittleren Abstand der leuchtenden Flächenelemente FEL entsprechen kann, nachgeordnet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Schraubenfläche mehrere strukturierte Array in einzelnen Sektoren in der Art eines Gitters mit äquidistan­ ten konzentrischen Kreisen aufgebracht sein und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet sein die Gitterstruktur von Sektor zu Sektor in radialer Richtung einen Sprung in der Art eines Phasensprunges aufweisen und der Sprung in der Phase von Sektor zu Sektor vorzugsweise ein ganzzahliges Vielfaches eines Viertels der mittleren Gitterkonstanten des Gitters beträgt. Um bei Rotation der Schraubenfläche die Referenzpha­ se hochgenau zu bestimmen und die dabei auftretenden unterschiedlichen Abstände auszugleichen zu können, wird mittels einem Laser und einem nachgeordnetem Kollimator eine Planwelle erzeugt. Diese trifft entweder auf ein ebenfalls miniaturisiertes Interferometer oder ein Gitter mit einer Teilungskonstan­ ten, welche beispielsweise dem mittleren Abstand der leuchtenden Flächenelemente FEL entspricht. So kann in der Gitterebene des rotationssymmetrischen Transmissionsgitters als Schraubenfläche eine strukturierte Beleuchtung mit einer bei der Drehung dieses Transmissionsgitters in der Tiefe nicht ver­ schwindender Struktur erzeugt werden. Die aktuelle relative Referenzphase kann dabei durch die Auswer­ tung von Licht in Transmission bestimmt werden. Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumin­ dest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene im Beleuch­ tungsstrahlengang dem Beleuchtungsobjektiv ein bewegliches Keilprisma aus einem transparenten opti­ schen Werkstoff und diesem ein gleichwinkliges, feststehendes Kompensationsprisma aus einem transpa­ renten optischen Werkstoff zugeordnet sein. Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf dem Keilprisma ein strukturiertes Array aufgebracht sein und dem Keilprisma eine Linearführung mit einem Li­ nearmotor zugeordnet sein, wobei und auch im Abbildungsstrahlengang ein bewegliches Keilprisma aus einem transparenten optischen Werkstoff und diesem ein gleichwinkliges, feststehendes Kompensati­ onsprisma dem Abbildungsobjektiv zugeordnet sein kann. Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf dem beweglichem Keilprisma ein Referenzgitter mit einer Referenzmarke aufgebracht sein und eine Lichtquelle und ein opto-elektronisches Auswertemodul dem Referenzgitter zugeordnet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene für ein be­ wegtes Keilprisma im Beleuchtungsstrahlengang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv dessen axiale Gegenstandsweite vorzugsweise jeweils entsprechend der folgenden Bedingung
|(Δϕ.p)/(2π.zAG)| = |d/fB|
zumindest näherungsweise verändert werden und die leuchtenden Flächenelemente FEL so auf Strecken BSAj zumindest näherungsweise parallel zu einer Geraden gAP verschoben werden.Dabei bedeuten der linke Term die Phasenänderung Δϕ des strukturiert leuchtenden Arrays, bezogen auf die Änderung der geometrisch-optischen Weglänge ΔzAG im Strahlengang in Richtung der optischen Ach­ se, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenele­ mentes FELj des strukturiert leuchtenden Arrays bei der Bewegung des Keilprismas und p die Gitterkon­ stante des strukturiert leuchtenden Arrays und fB die Brennweite des Beleuchtungsobjektivs und d den Abstand des Pupillenzentrums des Beleuchtungsobjektivs im Objektraum vom Pupillenzentrums des Ab­ bildungsobjektivs im Objektraum. Der in Lichtrichtung veränderliche Ort des strukturiert leuchtenden Ar­ rays auf dem Keilprisma kann sowohl durch eine Dickenänderung des Keilprismas, aber auch durch eine Änderung des Brechungsindexes, aber auch durch deren Kombination verursacht sein.Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbe­ reich ΔtB die leuchtenden Flächenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene für eine ro­ tierende Scheibe oder Teile derselben im Beleuchtungsstrahlengang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv dessen axiale Gegenstandsweite vorzugsweise je­ weils entsprechend der folgenden Bedingung
|(Δϕ.p)/(2π.zAG)| = |d/fB|
zumindest näherungsweise verändert werden und die leuchtenden Flächenelemente FEL so auf Strecken BSAj zumindest näherungsweise parallel zu einer Geraden gAP verschoben werden.Dabei bedeuten der linke Term die Phasenänderung Δϕ des strukturiert leuchtenden Arrays, bezogen auf die Änderung der geometrisch-optischen Weglänge ΔzAG im Strahlengang in Richtung der optischen Ach­ se, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenele­ mentes FELj des strukturiert leuchtenden Arrays bei der Rotation und p die Gitterkonstante des struktu­ riert leuchtenden Arrays und fB die Brennweite des Beleuchtungsobjektivs und d den Abstand des Pupil­ lenzentrums des Beleuchtungsobjektivs im Objektraum vom Pupillenzentrums des Abbildungsobjektivs im Objektraum.Der in Lichtrichtung veränderliche Ort des strukturiert leuchtenden Arrays auf der rotierenden Scheibe kann sowohl durch eine Dickenänderung der rotierenden Scheibe, aber auch durch eine Änderung des Brechungsindexes, aber auch durch deren Kombination verursacht sein. Diese Beziehung gilt grundsätz­ lich sowohl für stetige als auch für segmentierte rotierende Scheiben. Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flä­ chenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zur Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Emp­ fänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist, dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewegungssystem zugeordnet sein. Die resultierende Bewegungsrichtung des ersten Empfänger-Array kann dabei auf einer Strecke ASA1 auf dem ersten oberen Ast eines Buchstabens Y erfolgen und die Strecke ASA1 kann parallel zu einer Geraden gA1P liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet so daß sich die detek­ tierenden Elemente des erstes Empfänger-Arrays auf den Strecken ASA1j bewegen, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Die resultierende Bewegungsrichtung des zweiten Empfänger-Array kann auf einer Strecke ASA2 auf dem zweiten oberen Ast des Buchstabens Y erfolgen, und die Strecke ASA1 kann parallel zu einer Geraden gA2P liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet. So können sich die detektierenden Elemente des zweites Empfänger-Arrays auf den Strecken ASA1j bewegen, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Die Szene kann eine Freiraumszene sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zu Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewegungssystem zugeordnet sein und die resultieren­ de Bewegungsrichtung des ersten Empfänger-Array auf einer Strecke ASA1 parallel zur optischen Achse des ersten Abbildungsobjektivs erfolgen, und genau die Elemente des ersten Empfänger-Arrays ausgele­ sen werden und aus diesen ein Signalverlauf gebildet werden, welche sich auf Strecken ASA1j befinden, die parallel zu einer Geraden gA1P liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs im Array-Raum schneiden und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebe­ nen schneiden. So entsprechen die zur Signalbildung verwendeten Elemente des erstes Empfänger-Array denen, welche sich auf Strecken ASA1j befinden, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet und die resultierende Bewegungsrichtung des zweiten Empfänger-Array kann auf einer Strecke ASA2 parallel zur optischen Achse des zweiten Abbildungsobjektivs erfolgen, wobei ge­ nau die Elemente des zweiten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet wird, welche sich auf Strecken ASA2j befinden, die parallel zu einer Geraden gA2P liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbil­ dungsobjektive durch die zusammenfallenden Hauptebenen schneidet. So entsprechen die zur Signalbil­ dung verwendeten Elemente des zweiten Empfänger-Array denen, welche sich auf Strecken ASA2j befin­ den, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Auch hier kann die Szene eine Freiraumszene sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer transpa­ renten Platte, die vorzugsweise planparallel ausgeführt ist, mit einer vorbestimmten geometrisch­ optischen Dicke zugeordnet sein und auf der rotierenden Scheibe Referenzmarken aufgebracht sein, wo­ bei die optische Dicke der transparenten Platte stetig veränderlich sein kann. In den Referenzmarken ist die Information über die optische Dicke der transparenten Platte, welche gerade im Strahlengang vor ei­ nem Empfänger-Arrays angeordnet ist, enthalten.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer transparenten Platte, die vorzugsweise planparallel ausgeführt ist, und jeder transparenten Platte eine vorbestimmten ortsabhängigen geome­ trisch-optischen Dicke zugeordnet sein und auf der rotierenden Scheibe mindestens eine Referenzmarke aufgebracht sein und so kann so die optische Dicke sich von transparenter Platte zu transparenter Platte vorherbestimmt verändert werden. In den Referenzmarken ist die Information über die optische Dicke der transparenten Platte, welche gerade im Strahlengang vor einem Empfänger-Arrays angeordnet ist, enthal­ ten. Dabei kann das Empfänger-Array mit einer Steuerung Länge und des Beginns der Integrationszeit in Teilbereichen ausgelesen werden, so daß Bereiche gleicher Dicke ohne Sprungstelle in der Platte ausge­ lesen werden können. So kann jeweils eine Stelle gleicher optische Dicke fast in der gesamten Verweilzeit vor einem zugeordneten Element des Empfänger-Arrays detektiert werden. Weiterhin ist es möglich, daß sich vor einem elektronisch steuerbaren Array eine rotierende Scheibe mit mehreren transparenten Platte mit einer vorbestimmten optischen Dicke befinden, die eine vorbestimmte optische Dicke aufweisen und sich die optische Dicke von Platte zu Platte ändert, wobei Referenzmarken angeordnet sind, welche die Information über aktuelle optische Dicke der jeweils optisch wirksamen transparenten Platte enthalten und die transparenten Platten zumindest näherungsweise als planparallele Platten ausgeführt sind.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zu Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, für fotografische 3D-Farb-Aufnahmen für die Gewinnung der 3D-Punktwolke zwischen jedem Abbildungsobjektiv und jedem Empfänger-Array je mindestens zwei gleichwinklige Pris­ men aus einem Optikwerkstoff mit vorzugsweise je einem gleichen Brechungsindex und vorzugsweise gleicher Dispersion angeordnet sein, die als Keilprismen bezeichnet werden, wobei je zwei Keilprismen ein Parallelstück mit einem parallelen Zwischenraum konstanter Dicke bilden. Die Strahlachse steht auf den äußeren Flächen des Parallelstückes jeweils senkrecht.Dieser Zwischenraum konstanter Dicke wird vorzugsweise von den einander zugekehrten Innenflächen der beiden Keilprismen begrenzt. Der Zwischenraum ist vorzugsweise mit Luft ausgefüllt, kann aber auch mit einem transparenten Optikwerkstoff ausgefüllt sein, der vorzugsweise einen geringeren Brechungsin­ dex als die beiden gleichwinkligen Keilprismen aufweist. Durch die Dispersion können lateral verschobene Bilder in der Bildebene erzeugt werden. Durch Zuordnung einer Empfänger-Arrays mit zeilenweise aufge­ brachten Farbfiltern in den Farbbereichen rot grün blau kann der Farbwert eines jeden Objektpunktes zumindest näherungsweise vom gleichen Element der Objektoberfläche gewonnen werden. Dabei kann das feststehende Prisma als Fenster des Empfänger-Arrays angeordnet sein.Weiterhin kann mindestens ein Keilprisma zumindest näherungsweise geradlinig verschoben werden, wo­ bei die Verschiebungsrichtung parallel zur inneren Fläche des verschobenen Keilprismas liegt und in je­ dem Fall eine Querkomponente zur Lichtausbreitungsrichtung enthält. Durch die Verschiebung des Keilprismas wird in jedem der beiden Abbildungsstrahlengänge die gleiche axiale Bildverschiebung in zA- Richtung erzeugt, so daß die korrespondierenden Pixel Informationen aus unterschiedlichen Tiefen des Objektraumes detektieren können. Beispielsweise können so 16 Bilder aus unterschiedlichen Tiefen des Objektraumes aufgenommen werden. Bei Aufnahmen von Objektoberflächen in der Szene mit der Einstel­ lung auf den Nahbereich kann synchron zur Aufnahme von Bildern eine Blitzlichtquelle die Objektoberflä­ chen in der Szene ausleuchten. So kann eine Bildfolge mit 16 Bildern mit 16 Einzelblitzen in 0,2 s aufge­ nommen werden. Eine höhere Blitzfrequenz ist grundsätzlich möglich. Dabei sendet die Blitzlichtquelle vorzugsweise kein strukturiertes Licht aus. Jedoch ist mit einer spezielle Blitzlichtquelle auch eine struktu­ rierte Beleuchtung möglich, jedoch sollte dann eine laterale Verschiebung der strukturierten Beleuchtung stattfinden, um zumindest näherungsweise die Elemente der Objektoberfläche gleichmäßig ausleuchten zu können.Weiterhin kann zur Kompensation des anamorphotischen Effektes bei Keilprismen mit einem Winkel oberhalb von 5° ein zweites baugleiches Parallelstück mit einem gleichgestalteten Zwischenraum ange­ ordnet werden, welches um die Strahlachse um 90° gedreht wurde. Von den vier einzelnen Keilprismen können dabei die beiden inneren zu einen Monolithen vereinigt sein. Weiterhin sind die Projektionen der Verschiebungsrichtungen der beiden äußeren Keilprismen auf die Au­ ßenfläche eines Parallelstückes vorzugsweise senkrecht zueinander ausgerichtet, wobei dei beiden äuße­ ren Keilprismen je eine oszillierende Bewegung mit einer 90°-Phasenverschiebung der Bewegung zuein­ ander ausführen können.Die Auswertung der beispielsweise 16 Bilder erfolgt mittels des bereits genannten Korrelationsverfahren über die korrespondierenden Pixel durch die Bestimmung eines Korrelationsmaximums Mj. So kann von einer Standard-Szene die 3D-Punktwolke der Elemente der Objektoberflächen in der Szene, einschließ­ lich der Farbinformation durch die Auswertung der Farbwerte in den Bildern der Elemente der Objektober­ flächen, errechnet werden. Die Wiedergabe als 3D-Bild erfolgt nach einer automatischen oder einer inter­ aktiven Weiterverarbeitung der 3D-Punktwolke zu einem 3D-Flächen-Modell. Die Betrachtung der farbigen 3D-Flächen-Modell kann beispielsweise mittels eines digitalen 3D-Monitors erfolgen.Weiterhin kann bei der Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer min­ destens einer Szene das Empfänger-Array eine Farbkamera darstellen.Weiterhin ist in einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in mindestens einer Szene mit mindestens einer elektromagnetischen Strahlungsquelle und die Strahlungsquelle mittels mindestens eines strukturierten Arrays als ein strukturiert leuchtendes Array mit leuchtenden Flächenele­ menten FEL ausgebildet.Es ist mindestens ein Beleuchtungsstrahlengang mit mindestens Beleuchtungsobjektiv, welches eine ef­ fektive Öffnungsblende mit einer Ausdehnung DB und einem Blendenzentrum BZB aufweist, zur struktu­ rierten Beleuchtung der Objektoberflächen im Objektraum angeordnet. Der Objektraum, entspricht dem Szenenraum. Das Beleuchtungsobjektiv ist einem dem strukturiert leuchtenden Array, einschließlich ei­ nem Bild desselben, zugeordnet.Außerdem ist dem mindestens einen Beleuchtungsstrahlengang ein Abbildungsstrahlengang zugeordnet, der mit mindestens einer Abbildungsstufe für die mindestens eine Objektoberflächen mit mindestens ei­ nem dem Empfänger-Array oder einem Bildes desselben zugeordneten Abbildungsobjektiv zur Abbildung der Elemente der Objektoberflächen, welches eine effektive Öffnungsblende mit einem Blendenzentrum BZA aufweist. Mittels Elementen des mindestens einem Empfänger-Arrays wird im Aufnahmevorgang elektromagnetische Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detektiert.Der Abstand d des Pupillenzentrums PZOB des Beleuchtungsobjektivs, als Bild des Blendenzentrums BZB im Objektraum, vom Pupillenzentrum PZOA des Abbildungsobjektivs, als Bild des Blendenzentrums BZA im Objektraum, beträgt mindestens ein Achtel der Ausdehnung DB der Öffnungsblende des Beleuchtungsob­ jektivs. Die leuchtenden Flächenelemente FEL weisen in einer Leuchtdichteverteilung eine zumindest nä­ herungsweise vorherbestimmten Leuchtdichteauf, so daß durch die Abbildung mit dem Beleuchtungsob­ jektiv mindestens ein Bild eines leuchtenden Flächenelementes FELj im Objektraum gebildet ist.So ist erfindungsgemäß im Objektraum das Schärfevolumen mindestens eines Bildes eines leuchtenden Flächenelementes FELj in einem strukturiert leuchtenden Array - durch die vorbestimmte Zuordnung des leuchtenden Flächenelementes FELj zum Beleuchtungsobjektiv und die Zuordnung der Elemente des Empfänger-Arrays zum Abbildungsobjektiv und die Zuordnung von Beleuchtungsobjektiv zum Abbildungsobjektiv in der 3D-Aufnahme-Anordnung unter Anwendung der Newtonschen Abbildungsgleichung - permanent in das Schärfevolumen eingepaßt, welches durch die Gesamtheit der Bilder der Elemente des Empfänger-Arrays im Objektraum dargestellt ist. Dabei weist das Schärfevolumen, welches durch die Ge­ samtheit der Bilder der Elemente des Empfänger-Arrays in Strahlausbreitungsrichtung gegeben ist, min­ destens eine so große Tiefenausdehnung wie das Schärfevolumen eines einzelnen Bildes eines leuch­ tenden Flächenelementes FELj auf, so daß für alle Bilder eines leuchtenden Flächenelementes FELj ein diese umschließendes Schärfevolumen von Bildern der Elemente des Empfänger-Arrays gegeben ist und im Objektraum jeweils ein Bild eines leuchtenden Flächenelementes FELj eines strukturierten Arrays mindestens einem Bild eines Elementes des Empfänger-Arrays fest zugeordnet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer in einem strukturierten Array räumlich strukturierte Sub-Matrizen angeordnet sind, wobei mindestens eine Sub-Matrix angeordnet ist und mindestens in einer strukturierten Sub-Matrix wiederum strukturierte Zellen angeordnet sind, wobei wiederum in jeder strukturierten Zelle durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fensterfläche angeordnet ist und diese mindestens eine Fensterflä­ che eine mittlere optische Gegenstandsweite zum Beleuchtungsobjektiv aufweist, die unterschiedlich zur Fensterfläche der Nachbarzelle im Hauptschnitt gemacht ist und in einer Fensterfläche in einer strukturier­ ten Zelle jeweils im Zusammenwirken mit der Strahlungsquelle mindestens ein leuchtendes Flächenele­ ment FELj dargestellt ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Szene in einem strukturierten Array räumlich strukturierte Sub-Matrizen angeordnet sein. Dabei sind in der strukturierten Sub-Matrix wiederum strukturierte Zellen angeordnet, wobei wiederum in jeder strukturierten Zelle durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fensterfläche ange­ ordnet ist. Diese mindestens eine Fensterfläche weist eine mittlere optische Gegenstandsweite zum Be­ leuchtungsobjektiv auf, die unterschiedlich zur Fensterfläche der Nachbarzelle im Hauptschnitt gemacht ist. So entsteht das Bild der Maskierung in einer anderen Tiefe des Objektraumes, wodurch in verschie­ denen Tiefen des Objektraumes Bilder der Maskierung erzeugt werden können. Außerdem ist in einer Fensterfläche in einer strukturierten Zelle jeweils mindestens ein selbstleuchtendes Flächenelement FELj angeordnet. Dieses wird in den Objektraum abgebildet.Weiterhin ist bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Sze­ ne die Fensterfläche vorzugsweise zumindest näherungsweise in einer Ebene senkrecht zur optischen Achse des Beleuchtungsobjektivs angeordnet.Weiterhin ist bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Sze­ ne vorzugsweise mindestens eine strukturierte Sub-Matrix als eine Transmissionsanordnung mit einem optischen Werkstoff ausgebildet.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Szene mindestens die optisch aktive Oberfläche der strukturierten Zellen jeweils einen räumlich struktu­ rierten Bereich aufweisen, wobei in diesem räumlichen strukturierten Bereich die Fensterfläche als plane Fläche ausgebildet sein. In der planen Fläche des Fensterelementes ist vorzugsweise eine Maske ange­ ordnet und in einem Teilbereich der räumlich strukturierten Zelle ist neben der Maske auf der planen Flä­ che des Fensterelementes eine Mikrolinse mit einer fokussierenden Wirkung angeordnet ist, wobei deren Fokus zumindest näherungsweise in der Fläche des Fensterelementes positioniert ist. Dabei weist die Maske ein Binär-Code-Transparenzprofil zur Codierung einer maschinenlesbaren Zahl als Positionsnum­ mer. So sind die Masken innerhalb einer Zelle jeweils eindeutig maschinenlesbar und voneinander unter­ scheidbar. Damit ist zumindestens innerhalb einer Zelle die Mikrolinse ist neben der Maske auf der planen Fläche des Fensterelementes eindeutig zu identifizieren, so daß aus der lateralen Lage des Fokuspunktes im aufgenommenen Bild die zO-Koordinate sowie die xO- und die yO-Koordinate des zugehörigen Objekt­ punktes bestimmt werden kann.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Mikro­ linse in einem Teilbereich der räumlich strukturierten Zelle neben der Maske auf der Fensterfläche jeweils als eine Zylinderlinse ausgebildet sein. Dadurch gibt es jeweils eine Lichtspur auf der Objektoberfläche mit einer vergleichsweise hohen Beleuchtungsstärke über die Länge der Zylinderlinse. So ist diese Lichtspur unabhängig von lateralen Verschiebungen problemlos detektierbar und somit ist eine hohe Detektionssi­ cherheit gegeben.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer die Mikrolinse so angeordnet sein, daß deren Fokuspunkt zumindest näherungsweise in der Ebene der Maske positioniert ist. Dadurch ist eine besonders feine Lichtspur realisierbar.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk­ turierte Array als opakes Reliefstück mit mehreren, mindestens jedoch zwei, feinen Durchbrüchen, die gegenüber dem Beleuchtungsobjektiv angeordnet sind, ausgebildet sein. Beim Einsatz des Reliefstückes in die 3D-Aufnahme-Anordnung befinden sich die feinen Durchbrüchen in unterschiedlichen Tiefen des Array-Raumes, so daß deren Bilder sich an unterschiedlich tiefen Punktes des Objektraumes befinden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk­ turierte Array als ein nichttransparentes Reliefstück mit Durchbrüchen versehen sein. Die Oberfläche des Reliefstückes weist zum Beleuchtungsobjektiv und ist vorzugsweise so gefertigt, daß diese zumindestens näherungsweise die optisch konjugierte Fläche eines zu prüfenden Sollstückes darstellt und die Durch­ brüche auf der Oberfläche des Reliefstückes zumindestens näherungsweise die optisch konjugierten Orte der Sollfläche eines Prüflings darstellen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk­ turierte Array als ein transparentes Mikrolinsen-Array ausgebildet ist und die Brennweite und die axiale Lage der Mikrolinsen so gestaltet sein, daß deren Foki in einer 3D-Fläche angeordnet sind, die zuminde­ stens näherungsweise eine zur Sollfläche optisch konjugierte Fläche darstellt. Die Foki der Mikrolinsen stellen zumindestens näherungsweise einige optisch konjugierten Orte der Sollfläche eines Prüflings dar. So kann durch die Bestimmung der Fokuslage im Bild die Abweichung von einer Sollage bestimmt wer­ den.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche auf dem strukturierten Array mindestens ein Relief mit einer räumlichen Struktur mit mindestens einer Periode in Form von mindestens einer Rampe mit mindestens einer in der Ausgleichsfläche schrägen Rampenfläche gebildet sein. Dabei ist vorzugsweise mindestens eine Rampenfläche jeweils zum Beleuchtungsobjektiv ausgerichtet. Auf der schrägen Rampenfläche sind vorzugsweise leuchtende Flächenelemente FEL an­ geordnet. Diese leuchtende Flächenelemente FEL werden durch Fensterflächen gebildet, die von der Strahlungsquelle beleuchtet werden.Die Rampenflächen sind vorzugsweise so geneigt, daß die Ausgleichsgerade AGAj durch die schräge Rampenfläche im Hauptschnitt nach Abbildung durch das Beleuchtungsobjektivs im Objektraum als Bild eine Gerade AGOj liefert, die zumindestens näherungsweise auf das Pupillenzentrum PZOA des Abbil­ dungsobjektivs zielt. In der Regel sind mehrere Rampen vorhanden, so daß die verschiedenen Aus­ gleichsgeraden AGOj von mehreren verschiedenen Rampen nach deren Abbildung durch das Beleuch­ tungsobjektivs aus deren Bildern ein Geradenbündel GB1 mit einen Konvergenzpunkt K1 gebildet ist. Das Beleuchtungsobjektiv ist dabei vorzugsweise hoch geöffnet. Der Konvergenzpunkt K1 ist dabei zuminde­ stens näherungsweise im Pupillenzentrum PZOA des Abbildungsobjektivs zur Koinzidenz gebracht. So ist gegeben, daß sich bei der Aufnahme von Bildern der Objektoberfläche in allen Tiefen eindeutig eine Rampe verfolgt werden kann, ohne daß es Probleme mit lateralen Fehllagen gibt, da der verfolgende Abbildungsstrahl stets aus dem Pupillenzentrum des Abbildungsobjektivs kommt. Das Abbildungsobjektiv kann vergleichsweise kurzbrennweitig sein, kürzer als das Beleuchtungsobjektiv, und ist dabei so weit ab­ geblendet, beispielsweise auf die Blende 11, daß ein großer Tiefenschärfebereich gegeben ist. Damit bestimmt der Tiefenschärfebereich des Abbildungsobjektivs hier den Tiefenbereich für die 3D- Aufnahmeanordnung. Dabei kann im Objektraum das Bild einer Rampe mit der Achse des Abbildungsob­ jektivs zusammenfallen. Die anderen Bilder der Rampen bilden im Hauptschnitt ein Büschel mit dem Ur­ sprungspunkt im Pupillenzentrum. So wird die zu detektierend Objektoberfläche von den Rampenbildern durchschnitten. Im Schnittpunkt eines Rampenbildes mit der Objektoberfläche entsteht ein jeweils ein scharfes Bild von der Maske auf der Rampenfläche.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das auf der Rampenfläche, die eine mittlere Länge WP aufweist, jeweils mindestens eine Maske mit einem Binär- Code-Transparenzprofil mit der Sequenzlänge bz auf einem stetigen Flächenbereich derselben gebildet sein. Die in der Maske mit einem Binär-Code-Profil verwendete minimale Strukturbreite p ist vorzugsweise mindestens so groß gemacht, daß diese vom Beleuchtungsobjektiv noch ohne merklichen Kontrastverlust scharf abgebildet werden kann. Die Länge WP ist dabei vorzugsweise größer als bz.d/DB gemacht und die auf einer Rampenfläche aufgebrachten Masken sind mit einem Binär-Code-Transparenzprofil jeweils eindeutig und maschinenlesbar voneinander unterscheidbar. So kann auch bei einem lateralen Auswan­ dern aufgrund des Triangulationseffektes die Masken sicher identifiziert werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mehrere Rampenflächen hintereinander in zum Hauptschnitt parallelen Zeilen in einer Sub-Matrix angeordnet sein, und deren mittlere optische Gegenstandsweite zum Beleuchtungsobjektiv von Zeile zu Zeile, also in y- Richtung jeweils unterschiedlich gemacht ist, beispielsweise stets ansteigend. So entstehen ein mittlerer Anstieg in einer zweiten Richtung, der y-Richtung, und so können besonders viele unterscheidbare Hö­ henstufen realisiert werden. wodurch sich ein besonders großer Tiefenerfassungsbereich für die 3D- Aufnahme-Anordnung ergibt. Dem Abbildungsobjektiv kann, um bei einem sehr großen Tiefenerfassungs­ bereich nicht zu stark abblenden zu müssen, eine transparente Platte mit Keilprismen zugeordnet sein, die eine Platte mit Rampen darstellt, wobei die Rampenanzahl der Anzahl der Sub-Matrizen entspricht und der Keilwinkel dieser Platte sich aus dem Abbildungsmaßstab ergibt. Dabei steigen die Prismenkeile auf diese Platte in diesem Beispiel ebenfalls in y-Richtung an, so daß vom Abbildungsobjektiv scharte Bil­ der von Ebenen gesehen werden können, die nicht senkrecht zur optische Achse desselben angeordnet sind.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche inner­ halb der Rampenflächen mehrere Stufen ausgebildet sein, wobei sich auf einer Fläche einer Stufe je min­ destens eine Maske mit einem Binär-Code-Transparenzprofil mit mindestens einem transparenten Feld aufgebracht ist. Dabei müssen die Stufen nicht unbedingt stetig steigend oder fallend sein. So können auch Stufen vertauscht werden. Die Ausgleichsgerade bezieht sich auf den Fall, ohne das Vertauschen von Stufen. Die Ausgleichsgerade AGAj schneidet die nicht vertauschten Stufen jeweils etwa in der Mitte der Stufenflächen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Binär- Code-Profil als Balken-Code-Profil Transparenzprofil mit mindestens einem transparenten Balken aus­ gebildet sein. Ein Balken-Code-Profil Transparenzprofil kann so zeilenweise und damit besonders schnell gelesen werden. Die Balken sind vorzugsweise parallel zum Hauptschnitt angeordnet und so erfolgt die Detektierung des Balken-Code-Transparenzprofils senkrecht zum Hauptschnitt. Die Balken überdecken jeweils vorzugsweise mehrere Spalten bei einer Abbildung auf eine Empfängerfläche, beispielsweise min­ destens zwei Spalten. Dabei kann vorzugsweise das Tastverhältnis der Balken-Codierung bei einer kon­ stanten Periodenlänge des Balken-Codes ausgewertet werden. So ist beim Detektieren eine hohe Erken­ nungssicherheit unabhängig von der Position gegeben. Andererseits können die nebeneinander liegenden Balken als Balken gleicher Breite in nebeneinander liegenden Zellen auf Lücke gesetzt sein, so daß durch eine laterale Verschiebung infolge eines Höhenversatzes auf der Objektoberfläche keine Fehlinformation bei der Bildaufnahme entstehen kann. Weiterhin kann sich in einem äquidistanten Raster jeweils ein Dun­ kel-Hell-Übergang am gleichen Ort der Zellen befinden. Vorzugsweise kann es auch ein quadratisches Raster sein. Dies ist sehr vorteilhaft, da sich zumindestens bei einer zumindest näherungsweisen ebenen Fläche ein äquidistantes Raster von Meßpunkten gebildet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das auf den Rampenflächen mit der Länge WP eine Gitterstruktur mit einem cos2-Transparenzprofil mit minde­ stens einer Periodenlänge bz aufgebracht sein. Die Periodenlänge bz ist vorzugsweise mindestens so groß gemacht, daß diese vom Beleuchtungsobjektiv mit einer hohen relativen Lichtstärke noch ohne merklichen Kontrastverlust abgebildet werden kann. Die Länge WP der Rampenfläche ist jeweils größer als bz.d/DB gemacht ist, wobei die Länge der Rampenfläche mindestens gleich der Periodenlänge bz gemacht.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche leuchtende Flächenelemente FEL als von der Strahlungsquelle beleuchtete, transparente Fensterflächen, einschließ­ lich Bilder von diesen, im Array-Raum positioniert sein. Die dem Beleuchtungsobjektiv zugewandte Seite des strukturierten transparenten Arrays ist mindestens als ein einziges Relief mit einer räumlichen Struk­ tur mit mindestens einer Periode in Form von mindestens einer Rampe gebildet, die jeweils ein transpa­ rentes Keilprisma darstellt.Die Keilprismen weisen vorzugsweise einen Keilwinkel auf, der so gewählt ist, daß durch dessen abbil­ dende Wirkung die Bilder der leuchtende Flächenelemente FEL zumindestens näherungsweise auf einer Ausgleichsgerade AGAj im Hauptschnitt liegen. Die Ausgleichsgerade AGAj liefert vorzugsweise nach Ab­ bildung durch das Beleuchtungsobjektivs im Objektraum als Bild eine Gerade AGOj, die auf das Pupillen­ zentrum PZOA des Abbildungsobjektivs zielt. Dabei ist vorzugsweise für mehrere Ausgleichsgeraden AGOj von mehreren Rampen nach deren Abbildung durch das Beleuchtungsobjektivs aus deren Bildern ein Ge­ radenbündel mit einen Konvergenzpunkt K1 gebildet, der zumindestens näherungsweise mit dem Pupil­ lenzentrum PZOA des Abbildungsobjektivs zur Koinzidenz gebracht ist. So kann vermieden werden, daß auf den schrägen Flächen einer Rampe eine Maskierung aufgebracht werden muß. Die Maskierung be­ findet sich auf der Vorderseite des vorzugsweise zur Strahlungsquelle planen Reliefs.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die trans­ parenten Keilprismen jeweils so gefertigt sein, daß diese im Mittel zumindestens näherungsweise den Keilwinkel im Bogenmaß mit dem Betrag fB.n/[d.(n-1)] aufweisen. Bei diesem Winkel ergibt sich eine Drehung der leuchtenden Flächenelemente, die auf einer planen Fläche, senkrecht zur Achse des Be­ leuchtungsobjektivs, angeordnet sind.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche bei ei­ nem im Array-Raum telezentrischen Abbildungsobjektiv die Rampenflächen im strukturierten Array, die zum Beleuchtungsobjektiv weisen, zumindestens näherungsweise gleichwinklig ausgebildet sein. So stellen vorzugsweise, wenn nicht die Rampenflächen selbst, aufgrund einer räumlichen Strukturierung derselben, wenigstens die Ausgleichsgeraden AGAj durch die schrägen Rampenflächen im Hauptschnitt der 3D-Aufnahme-Anordnung zueinander parallele Geraden dar.Die Rampenflächen sind so gestaltet, daß nach Abbildung durch das Beleuchtungsobjektivs aus den Bil­ dern der parallelen Ausgleichsgeraden ein Geradenbündel GB1 mit einen Konvergenzpunkt K1 gebildet ist, der zumindestens näherungsweise mit dem Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum zur Koinzidenz gebracht ist. Die Herstellung von derartigen Rampen ist vergleichsweise einfach. Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche bei ei­ nem im Array-Raum telezentrischen Abbildungsobjektiv die Rampenflächen im strukturierten Array, die zum Beleuchtungsobjektiv weisen, zumindestens näherungsweise mit der gleichen Länge ausgebildet sein. Die Herstellung von derartigen Rampen ist vergleichsweise einfach.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil­ dungsobjektiv eine transparente Platte mit Keilprismen nachgeordnet sein, die eine Platte mit Rampen darstellt, wobei die Anzahl der Rampen der Anzahl der Sub-Matrizen auf dem strukturierten Array ent­ spricht. Weiterhin können die Rampen Mikro-Stufen aufweisen, die senkrecht zur Achse des Abbildungs­ objektivs ausgerichtet sein. So kann die brechende Wirkung eines Prismas vermieden werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche im Abbil­ dungsstrahlengang mindestens ein Mikrolinsen-Array angeordnet sein, beispielsweise in einer Zwischen­ abbildungsstufe, die dem Objektiv vor dem Empfänger-Array vorgeordnet ist, wobei die Mikrolinsen inner­ halb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen der Foki in Bezug auf eine Ebene senkrecht zur optischen Achse des Abbildungsstrahlenganges aufweisen. So können mit einer planen Empfängerfläche aus verschiedenen Tiefen des Objektraumes Objektpunkte scharf abgebildet werden. Es können zwei ein Mikrolinsen-Arrays mit jeweils koaxialen Mikrolinsen angeordnet sein, die ein Mikro-Teleskop bilden, wobei ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite gefertigt ist, dem ein Mikrolinsen-Array mit Mikrolinsen gleicher Brennweite zugeordnet ist, so daß ein Array aus Mikro-Teleskopen gebildet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil­ dungsobjektiv mindestens ein Mikrolinsen-Array vorgeordnet ist, wobei die Mikrolinsen innerhalb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen der Foki in Bezug auf eine Ebene senk­ recht zur optischen Achse des Abbildungsobjektivs aufweisen. Auch hier können mit einer planen Emp­ fängerfläche aus verschiedenen Tiefen des Objektraumes Objektpunkte gleichzeitig scharf abgebildet werden, ohne daß eine Zwischenabbildungsstufe benötigt wird. So ist vorzugsweise ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite angeordnet.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Orte der Foki der Mikrolinsen eines Mikrolinsen-Arrays auf einem räumlichen Profil angeordnet sind. Dieses kann ein Sinusprofil sein, welches sich optimal herstellen läßt.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Orte der Foki der Mikrolinsen eines Mikrolinsen-Arrays auf Rampenflächen angeordnet sein. So können mit ei­ ner planen Empfängerfläche aus verschiedenen Tiefen des Objektpunkte gleichzeitig scharf abgebildet werden, die sich zumindest näherungsweise im Objektraum auf Ebenen befinden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil­ dungsobjektiv mindestens ein Lichtwellenleiter-Array, welches aus Mikrofasern gefertigt ist, vorgeordnet sein, wobei die Mikrofasern zumindest näherungsweise parallel zur optischen Achse des Abbildungsob­ jektiv angeordnet sind. Dabei liegen die Mikrofaserenden vorzugsweise auf der einen Seite des Lichtwel­ lenleiter-Arrays in einer gemeinsamen Ebene und sind den Elementen des Empfänger-Arrays unmittelbar zugeordnet. Auf der anderen Seite des Lichtwellenleiter-Arrays sind die Faserenden dem Abbildungsob­ jektiv zugeordnet. Hier sind die Faserenden auf einem räumlichen Profil angeordnet. So kann Licht aus unterschiedlichen Ebenen des Array-Raumes detektiert werden. Die Punkte der Detektion entsprechen unterschiedlich weit entfernten Punkten im Objektraum, so daß Elemente einer Objektoberfläche aus un­ terschiedlichen Tiefen des Objektraumes gleichzeitig aufgenommen werden können. Das räumlichen Profil kann ein Stufenflächenprofil mit Rampenflächen darstellen. Die Ausbildung kann auch als Sinusprofil erfolgen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das räum­ liche Profil der Faserenden zumindestens näherungsweise mit Rampenflächen ausgebildet ist. So können mit einer planen Empfängerfläche aus verschiedenen Tiefen des Objektpunkte gleichzeitig scharf abgebil­ det werden, die sich zumindest näherungsweise im Objektraum auf Ebenen befinden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp­ fänger-Array mit mindestens acht Elementen ausgebildet sein. Es gibt vorzugsweise mindestens zwei Be­ reiche mit mindestens je vier Elementen, wobei die vier Elemente dann genau zwei Zellen darstellen, mit einer unterschiedlichen mittleren Höhe der Elemente in einer Fläche gebildet sein, die als Sub-Fläche be­ zeichnet wird. So sind auf dem Empfänger-Array Bereiche gebildet, die zu einer Sub-Fläche mit einer mittleren Höhe gehören, und auf dem Empfänger-Array mindestens Elemente in vier unterscheidbaren Höhenstufen angeordnet. Damit kann ein größerer Tiefenbereich im Objektraum zumindest näherungs­ weise scharf auf die einzelnen Elemente des Empfänger-Arrays abgebildet werden, ohne daß eine Fo­ kussierung durch eine mechanische Verschiebung erforderlich ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Aus­ gleichsfläche über die Elemente des Empfänger-Arrays einer Sub-Fläche eine Rampenfläche mit einer gleichen Höhe darstellen, so daß mindestens zwei Rampenflächen auf dem Empfänger-Arrays gebildet sind, die zumindest näherungsweise gleich gemacht sind und auch die Form der Rampenfläche zumin­ dest näherungsweise gleich gemacht ist. So kann in mindestens zwei Bereichen der abgebildeten Objek­ toberfläche der volle Tiefenerfassungsbereich realisiert werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die An­ zahl der Bereiche, die zu einer Sub-Fläche gehören, mit der Anzahl der Sub-Matrizen im strukturierten Ar­ ray übereinstimmen und ein Bereich, der zu einer Sub-Fläche gehört, sich über mindestens zwei linienhaf­ te Bereiche des Empfänger-Arrays, die getrennt elektromagnetische Strahlung detektieren können, er­ strecken. So können die von leuchtenden Flächenelementen FEL, die durch beleuchtete Fensterflächen in unterschiedlicher Höhe auf einer Sub-Matrix des strukturierten Arrays gebildet sind, im Objektraum ent­ stehenden Bilder auf der Objektoberfläche auf Elemente der Empfänger-Arrays zumindestens nähe­ rungsweise scharf abgebildet werden. Die laterale Anordnung der Bereiche, die zu einer Sub-Fläche ge­ hören, auf der Oberfläche des Empfänger-Arrays ist mit der lateralen Anordnung der Sub-Matrizen auf dem strukturierten Array zumindest näherungsweise geometrisch ähnlich gemacht. Dabei stellt eine Aus­ gleichsfläche über die Elemente des Empfänger-Arrays einer Sub-Fläche jeweils eine Rampenfläche dar. Es können mindestens zwei Sub-Flächen auf dem Empfänger-Arrays gebildet sein. In der Regel können bis zu 128 bei einer 256 × 256 Pixel CCD-Matrix oder gar 512 Sub-Flächen bei einer 1024 × 1024 Pixel CCD-Matrix gebildet sein, um von möglichst vielen Bereichen der Objektoberfläche scharfe Bildpunkte über einen vergleichsweise großen Tiefenbereich detektieren zu können, ohne dabei das Abbildungsob­ jektiv sehr stark abblenden zu müssen. Jeweils zwei Zeilen bilden im Minimum eine Sub-Fläche. Grund­ sätzlich ist auch die Bildung von Sub-Flächen über mindestens zwei Spalten des Empfänger-Arrays, also einer CCD-Matrix, möglich.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp­ fänger-Array als CCD-Matrix-Kamera ausgebildet sein. Damit ist eine optimale Bildaufnahme bei Standar­ daufgaben mit einem guten Signal-Rausch-Verhältnis möglich.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp­ fänger-Array als CMOS-Matrix-Kamera ausgebildet sein. Damit ist durch den wahlfreien Zugriff auf Pixel eine Verfolgung von bewegten Elementen der Objektoberfläche im Raum möglich.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp­ fänger-Array als CCD-Zeilen-Kamera ausgebildet sein. Dies ist zur Aufnahme von sehr schnell ablaufen­ den Vorgängen in einem Schnitt von großem Vorteil.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei Abbildungsstrahlengänge angeordnet sein und jedem Abbildungsstrahlengang kann jeweils zumindestens eine kippbare Spiegelfläche vorgeordnet werden und die vorgeordneten, kippbaren Spiegelflächen kön­ nen starr miteinander verbunden sein und diesen können rechnergesteuerte Komponenten zur Durchfüh­ rung einer definierten Verkippung zugeordnet sein. Durch das Kippen der Spiegelflächen mittels eines rechnergesteuerten Schwingspiegels können unterschiedliche Schnitte für die 3D-Aufnahme ausgewählt werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei Abbildungsstrahlengänge angeordnet sind und den beiden Abbildungsstrahlengängen gemeinsam ein rechnergesteuertes, rotierendes Spiegelpolygon vorgeordnet sein. So kann eine schnelle Aufnahme von Objektoberflächen im Objektraum erfolgen.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche einem Beleuchtungsobjektiv eine erstes Abbildungsobjektiv mit einem Empfänger-Array und ein zweites Abbil­ dungsobjektiv mit einem Empfänger-Array zugeordnet sind, wobei das Pupillenzentrum PZOA des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet ist. Dabei kann das erste Abbildungsobjektiv als ein Referenzsystem arbeiten, um beispielsweise eine absolu­ te Messung in der bereits beschriebenen Art durchführen zu können. Das zweite Abbildungsobjektiv ist im Abstand k.d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet, wobei k ≧ 2 gemacht ist. Beispielsweise kann das zweite Abbildungsobjektiv im vierfachen Abstand angeordnet sein und ein be­ sonders großes oder ein asymmetrisches Objektfeld besitzen. So ergibt sich ein größerer Triangulations­ winkel und damit eine höhere Tiefenauflösung, wobei die Informationen, die vom ersten Abbildungsobjek­ tiv gewonnen werden dazu dienen, die Ergebnisse die mit dem zweiten Abbildungsobjektiv gewonnen werden, bezüglich der gemessenen Phaseninformationen zu überprüfen und gegebenenfalls hinsichtlich der Streifenordnung zu korrigieren.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei Abbildungsstrahlengänge mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven angeordnet sein. Dabei ist das erste Abbildungsobjektiv mit einer zumindest näherungs­ weiser einseitiger Telezentrie im Array-Raum ausgeführt und das zweite Abbildungsobjektiv ebenfalls mit zumindest näherungsweiser einseitiger Telezentrie im Array-Raum ausgeführt, wobei die beiden Haup­ tebenen der beiden Abbildungsobjektive zur Koinzidenz gebracht sind. Dabei ist das Pupillenzentrum PZOA1 des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOA2 des zweiten Abbildungs­ objektiv angeordnet. Jedem Abbildungsobjektivs ist je ein räumlich strukturiertes Empfänger-Array zuge­ ordnet, so daß ein erstes und ein zweites Empfänger-Array angeordnet sind. Das erste und das zweite räumlich strukturierte Empfänger-Array weisen je mindestens zwei Empfängerflächen auf räumlich ge­ trennten Stufenflächen auf, die jeweils senkrecht zum Hauptschnitt liegen, wobei die Empfängerflächen des ersten Empfänger-Arrays jeweils parallel zur Geraden gA1P angeordnet sind, die den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen und den Brennpunkt FAA1 des ersten Abbildungsobjektivs enthält.Die Empfängerflächen des zweiten Empfänger-Arrays sind vorzugsweise jeweils parallel zur Geraden gA2P angeordnet, die den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen und den Brennpunkt FAA2 des zweiten Abbildungsobjektivs enthält, wobei sich je zwei durch die Empfängerflächen und sowie und gehenden Ausgleichsgeraden in der Hauptebene schneiden und der mittlere Abstand dieser Empfänger­ flächen sowie von der Hauptebene jeweils gleich gemacht ist.Aufgrund der natürlichen Strukturierung der teilweise strukturiert oder natürlich beleuchteten und auch selbstleuchtenden Objektoberfläche sind die in jedem Element des Empfänger-Arrays aufgenommenen Signalverläufe S1j und S2j mehr oder weniger moduliert. Aus der Auswertung dieser Modulation, die be­ sonders an den scharf abgebildeten Elementen der Objektoberfläche auftritt, soll die zO-Position des je­ weils zugehörigen Elementes der Objektoberfläche bestimmt werden.Die beiden Signalverläufe S1j und S2j von zwei korrespondierenden Elementen 1j und 2j der beiden Emp­ fänger-Arrays sind über dem Weg der Verschiebung der beiden Empfänger-Arrays im Speicher eines Rechners abgelegt. Dabei stellen genau die Elemente von zwei Empfänger-Arrays korrespondierende Elemente dar, deren Bilder im Objektraum in einem Schärfevolumen zumindestens zu einem Zeitpunkt koinzidieren. So bilden genau ein Element des ersten und ein Element des zweiten Empfänger-Arrays in einem gemeinsamen Schärfevolumen zumindestens zu einem Zeitpunkt ein Paar korrespondierender Elemente.Es werden nun aus jedem der beiden Signalverläufe S1j und S2j mittels einer Fensterfunktion mit minde­ stens einem einzigen Fenster, mit einer minimalen Fensterlänge entsprechend zwei Signalwerten und ei­ ner maximalen Fensterlänge, die zumindestens näherungsweise der Länge der Signalverläufe S1j und S2j entspricht, sich überdeckende Signalstücke S1 teil j und S2 teil j in jedem der beiden Signalverläufe S1j und S2j aus den Fenstern gebildet. Fenster, vorteilhaft sind Fensterlängen mit einer Länge von beispiels­ weise 8 oder 16 Signalwerte, andere, auch größere Werte sind möglich.Es erfolgt das in beiden Signalverläufen S1j und S2j synchrone Verschieben dieser Fensterfunktion, um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays entspricht, über jeden dieser beiden Signalverläufe S1j und S2j und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, wird je ein Signalstück S1 teil Position k j und S2 teil Position k j gebildet.Dabei überdecken sich diese nacheinander gebildeten Signalstücke S1 teil j Position k j und S2 teil j Position k j in je­ dem der beiden Signalverläufe S1j und S2j in einem Teilbereich und wobei jeweils am gleichen Ende der beiden Signalverläufe S1j und S2j mit dem Verschieben der Fensterfunktion in beiden Signalstücken be­ gonnen wird.Anschließend wird, jeweils ausgehend von zwei Signalstücken in der Position 1 S1 teil Position 1 j und S2 teil Position 1 j, die Kreuzkorrelationsfunktion berechnet, wobei jedoch vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signal- Stück S1 Teil Position 1 j und aus einem invertierten Signalstück S2 Teil Position 1 INV j das Maximum der Kreuzkorre­ lationsfunktion MCC1 2 j Position 1 zwischen 0 und 1 berechnet und gespeichert wird.Die Invertierung ist notwendig, da die Abbildungsstrahlen der Elemente eines korrespondierenden Paares sich im Objektraum bei der Verschiebung in einem zumindest näherungsweise gleichen Ausschnitt der Szene im Verschiebungsvorgang entlang einer Spur gegensinnig bewegen, also beispielsweise aufeinan­ der zu. Dabei liegt diese Spur parallel zum Hauptschnitt der 3D-Aufnahmeanordnung.Nach dem Berechnen des Maximums der Kreuzkorrelationsfunktion MCC1 2 j Position 1 in der Position 1 er­ folgt das Verschieben der Fensterfunktion in die Position 2, so daß für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion MCC1 2 j Position 2 in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe S1j und S2j in der Position m angekom­ men ist und wiederum das Maximum MCC1 2 j Position m der Kreuzkorrelationsfunktion MCC1 2 j Position m bestimmt wird. Aus den von m berechneten Maxima MCCm wird eine Maximalwert-Kurve gebildet, wobei in dieser Maximalwert-Kurve wiederum das sich ergebende Maximum Mm j zwischen 0 und 1 bestimmt wird und der Ort des Maximums Mm j der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird. Diese so berechnete Maximalwert-Kurve kann den Verlauf einer Gauß-Funktion aufweisen. Um Fehlern vorzubeugen, kann ei­ ne Intensitätsschwelle verwendet werden, wodurch Signalstücke mit sehr geringer mittlerer Intensität von der weiteren Verarbeitung ausgeschlossen werden. Das Maximum Mj Maximalwert-Kurve kann auch über eine Schwerpunktbildung erfolgen. Dabei können lnterpolationsmethoden angewendet werden.So wird der Ort des jeweiligen so bestimmten Maximums Mj als Ort des zu den beiden korrespondieren­ den Elementen 1j und 2j zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche im Array- Raum definiert.Aus dem Ort dieses Maximums Mj im Array-Raum wird die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche, da die Geometrie der 3D- Aufnahmeanordnung bekannt ist. So können die Positionen von den Elementen einer Objektoberfläche, von welchen Signalverläufe aufgenommen werden, berechnet werden, wobei die Geometrie der 3D- Aufnahmeanordnung bekannt und die Verschiebungen, einschließlich die Schrittweite der Verschiebung, der beiden Empfänger-Arrays vorbestimmt sind.Dieser so berechnete Kurvenzug über dem Weg der Verschiebung kann den Verlauf einer Gauß-Funktion aufweisen. Es wird in diesem Kurvenzug das Maximum bestimmt, wobei der Ort des Maximums des Kur­ venzuges den beiden originalen Signalverläufen S1j und S2j und damit dem Weg der Verschiebung zuge­ ordnet wird. Das Maximums des Kurvenzuges kann auch über eine Schwerpunktbildung erfolgen. Der Ort des Maximums wird als Ort des zugehörigen Elementes der Objektoberfläche definiert. Dabei können In­ terpolationsmethoden angewendet werden.Dieses Verfahren kann als Korrelationsverfahren mit zwei gefensterten Signalverläufen und einem dabei stückweise jeweils invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objek­ toberfläche bezeichnet werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zumindest näherungsweise zur Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, und das erste und das zweite Empfänger-Array mindestens je eine Empfängerfläche aufweisen, die jeweils senkrecht zum Hauptschnitt liegt. Dabei enthält die Empfängerfläche des ersten Empfänger-Arrays vorzugsweise die Strecke ASA1, die auf einer Strecke auf dem ersten oberen Ast eines Buchstabens Y liegt. Weiterhin liegt vorzugsweise die Strecke ASA1 parallel zu einer Geraden gA1P, die zum einen den Brennpunkt des ersten Abbildungsobjek­ tivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebe­ nen schneidet, so daß die detektierenden Elemente des erstes Empfänger-Arrays im Hauptschnitt auf der Strecke ASA1 angeordnet sind. Dabei bildet vorzugsweise ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y.Mindestens eine Empfängerfläche des zweiten Empfänger-Array liegt vorzugsweise auf einer Strecke AS2 auf dem zweiten oberen Ast des Buchstabens Y und enthält die Strecke ASA2, die parallel zu einer Gera­ den gA2P liegt, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet, so daß die detek­ tierenden Elemente des zweites Empfänger-Arrays im Hauptschnitt auf der Strecke ASA1 angeordnet sind, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Diese Anordnung ermög­ licht die Detektion von beleuchteten Elementen der Objektoberfläche im Objektraum auf einer Ebene senkrecht zum Hauptschnitt.Die Empfänger-Matrizen sind im Aufbau gleich und in einer zur Symmetrieilinie SL symmetrischen Positi­ on und in gleicher Höhe angeordnet. Die Signale der beiden Empfängerflächen werden zeilenweise aus­ gelesen, so daß die Empfängerfläche des ersten Empfänger-Arrays die Signalverläufe S1 und die Emp­ fängerfläche des zweiten Empfänger-Arrays die Signalverläufe S2 liefert. Diese Signalverläufe werden Zeile für Zeile ausgewertet, wobei die Zeilen in gleicher Entfernung vom Hauptschnitt die jeweils korre­ spondierenden Elemente enthalten. Für das Auffinden des Ortes eines Elementes der Objektoberfläche im Objektraum kommt die Auswertung entsprechend dem bereits beschriebenen Korrelationsverfahren mit zwei gefensterten Signalverläufen zur Anwendung. Auch hier werden durch eine Fensterfunktion Si­ gnalstücke erzeugt. Ein Signalstück wird dabei jeweils invertiert, indem die Signalwerte gespiegelt werden. Es wird die Kreuzkorrelation jeweils von einem originalen Signalstück und jeweils von einem invertierten Signalstück, wobei die Signalstücke jeweils symmetrisch angeordnete Zeilenausschnitte in der 3D- Anordnung repräsentieren, durchgeführt und jeweils ein Korrelationskoeffizient gewonnen und abgespei­ chert. Dabei wird das Fenster der Fensterfunktion, welches beispielsweise eine Länge von 64 Pixeln auf­ weisen kann, beispielsweise in Schritten von einem Inkrement verschoben, das hier einem Pixel in der je­ weils ausgewerteten Zeile entspricht. Für Überblicksmessungen kann auch ein größerer Verschiebung­ schritt des Fensters als um ein Pixel erfolgen, beispielsweise um vier Pixel. Die Länge des Fensters wird in Abhängigkeit von der relativen Öffnung und vom mittleren Abstand der Objektoberfläche gewählt. Dabei kann die Fensterlänge auch variabel gestaltet werden, beispielsweise kann für die fokusnahen Bereiche der Empfänger-Matrix eine geringere Fensterlänge gewählt werden. So erfolgt die Bestimmung der zO- Position der Elemente der Objektoberfläche in einer zum Hauptschnitt senkrechten Ebene in der Symme­ trielinie SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive.Die Auswertung erfolgt mit dem Korrelationsverfahren mit zwei gefensterten Signalverläufen wie oben be­ reits dargestellt.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche einem Beleuchtungsobjektiv eine erstes Abbildungsobjektiv mit einem Empfänger-Array und ein zweites Abbil­ dungsobjektiv mit einem Empfänger-Array zugeordnet sind, wobei das Pupillenzentrum PZOA des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet ist. Jedem der beiden Abbildungsobjektiv ist je ein räumlich strukturiertes Empfänger-Array zugeordnet, so daß ein erstes und ein zweites Empfänger-Array im Array-Raum angeordnet sind.Dabei weisen das erste und das zweite räumlich strukturierte Empfänger-Array mindestens je zwei Emp­ fängerflächen auf räumlich getrennten Flächen auf und die Empfängerflächen des ersten Empfänger- Arrays sind jeweils so angeordnet und die Empfängerflächen des zweiten Empfänger-Arrays sind jeweils so angeordnet, daß zumindest näherungsweise Paare von optisch konjugierten Bildern zumindestens von Teilen von Empfängerflächen des ersten Empfänger-Arrays sowie von Teilen der Empfängerflächen des zweiten Empfänger-Arrays im Objektraum gebildet sind. Auch hier erfolgt die Auswertung mit dem Korre­ lationsverfahren mit zwei gefensterten Signalverläufen wie oben bereits dargestellt. Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mit min­ destens zwei Abbildungsstrahlengängen mit mindestens je einem Abbildungsobjektiv in jedem Abbil­ dungsstrahlengang. Dabei ist das Pupillenzentrum (PZOA1) eines Abbildungsobjektivs eines Abbildungs­ strahlenganges mindestens im Abstand d vom Pupillenzentrum (PZOA2) eines anderen Abbildungsobjek­ tivs eines anderen Abbildungsstrahlenganges angeordnet, wobei der Abstand d mindestens ein Achtel der Ausdehnung der Öffnungsblende des Abbildungsobjektivs mit der größten Ausdehnung der Öffnungs­ blende entspricht. Weiterhin ist jedem Abbildungsobjektiv mindesten je ein Empfänger-Array mit minde­ stens zwei detektierenden Element zugeordnet.Erfindungsgemäß ist dabei jedem Empfänger-Array mindestens jeweils ein mikrooptisches Array mit mi­ krooptischen Elementen zur Beeinflussung der geometrisch-optischen Gegenstandsweite der detektie­ renden Elemente zum zugehörigen Abbildungsobjektiv zugeordnet und im Objektraum ist mindestens ein Paar von zumindest näherungsweise koinzidierenden Bildern von je einem Bild eines Elementes der Empfängerflächen je eines Abbildungsstrahlenganges gebildet.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro­ optische Array als ein Mikroprismen-Array ausgebildet sein. Dabei kann ein Mikropisma mehrere detektie­ rende Elemente überdecken, so daß aufgrund der unterschiedlichen optischen Dicke des Mikroprismas die mehrere detektierende Elemente eine jeweils andere optische Gegenstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine andere Lage im Objektraum einnehmen. So kann aus den Bildern von mehreren detektierende Elementen eine Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelationsverfahrens kann so mindestens der Ort eines Elementes ei­ ner Oberfläche bestimmt werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro­ optische Array als ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher axialer Lage ausgebildet ist. So kann jedes Empfängerelement durch die abbildende Wirkung der Mikkrolinse eine andere optische Ge­ genstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine andere Lage im Objektraum einnehmen. Dadurch kann an unterschiedlichen Orten des Objektraumes ein Bild der detek­ tierenden Elementen erzeugt sein. So kann aus den Bildern von mehreren detektierenden Elementen eine Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelationsverfahrens kann so mindestens der Ort eines Elementes einer Oberfläche bestimmt werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro­ optische Array als ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite ausgebildet sein. Auch hierbei kann jedes Empfängerelement durch die abbildende Wirkung der Mikkrolinse eine andere optische Gegenstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine an­ dere Lage im Objektraum einnehmen. Dadurch kann an unterschiedlichen Orten des Objektraumes ein Bild der detektierenden Elementen erzeugt sein. So kann aus den Bildern von mehreren detektierenden Elementen eine Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelations­ verfahrens kann so mindestens der Ort eines Elementes einer Oberfläche bestimmt werden. Die Mikrolin­ sen können dabei Bestandteil eines Mikro-Teleskopes sein. 6. AusführungsbeispieleIn der Fig. 1 werden die Anordnung und das Verfahren dargestellt. Es wird zwischen dem Array-Raum und dem Objektraum unterschieden. Es wird die folgende Notation verwendet, die von der üblichen abweicht, sich aber bei dieser und den im weiteren dargestellten optischen Schaltungen als vorteilhaft für die Beschreibung erwiesen hat: Die Größen und Punkte des Array-Raumes der werden an erster Stelle mit dem Buchstaben A indiziert und die Größen und Punkte des Objektraumes mit dem Buchstaben O. An zweiter Stelle im Index wird das zugehörige Objektiv gekennzeichnet und zwar im Falle der Zugehörigkeit zum Beleuchtungsobjektiv 1 mit dem Buchstaben B und im Falle der Zugehörigkeit zum Abbildungsobjektiv 2 mit dem Buchstaben A.Im Array-Raum befinden sich ein Liniengitter 3 mit der Gitterkonstante p und eine vorgeordnete Strahlungsquelle mit sichtbarem Licht, also eine Lichtquelle 4. Diese Lichtquelle 4 kann rechnergesteuert sein, so daß die mittlere Beleuchtungsstärke der Entfernung des jeweiligen Schärfebene nach dem photometrischen Gesetz angepaßt ist. Dies stellt eine gute Ausnutzung der Lichtenergie dar.Das Liniengitter 3 ist dem Beleuchtungsobjektiv 1 mit einem streng telezentrischen Strahlengang im Array-Raum achssenkrecht und extrafokal zugeordnet. Das Beleuchtungsobjektiv 1 bildet das Liniengitter 3 in den Objektraum ab, wodurch zumindest zu einem Zeitpunkt eine strukturierte Beleuchtung der Objektoberfläche 5 entsteht. Zur Vereinfachung sind die beiden Hauptebenen des Beleuchtunsobjektivs 1, HAB und HOB, in der Fig. 1 zusammengelegt. Bei realen Objektiven dieser K1asse liegen die beiden Hauptebenen weit auseinander.Im Array-Raum ist eine Empfänger-Matrix 6 dem Abbildungsobjektiv 2, welches einen ebenfalls streng telezentrischen Strahlengang im Array-Raum aufweist, achssenkrecht und extrafokal zugeordnet. Das Abbildungsobjektiv 2 bildet die Objektoberfläche 5 in den Array-Raum ab. Ein einzelner Abbildungsstrahl AO1 ist dargestellt. Zur Vereinfachung sind die beiden Hauptebenen des Abbildungsobjektivs 2, HAA und HOA, in der Fig. 1 ebenfalls zusammengelegt.Das Beleuchtungs- 1 und das Abbildungsobjektiv 2 sind mit ihren optischen Achsen zueinander parallel mit dem Achsenabstand d angeordnet. Das Beleuchtungs- 1 und das Abbildungsobjektiv 2 weisen die array-seitigen Brennpunkte FAB und FAA und im Objektraum die Brennpunkte FOB und FOA auf. Wegen der Telezentrie fallen im Objektraum die Brennpunkte FOB und FOA mit den Austrittspupillen PZOB und PZOA zusammen. Es sind zwei Beleuchtungsstrahlen BSO1 und BSO2 und ein Abbildungsstrahl ABSO dargestellt.Die hier nicht dargestellte, erste Linearführung des Bewegungssystems ist mit der Empfänger-Matrix 6 starr verbunden und trägt eine zweite, hier ebenfalls nicht dargestellte, kleinere Linearführung, die wiederum das Liniengitter 3 trägt. Dieses Liniengitter 3 ist deutlich länger ausgeführt als es dem vom Beleuchtungsobjektiv 1 erfaßten Bildfeld entspricht, um im gesamten Bewegungsvorgang stets das gesamte Bildfeld zu überdecken. Die erste Linearführung ist mit einem hochgenauen Längen-Meßsystem verbunden, welches einen hochstabilen Nullpunkt aufweist. Die Bewegungsachse der ersten Linearführung ist parallel zu den Objektivachsen und die Meßachse des Längen-Meßsystems liegt dabei parallel zu den beiden Objektivachsen. Die Bewegungsrichtung der zweiten Linearführung liegt senkrecht zu den Objektivachsen. Dem Liniengitter 3 auf der zweiten Linearführung ist ein mit der ersten Linearführung fest verbundenes Gegengitter mit einer kompletten Beleuchtungs- und Empfänger-Optik in der Art eines inkrementalen Längenmeßsystems zugeordnet. Die vorhandene Auswerte-Elektronik weist eine elektronische Schnittstelle zum Rechner auf, um die berechnete Verschiebung des Liniengitters 3 als Phaseninformation echtzeitnah im Rechner zur Verfügung zu haben. Gleichzeitig ist auf dem Liniengitter 3 im Teil außerhalb des genutzten Bildfeldes eine erste Referenzstruktur aufgebracht, die von einer zweiten Referenzstruktur, die ebenfalls auf dem Gegengitter aufgebracht ist, optisch abgetastet wird. Auch dabei ist eine Beleuchtungs- und Empfänger-Optik beigeordnet und eine Auswerte-Elektronik vorhanden. Die zweite Auswerte-Elektronik weist ebenfalls eine elektronische Schnittstelle zum Rechner auf, um das Durchfahren des Nullpunktes des Liniengitters in Echtzeit im Rechner zur Verfügung zu haben.Beide Linearführungen des Bewegungssystems starten aus der Nullposition heraus. Die Bewegungsrichtung der ersten Linearführung ist parallel zur optischen Achse des Abbildungsobjektivs ausgerichtet. Die Bewegung erfolgt zu den Brennpunkten hin. Der kleineren, zweiten Linearführung, die das Liniengitter 3 trägt, ist ein Positions-Regelsystem zugeordnet, um eine Bewegung des Liniengitters mit einer möglichst konstanten Geschwindigkeit und damit auch mit einer konstanten Phasengeschwindigkeit realisieren zu können. Die Bewegungsrichtung der zweiten Linearführung ist senkrecht zur optischen Achse des Beleuchtungsobjektiv 1 und erfolgt nach dem Start in Richtung des Beleuchtungsobjektivs 1.Aus der aktuellen, absoluten Istphase ϕGitter des Liniengitters 3, die von einem Nullpunkt abgeleitet ist, werden die Sollwerte für die Position der ersten Linearführung errechnet. Dies erfolgt so, daß sich die Orte gleicher Phase oder gleicher relativer Leuchtdichte auf dem Liniengitter 3 parallel zu einer Geraden gA, beispielsweise parallel zur Geraden gA2, auf der B-Strecke BSA2 bewegen. Diese Gerade gA ist so definiert, daß sie den Brennpunkt FAB des Beleuchtungsobjektivs 1 und außerdem den Hauptpunkt HAA des Abbildungsobjektivs 2 schneidet.Die leuchtenden Flächenelemente FEL bewegen sich im Array-Raum auf den Verschiebungsstrecken VSAj, die hier durch die Sollstrecken, die B-Strecken BSAj, repräsentiert sind. Die Bilder dieser B-Strecken BSAj, einschließlich der in der Fig. 1 dargestellten B-Strecken BSA1 und BSA2, werden in den Objektraum abgebildet. Beispielsweise werden aus den B-Strecken BSA1 und BSA2 die Bilder BSA1 und BSA2. Die Bilder BSA1 und BSA2 bilden ein Streckenbüschel SB1 mit dem Konvergenzpunkt K1, der mit den Brennpunkt FOA des Abbildungsobjektivs 2 zusammenfällt. Weiterhin werden die Elemente des Empfänger-Arrays auf Strecken ASAj verschoben. Dargestellt sind die Strecken ASA1 und ASA2. Deren Bilder stellen im Objektraum das Streckenbündel SB2 mit den Strecken ASO1 und ASO2 mit dem Konvergenzpunkt K2 dar, der im Brennpunkt FOA des Abbildungsobjektivs 2 mit dem Konvergenzpunkt K1 koinzidiert, wobei der Koinzidenzpunkt von Konvergenzpunkt K1 und von Konvergenzpunkt K2 im allgemeinen stets der Koinzidenzpunkt K0 ist.Durch dieses Bewegungsregime werden die achssenkrechten Ebenen des Objektraumes von der Schärfefläche nacheinander "durchfahren", indem sich in jeder dieser Ebenen bei Vorhandensein einer Objektoberfläche ein vom Beleuchtungsobjektiv 1 scharf abgebildetes Streifenmuster beobachten läßt, welches durch das Abbildungsobjektiv 2 auf die Empfänger-Matrix 6 abgebildet wird. Durch das so realisierte Bewegen der Orte gleicher Phase oder gleicher relativer Leuchtdichte auf dem Liniengitter 3 parallel zu einer Geraden gA wird das sogenannte "Mitführen der Phase in der Schärfefläche erreicht. Dies führt dazu, daß jedes hinreichend kleine Objektdetail, im Objektraum, wenn es von der Schärfefläche "erfaßt" wird, ein moduliertes periodisches Signal im zugehörigen Pixel ij auf der Empfänger-Matrix 6 erzeugt, in welchem die Information über die absolute Phase des Objektpunktes ϕObj_ij enthalten ist. Diese absolute Phase entspricht beispielsweise für den Objektpunkt AO2 in Fig. 1 der gedachten Anzahl der Streifen n, einschließlich der Streifenbruchteile Δn, zwischen den beiden Objektiv-Achsen, also n + Δn. Diese Streifen sind im Fall einer ebenen, achssenkrecht angeordneten Platte direkt zu beobachten. Dennoch kann im allgemeinen die so zu beobachtende absolute Objektphase aufgrund der nicht genau bekannten Zuordnung der beiden optischen Achsen zu den Pixeln der Empfänger-Matrix 6 nicht bestimmt werden.Anhand der Fig. 1 läßt sich zeigen, daß in der Position AO1BO1 die Anzahl der Streifen n + 1 + Δn, die zwischen den beiden Objektivachsen zu beobachten ist, genau der Anzahl n + 1 + Δn der Gitterperioden des Liniengitters 3 im Array-Raum entspricht, die sich beim Zählen von der Achse des Beleuchtungsobjektivs 1 in xAB-Richtung ergibt. Weiterhin definiert der Punkt GAB genau den Ort auf dem Gitterelement des Liniengitters 3, welcher beim Bewegen auf der Geraden gA im Teilbereich des Gitterinkrements den Brennpunkt FAB des Beleuchtungsobjektivs 1 schneidet. Demzufolge entspricht, die absolute, lateral invariante Objektphase ϕObj der achssenkrechten Ebene dem Abstand GQ.Bei Kenntnis des zugehörigen Punktes GAB auf dem Liniengitter 3 und des Wertes xAB1 sowie der Gitterkonstanten p läßt sich grundsätzlich die absolute, lateral invariante Objektphase ϕObj der achssenkrechten Ebene im Objektraum mit
errechnen. Im Fall der Übereinstimmung der realen Lage der Objektivachse des Abbildungsobjektivs mit der Geraden gO, die ja definitionsgemäß parallel zur Objektivachse des Beleuchtungsobjektivs 1 liegt, gelten die dargestellten Zusammenhänge nach Gleichung (7).Bevor die Messung, d. h. die Gewinnung der Punktwolke einer unbekannten Objektoberfläche 5 erfolgen kann, muß das System mit Hilfe einer Referenzplatte in einer achssenkrechten Position erfolgen. Dies erfolgt mit Vorteil in der Nahdistanz der 3D-Aufnahme-Anordnung, kann aber auch in jeder anderen Entfernung im Aufnahmebereich der 3D-Aufnahme-Anordnung erfolgen. Die in den Pixel der Empfänger-Matrix 6 sich dabei ergebenden Signalverläufe werden gespeichert. Aus diesen Signalverläufen wird mit Hilfe eines phasenauswertenden Algorithmus' die relative Referenzphase ϕRR_ij im Pixel ij des Empfänger-Arrays im Bereich des Modulationsmaximums berechnet, welches ein Signal von der Referenzplatte erhält. Die so bestimmten relativen Referenzphasen mod 2π werden der absoluten Phase ϕGitter des Liniengitters zugeordnet, siehe Fig. 2, und unter Beachtung des jeweiligen Vorzeichens von dieser subtrahiert und in einem Feld als Phasenwerte ϕGitterR_ij - in der Regel - längerfristig gespeichert. Die relativen Objektphasen der Objektpunkte ϕRObj_ij mod 2π werden jeweils von der absoluten Phase 9 Gitter des Liniengitters 3 unter Beachtung des jeweiligen Vorzeichens von dieser subtrahiert, wodurch die Phasenwerte ϕGitterObj_ij als Feld entstehen. Aus diesen Feldern werden punktweise die Phasendifferenzen ΔϕGitter_ij gebildet.Zuvor wurde aus der möglichst gut bekannten Entfernung zOR der Referenzplatte von der Brennebene die absolute, lateral invariante Phase ϕR der Referenzfläche mit der hier noch einmal dargestellten Gleichung (2)
bestimmt, wobei diese Bestimmung iterativ zur Annäherung an deren wahren Wert mehrfach erfolgen kann. Es stellen d den Achsenabstand der beiden Objektive 1 und 2, fB die Brennweite des Beleuchtungsobjektivs 1 und p die Gitterkonstante des Liniengitters 3 dar.Mit der Beziehung entsprechend Gleichung (4), wobei ΔϕGitter_ij sich für den Objektpunkt ij aus der Gleichung (3) ergibt,
(-)ϕObj_ij = (-)ϕR + ΔϕGitter_ij (8)
wird für den Objektpunkt ij die absolute Objektphase (-)ϕObj_ij aus Gleichung (8) gewonnen. Aus der Beziehung
kann die zos-Koordinate des Objektpunktes zObj_ij im Objektraum berechnet werden, wobei der Objektpunkt mit dem Pixel ij der Empfänger-Matrix 6 optisch konjugiert ist.Durch achsparallele Verschiebungen ΔzOB von Planplatten, wobei die Verschiebungen mit einem Präzisions-Längenmeßsystem gemessenen werden, können Fehler abgeschätzt werden, indem die errechneten Verschiebungen mit den gemessenen verglichen werden. Die Nachjustierung der 3D-Aufnahme-Anordnung erfolgt iterativ. Die Restabweichungen werden in ein numerisches Modell eingegeben, welches hier nicht dargestellt ist, und können zur Korrektur benutzt werden.Aus der Einrechnung des zu jedem Objektpunkt mit der Koordinate zObj_ij gehörenden aktuellen Abbildungsmaßstabes werden die kartesischen Koordinaten für jeden Objektpunkt ermittelt. Dabei kann ein neues Koordinatensystem mit dem Brennpunkt des Abbildungsobjektivs 2 als Nullpunkt für die lateralen Koordinaten in x- und y-Richtung verwendet werden. Damit stehen die 3D-Koordinaten der Objektoberfläche in digitaler Form als Punktwolke zur Verfügung. Diese Punktwolke wird je nach Aufgabenstellung für meßtechnische Applikationen oder Aufgaben mit einer 3D-Wiedergabe verwendet.Bei der Verschiebung eines Objektpunktes, der sich in der AO1BO1-Position in Fig. 1 befindet, in die AO2BO2-Position entlang des gezeichneten Abbildungsstrahls ABSO erfährt das im Bildpunkt dieses Objektpunktes detektierte Signal eine Änderung in der Phasenlage von 2π. Die Änderung in der zOB-Koordinate entspricht dem Δz2 π-Wert, also der Tiefenänderung, die einer Phasenänderung von 2π entspricht. Dieser Δz2 π-Wert wird als effektive Wellenlänge bezeichnet und ist tiefenabhängig.Fig. 2 zeigt beispielsweise die Signalverläufe SO und SR in einem Bildpunkt der Empfänger-Matrix 6 in Bezug zum Signalverlauf SG, der am Liniengitter 3 mit Hilfe eines Gegengitters beim Bewegen des Gitters 3 detektiert werden kann. Dargestellt werden der Signalverlauf im Bildpunkt SO eines Objektpunktes und der Signalverlauf SR im Bildpunkt eines Referenzpunktes. Hierbei befindet sich die Referenzplatte näher am Brennpunkt FOB als die Objektoberfläche. Am Abtastpunkt APR im Bereich des Modulationsmaximums des Signals im Bildpunkt eines Referenzpunktes wird die relative Phase ϕRR errechnet und am Abtastpunkt APO im Bereich des Modulationsmaximums des Signals im Bildpunkt eines Objektpunktes die relative Phase ϕRObj. Mittels der Gleichung (3) wird die absolute Phasendifferenz ΔϕGittzer errechnet und mit Gleichung (4) die absolute Objektphase ϕObj, aus der mit der Gleichung (5) die zOB-Koordinate eines jeden Objektpunktes, nämlich zObj, bestimmt wird. Der hochstabile Nullpunkt N dient als Startpunkt.Fig. 3 zeigt eine vorteilhafte 3D-Aufnahme-Anordnung mit nur einer Linearführung 7, beispielsweise für eine 3D-Aufnahme-Anordnung für Multimedia-Applikationen. Der Schlitten 8 der Linearführung 7 trägt ein Liniengitter 3 zur strukturierten Beleuchtung der Objektoberfläche 5. Die Beleuchtung erfolgt mittels einer Lichtquelle 4 durch eine Öffnung in der Basis 9 der Linearführung 7. Weiterhin trägt der Schlitten 8 die beweglichen Teile für ein Meßsystem 10 für den Verschiebeweg s, wobei auch ein Nullpunktgeber 11 angeordnet ist. Außerdem ist eine Auswerteelektronik mit Schnittstelle zum hier nicht dargestellten Auswerterechner vorhanden.Der Schlitten 8 wird von einem Linear-Motor 12 angetrieben und die Führung 7 weist ein miniaturisiertes Präzisionslager 13 auf. Als Empfänger-Matrix 6 kann auch eine farbtüchtige Kamera eingesetzt werden, wobei die farbsensitiven Pixel jeweils auf einer Linie quer zu den Linien des Liniengitters 3 angeordnet sein sollten.Nach dem Start des Schlittens 8 in (-)s-Richtung wird der Nullpunkt durchfahren und das Liniengitter 3 durch das Beleuchtungsobjektiv 1 nacheinander in unterschiedliche Tiefen des Objektraumes scharf abgebildet. Auf der Oberfläche der Objektoberfläche 5 entsteht beim Verschieben des Liniengitters 3 im Zeitbereich ΔtB zumindestens einmal im Verschiebevorgang das scharfe Bild desselben, beispielsweise zum Zeitpunkt ti. Dieses scharfe Bild wird auch zum Zeitpunkt ti vom Abbildungsobjektiv 2 auf die Empfänger-Matrix 6 scharf abgebildet, da diese sich in der gleichen Ebene wie das Liniengitter 3 befindet. Durch die Bewegung des Schlittens 8 der Führung 7 gibt es eine laterale Bewegung der Empfänger-Matrix 6, wobei das Bild der Objektoberfläche 5 in Bezug auf die Basis 9 feststeht. Um diese laterale Bewegung zu kompensieren, um eine feste Zuordnung der Punkte der Objektoberfläche 5, also der Abbildungsstrahlen, zu den Pixeln der Empfänger-Matrix 6 beizubehalten, werden die gewonnenen Bildinformationen pixelweise im Bilddaten-Massiv entsprechend der lateralen Bewegung der Empfänger-Matrix 6 verschoben. Damit wird erreicht, daß ein realer Abbildungsstrahl jeweils einem lateral feststehenden Bildpunkt unabhängig von der lateralen Bewegung der Empfänger-Matrix 6 fest zugeordnet bleibt.
claims <   1. 3D recording method
of at least one object surface ( 5 ) in at least one scene with at least one electromagnetic radiation source ( 4 ), the radiation source ( 4 ) being formed by means of at least one structured array as at least one structured, luminous array with at least two surface elements and at least one surface element being illuminated , so that at least one luminous area element is formed, the term luminous being used in the sense of emitting electromagnetic radiation,
wherein each luminous surface element is defined by an at least approximately predetermined luminance and by a predetermined location, and this is hereinafter referred to as a luminous surface element FELj ( 3 A), and with at least one illuminating beam path with at least one of the structured luminous arrays, including one Image of the same, assigned lighting objective ( 1 ), which realizes an image of the at least one luminous surface element FELj ( 3 A) and
With at least one imaging beam path for imaging elements of the at least one object surface ( 5 ) and at least one receiver array with at least two elements and with an imaging lens ( 2 , 33 ) and associated with the receiver array
that elements of the receiver array in the recording process detect electromagnetic radiation from elements of the at least one illuminated object surface ( 5 ) in the object space and elements of the receiver array through the imaging lens ( 2 , 33 ) always include images in the object space that corresponds to the scene space a geometric-optical focus volume is formed,
and that elements of the at least one object surface ( 5 ) are imaged with at least one imaging objective ( 2 , 33 ) and
by imaging the at least one luminous surface element FELj ( 3 A) with the lighting objective ( 1 ), an image of a luminous surface element FELj ( 3 A) is formed in the object space with a geometrical-optical focus volume,
characterized in that the detection of electromagnetic radiation from the elements of the at least one object surface ( 5 ) by the elements of the receiver array takes place at least in a time range (Δt B ) in which the structured luminous element FELj ( 3 A) is used Arrays a predetermined shift is performed, including a predetermined th optical shift as a result of a geometric-optical path length change, and so at least one luminous surface element FELj ( 3 A) emits electromagnetic radiation at two different times in at least two different locations and
the focus volume at least one image of at least a predetermined, luminous FLAE chenelementes FELj (3 A) of the structures a minimum luminous arrays, said Schärfevo lumen is formed in the object space, and
the sharpness volume of at least one image of at least one predetermined element of the receiver array, this sharpness volume being formed in the object space, and
at least one element of the at least one object surface ( 5 )
at least approximately once by carrying out the predetermined displacement of at least a predetermined luminous surface element FELj (3 A) of the patterned luminous array with at least one component of displacement in the z A direction in the array area, that is, with a displacement component parallel to the optical axis of the illumination lens ( 1 ),
be brought to coincidence
so that in the object space at least once and at least approximately the coincidence of the sharpness volume of an image of a predetermined, luminous surface element FELj ( 3 A) of the structured luminous array and the sharpness volume of an image of a predetermined element of the receiver array and at least one element of the at least one Object surface ( 5 ) is generated and at the occurrence of the coincidence at least the element of the receiver array involved in this coincidence is subjected to a time-varying irradiation at least once and thus this element of the receiver array detects a changed signal at least once
and so by the realization of the shift in the time domain .DELTA.t B elements of the at least one object surface (5) at the same time to coincide with the sharpness of an image volume of a predetermined luminous surface element FELj (3 A) of the patterned luminous arrays, and the focus volume of an image of a predetermined element of the receiver array and each time the coincidence occurs, the element of the receiver array involved in this coincidence is at least once subjected to a time-varying irradiation and thus this element of the receiver array detects a changed signal at least once.
2. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to claim 1, characterized in that one luminous surface element FELj ( 3 A) at least approximately in the time intervals (Δt i ) of the detection of electromagnetic radiation in a time range (Δt B ) one on each shift distance (VSB Aj) is shifted relative to the illumination lens (1) and is imaged by the illumination lens (1) and this luminous surface element FELj (3 a) in a luminance distribution with an at least approximately predetermined constant, relative luminance at least at a time (t 1 ) always within the time interval (Δt i )
a predetermined route is mapped in the object space (BS Oj ) and the location of the image of the luminous area element FELj ( 3 A) on the route (BS Oj ) is gradually changed and so the image of the luminous area element FELj ( 3 A) with a at least approximately predetermined constant relative luminance is gradually shifted through the object space and
when shifting one luminous surface element FELj ( 3 A), signal values are read out from elements of the receiver array several times in succession and a signal curve is formed and the location of the element of the receiver array that is read out is changed and
the locations of the read elements of the receiver array lie on a route (AS Aj ) and the image of this route (AS Aj ), the route (AS Oj ), with the predetermined route (BS Oj ) of the images of the luminous surface elements FEL im Object space is optically conjugated and so
an image of an element of the receiver array with the image of a luminous area element FELj ( 3 A) is brought to coincidence at least at one point in time (ti) within the time interval (Δt i ) in the time domain (Δt B ) in the object space and so on a pair is created with changing images, and this pair is gradually pushed through the object space,
so that a focus volume of the image of a luminous surface element of the structured light up the array and one image of an element of the receiver array each with a surface element of the object surface ( 5 ) coincide once in the displacement process within a time range (Δt B ) if an element coincides the object surface ( 5 ) on the imaging beam between the images located in the areas (F min ) and (F max ) in the detected area of the object space,
and the elements of the receiver array read out in the time interval (Δt i ) of the coincidence detect a signal course with at least one relative extremum of the signal size,
wherein the time range (Δt B ) is made larger than the time interval (Δt i ) and so at least one time interval (Δt i ) is temporally adjusted in the time range (Δt B ).
3. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to claim 1, characterized in that one luminous surface element FELj ( 3 A) in each case in the time intervals (Δt i ) of the detection in a time range (Δt B ) at least approximately own displacement distance (VSB Aj ) shifted relative to the lighting lens ( 1 ) and formed by the lighting lens ( 1 ), whereby relatively means that the position of the luminous surface element FELj ( 3 A) can be stationary and in this case at least a component of the illumination lens ( 1 ) moves, and this luminous surface element FELj ( 3 A) at least at one point in time (t i ) within the time interval (Δt i ) always on a path (BS Oj ) on a predetermined imaging beam (ABS O ) , is mapped in the object space and the route (BS Oj ) then also represents the image of the displacement route (VSB Aj ), and the location of the image of the glowing Surface element FELj ( 3 A) on the displacement path (VSB Aj ) at least approximately continuously - within a time range (Δt B ) - changes and so the image of the luminous surface element FELj ( 3 A) with an at least approximately predetermined constant luminance gradually after being moved on the route (BS Oj ) through the object space and
and an at least approximately rectilinear, relative displacement of the receiver array to the imaging lens ( 2 ) and parallel to the optical axis of the imaging lens ( 2 ) is carried out, which means relatively that the position of the receiver array can be fixed and in this If at least components of the imaging lens ( 2 ) move, and when the signal is shifted several times in succession, signal values are read from a single receiver element, and so a signal curve is formed by means of a single receiver element and the location of one element of the receiver array is at least approximately continuous change and the linear relative movement of the receiver array to the imaging lens (2) is carried out parallel to the optical axis of the Abbil dung lens (2) so that a respective image of an element of the receiver array to the image of a luminous surface element FELj (3 a) with an at least approximate e predetermined, constant relative luminance is brought to coincidence in the object space at least at one point in time (t i ) within the time interval (Δt i ) and a pair of images is thus generated which is pushed through the object space,
whereby sharpening volumes of images of the luminous surface elements with surface elements of the object surface ( 5 ) coincide at least once in the displacement process within a time interval (Δt B ) and the elements of the receiver array in the time interval (Δt i ) of the coincidence a signal curve with at least one relative extremum detect the signal size, the time range (Δt B ) being made larger than the time interval (Δt i ) and thus at least one time interval (Δt i ) in the time range (Δt B ) being temporally adjusted.
4. 3D recording method
of at least one object surface ( 5 ) in at least one scene with at least one electromagnetic radiation source ( 4 ), the radiation source ( 4 ) being formed by means of at least one structured array as at least one structured, luminous array with at least two surface elements and at least one surface element being illuminated , so that at least one luminous area element is formed, luminaires being used in the sense of emitting electromagnetic radiation,
wherein each luminous surface element is defined by an at least approximately predetermined luminance and by a predetermined location, and this is hereinafter referred to as the luminous surface element FELj ( 3 A), and with at least one illuminating beam path with at least one of the structured luminous arrays, including one Image of the same, assigned lighting objective ( 1 ), which realizes an image of the luminous surface elements FEL and with
at least one imaging beam path for imaging elements of the at least one object surface ( 5 ) and at least one receiver array with at least two elements and an imaging lens ( 2 , 33 ) and assigned to the receiver array
that elements of the receiver array in the recording process detect electromagnetic radiation from elements of the at least one illuminated object surface ( 5 ) in the object space and elements of the receiver array through the imaging lens ( 2 , 33 ) always include images in the object space that corresponds to the scene space a geometric-optical focus volume is formed,
and that elements of the at least one object surface ( 5 ) are imaged with at least one imaging objective ( 2 , 33 ) and
by imaging the at least one luminous surface element FELj ( 3 A) with the lighting objective ( 1 ), an image of a luminous surface element FELj ( 3 A) is formed in the object space with a geometric-optical focus volume, characterized in that luminous surface element FELj ( 3 A) in the time intervals (Δt i ) of the detection of electromagnetic radiation in a time range (Δt B ) at least approximately in each case at its own location (O ABj ) in the structured, luminous array relative to the illumination lens ( 1 ) and by activation for Luminaires are brought and imaged by the lighting lens ( 1 ) and this at least one luminous surface element FELj ( 3 A) at least at one point in time (t i ) within the time interval (Δt i ) always to a predetermined location in the object space (O OBj ) is formed
and this image location (O OBj ) of the at least one luminous surface element FELj ( 3 A) in the object space is changed by actuation by controlling a different, predetermined surface element and lighting it up,
so that the image of a luminous surface element FELj ( 3 A) on a controllable trajectory, structured from distance increments (AI O ) of the images of the distances (AI A ) of the luminous surface elements FELj ( 3 A) in the array space, through the object space is pushed - in the sense of the controlled taking of predetermined, different positions - and
at least one signal value is detected with a receiver element in each position after the shift by at least an integer multiple n, including n = 1, of the distance increment (AI 0 ), and a signal curve is thus formed from several processes of detecting and reading out elements of the receiver array and the location of the detected and read element of the receiver array is continuously changed and
the locations of the detected and read elements of the receiver array are located at locations (O AAj ) in the receiver array and the image of this location (O AAj ), the image location (O OAj ), with the predetermined image location (O OBj ) of the luminous Surface element FELj ( 3 A) is optically conjugated in the object space and so
an image of a detected and read element of the receiver array with the image of a luminous surface element FELj ( 3 A) is brought to coincidence in the object space at least at one point in time (t i ) within the time interval (Δt i ) and so on a pair of images with changing images are generated, and these pairs gradually take on different positions in the object space and thus the object space is gradually penetrated in depth by such pairs,
where the sharpness of the image of a luminous surface element FELj ( 3 A) with a surface element of the object surface ( 5 ) each coincide at least once in the time range (Δt B ) in a time interval (Δt B ) and the detected and read elements of the receiver array in the Time interval (Δt i ) of the coincidence has a signal curve with at least one relative extremum of the signal size, the time range (Δt B ) being made larger than the time interval (Δt i ) and thus at least one time interval (Δt i ) in the time range (Δt B ) is timed.
5. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to claim 1, characterized in that in the time intervals (Δt i ) of the detection of electromagnetic radiation, the luminous surface elements FEL each have their own displacement path (VSB Aj ) relative to the illumination lens ( 1 ) are moved
and the luminous surface elements FEL at least at one point in time (t i ) within a time interval (Δt i ) in a luminance distribution each have an at least approximately predetermined constant luminous density
and the luminous surface elements FEL are always positioned on a B route (BS Aj ), where in the B route (BS Aj ) the target locations for the luminous surface elements FEL are at least at one point in time (t i ) within the time interval (Δt i ) represent, and
the images of these B sections (BS Aj ) in the object space are always formed into at least one bundle of sections (SB 1 ) with a convergence point (K 1 ) by imaging with at least one illumination lens ( 1 ), the convergence point (K 1 ), at least at a distance (d K1 min ) from the optical axis of the illumination lens ( 1 ) from the 16th part and at a maximum at a distance (d K1 max ) from 16 times the distance (d) from the pupil center (PZ OB ) of the illumination lens ( 1 ) from the pupil center (PZ OA ) of the most distant imaging lens ( 2 ) is positioned in the object space
and at least in a time range (Δt B ) during the displacement process of the luminous surface elements FEL on displacement paths (VSB Aj ), exactly one image of a receiver element and exactly one image of a luminous surface element FELj ( 3 A) in the object space
at least at a single point in time (t i ) within each time interval (Δt i ) of the detection at least approximately jointly on the image of a B section (BS Aj ) and at least at this point in time (t i ) from the image from a receiver element and the image of a luminous surface element FELj ( 3 A) a pair with a fixed assignment is formed in the object space and such pairs are generated in the object space and these pairs are pushed through the object space, and at the location of these pairs in the center of gravity of the current cutting volume of the sharpness of the two images, a current point of coincidence K oj i is formed, which is pushed through the object space,
whereby the sharpness of images of the luminous surface elements FEL coincide with surface elements of the object surface ( 5 ) at least once in the displacement process within a time interval (Δt B ) and the elements of the receiver array in the time interval (Δt i ) of the coincidence a signal with at least one relative Detect extremum of the signal size, the time range (Δt B ) being made larger than the time interval (Δt i ) and thus at least one time interval (Δt i ) in the time range (Δt B ) being temporally adjusted,
so that the luminous surface elements FEL of the structured luminous array and the elements of the receiver array are each mapped onto one another in the object space at least at one point in time (t i ) within a time interval (Δt i ), that is to say always at the same time
and during the shift the positions of the luminous surface elements FEL of the structured light up the array and the positions of the elements of the receiver array always according to Newton's equation from the position of the illumination lens ( 1 ) and the position of the imaging lens ( 2 , 33 ) in the 3D recording arrangement and the focal length (f B ) of the illumination lens ( 1 ) and the focal length (f A ) of the imaging lens ( 2 , 33 ) can be determined and implemented in this way,
that both the luminous surface elements FEL of the structured luminous array and the elements of the receiver array are mapped at least approximately in part of the object space in the same plane in the object space.
6. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to claims 1 and 5, characterized in that in the time intervals (Δt i ) of the detection of electromagnetic radiation a luminous surface element FELj ( 3 A) on each B section ( BS Aj ) is positioned and
and the B sections (BS Aj ) are directed at the pupil center (PZ OA ) of the imaging objective ( 2 ) in the array space, so that the convergence point (K 1 ) at least approximately in the pupil center (PZ OA ) of the imaging objective ( 2 ) is positioned in the object space,
and the convergence point (K 1 ) is also positioned in the pupil plane of the illumination lens ( 1 ) and, during the displacement process, an image of a receiver element and an image of a luminous surface element FELj ( 3 A) in the object space, at least approximately together in the image a B-section (BS Aj ) are positioned and so from the image of a receiver element and the image of a luminous surface element FELj ( 3 A) a pair with a fixed assignment is formed in the object space and so such pairs of images are generated in the object space the and
during the displacement process of the luminous surface elements FEL, an image of a receiver element and an image of a luminous surface element FELj ( 3 A) in the object space are brought at least approximately to the coincidence.
7. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to claims 1 and 5, characterized in that in the time intervals (Δt i ) of the detection of electromagnetic radiation in each case a luminous surface element FELj ( 3 A) at least at one time (t i ) is positioned within a respective time interval (Δt i ) of the detection with an at least approximately constant, relative luminance on a B path (BS Aj ),
wherein the convergence point (K 1 ) is positioned at least approximately in the focal plane of the illumination objective ( 1 ) in the object space and additionally in the pupil center (PZ OA ) of the pupil of an imaging objective ( 2 ) in the object space and
during the shift process respectively an image of a receiving element and in each case an image of a luminous surface element FELj (3 A) in the object space at least at an instant (t i) in nerhalb of each time interval (At i) the detection of at least approximately common to the image of a B route (BS Aj ) are positioned and so at least at this time (t i ) from the image of a receiver element and the image of a luminous surface element FELj ( 3 A) a pair with a fixed assignment is formed in the object dream and so Such pairs with fixed assignment are generated in the object space and
during the shift operation of the illuminating surface elements FEL respectively an image of a receiving element and in each case an image of a luminous surface element FELj (3 A) are placed in the object space exactly once at least approximately to the coincidence
and these B sections (BS Aj ) are positioned parallel to straight lines (g AP ), the straight line (g AP ) intersecting the focal point F AB of the illumination lens ( 1 ) in the array space and the increase with the amount from the quotient Distance of the pupil center (PZ OA ) of the pupil of the imaging lens ( 2 ) in the object space from the axis of the illuminating lens ( 1 ) and the focal length (f B ) of the illuminating lens ( 1 ), this increase in the straight line (g AP ) on the Axis of the lighting lens ( 1 ) is related.
8. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to claims 1, 5 and 7, characterized in that the displacement routes (VSB Aj ) and the B routes (BS Aj ) in the displacement process at least approximately in the time interval (Δt k ) coincide, the time interval (Δt k ) having at least the length of the time interval (Δti) and at most the length of the time range (Δt B ), and
during the shifting process, an image of a receiver element and an image of a luminous surface element FELj ( 3 A) in the object space are at least temporarily and at least approximately jointly positioned on the image of a B section (BS Aj ) and thus from the image of one Receiver element and the image of a luminous surface element FELj ( 3 A) in each case a permanent pair with a fixed assignment is formed in the object space and thus such pairs of images are generated in the object space and
during the shifting process in the time domain (Δt B ) of the luminous surface elements FEL, an image of a receiver element and an image of a luminous surface element FELj ( 3 A) in the object space are each brought at least approximately to coincidence,
wherein the time range (Δt B ) is made larger than the time interval (Δt k ) and the time interval (Δt k ) is fitted into the time range (Δt B )
and the luminous surface elements are shifted ben in a grid structure with equidistant distances.
9. 3D recording method
of at least one object surface ( 5 ) in a scene according to claims 1 and 5, characterized in that by controlling the duration of each time interval (Δt i ) and by controlling the relative switch-on times in relation to the duration of each time interval (Δt i ) of the individual luminous surface elements (FELj), each illuminating a receiver element via the object surface ( 5 ) and by controlling the luminance of the luminous surface elements,
the case of the displacement of luminous surface elements with an at least approximately constant, relative luminance on B lines (BS Aj ) is modeled photometrically,
and thus effective, luminous surface elements FEL with their respective effective focus are shifted to B sections (BS Aj ),
wherein the convergence point (K 1 ) is positioned at least approximately in the pupil plane of the illumination objective ( 1 ) and in the pupil center (PZ OA ) of the imaging objective ( 2 ) in the object space, and the B-distances (BS Aj ) on the pupil center PZ OA of the imaging objective ( 2 ) are directed in the array space.
10. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to claims 1, 3 and 5, characterized in that in the time intervals (Δt i ) of the detection of electromagnetic radiation a luminous surface element FELj ( 3 A) of a structured luminous array each equidistant distances of the luminous surface elements at least at one point in time (t i ) within each time interval (Δt i ) with an at least approximately constant relative luminance is positioned on a B path (BS Aj ), whereby
the convergence point (K 1 ) with the focal point (F OA ) of at least one imaging lens ( 2 ) in the object dream is at least approximately brought to coincidence
and at least approximately rectilinear relative movement of the receiver array is for the imaging lens (2) carried out in parallel to the optical axis of the imaging lens (2) and in the United shift several times in succession signal values of one individual receiver element is read out and so each a waveform by means of a individual receiver element is formed and when forming displacement paths (AS Aj ) generated several times from elements of the receiver array with the imaging lens ( 2 ) from their images (AS Oj ) in the object space, at least approximately at least one route bundle (SB 2 ) with a convergence point (K 2 ) in the focal point (F OA ) of the imaging lens ( 2 ) is formed
and the linear displacement of the receiver array is carried out parallel to the optical axis of the imaging lens ( 2 ) in such a way
that during the shifting process an image of a receiver element and an image of a luminous surface element FELj ( 3 A) in the object space at least at one point in time (t i ) within each time interval (Δt i ) at least approximately together on the image of a B- Route (BS Aj ) brought to coincidence and shifted and so from the image of one element of the receiver array and the image of a luminous surface element FELj ( 3 A) each at least at this time (t i ) a pair with fixed assignment is formed and pairs of images are generated in the object space.
11. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to 1, 3 and 10, characterized in that during the shifting process of the luminous surface elements FEL, an image of an element of a receiver array and an image of a luminous surface element FELj ( 3 A) in the object space, at least approximately together on the image of a B section (BS Aj ), are permanently brought to coincidence and shifted.
12. 3D recording method
at least one object surface ( 5 ) in at least one scene according to claims 1 and 5 to 11,
characterized in that the convergence point (K 1 ) of the cluster of lines (SB 1 ) together with the convergence point (K 2 ) of the cluster of lines (SB 2 ) in the object space with both the focal point (F OA ) and the pupil center (PZ OA ) of the pupil of the imaging lens (2) are at least approximately brought into coincidence, wherein the illumination lens (1) and the imaging lens (2) are each at least approximately executed array side telecentric, and
luminous surface elements FEL are shifted at least approximately parallel to a straight line (g A ) on displacement paths (VSB Aj ) and the straight line (g A ) penetrates the focal point (F AB ) of the lighting objective ( 1 ) in the array space and for the straight line (g A ) the increase with the amount of the quotient focal length of the lighting lens ( 1 ) and distance (d) of the focal point (F AA ) of the imaging lens ( 2 ) from the axis of the lighting lens ( 1 ) is realized in the object space, the This rise in the straight line (g A ) relates to a straight line perpendicular to the axis of the illumination lens ( 1 ) and in this case the straight line (g A ) coincides with the straight line (g AP ) because of the telecentricity of the imaging lens in the array space.
13. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to claims 1, 5 and 9, characterized in that at least approximately a linear displacement of the receiver array is carried out and signal values from individual elements of the Receiver arrays are read out and signal curves also by weighted summation of the signals of individual elements of the receiver array,
so that signals are formed from virtual elements, and signal values from virtual elements of the receiver array are used to form a single signal curve,
These virtual elements of the receiver array when moving the receiver array lie at least approximately on a displacement path (AS Aj ) in the array space, the lengthening of which intersects the center of the exit pupil of the imaging objective ( 2 ),
and when imaging multiply generated routes with the imaging objective ( 2 ), at least approximately at least one route cluster with a convergence point (K 2 ) in the pupil center (PZ OA ) of the pupil of the imaging objective ( 2 ) is formed from the images in the object space
and during the displacement process of the elements of the receiver array, these are read out several times in succession and in each case an image of an element of the receiver array and an image of a luminous surface element FELj ( 3 A) in the object space within the displacement process at least during a time interval (Δt i ) are brought at least approximately to the coincidence on B routes (BS Aj ) within the displacement process
(A 3) is respectively formed a pair of fixed assignment, and so out of the picture by a receiver element and the image of a luminous surface element FELj and such as in the object space pairs are generated it.
14. 3D recording method
characterized by at least one surface of the object (5) in at least a scene according to claim 1, characterized in that shifts of the illuminating surface elements FEL displacement stretch on parallel Ver (VSB Aj) are performed and when imaging the displacement generated parallel (VSB Aj) environment stretch with the Illumination objective ( 1 ) from the images of which at least approximately at least one route bundle (SB 1 ) with a convergence point (K 1 ) is formed in the object space at the focal point (F OB ) of the illumination objective ( 1 ) and
In addition, a straight-line displacement of the receiver array, synchronized with the displacements of the luminous surface elements FEL, is carried out on parallel displacement paths (VSB Aj ) and during the shift, signal values are read out successively from individual, adjacent elements of the receiver array and are formed from these signal profiles and to form a single signal curve, adjacent elements of the receiver array are selected, the locations of which, when the receiver array is moved, lie at least approximately on an A-section (AS Aj ) in the array space and the extension of the A-section (AS Aj ) targets the pupil center (PZ AB ) of the illumination lens ( 1 ) in the array space,
and when imaging parallel A-sections (AS Aj ) generated several times with the imaging lens ( 2 ) from their images in the object space, at least approximately at least one section bundle (SB 2 ) with a convergence point (K 2 ) in the pupil center (PZ OB ) of the pupil the lighting objective ( 1 ) is formed and the A-sections (AS Aj ) are aligned parallel to a straight line (g AA ) and
the straight line (g AA ) intersects the focal point (F AA ) of the imaging lens ( 2 ) in the array space and the increase with the amount from the quotient distance of the pupil center (PZ OA ) of the pupil of the imaging lens ( 2 ) in the object space from the Axis of the lighting lens ( 1 ) and the focal length (f A ) of the imaging lens ( 2 ), this rise in the straight line (g AA ) is related to the axis of the lighting lens ( 1 )
and during the synchronized displacement process of the luminous surface elements FEL and the elements of the receiver array
the elements of the receiver array are read out several times in succession and in each case an image of an element of the receiver array and an image of a luminous surface element FELj ( 3 A) in the object space within the displacement process at least during a time interval (Δt i ) within the displacement process are brought at least approximately to the coincidence and so a displaceable pair with a fixed assignment is formed from the image of one of the receiver element and the image point and thus displaceable pairs are generated in the object space.
15. A method for 3D recording of at least one object surface ( 5 ) in at least one scene according to 1, 5 to 14, characterized in that an absolute phase difference (Δϕ grid ) in a pixel which belongs to an object point, from each at least two signal curves, namely the point itself in the object mentioned and that in the associated reference point is formed in the same imaging beam by evaluating the modulation in the signal, the calculated absolute phase difference (Δϕ grating ) being added with the correct sign to the absolute reference phase (ϕ R ), which is calculated from the at least one experimentally predetermined position of the reference plate (z OR ) in the object space and based on the lighting objective ( 1 ) and the geometric data of the optical arrangement, resulting in an absolute object phase (ϕ Obj ) for each object point as a result of this arithmetic operation results, which is related to a reference point in the object space, where Information from the signal curve of the associated reference point can be stored. 16. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to 1, 5 to 14, characterized in that an absolute phase difference (Δϕ grating ) in a pixel which belongs to an object point consists of at least two signal profiles, namely the one mentioned above The object point itself and that in the associated reference point is formed in the same imaging beam by evaluating the modulation in the signal, the calculated absolute phase difference (Δϕ grating ) being added to the absolute reference phase (ϕ R ), which is correct in terms of the sign, and which results from the at least once experimentally predetermined position of the reference plate (z OR ) in the object space and based on the lighting objective ( 1 ) and the geometric data of the optical arrangement, which results in the result of this calculation operation, an absolute object phase (ϕ Obj ) for each object point, which on ei a reference point in the object space is related,
and the absolute reference phase value is calculated from the signal curve of the associated reference point and is stored as an absolute reference phase value.
17. A method for 3D recording of at least one object surface ( 5 ) in at least one scene according to 1, 5 to 16, characterized in that the absolute phase difference (Δϕ grid ) is derived from the phase of the structured luminous array itself in such a way that the signal curves of a reference point and an object point that arise from the shifting of the structured, luminous array and the receiver array in each pixel of the receiver array - mod 2π phase positions calculated in the 2π environment of the modulation maximum with the correct sign of the constantly measured absolute phase (ϕ R ) of the shifted, structured, luminous array. 18. A method for 3D recording of at least one object surface ( 5 ) in at least one scene according to 1, 5 to 16, characterized in that the absolute phase difference (Δϕ grid ) is derived from the phase of a co-displaced reference grid so that the - from the signal curves of a reference point and an object point that arise in each pixel of the receiver array when the structured, luminous array and the receiver array are shifted - mod 2π phase positions calculated in the 2π environment of the modulation maximum with the correct sign of the continuously measured absolute phase (ϕ R ) of the reference grid that has also been shifted. 19. A method for 3D recording of at least one object surface ( 5 ) in at least one scene according to 1, 5 to 16, characterized in that the absolute phase difference (Δϕ grid ) is derived from the phase of the structured luminous array itself in such a way that the - from the signal curves of a reference point and an object point arising from the shifting of the structured, luminous array and receiver array in each pixel of the receiver array - mod 2π phase positions calculated exactly at the modulation maximum with respect to the sign of the constantly measured absolute phase of the shifted, structured, luminous array (ϕ R ) can be assigned. 20. A method for 3D recording of at least one object surface ( 5 ) in at least one scene according to 1, 5 to 16, characterized in that the absolute phase difference (Δϕ grid ) is derived from the phase of a co-displaced reference grid so that the - from the signal curves of a reference point and an object point that arise in every pixel of the receiver array when the structured, luminous array and receiver array are moved - mod 2π phase positions calculated exactly at the modulation maximum with respect to the sign of the constantly measured absolute phase of the shifted reference grid (ϕ R ) be assigned. 21. A method for 3D recording of at least one object surface ( 5 ) in at least one scene according to 1, 5 to 20, characterized in that an image of the object ( 5 , 18 , 19 ) or of the scene is additionally taken via the illumination beam path an additional receiver array is carried out and the picture elements of the additional receiver array each experience a linear shift in the array space. 22. A method for 3D recording of at least one object surface ( 5 ) in at least one scene according to 1, 5 to 21, characterized in that the object ( 5 , 18 , 19 ) or the scene is additionally illuminated with an additional one , structured luminous array with luminous surface elements with extremes of the luminance and these extrema parallel to a straight line (g AP2 ), which is mirror-symmetrical to the straight line (g AP ), are shifted on displacement paths in the array space. 23. A method for 3D recording of at least one object surface ( 5 ) in at least one scene according to 1, 5 to 22, characterized in that the information required for the evaluation method about the absolute, late ral invariant object phase by optical determination of the absolute phase (ϕ grid ) is derived directly from the displacement of the structured, luminous array by optical coupling with a rastered structure as counter grid and a zero point transmitter for the calculation of the absolute, laterally invariant object phase. 24. The method for 3D recording of at least one object surface ( 5 ) in at least one scene according to 1, 5 to 23, characterized in that the information required for the evaluation method about the absolute, late ral invariant object phase by optical determination of the absolute phase (ϕ grating ) is derived directly from the movement of a reference structure rigidly coupled to the structured illuminated array, with this being assigned an evaluation system and a zero point transmitter. 25. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to 1, 5 to 24, characterized in that the reading out of the elements of the receiver array is carried out with changing values of the reference phase mod 2π, that is to say asynchronously to the reference phase (ϕ grid ) The current trigger pulse for the detection of electromagnetic radiation from the elements of the receiver array in the time interval Δt i for a given precision mechanical and optical arrangement for 3D recording depends on the geometry of the arrangement and the position of the convergence points (K 1 ) and (K 2 ) and depending on the current value of the absolute reference phase (ϕ grid ) is calculated for each element and is available in a phase correction value table and thus generates a signal curve with at least approximately constant spatial frequency in each element of the receiver array becomes,
the elements of the receiver array being read out in successively at least approximately equal phase steps (Δϕ receiver ) of the phase (ϕ receiver ) in each element of the receiver array and the even smaller deviations (ΔΔϕ) in relation to the phase step width (Δϕ receiver ) between the reference phase and the phase resulting in an element of the receiver array (ϕ receiver ) as phase correction values (ΔΔϕ) dependent on the reference phase (ϕ grating ) are calculated at least once for each element of the receiver array and thus in a phase correction value The table is available and stored and the phase correction values (ΔΔϕ) are used both for determining the respective sampling point and for calculating the absolute phase
and displacements of the luminous surface elements FEL are carried out and the images of the displacement routes (VSB Aj ) form a cluster of routes (SB 1 ) with a convergence point (K 1 ).
26. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to Claim 1, characterized in that luminous surface elements FEL and thus also luminous surface elements FEL with local extremes of the luminance in the array space are displaced on displacement paths (VSB Aj ) which coincide with the B routes (BS Aj ), and the B routes (BS Aj ) are mapped using a two-stage mapping stage and
at the same time, the detection of electromagnetic radiation from the elements of the object surfaces for a period of time (Δt i ) is carried out by the elements of the receiver array and these are read out and a signal value is thus obtained in each case
and so in each case a luminous surface element FELj ( 3 A) is positioned on a B section (BSAj), and the images of these B sections (BSAj) according to the first image with an illumination lens ( 1 ) to form a cluster of sections (SB 1 ) be formed with a convergence point (K 1) and is mapped to a convergence point (K 1) is optically conjugate point (K 1konj) in the object space in the center of the pupil (PZ OA) of the imaging beam path in the object space
and during the shifting process of the structurally luminous array and the receiver array, an image of a receiver element and an image of a luminous surface element of constant relative luminance of the structured, luminous surface in the object space, at least approximately together, on the image of a B segment (BSAj ) are brought and so from the image of an element of the receiver array and the image of a luminous surface element FELj ( 3 A) each a pair with a fixed assignment is formed and so such pairs of images are generated in the object space.
27. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to claims 1 and 26, characterized in that the B sections (BSAj) are imaged by means of an afocal illumination beam path with an inner focal point (F Bi ) and the object surfaces with an afocal Ab imaging beam path are mapped with an inner focal point (F Ai ) and in the object space the focal point of the afocal illumination beam path and the afocal imaging beam path coincide at least approximately and
at the same time, the detection of electromagnetic radiation from the elements of the object surfaces for a period of time (Δt i ) is carried out by the elements of the receiver array and these are read out and a signal value is thus obtained in each case
and the convergence point (K 1 ) is positioned at a distance (d K1 ) from the optical axis of the illuminating lens ( 1 ), the distance (d K1 ) being half the distance from the inner focal point (F Bi ) of the afocal imaging stage from the penetration point of the Corresponds to the axis of the imaging beam path through the inner focal plane (F i ) of the illuminating beam path, the illuminating lens ( 1 ) and the imaging lens ( 2 ) being at least approximately telecentric on the outward-facing side of the afocal imaging stages,
and so illuminating surface elements FEL and thus, the illuminating surface elements FEL in a luminance distribution with local extremes of luminance at least a Gera the (g A) are moved to shift distances (VSB Aj) approximately parallel and the straight line (G A) the focal point (F AB) pierces the illumination lens (1) in the array region and is realized for the straight line (g A) of the increase with the amount of the quotient of the focal length of the illumination lens (1) and distance (d k1), with the increase in the main plane of the Imaging lens ( 2 ), and
at least approximately a linear displacement of the receiver array parallel to the optical axis of the imaging lens ( 2 ) is carried out at the same speed as the luminous array and when the two arrays are shifted, signal values are read out successively from a single element of the receiver array and So a signal curve is formed from a single element and, in the case of imaging with an imaging level of displacement routes generated multiple times, elements from their images in space after the imaging level at least approximately at least one route bundle (SB 2 ) with a convergence point (K 2 ) is formed in the inner focus (F Ai ) of the imaging lens ( 2 )
and during the displacement process of a structured luminous array and a receiver array, an image of a receiver element and an image of a luminous surface element FELj ( 3 A) in the object space, at least approximately together on the image (BS Oj ) of a B section (BS Aj ) are brought to coincidence and shifted together and so a pair with a fixed assignment is formed from the image of one element of the receiver array and the image of a luminous surface element FELj ( 3 A), and so pairs of images in the object space be moved.
28. 3D recording method
of at least one object surface ( 5 , 18 , 19 ) in at least one scene according to Claim 1, characterized in that the elements of the receiver array in the recording process detect electromagnetic radiation from the elements of the structured illuminated object surfaces in the object space and
two receiver arrays, which are used to record the structurally illuminated object surfaces in a scene in the object space, are simultaneously moved during the recording process in the array space to displacement paths (AS A1 ) and (AS A2 ) that are at an angle to each other,
wherein at least two imaging beam paths for imaging the object surfaces ( 5 , 18 , 19 ) with a first imaging lens ( 2 ) in the first imaging beam path and a second imaging lens ( 33 ) in the second imaging beam path are arranged for the 3D recording of the background of the scene, wherein the imaging lenses ( 2 , 33 ) have spatially separated aperture diaphragms and each imaging lens ( 2 , 33 ) is assigned at least one receiver array with elements or an image of the same and the focal planes of the imaging beam paths intersect in the object space, the intersection line (SG ) is perpendicular to the symmetry line (SL) in the main section,
and the images of the displacement lines (AS A1 ) and (AS A2 ), the lines (AS O1 ) and (AS O2 ), approximately on the line of symmetry between the two axes of the objectives ( 2 ), ( 33 ) are brought to convergence and there converge at a point of coincidence (K 0 ) and
in the convergence point (K 0 ) the route bundle (S 21 ) of the images of the displacement routes (AS A1j ) of the individual elements of the first receiver array, the routes (AS O1j ), with the convergence point (K 21 ) and the route bundle (S 22 ) the images of the displacement distances (AS A2j ) of the individual elements of the second receiver array, the distances (AS 2Oj ), are brought to coincidence with the convergence point (K 22 ) and
the images of the elements of the first receiver array and the images of the elements of the second receiver array in the object space for the time range (Δt B ) are brought in pairs at least approximately to coincidence, the pair-forming elements of the two receiver arrays each corresponding elements represent, and
Signal curves (S 1 ) of the first receiver array are formed by reading out one element each during the displacement of the first receiver array on the displacement path (AS A1j ) and the displacement of the first receiver array parallel to a straight line (g A1P ) is carried out and so the elements of the first receiver array are shifted at least approximately parallel to a straight line (g A1P ) on displacement paths (AS A1j )
and signal profiles (S 2 ) of the second receiver array are formed by reading out one element each during the displacement of the second receiver array on the displacement path (AS A2j ) and
the second receiver array is shifted simultaneously with that of the first receiver array and
the displacement of the second receiver array is carried out parallel to a straight line (g A2P ) and the elements of the second receiver array are thus shifted at least approximately parallel to a straight line (g A2P ) on displacement paths (AS A2j )
and the straight line (g A1P ) at a point (P A1 ) in the main plane of the imaging lens ( 2 ) in the array space and the straight line (g A2P ) at a point (P A2 ) in the main plane of the imaging lens ( 33 ) for cutting are brought and additionally the straight line (g A1P ) contains the focal point (F A1 ) of the first imaging lens ( 33 ) and the straight line (g A2P ) contains the focal point (F A2 ) of the imaging lens ( 2 ) in the array space,
wherein the point (P A1 ) at the point of intersection of a straight line through the main plane of the first imaging lens ( 2 ) lies in the array space, which lies parallel to the optical axis of the same, and additionally contains the coincidence point K 0 and the point (P A2 ) at the point of intersection of a straight line through the main plane ne of the second imaging lens ( 33 ) in the array space, which lies parallel to the optical axis thereof, and additionally contains the coincidence point K 0 and
from the two waveforms (S 1j ) and (S 2j ) of two corresponding elements ( 1 j) and ( 2 j) of the receiver arrays, which over the path of displacement of the two receiver arrays of the two receiver arrays in memory a computer are stored,
by synchronously moving a window function,
wherein this window function has at least a single window with a minimum window length corresponding to two signal values and a maximum window length that corresponds at least approximately to the length of the signal profiles (S 1j ) and (S 2j ),
by at least one signal value, which corresponds to an increment of the displacement of the receiver arrays, over each of these two signal profiles (S 1j ) and (S 2j ) and from each current window in the position k, with 1 ≦ k ≦ m, one each Signal piece (S 1 part position kj ) and (S 2 part position kj ) is formed,
wherein these successively formed signal pieces (S 1 part j position kj ) and (S 2 part j position kj ) overlap in each of the two signal profiles (S 1j ) and (S 2j ) at least in a partial area and in each case at the same end of the two Signal courses (S 1j ) and (S 2j ) are started with the shifting of the window function in the signal pieces ,
and each starting from two signal pieces in position 1 (S 1 part position 1 j ) and (S 2 part position 1 j ) the cross-correlation function is calculated, one of the two signal pieces being inverted beforehand, that is to say all the values of the same being mirrored, and so from an original signal piece (S 1 part position 1 j ) and from an inverted signal piece (S 2 part position 1 INV j ) the maximum of the cross-correlation function (MCC 1 2 j position 1 ) between 0 and 1 is calculated and stored and then after move the window function to position 2
for the next two signal pieces , the maximum of the cross-correlation function (MCC 1 2 j position 2 ) is calculated in the manner described until the window function has reached position m at the other end of the two signal profiles (S 1j , S 2j ) and the maximum ( MCC 1 2 j position m ) of the cross correlation function M (CC 1 2 j position m ) is determined and
a maximum value curve is formed from m calculated maxima (MCC m ),
the maximum (M mj ) is determined in turn in this maximum value curve and the location of the maximum (M mj ) of the maximum value curve is assigned to the two original signal profiles and thus the path of displacement of the two receiver arrays
and in the case of using a window function with only one window in only one position, the location of the maximum (M 1 j ) of the calculated cross-correlation function (MCC 1 2 j position 1 ), the two original signal profiles and thus the path of the displacement of the two receiver Arrays is assigned
and the location of the maximum (M j ) determined in this way is defined as the location of the image of the respective element of the object surface ( 5 ) associated with the two corresponding elements ( 1 j) and ( 2 j) in the array space
and from the location of this maximum (M j ) in the array space the z O coordinate of the respective element of the object surface in the z O direction is calculated by means of Newton's mapping equation and thus also the x O and y O position of the respective element an object surface ( 5 , 18 , 19 ) is calculated from the known geometry of the 3D recording arrangement, and thus the positions of the elements of an object surface ( 5 , 18 , 19 ) from which waveforms can be recorded are calculated, wherein the geometry of the 3D recording arrangement is known and the displacements of the receiver arrays are predetermined.
29. The method for 3D recording of at least one object surface ( 5 ) in at least one scene according to claim 1 and 28, characterized in that the straight line (g A1P ) at a point (P A ) in the main plane of the imaging lens ( 2nd ) and at the point of intersection of the symmetry line (SL) in the array space and the straight line (g A2P ) at the same point (P A ) are brought to the intersection, the optical axes of the two imaging beam paths being arranged in parallel, and the straight line (g A1P ) additionally contain the focal point (F A1 ) of the first imaging lens ( 33 ) and the straight line (g A2P ) the focal point (F A2 ) of the imaging lens ( 2 ) in the Ar ray space. 30. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to claim 1, characterized in that the receiver elements in the recording process detect electromagnetic radiation from the elements of the structured illuminated object surfaces in the object space and during the recording process the two receiver arrays simultaneously and in parallel to the respective one optical axes of the parallel imaging lenses ( 2 , 33 ), whose main planes coincide, are shifted,
whereby for the 3D recording of object surfaces in the background in the scene at least two parallel, at least approximately identical imaging beam paths for imaging the object surfaces ( 5 , 18 , 19 ) with a first imaging lens ( 2 ) in the first imaging beam path and a second imaging lens ( ) are arranged in the second imaging beam path 33 and the imaging objective (2, spatially separated aperture stop 33), and each imaging lens (2) is at least each assigned a receiver array having elements or an image of the same 33,
and the signal curve (S 1z ) is formed by reading out laterally adjacent elements during the displacement of the first receiver array in the direction of the optical axes in such a way that it corresponds to the signal curve (S A1P ) resulting from a real shift parallel to a straight line (g A1P ) 1 ) corresponds at least approximately,
and the signal curve (S 2z ) is formed by reading out laterally adjacent elements during the displacement of the second receiver array in the direction of the optical axes such that this signal curve (S 2z ) is parallel to a straight line (g A2P ) resulting signal curve (S 2 ) corresponds at least approximately
and the straight line (g A1P ) at one point (P A ) in the main plane of the first imaging lens ( 2 ) in the array space and the straight line (g A2P ) at the same point (P A ) in the main plane of the second imaging lens ( 33 ) which at least approximately coincide with the main plane of the first imaging lens ( 2 ) are brought to the intersection and in addition the straight line (g A1P ) the focal point (F A1 ) of the first imaging lens ( 33 ) and the straight line (g A2P ) the focal point (F A2 ) of the imaging lens ( 2 ) contained in the array space
and shifts of the luminous surface elements FEL are carried out,
wherein the associated displacement distances (VSB Aj ) are aligned parallel to the line of symmetry (SL) of the two optical axes and the point (P A ) lies in the point of intersection of the line of symmetry (SL) through the coincident main planes of the two imaging lenses, and
from the images of the displacement routes (VSB Aj ) a cluster of routes (SB 1 ) with a convergence point (K 1 ) on the line of symmetry (SL) is formed, which coincides with the convergence point (K 0 ).
31. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to claim 1, characterized in that in the time intervals (Δt i ) of the detection of electromagnetic radiation the luminous surface elements FEL are shifted relative to the illumination lens ( 1 ) and there at least to one Time (t i ) within the time interval (Δt i ) is always positioned on a B route (BS Aj ), the B routes being the target locations for the luminous surface elements FEL at least at one time (t i ) within the time interval ( Represent Δt i ) and the B sections always intersect the axis of the illumination lens at a right angle,
and at least in a time range (Δt B ) during the displacement process of the luminous surface elements, exactly one image of a fixed element of a fixed receiver and exactly one image of a luminous surface element FELj ( 3 A) in the object space at least at a single point in time (t i ) within each time interval (Δt i ) of the detection at least approximately jointly on the image of a B segment (BS Aj ) and thus at least at this time (t i ) from the image of a receiver element and the image of a luminous surface element FELj ( 3 A) a pair with a fixed assignment is formed in the object space
and the time t i for at least one element of a receiver array is derived from the passage of at least one luminous surface element through a predetermined reference location
and the elements of the receiver array in the time interval (Δt i ) of the coincidence detect a periodic signal curve and the phase of this signal curve is evaluated in relation to the phase at the reference location.
32. 3D recording method
with at least one object surface ( 5 ) illuminated by a radiation source ( 4 ) in at least one scene with a first and at least one second imaging beam path, the axis of a first imaging objective ( 2 ) for imaging the object surfaces ( 5 , 18 , 19 ) is aligned parallel to the axis of a second imaging lens ( 33 ) for imaging the object surfaces ( 5 , 18 , 19 ), and thus a line of symmetry (SL) is formed between the two axes of the two imaging lenses ( 2 , 33 ),
and with at least one receiver array assigned to the imaging lens in each imaging beam path and the two receiver arrays each have elements that detect electromagnetic radiation from the elements of the illuminated object surfaces in the object space in the recording process in the time domain (Δt B ), and
the two imaging lenses ( 2 , 33 ) are at least a distance (d) from one eighth of the extent of the aperture diaphragm (D B ) of the first imaging lens ( 2 ),
and the two receiver arrays in the recording process in the time domain (Δt B ) each experience a shift to a different location, and thus the individual elements of the two receiver arrays are shifted, so that the receiver elements detect electromagnetic radiation at different locations and
at least approximately the detection of electromagnetic radiation from the elements of the object surfaces for the duration of a time interval (Δt i ) is carried out simultaneously by the elements of the receiver array and the elements of the receiver array are subsequently read out and signal values are obtained,
characterized in that the object surfaces are illuminated in a scene and during the recording process the two receiver arrays are moved simultaneously and parallel to the respective optical axes of the imaging beam paths, the focal planes of which coincide in the object space to displacement distances (AS A1 ) and (AS A2 )
and the images of the displacement lines (AS A1 ) and (AS A2 ), the lines (AS O1 ) and (AS O1 ), are positioned in the object space at least approximately on the line of symmetry between the two axes of the objectives ( 2 ), ( 33 )
and from the bundle of lines (SB 21 ) of the images of the displacement lines (AS A1j ) of the individual elements of the first receiver array, the lines (AS O1j ), a convergence point (K 21 ) is formed and from the bundle of lines (SB 22 ) Images of the displacement distances (AS A2j ) of the individual elements of the second receiver array, the distances (AS O2j ), a convergence point (K 22 ) and the convergence point (K 22 ) and the convergence point (K 22 ) on the symmetry line (SL ) are brought to coincidence and form the convergence point (K 0 ) on the line of symmetry (SL) and
the two receiver arrays are shifted such that their images at least partially coincide in the object space,
so that the images of the elements of the first receiver array and the images of the elements of the second receiver array in the object space are brought at least approximately in coincidence in pairs, the pair-forming elements of the two receiver arrays each representing corresponding elements, and thus a current one Point of coincidence is formed, which is shifted by the object space, and
Waveforms (S 1 ) of the first receiver array are formed by reading out the elements during the displacement of the first receiver array on the displacement path (AS A1j ) and the displacement of the first receiver array is carried out parallel to a straight line (g A1P ) is and so the elements of the first receiver array are shifted at least approximately parallel to a straight line (g A1P ) on displacement paths (AS A1j )
and waveforms (S 2 ) of the second receiver array are formed by reading out the elements during the displacement of the second receiver array on the displacement path (AS A2j ) and the displacement of the second receiver array is carried out parallel to a straight line (g A2P ) and so the elements of the second receiver array are shifted at least approximately parallel to a straight line (g A2P ) on displacement paths (AS A2j ),
the displacement of the second receiver array taking place at least approximately simultaneously with that of the first receiver array,
and the straight line (g A1P ) at a point (P A1 ) on the symmetry line (SL) and in the main plane of the first imaging lens ( 2 ) in the array space and the straight line (g A2P ) at a point (P A2 ) on the Symmetrieli never (SL) and in the main plane of the second imaging lens ( 33 ) are brought to the intersection, where the line (g A1P ) additionally the focal point (F A1 ) of the first imaging lens ( 33 ) and the straight line (g A2P ) the focal point (F A2 ) of the imaging lens ( 2 ) contained in the array space, and
from the two waveforms (S 1j ) and (S 2j ) of two corresponding elements ( 1 j) and ( 2 j) of the receiver arrays, which over the path of displacement of the two receiver arrays of the two receiver arrays in memory a computer are stored,
by moving a window function synchronously,
wherein this window function has at least one single window with a minimum window length corresponding to two signal values and a maximum window length that corresponds at least approximately to the length of the signal profiles (S 1j ) and (S 2j ),
by at least one signal value that corresponds to an increment in the displacement of the receiver arrays,
A signal piece (S 1 part position kj ) and (S 2 part position kj ) is formed over each of these two signal profiles (S 1j ) and (S 2j ) and from each current window in position k, with 1 ≦ k ≦ m becomes,
wherein these successively formed signal pieces (S 1 part j position kj ) and (S 2 part j position kj ) overlap in each of the two signal profiles (S 1j ) and (S 2j ) in a partial area and in each case at the same end of the two Signal curves (S 1j ) and (S 2j ) are started with the shifting of the window function in both signal pieces,
and the cross-correlation function is calculated on the basis of two signal pieces in position 1 (S 1 part position 1 j ) and (S 2 part position 1 j ), however one of the two signal pieces is inverted beforehand, i.e. all values of the same are mirrored, and so from an original signal piece (S 1 part position 1 j ) and from an inverted signal piece (S 2 part position 1 INV j ) the maximum of the cross-correlation function (MCC 1 2 j position 1 ) between 0 and 1 is calculated and stored and then after moving the window function to position 2
for the next two signal pieces , the maximum of the cross-correlation function (MCC 1 2 j position 2 ) is calculated in the manner described until the window function has reached position m at the other end of the two signal profiles (S 1j , S 2j ) and the maximum ( MCC 1 2 j position m ) the cross correlation function M (CC 1 2 j position m ) is determined and
a maximum value curve is formed from m calculated maxima (MCC m ),
the maximum (M mj ) is determined in turn in this maximum value curve and the location of the maximum (M mj ) of the maximum value curve is assigned to the two original signal profiles and thus the path of displacement of the two receiver arrays
and in the case of using a window function with only one window in only one position, the location of the maximum (M 1 j ) of the calculated cross-correlation function (MCC 1 2 j position 1 ), the two original signal profiles and thus the path of the displacement of the two receiver Arrays is assigned
and the location of the maximum (M j ) determined in this way is defined as the location of the image of the respective element of the object surface ( 5 ) associated with the two corresponding elements ( 1 j) and ( 2 j) in the array space
and from the location of this maximum (M j ) in the array space the z O coordinate of the respective element of the object surface in the z O direction is calculated by means of Newton's mapping equation and thus also the x O and y O position of the respective element an object surface ( 5 ) is calculated from the known geometry of the 3D recording arrangement, and thus the positions of the elements of an object surface ( 5 , 18 , 19 ) to which signal profiles can be assigned are calculated, the geometry of the 3D recording arrangement being known and the displacements of the receiver arrays are determined before.
33. 3D recording method
of at least one object surface ( 5 ) illuminated with a radiation source ( 4 ) in at least one scene with a first and at least one second imaging beam path, the axis of a first imaging objective ( 2 ) in the imaging beam path for imaging the object surfaces ( 5 , 18 , 19 ) is aligned parallel to the axis of a second imaging objective ( 33 ) in the imaging beam path for imaging the object surfaces ( 5 , 18 , 19 ),
and a symmetry line (SL) is formed between the two axes of the two imaging lenses ( 2 , 33 ),
and with at least one receiver array assigned to the imaging lens in each imaging beam path and the two receiver arrays each have elements that detect electromagnetic radiation from the elements of the illuminated object surfaces in the object space in the recording process in the time domain (Δt B ), and
the two imaging lenses ( 2 , 33 ) a distance (d) of the pupil center (PZ OB ) of the first imaging lens ( 2 ) from the pupil center (PZ OA ) of the second imaging lens ( 33 ) in the object space of at least one eighth the extent of the aperture of the first Imaging lens ( 2 ),
and the two receiver arrays each experience an electronically controlled mechanical displacement in the time domain (Δt B ) to a different location,
and so also the individual receiver elements are shifted and so the receiver elements detect electromagnetic radiation at different locations and at least approximately the detection of electromagnetic radiation from the elements of the object surfaces for the duration of a time interval (Δt i ) by the elements of the receiver array is the same is carried out in good time and the elements of the receiver array are subsequently read out and signal values are obtained in each case,
characterized in that during the recording process the two receiver arrays are displaced simultaneously and parallel to the respective optical axes of the parallel, at least approximately identical imaging beam paths whose main planes coincide, the object surfaces being illuminated in the scene,
and the waveform (S 1z ) is formed by reading out laterally adjacent elements of the first receiver array during the displacement of the first receiver array in the direction of the optical axes so that exactly the elements of the receiver array are used for signal formation which lie on lines (AS A1 ) which are aligned parallel to a straight line (g A1P ) and which intersect the point (P A1 ) in the common main plane of the imaging lenses ( 2 , 33 ),
and so the signal curve formed corresponds at least approximately to the signal curve (S 1 ) which arises during a real shift parallel to a straight line (g A1P ), and so at least at a point in time t i in a time interval Δt i a current point of coincidence is formed, which Time range Δt B is successively formed at different predetermined locations of the object space, and
and the waveform (S 2z ) is formed by reading out laterally adjacent elements of the second receiver array during the displacement of the second receiver array in the direction of the optical axes so that exactly the elements of the receiver array are used for signal formation which lie on lines (AS A2 ), which are aligned parallel to a straight line (g A2P ) and which intersect the point (P A2 ) in the common main plane of the imaging lenses ( 2 , 33 ),
and so the signal curve formed corresponds at least approximately to the signal curve (S 2 ) which arises during a real shift parallel to a straight line (g A2P ),
and the straight line (g A1P ) at a point (P A1 ) at the point of intersection of the symmetry line (SL) through the main plane of the first imaging lens ( 2 ) in the array space and the straight line (g A2P ) at a point (P A2 ) in The point of intersection of the line of symmetry (SL) through the main plane of the second imaging lens ( 33 ) is brought to the intersection and in addition the straight line (g A1P ) the focal point (F A1 ) of the first imaging lens ( 33 ) and the straight line (g A2P ) the focal point ( F A2 ) contain the imaging lens ( 2 ) in the array space and
from the two signal profiles (S z1j ) and (S z2j ) of two alternating corresponding elements ( 1 j) and ( 2 j) of the receiver arrays, which only correspond at one point in time ti, the signal profiles (S z1j ) and ( S z2j ) are stored in the memory of a computer by way of the displacement of the two receiver arrays of the two receiver arrays,
by synchronously moving a window function,
wherein this window function has at least one single window with a minimum window length corresponding to two signal values and a maximum window length that corresponds at least approximately to the length of the signal profiles (S z1j ) and (S z2j ),
by at least one signal value that corresponds to an increment in the displacement of the receiver arrays,
A signal piece (S z1 part position kj ) and (S z2 part position kj ) is formed over each of these two signal profiles (S z1j ) and (S z2j ) and from each current window in position k, with 1 ≦ k ≦ m is, these successively formed signal pieces (S z1 part j position kj ) and (S z2 part j position kj ) overlap in each of the two signal curves (S z1j ) and (S z2j ) in a partial area and being the same At the end of the two signal curves (S z1j ) and (S z2j ) the window function in both signal pieces is shifted ,
and each starting from two signal pieces in position 1 (S z1 part position 1 j ) and (S z2 part position 1 j ) the cross-correlation function is calculated, one of the two signal pieces being inverted beforehand, i.e. all the values of the same being mirrored, and so from an original signal piece (S 1 part position 1 j ) and from an inverted signal piece (S z2 part position 1 INV j ) the maximum of the cross-correlation function (MCC z1 2 j position 1 ) between 0 and 1 is calculated and saved and then after move the window function to position 2
for the next two signal pieces, the maximum of the cross-correlation function (MCC z1 2 j position 2 ) is calculated in the manner described until the window function at the other end of the two signal profiles (S z1j ) and (S z2j ) has reached position m and again that Maximum (MCC z1 2 j position m ) of the cross correlation function M (CC z1 2 j position m ) is determined and
m calculated maxima MCC zm a maximum value curve is formed,
the maximum (M zmj ) in turn being determined in this maximum value curve and the location of the maximum (M zmj ) of the maximum value curve being assigned to the two original signal profiles and thus the path of the displacement of the two receiver arrays
and in the case of the use of a window function with only one window in only one position, the location of the maximum (M z 1 j ) of the calculated cross-correlation function (MCC z 1 2 j position 1 ), the two original signal profiles and thus the path of the displacement of the two receivers Arrays
and the location of the maximum (M zj ) thus determined is defined as the location of the image of the respective element of the object surface ( 5 ) in the array space
and from the location of this maximum (M zj ) in the array space the z O coordinate of the respective element of the object surface in the z O direction is calculated by means of Newton's mapping equation and thus also the x O and y O position of the respective element an object surface ( 5 ) is calculated from the known geometry of the 3D recording arrangement, and thus the positions of the elements of an object surface ( 5 , 18 , 19 ) to which signal profiles can be assigned are calculated, the geometry of the 3D recording arrangement being known and the displacements of the receiver arrays are determined in advance.
34. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to 29 to 31, characterized in that the structured, luminous array with areas of different luminance and with luminous surface elements FEL with at least approximately the same spacing of the surface elements in the colors red, green and blue is formed, the repetition period (WP) corresponding to three times the strip spacing of the individual differently colored surface elements,
and after a time range that corresponds at least approximately to the time range (Δt B ), the structured colored array shines 1.5 times the distance between the individual colored surface elements, this corresponds to half the repetition period (WP) is laterally shifted and elements of the receiver Arrays are color sensitive and are matched to the wavelength spectrum of the luminous surface elements FEL.
35. 3D recording method
of at least one object surface ( 5 ) in at least one scene according to 28 to 31, characterized in that the structured, luminous array with areas of different luminance and with luminous surface elements FEL with at least approximately the same spacing of the surface elements in the colors red, green and blue is formed, the repetition period (WP) corresponding to three times the strip spacing of the individual, colored, luminous surface elements FEL,
and after a time range (Δt B ), the structured colored array is laterally displaced by the simple distance between the individual colored panel elements FEL, which corresponds to a third of the repetition period (WP), the elements of the receiver array being color-sensitive and are matched to the wavelength spectrum of the luminous surface elements FEL.
36. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene with at least one electromagnetic radiation source ( 4 ), the radiation source ( 4 ) being formed by means of at least one structured array as at least one structured, luminous array with at least two surface elements and at least one surface element being illuminated , so that at least one luminous area element FELj ( 3 A) is formed, the term luminaire being used in the sense of emitting electromagnetic radiation,
With at least one illumination beam path with at least one illumination lens ( 1 ) assigned to the structured illuminating array, including an image of the same, which has an effective aperture diaphragm with an extension (D B ) and a diaphragm center (BZ B ), for structured illumination of the object surfaces ( 5 ) in the object space, which corresponds to the scene space, and with at least one imaging beam path assigned to the illumination beam path with at least one imaging stage for the at least one object surface ( 5 ) with at least one imaging lens ( 2 , 33 ) assigned to the receiver array or an image thereof extension of the elements of the object surfaces, which has an effective opening diaphragm with a diaphragm center (BZ A ),
elements of the at least one receiver array in the recording process detecting electromagnetic radiation from the elements of the illuminated object surfaces in the object space,
and with a distance (d) of the pupil center (PZ OB ) of the illumination lens ( 1 ), as an image of the aperture center (BZ B ) in the object space, from the pupil center (PZ OA ) of the imaging lens ( 2 ), as an image of the aperture center (BZ A ) in the object space, the distance (d) being at least one eighth of the extent (D B ) of the opening diaphragm of the lighting objective ( 1 ),
wherein luminous surface elements FEL have an at least approximately predetermined luminance in a luminance distribution and
these are referred to below as luminous surface elements FEL, so that an image of a luminous surface element FELj ( 3 A) is formed in the object space by the imaging with the illumination lens ( 1 ),
characterized in that the structured luminous array is assigned a movement system with at least one movable component and at least the displacement distances (VSB Aj ) of the luminous surface elements FEL are formed in the array space from the mechanical movement of the structured luminous array
and after imaging these displacement distances (VSB Aj ) through the illumination objective ( 1 ) into the object space, the image of which is formed at least approximately as at least one cluster of routes (SB 1 ) with a convergence point (K 1 ), and
the point of convergence (K 1 ) has a minimum distance (d K1 mm ) from the axis of the illumination objective ( 1 ) from the 16th part and a maximum distance (d K1 max ) from 16 times the distance (d).
37. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 36, characterized in that the convergence point (K 1 ) at least approximately in the pupil plane of the illumination objective ( 1 ) in the object space and in the pupil center of the imaging objective ( 2 ) is positioned in the object dream. 38. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 36 and 37, characterized in that the displacement distances (VSB Aj ) of the luminous surface elements FEL are arranged at least approximately in parallel in the array space and so that Point of convergence (K 1 ) is positioned at least approximately in the focal plane of the illumination lens ( 1 ) in the object space and in the pupil center of the imaging lens ( 2 ) in the object space. 39. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 36 and 38, characterized in that the convergence point (K 1 ) at least approximately in the focal plane of the illumination lens ( 1 ) and in the focal point of the imaging lens ( 2 ) is positioned in the object space. 40. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 36 to 39, characterized in that the luminous array is designed as an electronically controllable line grid with controllability of the location of the lines and the line width, the lines being arranged perpendicular to the main cut,
and the displacement distances (VSB Aj ) of the luminous surface elements FEL and thus also the luminous surface elements FEL with local extremes of the luminance in the array space - as a result of the mechanical movement of the structured luminous array and the electronic control of the structured luminous array in the array -Space are formed
and from these displacement sections (VSB Aj ) in the array space in the main section and in each section plane parallel to the main section, at least approximately at least one section bundle with a convergence point (K 1 ) is formed and the convergence point (K 1 ) is a minimal distance (d K1 min ) of the axis of the illumination lens ( 1 ) from the 16th part of the distance (d)
and the point of convergence (K 1 ) has a maximum distance (d K1 max ) from the axis of the lighting objective ( 1 ) of 16 times the distance (d) and the point of convergence (K 1 ) between the pupil plane and the focal planes of the lighting objective is arranged in the object space
and the convergence point (K 1 ) of the tufts in the main section in the pupil center (PZ AA ) of the imaging lens ( 2 ) in the array space and the convergence points in the sections parallel to the main section together with the convergence point (K 1 ) of the main section on a straight line perpendicular are arranged to the main cut
and the pupil center (PZ 0A) are arranged in the imaging lens (2) and the pupil center (PZ 0B) of the Be leuchtungsobjektivs (1) in the object space together on a straight line, is that aligned perpendicular to the axis of the illumination lens (1)
and when the receiver array is shifted in a straight line parallel to the optical axis of the imaging lens, only elements of the receiver array are read out and signal profiles are formed, and 99999 00070 552 001000280000000200012000285739988800040 0002019919584 00004 99880 are selected and only elements are selected to form a single signal profile when their locations are selected Moving the receiver array is at least approximately arranged on a displacement path (AS Aj ) in the array space, the extension line of which is in each case intersected with a straight line perpendicular to the main section, which contains the center of the exit pupil of the imaging objective ( 2 ), and in the case of imaging of routes generated multiple times with the imaging lens ( 2 ), at least approximately at least one route bundle with a convergence point (K 2 ) in the pupil center (PZ OA ) of the pupil of the imaging lens ( 2 ) is formed in the main section from the images in the object space.
41. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 36 to 40, characterized in that the luminous array is designed as an electronically controllable grid and the displacement distances of the locations of constant relative luminance of the structured, luminous surface and thus also of the locations locally Extremes of the luminance in the array space as a result of the mechanical movement of the structured luminous array and the electronic control of the structured luminous array in the array space are oriented so
that at least approximately at least one route bundle with a convergence point (K A1 ) is formed from these displacement routes in the array space, and the convergence point (K A1 ) of the route bundle is arranged in the pupil center (PZ AA ) of the imaging lens ( 2 ) in the array space and so the convergence point (K 1 ) in the object space in the pupil center (PZ 0A ) of the imaging lens ( 2 ) is arranged
and the pupil center (PZ 0A) of the imaging lens (2) and the pupil center (PZ 0B) are disposed of Be leuchtungsobjektivs (1) in the object space together on a straight line which is perpendicular to the axis of the illumination lens (1),
and when the receiver array is shifted in a straight line parallel to the optical axis of the imaging lens, only the elements of the receiver array are read out and signal profiles are formed, and only elements are selected to form a single signal profile, the locations of which at least approximately when the receiver array is moved are each arranged on a displacement path in the array space, the extension line of which in each case intersects the center of the pupil of the imaging lens ( 2 ), and when imaging multiply generated paths with the imaging lens ( 2 ) from their images in the object space at least approximately at least one Path bundle with a convergence point (K 2 ) in the pupil center (PZ OA ) of the pupil of the imaging lens ( 2 ) is formed.
42. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 36 to 39, characterized in that the displacement distances (VSB Aj ) of the luminous surface elements FEL ( 3 A), the luminous surface elements FEL in one Luminance distribution have an at least approximately predetermined constant luminance, are arranged at least approximately parallel to a defined straight line (g AP ) and the straight line (g AP ) intersects the focal point (F AB ) of the illumination lens ( 1 ) in the array space and the rise with the amount from the quotient distance of the pupil center (PZ OA ) of the pupil of the imaging lens ( 2 ) in the object space from the axis of the lighting lens ( 1 ) and focal length (f B ) of the lighting lens ( 1 ), where the increase in the straight line (g AP ) is related to the axis of the illumination lens ( 1 ). 43. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 36 to 42, characterized in that a component of the movement system is assigned to the receiver array and thus, during the mechanical movement of the receiver array on a displacement path (AS), its elements displacement distances (AS Aj) associated along parallel lines, wherein from the images (AS Oj) of these sections (AS Aj) for imaging by the imaging lens (2) at least herungsweise nä at least one route tufts (SB 2) with a convergence point (K 2) is formed in the object space,
and the convergence point (K 1 ) and the convergence point (K 2 ) with the focal point (F OA ) and the pupil center (PZ OA ) of the pupil of the imaging lens ( 2 ) in the object space are brought at least approximately to the coincidence.
44. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 36 to 43, characterized in that the axis of the illumination lens ( 1 ) and the axis of the imaging lens ( 2 ) are arranged parallel to one another and that Imaging lens ( 2 ) on the side of the space of the arrays is designed telecentrically. 45. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 36 to 38 and 42 to 44, characterized in that a component of the movement system is assigned to the receiver array and thus during the mechanical movement of the receiver array on a displacement path ( AS) whose elements are assigned displacement lines (AS Aj ) on parallel straight lines, at least approximately at least one line bundle (SB 2 ) with a convergence point (K 2 ) in the object space being formed from the images of these lines when imaged by the imaging lens ( 2 ),
and the convergence point (K 1 ) and the convergence point (K 2 ) with the focal point (F OA ) and the pupil center (PZ OA ) of the pupil of the imaging lens ( 2 ) in the object space are brought at least approximately to the coincidence and the illumination lens ( 1 ) and the imaging lens ( 2 ) are each telecentric on the side of the space of the arrays
and the axes of the illumination lens ( 1 ) and the imaging lens ( 2 ) are arranged parallel to one another and the focal planes of the same are brought to coincidence in the object space.
46. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 36 to 45, characterized in that the components of the movement system are arranged so that in the Ar ray space with the focal point (F AB ) of the Illumination objective ( 1 ) as a reference point for the luminous array, an overall direction of movement is at least approximately parallel to a straight line (g A ) in the array space, so that the elements of the structured luminous array move on parallel straight lines to the straight line (g A ) and this Straight line (g A ) with the focal point (F AB ) of the illumination lens ( 1 ) is brought to the intersection in the array space and the increase with the amount from the quotient focal length (f B ) of the illumination lens ( 1 ) and distance (d) of the focal point (F AA ) of the imaging lens ( 2 ) in the object space from the axis of the illumination lens ( 1 ), this increase in the straight line (g A ) on a perpendicular straight line to the axis of the loading lighting lens ( 1 ) is related. 47. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 36 to 46, characterized in that the movement system is constructed from two individual linear guides and the first linear guide is assigned to the receiver array and the direction of movement thereof The linear guide is adjusted at least approximately parallel to the optical axis of the imaging lens ( 2 ) and the second linear guide is assigned to the first linear guide and the structured array and the direction of movement of the second linear guide is adjusted at least approximately perpendicular to the optical axis of the illumination lens ( 1 ) that as a result of the linear individual movements of the two linear guides move the structured, luminous array at least approximately parallel to the straight line (g A ). 48. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 44 to 46, characterized in that the movement system, consisting of a single linear guide ( 7 ) with a slide ( 8 ) and a base ( 9 ), is arranged in the space of a structured luminescent array and receiver array, and the linear guide (7) to the patterned luminous array is permanently assigned to at least and the movement direction for the patterned luminous array is at least approximately parallel to the Ge raden (g A) in the array room is aligned. 49. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 36 to 46, characterized in that the movement system is constructed from at least two individual linear guides and the first linear guide movable components of the illumination lens ( 1 ) for internal focusing and movable components of the imaging lens ( 2 ) for internal focusing is permanently assigned and the second linear guide is assigned to the structured luminous array for movement perpendicular to the optical axis of the lighting lens ( 1 ). 50. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 44 to 46, characterized in that the movement system is constructed from a linear guide and this is assigned to the receiver array and the direction of movement of this linear guide is at least approximately parallel is arranged to the optical axis of the imaging objective ( 2 ) and a rotary drive is assigned to the linear guide and the structured, luminous array is in turn assigned to the rotary drive. 51. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 44 to 46 and 50, characterized in that the structured luminous array as a grid with a spiral figure ( 30 ) as an Archimedean spiral with at least one passage is formed and rotatably arranged and at least a section of the grating with the spiral figure ( 30 ) is used as a structured array, the structured luminous array being formed in connection with the radiation source ( 4 ) ( 4 , 16 ), and the axis of rotation of the grating with the spiral figure ( 30 ) arranged parallel to the axis of the lighting objective ( 1 ) and also a rotary drive motor is assigned to the grid with the spiral figure ( 30 ). 52. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 41 to 49, characterized in that the imaging lens ( 2 ) together with the receiver array and the associated components of the movement system about an axis, which penetrates the pupil center (PZ OA ) of the pupil of the imaging objective ( 2 ) and is rotatably arranged in the object space. 53. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 41 to 49, characterized in that the lighting objective ( 1 ) together with the structured, luminous array and the assigned components of the movement system and the radiation source ( 4 ) ( 4 ) about an axis, which penetrates the pupil center (PZ OA ) of the pupil of the imaging objective ( 2 ), is rotatably arranged in the object space. 54. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 36 to 53, characterized in that the structured, luminous array has a rastered structure with equidistant distances. 55. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 36 to 54, characterized in that the line grating ( 3 , 17 ) is assigned a counter grating with the same grating constant and a zero point transmitter. 56. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 36 to 55, characterized in that a transparent optical plate is assigned to the 3D recording arrangement as a permanently remaining reference plate in the near distance and on a weakly light-scattering microstructure is applied to at least one of the two surfaces of the optical plate. 57. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to claim 36, characterized in that the illumination beam path ( 71 ) is constructed with an afocal system with an inner focal point (F Bi ) and the imaging beam path ( 72 ) with an inner focal point (F Ai )
and in the object space the focal point of the afocal illumination beam path ( 71 ) and the focal point of the afocal imaging beam path ( 72 ) coincide at least approximately and
the convergence point (K 1 ) is arranged at a distance (d K1 ) from the optical axis of the illumination lens ( 1 ), the distance (d K1 ) being half the distance from the inner focal point (F Bi ) of the afocal imaging stage from the point of intersection of the axis of the Imaging beam path ( 72 ) through the inner focal plane (F i ) of the illuminating beam path ( 71 ) corresponds, the illuminating lens ( 1 ) and the imaging lens ( 2 ) each being at least approximately telecentric on the outward-facing side of the afocal imaging stages,
and the movement system ( 7 ) with at least one movable component ( 8 ) is arranged such that its direction of movement is adjusted at least approximately parallel to a straight line (g A ) and so luminous surface elements FEL are displaced on displacement paths (VSB Aj ) and
the straight line (g A ) penetrates the focal point (F AB ) of the lighting objective ( 1 ) in the array space and for the straight line (g A ) the increase with the amount from the quotient focal length (f B ) of the lighting objective ( 1 ) and Distance (d K1 ) is realized, the increase being related to the main plane of the imaging lens ( 2 ), and
there is an at least approximately parallel displacement of the receiver array to the optical axis of the imaging objective ( 2 )
and at least one fixed deflecting mirror is assigned to the imaging objective ( 2 ) and the structured array and receiver array lie in mutually parallel planes and so only a single z-slide ( 8 ) is arranged for the structured array and the receiver array.
58. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to Claim 36, characterized in that two displaceable receiver arrays are arranged in parallel imaging beams in a common plane, the displacement of the first receiver array on the displacement path (AS A1 ) and the displacement of the second recipient array on the shift distance (AS A2) takes place, and the displacement distances (AS 1) and the displacement bung distance (AS A2) intersect at a point (P a) in the coincident array-side principal plane , wherein the elements of the first receiver array move on the displacement paths (AS A1j ) and the elements of the second receiver array move on the displacement paths (AS A2j ) and
the point of coincidence (K 21 ) of the images of the displacement lines (AS A1j ), the lines (AS O1j ), the first imaging beam path and
the point of coincidence (K 22 ) of the images of the displacement paths (AS A2j ), the paths (AS O2j ), the second imaging beam path illuminating beam path at the point of coincidence (K O ) coincide
and to the two parallel imaging beam paths in the center and symmetrically, a parallel illumination beam path with a structured light that is displaceable on the displacement path (VS AP ), the array with linear elements is arranged in the plane of the two receiver arrays and the lighting lens is arranged centrally and symmetrically, that is with an optical axis parallel to the two beam paths, and its main point (H AB ) on the array side coincides with the point (P A )
and the object-side focal point (F OB ) of the illumination beam path coincides with the coincidence point (K O ) and a structured, luminous array is arranged.
59. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to claim 36, characterized in that two displaceable receiver arrays are arranged in parallel imaging beams in a common plane, the displacement of the first receiver array over a displacement path parallel to the optical one Axis and the displacement of the second receiver array takes place on a displacement path parallel to the optical axis, and elements of the two receiver arrays are read out and signals are formed as if the receiver arrays were on displacement paths (AS A1 ) and the shift distance (AS A2 ) intersect at a point (P A ) in the coinciding array-side main plane and
the point of coincidence (K 21 ) of the images of the displacement lines (AS A1j ), the lines (AS O1j ), the first imaging beam path and
the point of coincidence (K 22 ) of the images of the displacement paths (AS A2j ), the paths (AS O2j ), the second imaging beam path illuminating beam path at the point of coincidence (K O ) coincide
and to the two parallel imaging beam paths in the center and symmetrically, a parallel illumination beam path with a structured light that is displaceable on the displacement path (VS AP ), the array with linear elements is arranged in the plane of the two receiver arrays and the lighting lens is arranged centrally and symmetrically, that is with an optical axis parallel to the two beam paths, and its main point (H AB ) on the array side coincides with the point (D A )
and the object-side focal point of the illuminating beam path coincides with the coincidence point (K O ) and a structured, luminous array is arranged.
60. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to claims 58 and 59, characterized in that the imaging lenses for the two receiver arrays and the luminous array are at least approximately identical and their focal planes in the object space coincide and
the structured, luminous array is formed with luminous color stripes, which are at least approximately lined up in a row, the structured array being composed of transmitting microelements and reflecting microelements, and the structured array is assigned a red light source, a green light source and a blue light source, the electromagnetic radiation at least one radiation source ( 4 ) penetrates the structured array in a focusing structure and the electromagnetic radiation from at least two radiation sources ( 4 ) n strikes micromirror elements
and the two receiver arrays and the structured array are connected to a movement system for precise, synchronous movement, the optically active planes of the two displaceable receiver arrays and those of the displaceable, structured luminous array being always kept in the same plane, whereby the optically conjugate planes coincide in the object space.
61. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 36 and 60, characterized in that at least one brightly colored array as a grid with an asymmetrical furrow profile with triangular profiles that have macro profile surfaces, and with one on the whole grid an at least approximately constant grating constant between 0.01 mm and 2 mm, which is referred to as a macro grating constant, is formed with at least one assigned radiation source ( 4 ) for illumination,
so that at least approximately triangular profiles are formed on the surface of the grating and on the macro profile surfaces thereof in each case additionally a micro furrow profile with a lattice constant of the micro furrow profile which is variable within a macro profile surface and an average micro lattice constant of the same between 0.0005 mm and 0.01 mm is formed
so that for the incident electromagnetic radiation there is a focusing effect combined with a color splitting at least into the three color ranges blue green red.
62. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 61, characterized in that the micro-groove profile on the macro surfaces is designed as an asymmetrical micro-triangle profile. 63. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 61, characterized in that the grating is formed with an asymmetrical furrow profile with macro triangular prisms, the micro profile on the main surfaces of the macro triangular prisms as an asymmetrical micro triangular profile with micro prisms is formed. 64. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 36, 58 and 59, characterized in that the imaging lenses for the two receiver arrays and the luminous array are at least approximately identical in construction and their focal planes coincide in the object space
and the luminous array is formed from transmitting and simultaneously focusing micro-elements and from reflecting micro-elements,
two flanking, reflecting elements are assigned to each transmitting and simultaneously focusing element,
and the structured array is assigned a red light source, a green light source and a blue light source, the electromagnetic radiation of at least one radiation source ( 4 ) penetrating the luminous array in the focusing elements and the electromagnetic radiation of at least two separate radiation sources ( 4 ) n at an angle of incidence of hits the reflective elements at least 10 °.
65. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 64, characterized in that the two receiver arrays and the luminous array are connected to a movement system for precise, synchronous movement, the optical active levels of the two displaceable receiver arrays and those of the displaceable, structurally illuminated array are always kept in the same plane, as a result of which the optically conjugate planes in the object space are brought to coincidence by maneuver. 66. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 36 to 65, characterized in that a controllable adjusting mechanism for lateral movement is assigned to the structured array. 67. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 36 to 60, characterized in that the structured, luminous array with areas (LB ARRAY j ) of different luminance and with luminous surface elements FEL
is formed with micro-color dividers, so that an almost planar structure is formed.
68. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 36 to 60, characterized in that the structured luminous array with areas (LB ARRAY j ) with at least approximately the same distance between the luminous surface elements FEL in one Level in the color ranges red, green and blue is formed, whereby the repetition period (WP) corresponds to three times the stripe spacing of the individual different colored surface elements and elements of the receiver array are color sensitive and matched to the wavelength spectrum of the luminous surface elements FEL. 69. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 36 to 46 and 51 to 68, characterized in that the structured array is formed at least on a partial area of at least one disk which has a rotary precision bearing is assigned to a shaft with a rotary precision motor, so that at least one rotating disk is formed. 70. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69, characterized in that the structured, luminous array is formed on a rotating disk as a rotationally symmetrical transmission grating. 71. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 69 and 70, characterized in that a highly precise and highly dynamic measuring system reference mark ( 89 ) for detecting the axial displacement of a partial area of the rotating disk is located on an outer frame area of the 3D recording arrangement is arranged from an axial target position
and the measuring system ( 89 ) is assigned in its measuring function to an annular area of the rotating disk, so that in each case the axial displacement in an annular area thereof, caused by the axial and wobble of the rotating disk, can be measured with high precision and high dynamics.
72. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 69 to 71, characterized in that a highly precise and highly dynamic positioning system for influencing the axial placement of the desired position of a partial area of the rotating disk is arranged on the outer frame area of the 3D recording arrangement,
which is assigned as a component of a position control loop of the rotating disc, so that the axial displacement of a sector ( 82 ), caused by axial impact and wobble during the rotation of the circular disc, is highly dynamically regulated and so a portion of the rotating disc and thus also the axial Position of at least a portion of the structured, luminous array is held in the axial target position with high precision.
73. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 71, characterized in that on the outer frame area of the 3D recording arrangement a highly precise and highly dynamic actuating system for influencing the axial offset from the desired position of a part Area of the rotating disc is arranged, which is designed as a component of a position control loop and is assigned to the rotating shaft, so that the axial deposition of a portion of the rotating disc, caused by wobble during rotation of the same, highly dynamically regulated and so a portion of the rotating Schei be and so the axial position of the structured illuminated array is held with high precision in the axial target position. 74. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 69 to 71, characterized in that a highly precise and highly dynamic measuring system ( 87 ) on the outer frame area of the 3D recording arrangement for detecting the radial offset from a desired position of a partial area of the rotating disk is arranged, which is assigned to the rotating disc,
so that in a circular ring of the rotating disk, the radial placement of the same, caused by radial impact during the rotation of the circular disk, is measured in a highly dynamic and highly precise manner.
75. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 69 to 74, characterized in that a highly precise and highly dynamic positioning system for influencing the radial placement of the desired position of a partial area of the rotating disc is arranged on the outer frame area of the 3D recording arrangement,
which is assigned as a component of a position control loop to the rotating shaft of the rotating disk,
so that the radial placement of a partial area, caused by radial impact during the rotation of the rotating disk, is regulated in a highly dynamic manner and so a partial area of the rotating disk with the structured, luminous array is held in the radial desired position and so the lateral distance of the receiver array from structured luminous array is kept constant
and so the lateral distance of the position of a predetermined element of the receiver array and a predetermined luminous surface element FELj (3 A) of the patterned luminous array in the array space is kept constant.
76. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 69 to 74, characterized in that a highly precise and highly dynamic positioning system for influencing the radial placement of the desired position of a partial area of the rotating disc is arranged on the outer frame area of the 3D recording arrangement,
which is assigned to the receiver array in the imaging beam path as a component of a position control loop,
so that the lateral position of the receiver array is regulated in a highly dynamic manner and so and so the lateral position of the receiver array is kept constant by the structured, illuminated array,
and the lateral distance of the position of a predetermined element of the receiver array and a predetermined, luminous surface element FELj ( 3 A) of the structured luminous array in the array space is kept constant.
77. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76, characterized in that the rotating disk is formed with at least two sectors ( 82 ) and the sector surfaces represent the step surfaces of a spiral staircase. 78. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 77, characterized in that the sector surfaces each represent the boundary surfaces of a transparent plate ( 84 ) and this rotating disc designed in the following as a spiral staircase disc ( 83 ). 79. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 69 to 78, characterized in that the spiral staircase disc ( 83 ) is formed with at least approximately regular, even step surfaces as a full-surface spiral staircase disc ( 83 ) with step heels with step heights (Δh j ) and a structured array is applied to each of the step surfaces of the spiral staircase ( 83 ) of the transparent plate of equal area
and the electromagnetic radiation from the radiation source ( 4 ) passes through the transparent plate ( 84 ) after passing through the surface of the structured array
and the step surfaces are oriented at least approximately perpendicular to the axis of rotation and at least a single step on the spiral staircase disc ( 83 ) is formed with at least twice the step height, and the spiral staircase disc ( 83 ) has an at least approximately average pitch per revolution of a maximum of one twentieth of the radius '' has the spiral staircase disc ( 83 ).
80. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 78, characterized in that the spiral staircase disc ( 83 ) is formed as a highly stable body and the sector surfaces of the transparent plates ( 84 ) on one side of the spiral staircase disk ( 83 ) lie in a common plane and thus form a surface and the geometrical-optical path length of the transparent plate ( 84 ) is changed in a predetermined manner from step to step, so that transparent plates ( 84 ) of different thicknesses are formed and the structured array is applied to the steps of the same area only on a partial area of the same. 81. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene after 69 to 80, characterized in that in each case a further transparent and unstructured sector area for the imaging beam path is arranged in the step surfaces of the spiral staircase disk ( 83 ). 82. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 82, characterized in that the structured arrays are applied to the step surfaces of the associated transparent plates in the manner of a tangential grid. 83. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 69 to 82, characterized in that the structured arrays are applied to the step surfaces of the associated transparent plates ( 84 ) of the spiral staircase disk ( 83 ) in the manner of a grid with equidistant concentric circles is
and the center of the concentric circles is at least approximately assigned to the axis of rotation of an arranged precision bearing.
84. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 83, characterized in that the grid with equidistant concentric circles from step surfaces to step surfaces of the spiral staircase disc ( 83 ) has a jump in the structure of this grid has in the radial direction Rich in the manner of a phase jump. 85. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene 69 to 84 , characterized in that the jump in phase from step surface to step surface of the Wendeltrep pen disc ( 83 ) is an integer multiple of a quarter of the mean lattice constant of the grid is. 86. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene after 69 to 85, characterized in that the jump in the phase from step surface to step surface of the Wendeltrep pen disc ( 83 ) is three-quarters of the mean lattice constant of the lattice is. 87. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 86, characterized in that on the step surfaces of the spiral staircase disc ( 83 ) extend at least in part on the flat surface of the spiral staircase disc ( 83 ) Reference grid is applied. 88. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene 69 to 87 , characterized in that the reference grid has at least approximately a radial structure on the flat surface of the spiral staircase disc ( 83 ). 89. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 88, characterized in that the reference grid has at least approximately a radial structure with a cos 2 transparency distribution and a spatial frequency that is the spatial frequency corresponds to, which results from the average phase change of the structured array on a concentric path of the spiral staircase disc ( 83 ) over the full circle. 90. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 89, characterized in that at least one reference mark ( 89 ) ( 90 ) is applied to the spiral staircase disc ( 83 ). 91. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene 69 to 90 , characterized in that a further translucent partial area for the imaging beam path with a color filter is arranged on the step surfaces of the plates of the same area. 92. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 91, characterized in that at least one reference mark ( 90 ) is applied to each sector ( 82 ) of the full-surface spiral staircase disc ( 83 ). 93. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 92, characterized in that the sectors ( 82 ) have a smaller extent in the tangential displacement direction than the extent of the receiver array and so on the receiver array is read out in strips. 94. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 93, characterized in that step surfaces of equal area with the number 2 exponents n are arranged on the full-surface spiral staircase disk ( 83 ). 95. Arrangement for 3D recording of object surfaces in one according to 69 to 76, characterized in that the rotating disk is designed as an impeller with vanes in the form of transparent plate sectors ( 82 ) of different geometrical-optical thickness. 96. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76, characterized in that the rotating disk as an impeller with wings in the form of transparent plate sectors ( 82 ) of different geometrical-optical thickness is trained. 97. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76, characterized in that the rotating disk is designed as a wedge disk. 98. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 97, characterized in that the structured array is formed on the surface of a wedge plate with a flat surface, but only one Part of the wedge plate is used as a structured array and the wedge plate is assigned a rotary precision bearing with an axis of rotation with a rotary precision motor. 99. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76, 97 and 98, characterized in that the wedge plate is designed as a transparent body and a surface of the wedge plate is formed perpendicular to the axis of rotation. 100. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene after 69 to 76 and 97 to 99, characterized in that the wedge disc has a change in thickness of at most one twentieth of the radius of the wedge disc, but only a section of the wedge washer is used as a structured array. 101. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 97 to 100, characterized in that a reference grid ( 88 ) on the full-surface wedge disk has at least approximately a radial structure. 102. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene 69 to 76 and 97 to 101, characterized in that at least one reference mark ( 90 ) is applied to the full-surface wedge disk. 103. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 97 to 102, characterized in that a plurality of structured arrays in individual sectors ( 82 ) are applied to the wedge disk. 104. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 97 to 103, characterized in that the structured arrays are applied in the manner of a tangential grid. 105. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 97 to 104, characterized in that the individual tangential grids jump from sector ( 82 ) to sector ( 82 ) in the grid structure have in the radial direction in the manner of a phase jump. 106. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene after 69 to 76 and 97 to 105, characterized in that the jump in phase from sector ( 82 ) to sector ( 82 ) is a quarter of the Period of the tangential grid is. 107. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76, characterized in that the rotating disk is designed as a swashplate. 108. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 107, characterized in that the structured array is formed on the surface of a portion of a swash plate with a wobble stroke and with a flat lower surface is. 109. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76, 107 and 108, characterized in that the swash plate is designed as a full-surface disk and as a transparent body. 110. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 107 to 109, characterized in that the axial stroke of the swash plate has a maximum of one twentieth of the radius of the swash plate, but only a section the swashplate is used as a structured array. 111. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 107 to 110, characterized in that a structured array is applied to at least a partial area of the swashplate. 112. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 107 to 111, characterized in that the structured array is applied as a grid in the manner of an Archimedean spiral with at least one passage. 113. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 107 to 112, characterized in that a reference grid ( 88 ) is applied to the swash plate at least in partial areas. 114. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 107 to 113, characterized in that the reference grid ( 88 ) on the swashplate has at least approximately a radial structure. 115. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 107 to 114, characterized in that at least one reference mark ( 90 ) is applied to the swash plate over the entire surface. 116. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 107 to 115, characterized in that several structured arrays are applied to the swashplate in individual segments. 117. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 107 to 116, characterized in that the structured arrays are applied in the manner of a tangential grid. 118. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 107 to 117, characterized in that the tangential grids jump from sector ( 82 ) to sector ( 82 ) in the structure in have the type of a phase jump. 119. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 107 to 118, characterized in that the jump in phase is at least an integral part of a quarter of the period of the tangential grid. 120. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 107 to 119, characterized in that a plurality of structured arrays in individual sectors ( 82 ) in the manner of a grid with on the swashplate Equidistant concentric circles is applied and the center of the concentric circles is at least approximately assigned to the axis of rotation of an arranged precision position and the lattice structure from sector ( 82 ) to sector ( 82 ) has a jump in the radial direction in the manner of a phase jump and the jump in Phase from sector ( 82 ) to sector ( 82 ) is an integer multiple of a quarter of the mean lattice constant of the lattice. 121. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76, characterized in that the rotating disk is designed as a screw surface. 122. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 121, characterized in that the rotationally symmetrical transmission grating on a screw surface of an illuminated, rotating disk with a maximum of one gear, that is to say with a circular section is formed by a maximum of 360 °, and thus has at least one shoulder and the rotary transmission grid as a screw surface has a pitch per revolution of a maximum of one tenth of the diameter of the illuminated, rotating disk, but only a section of the rotationally symmetrical transmission grid as a structured array is used in the illumination beam path. 123. A70 arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 121 and 122, characterized in that the pitch of the screw surface and the number of turns of the spiral in the screw surface are selected in this way that when the helical lattice surface rotates, the luminous surface elements FELj ( 3 A) are located on displacement paths (VS Aj ) which are arranged at least approximately parallel to a straight line (g A ). 124. A71 arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 121 and 123, characterized in that the rotationally symmetrical transmission grating on a screw surface for determining the reference phase has a radiation source ( 4 ) is assigned to a laser and a collimator and at least one fine marking is applied as a reference mark ( 90 ) to the screw surface, the radiation source ( 4 ) being followed by a grating with a division constant which corresponds, for example, to the mean distance between the luminous surface elements FEL. 125. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 69 to 76 and 121 and 124, characterized in that a plurality of structured arrays in individual sectors ( 82 ) in the manner of a grid with on the screw surface Equidistant concentric circles is applied and the center of the concentric circles at least approximately assigned to the axis of rotation of an arranged precision position, the grid structure from sector ( 82 ) to sector ( 82 ) has a jump in the radial direction in the manner of a phase jump and the jump in phase from sector ( 82 ) to sector ( 82 ) is an integer multiple of a quarter of the mean lattice constant of the lattice. 126. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 36 to 68, characterized in that in the illuminating beam path the illuminating objective ( 1 ) has a movable wedge prism made of a transparent optical material and a fixed equilibrium angle Compensation prism is assigned from a transparent optical material. 127. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 126, characterized in that a structured array is applied to the wedge prism and a linear guide with a linear motor is assigned to the wedge prism and also a movable one in the imaging beam path Wedge prism made of a transparent optical material is assigned to the imaging lens ( 2 , 33 ). 128. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 126 and 127, characterized in that a reference grating ( 88 ) with a reference mark ( 90 ) is applied to the movable wedge prism and the reference grating ( 88 ) a radiation source ( 4 ) and an optoelectronic evaluation module are assigned. 129. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 126 and 127, characterized in that when a wedge prism moves in the illuminating beam path when the structured illuminating array is imaged by the illuminating lens ( 1 ), its axial object distance corresponds in each case to the following condition
| (Δϕ.p) / (2π.Δz AG ) | = | d / f B |
is changed at least approximately and thus the luminous surface elements FEL are shifted at least approximately parallel to a straight line (g AP ) on lines (BS Aj ),
where the left term is the phase change (Δϕ) of the structured luminous array, based on the change in the geometrical-optical path length (Δz AG ) in the beam path in the direction of the optical axis, i.e. the axial optical object shift when imaging a luminous surface element FELj ( 3 A) of the structured, luminous array when a wedge prism is moved
and (p) the lattice constant of the structured luminous array and (f B ) the focal length of the illumination objective ( 1 ) and (d) the distance of the pupil center of the illumination objective ( 1 ) in the object dream from the pupil center of the imaging objective ( 2 ) in the object space.
130. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 69 to 126, characterized in that for a rotating disk or parts thereof in the illuminating beam path when the structured luminous array is imaged by the illuminating lens ( 1 ), the axial object width thereof corresponds in each case to the following condition
| (Δϕ.p) / (2π.Δz AG ) | = | d / f B |
is changed at least approximately and thus the luminous surface elements FEL are shifted at least approximately parallel to a straight line (g AP ) on lines (BS Aj ),
where the left term is the phase change (Δϕ) of the structured luminous array, based on the change in the geometrical-optical path length (Δz AG ) in the beam path in the direction of the optical axis, i.e. the axial optical object shift when imaging a luminous surface element FELj ( 3 A) of the structured, luminous array during the movement of the rotating disk
and (p) the lattice constant of the structured luminous array and (f B ) the focal length of the illumination objective ( 1 ) and (d) the distance of the pupil center of the illumination objective ( 1 ) in the object dream from the pupil center of the imaging objective ( 2 ) in the object space.
131. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene with two imaging beams with two at least approximately identical, parallel arranged imaging lenses ( 2 , 33 ), a first imaging lens ( 2 ) and a second imaging lens ( 33 ), the main planes of the two imaging lenses ( 2 , 33 ) are brought to coincidence and each of them is assigned a receiver array with detecting elements, so that a first and a second receiver array with elements are arranged, to which at least one movement system is assigned,
characterized in that at least one movement system is assigned to each of the first and second receiver arrays and the resulting direction of movement of the first receiver array takes place on a route (AS A1 ) on the first upper branch of a letter Y, and the route (AS A1 ) is parallel to a straight line (g A1P ), which on the one hand intersects the focal point of the first imaging lens ( 2 ) in the array space and on the other hand the intersection point (P A ) of the axis of symmetry (SL) between the two optical axes of the two imaging lenses ( 2 , 33 ) cuts through the coinciding main planes so that the detecting elements of the first receiver array move on the lines (AS A1j ), with part of the line of symmetry (SL) forming the lower part of the letter Y.
and the resulting direction of movement of the second receiver array takes place on a path (AS 2 ) on the second upper branch of the letter Y, and the path (AS A2 ) lies parallel to a straight line (g A2P ), which is the focal point of the second Imaging lens ( 33 ) intersects in the array space and on the other hand intersects the intersection point (P A ) of the axis of symmetry (SL) between the two optical axes of the two imaging lenses ( 2 , 33 ) through the coinciding main planes so that the detecting elements of the second receiver Move arrays on the lines (AS A1j ), with part of the line of symmetry (SL) forming the lower part of the letter Y.
132. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene with two imaging beams with two at least approximately identical, parallel arranged imaging lenses ( 2 , 33 ), a first imaging lens ( 2 ) and a second imaging lens ( 33 ), the main planes of the two imaging lenses ( 2 , 33 ) are brought to coincidence and each of them is assigned a receiver array with elements, so that a first and a second receiver array with elements are arranged, to which at least one movement system is assigned,
characterized in that at least one movement system is assigned to each of the first and second receiver arrays and the resulting direction of movement of the first receiver array takes place over a distance (AS A1 ) parallel to the optical axis of the first imaging lens ( 2 ), and exactly that Elements of the first receiver array are read out and a signal curve is formed from them, which are located on lines (AS A1j ) which are parallel to a straight line (g A1P ) which, on the one hand, is the focal point of the first imaging lens ( 2 ) in the array Intersects space and, on the other hand, intersects the intersection point (P A ) of the axis of symmetry (SL) between the two optical axes of the two imaging objectives ( 2 , 33 ) through the coinciding main planes,
so that the elements of the first receiver array used for signal formation correspond to those which are located on lines (AS A1j ), part of the line of symmetry (SL) forming the lower part of the letter Y.
and the resulting direction of movement of the second receiver array takes place on a path (AS A2 ) parallel to the optical axis of the second imaging lens ( 33 ), and exactly the elements of the second receiver array are read out and a signal curve is formed from them, which is based on Lines (AS A2j ) are located that are parallel to a straight line (g A2P ), which on the one hand intersects the focal point of the second imaging lens ( 2 ) in the array space and on the other hand the intersection point (P A ) of the axis of symmetry (SL) between the two cuts the optical axes of the two imaging lenses ( 2 , 33 ) through the coinciding main planes,
so that the elements of the second receiver array used for signal formation correspond to those which are located on lines (AS A2j ), part of the line of symmetry (SL) forming the lower part of the letter Y.
133. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 131 and 132, characterized in that each receiver array is assigned a rotating disk with at least one transparent plate with a predetermined geometrical-optical thickness and reference marks ( 89 , 90 ) are applied to the rotating disk and the optical thickness of the transparent plate is continuously variable. 134. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 131 and 132, characterized in that each receiver array has a rotating disk with at least one transparent plate and each transparent plate has a predetermined location-dependent geometrical optical thickness is assigned and on the rotating disk at least one reference mark ( 90 ) is brought up and so the optical thickness changes from transparent plate to transparent plate beforehand. 135. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 131 and 132, characterized in that between each imaging objective ( 2 , 33 ) and each receiver array, at least two wedge prisms ( 98 , 99 ) of the same angle ) are arranged, two wedge prisms ( 98 , 99 ) each forming a parallel piece with a parallel space of constant thickness, the beam axis being at least approximately perpendicular to the two outer surfaces of the parallel piece. 136. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 131 and 132 and 135, characterized in that in the case of an at least approximately linearly displaceable wedge prism ( 99 ), the displacement direction parallel to the inner surface of the fixed wedge prism ( 98 ) is arranged. 137. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 131, 132, 135 and 136, characterized in that to compensate for the anamorphic effect in the air gap of the parallel piece, a second structurally identical parallel piece with two wedge prisms of the same angle is arranged with a similarly designed intermediate space, the second parallel piece being arranged rotated about the beam axis by at least approximately 90 °. 138. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 131, 132, 135 to 137, characterized in that the projections of the directions of displacement of the two outer wedge prisms are oriented perpendicular to one another on the plane of the outer surface of a parallel piece are. 139. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 36 to 138, characterized in that the receiver array represents a color camera. 140. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene with at least one electromagnetic radiation source ( 4 ), the radiation source ( 4 ) being formed by means of at least one structured array as at least one structured, luminous array with at least two surface elements and at least one surface element being illuminated , so that at least one luminous area element FELj ( 3 A) is formed, the term luminaire being used in the sense of emitting electromagnetic radiation,
and with at least one illumination beam path with at least one illumination lens ( 1 ) associated with the structured luminous array, including an image of the same, which has an effective aperture diaphragm with an extension (D B ) and a diaphragm center (BZ B ), for structured illumination of the object surfaces ( 5 , 18 , 19 ) in the object space that corresponds to the scene space,
and with at least one imaging beam path assigned to the illumination beam path with at least one imaging stage for the at least one object surfaces ( 5 , 18 , 19 ) with at least one imaging objective ( 2 ) assigned to the receiver array or an image thereof for imaging the elements of the object surfaces, which one has an effective aperture with an aperture center (BZ A ),
elements of the at least one receiver array in the recording process detecting electromagnetic radiation from the elements of the illuminated object surfaces in the object space,
and with a distance (d) of the pupil center (PZ OB ) of the illumination lens ( 1 ), as an image of the aperture center (BZ B ) in the object space, from the pupil center (PZ OA ) of the imaging lens ( 2 ), as an image of the aperture center (BZ A ) in the object space, the distance (d) being at least one eighth of the extent (D B ) of the opening diaphragm of the lighting objective ( 1 ),
wherein luminous surface elements FEL have an at least approximately predetermined luminance in a luminance distribution
and these are hereinafter referred to as luminous surface elements FEL, so that at least one image of a luminous surface element FELj ( 3 A) is formed in the object space by the image with the illumination lens ( 1 ), characterized in that the sharpness volume of at least one image in the object space of a luminous surface element FELj ( 3 A) in a structured luminous array -
by the predetermined geometric-optical assignment of the luminous surface element FELj ( 3 A) to the illumination lens and the geometric-optical assignment of the elements of the receiver array to the imaging lens and the geometric assignment of the illumination lens to the imaging lens in the 3D recording arrangement using the Newtonian mapping equation -
is permanently fitted into the focus volume, which is represented by the entirety of the images of the elements of the receiver array in the object space,
wherein the sharpness volume, which is given by the totality of the images of the elements of the receiver array in the beam propagation direction, has at least as great a depth as the sharpness volume of a single image of a luminous surface element FELj ( 3 A), so that for all images a luminous Area element FELj ( 3 A) is a surrounding volume of focus of images of the elements of the receiver array
and in the object space in each case an image of an illuminating surface element FELj (3 A) of a structured array (45) in each case an image of an element of the receiver array is fixedly arranged at least at least.
141. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 140, characterized in that at least one spatially structured sub-matrix ( 46 ) is arranged in at least one structured array ( 45 ) at least one structured sub-matrix ( 46 ), in turn, at least two structured cells ( 47 ) are arranged, with at least one window area ( 48 ) being arranged in each structured cell ( 47 ) by masking in the area of the structured cell, and this at least a window area ( 48 ) has an average object distance to the illumination lens ( 1 ), which is made differently in the main section to the window area ( 48 ) of the neighboring cell and a window area ( 48 ) in a structured cell ( 47 ) in each case in cooperation with the radiation source ( 4 ) represents at least one luminous surface element FELj ( 3 A). 142. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 140, characterized in that at least one spatially structured sub-matrix ( 46 ) is arranged in at least one structured array ( 45 ), in which at least one structured sub-matrix ( 46 ), in turn, at least two structured cells ( 47 ) are arranged, with at least one window surface ( 48 ) being arranged in each structured cell ( 47 ) by a mask in the surface of the structured cell and this at least one window surface ( 48 ) has an average object width to the illumination lens ( 1 ), which is made differently from the window surface ( 48 ) of the neighboring cell in the main cut and a window surface ( 48 ) in a structured cell ( 47 ) each has at least one self-illuminating surface element FELj ( 3 A) represents. 143. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 140 to 142, characterized in that the window surface ( 48 ) is arranged at least approximately in a plane perpendicular to the optical axis of the illumination objective ( 1 ). 144. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 140, 141 and 143, characterized in that at least one structured sub-matrix ( 46 ) is designed as a transmission arrangement with an optical material. 145. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 140, 141 and 143, characterized in that the optically active surface of the structured cells ( 47 ) in each case has a spatially structured area, the window surface ( 48 ) is designed as a flat surface
and a mask ( 49 ) is arranged in the window area ( 48 ) and the mask has a binary code transparency profile with the coding of a machine-readable number as a position number, and so the masks within a cell are each clearly and machine-readably distinguishable from one another,
and in a partial area of the spatially structured cell ( 47 ) next to the mask ( 49 ) on the window surface ( 48 ), a microlens with a focusing effect is arranged.
146. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 140 to 142 and 144 to 145, characterized in that the microlens in a partial area of the spatially structured cell ( 47 ) next to the mask ( 49 ) is formed as a cylindrical lens ( 50 ) on the window surface ( 48 ). 147. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 145 and 146, characterized in that the microlens ( 50 ) is arranged such that its focal point is at least approximately in the plane of the mask ( 49 ) is positioned. 148. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 140 to 147, characterized in that the structured array ( 45 ) as an opaque relief piece with at least two fine openings which are opposite the lighting objective ( 1 ) are arranged and the breakthrough surface is formed when using the relief piece in the 3D recording arrangement at different depths of the Ar ray space. 149. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 140, characterized in that the structured array is provided with openings as a non-transparent relief piece and the surface of the relief piece facing the illumination lens ( 1 ) is so Gefer Tigt is that this represents at least approximately the optically conjugated surface of a target piece to be tested and the breakthroughs on the surface of the relief piece at least approximately approximately SE represent the optically conjugated locations of the target surface of a test specimen. 150. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 140, characterized in that the structured array is designed as a transparent microlens array and the focal length and the axial position of the microlenses are designed in such a way that that their foci are arranged in a 3D surface, which at least approximately represents an optically conjugated surface to the target surface and the foci of the microlenses represent at least approximately optically conjugated locations of the target surface of a test specimen. 151. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 140, characterized in that on the structured array at least one relief with a spatial structure with at least one period in the form of at least one ramp ( 54 , 56 ) with at least one in the Compensation surface inclined ramp surface ( 55 , 57 ) is formed, which is aligned at least one ramp surface each to the illumination lens ( 1 ),
and on the inclined ramp surface ( 55 , 57 ) luminous surface elements FEL are arranged as window surfaces illuminated by the radiation source ( 4 ) and the ramp surfaces ( 55 , 57 ) are inclined so that the line of compensation (AG Aj ) through the inclined ramp surface ( 55 , 57 ) provides a straight line (AG Oj ) in the main section as shown by the lighting objective ( 1 ) in the object space as an image,
which is at least approximately aimed at the pupil center (PZ OA ) of the imaging lens ( 2 ), where, for several different compensating lines (AG Oj ) from several different ramps ( 54 , 56 ) after their imaging by the lighting lens ( 1 ), a bundle of straight lines from their images (GB 1 ) is formed with a convergence point (K 1 ),
and the point of convergence (K 1 ) is brought to coincidence at least approximately in the pupil center (PZ OA ) of the imaging objective ( 2 ).
152. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 151, characterized in that on the ramp surface ( 55 , 57 ), which has an average length WP, in each case at least one mask with a binary Code transparency profile with the sequence length b z is formed on a continuous surface area of the same and the minimum structure width p used in the mask with a binary code profile is made at least so large that it is still noticeable by the lighting objective ( 1 ) Contrast loss can be depicted sharply, and the length WP is made greater than b z .d / D B and the masks applied to a ramp surface ( 55 , 57 ) are each made clear and machine-readable from one another with a binary code transparency profile. 153. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 151 to 152, characterized in that the ramp surfaces ( 55 , 57 ) are designed as continuous surfaces. 154. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 151 to 153, characterized in that several steps are formed within the ramp surfaces ( 55 , 57 ), one step each per area at least one mask with a binary code transparency profile with at least one transparent field is applied. 155. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 146 to 154, characterized in that the binary code profile is designed as a bar code transparency profile with at least one transparent bar and the bars are arranged parallel to the main section and thus the bar code transparency profile is detected perpendicular to the main section. 156. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 151, characterized in that a lattice structure with a cos 2 transparency profile with at least one period length b z is applied to the ramp surfaces with the length WP is and the period length b z is made at least so large that it can still be imaged by the illumination lens with a high relative light intensity without a noticeable loss of contrast, and the length WP of the ramp surface is in each case made greater than b z .d / D B , wherein the length of the ramp area is made at least equal to the period length b z . 157. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 140, characterized in that luminous surface elements FEL are positioned in the array space as transparent window surfaces, including images thereof, illuminated by the radiation source ( 4 ), and that the lighting objective ( 1 ) facing side of the structured array is formed at least as a single relief with a spatial structure with at least one period in the form of at least one ramp, each representing a transparent wedge prism,
and the wedge prisms have a wedge angle which is selected such that due to its imaging effect the images of the luminous surface elements FEL lie at least approximately on a compensating device (AG Aj ) in the main section and the compensating line (AG Aj ) as shown by the lighting objective ( 1 ) provides a straight line (AG Oj ) as an image in the object space,
which aims at the pupil center (PZ OA ) of the imaging lens ( 2 ), whereby for several compensating devices the (AG Oj ) of several ramps is formed from their images by the illumination lens ( 1 ) from their images a line bundle with a convergence point (K 1 ) , which is at least approximately coincident with the pupil center (PZ OA ) of the imaging lens ( 2 ).
158. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 157, characterized in that the transparent wedge prisms are each manufactured in such a way that they average at least approximately the wedge angle in radians with the amount f B. n / [d. (n-1)]. 159. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene according to 151 to 156, characterized in that in the case of an imaging lens ( 2 ) which is telecentric in the array space, the ram surfaces in the structured array which face the illumination lens ( 1 ), at least approximately are of equal angles, so the best fit line (AG Aj ) through the sloping ramp surfaces in the main section of the 3D recording arrangement
represent straight lines parallel to each other, and the ramp surfaces are designed such that, according to the illustration by the illumination lens ( 1 ), a straight line del (GB 1 ) with a convergence point (K 1 ) is formed from the images of the parallel regression line, which is at least approximately with the pupil lenzentrum (PZ OA ) of the imaging lens ( 2 ) is brought to coincidence in the object space.
160. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 159, characterized in that the ram surfaces ( 55 , 57 ) in the structured array in the case of an imaging lens ( 2 ) telecentric in the array space, that point to the illumination lens ( 1 ), at least approximately with the same length. 161. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 151 to 160, characterized in that the imaging lens ( 2 ) is followed by a transparent plate ( 84 ) with wedge prisms, which represents a plate with ramps , where the number of ramps corresponds to the number of sub-matrices on the structured array. 162. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 151 to 160, characterized in that at least one microlens array is arranged in the imaging beam path, the microlenses within a microlens array at least two different axial ones The foci were in relation to a plane perpendicular to the optical axis of the imaging beam path. 163. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 151 to 161, characterized in that the imaging objective ( 2 ) is preceded by at least one microlens array, the microlenses being at least within a microlens array have two different axial positions of the foci with respect to a plane perpendicular to the optical axis of the imaging objective ( 2 ). 164. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 162 and 163, characterized in that the locations of the foci of the microlenses of a microlens array are arranged on a spatial profile. 165. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 162 and 164, characterized in that the locations of the foci of the microlenses of a microlens array are arranged at least approximately on ramp surfaces ( 55 , 57 ) . 166. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 162 and 163, characterized in that the imaging lens ( 2 ) is preceded by at least one optical waveguide array which is made from microfibers, the Microfibers are arranged at least approximately parallel to the optical axis of the imaging lens ( 2 ) and the microfiber ends on one side of the optical waveguide array lie in a common plane and are directly assigned to the elements of the receiver array and on the other side of the optical waveguide array the imaging lens ( 2 ) are assigned and on this side the fiber ends are arranged on a spatial profile. 167. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 162 and 166, characterized in that the spatial profile is at least approximately designed with ramp surfaces. 168. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one scene after 140 to 160, characterized in that the receiver array is formed with at least eight elements which represent at least two areas with at least four elements each, the four elements then being accurate represent two cells
and the at least two areas with a different mean height of the elements are formed in one area, which are referred to as sub-areas,
so that at least two areas are formed on the receiver array, which belong to a sub-area with a medium height, and on the receiver array at least eight elements are arranged in four different levels.
169. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 168, characterized in that the compensating surface represents a spatial profile over the locations of the elements of the receiver array of a sub-surface and that at least two Sub-areas are formed on the receiver arrays, which are made at least approximately the same and the shape of the spatial profile is also made at least approximately the same. 170. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 169, characterized in that the number of areas that belong to a sub-area on the receiver array with the number of sub-areas Matrices in the structured array coincides and an area that belongs to a sub-area extends over at least two linear areas of the receiver array that can separately detect electromagnetic radiation, and the lateral arrangement of the areas that form a sub-area. Surface belong, on the surface of the receiver array with the lateral arrangement of the sub-matrices on the structured array is made at least approximately geometrically similar. 171. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene after 140 to 170, characterized in that the receiver array is designed as a CCD matrix camera. 172. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene after 140 to 168, characterized in that the receiver array is designed as a CMOS matrix camera. 173. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene after 140 to 167, characterized in that the receiver array is designed as a CCD line camera. 174. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 140 to 167, characterized in that at least two imaging beam paths are arranged and each imaging beam path is preceded by at least one tiltable mirror surface and the upstream, tiltable mirror surfaces are rigid are connected to one another and are assigned to these computer-controlled components for carrying out a tilting. 175. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 140 to 167, characterized in that at least two imaging beam paths are arranged and the two imaging beam paths are jointly preceded by a computer-controlled, rotating mirror polygon. 176. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene according to 140 to 167, characterized in that an illumination lens ( 1 ) has a first imaging lens ( 33 ) with a receiver array and at least a second imaging lens ( 2 ) are assigned to a receiver array, the pupil center PZ OA of the first imaging lens ( 2 ) being arranged at a distance d from the pupil center PZ OB of the illumination lens ( 1 ) and the second imaging lens ( 33 ) at a distance kd from the pupil center PZ OB of the lighting lens ( 1 ) is arranged, wherein k ≧ 2 is made. 177. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one illuminated scene with at least two imaging beam paths with two at least approximately identical, parallel arranged imaging lenses ( 2 , 33 ), a first imaging lens ( 33 ) with at least approximately one-sided telecentricity in the array space and one second imaging lens ( 2 ) with at least approximately one-sided telecentricity in the array space, the two main planes of the two imaging lenses ( 2 , 33 ) being brought at least approximately to coincidence, the pupil center (PZ OA1 ) of the first imaging lens ( 33 ) in Distance d from the pupil center (PZ OA2 ) of the second imaging objective ( 2 ) is arranged,
and each of them is assigned a spatially structured receiver array ( 106 , 114 ), so that a first and a second receiver array ( 106 , 114 ) are arranged,
characterized in that the first and the second spatially structured receiver array ( 106 , 114 ) each have at least two receiver surfaces ( 107 , 108 ) and ( 109 , 110 ) on spatially separated step surfaces which are at least approximately perpendicular to the main section, and the receiver surfaces ( 107 , 108 ) of the first receiver array ( 106 ) are each arranged at least approximately parallel to the straight line (g A1P ) which defines the intersection point (P A ) of the axis of symmetry (SL) between the two optical axes of the two imaging lenses ( 2 , 33 ) by the coincident main planes and the focal point (F AA1 ) of the first imaging lens ( 33 ),
and the receiver surfaces ( 109 , 110 ) of the second receiver array ( 114 ) are each arranged at least approximately parallel to the straight line (g A2P ) which defines the intersection point (P A ) of the axis of symmetry (SL) between the two optical axes of the two imaging lenses ( 2 , 33 ) by the collapsing main planes and the focal point (F AA2 ) of the second imaging lens ( 2 ),
whereby pairs of regression lines that run through the at least two receiver surfaces ( 107 ) and ( 109 ) as well as ( 108 ) and ( 110 ) in the main section intersect at least approximately in the main plane and at least approximately the mean distance between parts of these at least two emp catcher surfaces ( 107 ) and ( 109 ) as well as ( 108 ) and ( 110 ) from the main plane are made at least approximately the same each time and thus at least approximately pairs of optically conjugated images of parts of receiver surfaces ( 107 ) and ( 109 ) of the first receiver Arrays ( 106 ) and parts of receiver surfaces ( 108 ) and ( 110 ) of the second receiver array ( 114 ) are formed in the object space.
178. Arrangement for 3D recording
at least one object surface ( 5 ) in at least one illuminated scene, with two imaging beam paths with two at least approximately identical, at least approximately parallel imaging lenses ( 2 , 33 ), a first imaging lens ( 2 ) and a second imaging lens ( 33 ), wherein the main planes of the two imaging lenses ( 2 , 33 ) are at least approximately coincident, the pupil center (PZ OA1 ) of the first imaging lens ( 2 ) being arranged at a distance d from the pupil center (PZ OA2 ) of the second imaging lens ( 33 ) ,
and each of them is assigned a receiver array with detecting elements, so that a first and a second receiver array with elements are arranged,
characterized in that the first and the second receiver array ( 6 , 14 ) are arranged at least approximately perpendicular to the main section, and the receiver surface of the first receiver array is arranged at least approximately such that it covers the distance (AS A1 ) contains, which is arranged on the first upper branch of a letter Y, and the path (AS A1 ) is arranged at least approximately parallel to a straight line (g A1P ), which on the one hand is the focal point of the first imaging lens ( 2 ) in the array space intersects and on the other hand at least approximately intersects the intersection point (P A ) of the symmetry axis (SL) between the two optical axes of the two imaging lenses ( 2 , 33 ) through the coinciding main planes, so that the detecting elements of the first receiver array ( 6 ) are arranged at least approximately in the main section on the route (AS A1 ), part of the line of symmetry (SL) being the lower part of the letter Y forms
and the receiver surface of the second receiver array ( 14 ) is at least approximately arranged such that it contains the segment (AS 2 ) which is arranged on the second upper branch of the letter Y and the segment (AS A2 ) parallel to a straight line (g A2P ) is arranged, which on the one hand intersects the focal point of the second imaging lens ( 33 ) in the array space and on the other hand the penetration point (P A ) of the axis of symmetry (SL) between the two optical axes of the two imaging lenses ( 2 , 33 ) intersects the coinciding main planes at least approximately, so that the detec ting elements of the second receiver array are arranged in the main section at least approximately on the route (AS A1 ), part of the line of symmetry (SL) forming the lower part of the letter Y and so at least from images of parts of the two receiver surfaces ( 6 ) and ( 14 ) in the object dream at least a pair of at least approximately optically conjugated Bi ldern is formed.
179. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one illuminated scene with at least two imaging beam paths with two imaging lenses, a first ( 33 ) and a second imaging lens ( 2 ), the pupil center (PZ OA1 ) of the first imaging lens ( 33 ) being in the position d is arranged from the pupil center (PZ OA2 ) of the second imaging lens ( 2 ),
and each of them is assigned a spatially structured receiver array, so that a first ( 106 ) and a second receiver array ( 114 ) are arranged,
characterized in that the first ( 106 ) and the second spatially structured receiver array ( 114 ) each have at least two receiver surfaces on spatially separate surfaces and the receiver surfaces of the first receiver array ( 106 ) are each arranged in such a way
and the receiver surfaces of the second receiver array ( 114 ) are each arranged in such a way
that at least approximately pairs of optically conjugated images are formed in the object space at least by parts of receiver areas of the first receiver array ( 106 ) and by parts of the receiver areas of the second receiver array ( 114 ).
180. Arrangement for 3D recording
of at least one object surface ( 5 ) in at least one illuminated scene with at least two imaging beam paths with at least one imaging lens in each imaging beam path, the pupil center of an imaging lens of an imaging beam path being arranged at least at a distance d from the pupil center of an imaging lens of another imaging beam path, and the distance d corresponds at least to the extent of the aperture of the imaging lens with the greatest extent of the aperture
and at least one receiver array with at least two detecting elements is assigned to each imaging lens,
characterized in that each receiver array is assigned at least one micro-optical array with micro-optical elements for influencing the geometric-optical object distance of the detecting elements for the associated imaging lens
and in the object space at least one pair of at least approximately coinciding images of an image of an element of the receiver surfaces of an imaging beam path is formed.
181. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene after 180, characterized in that the micro-optical array is designed as a micro-prism array. 182. Arrangement for 3D recording of at least one object surface ( 5 ) 99999 00085 552 0010002800000002000120002857300489000405919938400529 0002019919584 00004 00481 in at least one scene after 180, characterized in that the micro-optical array is designed as a microlens array with microlenses in a different axial position. 183. Arrangement for 3D recording of at least one object surface ( 5 ) in at least one scene after 180, characterized in that the micro-optical array is designed as a micro-prism array with microlenses of different focal lengths. 1. Technical field of application The technical field of application consists in the determination of the 3D shape or 3D shape of Bodies or objects in the room or even complete scenes with at least one image sensor in an optical recording system. The arrangement required for this is referred to below as 3D recording arrangement and the method is referred to as a 3D recording method. The This 3D recording arrangement and this method are used first in the sense of 3D measurement technology. The result of the calculation is the optically obtained signals 3D point cloud of object surfaces in a scene as a digital data record with reference to determined a zero point of the 3D recording arrangement. The calculated point cloud can For example, further processing in a CAD system. Another possible measurement application is the determination of the position of a vehicle outdoors without the need for an internal or external vehicle The second application area is the acquisition of 3D images as a point cloud Object surfaces in a close-up and far-away scene for 3D playback devices and 3D rendering process. The colors of the object surfaces can also be detected. This procedure mainly affects the multimedia and television area in the studio. But it can also The process and arrangement can also be used for digital 3D black and white and digital 3D color imaging can be used in the near and far range in the sense of photography, whereby a digital data record is generated that can be processed into a 3D image.  2. State of the art The 3D shape of surfaces is often measured using strip triangulation methods. Doing so usually illuminates the object or scene from a large angle of incidence, for example between 30 ° and 60 °. However, this often leads to disturbing shadowing of the object or of Details of object surfaces in the scene. Various 3D measurement arrangements with coherent light are known. The influence of the However, the speckle phenomenon limits the use of these methods. This was done by H. J. Tiziani in the work "Automation of optical quality inspection" in technical measuring, 55th year, Booklet 1211988, pp. 481-491 on page 488. There will also be interference fringe fields for the Strip projection technology used. These are caused by the overlay of coherent plane waves generates and also have speckle effects, s. Technical measurement, 62nd year, issue 9/1995, Pp. 328-330. These speckle effects often limit the sensible height resolution to less than 1/40 of the effective wavelength. With conventional optical 3D measurement, discontinuous surfaces are often a problem For example, larger paragraphs or steps in the surface of the object can become one Violation of the sampling theorem. The Gray Code process, where a sequence of binary images is projected on. In addition, especially afterwards higher accuracy requirements - sinusoidal grating mapped onto the object surface, the known phase shift method is used. An example is the modular optical 3D measuring system optoTOP from Breuckmann GmbH in D-88709 Meersburg. Furthermore, that is COMET-500 system from Steinbichler Optotechnik GmbH in D-83115 Neubeuern. The company ABW in D-72636 Frickenhausen offers programmable line projectors with up to 1280 Lines for the absolutely measuring Moire method. LCD-based projectors still work relatively slow and the streak contrast to be observed on the object is worse than with projectors with lattice structures on glass plates. The company Gottfried Frankowski Meßtechnik in D-14513 Teltow offers digital light projection the basis of illuminated micro mirrors, digital light mirror devices, also known as DMD. It grid images with a repetition frequency of about 10 Hz can be generated and read. These However, frequency is not yet sufficient for high-speed imaging. Farther surface elements of the same relative luminance within a pattern glowing stripe shifted. These surface elements are replaced by different ones Illuminated micromirrors are shown and form a structured illuminated surface. The relative Luminance is related to the mean luminance of the environment. For the surface elements The same relative luminance becomes short displacement distances, for example in length of four or eight micromirror dimensions, realized in a strip period in the plane of the Correspond to digital light mirror devices. Due to the vertical orientation of the Digital Light Mirror Devices for the optical axis of the lighting lens become the surface elements or the locations same luminance in a plane perpendicular to the optical axis of the lighting lens Displacement distances shifted. The shift by one stripe corresponds to one Change of phase in the strip field shown by 360 °. This value is for the phase evaluating Strip projection measurement technology based on triangulation for the determination of the  Point cloud of an object surface suitable. However, no objects related to one Focal length of the lighting lens can be measured great depth when using very fine strips To achieve a high depth resolution. The depth measurement range is here by the expansion of the opening diaphragm DB to achieve a large depth of field when measuring deep objects all of the above methods are usually dimmed to a greater or lesser extent, Illumination as well as in the illustration of the object surface. It mostly comes with small ones Lens openings, for example, worked with a relative light intensity of 1: 8 to 1:22. This requires strong light sources, for example in the form of flash lamps or strong halogen lamps, or only relatively small fields can be illuminated, for example 200 mm × 200 mm to 500 mm × 500 mm. At the 2nd ABW workshop 3-DBVITAE from January 25-26, 1996, R. Lampalzer, G. Häusler and Schielzeth on the advantage of a large lighting aperture to reduce the Speckle noise indicated by the acquisition of spatial incoherence. In the past there were problems with the use of two cameras lateral accuracy in the generation of the 3D point cloud. New developments, for example from the company gom in D-38106 in Braunschweig, led to a series of 3D sensors on the Based on the projection of different stripe patterns and the acquisition with two cameras different angles. However, the problem of limited depth expansion remains of the measuring room if, to achieve a high depth resolution, grids with a small one A new process with three cameras with parallel optical axes and one suitable base distance solves the problem of capturing the 3D scene through the evaluation stereoscopic images using high-performance computers, see VDI News No. 21 of May 22, 1998, Page 15, "Journey to the Radiant Ruin". The 3D information thus obtained becomes the Control a robot, the robot "Pioneer", in the Chernobyl ruin and for 3D acquisition of the structural conditions and the environment applied. Only with high-performance computing technology real-time 3D image reconstruction possible. The build volume of this arrangement is through the three Cameras comparatively large. In the conference book "Optical shape detection" GMA report 30, DGZfP - VDINDE-GMA conference 28/29 April 1997, Langen, Federal Republic of Germany, pp. 199-209, by the authors, R. Schwarte, H. Heinol, z.Xu, J. OIk and W. Tai noted that for quick shape detection In the approx. 20 cm to 50 m range, no precise, flexible and inexpensive method is available stands. This statement applies particularly to the range from 20 cm to 2 m, since here too Runtime methods only have a depth measurement accuracy of 2 mm to 20 mm. The one in above Technical publication presented technical solution based on a photonic mixer PMD is currently not considered suitable, a high one in the mentioned close range Realize depth accuracy. The technical effort z. Currently still quite high assessed.  In the above The conference book "Optical shape detection" is published on pages 211-222 by the authors W. Schreiber, V. Kirchner and G. Notni the concept for a self-measuring, optical 3D measuring system based on structured lighting. It allows, starting from the Experience in photogrammetry, the simultaneous determination of system parameters and Coordinates from the measured values. There is a high measuring accuracy for the object coordinates a relative error of up to 10-5 reached. To do this, however, a repeated recording of measured values is required with Gray code sequences and strips with a sinusoidal profile in conjunction with Phase shifting techniques are used. This means a significant amount of time for the Carrying out the measurement due to the necessary use of several gratings in one measurement sequence. Also, the object, in succession from several projectors, must be in different positions or illuminated in different directions from the same projector. This too does not allow highly dynamic measurement or real-time 3D detection of objects. The main features of this optical process are entitled "Optical three-coordinate measurement with structured lighting "in Technisches Messen, 62nd year, issue 9/1995, pp. 321-329 by W. Schreiber, J. Gerber and R. Kowarschik. The reference point for the coordinate system lies in the area of the object. Figure 2 of this latter publication shows a Arrangement with parallel axes for the lighting and imaging lens and one two-sided central perspective illustration. However, it can be estimated that based on the specified apparatus and the mathematical model, the implementation of the Evaluation algorithms in straight forward algorithms designed very difficult, so that a Real-time evaluation using special high-speed processors hardly possible in this way As the camera and the projector are spatially separated, the implementation is compact 3D measurement module not possible. In 1997 Daimler-Benz Aerospace introduced the second generation of a laser camera based on the Runtime measurement of the light. The measuring accuracy is only about 2% of the measuring range and is therefore considered unsuitable for metrological applications at close range. The Obtaining the color information from the scene is considered practically impossible. In the work "General approach for the description of optical 3D-measuring system" by the authors P. Andrä, W. Jüptner, W. Kebbel and W. Osten in SPIE Vol. 3174, pp. 207-215 becomes a general Description of optical methods for 3D coordinate measurement given. Deriving from suitable algorithms for high-speed evaluation of image series for 3D measurement is not given here, but it was not the aim of this work. A 3D real-time camera was featured in poster P28 of the 99th conference of the German Society for applied optics from 2.6. until June 6, 1998 in Bad Nenndorf by G. Bohn, L. Cloutot, G. Häusler, M. Hernandez, C. Horneber, R. Lampalzer, S. Seeger using a ferroelectric display presented. This ferroelectric display can be switched in 0.1 ms and is used in conjunction with a astigmatic mapping used to generate sinusoidal strips of fixed spatial frequency. The measurement time of the prototype is currently 320 ms. An absolute coding of the room by means of  So far, structured light has not been possible. The accuracy that can be achieved is present limited to approximately 1/2000 of the measuring range. Patent specification WO9214118 describes a 3D measuring arrangement which is called "confocal" is referred to as the contrast of a striped pattern projected onto the object surface evaluates. Both the lighting and the imaging lens or a common lens focused on the same plane in the space of the object. However, it is no possibility specified, a high for object distances in the decimeter and meter range Achieve accuracy. With the evaluation of the contrast of the projected stripe pattern can be for medium and large object distances with standard projection lenses with a It is known that aperture diameters of up to 30 mm are not very accurate in depth to reach. An illuminated transmission grating is placed on a displacement path, for example, shifted by the length of a few millimeters. This is done in the direction parallel to optical axis of the lighting lens to the position of the focus in the space of the object to change, in the sense of a scan. This also changes the stripe width in the picture Strip field. In addition, a piezo actuator connects to the illuminated grille is, the illuminated grid is placed in steps of half the grid constant. This is how the elements are detected of an image receiver which are optically conjugated to these grating elements, one Light-dark distribution. The size of the amplitude of the resulting signal is used to determine the Contrast function used. Determining the location of the maximum of the contrast function over the The z position of the illuminated grating is used to determine the z position of each object point. This method of determining the z-position of object points for the extraction of the point cloud does not allow a very high depth resolution. To improve the lateral resolution when imaging the object surface, according to the Patent WO 92 14 118 of the recipient as a line or matrix receiver also in steps below the average pixel distance, i.e. the pixel pitch, are moved laterally. This is none with the displacement of the image receiver in the z-direction, i.e. in the axis-parallel direction, coupled movement. The lateral movement is carried out solely with the aim of the lateral one Increasing resolution when recording the object surfaces. Generally, it can be stated that in the phase-evaluating fringe projection measuring technique on the The triangulation is always based on the aperture diaphragm or the pupil of the lighting lens is spatially separated from the aperture diaphragm or pupil of the imaging lens. The Aperture with a center can be physically present in the object space or as an image the opening panel. The image of the aperture diaphragm is called the pupil. The distance d the Aperture or pupil centers in the space of the object can be 5 mm, but it can also be one Arrays with vertically radiating laser diodes have become known as an addressable, structured illuminated array can be seen. The elements, here the vertically radiating ones Laser diodes can be individually controlled electronically in their luminance or brightness.  3. Problem solved with the invention. The invention solves the task of checking the 3D shape in a more technical and natural way Surfaces of objects in the room and scenes with an absolute reference to 3D recording arrangement. The shape of object surfaces in a scene can be high Measuring accuracy can be measured in depth and at high speed. Furthermore, the light output required for the illumination of object surfaces in a scene sometimes greatly reduced, or the image recording frequency can be increased with high light output will. The evaluation method ensures a high resolution of the effective wavelength in the Depth attainable. Technically, the examination of the surface shape of workpieces of mechanical engineering, the Vehicle construction and also the aerospace industry further improved. The application is now in the automated production, in robotics, in construction, in medicine, for example in geometric measurement of people, biological objects and also in artistic Area with plastics or stucco work. Furthermore, the task of cavity and interior inspection is solved. Labyrinths in different sizes and also contaminated or contaminated interiors that humans due to serious health risks or due to the small dimensions are accessible, can be committed by robots using one or more 3D recording arrangements are equipped. It can be rolling, striding, robots sucking, swimming, flying, crawling and crawling. The is too Basically underwater use for shipwreck inspection with the 3D recording arrangement The electronic support of visually impaired people for orientation in the room is also included A miniaturized 3D recording arrangement is possible. In recycling processes there is a possibility of automated dismantling of old devices, old ones Bodies as well as the separation of waste products also in a dangerous for humans Given the different reflectivity of technical surfaces, which, for example can be compensated for by a pronounced texture. The invention enables the point cloud of objects and to be acquired quickly and continuously Scenes through active lighting using structured light and the fast, practically simultaneous Detection of self-illuminating or artificially or naturally illuminated objects and scenes using a single 3D recording arrangement. The fast and continuous detection of the Point cloud of objects and scenes can be created using suitable hardware and software Video clock.  4. Achievements Improvements and Advantages Compared to the Prior Art The invention enables the rapid acquisition and examination of the 3D shape of bodies in scenes with great depth in relation to their extent, preferably with dimensions in Area above one millimeter. The object is illuminated at a comparatively small triangulation angle, for example by 10 ° or less. The disturbing in the detection of spatial structures Light shadows due to a relatively large triangulation angle from 30 ° to 60 °, for example are largely avoided. The body to be recorded in its 3D form or the whole The scene is preferably perpendicular to the optical axis of the taking lens. This allows, due to the optimal imaging conditions, a high lateral resolution and use tomographic or depth scanning method. The 3D point cloud has an absolute Geometrical reference to a zero point of the 3D recording arrangement. In addition, non-technical objects can be recorded in their spatial structure, the Space in which the objects are located at different depths one after the other is illuminated in a structured way. With a correspondingly high dynamic of those used for the 3D recording Components can also include moving objects and scenes, including people and animals, be included. There are basically several 3D recording arrangements at the same time can be used, and it can change the color of the object points when using color Image recorders are processed. Another improvement is the significant increase in Evaluation speed in the 3D acquisition. There is the technical possibility that To provide 3D point cloud of the object or the scene in video clock. The application of the invention enables the almost complete utilization of the high Efficiency of optical imaging systems for the examination of the 3D surface shape. The Realization of a high illumination aperture ensures a low speckle noise in the pixels On the other hand, complete scenes with moving objects can be real-time as 3D scenes be included. The limit for the detectable volume is the available light energy Luminous intensity of the lenses used and the photometric sensitivity of the lenses used Image receivers. The room can be recorded in depth with suitable lighting up to 20 m. The limit is ultimately due to the signal-to-noise ratio in the Light receiver or in the image receiver. Through the additional detection of self-illuminating objects and scenes, for example in the Background of an artificially illuminated object, object surfaces can be in a scene from a near point to infinity in one shot in real time and in color are recorded, the 3D data can be calculated as a point cloud, so that a 3D data set is available.  5. Main features of the solution The basic features of the process and the arrangement are described. By means of a transmissive or reflective, rastered structure with multiple maxima and minima of Transmission or reflection and a radiation source is a structured luminous array with local extremes of luminance. This screened structure is referred to below as structured luminous array. The structured illuminated array is at least one possible highly open lighting lens with a positive focal length for imaging subordinate. This is how the structured, luminous array appears in the object space the surface of which is structured lighting. In principle, the structured, luminous array can also be self-illuminating and local extremes of the luminance. For the inventive purpose is when imaging the structured luminous array in depth the object space realizes the smallest possible extent of the focus area, so that the spatially structured lighting is more in a disc-shaped volume. To the Illumination lens is at least one lens for imaging the object or the scenes Imaging lens arranged. Illumination and imaging lens are preferably the same Construction and therefore have the same focal length. The focal planes of the two also fall Lenses in the object space are preferably together and the two lenses are preferably in a small distance apart with preferably parallel axes. If necessary the lenses can even be accommodated in a common housing. The lenses advantageously have a large image field. The lens should be in one large depth range should be corrected well. Through the coincidence of the focal planes in the object space the lenses can always be set to the same object and image level and then form due to the small distance between the lens axes in one area, preferably at a distance well below the hundredfold pupil diameter of the illumination lens - is typical three to ten times the pupil diameter - at least an identical part of the object field in the object space, usually scaling down, into the array space. There are separate ones in this room Image fields, but in a preferably common plane, which is preferably perpendicular to the optical axis. The focus areas of the two lenses in the object space preferably fall into the largest possible area. The imaging lens has a preferably telecentric beam path in the array space strict sense, d. H. the exit pupil is very far from the lens, for example around 100 m. In contrast, the focal point and the center of the entrance pupil coincide on the object side. The illumination lens preferably has a likewise well corrected one in the array space telecentric beam path. However, it is also possible in principle that this Illumination lens in the array space a parallel beam path with a decentered A further array, the receiver array, is arranged in the image plane of the imaging lens. This array is also preferably located in a telecentric beam path. This Receiver array can be a rastered image receiver, for example a receiver matrix or  but also be a micro-optical array. The micro-optical array in the image plane of the Illumination objective is preferably a microlens array made of diffractive or refractive The telecentricity of the imaging lens in the array space ensures that when the Receiver arrays parallel to the axis of the imaging lens, i.e. in the usual notation in z direction - here the zADirection, the imaging rays have a fixed position to the elements of the Maintain receiver arrays, i.e. do not laterally migrate the imaging beams. In the object space on the other hand, the illumination and the imaging lens preferably have one central perspective beam path to be able to capture a large spatial area. In the case of using a microlens array in the imaging beam path as a receiver array the microlens array is followed by other components, such as an image receiver, by moving the illuminated array and the receiver array together by means of a movement system, parallel to the optical axes of the lighting objective, ie in the zA-Direction, gradually move all areas of the object or scene in depth each focus area illuminated and illustrated. The movement system is preferred designed as a translational movement system. A structured one is created Illumination in exactly the level of the object or scene by the image of the structured luminous arrays, which focus sharply on the receiver array through the imaging lens is mapped. By adapting the luminance of the radiation source to the respective one Removing the focus area from the 3D imaging arrangement will result in the well known decrease in Illuminance on the object surface is compensated for depending on its distance. The following movement regime for the structured, luminous array and the Receiver array realized: The amounts of movement of the two arrays parallel to the optical axis of the lighting and imaging lens, the zADirection, are at a lighting and Imaging lens with the same focal length is the same. The structured illuminated array additionally and preferably guides by means of a linear guide a lateral one simultaneously with the movement parallel to the optical axis of the illumination objective Movement off, i.e. perpendicular to the optical axis of the lighting lens. With an electronically controllable structured illuminated array, the lateral displacement takes place the elements of the same luminance, or the displacement of the local extremes of the Luminance preferably at the same time as the movement parallel to the optical axis of the Lighting lenses by electronic control of transmission, reflection - or Luminance in a self-illuminating array - in each case in the elements of the array. On the electronically controllable array, which can represent an electronically controllable line grid, the local extrema of the luminance are determined by local extrema of the transmission, the reflection - or by directly controlling the luminance distribution in a self-illuminating array - For the grid elements or the elements of the same luminance, or the locations of the local extremes the luminance of the structured luminous array, or the locations of the same phase of the  Luminance distribution is thus generated a linear movement that is parallel to a straight line gA  is aligned. This straight line gA is defined so that it is always the focal point of the Illumination lenses in the array space intersect and the slope, defined as the quotient Focal length of the lighting lens in the array space and distance of the focal point of the Imaging lens in the object space from the axis of the lighting lens, wherein this Straight line rise gA on an axis perpendicular to the axis of the lighting lens which, for example, lies in its focal plane in the array space, which corresponds to the parallel position of the two axes of the illumination and imaging lens the distance between the two axes of the illumination and imaging lens the distance of the Focal point of the imaging lens in the object space from the axis of the lighting lens. The straight line gA intersects - for a given arrangement with two parallel axes of Illumination and imaging lens and coincident focal and main planes of the two Lenses - always structured both the focus of the lighting lens on the side of the luminous arrays as well as on the same side of the array the main point of the Picture lens. In this case, points along this straight line become the objective axis of the lighting lens parallel line gO The pictures of the straight line gA parallel straight line that structures the locations of the elements of the contain luminous arrays, form in the object space with the straight line gO a line bundle, being the intersection of all straight lines of this bundle in the arrangement described is always at the focal point of the imaging lens should lie in the object space. At the same time, all of the imaging beams of the Imaging lens in telecentricity in the array space also the focal point of the imaging lens in the object space and thus form a bundle of rays. The straight lines of the bundle of lines and the rays of the ray bundle coincide. To detect, with an object surface perpendicular to the axis in the Array space and a movement of the structured, luminous array in the direction of the straight line gA the pixels belonging to the respective imaging beams on the receiver array each same amount of phase shift. This phase shift corresponds to the shift of luminous surface elements of the structured luminous array or the shift of the Luminance distribution on the structured, luminous array. A parallel shift of this Object surface results in the same amount of phase shift in the signals in all Pixels can be detected. This means that the depth sensitivity of the described 3D recording arrangement in a plane perpendicular to the axis in the object space Is constant, i.e. has no lateral dependency. The depth sensitivity can be determined by the effective wavelength of the 3D recording arrangement are described. The effective wavelength is here as the amount of the shift Δz2nd π of an object point on an imaging beam defined, in which the phase has changed by exactly 2π in the same imaging beam, with zIF as the coordinate in the object space parallel to the axis of the illumination lens. On the basis of the depth sensitivity, which is constant in a plane perpendicular to the axis, the Further processing of calculated phase values to the 3D point cloud is greatly simplified. In this In this case, the calculations can be carried out particularly quickly. It can use straight forward algorithms come into use.  An arrangement with two rigidly arranged lenses is technically very precise realizable with respect to the parallelism of the axes and the position of the focal planes and also Comparatively economical to produce and is therefore preferably shown at first. However, the 3D recording arrangement can also be structured as follows: The structured luminous array is associated with a lighting lens for the purpose of illustration, the structured illuminated array is movable obliquely to the axis of the lighting lens. The The linear direction of movement of the structured, luminous array defines the position of a straight line GA and is made structurally unchangeable to the position of the axis of the lighting lens. The Arrangement is constructed so that the straight line gA the focal point in the space of the array as precisely as possible as well as the main plane of the lighting lens at a finite distance from its optical Axis intersects, namely where the axis of the imaging lens should lie. The real or mental representation of the straight line gA generated by the lighting lens in the object space straight line parallel to the axis of the lighting lens gO. These straight lines gO pierces the Focal plane of the lighting lens in the object space. The focal point of the object Imaging lens is in the intersection point of the straight line gO through the focal plane of the Illumination lens adjusted as precisely as possible, the axis of the imaging lens is preferably aligned parallel to the axis of the lighting lens, so that the axis of the Imaging lens with the position of the straight line gO coincides. The straight line gA points, more or less well approximated, the increase with the amount from the quotient of the focal length of the Illumination lens and distance of the focal point of the imaging lens in the object space from the axis of the lighting lens, this rise to a vertical straight line to The movement regime for the 3D recording arrangement is, on the one hand, by a system with two Linear guides can be realized, the axes of which are preferably aligned perpendicular to one another. The moving components of these linear guides, also known as slides, are independent controllable from each other in the linear movements. A miniaturization of these components is possible. Linear direct drives can be used, for example electrodynamic Moving coil systems or linear motors. The direction of movement of the moving component of the first Linear guide is parallel to the direction of the optical axis, the zA-Coordinate that the Movement component of the second linear guide in a direction perpendicular to it, the xA  -Direction. These two linear guides thus generate the movement of the structured elements luminous arrays parallel to the line gA. The receiver array is the first linear guide assigned that works in the direction of the optical axis. The slide of the first linear guide carries So the receiver array and preferably the second linear guide and the slide of this second linear guide, the structured, luminous array. On the other hand, a single linear guide can also be used with a slide that is simultaneously on this Carried the structured illuminated array and the receiver array carries. The Direction of movement of this carriage is parallel to the straight line gA - So not perpendicular to the axis, but at an angle to the lens axes. In the latter case there is, however, according to the Carriage movement, on the receiver array a shift of the image to the pixels of the Receiver arrays. This shift can be made pixel by pixel in the image evaluation algorithm be calculated back. A high computing speed can be achieved if the  Carriage movement and taking pictures are synchronized and pictures depending on The carriage position can only be recorded if the shift in the image occurred on the receiver array at least one whole pixel or an integer thereof Is a multiple. The image data is always stored in the data record taking into account the occurred image shift, so that as a result compensation for the shift of the image using numerical methods. For example, a certain becomes real Imaging beam in the object space by assigning the stored data in the image data set which consists of several layers or data fields. Each layer corresponds while taking a picture. So there remains a real imaging beam, that of a certain one Element of the structured, luminous array goes out in the entire movement process of the two Arrays always an element with the same indexes, i.e. the same position, in each layer or each Data field assigned to the entire image data set, so that in the case of the method with only one linear guide, the effectively detected object width is determined by the lateral displacement of the receiver array is not reduced, depending on the Shift length a longer receiver array is used. The additionally required length of the Receiver arrays is solely dependent on the number of images captured per movement of the Carriage, also referred to as scan, depends on the following procedure for a motion system with two linear guides: The lateral and linear movement of the structured, luminous array takes place by means of the carriage of the second Linear guide and preferably starts at a highly stable zero point. The structured shining Array can represent an illuminated line grid, whose translation by a highly precise Length measuring system can be detected. However, the grating movement is preferably highly precise phase-detected using a second line grid, so that the reference to the zero point absolute lattice phase is also known in fractions of 2π. High resolution interpolation techniques are known from the incremental length measurement technique. This allows the lattice phase itself Reference for scanning those recorded from the object surface from the object space represent optical signals. The phase of these signals can thus be determined with high precision. This is very essential because in the phase of the optical signals in connection with the geometry parameters the arrangement contains the information about the respective object position. The surface of the receiver array is preferably located in the same design for lenses of the same type same level as the surface of the structured illuminated array. It also leads to a structured way luminous array, here the illuminated line grid, through the movement system or at one electronically controllable array the local extremes of luminance additionally lead to movement a lateral movement in depth, so that the resulting movement of the line grid or the local extrema of the luminance a linear movement parallel to that already mentioned Lines gA he follows. This movement changes the phase of a signal that is in the pixel An object point can be observed. On the other hand, this movement regime, the geometry of the arrangement and the telecentricity the lenses in the array space achieve that an illuminating beam of a luminous element certain phase and an imaging beam that intersect in any focus cut in all sharpness areas. This also means that when moving the two arrays the  Images of the luminous elements of the same phase and those of the receiving elements of the two Arrays always coincide with an ideal arrangement in the entire object space. Are Lenses with low distortion and very few errors and the lowest possible Difference in focal length of the two lenses and the most precise adjustment possible Advantage and significantly reduce the numerical correction effort. The deviations from Ideal conditions can be tolerated within certain limits. By moving the line grid parallel to the straight line gA and the "tight coupling of the This is the focus of the two lenses in the object space to form a common focus "Carrying out the phase in the imaging beam". This means that the phase remains in each imaging beam constant, that of a point of the object surface moving in the common focus area gets into the imaging lens, even if the position of this focus is in the depth of the Array space changes. An imaginary, constantly moving in the image beam in the focus area Accordingly, the object point would not change phase when moving the line grid experienced detectable signal, because, for example, always the same section of the strip in the Image beam associated pixel is detected. In contrast, is in the pixel of a fixed object point when moving the illuminated Line grid always to observe a periodic signal. In this periodic signal itself and due to its location in relation to the phase of the illuminated line grid, the information about the current zIF- Position of this object point clearly contained in the object space. The goal is to vary the position of the focus areas in depth to each Object point and a small amount in addition to the signal in the environment of the To be able to record the object point, the object phase of each associated with an object point to determine the plane perpendicular to the axis. This is modulated by the detection of a periodic Signals with a maximum modulation in each depicted object point, i.e. in the associated one Pixel, reached. The periodic signal arises when the two coinciding passes Sharpness areas through the plane of the respective object point and the maximum modulation corresponds to the location of the coinciding focus areas. A certain deviation from the Coincidence of the focus areas leads to an effective focus area and is within certain Limits tolerable. There is a reduction in the maximum modulation in the detected signal. It is possible to couple the focus areas of the two lenses in the object space in such a way that that there is a certain phase value in relation to the modulation maximum in the observed signal through the lateral fine adjustment of the structured illuminated array or the illuminated one The periodic signal is preferably in the pixels in steps of constant phase change scanned. Steps of constant phase change arise in the object space through constant steps a moving line grating, which is an illuminated line grating with a constant grating period represents in array space. Array space is always the space where that is Receiver array and the structured illuminated array, here the illuminated line grid. It is assumed that the zIF-Position as distance from the focal plane of the Illumination lens in the space of the object of each axis perpendicular plane in the object space by a  lateral invariant, absolute object phase ϕObj can be described so that it is perpendicular to the axis There are levels of constant phase in the object space. The laterally invariant, absolute object phase ϕObj at one point of the object is only from the position ZObj the same and the geometry of the optical arrangement and therefore has ideal Image relationships and adjustments basically no lateral dependency. In the further usually from the object phase ϕObj spoken. The geometry of the optical arrangement is through the focal length fB of the lighting lens, the distance d between the two parallel to each other Objective axes and the lattice constant p of the structured, luminous array, here a line grating, described. The straight line gO, the picture of the straight line gA, coincides with the axis of the imaging lens together, so that the size d also the distance between the lines gO from the axis of the The following geometry model is assumed: the laterally invariant, absolute object phase ϕObj for a plane perpendicular to the axis with the distance zIF always corresponds to the number of Strip orders plus the two fractions of strips that are on the route between a point this plane on the optical axis of the imaging lens and a point of this plane on the Lines gO The object phase is therefore zero in the infinite because of the infinite stripe width and in the Focal plane of the object space, the object phase approaches zero due to the strip spacing Infinite at. The object phase ϕObj usually has negative values for the chosen notation on. For (-) zIF = fB becomes the object phase ϕObj = ϕfB and it applies
with d as the distance of the line gO from the axis of the lighting lens, respectively here also the distance between the parallel axes of the two lenses and with p as the Grid constants of the illuminated line grid, which is used as a structured, luminous array With a flat and axially perpendicular reference plate, the object phase can be defined as the Number of strip orders between the straight lines gO and the axis of the lighting lens, or here between the two optical axes, by counting strips or can be determined more precisely by means of known phase shifting technology. The problem arises here first knowledge of the exact position of the two optical axes in the arrangement. The highly accurate Determining the number of stripes between the optical axes can be done with parallel shifting the reference plate in several steps - both as an adjustment criterion for checking the Deviation from the parallelism of the optical axes of the two lenses as well position of the reference plate perpendicular to the axis. With a measured arrangement with known position of the optical axes with respect to the transmitter and receiver array can In this way, the reference phase can be determined experimentallyIF-Coordinate of an object point zObj to get is in the laterally invariant, absolute object phase ϕ for each object pointObj to determine the further as  Object phase is called. In the model, an imaging beam should be exactly one pixel each hit the laterally fixed receiver surfaceObj An object point is determined in relation to a reference surface. The absolute, laterally invariant phase of the reference surface, the reference phase ϕR, becomes a as known assumed signed distance zIF = ZOR the reference surface with
calculated, where d is the distance between the lines gO from the axis of the lighting lens, or here the distance between the parallel axes of the two lenses from each other, fB the Focal length of the illumination lens and p the lattice constant of the structured illuminated array, or the illuminated grid. Because e.g.OR counted in the negative axis direction , there is also a negative value for the reference phase ϕR. The distance zOR the The reference surface is determined experimentally as precisely as possible. Usually everyone meets for registration of the object surfaces used in the scene also on the reference plate. The basic idea is to evaluate the corresponding image in each image beam Pixel of a reference point of the reference plate over the phase of the grating ϕGrid to observing modulated, periodic signal and that in an image point of an object point the modulated periodic signal to be observed is the absolute phase Phase difference ΔϕGrid to determine these two signal positions from the phase of the grating. Here it is assumed that the periodic signals are modulated with a Have maximum modulation. The width of this modulation curve over the phase of the line grid ϕGrid or the assigned displacement of the line grid depends on the center distance d two lens axes, the focal lengths of the two lenses and the relative aperture of the two Lenses, each described by the f-number k of the two lenses, and the properties of the surface in terms of light scattering. Determination of the absolute phase difference ΔϕGrid can be done so that in one Object point above the phase of the grating waveform to be observed over the phase resulting from the Displacement path of the grid is derived by exactly the amount of phase that is shifted this signal curve with that in the associated reference point of the reference plate covers the observed signal curve as precisely as possible, d. H. the correlation of these two waveforms is as high as possible. This phase amount determined in this way then corresponds to the absolute phase difference ΔϕGrid than the difference between the absolute phase of the corresponding to the two signal profiles Line grid ΔϕGridFirstly, a sampling of the signal over the phase in the pixel is a The relative reference phase value ϕRR mod 2π determined. Second, one Sampling of the signal over the phase in the pixel of each object point the relative Object phase value ϕRObj mod 2π determined. The relative reference phase value ϕRR and the relative Object phase value ϕRObj are the absolute phase of the line grid ϕGrid assigned and subtracted from it considering the respective sign. This is how the absolute are created Phase values of the grid phase ϕGridR for a reference point and ϕGridObj for an object point. With the difference
ΔϕGrid = ϕGridObj - ϕGridR (3)
becomes the absolute phase difference ΔϕGrid determined, which has a positive value if the detected object point is further from the focal plane than the associated reference point. By the signed addition of the absolute phase difference ΔϕGrid for experimental or constructively derived reference phase ϕR becomes the absolute object phase ϕObj then with
ΔϕObj = (-) ϕR + ΔϕGrid (4)
certainly. Since the sign of the phase of the reference surface ϕR is negative and the phase difference ΔϕGrid the amount is always smaller than the phase of the reference surface ϕR, results for the absolute Object phase ϕObj a negative value. The coordinate of an object point zIF = zObj can then with the equation
can be determined, which also delivers a negative value for a negative absolute object phase. Here d represents the distance between the lines gO from the axis of the lighting lens, or here the distance between the parallel axes of the two lenses from each other, fB the Focal length of the lighting lens, ϕObj the absolute, laterally invariant object phase and p the Grid constant of the illuminated line grid. As the zero level of the 3D image arrangement, the axis-perpendicular plane is used for e.g.IF = 0 that Focal plane of the lighting lens in the object space selected. As a result, the focus is FIF  of the illumination lens in the object space represents the zero point of the 3D recording arrangement. The most accurate determination of the absolute phase difference ΔϕGrid in the phase of illuminated line grid ΔϕGrid is of particular importance for the method. Another possibility is not the relative phase values in the reference point signal and in the object point signal, but the location of the locations of the same phase in the reference point signal and in Object point signal in relation to the phase of the line grid ϕGrid to determine, for example based on the locations of the same phase positions. Basically, a length measuring system can also be used to measure the movement or displacement of the Line grid measures high-resolution, the spatial difference between the positions of the reference point signal and Object point signal can be determined. From the known lattice constant p of the line lattice the associated phase difference Δϕ from the measured spatial differenceGrid in a known manner can be calculated. This is to be used if only a single linear guide with one Zero point encoder is used because the phase-wise sampling of the line grid due to the Moving the same with a then occurring movement component in the direction of optical axis with a counter grating is technically particularly difficult. With the preferably high-level reference plate, the 3D recording arrangement must at least of an axis-perpendicular position. From the experimentally determined value e.g.ORexp for the position of the reference plate, the value of the reference phase ϕR by means of the specified Equation (2) calculated. The measured displacement in zIF- Direction is with that of the 3D recording arrangement determined zOR-Value compared. So the 3D recording arrangement to be controlled. In the event of deviations from the highly precisely measured displacement from the  In terms of calculations, there is a wrong one for a well-adjusted 3D recording arrangement Value for the reference phase ϕR in front. The reference phase is changed numerically until one best possible agreement with the experimentally determined displacement values. In summary, the following applies: For the determination of the object phase ϕObj in the object space advantageously realized the following condition in the overall imaging system, which results from the parallel movement of the line grid - or generally formulated from the parallel movement the maxima and minima of the luminance on the structured luminous array - to the straight line gA  results in: When passing through the two coincident areas of focus of lighting and Imaging objective through the depth of the space of the object, the observed phase remains in the Intersection of a beam of the imaging lens with the common focus area through the additional lateral movement of the line grid always constant, so that an imaginary, in a beam of the imaging lens in the common focus area moving object point in the entire Depth undergoes no phase change. This is known as "carrying the phase". The additional lateral movement of the line grid can be done by a second linear guide or result from the inclination of a common linear guide for the transmitter and receiver array. On the other hand, this condition can also be achieved by an electronically controlled grid, for example a Line grid, can be realized by in addition to continuously moving the line grid in e.g.A-Direction, the phase position of the line grid is also continuously changed by the position of the Locations of local extremes of luminance, changed on the electronically controllable line grid The following should be noted: Optically conjugate points point in the array space and in The same absolute phase in terms of amount. This absolute phase can be as lateral coordinate can be understood. The absolute phase is derived from the lighting situation off and can in the array space from the xFROM-Position in the grid element GFROM be determined which one in the recording process on a straight line gA moves and with this movement exactly the array-side Focus FFROM cuts. The absolute phase in the array space results from this connection With
with xAB1 than the lateral coordinate of the intersection point of the straight line gA through the grid element GFROM and p as the lattice constant of the line lattice. At optically conjugate point GIF the result is same absolute phase as in point GFROM, but with the opposite sign. Furthermore, the receiver array need not be an image receiver, but can, according to the state of the Technology as a microlens array to be based on a high depth resolution to be able to achieve high strip density. The microlens array is located in one in the array space to the structured, luminous array of optically conjugated layers. As is known, that is Microlens array downstream of another lens. This lens is on the The side assigned to the microlens array is designed as well as possible to be telecentric. On the second page The image sensor is located on the lens. An electronically controllable, preferably, electronically controllable array can also be located in the plane of the receiver array be arranged transmissive array. The procedure is as follows: A first is done  Obtaining a 3D point cloud with, for example, medium transmission in the Array elements. Then the modulation in the elements of the image receiver checked and the transmission set elements so that there is a suitable level in the picture elements of a downstream image receiver. The electronically controllable, transmissive array can preferably be assigned to the microlens array. It is also possible that it is assigned to the image sensor. It can also be the structured illuminated array be assigned. Ultimately, the assignment only has to one optically conjugate level of the Receiver arrays are used to determine the phase position of the periodic signals in the pixels of the receiver array In the simplest case, the well-known phase shift algorithms come with 3 to 5 intensity values to use. The intensity in the pixels of the receiver array is accordingly Phase position of the structured, luminous array is scanned. A scan in is possible here discrete 90 ° phase steps. With the intensity values read out, for example, the Modulation over the phase in 90 ° steps determined with the known elementary equations will. The evaluation of the phase position can be structured in 180 ° steps of the phase luminous arrays, here of the line grid, are better for the accuracy of the phase determination and thus for the depth measurement accuracy however, algorithms that have a larger number of intensity values, for example 8, 16 or 32, determine the phase in the signal as well as the location of the maximum modulation. The entire Know-how in signal processing, as is already known in electrical engineering, can be found here be applied. Examples of the successful application of such signal evaluations are out known as white light interference microscopy. Generally these Signal evaluation methods used in short-coherence methods. Since the lattice constant of the structured, luminous array is preferably constant, it is Phase change speed with a constant movement of the structured luminous Arrays, also constant. This also enables the sub-Nyquist scan to be applied since here due to the knowledge of the signal frequency violated the known sampling theorem without disadvantages can be. This considerably reduces the number of pictures to be taken, so that basically a high speed of movement of the line grid can be realized and such a high-speed evaluation can be realized. Digital filtering operations are in the to combine the known type with the phase evaluation methods, or even before Perform phase evaluation. This issue is not discussed further here, although by the optimal design of the algorithms the performance of the entire evaluation process depends. The execution of the arithmetic operations can be done by means of special High-speed processors take place. It is advantageous if the structured, luminous array, here the line grid, also has one Has zero mark and the lateral grating movement phase-detected with a counter grating becomes. By positioning the reference plate in the object space in a known zIF-Position e.g.IF = zOR the absolute phase of the zero point is determined. Also the reference phases mod 2π as relative reference phases ϕRR by evaluating the signal curve in the Imaging rays in the area of the sharp image of the reference plate are determined and stored.  In the case of an unknown object, the signal curve in the focus area of the object point causes the associated phase of the line grid ϕGrid at the point in the signal curve in the area of the maximum of the modulation determined that the associated reference initial phase in the range of the maximum Modulation corresponds. Then the object phase for each level in the distance zIF by means of the phase resulting from the Lattice shift is derived to be determined. The highly stable zero point mark can be used as Starting point for the lateral movement of the line grid can be adjusted so that the start of the Imaging shortly before the sharp image of the reference plate is reached by the coordinated movement of the line grid and image receiver begins. Even after removing the The position of the reference plate remains as "the reference surface of the 3D recording system "exist until the new calibration. In the previous illustration it was assumed that the lighting lens and the imaging lens is always arranged in a fixed manner and represents rigid lenses, i.e. none have their own focus, or the objective objective focus that may exist is not used. The focal planes of the lenses are therefore fixed in the room. The focus in the sense of changing the position of the focus areas in the object space was done in the previous one Representation in each case by moving the structured illuminated array and the receiver array in a component parallel to the optical axis of the lenses. In the case of changing the position of the focus areas in the object space by focusing the Lens, for example, by an internal focus, as is the case with modern Corresponds to photo lenses, the focus must be electronically controllable, d. H. the lenses must also allow motorized focusing. Even when moving the whole For the purpose of focusing, a motorized displacement must be guaranteed, since modern lenses with an internal focusing option by moving low-mass, optical components in general enable a very quick focusing, this will Considered case. Basically, however, it occurs with the 3D recording arrangement according to the invention and the 3D recording methods, however, only rely on a defined relative movement between the Focal planes of the lenses and the associated arrays or the locations of the extremes To achieve luminance on this. To achieve the relative movement, the Focal planes are moved in space, for example by internal focusing of the The ultimate goal is the detection of a modulated cos2nd-like signal with a Maximum modulation in the pixels of the receiver array. Approaching the cos2ndCharacteristic is known to be by the optical modulation transfer function of the Lens in the respective imaging situation. It must be realized that the movement of the point of the structured illuminated array, which in the focal plane position of the structured, luminous array with the focal point of the Illumination lens coincides, on a straight line gA he follows. Other points or elements of the  structured, luminous arrays move on parallel lines to line gA. This straight line GA is defined so that it is always the focal point of the lighting lens in the array space intersects and the rise, defined as the quotient of the focal length of the lighting lens in the Array space and distance of the focal point from the imaging lens, this increase the straight line gA is related to an axis perpendicular to the axis of the illumination lens. As a result, the straight line g movesA together with the focal plane of the lighting lens. Because when focusing internally, the focus is always on the axis of the lighting lens moved, is to realize the movement of the elements of the structured luminous array on one Lines gA, an additional movement of the structured illuminated array perpendicular to the optical axis required. With an electronically controllable line grid there will be a change which produces localities of local extremes of luminance. This can also be called a vertical movement to the optical axis. It is very important for the accuracy of the measuring method that the movement described or Shift of the focal plane of the lighting lens is done very precisely, so that the movement on the straight line gA only with the smallest possible position deviations. This can be done using a high-resolution, internal measuring system for the purpose of moving for internal focusing Optical components in the lighting lens should be supported. The internal focusing of the imaging lens with a miniaturized linear guide should take place that the focus of the imaging lens with that through the lighting lens predetermined sharpness area in the object space coincides as well as possible. This is also possible here Use of a high-resolution, internal measuring system for the purpose of internal focusing optical components moved in the imaging lens. There is also a rigid coupling of the moving Components of the two lenses are fundamentally possible in order to meet the requirements for the accuracy of the internal focusing of the imaging lens reduce, the imaging lens can be dimmed a little more, because then the Depth of field enlarged. In extreme cases, such a strong dimming of the Imaging lens conceivable that then both with an object with limited depth on its internal focusing as well as on a movement of the receiver array - that is, on one Focusing in the imaging beam path can be dispensed with at all. According to the invention, an arrangement is also proposed that is electronic controllable line grid works as a structured, luminous array, which shifts the Locations of local extremes of luminance on the receiver array, or at one cos2nd-like luminance distribution on the structured luminous array a shift of Phase position, generated, and the associated lighting lens simultaneously internal focusing having. As a result, the locations of the extremes or the locations of the same phase move Luminance distribution on the structured, luminous array even when focusing internally a straight line moving in space gABasically, it is possible that the two axes of the lighting lens and Imaging lens are inclined to each other. However, in this case it is of great advantage if the focal point FOA of the imaging lens in the object space in the focal plane of the  Lighting lens is. The location of this focal point FOA defines the location of the line gO, the as a picture of the straight line gA by definition this focus FOA included and parallel to the axis of the Lighting lens must be. This causes the depth sensitivity of the 3D image arrangement in a plane perpendicular to the axis of the illumination lens Object space is a constant, i.e. depth sensitivity is not a lateral dependence in the plane For a given arrangement of lighting and imaging lens, the direction of the Movement of the elements of the structured illuminated array parallel to the straight line gA lie. How already shown, the line is gA defined so that their image in the object space, the straight line gO, the focal point of the imaging lens in the object space with a parallel position to the axis of the Lighting lens cuts. The arrangement with inclined optical axes of the Lenses have advantages if areas of the object are at a particularly short distance from the Lighting lens and this from the imaging lens with a parallel arrangement of the Lenses can no longer be recorded. Here it is advantageous if that The imaging lens is turned out of the parallel position or motorized and computer controlled is turned out that it grasp the areas of the object at a particularly short distance It is also possible that the receiver array is additionally rotatably arranged under computer control is to meet the Scheimpflug condition, whereby the coincidence of the focus areas in the Object space is accessible. It is also possible that the two lenses have different focal lengths can have, wherein the imaging lens is designed much shorter focal length if only the focal point of the imaging lens in the focal plane of the lighting lens in Object space. It is also advantageous for measuring and checking the 3D recording arrangement that a transparent plate as a permanently remaining reference plate perpendicular to the axis at close range is assigned in the object space for self-measurement, with at least one of the two surfaces a weakly light-scattering microstructure is applied. The microstructure does one for the Detection of the area of the reference plate sufficient backscatter in the 3D recording arrangement. The measurement can be checked and corrected as often as required , for example when temperature changes occur. It is also possible that Arrangement to encapsulate and thermally stabilize through a temperature control to a to prevent temperature-related drift of the phase positions. It is also to be measured Use of an arrangement with two parallel arranged transparent plates with an air gap in the Object space possible, where the air gap is constant and its geometry is known. Basically, the relative phase values ϕ measured with a reference plate canRR in a Reference phase matrix are stored and used to calculate the object coordinates, even if the reference plate has already been removed. It is also possible to see distortions of the lenses and adjustment errors of the arrangement Determine and save phase amounts via the room coordinates and, if necessary, for correction to use.  The procedure described basically allows time-optimal evaluation on the basis of straight forward algorithms. These algorithms can be used in special High-speed processors are implemented, which enables real-time evaluation of moving objects and people is possible. For an optimal signal-to-noise ratio in the signals, the brightness of the radiation source can be adjusted Depending on the position of the structured illuminated array can be controlled. For the Can adapt to the laterally different reflectivity in the individual object points in contrast, the light intensity in an electronically controllable, structured, luminous array pixel-by-object adjusted. The electronically controllable can be structured luminous array can be moved laterally to change the phase, but also laterally fixed and generate a phase change electronically by moving the grid lines, for example with constant phase speed. Furthermore, the light intensity of the lenses can be changed. It can be dimmed to the To be able to enlarge the depth of field, for example, for fast orientation measurements. This reduces the number of images required, but also reduces the depth measurement accuracy. Around on the other hand, being able to reduce the depth of field becomes one or two Apodization diaphragms arranged, one in the exit pupil of the lighting lens and one in the entrance pupil of the imaging lens in each case in the object space. These panels are like this designed that the near-axis rays are weakened or masked to a stronger one To achieve the effect of the marginal rays. They are the ones known from spectroscopy Apodization functions such as rectangle, triangle or Gaussian functions can be used. On the other hand, in certain cases, for example for particularly fast 3D recording, also a motion system with a rotary drive for continuous, rotary Movement of a structured, luminous array, preferably in the manner of a radial grid at least one reference mark can be arranged, with a section of the radial grid the field of the lighting lens completely. The radial grid is a counter grid assigned phase-wise scanning, which contains the counter structure to the scanning, and the Lighting, an optics module and the evaluation electronics with computer interface. Also on the Counter grid is also a reference mark for winning at least one high-precision zero point signal. Furthermore, this movement system has a linear guide, which is the rotary drive for preferably continuous rotational movement of the structured luminous array and that Receiver array carries. The direction of movement of the linear guide is parallel to the optical axis the imaging lens in zA-Direction. By coupling the radial grid with a rotary one Drive is achieved that the structured illuminated array undergoes a continuous run that can be controlled with high precision by the phase sampling. This solution occurs because of the structure of the radial lattice a variation of the lattice constant along the coordinate xA on. For Radial grating with a comparatively large diameter to the field of the imaging lens this fact is acceptable in connection with numerical methods.  It is basically possible to use computer-controlled lighting and imaging lenses Use zoom lenses, preferably with the same focal length setting In order to let the structured, luminous array emit wide-open beams of rays, this can be done structured illuminated array can be coupled with a special microlens array, for example This microlens array can be arranged upstream of the structured, luminous array in the light direction. It is also possible to use the structured, luminous array itself as a cylindrical lens array with a high aperture The parallelism of the optical axes of the two lenses can be checked with the help of the comparison the phase positions between the phase of the signal picked up on the structured illuminated array and the phase in the signal in a pixel on the optical axis of the imaging lens can be detected if a reference plate is shifted in depth and The displacement path is measured. It is possible with an electronically controlled, structured, luminous array that can be moved through Illumination lens telecentricity error due to phase errors occurring during deep scanning Compensate for stretching or compression of the electronically controlled structured illuminated array. A pin plate can be used to measure and control the depth sensitivity of the arrangement be used. The pins are very precise and firmly attached to a base plate in a known manner Grid attached and have two different but known based on the support plate Pen lengths. The distances between the pins are chosen so large that in a certain Distance of the plate from the arrangement on the end faces of the pins no shadowing occurs. In this way, two levels are displayed with a very well-known distance. This distance can be measured with a high-precision coordinate measuring machine. In different Distances of the plate from the arrangement can, however, affect the depth sensitivity of this arrangement The distortions of the lenses are also determined. In order to be able to measure very large objects partially or all around, a larger number is required A screen is built up from 3D recording arrangements. This screen can approximate the Coarse shape of the object to be measured, for example the shape of a complete one Automobile body, have. The detected object spaces of the 3D recording arrangements partially overlap. The measurement can be made using several reference bodies, including flat plates, possibly with marks that are simultaneously from two 3D imaging arrangements in the It is also possible that several 3D recording arrangements are positioned next to one another in such a way that that an object or a scene can be captured completely or in a large area, whereby the detected areas in the object space are positioned directly next to each other Partially cover 3D recording arrangements. However, there is no overlap with that the next but one 3D recording arrangement takes place. The positioned next to each other 3D recording arrangements illuminate and form the object with a different color Radiation source. Then, for example, illuminate the 3D recording arrangements with a Even-numbered position number using red light and the 3D imaging arrangements  an odd-numbered position number the object with a green light. In the imaging beam path the 3D recording arrangements are correspondingly narrow-band filters that only light the let your own radiation source pass. Several light colors are also conceivable, which means more can capture the same part of the object as two 3D recording arrangements. Furthermore, several illumination lenses can be assigned to one imaging lens, for example two. Each illumination lens can have a differently colored radiation source be assigned, for example the first a red and the second a green. The Imaging lens is assigned a mechanically or electronically switchable filter, in order to only Light from a single radiation source can reach the image receiver. On the other hand, a color-capable camera can also be arranged in order to simultaneously view the structured Process light from the two lighting lenses separately. So different Illumination directions can be realized in the object space, for example, to directly reflect from not to let a special object detail appear at least during a recording. Be too the shadows of the other shot are illuminated and so can these object parts It is also possible to separate the images from different lighting lenses by means of rotatable ones Polarizers and the use of polarized light. For the color imaging technique with color-sensitive image sensors, you can proceed as follows:
The object or the scene is preferably illuminated with white light and several 3D imaging arrangements are positioned so that an object or scene is complete or can be detected in a large area, the detected area or angular areas in the Partial object space of the 3D recording arrangements positioned directly next to each other cover up. However, there is no coverage of the one with the next but one 3D recording arrangement instead of. The 3D recording arrangements positioned side by side illuminate and form this Object at different times. For this purpose, all 3D imaging arrangements are synchronized from a control center so that the recording of images is also synchronous. Then, for example, capture the 3D recording arrangements with an even number Position number with the object in the direction of the moving arrays and the 3D recording arrangements an object with an odd number, the object in the return of the moving arrays and the objects are only illuminated when pictures are taken. When using a color-capable camera as an image sensor, these are preferably each related color-sensitive elements, also known as RGB sensors, linear and arranged in the direction of the stripes of the line grid, ie on lines of the same phase. Thereby it is achieved that there are no color-related phase positions in the signals. On the other hand, the Phase between the RGB sensors may differ depending on the object. Furthermore, it is also possible for a robot arm to take a single 3D Arrangement over the object leads and the data are read in successively. By Coverage of the detected areas of the object surface is followed by a "wobble" over the  Object surface, which is basically without the presence of reference marks on the Object surface is possible. The object spaces recorded in each case are put together numerically. The imaging lens can be arranged in a fixed manner. There is at least one lighting lens together with the structured illuminated array and the complete lighting arrangement the imaging lens is rotatably or pivotably arranged, advantageously the optical Axis of the imaging lens can represent the axis of rotation for the lighting lens. So that is the object can be illuminated from different directions to eliminate shadows. The rotation is computer-controlled. It is also possible that there is a swiveling plane mirror in front of the 3D image arrangement located, which can be pivoted into the beam path and thus a fixed The reference plate is measured and the plane mirror is pivoted back after the measurement has been carried out. It is advantageous if an image acquisition process is started at the start of a 3D recording process the first data record is obtained and saved and the calculated object points are eliminated, which have a deviation from the maximum modulation. This can then be structured luminous array are shifted by a fraction of the grating period and at least a second Data record is recorded and saved, the calculated values also being eliminated that are not in the immediate position of the maximum modulation. Because of through the lattice shift in a fraction of the lattice period is the calculated phase change Object points of the first measurement with those of the second measurement are not identical, so that a complete acquisition of the majority of the object points is achieved. Preferably, the described shift of the structured luminous array the amount of the quarter grating period.  The following are further features of the method and the arrangement for 3D recording of the object surfaces in scenes. Furthermore, in a method for 3D recording of at least one object surface in at least arranged at least one electromagnetic radiation source in a scene and the radiation source is at least one structured illuminated array with at least one structured array formed at least two surface elements. At least one surface element lights up, so that at least one luminous surface element ge forms is. Each luminous surface element FELj of the structured luminous array is itself or their images, in a luminance distribution by an at least approximately predetermined one Luminance and defined by an at least approximately predetermined location, which is broad ren is referred to as a luminous surface element FELj. The term "glow" is used here as the Ab radiate understood by electromagnetic radiation. The structured luminous array can also function as a transmitter array and the luminous surface elements FEL can be understood as transmitter elements of this transmitter array. Furthermore, the struktu an array of equidistant controllable micro light sources, for example Represent micro-laser or micro-light emitting diodes. So it is also possible to have a structured shining To generate an array, for example, with vertically radiating laser diodes that can be generated using a computer, can also be controlled individually. For example, a luminous surface element FELj can do this 100 times the average luminance of the array, i.e. comparatively intensely illuminated. However, the radiation source can also be used as a flat and unstructured radiation source Arranged array, which can represent a transmission or a reflection grating, be arranged upstream. So can also implement a structured, luminous array with areas of different luminance will. In any case, the illuminated areas of the structured illuminated array set themselves finally their pictures, luminous surface elements FEL in a luminance distribution with a too at least approximately predetermined luminance in relation to the mean luminance of the luminance distribution in the structured illuminated array. Furthermore, at least one illumination beam path with at least one illumination lens is on ordered, which contains at least one structured luminous array, including an image thereof, assigned. In this way, an image of the at least one luminous surface element FELj becomes real and the object surfaces can be illuminated in a structured manner at least at a single point in time It is also possible that by superimposing coherent light beams on the object surface structured lighting based on the interference of electromagnetic waves len is generated. Two coherent light beams can preferably be brought to interference. Before these can at least approximately represent sections of spherical shafts, and it can a stripe pattern can be formed. The location of the strips can be changed by changing the optical Path difference between the coherent light bundles can be changed. Furthermore, at least one imaging beam path for imaging elements of the at least one object surface and at least one receiver array with at least two elements and min  arranged at least one imaging lens assigned to the receiver array. Ele elements of the receiver array in the process of recording electromagnetic radiation from elements of the at least one illuminated object surface in the object space. Furthermore, elements of the receiver array are also always images through the imaging lens in the object space, which corresponds to the scene space, with a geometrical-optical focus volume det. The elements of the at least one object surface are covered with at least one image object pictured jective. At least one luminous surface element FELj of the structured luminous array can experience a shift. By mapping the at least one glowing flat element mentes FELj with the at least one lighting lens, an image of at least one is shining Surface element FELj is formed in the object space with a geometrical-optical focus volume. The receiver array can also represent a film or a plate with a coating that is suitable for X-ray, UV, VIS or IR radiation is sensitized, and is scanned out. The usage A target that is made sensitive to UV, VIS or IR radiation is also possible. The detection of electromagnetic radiation from the elements of the at least one object surface area through the elements of the receiver array takes place at least in a time range ΔtB, in which also the displacement of at least one luminous surface element FELj of the structured light the arrays is carried out, at least one signal value being obtained in each case. Within the time range .DELTA.tB at least with a luminous surface element FELj des structured luminous arrays an at least approximately predetermined displacement leads - including a predetermined optical displacement thereof as a result of a geome tri-optical path length change - and so sends at least one luminous surface element FELj electromagnetic radiation at different times in at least two different locations The focus volume of at least one image will light up at least one predetermined one the surface element FELj of the at least one structured, luminous array, this Schär f volume is formed in the object space, and the sharpness volume of at least one image is at least one nes predetermined element of the receiver array, this focus volume also in the object space is formed, and at least one element is at least close to the at least one object surface approximately once based on the implementation of the predetermined displacement at least one certain luminous surface element FELj of the structured luminous array with at least one Displacement component in zADirection in array space, i.e. with a displacement component brought to coincidence parallel to the optical axis of the lighting lens. So is in the object space at least once and at least approximately the coincidence of the sharpness of an image nes predetermined, moist surface element FELj of the structured luminous array and Sharpness volume of an image of a predetermined element of the receiver array and at least one generated element of the at least one object surface. Experienced when the coincidence occurs at least the element of the receiver array involved in this coincidence at least once at a time Lich changed radiation compared to the case of non-coincidence and so this element detects the Receiver arrays at least once a changed signal.  Thus, by realizing the shift, elements of the at least one ob surface simultaneously with the coincidence with the sharpness volume of an image of a predetermined, luminous surface element FELj of the structured luminous array and the focus volume of one Brought image of a predetermined element of the receiver array. Each time the coin occurs the element of the receiver array involved in this coincidence is at least experienced times a time-varying radiation and so this element of the receiver array detects at least at least once a changed signal. A luminous surface element can be firmly bound to a geometric structure of a body, For example, in connection with a maximum of transparency on a sliding transmission grating with an upstream radiation source. However, there does not have to be a fixed coupling to a geometric structure of a body, because in one electronically controllable, structured, luminous array, with two surface elements that can be luminous surface element FELj at different times both at the location of the first and are also located at the location of the second surface element possible that a structured luminous array with several fixed luminous area elements elements FELj is constructed in a spatially predetermined structure. In the object space arise after Image of the permanently arranged luminous surface elements FEL through the lighting lens different locations Images of the fixed, arranged surface elements FEL. In the 3D up The arrangement is in the optically conjugated locations in the array space of the imaging lens arranged at least one element of a receiver array. With the exact positioning of an object tes in the object space, which has elements of the object surface exactly where there is an image of the illuminated surface elements FEL, the elements of the receiver array each detect a signal value above a threshold. For the shift, the positions of the luminous surface elements FEL des are structured luminous arrays and the positions of the images of the luminous surface elements FEL in the object space according to Newton's mapping equation from the position of the lighting lens in 3D Shot arrangement and focal length fB of the lighting lens determined and realized. The Ver shift takes place on the one hand preferably at a constant speed. On the other hand, the Object distance of the structured illuminated array can also be changed by leaps and bounds. A structured illuminated array can be created from the data set from a known target object surface several fixedly arranged FEL flat elements in a spatial structure will. A 3D recording arrangement can be used with this special, structured, luminous array Examination of mass-produced actual object surfaces with correspondingly precise positioning in the described 3D recording arrangement can be used. In this case there is no physical ver shift of the luminous surface elements FELj in the array space, but only a parallel detection through the elements of the receiver array. This process can be done with an extraordinarily high Ge speed can be performed. The limitation is usually the positioning. It is In principle, an inspection of object surfaces of workpieces in flight or in free fall is possible.  In order to obtain a large depth of field for the 3D imaging process when imaging Ob To achieve ject surfaces in a scene, the locations of certain relative luminance levels tured, luminous surface and thus also the locations of local extremes of luminance in the array space Path curves are shifted. The structured, luminous array can be an electronically controllable, structured, luminous array, for example an LCD with an upstream radiation source, which is shifted in a straight line by a movement system. It can be controlled electronically by the lateral shift of the local extremes of the luminance also a defined deviation of the Path curves are generated by straightness, for example by moving transparent ones Lines of a very finely structured LCD with a very large number of elements, for example in of the order of 106. So the zA-dependent distortion of the lighting lens or the Systematic deviation from the straightness of the movement system can be influenced so that when moving the structured, luminous array, the images of the trajectory in the Bah object space with a very slight deviation from straightness, i.e. represent distances. The path curves can be realized in such a way that r 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880, that after their illustration with the lighting object jective from their pictures, at least approximately in the object space, a first cluster of lines SB1 With a point of convergence K1 the routes can be formed. These routes can be in the object space are understood as traces of successively imaged light points, for example as the ver shifted extremes of the luminance in an illuminated line grating in the transparency maximum or the trace of an image of an illuminated slit. The traces of the light spots can be found in the object space an object surface can be observed when the image of a point of light and the observed point of the object surface at least approximately coincide. Due to the triangulation effect, the shift of the image of a luminous surface element FELj and the one that coincides with it image of an element of the receiver array, lateral migration of the image of the light spot be observed. The deposit from the starting position increases with increasing deviation of the illuminated area of the object surface from the current point of coincidence of the two images the element of the receiver array has an increasingly blurred image of the glowing surface element FELj detects, or a generally unsharp, luminous surface element FELj + 1 in the neighboring position from the first luminous surface element FELj on the structured glowing array. The luminous surface element FELj is always reproduced via the Object surface. In the case of a single luminous surface element FELj, this is registered Ge element of a receiver array a lower light intensity, so that when imaging a single Light gap is a signal curve with a change in signal intensity, for example also an Si The course of the signal with one extremum - in the triple coincidence situation already described, results Arrays and thus also the luminous surface elements FEL in a direction of displacement with one Component in zADirection, ie also with a component parallel to the optical axis of the lighting tion lens, a clear statement about the presence of an element of the object surface at a predetermined location in the object space. The amount is in zADirection chosen so that the Focus area the object space from a close range, which corresponds to the area Fmin corresponds, for example in ten times the focal length of the lighting lens, up to a long range, which is the area  FMax corresponds, for example, at a distance of 100 times from the 3D recording arrangement Focal length, gradually by a predetermined, for example an electronically controlled Ver shift of the luminous surface elements FEL of the structured luminous array. There is the amount of the shift of the luminous surface elements FEL preferably in size one tenth of the focal length of the lighting lens. This procedure is performed with the entirety of the luminous surface elements of the structured luminous Arrays and the entirety of the elements of the receiver array for the entirety of the elements of the Object surfaces carried out in the detection volume of the 3D recording arrangement by multiple detection and reading out during the displacement process of at least one egg A predetermined element of the receiver array can be interpolated to improve accuracy determination of the location of a detected element of the object surface can be carried out. The aperture of the imaging lens can preferably be made comparatively small For example, the relative aperture can be 1:22, so that the focus volume of the image of the Elements of the receiver array has a comparatively large depth, for example in the form of egg nes long section of a slim pyramid - with an element with a square surface The size of the focus volume in the object space depends on the distance from the associated lens pending. When mapping an element of the receiver array into the object space, it should be a tie fenbereich in which the image of an element of the receiver array due to the geome optical blur does not increase by more than twice the area - compared to the idea len geometrical-optical illustration. According to this definition, the focus volume indicates one Point of the object space on average twice the area of an image of an element of the recipient Arrays on. The depth range then results as the range in which the image area of an element of the Due to the lack of focus, receiver arrays do not appear to be larger than doubled, whereas the illumination lens can have a comparatively large relative aperture. At for example, the relative opening can be 1: 2.0. This allows the volume of focus of the image to be changed luminous surface elements FEL have a comparatively small depth, for example in the Form of a short section from a pyramid. The sharpness volume should be in the image of a luminous surface element FELj in the object space have a depth range in which the image of luminous surface elements FEL due the geometric-optical blur does not increase by more than twice the area. That applies same criterion. In the case of a linear, luminous surface element FELj, this can be doubled the width of the image of the linear, luminous surface element FELj as a blurring criterion be accepted. For example, a focus volume at one point in the object space has an average of two surface of an image of a luminous surface element FELj. The depth range then results also here as the area in which the image area of an element of the receiver array does not become larger is shown as doubled, however, the exact definition of the respective focus volume plays a role here in obtaining the 3D Point cloud does not matter, since no calculation rule is derived from the definition of the focus volume  With the predetermined displacement of a luminous surface element FELj in the array space In the case shown here, the focus volume of one image of a luminous surface element tes FELj in the focus volume of an image of an element of the receiver array. So can in In this case, an element of the object surface is permanently in the focus volume of an image of a recipient are located. However, it only lights up when the sharpness of the image is coincident The surface element with an element of the object surface is structured structured element of the object surface. Thus, by the - at the predetermined shift one luminous surface element FELj - multiple read element of a receiver array for example, a signal curve with a relative maximum at the time of the coincidence is detected The predetermined displacement of the luminous surface elements FELj can be controlled electronically consequences. To avoid the mechanical movement of the structured, luminous array, the Locations of the local extremes of the luminance of the structured, luminous surface, each shift experienced on trajectories in the array space, which result from the electronically controlled change of the opti path length in the array space and the electronically controlled displacement of the local extremes Luminance on the structured, luminous array result. In addition, an electronically ge controlled change of the optical path length in the space in front of the receiver array the apparent shifts of the sensitive elements of the receiver array along the path Curves. Furthermore, a luminous surface element FELj can preferably each in the time intervals Δti the De tection of light in a time range ΔtB at least approximately on a displacement route VSBAj be moved relative to the lighting lens. Through the lighting lens, this can luminous surface element FELj in a luminance distribution with an at least approximately predetermined constant luminance at least at a time ti within the Time interval Δti always on a predetermined route in the object space BSOj The location of the image of the luminous surface element FELj is thereby on the route BSOj after and after changed and so the image of the luminous surface element FELj is at least close approximately predetermined constant relative luminance gradually through the object space postponed. When one luminous surface element FELj is shifted several times signal values are read from each other from elements of the receiver array and so a signal curve formed, the location of the element of the receiver array that is read in each case being changed. The Locations of the elements of the receiver array read out lie on a route ASAj and the picture of this AS lineAj, the route ASOj, is with the predetermined route BSOj of the images of the shining FEL surface elements optically conjugated in the object space. So one picture of an element of the emp catcher arrays with the image of a luminous surface element FELj at least at one time point ti within the time interval Δti in the time range ΔtB be brought to coincidence in the object space and so a pair with alternating images is created, this pair gradually through the object  dream is pushed. So it is given that a focus volume of the image of a luminous area element of the structured, luminous array and an image of an element of the receiver Arrays with one surface element each of the object surface once in the displacement process within an egg nes time range ΔtB coincide when an element of the object surface is on the image beam between the images of the two surfaces Fmin and FMax in the detected area of the object space it be finds. The read elements of the receiver array detect in the time interval Δti the coincidence a variable signal curve, preferably with at least one relative extremum of the signal size, with the time range ΔtB larger than the time interval Δti is made and so at least one time t interval Δti in the time range ΔtB A mechanically fixed receiver array can also be used, at for example a CCD camera that is not perpendicular to the optical axis of the imaging lens. This enables selected elements of the object surfaces from different depths of the object to depict dream sharply. A spatially structured receiver array can also be used. This approach is particularly suitable for small or flat measurement volumes. Preferably, that can luminous array also represent an illuminated single slit. On the other hand, for example a direct mirror device or an LCD array as a controllable array in connection with one in the lighting A lighted single slit can be shifted linearly, for example. The imaging beam where at the location of this imaging beam ABSO as a straight line through the location of the photometric focus tes of the element of the receiver array that has just been read and the location of the center of the opening aperture of the imaging lens is determined, initially migrates over the not from the image of the Light slit illuminated surface elements of the object surface. The light gap is only in the Koinzi situation from the image of the luminous surface element, from the image of the element of the recipient Arrays and the element of the object surface are detected by the element of the receiver array. However falls one image each of a luminous surface element FELj, e.g. B. a slit image, always with the image of an element tes of the receiver for the time interval Δti together, so to speak always in the "expectation" of the object surface. In the next time interval Δti + 1 the next element of the receiver comes with an image nes luminous surface element for "pair formation". So forms a certain luminous surface element mentes FELj with images of changing elements of the receiver array for the time interval Δti one each Pair, one through the separate pupils of the illumination lens and the imaging lens There is a triangulation angle between the main illuminating beam and the main imaging beam, so that the element of the receiver array can only detect the luminous surface element, if at the same time, i.e. in the time interval Δti, at least close to an element of the object surface approximately with the straight, i.e. in the time interval Δti, existing image pair coincides, including that Element of the object surface with the sharpness volume of the image of the luminous surface element coincides. So there is a triple. In this position the element of the receiver array detects this Light slit image on the object surface. On the other hand, it only detects far outside the focus volume impermeable areas of the mask on the possibly existing object surface. Between there is a transition area. The signal values from the elements of the receiver array that are inside  a time interval ΔtB have belonged to a pair of images, form a signal curve with a maximum, which corresponds to that of confocal 3D measuring microscopes, whereby the same luminous surface element FELj can always be found on the points of the displacement exercise route. This corresponds to the real mechanical displacement of the luminous area element FELj. This does not always have to be the case, since on the other hand the stay of an arbitrary gen, luminous surface element FELj at time ti within the time interval Δti The structured, luminous array can also consist of at least approximately punctiform or linear radiation sources exist in a raster structure. So a structured shining Array can be formed with areas of different luminance. Glowing surfaces can also be used Chen elements FEL can be shifted with local extremes of luminance. The electronically controlled Moving the luminous surface elements FEL to another location can be done with mechanical Mit or with micromechanical means. It is also a purely electronically controlled system Luminous surface elements FEL can in a luminance distribution with at least a proximity roughly predetermined constant luminance in succession at below emit electromagnetic radiation at different locations and at the same time the detection of electromagnetic radiation from the elements of the object surfaces for a period of time valls ΔtiIt is also proposed that the structured lighting with a lighting lens with a comparatively large pupil opening and with a structured luminous array, which is a parallel Line grid shifted to the optical axis of the lighting lens, or a point or can be a slit mask, and the image with an imaging lens with a comparative wise especially small pupil opening. The small pupil opening leads to a large size ren depth of field and so it is achieved that an object with a greater depth he can be grasped without having to move the structured, luminous array. Since also miniaturi lent lenses can be used, this results in a particularly compact arrangement. If the line grid is moved at a constant speed, so when recording in the Elements of the structured luminous array have periodic signals with a constant frequency and ei maximum modulation can be obtained. This simplifies the signal evaluation and can therefore lead to a considerable reduction in the computing time when determining the absolute phase and. When using a dot or slit mask, however, arise in the elements of the structured luminous arrays signals with a single maximum. From the location of the maximum can the associated zO-Position of the object point can be determined. Furthermore, in a method for 3D recording of object surfaces in a scene, preferably se a luminous surface element FELj in the time intervals Δti detection in a time domain ΔtB at least approximately on a separate displacement line VSB eachAj relative to the lighting tion lens can be moved and imaged by the lighting lens. Here means the phrase "relative" that the position of the luminous surface element FELj be stationary  can and in this case at least move components of the lighting lens. This luminous surface element FELj is at least at a time ti within the time interval Δti  always on a BS routeOj to a predetermined imaging beam ABSO, pictured in the object space det. The route BSOj can then also the image of the displacement distance VSBAj represent and the Location of the image of the luminous surface element FELj on the displacement line VSBAj at least approximately continuously - within a time range ΔtB - change and so the image of the shining Area element FELj with an at least approximately predetermined constant relative Luminance gradually on the BS routeOj be moved through the object space. Furthermore becomes an at least approximately rectilinear, relative displacement of the receiver array to the Ab educational lens and carried out parallel to the optical axis of the imaging lens, the For Mulation "relative" means that the position of the receiver array can be fixed and in in this case move at least components of the imaging lens. When moving can signal values are read out from a single receiver element several times in succession and so a signal course can be formed by means of a single receiver element, the location of each egg Nes element of the receiver array changes at least approximately continuously. The straight forward relative displacement of the receiver array to the imaging lens parallel to the optical axis of the Imaging objective is preferably carried out in such a way that an image of an element of the receiver Arrays with the image of a luminous surface element FELj with at least approximately in front determined constant relative luminance at least at a time ti within the period tintervals Δti is brought to coincidence in the object space and a pair of images is thus generated ches and is pushed through the object space. Here, sharpness volumes of images of the luminous surface elements preferably fall with surfaces surface elements of the object surface at least once in the displacement process within a time tervalls ΔtB together and the elements of the receiver array detect in the time interval Δti the Koinzi denz a signal curve with at least one relative extremum of the signal size. The time range ΔtB  can be larger than the time interval Δti be made and so at least one time interval Δti in the Time range ΔtB The case is shown here with a moving receiver array. This is a very relevant case because so objects with a comparatively large depth can also be measured. Furthermore are one-sided telecentric systems with a small volume usually not extremely bright, so that for reaching a sufficiently narrow envelope to the order of a strip to be able to identify, both systems should have high relative openings. The position of the imaging beam is ABSO as a straight line through the location of the photometric gravity point of an element of the receiver array and an optically conjugated location of the effective Zen The aperture of the imaging lens is also determined. An illuminated slit can also be used as a luminous array - in the sense of a luminous structure will. Thus, an image of a predetermined illuminated surface element falls, e.g. B. a slit image, always with the image of a predetermined element of the receiver array and thus forms an image pair. By at least a small distance separated pupils of the illumination and the  Imaging lens, there is a triangulation angle between the main illuminating beam and the Main image beam, so that the element of the receiver array only then the luminous area element ment can detect if an element of the object surface coincides with the image pair, thus also the element of the object surface with the focus volume of the image of the luminous surface Chen element coincides. Then the element of the receiver array detects the light gap image. Only the opaque areas of the mask are detected far outside the focus volume. There however, there is a transition area between them. The signal values from the elements of the receiver Arrays that are within a time interval ΔtB have belonged to a pair of images form a signal curve with a maximum that corresponds to that of confocal measuring arrangements. The distance between the In this case, for example, the pupils of the illumination and the imaging objective can only have one Eighth of the size of the pupil of the lighting lens. Accordingly, the tie sensitivity is also very low. On the other hand, the distance between the pupils of the Be Illumination and the imaging lens in the object space, for example, times the middle Extend the pupil of the lighting lens. The depth resolution is accordingly capacity is increased by approximately two orders of magnitude compared to the previous example catcher arrays. A moving, illuminated transmission grating can also be structured luminous array can be used. The characteristics of the detectable signals correspond to in this case that of short coherence interferometry. With several partially transparent object surfaces in the direction of the main axis of the imaging beam A low light scatter gives each object surface its own relative extremum in Si The permanent coincidence of the image of a luminous surface element FELj with the image of a Receiver elements in the object space can, but need not, exist. In the case of permanent coincidence the image of a luminous surface element always moves directly along a line in the illustration The luminous surface element FELj in a luminance distribution with an at least approximate se predetermined constant relative luminance with a predetermined wavelength spec trum can emit monochromatic, quasi-monochromatic or polychromatic light in the visible or transmit in the invisible spectral range. The electronically controlled displacement of the luminous surface elements FEL to another location can be done with mechanical means or with micromechanical means. It is also a purely electrical one tronically controlled shift possible. Furthermore, a method for 3D recording of object surfaces in a scene is proposed, at which preferably each have a luminous surface element FELj in the time intervals Δti the detection of Light in a time range ΔtB at least approximately at their own location OABj im structured Luminous array arranged relative to the lighting lens and by actuation for lighting brought and is mapped by the lighting lens and this luminous area chenelement FELj at least at a time ti within the time interval Δti always on one beforehand  specific location in object space OOBj is mapped. This picture location OOBj of a glowing surface Chenelementes FEL is changed in the object space by a control by a different, predetermined area element is controlled and made to glow, so that the picture is one luminous surface element FELj on a controllable trajectory, structured from distance incre ment AIO of the images of the distances AIA of the luminous surface element FEL in the array space the object space is pushed - in the sense of controlled taking predetermined, different positions. In any position after the shift - by at least an integer multiple n, including n = 1, the distance increment AIO- At least one signal value from a receiver gerelement detected and read and so is from several processes of detection and Ausle sens formed by elements of the receiver array. So the location of the detected and read element of the receiver array continuously changed. The locations of the detected and read elements of the receiver array are located at locations OAAj in the receiver array and that Image of this place OAAj, the picture location OOAj, is with the predetermined image location OOBj of the shining surface chenelementes FELj optically conjugated in the object space. So is an image of a detected one and one element of the receiver array with the image of a luminous surface element FELj at least at a time ti within the time interval Δti brought to coincidence in the object space and so a pair of images with alternating images is created, which and after different Occupies positions in the object space. The depth of the object space is gradually increased by such Coupled. The sharpness of the image falls in each case of a luminous surface element FELj with a surface element of the object surface at least once in the time range ΔtB in one time tervall ΔtB together and have the detected and the read elements of the receiver array in the time interval Δti the coincidence a signal curve with at least one relative extremum of the Si signal size, the time range ΔtB larger than the time interval Δti is made and so at least a time interval Δti in the time range ΔtB This method can also be implemented without any movement of an array, i.e. completely electrically tronic. The structured illuminated array and the receiver array can be rigid in themselves, preferably Represent three-dimensional structures, for example the luminous array can be luminous diodes or have vertically radiating laser diodes in a 3D arrangement. These can preferably be in a compact arrangement and rigidly coupled together. Gradually, individual areas Kitchen elements are electronically controlled and made to shine, and an illuminated micromirror of a two-dimensional or three-dimensional Direct can also be used Mirror Device DMD or an illuminated LCD element or a vertically radiating micro Laser element or a micro-luminescent diode in the three-dimensional structure for use com men. By controlling predetermined, luminous surface elements and reading them out of elements of a receiver array, the images of which represent a pair of images in the object space obtained an extremum in the signal value of an element of the receiver array if and only if Image pair at least approximately coincides with an element of the object surface. This is the case, if the volume of focus of the image of the luminous surface element is the element of the object surface The method can also be used as an optoelectronic query for the presence of elements of an object  surface to be understood. This makes the presence check of Bauele particularly easy elements in a complex, three-dimensional structure with a comparatively large depth expansion A luminous surface element represented by its fixed position in the composite of the structured luminous arrays and always a small volume due to the parameters of its mapping into the object space menu item. By reading out exactly the element of a receiver array that is in the object space has an image which is at least optically conjugated with the image of the luminous surface element, there is a query for the presence of an element of the object surface in this volume element ment. A yes / no decision can be made here using a trigger threshold. This is at Surfaces without texture are a feasible and quick way. It is better for the accuracy of the location Determination of the respective element of the object surface, several elements of the receiver array read out and the location of the relative extremum or the severity from the signal curve formed to determine the point of the signal curve. With this knowledge of the geometry of the optical can order the location of an element of the object surface can be determined. The value of the relative luminance of a luminous surface element can preferably only assume two values, a minimum and a maximum, synonymous with the logical 0 and L. Je however, due to the adaptation to the reflectance of the element of the object surface, for example wise as a result of a previously performed overview measurement, and the consideration of the distance the element of the object surface from the lighting lens a change in the absolute The distance increments that form the images of the luminous surface elements FELj ge hear, in the object space preferably sections on a straight line that lead to a section bundle SB1 With a convergence center K1 belong, preferably with the convergence center K.1 in the focal plane of the lighting lens. So the uniqueness of the signal acquisition is given because the distances of the route bundle SB1 Do not cross in the object space. If a downstream imaging level is used in the illumination beam path, the converter center of the route bundle are also in infinity. This corresponds to the telecentric case. It is advantageous if the convergence center in the pupil of an imaging lens for the exposure If the knowledge of the object surface is prior, individual increments can be made from distance increments Railway curves or sections can be put together. So by controlling different luminous surface elements FEL real shift of a luminous surface elements FELj to educated. In principle, the luminous array can even be reduced in its mechanical design nert 3D surface model of the object surface to be examined or the test-relevant Be represent rich of the same and the individual luminous surface elements are simultaneously or mapped one after the other onto the object surface. Analogously, this also applies to the structure of the recipient Arrays. This can also have an object-adapted 3D structure. The possibilities are more universal controls, however, structured luminous arrays with laterally equidistant distances between the luminous surface elements FEL receiver arrays with laterally equidistant elements  of the receiver array in one area. Both the illuminated array and the receiver array can several active areas in depth with luminous elements or receiving, Have elements so that the detection of three-dimensional object surfaces comparatively great depth is possible without any mechanical displacement. So with these computer controlled luminous arrays and receiver arrays even in a defined measuring volume completely unknown A method for 3D recording of object surfaces in a scene is also proposed preferably in the time intervals Δti the detection of light the luminous surface elements FEL each with its own displacement route VSBAj relative to the illumination lens. The luminous surface elements FEL preferably have one in a luminance distribution at least approximately predetermined constant luminance relative to at least one Time ti within a time interval Δti on. Furthermore, the luminous surface elements FEL on a B route BSAj positioned, the B section BSAj the target locations for the luminous areas chenelemente FEL at a time ti within the time interval Δti The pictures of these B routes BSAj are in the object space by imaging with at least one lighting tion lens preferably always to a cluster of lines SB1 with a convergence point K1 shaped. The point of convergence is K1, at least at a distance dK1 min from the optical axis of the Be lighting lens from the 16th part. Accordingly, the depth sensitivity is only very low. The maximum distance is dK1 max 16 times the distance d from the pupil center PZIF of the Be lighting lens from the pupil center of the most distant imaging lens. At least in a time range ΔtB during the displacement process of the luminous surface elements on Ver VSB sliding sectionsAj exactly one image of a receiver element and each exactly an image of a luminous surface element FELj in the object space at least at one time point ti within each time interval Δti detection at least approximately together the image of a B section BSAj positioned, so t is preferably at least at this timei from the image of a receiver element and the image of a luminous surface element FELj in the object space, a pair with a fixed assignment and such pairs are generated in the object space and these pairs are by pushed the object space. Sharpness falls from images of the luminous surface elements FELj with surface elements of the object surface at least once in the displacement process a time interval ΔtB together. The location of these couples is the focus of the current cutting volume mens of the focus volume of the two images so at this time ti a current point of coincidence Koj i  formed, which is pushed through the object space. The current coincidence point Koj i With constant speed, but also abruptly shifted. The elements of the receiver array detect in the time interval Δti the coincidence is preferably one Signal curve with at least one relative extreme of the signal size, the time range ΔtB greater than the time interval Δti is made and so at least one time interval Δti in the time range ΔtB in time is fit. This is how the luminous surface elements FELj of the structured luminous array and the elements of the receiver array at least at a time ti within a time interval  Δti, i.e. always at the same time, mapped onto each other in the object space. When moving, the positions of the luminous surface elements FEL des are structured luminous arrays and the positions of the elements of the receiver array always according to Newtonian Imaging equation from the position of the lighting lens and the position of the imaging lens in the 3D imaging arrangement and the focal length fB the lighting lens and the focal length fA of Mapping objective determined and realized. In this way, both the luminous surfaces Chen elements FEL of the structured illuminated array as well as the elements of the receiver array mapped at least approximately in a part of the object space into the same plane. The distance d. is typically typical for this methodk1 = d. It can be a one-off or multiple smooth passage through or even permanent stay of a luminous surface element FELj on egg A B section BSAj respectively. It is advantageous here to use a full-surface and mechanical moved, structured luminous arrays. The array of receivers can also be fixed with mechanical means or with micromechanical means. It is also a purely electronic one controlled displacement possible. A priori knowledge of the location of the object surface is not necessary if a large number of Time intervals Δti is passed through one after the other. Therefore, this procedure is for completely unknown ob project locations and object shapes very suitable. With prior knowledge of the location of the object surface and their depth expansion can be the time range ΔtB - at least for objects with a low tie window expansion - are usually made smaller compared to a situation with a completely un known scene. The displacement distances VSBAj represent the actual routes, i.e. the actual locations or the actual Positions of the photometric centers of gravity of the luminous surface elements FELj 3A and the B- Routes BSAj represent the target locations, which at least at time ti of the time interval Δti ingested should be. Only at the time of detection, i.e. H. only at a time ti in the range of the time interval Δti the actual and target locations must match and the displacement distances VSBAj deal with the B- Routes BSAj to cut. Of course, the displacement distances VSBAj-Stretch with the B- Routes BSAj also coincide permanently in the entire displacement process. The convergence point K1 the pictures of the B-lines BSAj can at least at a distance dK1 min of the optical axis of the illumination lens from the 16th part of the distance d of the pupil center PZIF  of the illumination lens from the PZ pupil centerO of the imaging lens. This small distance is for beam splitter coupled beam paths for fast measurements with comparative low depth resolution very suitable. The maximum distance dK1 max can be 16 times the distance d of the pupil center PZIF of the Be lighting lens from the PZ pupil centerOA of the imaging lens. This is typical for 3D recording at a higher speed, for example with continuously rotating grids. In In this case, the phase shift ϕ is determined on the basis of a carrier frequency method to a carrier frequency derived directly from the movement of the structured, luminous array in terms of a reference frequency. This procedure is also suitable for streaking in the object space to become invisible to observers due to the high speed. With a limited  Scene volume can do this due to the higher speed, comparatively lower duty cycle nis of the recipient elements. Preferably the value dk1 = d realized. In this case, the one that occurs in the signal curve corresponds Phase change of the placement of the detected elements of the object surface from a predetermined one Position. Technically, a larger dk1 than d therefore no advantage, since this for the Aus very important quantitative relationship can be lost. In addition, in the case with egg a larger dk1 - When moving the luminous surface elements FEL with the same speed in the z-direction as for the case dk1 = d - the camera must be read out particularly quickly. For very many larger values for dK1 as d, this method has the features of a carrier frequency method The process feature shown is also very suitable for recording with two central perspectives lenses. The main levels of these can also coincide. The recipient Array preferably fixed. It is assumed here that luminous surface elements FEL the structured luminous surface with an at least approximately constant, relative Luminance is not really on a B route BSAj have to move, but the displacement stretch VSBAj of the luminous surface elements FEL only cut at a time ti, briefly the B routes BSAj, before and after this time ti the elements of the receiver array Detect already light, so that luminous surface elements FEL are only briefly on the B sections BSAj An at least approximately continuous movement means a curve or a staircase function to create a straight line as a middle layer. Moving locations con constant, relative luminance of a luminance distribution here means that preferably exactly that Locations are shifted, which have a certain constant relative luminance, for example way of 70%. These locations with a relative luminance of 70% are preferably along one Distance shifted and the luminance always remains 70%, based on the entire luminous Array or a partial area of the same. From the signal curve, the mean object point brightness and the color information can also be used color camera. The object surface can be illuminated with white light or with colored light. It is still possible to move one by moving the object or a swinging movement Averaging over any surface area and thus an initial phase value in each element of the receiver array. Furthermore, a method for 3D recording of object surfaces in a scene is preferred beaten, preferably in the time intervals Δti the detection of light lights up of the area element FELj on a B section BSAj is positioned. The B routes BSAj be there to the PZ pupil centerOA of the imaging lens in array space, so that the convergence point K1 at least approximately in the PZ pupil centerOA of the imaging lens in the object space positio is nated. Furthermore, the point of convergence is K1 also in the pupil plane of the illuminating lens posi  tioned and so are each an image of a receiver element during the displacement process ment and an image of a luminous surface element FELj in the object space at least close approximately together in the picture of a B-section BSAj The image of a receiver element and the image of a luminous surface element FELj a pair with a fixed assignment are formed in the object space and thus in the object space ge pairs of images are generated and during the displacement process of the luminous surfaces chenelemente FEL each have an image of a receiver element and an image of one light up brought the surface element FELj at least approximately to the coincidence in the object space This is the case with two central perspective lenses with coinciding main planes closed. The receiver array can be fixed and set so that the "continuous" Focus range or the level of focus, of the lighting lens at least once with the focus level ne of the imaging lens coincides. In contrast, it is an advantage if the "continuous" arch level of the lighting lens always made comparatively large by strong dimming Depth of field of the imaging lens remains. It is assumed that the leuch tendency surface elements FEL of the structured luminous surface with an at least approximately constant relative luminance really move on a B-line, these B- Route, like all B routes in this case, to the pupil center PZOA in array space. This approach can be implemented, for example, with electronic grids with a very high number of pixels, for example at least a million pixels. Electronic grids can move in the process be continuously stretched or compressed to meet the condition of convergence of the route bundle to fulfill. As a result, the image of each luminous surface element FELj can at least approximate be brought to coincidence with an image of a receiver element, so that a current one A coincidence point is formed that moves through the object space. Furthermore, a method for 3D recording of object surfaces in a scene is proposed preferably in the time intervals Δti the detection of light is a luminous surface element ment FEL at least at a time ti within each time interval Δti the detection with a at least approximately constant, relative luminance on each B section BSAj positio is renated. The point of convergence K1 at least approximately in the focal plane of the Be lighting lenses in the object room and also in the PZ pupil centerOA the pupil of an illustration positioned objectively in the object space. During the moving process, an image of a receiver element and an image of a luminous surface element FEL in the object dream at least at a time ti within each time interval Δti at least the detection approximately together on the picture of a B-section BSAj positioned and so at least to this Time ti are made from the image of a receiver element and the image of a luminous area Chenelementes FEL, a pair with fixed assignment is formed in the object space and thus in the object dream such pairs with a fixed assignment. During the moving process the light tendency surface elements FEL become an image of a receiver element and an image of a luminous surface element FELj in the object space exactly once, at least approximately brought to coincidence.  The B routes BSAj are parallel to lines gAP positioned, the line gAP the Focus FFROM of the lighting lens in the array space and cuts out the increase with the amount the quotient distance of the pupil center PZOA the pupil of the imaging lens in the object space from the axis of the lighting lens and the focal length fB of the lighting lens, where at this slope of the straight line gAP is based on the axis of the lighting lens. Two central perspective lenses with mutually inclined axes can be used. The receiver array can preferably be fixed and set so that the "continuous" Level of focus of the illumination lens at least once with the level of focus of the imaging object tivs in one cut, coincides. If the imaging lens is heavily dimmed, the Depth range of the 3D image can be made comparatively large. This case can be considered a Stan dardfall with a rigid grid. Here, it is preferably assumed that the luminous surface elements FEL by one Rigid body grids don't really have to move on a B-track. It is possible that the Displacement lines VSBAj of the luminous surface elements FEL with a rigid, illuminated one Grid only at a time ti, that is, for a short time, the B sections BSAj, to cut. The detect Elements of the receiver array preferably both before and after this time ti Light. So be the luminous surface elements FEL of rigid body grids are only briefly found on the B section. The advantage is that the mechanical displacement of the rigid body grating is shorter can be realized away. This serves to increase the recording speed. For electronically controllable gratings, the detection has to be restricted to an area within the Time interval Δti of no practical importance, since these "massless grids" are always controlled in this way can that in the entire interval Δti the condition of coincidence of the lines VSB of the detectionAj  and BSAj is to be fulfilled without problems. This can basically be compared to rigid grids without the Realization of the coincidence of the VSB linesAj and BSAj, achieved a higher relative integration time will. However, this requires a correspondingly high dynamic of the electronic grids, which means that an array-side telephoto can be used for the structured illumination of the object surface centric lens and an array-side telecentric lens is used for imaging the same To meet the convergence condition, a rigid body grid can be used in this case, because of the location of the convergence center K1 no stretch in the array is necessary. For example, to Sliding path for the rigid body lattice when generating + 270 ° phase steps for a sub- To save Nyquist's method, an illuminated line grid in the x-direction with the opposite rich direction, in order to then implement -90 ° phase steps. Because, as already stated, the condition of the position of the grating only has to be fulfilled at the time of detection of light. The bring shorter displacement distances, which in this example are only a third, a higher dynamic. This method can be particularly advantageous for a line or for a limited depth range be used. The particular advantage is the simple arrangement and the high depth resolution due to the comparatively large triangulation angle of, for example, 30 °. A method for 3D recording of object surfaces in a scene is also proposed  preferably the displacement distances VSBAj and the B routes BSAj in the process of moving at least approximately in the time interval Δtk coincide, the time interval Δtk at least the Län ge of the time interval Δti and maximum the length of the time range ΔtB having. During the shift exercise process are each an image of a receiver element and an image of one luminous surface element FEL in the object space at least temporarily and at least approximately together on the picture of a B-line BSAj positioned and so from the image of a recipient a permanent element and the image of a luminous surface element FELj in the object space nentes pair with a fixed assignment and so in the object space such pairs of images er witnesses. During the shifting process in the time range ΔtB of the luminous surface elements become FEL preferably an image of a receiver element and an image of a luminous one Area element FELj brought to coincidence at least approximately once in the object space, whereby the time range ΔtB larger than the time interval Δtk is made and the time interval Δtk in the time domain ΔtB is fitted and the luminous surface elements in a grid structure with equidistant Distances are shifted. It is assumed here that the luminous surface elements FEL really lie on a B- Move distance, and the displacement distances of the luminous surface elements FEL with the B- Routes BSAi. This can be achieved with an illuminated line grid. Of course, an electric can African grid can be controlled in this way. The receiver array can be fixed so that the depths measuring range is limited. By choosing a small aperture for the imaging lens, there are many Measuring tasks with a comparatively large depth measuring range, based on the mean distance of the measurement volume from the 3D recording arrangement, detachable. Because for the lighting lens a very large aperture can be selected, the scene is illuminated well structured, so that Ambient light is largely harmless for the 3D recording. Furthermore, a method for 3D recording of object surfaces in a scene is proposed preferably by controlling the duration of each time interval Δti and through the controller the relative switch-on times in relation to the duration of each time interval Δti of the individual shining Area elements FEL, which illuminate and through a receiver element via the object surface the control of the luminance of the luminous surface elements, photometrically the case of the diff Exercise of luminous surface elements with an at least approximately constant, relative Luminance on B lines BSAj is reproduced. In this way, effectively luminous areas are preferred chenelemente FEL with their respective effective focus on B routes BSAj postponed, being the point of convergence K1 at least approximately in the pupil plane of the illumination lens and in PZ pupil centerOA of the imaging lens is positioned in the object space, and the B sections BSAj on the PZ pupil centerOA of the imaging lens in array space. Two central perspective lenses can be arranged in an arrangement with coinciding main planes be used. It is assumed that the luminous surface elements FEL due to a "coarse" grid of the structured luminous array not precise enough on a B- Can move distance, but only in the photometric effect a better approximation  is enough. So the case is simulated that the displacement distances of the luminous surface elements FEL with the B sections BSAj to cut. For comparatively small measuring the short relative detection time is not a disadvantage. The particular advantage is that without having to use a "stretchable", structured, luminous array, in the event of a shift to the B routes BSAj A method for 3D recording of object surfaces in a scene is also proposed in preferably in the time intervals Δti the detection of light is a luminous surface element ment FELj of a structured, luminous array with equidistant distances between the luminous areas chenelemente at least at a time ti within each time interval Δti with one at least approximately constant, relative luminance on each B section BSAj is positioned. There at the point of convergence K1 with focus FOA at least one imaging lens in Ob brought jektraum at least approximately to the coincidence. At least approximately, it becomes a straight line ge relative displacement of the receiver array to the imaging lens parallel to the optical axis of the Imaging lens carried out and during the shift signal values are repeated several times in succession read out from a single receiver element and so a signal curve is generated by means of a individual receiver element formed and in the case of mapping of displacement routes generated several times ASAj of elements of the receiver array with the imaging lens becomes their images in the object dream at least approximately at least one route bundle SB2nd with a convergence point K2nd in the Focus FOA of the imaging lens. The straight line shift of the receiver array is carried out parallel to the optical axis of the imaging lens so that during the ver pushing an image of a receiver element and an image of one luminous surface element FELj in the object space at least at a time ti within each Time interval Δti at least approximately together in the picture of a B-section BSAj for coincidence brought and moved and so from the image of one element of the receiver array and the image of one luminous surface element FELj at least at this time ti a few is formed with a fixed assignment and pairs of images are generated in the object space. Since each element of the receiver array enables the acquisition of its own signal curve, it is Possibility of parallel processing with a parallel computer system for the individual elements of a Given receiver arrays. There is the possibility of a very high processing speed. Furthermore, it is possible to reach a very large depth measurement range with the 3D recording, because that Receiver array is tracked so that the focus areas in the object space according to the known Ab educational equations at least approximately coincide, for example in an arrangement with parallel axes of the lenses. One image of a luminous surface element and one image of a receiver element in each of the entire depth of the room. However, there must be no permanent coincidence between the image of a luminous surface element and that of a receiver element. Furthermore, the imaging lens can also be shifted relative to the receiver array, for example also by focusing the inside of it. Therefore this can also be a relative one Act shift.  Furthermore, a method for 3D recording of object surfaces in a scene is proposed in which preferably during the displacement process of the luminous surface elements FEL in each case an image of an element of a receiver array and an image of a luminous area chenelement FELj in the object space at least approximately together on the image of a B-section BSAj permanently brought to coincidence and postponed. The permanent coincidence leads to a high relative detection ratio, for example of 90% in 90 ° phase steps. Furthermore, a method for 3D recording of object surfaces in a scene is proposed preferably the point of convergence K1 of the route cluster SB1 together with convergence point K2nd of the route cluster SB2nd in the object space with both the focal point FOA as well with that PZ pupil centerOA the pupil of the imaging lens is at least approximately coincident are, the lighting lens and the imaging lens each at least close to the array side approximately telecentric. The luminous surface elements FEL are at least on approximately parallel to a straight line gA on displacement lines VSBAj postponed. The straight line gA  penetrates the focal point FFROM of the lighting lens in the array space. For the straight line gA is the type increased with the amount from the quotient focal length of the lighting lens and distance d of the Focal point FAA of the imaging lens from the axis of the lighting lens in the object space rea lized, this slope of the straight line gA on an axis perpendicular to the axis of the lighting tion lens is related and because of the telecentricity of the imaging lens in the array space in this Fall the line gA with the straight line gAP This method enables 3D recording in a very large depth measurement range, with one type order with parallel and at least approximately identical lenses can be chosen with advantage can. The detected signals point, for example, when the structured illuminated array moves have a line grid with equidistant line spacings, a constant frequency. The sharpness area This is achieved by synchronizing the structured illuminated array and the receiver array brought to coincidence. There is a rigid coupling of the structured illuminated array and the Emp catcher arrays are an advantage. To ensure good illumination of the object, an imaging lens with a high relative aperture to be able to use and still be able to achieve a large depth expansion in 3D imaging NEN, a linear shift of the receiver array parallel to the optical axis of the Abbil lens. During the shift, signal values from individual, ne adjacent elements of the receiver array are read out. These signal values become a Waveform formed. However, only elements are used to form a single signal curve selected from their locations at least approximately a route can be generated in each case Center of the exit pupil of the imaging lens converges in the object space. The illustration of this Route with the imaging lens provides an image that is at least approximately similar to a second one Tufts of lines with a convergence point K2nd of the routes in the PZ pupil centerOA the pupil of the Mapping lens in the object space belongs. This process leads to a signal with one very approximately constant frequency when moving the line grid with constant Ge speed in zADirection. For objects with comparatively large dimensions and with a large depth extension is for  the technical implementation of the following is advantageous: The structured lighting is preferably carried out with a telecentric lighting lens in the array space and an illuminated line grid as well as the Image with an imaging lens telecentric in the array space. For the receiver array performed a linear shift parallel to the optical axis of the imaging lens. So will a separate displacement path is generated for each element of the receiver array. When mapping this Displacement lines with the imaging lens are created from the images of this displacement line ken a second cluster of lines with a convergence point K2nd of the illustrated routes in the object dream in focus FOA of the imaging lens. Furthermore, the convergence point K1 and the Focus FOA of the imaging lens in the object space is at least approximately coincident, so that the point of convergence K2nd with the convergence point K1 collapse. The Kon vergence point K1 of the distances in the object space so formed by the locations of certain relative illuminance te of the illuminated line grid, for example the maxima of the transmission of the line grid, on Ver sliding distances at least approximately parallel to a straight line gA be moved. Straight GA penetrates the focal point FFROM of the lighting lens in the array space, where for the straight line gA  the increase with the amount from the quotient focal length of the lighting lens and the distance of the Focal point FAA of the imaging lens from the axis of the lighting lens in the object space rea is lized, and this slope of the straight line gA on an axis perpendicular to the axis of the lighting tion lens is related. Since the lighting lens and the imaging lens are preferably each because on the side of the space of the arrays are made telecentric, the focal falls in the object space point FOA and the PZ pupil centerOA the pupil of the imaging lens. So will be the point of convergence K1 and the convergence point K2nd in the coinciding pupil center PZOA and Focus FOA of the imaging lens brought to coincidence. It is also essential that during of the entire displacement process, a picture element of a location of certain relative light density of the illuminated line grid and a picture element of an element of the receiver array are brought at least approximately to coincidence in the object space and thus flä in the object space correspondingly fixed pairs of picture elements which are assigned to one another in an unchangeable manner are generated. This means that in the object space the focus areas of the lighting and imaging lens always at least partially coincide. In the elements of the receiver array you can use this method periodic signals with a maximum modulation are detected, from which the information about the absolute phase of an object point can be obtained in connection with the arrangement. If the illuminated line grid is moved at a constant speed, the Recording periodic signals with a constant in the elements of the structured luminous array Frequency can be obtained. This simplifies the signal evaluation and can therefore lead to an increase In addition, a method for 3D recording of object surfaces in a scene is proposed preferably at least approximately a linear shift of the receiver array is carried out and during the shift successively signal values from individual, also side by side the horizontal elements of the receiver array can be read out and signal curves also by ge important summation of the signals of individual elements of the receiver array, so that signals from virtual len elements are formed. To form a single signal curve, signal values of uses virtual elements of the receiver array, these virtual elements of the receiver  Arrays when moving the receiver array at least approximately on a move Exercise course ASAj lie in the array space, the extension of which is the center of the exit pupil of the Abbil lens cuts. When mapping routes created several times, the image ob jective from their images in the object space at least approximately at least one cluster of lines with a Convergence point K2nd in the PZ pupil centerOA the pupil of the imaging lens is formed and during of the displacement process of the elements of the receiver array, these are repeated several times in succession Within the shifting process, an image of an element of the Receiver arrays and an image of a luminous surface element FELj in the object space at least during a time interval Δti at least approximate within the displacement process point to coincidence on B routes BSAj brought. So the image of a receiver element and the image of a luminous surface element FELj, which is also a current coincidence point can be viewed, a pair with a fixed assignment is formed and so in the object Such pairs are created. This ensures that when arrays with large numbers of pixels are used, they are effectively illuminated Area element and a virtual receiver element are formed so that these for the duration of a Time interval of the detection of light from an element of the object surface in the object space coincides ren. This is the replica of the case that in an arrangement with two at least approximately Identical identical central perspective lenses in a parallel position and with coincident main levels both a real, luminous surface element FELj and a real receiver element on egg ner displacement distance in the direction of the pupil center of the imaging lens. This is an inexpensive case for the optical components, since standard lenses are used Furthermore, a method for 3D recording of object surfaces in a scene is proposed, at the preferred shifts of the luminous surface elements FEL on parallel shifts Exercise routes VSBAj be carried out and when mapping the generated, parallel displacement stretch VSBAj with the lighting lens from their pictures at least approximately at least a bundle of routes SB1 with a convergence point K1 in the object space at focus FIF of lighting tion lens is formed. In addition, a linear shift of the receiver array, the syn chronicles with the displacements of the luminous surface elements FEL on parallel displacements Exercise routes VSBAj is carried out, signal values are successively during the shift read from individual, adjacent elements of the receiver array. For those who the waveforms formed. To form a single signal curve, there are adjacent ones Elements of the receiver array selected, their locations when moving the receiver array to at least approximately each on an A section ASAj lie in the array space and the extension of the A section ASAj each on the PZ pupil centerFROM of the lighting lens in the array space. At Mapping of parallel A sections AS generated several timesAj with the imaging lens, de ren images in the object space at least approximately at least one route bundle SB2nd with a conver point K2nd in the PZ pupil centerIF the pupil of the lighting lens. The A routes ASAj are parallel to a straight line gAA aligned and the straight line gAA intersects the focal point FAA   of the imaging lens in the array space and shows the increase with the amount from the quotient Ab the PZ pupil centerOA the pupil of the imaging lens in the object space from the axis of the Illumination lens and focal length fA of the imaging lens, this increase in Ge straight gAA is related to the axis of the lighting lens. During the synchronized shift exercise process of the luminous surface elements FEL and the elements of the receiver array the elements of the receiver array are read out several times in succession. One picture of each Element of the receiver array and an image of a luminous surface element FELj in the ob jektraum are within the displacement process at least during a time interval .DELTA.ti in within the displacement process at least approximately brought to coincidence and so from the image of one of the receiver element and the image point each with a movable pair A fixed assignment is formed and thus movable pairs are created in the object space. The straight line gAA the penetration point of a parallel to the axis of the lighting lens Straight lines that define the pupil center PZOA contains the pupil of the imaging lens in the object space, cut through the array-side main plane of the lighting lens. This approach provides a way for quick overview measurements without the need for the latera len displacement of an illuminated line grid. Both the illuminated line grid and the Receiver arrays preferably move synchronously and parallel to the parallel axes of the two Lenses. The focus areas of the illumination and imaging beam paths coincide in the object space. If the imaging lens is open, the smearing of the image is complete the lateral movement of the imaging beams over the object surface for an overview measurement in A method for 3D recording of object surfaces in a scene is also proposed preferably an absolute phase difference ΔϕGrid in a pixel that becomes an object point belongs from at least two waveforms, namely that in the object point itself and in the corresponding reference point in the same imaging beam, evaluating the mod lation is formed in the signal, the calculated absolute phase difference in each case with the correct sign absolute reference phase ϕR is added, which results from the experimentally predetermined at least once th position of the reference plate zOR in the object space and related to the lighting lens and the Geometry data of the optical arrangement is calculated. This results in the result of these arithmetic operations ration an absolute object phase ϕObj for each object point pointing to a reference point in the object space is related, information from the signal curve of the associated reference point being stored The position of the reference plate can e.g.OR in the object space before measuring the object surface or the scenes are measured several times, at least in the close range, and if necessary locally dependent assignment of the respective phase position of the signal to the modulation maximum can be determined. This is one way to get phase correction values. This change in each The phase relationship of the signal to the maximum modulation results, for example, from the location-dependent ones Lenses of the lenses. This phase response is determined depending on the location and for the computer-aided correction tabulated. Further details on this have already been given in the first part of the disclosure  Furthermore, a method for 3D recording of object surfaces in a scene is proposed, at preferably an absolute phase difference ΔϕGrid in a pixel that becomes an object point belongs from at least two waveforms, namely that in the object point itself and in the corresponding reference point in the same imaging beam, evaluating the mod lation is formed in the signal, the calculated absolute phase difference in each case with the correct sign absolute reference phase ϕR is added, which results from the experimentally predetermined at least once th position of the reference plate zOR in the object space and related to the lighting lens and the Geometry data of the optical arrangement is calculated, which results in this arithmetic operation an absolute object phase ϕObj for each object point that points to a reference point in the object space is related
and calculate the absolute reference phase value from the signal curve of the associated reference point net and stored as an absolute reference phase value. Furthermore, a method for 3D recording of object surfaces in a scene is proposed, at which is preferably the absolute phase difference ΔϕGrid from the phase of the structured, luminous array itself can be derived in such a way that the - from the ar rays and the receiver array in each pixel of the receiver array signal waveforms a reference point and an object point - each in the 2π environment of the maximum modulation calculated mod 2π phase positions with the correct sign to the continuously measured absolute phase ϕR of shifted structured luminous arrays. Furthermore, a method for 3D recording of object surfaces in a scene is proposed, at which is preferably the absolute phase difference ΔϕGrid from the phase of a co-moved ref renzgitters can be derived in such a way that the - from which when you move the structured glowing Arrays and the receiver array in each pixel of the receiver array resulting waveforms a reference point and an object point - each in the 2π environment of the maximum modulation calculated mod 2π phase positions with the correct sign to the continuously measured absolute phase ϕR of with a shifted reference grid. Furthermore, a method for 3D recording of object surfaces in a scene is proposed, at which is preferably the absolute phase difference ΔϕGrid from the phase of the structured, luminous array itself is derived in such a way that the - from the when the structured illuminated array and Receiver arrays in each pixel of the receiver array signal waveforms of a Refe point and an object point - mod 2π phase positions calculated exactly at the modulation maximum with correct sign to the constantly measured absolute phase of the shifted structured shining Arrays ϕR Furthermore, a method for 3D recording of object surfaces in a scene is proposed, at which is preferably the absolute phase difference ΔϕGrid from the phase of a co-moved ref renzgitters is derived in such a way that - from when the structured illuminated array is moved and receiver arrays in each pixel of the receiver array signal curves of a Re  reference point and one object point - mod 2π calculated exactly at the maximum modulation Phase positions with the correct sign to the constantly measured absolute phase of the shifted refe border grid ϕR Furthermore, a method for 3D recording of object surfaces in a scene is proposed, at which preferably additionally takes an image of the object via the illumination beam path or the scene is performed with an additional receiver array and the picture elements of the additional The receiver arrays each experience a linear shift in the array space. The realization of a second observation direction enables a better detection of the scene. So the formation of shadows can be reduced. Furthermore, a method for 3D recording of object surfaces in a scene is proposed, at which preferably additionally illuminates the object or the scene with a additional, structured, luminous array with luminous surface elements with extremes of luminosity density and these extremes parallel to a straight line gAP2, which is mirror-symmetrical to Gera the gAP is to be moved on displacement paths in the array space. The realization of a second lighting direction enables better illumination of the scene and reduces shadows on the object surfaces if necessary. Furthermore, a method for 3D recording of object surfaces in a scene is proposed, at preferably the information required for the evaluation method about the absolute, lateral invarian te object phase by optical determination of the absolute phase ϕGrid directly from the shift of the structured luminous arrays through optical coupling with a grid structure as counter grid and a zero point encoder for the calculation of the absolute, laterally invariant object phase Furthermore, a method for 3D recording of object surfaces in a scene is proposed in preferably the information required for the evaluation method about the absolute, lateral invarian te object phase by optical determination of the absolute phase ϕGrid directly from the movement of one rigidly coupled with the structured illuminated array reference structure is derived. Here is the ser an evaluation system and a zero point transmitter for the calculation of the absolute, laterally invariant Object phase assigned.The reference structure, for example on the circumference of a rotating disk; is preferably an Auswer system and a zero point encoder assigned to be able to evaluate the information of the reference structure nen. Starting from a zero point, the absolute, laterally invariant object phase can be determined will. But it can also generally be in any units, for example in a country unit or in the form of counts that can embody path increments, a reference value which is an equivalent for the absolute, laterally invariant object phase. Furthermore, a method for 3D recording of object surfaces in a scene is proposed in preferably reading out the elements of the receiver array when the values of the Reference phase mod 2π is carried out, i.e. asynchronously to the reference phase ϕGrid is carried out, where the current trigger pulse for the detection of light from the elements of the receiver  Arrays in the time interval Δti for a given precision mechanical-optical arrangement for 3D Recording depending on their geometry, the arrangement and the location of the convergence points K1 and K2nd and depending on the current value of the absolute reference phase ϕGrid for each Element is calculated and is in a phase correction value table. So in every element of the Receiver arrays generated a signal curve with at least approximately constant spatial frequency. There the elements of the receiver array are read out in successive at least approximately same phase steps Δϕreceiver the phase ϕreceiver in each element of the receiver array and the in relation to the phase step size Δϕreceiver even smaller deviations ΔΔϕ between the ref phase and the resulting phase ϕ in an element of the receiver arrayreceiver than from the Reference phase ϕGrid dependent phase correction values ΔΔϕ are calculated at least once for each el ment of the receiver array. This from the reference phase ϕGrid dependent phase correction values ΔΔϕ and are thus in a phase correction value table and are stored. The phases Correction values ΔΔϕ are used both for the determination of the respective sampling point and for the Be absolute phase calculation used. Furthermore, shifts in the luminous area chenelemente FEL performed, the images of the displacement distances VSBAj a cluster of routes SB1 with a convergence point K1 With knowledge of the geometry of the arrangement, the position of the convergence points K1 and K2nd and knowledge of the position of the real displacement distances, the time of the sampling interval Δti missed ben to get at least approximately a signal with a constant frequency that very quickly A method for 3D recording of object surfaces in a scene is also proposed, at preferably the glowing surface elements FEL - and thus also glowing surface elements FEL local extremes of luminance - in the array space on displacement lines VSBAj be postponed with the B routes BSAj coincide, and the B routes BSAj by means of a two-stage mapping level. At the same time, light is detected from the elements of the object surface areas for the duration of a time interval Δti through the elements of the receiver array. These will read out and so a signal value is obtained and so is a luminous area chenelement FELj on each B section BSAj positioned, and the pictures of these B routes BSAj will after the first picture with a lighting lens to a cluster of lines SB1 with a Convergence point K1 shaped and one to the point of convergence K1 optically conjugate point K1con is in the object space in the center of the pupil PZOA of the imaging beam path mapped in the object space. During the moving process of structured illuminated array and receiver array an image of a receiver element and an image of a luminous surface element constant relative luminance of the structured, luminous surface in the object space at least close approximately together on the image of a B-section BSAj brought and so are from the picture of egg nem element of the receiver array and the image of a luminous surface element FELj each A pair with a fixed assignment is formed and thus generates such pairs of images in the object space. In this method, the telecentric case for the illumination and the imaging in the object space is one closed, d. H. the pupil in the object space can also lie in infinity. The observation  can be done with a camera from above. It is advantageous that only the structured illuminated array and the receiver array is moved, but not an object. This method is therefore exemplary It is suitable for the 3D recording procedure in surgical operations, since the Pa tient and the heavy 3D recording device can remain at rest. It is also advantageous that In the case of a telecentric beam path, the effective wavelength is constant in the entire object space. The luminous surface elements FEL can constantly be found on the B sections BSAj are located. No knowledge of the location and shape of the object surface is necessary if a large one Depth range is selected in the object space. With prior knowledge of the location and rough shape of the Ob ject surface, the time range ΔtB be made smaller for flat objects if it is known where the object surface is and the tangent plane adjacent to the object surface is at least approximately perpendicular to the optical axis of the illumination lens. The angle for the observation axis and the imaging axis is basically in relation to the tang tial plane of the object surface selectable, so that on the one hand a vertical observation and oblique Illumination possible and, on the other hand, vertical illumination and oblique observation are possible. Furthermore, a method for 3D recording of object surfaces in a scene is proposed preferably the B routes BSAj by means of an afocal illumination beam path with an in lower focus FBi are mapped and the object surfaces with an afocal imaging beam lengang with an inner focus FAi are shown and the focus of the afo in the object space kalen illumination beam path and the afocal imaging beam path coincide. Soon early detection of light from the elements of the object surfaces takes place for a period of time tervalls Δti through the elements of the receiver array and these are read out and so is each obtained a signal value. The point of convergence K1 is at a distance dK1 from the optical axis the lighting lens positioned, the distance dK1 half the distance from the inner focal point FBi the afocal imaging level from the point of intersection of the axis of the imaging beam path through the inner focal plane Fi corresponds to the illumination beam path. Here are the lighting tion lens and the imaging lens on the outward-facing side of the afocal image at least approximately telecentric. This is how luminous surface elements become te FEL and thus also the luminous surface elements FEL in a luminance distribution with local Ex trema of the luminance at least approximately parallel to a straight line gA on displacement routes VSBAj postponed. The straight line gA penetrates the focal point FFROM of the lighting lens in the ar ray space and for the straight line gA is the increase with the amount from the quotient focal length of the Be lighting lens and distance dk1 realized, the increase to the main level of the figure ob is related to jective. At least approximately there will be a linear shift of the receiver array shine parallel to the optical axis of the imaging lens at the same speed as that de array is carried out and when the two arrays are moved several times in succession Signal values are read from a single element of the receiver array. So a Signalver run formed from a single element of the receiver array and with an illustration in the illustration The level of displacement of elements created several times is derived from their images in the Space at least approximately at least one route bundle SB after the imaging level2nd with a Convergence point K2nd in the inner focus FAi of the imaging lens.  During the shifting process from a structured illuminated array and a receiver Arrays are preferably an image of a receiver element and an image of one luminous surface element FELj in the object space at least approximately together in the picture BSOj a B section BSAj brought to coincidence and postponed together. So the picture of one element of the receiver array and the image of a luminous surface element FELj each a pair with a fixed assignment is formed and so such pairs of images are ver in the object space This procedure represents the telecentric case for the lighting and the imaging in the object space, d. H. the pupil in the object space is infinite. The observation can be done with a camera from done above. It is advantageous that only the structured illuminated array and the receiver array move Need to become. The luminous surface elements FEL are preferably permanently on the B- Routes BSAj. No knowledge of the location and shape of the object surface is necessary. With prior knowledge of the location and rough shape of the object surface, the time can usually rich ΔtB be made smaller for flat objects if it is known where the object surface is The distance dK1 corresponds to half the distance from the inner focal point F.Bi the afocal mapping step fe from the point of intersection of the axis of the imaging beam path through the inner focal plane Fi of Illumination beam path. This is equivalent to the fact that the convergence point K1 in the Point of intersection of the bisector of the axes of the illumination beam path and the image is the angle for the observation axis and the imaging axis in relation to the Tangen tial plane of the object surface selectable, so that on the one hand a vertical observation and oblique Illumination possible and, on the other hand, vertical illumination and oblique observation are possible. Furthermore, a method for 3D recording of object surfaces in a scene is proposed which preferably the elements of the receiver array in the acquisition process light from the elements the structured illuminated object surfaces in the object space and the two receiver Arrays used to record the structured illuminated object surfaces in a scene in the object space be used during the recording process at the same time in the array space on displacement paths ASA1  and ASA2 which are at an angle to one another, with at least two imaging beam paths for the 3D recording of the background of the scene for imaging the object surfaces with a first imaging lens in the first imaging beam lengang and a second imaging lens arranged in the second imaging beam path, the Imaging lenses have spatially separate aperture stops and each imaging lens with is assigned to at least one receiver array with elements or an image of the same. The Focal planes of the imaging beam paths intersect in the object space, the intersection line SG is perpendicular to the symmetry line SL in the main section, and the pictures of the displacement distances ASA1 and ASA2 the routes ASO1 and ASO1, approximately on the line of symmetry between the two ach sen of the lenses are brought to convergence and there at a coincidence point K0 converge at the point of convergence K0 the route cluster S21 of the images of the displacement distances ASA1j the  individual element of the first receiver array, the routes ASO1j, with the convergence point K21  and the route cluster S22 of the images of the displacement distances ASA2j of the individual elements of the second receiver array, the AS stretchO2j, with the convergence point K22 brought to coincidence. The images of the elements of the first receiver array and the images of the elements of the second receiver ger arrays are in the object space for the time range ΔtB in pairs at least approximately to knockout brought incidence and the pair-forming elements of the two receiver arrays each correct sponding elements. The signal curves S1 of the first receiver array are selected by reading out one element each rend the displacement of the first receiver array on the displacement path ASA1j formed and the The first receiver array is shifted parallel to a straight line gA1P performed and so who the elements of the first receiver array are at least approximately parallel to a straight line gA1P on Displacement lines ASA1j postponed. The signal profiles S2nd of the second receiver array by reading out one element each while moving the second receiver array on the Displacement distance AS2y formed and the displacement of the second receiver array takes place immediately in time with that of the first receiver array and the displacement of the second receiver array parallel to a straight line gA2P performed and so are the elements of the second receiver array at least approximately parallel to a straight line gA2P on displacement routes ASA2j postponed. The Even gA1P is in a point PA1 in the main plane of the imaging lens in array space and the Even gA2P is in a point PA2 cut in the main plane of the imaging lens, where in addition the straight line gA1P the focus FA1 of the first imaging lens and the Ge straight gA2P the focus FA2 of the imaging lens in A 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880rray space. The point P lies hereA1  at the point of intersection of a straight line through the main plane of the first imaging lens in the array space, which is parallel to the optical axis of the same, and in addition the coincidence point K0 contains. The Point PA2 lies at the point of intersection of a straight line through the main plane of the second imaging lens in the array space, which is parallel to the optical axis of the same, and in addition the coincidence point K0  With focus settings at a great distance from the 3D recording arrangement, this corresponds to positioning of the luminous surface elements FEL of the structured lighting near the Focal plane of the lighting lens in the array space, for example on the background of a scene, the illuminated surface elements FEL of structured lighting can no longer be shown can be detected. The given lighting and the structured lighting, if there is one makes a detectable contribution, are mixed anyway. So can the absolute phaseSection no more to can be reliably determined. This is why the following evaluation method is preferred Due to the natural structuring of the partially structured or naturally illuminated and also self-illuminating object surfaces are those recorded in each element of the receiver array Waveforms S1y and S2y more or less modulated. From the evaluation of this modulation, the be occurs especially on the sharply depicted elements of the object surface, the zO-Position of each because the associated element of the object surface are determined. The two signal curves S1y and S2y of two corresponding elements1j and2ndj the recipient  Arrays are about to move the two receiver arrays in a computer's memory filed. The elements of two receiver arrays represent corresponding elements, whose images in the object space coincide in a volume of focus at least at one point in time. So form exactly one element of the first and one element of the second receiver array in one seed volume at least at one point in time a pair of corresponding elements. Each of the two signal curves S1y and S2y using a window function with at least at least one window, with a minimum window length corresponding to two signal values and one ner maximum window length, which is at least approximately the length of the signal curves S1y and S2y  corresponds to overlapping signal pieces S1 part j and S2 part j in each of the two signal profiles S1y and S2y  formed from the windows. Window lengths with a length of, for example, 8 or 16 are advantageous Signal values, other, even larger values are possible. This window function is shifted synchronously by at least one signal value that corresponds to an In Krement corresponds to the displacement of the receiver arrays, over each of these two waveforms S1y  and S2y and each current window in position k, with 1 ≦ k ≦ m, becomes a signal piece S1 part position kj and S2 part position kj These successively formed signal pieces S overlap1 part j position kj and S2 part j position kj in each that of the two waveforms S1y and S2y in a sub-area and at the same end of each two waveforms S1y and S2y by moving the window function in both signal pieces Then, each time starting from two signal pieces in position 1 S1 part position 1 j and S2 part position 1 j, the cross-correlation function is calculated, but previously one of the two signal pieces is inverted, i.e. all values of the same are mirrored, and thus from an original signal Piece S1 part position 1 j and from an inverted signal piece S2 part position 1 INV j the maximum of cross corrections MCC function1 2 j position 1 between 0 and 1 is calculated and stored. The inversion is necessary in order to obtain correlatable signals since the imaging beams of the ele elements of a corresponding pair at least in the object space when moving Approximately the same section of the scene in the opposite direction along a track move, for example towards each other. This track lies parallel to the main cut of the 3D Recording arrangement.After calculating the maximum of the cross-correlation function MCC1 2 j position 1 in position 1 he follows the shifting of the window function to position 2, so that for the next two signal pieces the maximum of the cross-correlation function MCC1 2 j position 2 is calculated in the manner described the window function at the other end of the two signal curves S1y and S2y Arrived in position m is and again the maximum MCC1 2 j position m the cross-correlation function MCC1 2 j position m be is true. From the m calculated maxima MCCm a maximum value curve is formed, with the This maximum value curve in turn the resulting maximum Mmj between 0 and 1 is determined and the location of the maximum Mmj the maximum value curve of the two original signal curves and thus the path of the displacement of the two receiver arrays is assigned. This maxi calculated in this way Malwert curve can have the course of a Gaussian function. To prevent errors, one can  Intensity threshold can be used, causing signal pieces with very low average intensity from the further processing can be excluded. The maximum of the maximum value curve can also be about a focus is made. Interpolation methods can be used to determine the location of the maximum M determined in this wayj as a place to correspond to the two the elements1j and2ndj associated image of the respective element of the object surface in the array Space defined. From the location of this maximum Mj in the array space the zO-Coordinate of the respective element of the Object surface in zODirection calculated using Newton's mapping equation and so too the xO- and yO-Position of the respective element of an object surface, since the geometry of the 3D Recording arrangement is known. So the positions of the elements of an object surface, from which waveforms can be recorded, the geometry of the 3D recording arrangement known and the displacements, including the increment of the displacement Exercise, the two receiver arrays are predetermined. This curve calculated over the path of the shift can the course of a Gaussian function exhibit. The maximum is determined in this curve, the location of the maximum of the course venzuges the two original waveforms S1y and S2y and thus the path of displacement is arranged. The maximum of the curve can also be done by forming a center of gravity. The place of the maximum is defined as the location of the associated element of the object surface. In This method can be used as a correlation method with two windowed waveforms and one piecewise inverted waveform to determine the zO-Position of an element of the object surface. It is referred to in the revelation under this name on this Correlation methods with two windowed signal profiles are referred to even further. Furthermore, for the determination of the average illuminance of elements the Object surface at least the elements of the receiver array in the process of moving the receiver ger arrays read out, which were at least approximately each on a route in the displacement process in the array space, which is determined by a fixed imaging beam in the object space. The electronically controlled displacement of the luminous surface elements FEL and that of the Arrays to another location can be done by mechanical or micromechanical means. The two axes of the imaging lenses can be inclined to each other. With a parallel arrangement Point P falls on the two axes of the imaging lensesA1 and the point PA2 in point PA to together. In this case and when the raster constants and the active areas of the receiver arrays agree and the imaging lenses are at least approximately identical and the recipient ger arrays are at least approximately together in one plane form all elements of the corresponding pairs in both receiver arrays. The real shifts of the two emp catcher arrays on the displacement lines ASA1 and ASA2 and their pictures ASO1 and ASO2 in object dream form the letter Y, so that here the demarcation from the 3D-Y method is used can.  When determining the 3D point cloud, the previously described ver drive with the displacement of the luminous surface elements FEL and the determination of the absolute Phase. The correlation method just described is used for the background set. A transition area is necessary. The procedures may need to be timed successively applied to bridge a transition area without loss of information to be able to. This is necessary because the method for determining the absolute phase changes in the Rule the elements of the receiver array on ASAj- Stretch, i.e. parallel to the axis of each Move imaging lens. In contrast, the receiver arrays are shifted with the 3D-Y Process preferably on other routes, the two upper Y branches. This requires one at a time other mechanical movement and thus also the control of the receiver arrays. For the 3D Y Method with the described determination of the correlation maximum Mj finds the shift of the luminous surface elements FEL on lines parallel to the axis of the respective lighting object tivs instead. In the phase-evaluating process, the signal curve generated by an element of the object upper surface, the average illuminance of an element of the object surface and also its color, if necessary, through the use of color-sensitive elements of the receiver Arrays can be determined from the detected waveform. This is for the correlati described here ons procedure, however, not easily possible, since a displaced element of the receiver array is not bound to a fixed imaging beam, but to an imaging beam that extends over the Object surface "migrates", or to different imaging beams from different ones Elements of the object surface or the scene, which is why they are also used for the correlation process to determine the average illuminance ke of elements of the object surface preferably exactly the elements of the receiver array in the Displacement process of the receiver arrays read out, each at least approximately on one Distance in the array space, which is predetermined by a stationary imaging beam in the object space, a fixed imaging beam in the object space through a fixed element of the object surface che or the scene and the pupil center of the associated imaging lens is predetermined. The means before and after the focus volume passes through the elements of the object surface At least one signal value is obtained from an element thereof. So the influence of the structured light in the elements of the object surface by its blurred image for the Determination of the average illuminance are eliminated and so is the color, respectively the spectral composition of the reflected light from an element of the object surface be true. The 3D point cloud can also be seen from a free space scene with a foreground Furthermore, a method for 3D recording of object surfaces in a scene is proposed, at which is preferably the straight line gA1P at a point PA in the main plane of the imaging lens and in Point of intersection of the symmetry line SL in the array space and the straight line gA2P at the same point PA to the Be cut, the optical axes of the two imaging beam paths are parallel are ordered, and the line gA1P additionally the focal point FA1 of the first imaging lens and the Even gA2P the focus FA2 of the imaging lens included in the array space.  With this parallel arrangement of the two axes of the imaging lenses, point P fallsA1 and the Point PA2 in point PA together. In this case and when the grid constants and the active areas of the receiver arrays match and the imaging lenses are at least approximately constructed are the same and the receiver arrays are at least approximately together on one level all elements of the two receiver arrays form corresponding pairs. The real ver shifts of the two receiver arrays on the shift paths ASA1 and ASA2 and their picture the ASO1 and ASO2 in the object space form the letter Y, so that here to differentiate from the 3D-Y- A method for 3D recording of object surfaces in a scene is also proposed which preferably structures the receiver elements in the recording process light from the elements Detect illuminated object surfaces in the object space and during the recording process the two emp catcher arrays simultaneously and parallel to the respective optical axes of the parallel imaging lenses, whose main levels coincide, are shifted. They are for the 3D shot of the back Because of the scene, at least two parallel, at least approximately identical imaging beams Lengths for imaging the object surfaces with a first imaging lens in the first image tion beam path and a second imaging lens arranged in the second imaging beam path and the imaging lenses have spatially separated aperture stops. Any imaging lens is assigned at least one receiver array with elements or an image of the same and the Si gnal S1z is done by reading out laterally adjacent elements during the shift of the first receiver array in the direction of the optical axes so that it corresponds to a real Displacement parallel to a straight line gA1P resulting signal S1 corresponds at least approximately, and the signal S2z is achieved by reading out laterally adjacent elements during the Displacement of the second receiver array in the direction of the optical axes formed so that this Signal S2z that with a real shift parallel to a straight line gA2P resulting signal S2nd to corresponds at least approximately. The straight line gA1P is in a point PA in the main level of the first Imaging lenses in array space and the straight line gA2P is in the same point PA in the main level of the second imaging lens, which at least approximates the main plane of the first imaging lens collapses approximately, brought to the cut and in addition the straight line contains gA1P the focal point FA1 of the first imaging lens and the straight line gA2P contains the focal point FA2 of the fig tion lenses in array space, with shifts of the luminous surface elements FEL through leads and the associated displacement distances VSBAj parallel to the symmetry line SL of the two optical axes are aligned and the point PA at the point of intersection of the symmetry line SL through the coinciding main planes of the two imaging lenses. From the pictures of the various Exercise routes VSBAj becomes a cluster of routes SB1 with a convergence point K1 on the line of symmetry SL formed with the convergence point K0 The foreground of the scene is illuminated in a structured way. The distant background of the scene will not more of the structured, illuminated surface elements are illuminated. Here instead of the determ absolute phase ϕSection then the correlation principle for determining the zO-Positions of the elements of the object surface. The advantage is that there is no lateral movement of the luminous area Chen elements is necessary. This method is also suitable for a free space scene.  It is also possible that the main plane of the imaging lens in the array space and the main plane ne of the imaging lens coincide in a common plane. The point PA1 in the main plane of the imaging lens in the array space on the symmetry line SL and the point PA2 in the main plane of the imaging lens space lies on the symmetry line SL and so are the two Points PA1 and PA2 A method for 3D recording of object surfaces in a scene is also proposed preferably in the time intervals Δti the detection of light the luminous surface elements FEL can be shifted relative to the illumination lens and thereby at least at a time ti within of the time interval Δti always on a B route BSAj be positioned, the B routes being the target locations for the luminous surface elements FEL at least at a time ti within the time interval Δti  represent and the B-sections always the axis of the lighting lens at a right angle to cut. At least in a time range ΔtB during the shifting process of the luminous Surface elements are exactly one image of a fixed element of a fixed one Receiver and exactly one image of a luminous surface element FELj in the object space at least at a single time ti within each time interval Δti at least the detection approximately together on the picture of a B-section BSAj positioned and so at least becomes this Time ti from the image of a receiver element and the image of a luminous surface element tes FELj a pair with a fixed assignment is formed in the object space. The time ti for at least one The element of a receiver array becomes the passage of at least one luminous area element mentes derived from a predetermined reference location. Detect the elements of the receiver array ren in the time interval Δti the coincidence a periodic waveform and the phase of this signal lapse fes is evaluated in relation to the phase at the reference location. This is an approach in which only the existing depth of field in the imaging beam path is indicated is used. There is no displacement of the luminous surface elements FEL and the elements of the Receiver arrays in e.g.ADirection in array space. This method enables the detection of itself rapidly changing shape of an object surface or its deformation, or the detection of vibrations of the elements of a surface. Furthermore, a method for 3D recording of object surfaces in a scene is proposed, at preferably with an object surface illuminated by a radiation source with a first and at least one second imaging beam path, the axis of a first imaging object tivs for imaging the object surfaces parallel to the axis of a second imaging lens for the Image of the object surfaces is aligned, and so between the two axes of the two Abbil Lenses a symmetry line SL is formed. At least one is to each imaging beam path ordered receiver array and the two receiver arrays each have receivers elements on the recording process in the time range ΔtB Light from the elements of the illuminated Ob Detect object surfaces in the object space and
the two imaging lenses have a distance d of at least one eighth of the extent the aperture of the first imaging lens and the two receiver arrays experience in Recording process in the time range ΔtB one move to another location. This is how they are  individual receiver elements shifted and thus detect the receiver elements at under different places electromagnetic radiation. At least approximately at the same time the De detection of light from the elements of the object surfaces for the duration of a time interval Δti through the Elements of the receiver array and the elements of the receiver array are then read out The optical axes of the two imaging beam paths are preferably arranged in parallel. It is preferably spatially uniform illumination of object surfaces in the foreground and against possibly also the more distant background of the scene, for example also from a free During the recording process, the two receiver arrays are simultaneously and parallel to the respective op table axes of the imaging beam paths, the focal planes of which coincide in the object space Displacement lines ASA1 and ASA2 postponed. The pictures of the displacement distances ASA1 and ASA2, the routes ASO1 and ASO2, are at least approximately in the object space on the line of symmetry between positioned between the two axes of the lenses21st of the images of the displacement distances ASA1j of the individual elements of the first receiver arrays that stretch ASO1j becomes a convergence point K21 formed and from the Strec kenbüschel SB22 of the images of the displacement distances AS2y of the individual elements of the second emp catcher arrays that stretch ASO2j, a point of convergence K22 formed and the point of convergence K22  and the convergence point K22 are brought to coincidence on the symmetry line SL and form the line of symmetry SL the point of convergence K0 and the two receiver arrays are moved so that their images at least partially coincide in the object space, so that the images of the elements of the first receiver arrays and the images of the elements of the second receiver array in the object space in pairs at least approximately to be brought to coincidence, the pair-forming elements te of the two receiver arrays each represent corresponding elements. So is preferred a current point of coincidence is formed from these two images of elements, which is determined by Ob space is moved. This is preferably done with all elements of the receiver arrays. It who the preferably waveforms S1 the first receiver array by reading the elements during the displacement of the first receiver array on the displacement path ASA1j formed and it becomes the displacement of the first receiver array parallel to a straight line gA1P performed and so who the elements of the first receiver array are at least approximately parallel to a straight line gA1P on Displacement lines ASA1j Signal curves S2nd of the second receiver array by reading out the elements rend the displacement of the second receiver array on the displacement path ASA2j formed and the displacement of the second receiver array becomes parallel to a straight line gA2P performed and such the elements of the second receiver array are at least approximately parallel to a straight line gA2P  on displacement routes ASA2j shifted, shifting the second receiver array at least approximately at the same time as that of the first receiver array. The straight line gA1P becomes at a point PA1 on the symmetry line SL and in the main plane of the first imaging lens in Array space and the straight line gA2P is in a point PA2 on the symmetry line SL and in the main level ne of the second imaging lens brought to the cut, the straight line gA1P additionally the focal  point FA1 of the first imaging lens and the straight line gA2P the focus FA2 of the picture object tivs in the array space. From the two signal curves S1y, P2y of two corresponding elements1j and2ndj the recipient Arrays is generated by the previously described correlation method with two windowed signals and an inverted waveform to determine the zO-Position of an element of Object surface the zO-Coordinate of the respective element of the object surface in zO-Direction be calculates and so does their xO- and yO-Position and so the entire 3D point cloud from object top areas calculated in a scene, the geometry of the 3D recording arrangement being known and the ver shifts of the receiver arrays are predetermined. The shift of the receiver arrays can be an electronically controlled, mechanical Act movement. It is also possible that the main plane of the imaging lens in the array Space and the main plane of the imaging lens coincide in a common plane. So is given that the point PA1 in the main plane of the imaging lens in the array space on the Symme trielinie SL lies and the point PA2 in the main plane of the imaging lens space on the symmetry line SL lies and so the two points PA1 and PA2 at a point PA to be brought to coincidence, which is the 3D-Y method with a real shift of the two receiver Arrays on ASA1- and ASA2- Stretch, i.e. on the top two Y branches. So of free space scenes in daylight - including direct sunlight - from object surfaces even in the background of the 3D point cloud can be obtained. Furthermore, a method for 3D recording of object surfaces in a scene is proposed the preferably illuminated object surfaces with a first and at least a second image beam path. The axis of a first imaging lens is in the illustration Beam path for imaging the object surfaces parallel to the axis of a second image aligned in the imaging beam path for imaging the object surfaces. So is two A symmetry line SL is formed between the two axes of the two imaging lenses. At least one receiver array is assigned to each imaging beam path and the two emp catcher arrays each have elements that are in the recording process in the time range ΔtB Light from the Detect elements of the illuminated object surfaces in the object space, and the two imaging objects jective have a distance d from the pupil center PZIF of the first imaging lens from the pupil center PZOA of the second imaging lens in the object space of at least one eighth of the extent opening aperture of the first imaging lens. The two receiver arrays experience during the recording process in the time range ΔtB one electronically ge controlled, mechanical shift in the array space and so are the individual receiver elements elements are shifted and the receiver elements are detected electronically at different locations magnetic radiation.The detection of light from the elements of the object surfaces for the duration of a time interval Δti  by the elements of the receiver array takes place at least approximately simultaneously. The Elements of the receiver array are then read out and signal values are obtained in each case  and in the acquisition process, the two receiver arrays become simultaneous and parallel to each optical axes of the parallel, at least approximately identical imaging beam paths, de main planes collapse, shifted, illuminating the object surfaces in the scene The signal curve S1z is obtained by reading out laterally adjacent elements of the first Receiver arrays during the displacement of the first receiver array in the direction of the optical Axes formed so that exactly the elements of the receiver array are used for signal generation on ASA1 lie parallel to a straight line gA1P are aligned and the Point PA1 intersects in the common main plane of the imaging lenses. So the structure corresponds te waveform in the case of a real shift parallel to a straight line gA1P emerging signal course S1 at least approximately and the signal curve S2z is read from side by side lying elements of the second receiver array during the displacement of the second receiver Arrays formed in the direction of the optical axes so that exactly the elements of the receiver Arrays are used for signal formation, which are used on lines ASA2 lie parallel to a straight line gA2P  are aligned and which point PA2 in the common main plane of the imaging lenses The signal curve S thus corresponds2z that with a real shift parallel to a straight line GA2P resulting signal S2nd at least approximately. So at least at a time ti in a time interval Δti a current point of coincidence of elements of the two receiver arrays det in the time range ΔtB one after the other at different predetermined locations of the object mes is formed. The straight line gA1P is in a point PA1 at the point of intersection of the symmetry line SL through the main plane of the first imaging lens in the array space and the straight line gA2P is in a point PA2 in through intersection of the symmetry line SL through the main plane of the second imaging lens to the cut ge brings and also contains the line gA1P the focus FA1 of the first imaging lens and the Even gA2P contains the focal point FA2 of the imaging lens in the array space. From the two signal curves S1y, P2y of two at least one at a time elements of the receiver arrays is achieved by the correlation method already described above Ren with two windowed waveforms and an inverted waveform to determine the e.g.O-Position of an element of the object surface the zO-Coordinate of the respective element of the object surface calculated and so also their xO- and yOPosition and so the entire 3D point cloud of Object surfaces are calculated in a scene, the geometry of the 3D recording arrangement being known and the displacements of the receiver arrays are predetermined. In this case too, the optical axes of the two imaging beam paths are preferably parallel lel arranged. It is a spatially uniform illumination of object surfaces in the foreground and if necessary also the more distant background of the scene, for example also from a clear The main level of the imaging lens in the array space and the main level of the imaging lens can coincide on a common level. The point PA1 in the main level of the  Imaging lenses in array space on the symmetry line SL and the point PA2 in the main level of the Imaging lens space lie on the symmetry line SL and so the two points PA1 and PA2 in egg point PA to be brought to coincidence. It may also be the case that the recipient Arrays are an electronically controlled, mechanical movement. There is no real displacement of the two receiver arrays on the upper Y branches, but one Shift parallel to the optical axes of the two imaging lenses. So is by the end Reading method of the elements of the case of moving on the upper Y-branches simulated. Furthermore, a method for 3D recording of object surfaces in a scene is proposed preferably the structured illuminated array with areas LB.ARRAY j different luminosity te and with luminous surface elements FEL with at least approximately the same distance between the surfaces Chenelemente in the colors red, green and blue is formed, the repetition period WP the corresponds to three times the strip spacing of the individual differently colored surface elements. After a time range that is at least approximately the time range ΔtB corresponds to the structure colored colored array by 1.5 times the distance between the individual colored surface elements, this corresponds to half the repetition period WP laterally shifted, elements of the recipient ger arrays are color sensitive and to the wavelength spectrum of the luminous surface elements FEL This method enables a higher depth resolution for the correlation method already described solution, since the generally higher number of light-sensitive elements with color-sensitive emp catcher arrays, a fundamentally higher stripe density can be used when any glowing Area element FELj is counted individually in one direction as color strips. The signals in the individual wavelength ranges or colors processed individually. If a detect tes element of an object surface or a region of the object surface is monochrome, for example In the color red, only the red-sensitive element of the receiver array detects a signal curve. The elements immediately adjacent to this red-sensitive element with a non-red-sensitive one The characteristic then registers only a very weak signal or no signal at all. By moving the structured, luminous array laterally by preferably 1.5 times the distance between the individual colored surface elements is achieved, that the previously not from one predetermined color illuminated elements of the object surface are now illuminated. Here it is assumed that a FEL Broadening takes place on the object surface so that there are no gaps between the color strips. With This method can also be used to detect elements of different colors in the object surface evaluating method, for example in the vicinity of the scene. In this case, the colored, luminous surface elements FEL on the displacement lines VBS already describedAj  moved and the evaluation for the color-sensitive elements of the receiver array performed. From the The signal intensities in the three colors or wavelength spectra can be calculated in the Color television technology known way the color and the brightness signal for each detected Ele ment of the object surface can be obtained. For example, the Infor  tion about the average brightness, or illuminance or luminance, and the at least approximately spectral composition, i.e. the color, and the zO-Value who won the. From the known, predetermined position of the elements of the at least two receiver arrays and the known geometry of the 3D recording arrangement, the zO-, the xO- and the yO- Spatial coordinates for the entirety of the detected elements of the surfaces in one scene Furthermore, a method for 3D recording of object surfaces in a scene is proposed, at preferably the structured illuminated array with areas LB.ARRAY J different luminosity te and with luminous surface elements FEL with at least approximately the same distance between the surfaces Chenelemente in the colors red, green and blue is formed, the repetition period WP the corresponds to three times the strip spacing of the individual, brightly colored surface elements FEL. After a time range ΔtB, the structured, colored, glowing array is moved by the simple distance of the individual, colored glowing surface elements FEL, which is a third of the repetition period WP corresponds laterally displaced, the elements of the receiver array being color sensitive and are matched to the wavelength spectrum of the luminous surface elements FEL. This method enables a higher depth resolution for the correlation method already described solution, because of the higher number of elements in color-sensitive receiver arrays, a reason In addition, higher strip density can be used. There are preferably the signals in the one individual wavelength ranges, or colors processed individually. If a detected Ele element of an object surface or a region of the object surface is monochrome, for example in the Color red, only the red-sensitive element of the receiver array detects a signal curve. By moving the structured, color-illuminated array laterally by a simple Ab status of the individual colored surface elements is achieved that the previously not of a predetermined Color illuminated elements of the object surface are now fully illuminated. This is advantageous if a precision lens with a very good modulation is used. This results in a uniform illumination of the Object surface, and so elements in different colors of the object surface can be detected Furthermore, a method for 3D recording of object surfaces in a scene with at least one ner radiation source proposed that distinguished as a structured luminous array with areas Licher luminance is formed. Furthermore, at least one is preferably electromagnetic Radiation source using at least one structured array as a structured luminous array with Luminous surface elements FEL formed. Preferably, a structured array in the manner of a line grid with an upstream radiation source are used. Furthermore, a structured shining can be in the array space Array can be arranged, which as a lit by the radiation source classic line grating, as structured array, but can also be designed as an electronically controllable line grid. The Lini  engitter can create a symmetrical transparency profile with a cos2nd-Distribution or even a strong un Have a symmetrical transparency profile with a rectangular profile, the latter being comparative has only a few lines or only a single line. The latter case backs up a simple one Evaluation algorithm the uniqueness of the acquisition of measuring points. The radiation source and that Structured arrays together form the structured, luminous array. The locations of certain relative Luminance of the structured luminous array and also that of the local extremes of the luminance This structured, luminous array can be made electronically movable. The shining faces Chen elements FEL can be found at the locations of the phase ϕ = 0, as the location of maximum transparency The radiation source can be used for electromagnetic radiation in the visible and in the invisible spectral be designed range, for example in the spectral range from 750 nm to 900 nm. Also electromagnetic cal radiation in the infrared spectral range with wavelengths greater than 900 nm can be used Furthermore, at least one illumination beam path with at least one illumination lens has arrived orderly. The structured illuminated array is assigned to the lighting objective. But it can also an image of the structured, luminous array can be assigned to the illumination lens for imaging. The lighting objective has an effective aperture diaphragm with an extension D.B and one Aperture center BZB on. The structured, luminous array and the lighting lens are used for structured illumination of the object surfaces in the scene. Furthermore, there is at least one imaging beam path with at least one imaging level for the image arranged the elements of the object surfaces in the scene. This imaging lens is min assigned a receiver array. The imaging lens points to the elements of the Object surfaces an effective aperture diaphragm with an aperture center BZA on. This fig The objective is at least one receiver array with elements that light from the light during the recording process Detect, assign elements of the structured illuminated object surfaces in the object space. Here is the distance d from the pupil center PZIF of the lighting lens, as an image of the glare trums BZB in the object room, from the PZ pupil centerOA of the imaging lens, as an image of the glare trums BZA in the object space, at least one eighth of the dimension DB the aperture of the lighting The objective is to transform a luminous surface element into a luminance distribution with a preferred one at least approximately predetermined constant relative luminance with a pass agreed wavelength spectrum, which hereinafter referred to as luminous surface elements FEL by imaging with the lighting lens an image of a luminous surface element FEL formed in the object space. Especially in the case of small objects, the illumination and imaging beam paths can have a common mes front lens. Furthermore, a movement system with preferably at least one movable component is attached orders which is assigned to the structured, luminous array of this movement system. The Ver VSB sliding sectionsAj of the luminous surface elements FEL in the array space and are preferred  formed from the mechanical movement of the structured, luminous array. But it is also possible that at the same time an electronic shift of the luminous surface elements FEL, for example in lateral direction takes place and the movement system with at least one movable component a movement of the structured luminous array parallel to the optical axis of the lighting object tivs realized.After mapping these displacement distances VSBAj through the lighting lens into the object space, is their picture at least approximately as at least one cluster of lines SB1 with a conver point K1 educated. The point of convergence K1 preferably has a minimum distance dK1 min  from the axis of the lighting lens from the 16th part and a maximum distance dK1 max from 16 times the distance d. The pupils of the illumination and imaging beam paths are always spatially separated. However the focus areas of the illumination beam path in the object space fall with the focus areas of the Imaging beam path at least partially together. The illuminating rays and the figil In the object space, radiation beams form an angle with one another, the triangulation angle. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the con vergence point K1 at least approximately in the pupil plane of the illumination lens in the object space and be positioned in the pupil center of the imaging lens in the object space. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the ver VSB sliding sectionsAj the luminous surface elements FEL are at least approximately parallel be ordered and so the point of convergence K1 at least approximately in the focal plane of the lighting objective in the object space and in the pupil center of the imaging lens in the object space. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the conver point K1 at least approximately in the focal plane of the lighting lens and in the focal point of the Imaging lenses can be positioned in the object space. Furthermore, in the case of an arrangement for the 3D recording of object surfaces in a scene, the luminous array as electronically controllable line grid with controllability of the location of the lines and the line width. The lines can be arranged perpendicular to the main section and the displacement distances VSBAj of the glowing surface elements FEL and thus also the glow the surface elements FEL with local extremes of the luminance in the array space - as a result of me Chinese movement of the structured luminous array and the electronic control of the struktu luminous arrays can be formed in the array space. From these displacement lines VSBAj can in Array space in the main section and at least in every section parallel to the main section approximately at least one cluster of lines with a convergence point K1 be educated while doing the Convergence point K1 a minimal distance dK1 min from the axis of the lighting lens from 16th part of the distance d. The point of convergence K1 can be a maximum distance dK1 max  have from the axis of the illumination lens 16 times the distance d and between  Pupil plane and focal planes of the illumination lens can be arranged in the object space. Farther the point of convergence K1 of the main route section in the PZ pupil centerAA of the fig The objective lenses can be arranged in the array space and the convergence points parallel to the main section lelen cuts together with the convergence point K1 of the main cut on a straight line perpendicular be arranged to the main cut. The PZ pupil centerOA of the imaging lens and the pupils center PZ0B of the lighting lens in the object space can be arranged together on a straight line net, which is aligned perpendicular to the axis of the illumination lens. When the receiver array is shifted in a straight line parallel to the optical axis of the image Only elements of the receiver array are preferably read out jective and signal profiles are formed and to form a single waveform only selected elements whose locations when moving of the receiver array at least approximately in each case on a displacement path ASAj in the array Are arranged, the extension line each with a straight line perpendicular to the main section that contains the center of the exit pupil of the imaging lens is cut, whereby when imaging multiple routes generated with the imaging lens from their image in the main section of the object space, at least approximately at least one route bundle with one Convergence point K2nd in the PZ pupil centerOA the pupil of the imaging lens is formed. Furthermore, with an arrangement for the 3D recording of object surfaces in a scene, the light can tende array be designed as an electronically controllable grid and preferably the displacement stretch the locations of constant relative luminance of the structured, luminous surface and so on the locations of local extremes of luminance in the array space as a result of the mechanical movement of the structured illuminated arrays and the electronic control of the structured illuminated array in the Array space can be aligned and from these displacement distances in array space can at least approximately at least one route bundle with a convergence point KA1 be educated. The con vergence point KA1 of the route bundle can be found in the PZAA, the imaging lens in the array Space can be arranged and so the convergence point K1 in the object room in the PZ pupil center0A of Imaging lens can be arranged. The PZ pupil center0A of the imaging lens and the pupil center PZ0B of the lighting lens can be placed together on a straight line in the object space be arranged, which is aligned perpendicular to the axis of the lighting lens. With a straight line Shifting the receiver array parallel to the optical axis of the imaging lens can only the elements of the receiver array are read out and waveforms are formed and to form a individual signal curve, only elements are selected whose locations when moving the receiver Arrays are arranged at least approximately on a displacement path in the array space whose extension line is in each case the center of the exit pupil of the imaging lens cuts, and when imaging multiple routes generated with the imaging lens from their Images in the object space at least approximately at least one route bundle with a convergence point K2nd in the PZ pupil centerOA the pupil of the imaging lens. Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the ver VSB sliding sectionsAj of the luminous surface elements FEL at least approximately parallel to one  defined straight lines gAP be arranged. The luminous surface elements have FEL in one Luminance distribution preferably an at least approximately predetermined predetermined constant relative luminance. The straight line gAP intersects the focal point FFROM of the lighting lens in the ar ray space and shows the increase with the amount from the quotient distance of the pupil center PZOA the pupil of the imaging lens in the object space from the axis of the illumination lens and Focal length fB of the lighting lens, this increase in the straight line gAP on the axis of the Lighting arrangement. Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the one Component of the movement system is assigned to the receiver array, and so in the mechani rule movement of the receiver array on a displacement path A5 whose elements displacement Exercise routes ASAj be assigned on parallel straight lines, preferably from the images ASOj  of these routes ASAj when imaging through the imaging lens at least approximately at least a bundle of routes SB2nd with a convergence point K2nd can be formed in the object space. It can the point of convergence K1 and the convergence point K2nd with focus FOA and the pupil center PZOA the pupil of the imaging lens in the object space is at least approximately coincident Furthermore, the axis can be in an arrangement for 3D recording of object surfaces in a scene of the illumination lens and the axis of the imaging lens are arranged parallel to one another and the imaging lens on the side of the space of the arrays are designed to be telecentric Component of the movement system can be assigned to the receiver array and thus in the mechanical Movement of the receiver array on a displacement path AS whose elements displacement stretch ASAj be assigned on parallel lines, whereby from the pictures of these lines at Abbil tion by the imaging lens at least approximately at least one route bundle SB2nd With a point of convergence K2nd is formed in the object space. The point of convergence K1 and convergence point K2nd can with the focus FOA and the PZ pupil centerOA the pupil of the image ob jective in the object space at least approximately brought to coincidence and the lighting lens and the imaging lens is designed to be telecentric on the side of the space of the arrays. So The axes of the illumination lens and the imaging lens can be arranged parallel to one another be net and the focal planes of the same can be brought to coincidence in the object space Components of the movement system can be arranged so that in the array space with the focal point FFROM  of the lighting lens as a reference point for the luminous array an overall direction of movement at least approximately parallel to a straight line gA is realized in the array space, so that the elements of the structured luminous arrays on parallel straight lines to straight line gA move and this line gA  with focus FFROM of the lighting lens in the array space is cut and the Increase with the amount from the quotient focal length fB of the lighting lens and distance d of the Focal point FAA of the imaging lens in the object space from the axis of the illumination lens points, this increase in the straight line gA on an axis perpendicular to the axis of the lighting  Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, the movement system from two individual linear guides and the first linear guide to the Emp Catcher array assigned and the direction of movement of this linear guide at least approximately parallel to the optical axis of the imaging lens and the second linear guide of the first Linear guide and the structured luminous array can be assigned and the direction of movement second linear guide at least approximately perpendicular to the optical axis of the illumination lens be adjusted so that the structure as a result of the linear individual movements of the two linear guides luminescent array at least approximately parallel to the line gA Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the movement system, consisting of a single linear guide with a slide and a base, in space of the structured, luminous array and receiver array and the linear guide little at least be assigned to the structured, luminous array and the direction of movement for the structure The illuminated array is at least approximately parallel to the line gA be aligned in the array space. Furthermore, with an arrangement for the 3D recording of object surfaces in a scene, the movement system from at least two individual linear guides and the first linear guide moving components of the lighting lens for internal focusing and moving compo elements of the imaging lens for internal focusing and the second linear guide The structured, luminous array for movement perpendicular to the optical axis of the lighting objectively assigned. When using precise linear guides, a hochdy Named 3D recording arrangement can be realized. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the movement system made up of a linear guide and this assigned to the receiver array and the direction of movement of this linear guide at least approximately parallel to the optical axis of the Ab be arranged educational lens and be assigned a rotary drive of the linear guide and that structured illuminated array can in turn be assigned to the rotary drive. Furthermore, the structure can be in an arrangement for 3D recording of object surfaces in a scene luminescent array as a grid with a spiral figure as an Archimedean spiral with at least a gear and rotatably arranged and at least a section of the grid with the spiral figure can be used as a structured array, preferably in conjunction with the Radiation source, the structured luminous array is formed, and the axis of rotation of the grating with the spi raliform figure arranged parallel to the axis of the lighting lens and also a rotatori sher drive motor is assigned to the grid with the spiral figure.  To achieve a continuous recording of moving objects at a high speed can and at the same time the disruptive effect of impulsive reaction forces on the 3D To avoid recording arrangement, a lattice with a spiral figure as an Archimedean Spi rale be formed with at least one gear and rotatably arranged. The grid with the spiral gene figure is carefully balanced with respect to its axis of rotation. It will be a precision bearing used. A section of the rotating grid with the spiral figure serves as a structured light array. The axis of rotation of the grid with the spiral figure is preferably parallel to Axis of the lighting lens arranged. A computer is used to generate the rotary movement Controlled rotary drive motor assigned to the grid with the spiral figure. The phase of the grid with the spiral figure can be arranged with a radially arranged, quickly readable photo Diode row can be determined. A CCD line with an image reading frequency in the 10 KHz The image can also be used for an arrangement for 3D recording of object surfaces in a scene application lens together with the receiver array and the assigned components of the movement system around an axis, which the pupil center PZOA the pupil of the imaging lens pierces, be rotatably arranged in the object space. So the object surfaces can look out in a scene different directions can be observed without the predetermined by the lighting Solute phase is changed. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the Be lighting lens together with the structured illuminated array and the assigned components th of the movement system and the radiation source about an axis, which the pupil center PZOA  pierces the pupil of the imaging lens, can be rotatably arranged in the object space. So they can Object surfaces in a scene are illuminated from different directions. Furthermore, the structure can be with an arrangement for 3D recording of object surfaces in a scene The luminous array has a raster structure with equidistant spacing. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the line can a counter grating with the same grating constant and a zero point encoder. There is a particularly precise extraction of the absolute actual phaseGrid possible. So it can for that Evaluation methods required information about the absolute, laterally invariant object phase by optical Determination of the absolute actual phaseGrid directly from the movement of the illuminated line grid optical coupling of the line grating with a counter grating and a zero point transmitter using an electronic evaluation module with a computer interface for the calculation of the absolute, la terally invariant object phase. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, a trans  Parent optical plate of the 3D recording arrangement as a permanently remaining reference plate in the Near distance can be assigned, preferably on at least one of the two surfaces of the optical Plate has a weakly light-scattering microstructure. Furthermore, with an arrangement for the 3D recording of object surfaces in a scene, the lighting can tion beam path with an afocal system with an inner focal point FBi be built and the Imaging beam path with an inner focal point FAi and in the object space the focal point of the afoka len illumination beam path and the focal point of the afocal imaging beam path at least approximately coincide and the point of convergence K1 at a distance dK1 from the optical Axis of the lighting lens can be arranged, the distance dK1 half the distance from the inside focal point FBi the afocal imaging level from the point of intersection of the axis of the imaging beam ganges through the inner focal plane Fi corresponds to the illumination beam path, with the lighting tion lens and the imaging lens on the outward-facing side of the afocal image stages are at least approximately telecentric. The movement system can be arranged with at least one movable component in such a way that whose direction of movement is at least approximately parallel to a straight line gA is adjusted and so bright ting surface elements FEL on displacement lines VSBAj be shifted and the line gA  can focus FFROM pierce the lighting lens in the array space and for the straight line gA  can the increase with the amount from the quotient focal length fB of the lighting lens and Ab stood dK1 be realized, the increase being related to the main plane of the imaging lens, and a displacement of the. at least approximately parallel to the optical axis of the imaging objective There is at least one fixed deflecting mirror and can be assigned to the imaging lens structured array and receiver array lie in parallel planes and so only a single z-slide is arranged for the luminous array and the receiver array. This arrangement is very suitable for 3D images in macro space. The two objects ve also have very different focal lengths in the afocal system. Another advantage is that the effective wavelength is constant in the entire object space. The luminous surface elements FEL are constantly on the B routes BSAjThe distance dK1 preferably corresponds to half the distance from the inner focal point F.Bi the afocal Imaging step from the point of penetration of the axis of the imaging beam path through the internal focal bene Fi of the illumination beam path. This means that the convergence point K1 in the breakthrough point of the bisector of the axes of the illumination beam path and the imaging beams ganges through the inner focal plane of the illumination beam path. Basically, the angle selectable for the observation axis and the imaging axis, so that both a vertical observer and oblique lighting as well as vertical observation and oblique observation possible Furthermore, with an arrangement for 3D recording of object surfaces in a scene, two ver  sliding receiver arrays in parallel imaging beam paths in a common plane be ordered, the displacement of the first receiver array on the displacement path ASA1 and the displacement of the second receiver array on the displacement path ASA2 takes place. The Ver AS sliding routesA1 and the shift distance ASA2 can in a point PA in the too intersect the coincident array-side main plane, the elements of the first receiver Arrays on the displacement lines ASA1j and the elements of the second receiver array the displacement distances ASA2j The point of coincidence K21 of the images of the displacement distances ASA1jwho have favourited ASO1j, of the first Imaging beam path and the coincidence point K22 of the images of the displacement distances ASA2j, the AS routesO2j, the second imaging beam path illumination beam path can in the Koinzi point of interest KO collapse. The two parallel imaging beam paths can be in the middle and symmetrically a parallel illumination beam path with one on the displacement distance VSAP ver sliding structured illuminated array with linear elements in the plane of the two receivers ger arrays and the lighting lens can be arranged centrally and symmetrically, thus with an optical axis parallel to the two imaging beam paths, and its array main point HFROM can with the point PA collapse. The object-side focus FIF of Illumination beam path can with the coincidence point KO collapse, and it can be a Illuminated line grid can be arranged as a structured, luminous array. The receiver arrays preferably move real on the displacement paths ASA1 and ASA2 and the elements of the receiver arrays on the displacement paths ASA1j and ASA2j.Furthermore, with an arrangement for 3D recording of object surfaces in a scene, two ver sliding receiver arrays in parallel imaging beam paths in a common plane be arranged, the displacement of the first receiver array parallel on a displacement path to the optical axis and the displacement of the second receiver array on a displacement path takes place parallel to the optical axis. The elements of the two receiver arrays can thus be read out sen and signals are formed as if the receiver arrays are on displacement paths ASA1 would be located and the displacement distance ASA2 at a point PA in which collapse intersect the array-side main plane. The coincidence point K21 the images of the displacement lines ASA1jwho have favourited ASO1j, the first imaging beam path and the coincidence point K22 of the pictures the displacement distances ASA2jwho have favourited ASO2j, the second imaging beam path illuminate tion beam path can in the coincidence point KO collapse. To the two parallel illustrations The beam paths can be symmetrical and parallel with a parallel illumination beam path the displacement distance VSAP sliding structured illuminated array with linear elements be arranged in the plane of the two receiver arrays and the illumination lens can be in the center and be arranged symmetrically, that is to say with an op. parallel to the two imaging beam paths table axis, and its main point on the array side HFROM with the point PA coincides. The object side The focal point of the illumination beam path can coincide with the point KO collapse and a structured, luminous array can be arranged. The receiver arrays preferably do not actually move on the displacement paths ASA1 and  ASA2, but the elements of the receiver arrays that interact with the parallel displacement give the effect as if it were on the displacement paths ASA1j and ASA2j Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the illustration can Application lenses for the two receiver arrays and the illuminated array at least approximately be identical and their focal planes can coincide in the object space. The glowing array can be formed with bright colored stripes that are at least approximately strung together are, the luminous array of transmitting micro-elements and reflecting micro elements, and the structured array can be a red light source, a green light source and be assigned a blue light source, the light of at least one light source being the structured array interspersed in a focusing structure and the light from at least two light sources on micro The two receiver arrays and the structured array can be prepared using a motion system zisen, synchronous movement connected, the optically active levels of the two displaceable ren receiver array and that of the movable, structured illuminated array always in the same Plane can be kept, whereby the optically conjugate planes in the object space always coincide This ensures that a structured illuminated array is compared to color filtering Low-lust generation of at least approximately seamless color strips is made possible. The beam Sources can be laser light sources, colored light sources or conventional white light sources can be formed with color filters. Furthermore, an arrangement for 3D recording of object surfaces in a scene can be colored luminous array can be formed as a grid with an asymmetrical groove profile. This consists of Triangular profiles, which have macro profile surfaces, and at least has one on the entire grid approximately constant lattice constant between 0.01 mm and 2 mm, which as a macro Lattice constant is called. At least one radiation source for lighting is supplied to the grating At least approximately triangular profiles can be formed and on the surface of the grid the macro profile surfaces of the same each have a micro furrow profile with a within one dimension kro profile surface variable lattice constant of the micro furrow profile and a medium micro The same lattice constant between 0.0005 mm and 0.01 mm. So there is for the simple light has a focusing effect combined with a color splitting at least into the three colors areas blue green red. In this case, a diffractive reflection grating can also be used. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the Mi Krofurchenprofil be formed on the macro surfaces as an asymmetrical micro-triangular profile. Furthermore, the grid can be in an arrangement for 3D recording of object surfaces in a scene designed as a transmission grating with an asymmetrical groove profile with macro triangular prisms  The micro profile on the main surfaces of the macro triangular prisms is preferably as one Asymmetrical micro-triangular profile with micro prisms, each with a transmitting and simultaneously focusing element, two flanking, right inflected elements. The transmission grid can be a red light source, a green light source and a blue light source can be assigned, preferably the light of a light source luminous array interspersed in the focusing elements and the light from at least two separa th light sources strikes the reflective elements. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, Application lenses for the two receiver arrays and the illuminated array at least approximately be structurally identical and their focal planes coincide in the object space. The structured illuminated array is thereby from transmitting and simultaneously focussing micro elements and from reflecting Mi kroelemente formed, each with a transmitting and focusing element two flanking, reflecting elements are assigned. The structured illuminated array is a red assigned light source, a green light source and a blue light source, preferably the light one Light source penetrates the luminous array in the focusing elements and the light from minde at least two separate light sources at an angle of incidence of at least 10 ° onto the reflecting ones Elements meets. So with three individual light sources with comparatively little loss of light one can be colored luminous array. Furthermore, the two can be arranged in an arrangement for 3D recording of object surfaces in a scene Receiver arrays and the luminous array with a movement system for precise, synchronous loading be connected, preferably the optically active planes of the two displaceable Receiver arrays and those of the movable, structured, illuminated array always in the same plane ne are kept, whereby the optically conjugate levels in the object space are permanently coincident This means that in a structured, luminous array compared to color filtering, it is special Low-loss generation of at least approximately seamless color strips is made possible. A big one Most of the transmitted portion can pass through the luminous array and thus contributes to the illumination the object surface. It is also achieved that at least at a time ti in a time range Δti in a time range ΔtB the luminous surface elements FEL at least close approximately on a line parallel to a straight line gAP Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the structure a controllable adjusting mechanism for lateral movement. This adjusting mechanism on the structured array is preferably used for the comparatively slow late rale movement to gradually move each element of an object surface with the To be able to illuminate colors red, green and blue. This mechanism for lateral movement can move gradually backwards and forwards.  Furthermore, the structure of an arrangement for 3D recording of object surfaces in a scene luminescent array with areas LB.ARRAY j different luminance and with luminous areas chenelemente FEL be formed with micro-color dividers, so that preferably an almost planar Structure is formed. This leads to a very good light efficiency. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the structure can luminescent array with areas LB.ARRAY j at least approximately the same distance from the luminous surface elements FEL can be formed in one plane in the colors red, green and blue, whereby preferably the repetition period WP is different from three times the strip spacing of the individual corresponds to colored surface elements and preferably elements of the receiver array color-sensitive and FEL are matched to the wavelength spectrum of the luminous surface elements. Furthermore, the structure can be achieved with an arrangement for 3D recording of object surfaces in a scene rated array can be formed at least on a portion of a disc, which is preferably a rota toric precision bearing with a shaft is assigned to a rotary precision motor, so that a rotating disk is formed. Furthermore, the structure can be in an arrangement for 3D recording of object surfaces in a scene luminescent array on a rotating disk as a rotationally symmetrical transmission grating Furthermore, in an arrangement for the 3D recording of object surfaces in a scene on one outer frame area of the 3D recording arrangement a highly precise and highly dynamic measuring Measuring system for detecting the axial placement of a portion of the rotating disc from a Axial nominal position. The measuring system in its measuring function is preferably an annular area assigned to the rotating disc, so that in each case the axial storage in an annular area the same, caused by the axial and wobble of the rotating disc with high accuracy and The measuring system can have a capacitive, inductive or optical measuring principle. The meas systems is located in the immediate vicinity of the section of the structured structure depicted rays on the circular disc. For this purpose, the optical measurement is preferably located on the disk an at least partially reflective area of a continuous plane surface. The measuring system is located preferably in a throat of the highly stable frame made of a material with a preferably low temperature expansion coefficients such as ceramics or an iron-nickel Alloy. Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the outside Frame area of the 3D recording arrangement a highly accurate and highly dynamic positioning system for loading  Influence the axial storage of the target position of a portion of the rotating disc be net, which preferably as a component of a position control loop of the rotating disc is assigned, so that the axial offset of a sector, caused by axial impact and wobble the rotation of the circular disc, regulated in a highly dynamic manner and thus preferably a sub-area the rotating disk and thus also the axial position of at least a portion of the structured luminous arrays is held with high precision in the axial target position. The positioning system can be used as a piezo Actuator can be designed as a component of a position control loop. Furthermore, in the case of an arrangement for the 3D recording of object surfaces in a scene on the outside Frame area of the 3D recording arrangement a highly accurate and highly dynamic positioning system for loading Influence the axial storage of the target position of a portion of the rotating disc be net, which is preferably designed as a component of a position control loop and which rotate is assigned to the shaft, so that preferably the axial placement of a portion of the rotating Disc, caused by wobble when rotating, highly dynamically controlled and so in each case a partial area of the rotating disk and thus also the axial position of the structured, luminous one Arrays is held with high precision in the axial target position. The control system can also components of the Illumination lens assigned, so that the image of the structured illuminated Ar in the object space rays is always in the same position. The actuating system can be designed as a piezo actuator as a component of a position control loop. in the Both the axial stroke and any existing wobble of the rotie become an effect corrected disc. It is also possible that the rotating disc is not very stiff has and the adjusting system realizes the axial target position by an elastic deformation, at for example, by the action of magnetic forces. Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the outside Frame area of the 3D recording arrangement a highly accurate and highly dynamic measuring system stem for detecting the radial placement of a target position of a portion of the rotating disc be arranged, which is preferably assigned to the rotating disc, so that in one Circular ring of the rotating disc, the radial placement of the same, caused by radial impact the rotation of the circular disk, can be measured highly dynamically and with high precision. The measuring system can have a capacitive, inductive or optical measuring principle. In the case of Using an optical measuring method, a reference track can be in the form of a concentric one Circle in the immediate vicinity, for example at an average distance of a maximum of 10 mm to the structured luminous array are located on the rotating disc. This reference track can be marked with a Accuracy of 0.1 µm to a reference or symmetry line of the structured illuminated array posi be served. A precise annular gap can also be formed as a reference track, so that the transmitted one Light is evaluated for the determination of the radial offset. As a base material, quartz glass can be used for the reasons of invariance to temperature changes rotating disc can be used. A fiber can also be used for non-transparent areas of the pane reinforced material can be used. The section of the structured array shown is located preferably in the immediate vicinity of the measuring system.  Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the outside Frame area of the 3D recording arrangement a highly precise and highly dynamic steep system for loading Influence of the radial deposit from the target position of a portion of the rotating disc to be in order. This steep system is preferably a component of a position control loop that rotates assigned to the shaft of the rotating disc, so that the radial deposition of a partial area causes by radial impact during the rotation of the rotating disc, highly dynamically controlled and so in each case a partial area of the rotating disk with the structured illuminated array in the radial desired position held and so the lateral distance of the receiver array from the structured illuminated array constant can be held. Thus, the lateral distance of the position can preferably be a predetermined one Element of the receiver array and a predetermined luminous surface element FELj des structured luminous arrays can be kept constant in the array space. This means the triangulation angle, based on each element of the object surface in the object space kept constant regardless of the radial runout and the exact lateral assignment between egg a predetermined element of the receiver array and a predetermined, luminous area chenelementes FELj of the structured illuminated array remains in the time range ΔtB receive. This is for the Accuracy is important in phase-evaluating processes. The positioning system can be designed as a piezo actuator as a component of a position control circuit that represents a component of a position control loop together with the measuring system. As a criterion for the Position control applies that the distance between a predetermined luminous surface element FELj and one predetermined element of the receiver array constant during the rotation of the rotating disk is to be held so that any radial impact that may occur is measured and by the control system system can be adjusted. Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the outside Frame area of the 3D recording arrangement a highly accurate and highly dynamic positioning system for loading Influence of the radial deposit from the target position of a portion of the rotating disc to be in order. The control system is preferably a component of a position control loop to the receiver Array assigned in the imaging beam path, so that the lateral position of the receiver array hochdy Namely regulated and so and so the lateral distance of the receiver array from the structured shining Array kept constant and so the lateral distance of the position of a predetermined element of the emp catcher arrays and a predetermined, luminous surface element FELj of the structured light the arrays in the array space can be kept constant, making the triangulation angle related to each element of the object surface in the object space each held independently of the radial runout and the exact lateral assignment between one before certain element of the receiver array and a predetermined, luminous surface element FELj of the structured, luminous array remains in the time range tB receive. The positioning system can be used as a pie zo actuator, which together with the measuring system is a component of a position Control loop represents. The criterion is that the distance between a predetermined luminous surface element mentes FELj of the structured luminous array from a predetermined element of the receiver Arrays should be kept constant during the rotation of the disk, so that one if necessary occurring deviation from the target distance of the receiver array from the structured illuminated array measured  sen and by the positioning system, which determines the lateral position of the receiver array Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, they can rotate de disk be formed with at least two sectors and the sector surfaces ei the step surfaces a spiral staircase, so different areas of a structured array can enter the illumination beam path are brought, whereby their geometric-optical path length to the lighting lens is defined and their image is depicted in different depths of the object space. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the sparkling wine can Ren surfaces each represent the boundary surfaces of a transparent plate, with this design The rotating disk is hereinafter referred to as a spiral staircase disk, which means that different areas of a structured array can enter the illumination beam path are brought, the axial object width of the different areas of the structured Arrays in the illumination beam path change due to the thickness of the plate, and so its images in below different depths of the object space can be mapped. In addition, the arrangement can be used for a 3D recording of object surfaces in a scene stair pane with at least approximately regular, even step surfaces as full area ge spiral staircase disc with step heels with step heights Δhj be educated and on the same area a structured array can be applied to the step surfaces of the sectors of the transparent plate and preferably the light of the radiation source only after passing through the surface of the structured Ar rays the plate happens. Furthermore, the step surfaces can be at least approximately perpendicular to Be aligned axis of rotation and preferably at least a single paragraph on the spiral stairs be designed with at least twice the step height. The spiral staircase disc can an at least approximately average gradient per revolution of a maximum of one twentieth of the radius of the spiral staircase disc. Preferably, only the area of one step or one comes on the spiral staircase disc Sector in the optical beam path at a time to effect. But it is also possible that several sector surfaces, if they are very narrow, in the optical beam path to the we come. In this case, the areas of a receiver array detect different ones Times signal values from different sector areas. For example, the mean geometric-optical distance of a structured array, the object distance, which is assigned a radiation source, from the assigned lighting lens at the Rotati on the spiral staircase disc very quickly, with high precision and predetermined by the geometrical-optical Path length change can be changed by the step effect.  In addition, in the case of an arrangement for 3D recording of object surfaces in a scene, the helix stair disc as a highly stable body and the sector surfaces of the transpa annuity panels on one side of the spiral staircase disc can lie in a common plane and form such a surface. So the geometric-optical path length of the transparent plates can be the step can be changed in a predetermined manner by preferably transparent plates of different thicknesses The mean geometric-optical distance, the object distance, of a structured array which is assigned a radiation source and the illumination lens by the assigned Be lighting lens when rotating the spiral staircase disc very quickly, highly precisely and predetermined due to the geometric-optical path length change due to the different thickness of the transparent plates Furthermore, with an arrangement for the 3D recording of object surfaces in a scene in the stu The surface of the full-surface spiral staircase pane is another transparent and unstructured one Sector area can be arranged for the imaging beam path. Thus, the imaging beam path can also be very fast and also synchronous and highly accurate and predetermined a geometric-optical path length change in the time range ΔtB be realized and so can with at least approximately identical construction, parallel axis position and corresponding Adjustment of both the illuminating beam path and the imaging beam path to the respective same focus level. The rotational movement of the spiral staircase disc is with the Reading the elements of the receiver array synchronized that in the integration time, for example of a matrix camera, a moving segment surface completely covers the area of the matrix camera where where the segment area is larger than the area of the matrix camera. However, it is also a controlled part wise coverage possible. In this case, the elements of the matrix camera can be row by row or in Groups of lines can be read out. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the structure tured arrays on the step surfaces of the associated plates in the manner of a tangential grid be brought. Thus, only a comparatively small amount or none at all can be achieved over the rotation of the disk Phase change can be generated in a field of a structured, luminous array. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the structure tured arrays on the step surfaces of the associated plates of the spiral staircase disc in the manner of a Grid be applied with equidistant concentric circles and the center of the concentric Circles at least approximately assigned to the axis of rotation of an arranged precision bearing be. So the phase of a signal, which consists of a field of a structured luminous array is obtained during the rotation within a time interval, for example the time interval of the inte at least a region of the receiver array, for example a line, kept constant  Furthermore, the grid can be used in an arrangement for 3D recording of object surfaces in a scene with equidistant concentric circles from step surfaces to step surfaces of the spiral staircase disc a jump in the structure of this grating in the radial direction in the manner of a phase jump sen. So it is possible to illuminate the phase position during the rotation of the spiral staircase disc In an arrangement for 3D recording of object surfaces in a scene, the jump can also be made an integral multiple in the phase from step surface to step surface of the spiral staircase disc a quarter of the mean lattice constant of the lattice. Known phase Evaluation algorithms are used, preferably with an integer multiple of 90 ° work, the value of 90 ° is included. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the jump can in the phase from step surface to step surface of the spiral staircase disc three-quarters of the middle Lattice constants of the lattice. Known sub-Nyquist phase evaluation algorithms can be used in this way can be used, which overall require fewer support points. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the Step surfaces of the spiral staircase disc at least in some areas on the flat surface of the spiral stair pane a reference grid can be applied. So the rotation and the current angular position of the Spiral staircase can be measured. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the Refe border grid on the flat surface of the spiral staircase disc at least approximately a radial structure have tur. The rotation and the current angular position of the spiral staircase can thus be highly precise Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the ref border grid at least approximately a radial structure with a cos2nd-Transparency distribution and one Have spatial frequency, which preferably corresponds to the spatial frequency, which from the middle phase change of the structured array on a concentric path of the spiral staircase disc above the Full circle results. A suitable optoelectronic accessory and evaluation modules can be used cos2ndsimilar signal can be obtained as a reference signal, in which the detected signal curve, the can at least approximately represent a cos2 signal, can be phased in. Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, that on the full-surface spiral staircase pane at least one reference mark can be applied. For example can the reference mark at the location of the maximum geometric-optical distance of the luminous area Chen elements FEL from the assigned focal plane of the lighting lens to be applied at for example, also on the circumference or on the flat surface. Then the on begins at the reference mark count pulses into a counter and at the same time pre-detect the elements of the receiver array preferably periodic signals with a modulation and a signal with a maximum if one  Surface element in the sharpness of the image of a luminous surface element FELj and is simultaneously in the focus volume of the image of an element of the receiver array. The impulse which corresponds to the location of the absolute signal maximum, is used to calculate the zO-Position used. Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the step surfaces of the panels with the same surface each have a further translucent section for the illustration be arranged with a color filter. This translucent section can be used as Color filters and preferably also have a color divider, preferably the proportions of ge desired color to transmit. A filter wheel can be formed and color filtering of the light from realized the elements of the object surfaces in a scene and thus obtained the color information Furthermore, with an arrangement for 3D recording of object surfaces in a scene in each Sector of the full-surface spiral staircase pane at least one reference mark can be applied. There is achieved by at least at a time ti in a time range Δti in a time range ΔtB the luminous areas 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880 elements FEL at least approximately on a route parallel to one Lines gAP Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the Sekto ren have a smaller extent in the tangential displacement direction than the extent of the Receiver arrays and so preferably the receiver array is read out in strips. The streak Reading out, in particular even reading out in rows, enables a high number of Segments. This may reduce the peripheral speed of the spiral repeater pen disk possible. So the steady case is approximated for the spiral staircase disc. By the An Applying application techniques for the segments of the spiral staircase disc can increase thickness e.g. B can be realized in 5 µm steps from segment to segment of a plate. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, step surfaces with the number 2 exponents n arranged on the full-surface spiral staircase disc be. This is often an advantage for quick numerical evaluation, and can also rotate with an arrangement for 3D recording of object surfaces in a scene de Disc as an impeller with blades in the form of transparent plate sectors of different geome be designed optical-optical thickness. Due to the plastic disc being so low cost realization possible. An axial impact can occur in the elastic range of the Disc be corrected. Magnetic, electrostatic, electromagnetic force can be used In addition, an arrangement for 3D recording of object surfaces in a scene can rotate de Disc as an impeller with blades in the form of transparent plate sectors of different geome  be designed optical-optical thickness. The plates can represent plane-parallel plates. It can the geometric thickness may vary from wing to wing. It can also be used in different ways refractive indices for the optical material. For example, a geometric-optical path length change an axial object ver in the illuminating beam path and for the luminous surface elements Furthermore, with an arrangement for the 3D recording of object surfaces in a scene, they can rotate de disc be designed as a wedge disc. A geometric-optical path length can also be used change in the illumination beam path and for the structured array applied to the swashplate an axial object shift can be achieved. An axial Image shift can be realized for the depicted elements of the at least one object surface. Furthermore, the structure can be achieved with an arrangement for 3D recording of object surfaces in a scene rated array on the surface of a wedge plate with a flat lower surface, being in front however, preferably only a partial area of the wedge disk is used as a structured array and the wedge disc has a rotary precision bearing with an axis of rotation with a rotary precision onsmotor is assigned. The structured array can thus be applied to a flat surface. This is The wedge can also be used in an arrangement for 3D recording of object surfaces in a scene disc is formed as a transparent body and a surface of the wedge disc perpendicular to the axis of rotation be trained. This is for the adjustment of the 3D recording arrangement and to avoid one variable lateral offset when rotating the disc is advantageous. Furthermore, the wedge can be used in an arrangement for 3D recording of object surfaces in a scene disc have a change in thickness of at most one twentieth of the radius of the wedge disc, however, preferably only a section of the wedge disk is used as a structured array Furthermore, with an arrangement for 3D recording of object surfaces in a scene, a ref can border grid on the full-surface wedge plate at least approximately have a radial structure. This can be detected optically with high precision and for determining a reference value, for example can also be used as a reference phase. Furthermore, with an arrangement for the 3D recording of object surfaces in a scene on the full flat wedge disk at least one reference mark can be applied. This can be optically highly accurate can be detected and used to determine an absolute value of the reference phase. Furthermore, in the case of an arrangement for the 3D recording of object surfaces in a scene on the wedge  multiple structured arrays are applied in individual sectors. This structured arrays are illuminated one after the other when the disc rotates from the illumination lens into the object Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the structure tured arrays can be applied in the manner of a tangential grid. This structured arrays in style of a tangential grid enable a ver even at a comparatively high rotational speed equally small change of the phase. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the individual a tangential grid from sector to sector a jump in the grid structure in the radial direction of the type have a phase jump. Thus, the change in the phase required for the evaluation in the The jump can also be realized with an arrangement for 3D recording of object surfaces in a scene in the phase from sector to sector is a quarter of the period of the tangential grid. Furthermore, with an arrangement for the 3D recording of object surfaces in a scene, they can rotate de disk as a swashplate. Furthermore, the structure can be in an arrangement for 3D recording of object surfaces in a scene array on the surface of a portion of a swashplate with a wobble stroke and with be formed on a flat lower surface. A wobble also creates when a disc rotates a geometric-optical path length change for the structured one applied to the swashplate Array thus an axial object shift when imaging the same. Furthermore, with an arrangement for the 3D recording of object surfaces in a scene, the swash can disc can be designed as a full-surface disc and as a transparent body. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the axial Impact the swash plate have a maximum of one twentieth of the radius of the swash plate, whereby before However, preferably only a section of the swashplate is used as a structured array. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, at least A structured array can be applied to a partial area of the swashplate. Furthermore, the structure can be achieved with an arrangement for 3D recording of object surfaces in a scene arrayed as a lattice in the manner of an Archimedean spiral with at least one passage  Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the A reference grid can be applied to the swashplate, at least in partial areas. Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, the reference border grid on the swashplate at least approximately have a radial structure. Furthermore, in the case of an arrangement for the 3D recording of object surfaces in a scene on the full At least one reference mark can be applied to the flat swashplate. Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene on the Swashplate several structured arrays can be applied in individual segments. Furthermore, with an arrangement for 3D recording of object surfaces in a scene, the structure tured arrays can be applied in the manner of a tangential grid. Furthermore, the tan can be arranged in an arrangement for 3D recording of object surfaces in a scene potential grid from sector to sector has a jump in the structure in the manner of a phase jump Furthermore, in the case of an arrangement for the 3D recording of object surfaces in a scene, the Jump in the phase at least an integer part of a quarter of the period of the tangential grid Furthermore, in the case of an arrangement for the 3D recording of object surfaces in a scene on the Swashplate several structured arrays in individual sectors in the manner of a grid with equidistant be applied concentric circles, preferably the center of the concentric circles is at least approximately assigned to the axis of rotation of an arranged precision bearing and preferably the grid structure from sector to sector in the radial direction a jump in the manner of a Phase jump and the jump in phase from sector to sector is an integral multiple is a quarter of the mean lattice constant of the lattice. This ensures that at least at least at a time ti in a time range Δti in a time range ΔtB the shining flat ele elements FEL at least approximately on a line parallel to a straight line gAP Furthermore, with an arrangement for 3D recording of object surfaces in a scene, they can rotate de disk can be designed as a screw surface. Furthermore, in an arrangement for 3D recording of object surfaces in a scene, the rotati asymmetrical transmission grating on a screw surface of an illuminated, rotating disc be designed with a maximum of one gear, ie with a circular section of a maximum of 360 °, and so  have at least one shoulder, and the rotary transmission grid can be used as a screw surface an incline per revolution of a maximum of one tenth of the diameter of the illuminated, rotate have the pane, but preferably only a section of the transmission grating as structured array are used in the illumination beam path. The paragraph can precede preferably have an at least approximately radial course. Furthermore, the slope can be in an arrangement for 3D recording of object surfaces in a scene the screw surface and the number of turns of the spiral in the screw surface can be selected so that when the helical lattice surface is rotated, the luminous surface elements FEL become open Displacement lines VSAj are located, preferably at least approximately parallel to a Ge straight gA Furthermore, in the case of an arrangement for 3D recording of object surfaces in a scene, the rotati Onsymmetric transmission grating on a screw surface to determine the reference phase an assembly with a laser and a collimator can be assigned and at least one fine marker tion as a reference mark on the screw surface, the assembly preferably a grating with a division constant, which, for example, the mean distance of the luminous Surface elements FEL can correspond, is subordinate. Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the Screw surface several structured arrays in individual sectors in the manner of a grid with equidistan ten concentric circles and the center of the concentric circles at least the lattice structure can be assigned approximately to the axis of rotation of an arranged precision bearing have a jump in the manner of a phase jump from sector to sector in the radial direction and the jump in phase from sector to sector is preferably an integral multiple of a quarter the mean lattice constant of the lattice. To the reference phase when the screw surface rotates to be determined with high precision and to compensate for the different distances that occur can, a plane wave is generated by means of a laser and a downstream collimator. These strikes either a miniaturized interferometer or a grating with a division constant ten, which corresponds, for example, to the mean distance between the luminous surface elements FEL. So can be a screw surface in the lattice plane of the rotationally symmetrical transmission lattice structured lighting with a rotation of this transmission grating in the depth not ver dwindling structure are generated. The current relative reference phase can be determined by the evaluator tion of light in transmission can be determined. This ensures that at least one Time ti in a time range Δti in a time range ΔtB the luminous surface elements FEL at least least approximately on a line parallel to a straight line gAP Furthermore, with an arrangement for the 3D recording of object surfaces in a scene in the lighting beam path to the lighting lens, a movable wedge prism made of a transparent opti material and this is an equilateral, fixed compensation prism from a transpa pension optical material.  Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the Wedge prism a structured array can be applied and the wedge prism a linear guide with a Li be assigned near motor, and also in the imaging beam path from a movable wedge prism a transparent optical material and this an equal-angle, fixed compensation onsprism can be assigned to the imaging lens. This ensures that at least a time ti in a time range Δti in a time range ΔtB the luminous surface elements FEL at least approximately on a line parallel to a straight line gAP Furthermore, with an arrangement for 3D recording of object surfaces in a scene on the a movable wedge prism, a reference grid with a reference mark and a light source and an optoelectronic evaluation module can be assigned to the reference grid. Furthermore, in the case of an arrangement for the 3D recording of object surfaces in a scene for a be moving wedge prism in the illumination beam path when imaging the structured, luminous array through the illumination lens, its axial object distance preferably in each case corresponding to the following condition
| (Δϕ.p) / (2π.zAG) | = | d / fB|
be changed at least approximately and so the luminous surface elements FEL on routes BSAj at least approximately parallel to a straight line gAP The left term means the phase change Δϕ of the structured illuminated array, related to the change in the geometric-optical path length ΔzAG in the beam path in the direction of the optical axis se, that is the axial optical object shift when imaging a luminous surface element mentes FELj of the structured, luminous array during the movement of the wedge prism and p the lattice con constant of the structured luminous array and fB the focal length of the lighting lens and d den Distance of the pupil center of the illumination lens in the object space from the pupil center of the Ab educational lenses in object space. The location of the structured, luminous Ar that changes in the direction of light rays on the wedge prism can be changed either by changing the thickness of the wedge prism or by a Change in the refractive index, but also be caused by their combination. This means that at least at a point in time ti there is a time range Δti in a time period rich ΔtB the luminous surface elements FEL at least approximately parallel to a route a straight line gAP Furthermore, with an arrangement for 3D recording of object surfaces in a scene for a ro disc or parts thereof in the illumination beam path when imaging the structured luminous arrays through the illumination lens, its axial object distance preferably each because according to the following condition
| (Δϕ.p) / (2π.zAG) | = | d / fB|
be changed at least approximately and so the luminous surface elements FEL on routes  BSAj at least approximately parallel to a straight line gAP The left term means the phase change Δϕ of the structured illuminated array, related to the change in the geometric-optical path length ΔzAG in the beam path in the direction of the optical axis se, that is the axial optical object shift when imaging a luminous surface element mentes FELj of the structured, luminous array during rotation and p the lattice constant of the struktu arrives luminous arrays and fB the focal length of the illumination lens and d the distance of the pupil center of the illumination lens in the object space from the pupil center of the imaging lens in the The space of the structured, luminous array on the rotating disk that changes in the direction of light can be changed either by changing the thickness of the rotating disc or by changing the Refractive index, but also be caused by their combination. This relationship applies in principle Lich for both continuous and segmented rotating discs. This ensures that at least at a point in time ti in a time range Δti in a time range ΔtB the shining faces chenelemente FEL at least approximately on a line parallel to a straight line gAP Furthermore, with an arrangement for 3D recording of object surfaces in a scene with two Imaging beam paths with two at least approximately identical, parallel arranged images tion lenses, a first imaging lens and a second imaging lens, the Main levels of the two imaging lenses are brought to coincidence and each one of them Receiver array is assigned with detecting elements, so that a first and a second Emp catcher array with elements, to which at least one movement system is assigned, at least one movement system can be assigned to the first and the second receiver array. The resulting direction of movement of the first receiver array can be on a route ASA1 on the first upper branch of a letter Y and the route ASA1 can be parallel to a straight line GA1P lie, which on the one hand intersects the focal point of the first imaging lens in the array space and on the other hand, the piercing point PA the axis of symmetry SL between the two optical axes of the two imaging lenses through the coinciding main planes intersects so that the detec ting elements of the first receiver array on the lines ASA1j move, taking part of the Line of symmetry SL forms the lower part of the letter Y. The resulting direction of movement of the second receiver array can be on a route ASA2 on the second upper branch of the letter Y take place, and the route ASA1 can be parallel to a straight line gA2P lie, on the one hand, the focus of the second imaging lens in the array space and on the other hand intersects the piercing point PA the Axis of symmetry SL between the two optical axes of the two imaging lenses through the intersecting major planes. So the detection elements of the second Receiver arrays on the AS linesA1j move, part of the line of symmetry SL the lower part of the letter Y forms. The scene can be a free space scene, furthermore, with an arrangement for 3D recording of object surfaces in a scene with two Imaging beam paths with two at least approximately identical, parallel arranged images tion lenses, a first imaging lens and a second imaging lens, the Main levels of the two imaging lenses are brought to coincidence and each one of them Receiver array is associated with elements, so that a first and a second receiver array with  Elements are arranged to which at least one movement system is assigned to each of the first and at least one movement system can be assigned to the second receiver array and the result de Direction of movement of the first receiver array on a route ASA1 parallel to the optical axis of the first imaging lens, and exactly the elements of the first receiver array are selected sen and from this a waveform are formed, which are on routes ASA1j are located, which are parallel to a straight line gA1P lie, on the one hand, the focal point of the first imaging lens intersect in the array space and on the other hand the piercing point PA the axis of symmetry SL between the two optical axes of the two imaging lenses through the coinciding main plane cut one. The elements used for signal formation correspond to the first receiver array those who are on routes ASA1j are located, part of the line of symmetry SL the lower part of the letter Y and the resulting direction of movement of the second receiver array can on a route ASA2 parallel to the optical axis of the second imaging lens, ge nau the elements of the second receiver array are read out and from these a signal curve is formed, which is on routes ASA2j are located parallel to a straight line gA2P lie to the one intersects the focal point of the second imaging lens in the array space and on the other hand that Penetration point PA the axis of symmetry SL between the two optical axes of the two figures lens through the coincident main planes. So they correspond to the Signalbil used elements of the second receiver array to those which are located on lines ASA2j found the part of the line of symmetry SL forms the lower part of the letter Y. Here, too Scene can be a free space scene. Furthermore, with an arrangement for 3D recording of object surfaces in a scene with two Imaging beam paths each receiver array a rotating disc with at least one transpa annuity plate, which is preferably carried out plane-parallel, with a predetermined geometric Optical thickness can be assigned and reference marks can be applied to the rotating disc, where the optical thickness of the transparent plate can be constantly changing. In the reference marks the information about the optical thickness of the transparent plate, which is currently in the beam path in front of the egg is arranged in a receiver array. Furthermore, with an arrangement for 3D recording of object surfaces in a scene with everyone Receiver array a rotating disk with at least one transparent plate, which is preferred is executed plane-parallel, and each transparent plate has a predetermined location-dependent geome be assigned optical-optical thickness and at least one reference mark on the rotating disk be applied and so the optical thickness can vary from transparent plate to transparent plate be changed in a predetermined manner. The information about the optical thickness is in the reference marks Contain transparent plate, which is just arranged in the beam path in front of a receiver array Here, the receiver array with a control length and the start of the integration time in Partial areas are read out, so that areas of the same thickness without a jump point in the plate can be read. A spot of the same optical thickness can be used almost throughout the entire residence time be detected in front of an assigned element of the receiver array. It is also possible that in front of an electronically controllable array is a rotating disk with several transparent plates with a predetermined optical thickness, which have a predetermined optical thickness and the optical thickness changes from plate to plate, with reference marks being arranged which represent the  Contain information about the current optical thickness of the optically effective transparent plate and the transparent plates are at least approximately designed as plane-parallel plates. Furthermore, with an arrangement for the 3D recording of object surfaces in a scene with two Imaging beam paths with two at least approximately identical, parallel arranged images tion lenses, a first imaging lens and a second imaging lens, the Main levels of the two imaging lenses are brought to coincidence and each one of them Receiver array is associated with elements, so that a first and a second receiver array with Elements are arranged for photographic 3D color recordings for the extraction of the 3D point cloud Between each imaging lens and each receiver array at least two equal-angle pris men from an optical material, preferably with the same refractive index and preferably same dispersion, which are referred to as wedge prisms, two wedge prisms form a parallel piece with a parallel space of constant thickness. The beam axis stands up the outer surfaces of the parallel piece in each case vertically. This intermediate space of constant thickness is preferably from the mutually facing inner surfaces of the two wedge prisms limited. The space is preferably filled with air, but can also be filled with a transparent optical material, which preferably has a lower refractive index dex as the two wedge prisms of equal angle. The dispersion can shift laterally Images are generated in the image plane. By assigning a receiver array with rows by row brought color filters in the color ranges red green blue can the color value of each object point at least approximately from the same element of the object surface. It can the fixed prism can be arranged as a window of the receiver array. Furthermore, at least one wedge prism can be shifted at least approximately in a straight line, where the direction of displacement is parallel to the inner surface of the shifted wedge prism and in each case the case contains a transverse component to the direction of light propagation. By shifting the Wedge prism has the same axial image shift in zA- in each of the two imaging beam paths Direction generated so that the corresponding pixel information from different depths of the Can detect object space. For example, 16 images from different depths of the Object space are recorded. When shooting object surfaces in the scene with the setting a flash source can synchronize the object surface with the acquisition of images illuminate the scene. A picture sequence with 16 pictures with 16 single flashes can be created in 0.2 s be taken. A higher flash frequency is generally possible. The flash light source sends preferably no structured light. However, with a special flash source, there is also a structure dated lighting is possible, but then there should be a lateral shift of the structured lighting take place in order to at least approximately evenly illuminate the elements of the object surface Furthermore, to compensate for the anamorphic effect with wedge prisms with an angle Above 5 °, a second structurally identical parallel piece with a similarly designed space is attached ordered, which was rotated by 90 ° around the beam axis. Of the four individual wedge prisms the two inner ones can be combined to form a monolith.  Furthermore, the projections of the directions of displacement of the two outer wedge prisms onto the Au Outer surface of a parallel piece preferably aligned perpendicular to each other, the two outer wedge prisms each have an oscillating movement with a 90 ° phase shift of the movement The 16 images, for example, are evaluated using the correlation method already mentioned via the corresponding pixels by determining a correlation maximum Mj. So from a standard scene include the 3D point cloud of the elements of the object surfaces in the scene Lich the color information by evaluating the color values in the images of the elements of the object areas to be calculated. The reproduction as a 3D image takes place after an automatic or an inter active further processing of the 3D point cloud to a 3D surface model. Consideration of the colored A 3D surface model can be done, for example, using a digital 3D monitor. Furthermore, with the arrangement for 3D recording of at least one object surface in a min at least one scene, the receiver array represents a color camera. Furthermore, in an arrangement for 3D recording of at least one object surface in at least one a scene with at least one electromagnetic radiation source and the radiation source by means of at least one structured array as a structured luminous array with luminous area elements element FEL. There is at least one illumination beam path with at least one illumination lens, which has an ef fective opening aperture with an expansion DB and an aperture center BZB has to structure arranged lighting of the object surfaces in the object space. The object space corresponds to that Scene space. The lighting lens is a structured array, including egg An image beam path is also assigned to the at least one illumination beam path, that with at least one imaging level for the at least one object surface with at least one egg imaging lens associated with the receiver array or an image of the same of the elements of the object surfaces, which has an effective aperture diaphragm with an aperture center BZA having. Elements of the at least one receiver array are used in the recording process electromagnetic radiation from the elements of the illuminated object surfaces in the object space The distance d of the pupil center PZIF of the lighting lens, as an image of the aperture center BZB  in the object room, from the PZ pupil centerOA of the imaging lens, as an image of the aperture center BZA in the Object space, is at least one eighth of the dimension DB the opening cover of the lighting object jective. The luminous surface elements FEL have an at least approximate in a luminance distribution approximately predetermined luminance, so that by imaging with the lighting object at least one image of a luminous surface element FELj is formed in the object space. Thus, according to the invention, the focus volume in the object space is at least one image of a luminous one  Surface element FELj in a structured, luminous array - By the predetermined assignment of the luminous surface element FELj to the lighting lens and the assignment of the elements of the receiver array to the imaging lens and the assignment of Illumination lens to the imaging lens in the 3D recording arrangement using the Newtonian mapping equation - permanently fitted into the focus volume, which is determined by the totality of the images of the elements of the Receiver arrays is shown in the object space. The focus volume, which is determined by the Ge totality of the images of the elements of the receiver array in the direction of beam propagation is given, min at least as large a depth as the volume of focus of a single image of a leuch tendency surface element FELj, so that for all images of a luminous surface element FELj this enclosing focus volume is given by images of the elements of the receiver array and in the object space an image of a luminous surface element FELj of a structured array is at least assigned to at least one image of an element of the receiver array. Furthermore, in the case of an arrangement for 3D recording of at least one object surface in an in a structured array spatially structured sub-matrices are arranged, at least one Sub-matrix is arranged and in turn structured cells at least in a structured sub-matrix are arranged, again in each structured cell by a mask in the surface of the structured cell is arranged at least one window surface and this at least one window surface che has an average optical object distance to the lighting lens that differs from Window area of the neighboring cell is made in the main section and in a window area in a structured th cell each in cooperation with the radiation source at least one luminous area element FELj is shown. Furthermore, with an arrangement for 3D recording of at least one object surface in a Scene can be arranged in a structured array of spatially structured sub-matrices. Here are in the structured sub-matrix in turn arranged structured cells, again in each structured Cell at least one window area is indicated by a mask in the area of the structured cell is arranged. This at least one window surface has an average optical object width for loading lighting lens, which made different to the window area of the neighboring cell in the main cut is. This creates the image of the masking in a different depth of the object space, resulting in different which depths of the object space images of the mask can be generated. It is also in one Window area in a structured cell at least one self-illuminating surface element FELj arranged. This is depicted in the object space. Furthermore, in the case of an arrangement for 3D recording of at least one object surface in one scene ne the window surface preferably at least approximately in a plane perpendicular to the optical Axis of the illumination lens arranged. Furthermore, in an arrangement for 3D recording of at least one object surface in a scene  ne preferably at least one structured sub-matrix as a transmission arrangement with a optical material. Furthermore, with an arrangement for 3D recording of at least one object surface in one Scene at least the optically active surface of the structured cells each have a spatial structure rated area, wherein in this spatial structured area the window surface as a plane Surface be formed. A mask is preferably provided in the flat surface of the window element arranges and in a part of the spatially structured cell is next to the mask on the flat surface surface of the window element, a microlens with a focusing effect is arranged, its Focus is at least approximately positioned in the surface of the window element. The Mask a binary code transparency profile for coding a machine-readable number as a position number mer. The masks within a cell are clearly machine-readable and underneath each other divorced. So that at least within a cell the microlens is next to the mask on the plan To clearly identify the area of the window element, so that from the lateral position of the focal point in the picture taken the zOCoordinate as well as the xO- and the yO-Coordinate of the associated object The micro can also be used in an arrangement for 3D recording of at least one object surface lens in a partial area of the spatially structured cell next to the mask on the window surface in each case be designed as a cylindrical lens. As a result, there is a light trail on the object surface a comparatively high illuminance over the length of the cylindrical lens. This is the light trail can be detected without any problems regardless of lateral displacements and is therefore a high detection reliability Furthermore, in the case of an arrangement for 3D recording of at least one, the microlens can be arranged in this way be that the focal point is at least approximately positioned in the plane of the mask. Thereby A particularly fine light trail can be realized. Furthermore, the structure can be with an arrangement for 3D recording of at least one object surface tured array as an opaque relief piece with several, but at least two, fine openings are arranged opposite the lighting lens. When using the relief piece In the 3D recording arrangement, the fine openings are at different depths Array space, so that their images are at different depths of the object space. Furthermore, the structure can be with an arrangement for 3D recording of at least one object surface tured array as a non-transparent relief piece with openings. The surface of the Relief piece points to the lighting lens and is preferably made so that at least approximately represents the optically conjugated surface of a target piece to be tested and the through breaks on the surface of the relief piece at least approximately the optically conjugated places the structure of a specimen. Furthermore, in the case of an arrangement for 3D recording of at least one object surface, the structure  tured array is designed as a transparent microlens array and the focal length and the axial Position of the microlenses be designed so that their foci are arranged in a 3D area, which at least represents approximately an optically conjugated surface to the target surface. The focus of the microlenses represent at least approximately some optically conjugated locations on the target surface of a test object. By determining the focus position in the image, the deviation from a target position can be determined Furthermore, in the case of an arrangement for 3D recording of at least one object surface on the structured array at least one relief with a spatial structure with at least one period in Form of at least one ramp with at least one inclined ramp surface in the compensation area be educated. There is preferably at least one ramp surface for each of the lighting objectives aligned. Luminous surface elements FEL are preferably on the inclined ramp surface orderly. These luminous surface elements FEL are formed by window surfaces, which of the Radiation source are illuminated. The ramp surfaces are preferably inclined so that the compensation line AGAj through the oblique Ramp area in the main section as shown by the lighting lens in the object space as an image a straight AGOj supplies that at least approximately to the pupil center PZOA of the fig objective. Usually there are several ramps, so that the different off equal straight AGOj of several different ramps as shown by the lighting tion lenses from their pictures a line bundle GB1 with a convergence point K1 is formed. The The lighting lens is preferably opened high. The point of convergence K1 is at least at least approximately in the PZ pupil centerOA of the imaging lens brought to coincidence. So is given that when taking pictures of the object surface at all depths clearly one Ramp can be tracked without problems with lateral misalignments since the tracker Imaging beam always comes from the pupil center of the imaging lens. The imaging lens can be comparatively short focal length, shorter than the lighting lens, and is so far off blinded, for example on the bezel11that there is a large depth of field. In order to the depth of field of the imaging lens determines the depth range for the 3D Admission order. The image of a ramp with the axis of the image can be in the object space jective collapse. The other images of the ramps form a tuft with the original in the main section jump point in the pupil center. The surface of the object to be detected is thus determined by the ramp images average. At the intersection of a ramp image with the object surface, one is created sharp image of the mask on the ramp surface. Furthermore, with an arrangement for 3D recording of at least one object surface, that on the Ramp area, which has an average length WP, in each case at least one mask with a binary Code transparency profile with the sequence length be.g. formed on a continuous surface area of the same be. The minimum structure width p used in the mask with a binary code profile is preferred at least made so large that they can still be seen by the lighting lens without any noticeable loss of contrast can be shown sharply. The length WP is preferably greater than be.g..d / DB made and the masks applied to a ramp area each have a binary code transparency profile  clearly distinguishable from each other and machine-readable. This also applies to a lateral swerve Because of the triangulation effect, the masks are reliably identified. Furthermore, with an arrangement for 3D recording of at least one object surface, several can Ramp areas can be arranged one behind the other in rows parallel to the main cut in a sub-matrix, and their mean optical object distance to the illumination lens from line to line, i.e. in y Direction is made different in each case, for example always increasing. So a middle one is created Increase in a second direction, the y-direction, and so a particularly large number of distinguishable heights levels can be realized. which creates a particularly large depth detection area for the 3D Recording arrangement results. The imaging lens can be used with a very large depth detection not to have to dazzle the area too much, a transparent plate with wedge prisms must be assigned, which represents a plate with ramps, the number of ramps corresponding to the number of sub-matrices and the wedge angle of this plate results from the magnification. The prism wedges rise on this plate in this example also in the y direction, so that Bil from the imaging lens that can be seen from planes that are not perpendicular to its optical axis Furthermore, with an arrangement for 3D recording of at least one object surface, inside Half of the ramp surfaces several stages are formed, with one min at least a mask with a binary code transparency profile with at least one transparent field is applied. The levels do not necessarily have to be continuously increasing or decreasing. So can stages can also be interchanged. The best-fit line refers to the case without swapping of steps. The equalization line AGAj cuts the non-interchanged steps approximately in the middle Furthermore, in the case of an arrangement for 3D recording of at least one object surface, the binary Code profile as bar code profile Transparency profile with at least one transparent bar be educated. A bar code profile transparency profile can thus line by line and therefore particularly quickly to be read. The bars are preferably arranged parallel to the main cut and so is done Detection of the bar code transparency profile perpendicular to the main section. Cover the bars in each case preferably several columns in the case of an image on a receiver surface, for example min at least two columns. The duty cycle of the bar coding can preferably be at a con constant period length of the bar code can be evaluated. This is a high level of detection when detecting security of supply regardless of position. On the other hand, the side by side Bars as bars of the same width must be set to gaps in adjacent cells so that by a lateral shift due to a height offset on the object surface does not result in misinformation can arise during image acquisition. Furthermore, a dun can be found in an equidistant grid Kel-Hell transition are located at the same location of the cells. Preferably it can also be a square one Grid. This is very advantageous since at least one level is at least approximate An equidistant grid of measuring points is formed on the surface the ramp areas with the length WP a lattice structure with a cos2nd-Transparency profile with at least  at least one period length be.g. be upset. The period length be.g. is preferably at least so made great that this from the lighting lens with a high relative light intensity still without noticeable loss of contrast can be mapped. The length WP of the ramp area is larger in each case as Be.g..d / DB is made, the length of the ramp area being at least equal to the period length be.g.  Furthermore, in the case of an arrangement for the 3D recording of at least one object surface, luminous Including surface elements FEL as transparent window surfaces illuminated by the radiation source Lich images of these, positioned in the array space. The side facing the lighting lens of the structured transparent array is at least as a single relief with a spatial structure structure with at least one period in the form of at least one ramp, each a transpa represents the wedge prism. The wedge prisms preferably have a wedge angle that is selected so that by the image effect the images of the luminous surface elements FEL at least approximately on one Equalization line AGAj lie in the main cut. The equalization line AGAj delivers preferably from Ab education through the lighting lens in the object space as a picture a straight AGOjthat on the pupils center PZOA of the imaging lens aims. It is preferable for several straight lines AGOj  of several ramps after their depiction by the lighting lens from their pictures a Ge bundle of rays with a convergence point K1 formed, at least approximately with the pupil center PZOA of the imaging lens is brought to coincidence. In this way it can be avoided that Masking must be applied to the sloping surfaces of a ramp. The masking be can be found on the front of the relief, which is preferably planed towards the radiation source. Furthermore, in the case of an arrangement for 3D recording of at least one object surface, the trans Parent wedge prisms are each made so that on average at least approximately Wedge angle in radians with the amount fB.n / [d. (n-1)]. At this angle there is a Rotation of the luminous surface elements on a flat surface, perpendicular to the axis of the Be lighting objectives. Furthermore, in an arrangement for 3D recording of at least one object surface at ei in the array space, the ramp surfaces in the structured array, the point to the illumination lens, be at least approximately equiangular. So preferably, if not the ramp surfaces themselves, due to spatial structuring the same, at least the equalization line AGAj due to the sloping ramp surfaces in the main section the 3D image arrangement shows straight lines parallel to each other the parallel regression line a line bundle GB1 with a convergence point K1 is educated at least approximately with the PZ pupil centerOA of the imaging lens in the object space is brought to coincidence. The manufacture of such ramps is comparatively simple.  Furthermore, with an arrangement for 3D recording of at least one object surface at ei in the array space, the ramp surfaces in the structured array, the point to the illumination lens, at least approximately with the same length be. The production of such ramps is comparatively simple. Furthermore, with an arrangement for 3D recording of at least one object surface, the image can a transparent plate with wedge prisms, a plate with ramps where the number of ramps equals the number of sub-matrices on the structured array speaks. Furthermore, the ramps can have micro-steps that are perpendicular to the axis of the image be objectively aligned. In this way, the refractive effect of a prism can be avoided. Furthermore, with an arrangement for 3D recording of at least one object surface in the image at least one microlens array, for example in an intermediate imaging stage, which is upstream of the lens in front of the receiver array, the microlenses inside half of a microlens array at least two different axial positions of the foci with respect to one Have plane perpendicular to the optical axis of the imaging beam path. So with one plan receiver area from different depths of the object space object points sharply imaged will. Two one microlens arrays, each with coaxial microlenses, can be arranged, the one Form a micro-telescope, a microlens array being manufactured with microlenses of different focal lengths is to which a microlens array with microlenses of the same focal length is assigned, so that an array Micro-telescope is formed. Furthermore, with an arrangement for 3D recording of at least one object surface, the image The objective lens is arranged at least one microlens array, the microlenses within one Microlens arrays lower at least two different axial positions of the foci with respect to one plane have right to the optical axis of the imaging lens. Here too, with a planned emp catcher surface from different depths of the object space object points sharply imaged at the same time without the need for an intermediate mapping level. Such is preferably a microlens array arranged with microlenses of different focal lengths. Furthermore, in the case of an arrangement for 3D recording of at least one object surface, the locations the foci of the microlenses of a microlens array are arranged on a spatial profile. This can be a sinus profile, which can be optimally produced. Furthermore, with an arrangement for 3D recording of at least one object surface, the locations the focus of the microlenses of a microlens array can be arranged on ramp surfaces. So with egg A planar receiver surface is sharply imaged from different depths of the object point that are at least approximately on planes in the object space. Furthermore, with an arrangement for 3D recording of at least one object surface, the illustration can  lens at least one fiber optic array, which is made of microfibers, upstream be, the microfibers being at least approximately parallel to the optical axis of the imaging object are arranged jective. The microfiber ends are preferably on one side of the light wave conductor arrays on a common level and are immediate to the elements of the receiver array assigned. On the other side of the optical fiber array, the fiber ends are the imaging object assigned to jective. Here the fiber ends are arranged on a spatial profile. So light can go out different levels of the array space can be detected. The points of the detection correspond differently distant points in the object space, so that elements of an object surface from un different depths of the object space can be recorded simultaneously. The spatial Profile can represent a step surface profile with ramp surfaces. The training can also be called a sinus profile Furthermore, with an arrangement for 3D recording of at least one object surface, the space Liche profile of the fiber ends is at least approximately formed with ramp surfaces. So can with a flat receiver surface from different depths of the object point simultaneously sharp that are at least approximately on planes in the object space. Furthermore, with an arrangement for 3D recording of at least one object surface, the emp catcher array with at least eight elements. There are preferably at least two Be range with at least four elements each, with the four elements then representing exactly two cells with a different average height of the elements can be formed in a surface that be as a sub-surface is drawn. Areas are formed on the receiver array that form a sub-area with a belong to medium height, and on the receiver array at least elements in four distinguishable Height levels arranged. This means that a larger depth range in the object space can at least approximate be sharply imaged on the individual elements of the receiver array without a Fo kissing is required by a mechanical displacement. Furthermore, the arrangement can for a 3D recording of at least one object surface equal area over the elements of the receiver array of a sub-area a ramp area with a represent the same height so that at least two ramp areas are formed on the receiver array are made at least approximately the same and also the shape of the ramp area at least is made approximately the same. In at least two areas, the depicted object can The full depth detection range can also be realized. Furthermore, the arrangement can be achieved with an arrangement for 3D recording of at least one object surface number of areas belonging to a sub-area with the number of sub-matrices in the structured area ray match and an area belonging to a sub-area extends over at least two lines areas of the receiver array that can separately detect electromagnetic radiation stretch. For example, those of luminous surface elements FEL, which are illuminated by illuminated window surfaces in  different heights are formed on a sub-matrix of the structured array, ent in the object space at least approximate the images on the object surface to elements of the receiver arrays approximately sharply. The lateral arrangement of the areas that ge to a sub-area listen, on the surface of the receiver array is up with the lateral arrangement of the sub-matrices made at least approximately geometrically similar to the structured array. It turns off equal area over the elements of the receiver array of a sub-area each represent a ramp area. At least two sub-areas can be formed on the receiver array. Usually can up to 128 with a 256 × 256 pixel CCD matrix or even 512 sub-areas with a 1024 × 1024 pixel CCD matrix can be formed in order to obtain sharp image points from as many areas of the object surface as possible to be able to detect over a comparatively large depth range without the imaging object to have to stop down very strongly. Two lines each form at least one sub-area. Reason In addition, there is also the formation of sub-areas over at least two columns of the receiver array a CCD matrix. Furthermore, with an arrangement for 3D recording of at least one object surface, the emp catcher array can be designed as a CCD matrix camera. This is an optimal image acquisition at Standar tasks with a good signal-to-noise ratio. Furthermore, with an arrangement for 3D recording of at least one object surface, the emp catcher array can be designed as a CMOS matrix camera. This is through random access to pixels it is possible to track moving elements of the object surface in space. Furthermore, with an arrangement for 3D recording of at least one object surface, the emp catcher array can be designed as a CCD line camera. This is to take up very quickly The processes in one section are of great advantage. Furthermore, with an arrangement for 3D recording of at least one object surface, two Imaging beam paths can be arranged and each imaging beam path can at least in each case a tiltable mirror surface can be arranged upstream and the upstream, tiltable mirror surfaces can NEN rigidly connected and these can be computer-controlled components for execution tion of a defined tilt. By tilting the mirror surfaces using a Computer-controlled oscillating mirror can select different cuts for the 3D image Furthermore, with an arrangement for 3D recording of at least one object surface, two Imaging beam paths are arranged and the two imaging beam paths together computer-controlled, rotating mirror polygon. So a quick shot of Object surfaces in the object space. Furthermore, with an arrangement for 3D recording of at least one object surface, one can Illumination lens a first imaging lens with a receiver array and a second image are assigned with a receiver array, the pupil center PZOA of the first  Imaging objective at a distance d from the pupil center PZIF of the lighting lens is arranged. The first imaging lens can work as a reference system, for example, an absolute to be able to carry out the measurement in the manner already described. The second imaging lens is in Distance k.d from the pupil center PZIF of the lighting lens, where k ≧ 2 is made. For example, the second imaging lens can be arranged four times apart and a be have a particularly large or an asymmetrical object field. This results in a larger triangulation angle and thus a higher depth resolution, the information from the first imaging object tiv are used to serve the results obtained with the second imaging lens be checked with regard to the measured phase information and, if necessary, with regard to to correct the strip order. Furthermore, in an arrangement for 3D recording of at least one object surface, two Imaging beam paths with two at least approximately identical, parallel arranged images be arranged objective lenses. The first imaging lens is at least approximate wise one-sided telecentricity in the array space and also the second imaging lens at least approximately one-sided telecentricity in the array space, the two main levels of the two imaging lenses are brought to coincidence. Here is the pupil center PZOA1 of the first imaging lens at a distance d from the pupil center PZOA2 of the second figure arranged objectively. Each imaging lens is assigned a spatially structured receiver array arranges so that a first and a second receiver array are arranged. The first and the second spatially structured receiver array each have at least two receiver surfaces separated step surfaces, each perpendicular to the main cut, with the receiver surfaces of the first receiver array parallel to the straight line gA1P are arranged, which is the puncture point PA the axis of symmetry SL between the two optical axes of the two imaging lenses the coinciding main planes and the focal point FAA1 of the first imaging lens. The receiver surfaces of the second receiver array are preferably each parallel to the line gA2P  arranged, the piercing point PA the axis of symmetry SL between the two optical axes of the two imaging lenses through the coinciding main planes and the focal point FAA2  of the second imaging lens, two each through the receiver surfaces and and and intersecting straight line in the main plane and the average distance of these receivers areas as well as from the main level is made the same. Due to the natural structuring of the partially structured or naturally illuminated and also self-illuminating object surfaces are those recorded in each element of the receiver array Waveforms S1y and S2y more or less modulated. From the evaluation of this modulation, the be occurs especially on the sharply depicted elements of the object surface, the zO-Position of each because the associated element of the object surface are determined. The two signal curves S1y and S2y of two corresponding elements1j and2ndj of the two emp catcher arrays are about to move the two receiver arrays in memory one Computer stored. The elements of two receiver arrays represent the corresponding ones Elements whose images are in the object space in a focus volume at least at one point in time coincide. So form exactly one element of the first and one element of the second receiver array in  a common focus volume at least at one point in time a pair of corresponding ones Elements. Each of the two signal profiles S1y and S2y using a window function with at least at least one window, with a minimum window length corresponding to two signal values and one ner maximum window length, which is at least approximately the length of the signal curves S1y and S2y corresponds to overlapping signal pieces S1 part j and S2 part j in each of the two signal profiles S1y  and S2y formed from the windows. Windows, window lengths with a length of example are advantageous 8 or 16 signal values, other, even larger values are possible. This takes place in both signal curves S1y and S2y synchronous moving this window function to at least one signal value that corresponds to an increment of the displacement of the receiver arrays, over each of these two waveforms S1y and S2y and from every current window in position k, with 1 ≦ k ≦ m, a signal piece S is1 part position kj and S2 part position kj These successively formed signal pieces S overlap1 part j position kj and S2 part j position kj in each that of the two waveforms S1y and S2y in a sub-area and at the same end of each two waveforms S1y and S2y by moving the window function in both signal pieces Then, each time starting from two signal pieces in position 1 S1 part position 1 j and S2 part position 1 j, the cross-correlation function is calculated, but previously one of the two signal pieces is inverted, i.e. all values of the same are mirrored, and thus from an original signal Piece S1 part position 1 j and from an inverted signal piece S2 part position 1 INV j the maximum of cross corrections MCC function1 2 j position 1 between 0 and 1 is calculated and stored. Inversion is necessary because the imaging rays of the elements of a corresponding pair in the object space during the shift in an at least approximately the same section of the Moving the scene in the opposite direction along a track in the moving process, for example, one another the too. This track lies parallel to the main section of the 3D recording arrangement after calculating the maximum of the cross-correlation function MCC1 2 j position 1 in position 1 he follows the shifting of the window function to position 2, so that for the next two signal pieces the maximum of the cross-correlation function MCC1 2 j position 2 is calculated in the manner described the window function at the other end of the two signal curves S1y and S2y Arrived in position m is and again the maximum MCC1 2 j position m the cross-correlation function MCC1 2 j position m  is determined. From the maxima MCC calculated by mm a maximum value curve is formed, whereby the resulting maximum M in turn in this maximum value curvemj determined between 0 and 1 and the location of the maximum Mmj the maximum value curve of the two original signal curves and so that the path of the displacement of the two receiver arrays is assigned. This so calculated Maximum value curve can show the course of a Gaussian function. To prevent errors, ei ne intensity threshold can be used, whereby signal pieces with a very low average intensity of be excluded from further processing. The maximum Mj Maximum value curve can too through a focus. Interpolation methods can be used, so that the location of the maximum M determined in this way becomesj as a place to correspond to the two  the elements1j and2ndj associated image of the respective element of the object surface in the array Space defined. From the location of this maximum Mj in the array space the zO-Coordinate of the respective element of the Object surface in zODirection calculated using Newton's mapping equation and so too the xO- and yO-Position of the respective element of an object surface, since the geometry of the 3D Recording arrangement is known. So the positions of the elements of an object surface, from which waveforms are recorded are calculated, the geometry of the 3D Known receiving arrangement and the shifts, including the increment of the shift, of the two receiver arrays are predetermined. This curve calculated in this way via the path of displacement can determine the course of a Gaussian function exhibit. The maximum is determined in this curve, the location of the maximum of the course venzuges the two original waveforms S1y and S2y and thus the path of displacement is arranged. The maximum of the curve can also be done by forming a center of gravity. The place of the maximum is defined as the location of the associated element of the object surface. In This method can be used as a correlation method with two windowed waveforms and one piecewise inverted waveform to determine the zO-Position of an element of obj Furthermore, with an arrangement for 3D recording of at least one object surface with two Imaging beam paths with two at least approximately identical, parallel arranged images tion lenses, a first imaging lens and a second imaging lens, the Main planes of the two imaging lenses are brought at least approximately to the coincidence and each of them is assigned a receiver array with detecting elements, so that a first and second receiver arrays are arranged with elements, and the first and second Receiver array each have at least one receiver surface, each perpendicular to the main section lies. The receiver surface of the first receiver array preferably contains the path ASA1, the lies on a stretch on the first upper branch of a letter Y. Furthermore, the AS lineA1 parallel to a straight line gA1Pwhich, on the one hand, is the focal point of the first imaging object tivs intersects in the array space and on the other hand the intersection point PA the axis of symmetry SL between the two optical axes of the two imaging lenses through the coinciding main plane NEN cuts so that the detecting elements of the first receiver array in the main section on the AS lineA1 are arranged. Part of the line of symmetry SL preferably forms the lower part of the letter Y. At least one receiver surface of the second receiver array is preferably on a path AS2nd  on the second upper branch of the letter Y and contains the route ASA2that are parallel to a Gera the gA2P lies, which on the one hand intersects the focal point of the second imaging lens in the array space and on the other hand the piercing point PA the axis of symmetry SL between the two optical axes of the two imaging lenses through the coinciding main planes, so that the detec main elements of the second receiver array in the main section on the route ASA1 are arranged  a part of the line of symmetry SL forms the lower part of the letter Y. This arrangement enables light the detection of illuminated elements of the object surface in the object space on one level perpendicular to the main section. The receiver matrices are identical in structure and in a position symmetrical to the line of symmetry SL on and arranged at the same height. The signals from the two receiver areas are output line by line read so that the receiver surface of the first receiver array, the waveforms S1 and the emp catcher area of the second receiver array, the signal curves S2nd delivers. These waveforms are Evaluated line by line, whereby the lines at the same distance from the main cut the correct sponding elements included. For finding the location of an element of the object surface in the object space, the evaluation comes in accordance with the correlation method already described with two windowed waveforms for use. Here too, Si gnal pieces generated. A signal piece is inverted by mirroring the signal values. It is the cross correlation of an original signal piece and an inverted one Signal piece, wherein the signal pieces each have symmetrically arranged line sections in the 3D Represent arrangement, carried out and a correlation coefficient obtained and saved chert. The window of the window function, which for example has a length of 64 pixels can point, for example, in increments of one increment, which here is one pixel in each because evaluated line corresponds. A larger shift can also be used for overview measurements step of the window as one pixel, for example by four pixels. The length of the window is depending on the relative opening and the average distance of the object surface. Here the window length can also be made variable, for example for the areas close to the focus a shorter window length can be selected in the receiver matrix. So the determination of zO- Position of the elements of the object surface in a plane perpendicular to the main section in the Symme line SL between the two optical axes of the two imaging lenses. The evaluation is carried out using the correlation method with two windowed waveforms as above Furthermore, with an arrangement for 3D recording of at least one object surface, one can Illumination lens a first imaging lens with a receiver array and a second image are assigned with a receiver array, the pupil center PZOA of the first Imaging objective at a distance d from the pupil center PZIF of the lighting lens is arranged. A spatially structured receiver array is assigned to each of the two imaging lenses, so that a first and a second receiver array are arranged in the array space. The first and the second spatially structured receiver array each have at least two emp catcher areas on spatially separate areas and the recipient areas of the first recipient Arrays are each arranged in this way and the receiver areas of the second receiver array are each so arranged that at least approximately pairs of optically conjugated images at least from Share receiver areas of the first receiver array and parts of the receiver areas of the second receiver arrays are formed in the object space. Here too, the evaluation is carried out with the correction lationsverfahren with two windowed waveforms as already shown above.  Furthermore, with an arrangement for 3D recording of at least one object surface with min at least two imaging beam paths with at least one imaging lens in each image beam path. The pupil center (PZOA1) of an imaging lens of an imaging beam path at least at a distance d from the pupil center (PZOA2) of another illustration object tivs another imaging beam path arranged, the distance d at least one eighth of the Extension of the aperture diaphragm of the imaging lens with the largest extension of the opening aperture corresponds. Furthermore, each imaging lens has at least one receiver array with at least one At least two detecting elements are assigned. According to the invention, each receiver array is at least one micro-optical array with mi Crooptic elements to influence the geometrical-optical object range of the detection elements associated with the associated imaging lens and there is at least one in the object space Pair of at least approximately coinciding images of one image of an element of the Receiver surfaces each formed an imaging beam path. Furthermore, in an arrangement for 3D recording of at least one object surface, the micro optical array can be designed as a microprism array. One micropism can detect several rende elements cover, so that due to the different optical thickness of the micro prism the several detecting elements each have a different optical object distance to the associated one Have imaging lens and so its image occupy a different position in the object space. So can a track can be formed in the object space from the images of several detecting elements. Means the cross-correlation method already described can at least the location of an element Furthermore, in an arrangement for 3D recording of at least one object surface, the micro optical array is designed as a microlens array with microlenses of different axial positions. So can each receiver element by the imaging effect of the microlens a different optical Ge have object distance to the associated imaging lens and so its image a different location in Take up object space. As a result, an image of the detec can be displayed at different locations in the object space be generated elements. So one can from the images of several detecting elements Be formed in the object space. By means of the cross-correlation method already described, so at least the location of an element of a surface can be determined. Furthermore, in an arrangement for 3D recording of at least one object surface, the micro optical array can be designed as a microlens array with microlenses of different focal lengths. Here too, each receiver element can be different due to the imaging effect of the microlens have optical object distance to the associated imaging lens and thus its image occupy a different position in the object space. This can result in different locations in the object space Image of the detecting elements can be generated. So from the images of several detectors  Elements can be formed a track in the object space. Using the cross-correlation already described method, at least the location of an element of a surface can be determined in this way. The Mikrolin sen can be part of a micro-telescope.  6. Embodiments in theFig. 1 shows the arrangement and the method. It will be between that Array space and the object space differentiated. The following notation is used, that of the usual deviates, but this and the optical circuits shown below has proven to be advantageous for the description: The sizes and points of the array space are indicated in the first place with the letter A and the sizes and points of the object space with the letter O. In the second position in the index, the associated lens is identified and in the case of belonging to the lighting lens1 with the letter B and in the case of Belonging to the imaging lens2nd with the letter A. There is a line grid in the array space3rd with the lattice constant p and an upstream one Radiation source with visible light, i.e. a light source4th. This light source4th can be computer controlled so that the average illuminance is the distance of each Sharpening level is adjusted according to the photometric law. This represents a good exploitation of the The line grid3rd is the lighting lens1 with a strictly telecentric beam path in the Array space mapped perpendicular and extrafocal. The lighting lens1 forms that Line grid3rd into the object space, whereby a structured at least at one point in time Illumination of the object surface5 arises. To simplify matters, the two main levels of the Lighting lens1, HFROM and HIF, in theFig. 1 merged. With real lenses this The two main levels are far apart, and there is a receiver matrix in the array space6 the imaging lens2ndwhich also one has a strictly telecentric beam path in the array space, perpendicular to the axis and extrafocal assigned. The imaging lens2nd forms the object surface5 into the array space. A single imaging beam AO1 is presented, layed out. To simplify matters, the two main levels of the Picture lens2nd, HAA and HOA, in theFig. 1 also merged.1 and the imaging lens2nd are with each other with their optical axes arranged parallel to the center distance d. The lighting1 and the imaging lens2nd  the focal points on the array FFROM and FAA and the focal points F in the object spaceIF and FOA  on. Because of the telecentricity, the focal points F fall in the object spaceIF and FOA with the exit pupils PZIF and PZOA together. There are two illuminating beams BSO1 and BSO2 and a Image beam ABSO The first linear guide of the movement system, not shown here, is with the receiver matrix6  rigidly connected and carries a second, also not shown, smaller linear guide, the again the line grid3rd wearing. This line grid3rd is executed much longer than that of Lighting lens1 captured image field corresponds to always in the entire movement process to cover the entire image field.  The first linear guide is connected to a highly accurate length measuring system, which is one has a highly stable zero point. The axis of movement of the first linear guide is parallel to the Objective axes and the measuring axis of the length measuring system lie parallel to the two Objective axes. The direction of movement of the second linear guide is perpendicular to the Objective axes. The line grid3rd on the second linear guide is one with the first linear guide firmly connected counter grille with a complete lighting and receiver optics of the kind assigned to an incremental length measuring system. The existing evaluation electronics have one electronic interface to the computer to calculate the calculated displacement of the line grid3rd as To have phase information available in real time on the computer. At the same time is on the Line grid3rd a first reference structure is applied in the part outside of the image field used, the optically from a second reference structure, which is also applied to the counter grid is scanned. Here too, lighting and receiver optics are assigned and one Evaluation electronics available. The second evaluation electronics also have electronic ones Interface to the computer in order to pass through the zero point of the line grid in real time Both linear guides of the motion system start from the zero position. The Direction of movement of the first linear guide is parallel to the optical axis of the imaging lens aligned. The movement takes place towards the focal points. The smaller, second linear guide, the the line grid3rd carries, a position control system is assigned to a movement of the Line grid with a speed that is as constant as possible and thus also with a constant To be able to realize phase velocity. The direction of movement of the second linear guide is perpendicular to the optical axis of the lighting lens1 and takes place after the start in the direction of Lighting lens1.From the current, absolute actual phase ϕGrid of the line grid3rdderived from a zero point the setpoints for the position of the first linear guide are calculated. This is done in such a way that the locations of the same phase or relative luminance on the line grid3rd parallel to one Lines gA, for example parallel to the straight line gA2, on the B route BSA2 move. This straight line GA is defined to focus FFROM of the lighting lens1 and also the Main point HAA of the imaging lens2nd The luminous surface elements FEL move in the array space on the displacement paths VSAjthat here through the target routes, the B routes BSAj, are represented. The pictures of this B routes BSAj, including those in theFig. 1 B routes BS shownA1 and BSA2, are in mapped the object space. For example, the B routes BSA1 and BSA2 the pictures BSA1  and BSA2. The pictures BSA1 and BSA2 form a cluster of lines SB1 with the convergence point K1, the with the focus FOA of the imaging lens2nd coincides. Furthermore, the elements of the Receiver arrays on AS linesAj postponed. The routes AS are shownA1 and ASA2. Theirs Images represent the route bundle SB in the object space2nd with the routes ASO1 and ASO2 with the Convergence point K2nd represents the focus FOA of the imaging lens2nd with the convergence point  K1 coincides, the coincidence point of convergence point K1 and from convergence point K2nd in the generally always the point of coincidence K0 Through this movement regime, the axially perpendicular planes of the object space are removed from the "Pass through" the focus area one after the other by being present in each of these planes an object surface from the lighting lens1 sharply illustrated stripe pattern observes which through the imaging lens2nd on the receiver matrix6 is mapped. By moving the locations of the same phase or the same relative luminance the line grid3rd parallel to a straight line gA the so-called "carrying the phase in the Sharpening area reached. This means that every sufficiently small object detail, in the object space, if it is "captured" by the focus, a modulated periodic signal in the associated pixel ij on the receiver matrix6 generated in which the information about the absolute phase of the Object point ϕObj_ij is included. This absolute phase corresponds for example to the Object point AO2 inFig. 1 of the imaginary number of strips n, including the fraction of strips Δn, between the two lens axes, i.e. n + Δn. These stripes are in the case of a flat, Observe the plate arranged perpendicular to the axis. Still, in general, this can be so observing absolute object phase due to the unknown assignment of the two optical axes to the pixels of the receiver matrix6 cannot be determinedFig. 1 shows that in position AO1BO1 the number of strips n + 1 + Δn that between the two lens axes, exactly the number n + 1 + Δn of Grid periods of the line grid3rd in the array space, which is different when counting from the axis of the Lighting lens1 in xFROMDirection results. Point G also definesFROM exactly the place the grid element of the line grid3rd, which when moving on the straight line gA in the section of the Grid increments the focus FFROM of the lighting lens1 cuts. Accordingly, the absolute, laterally invariant object phase ϕObj the plane perpendicular to the axis, the distance GQ. With knowledge of the associated point GFROM on the line grid3rd and the value xAB1 as well as the Lattice constants p can basically be the absolute, laterally invariant object phase ϕObj the plane perpendicular to the object space with
calculate. If the real position of the lens axis of the imaging lens matches with the straight line gO, which are by definition parallel to the lens axis of the lighting lens1  the correlations shown apply according to equation (7). Before the measurement, i.e. H. obtaining the point cloud of an unknown object surface5  the system must be in a position perpendicular to the axis using a reference plate respectively. This is advantageously done in the close range of the 3D recording arrangement, but can also be in any other distance in the recording area of the 3D recording arrangement. The in the Pixel of the receiver matrix6 the resulting signal profiles are saved. From these The relative reference phase is signal waveforms using a phase evaluating algorithm ϕRR_ij calculated in pixel ij of the receiver array in the range of the maximum modulation, which one Received signal from the reference plate. The relative reference phases mod 2π thus determined become the absolute phase ϕGrid assigned to the line grid, seeFig. 2, and taking into account the  the respective sign subtracted from this and in a field as phase values ϕGridR_ij - in the Rule - saved in the long term. The relative object phases of the object points ϕRObj_ij mod 2π are each from the absolute phase9 Grid of the line grid3rd taking into account the respective Sign subtracted from this, whereby the phase values ϕGridObj_ij emerge as a field. Out these fields are pointwise the phase differences Δ punktGrid_ij Previously, from the best known distance zOR the reference plate from the focal plane the absolute, laterally invariant phase ϕR the reference surface with the one shown here again Equation (2)
determined, this determination being made several times iteratively to approximate its true value can. It represents the distance between the axes of the two lenses1 and2nd, fB the focal length of the Lighting lens1 and p the lattice constant of the line lattice3rd With the relationship according to equation (4), where ΔϕGrid_ij for the object point ij from the Equation (3) gives
(-) ϕObj_ij = (-) ϕR + ΔϕGrid_ij (8th)
becomes the absolute object phase (-) ϕ for the object point ijObj_ij obtained from equation (8). From the relationship
can the zos coordinate of the object point zObj_ij be calculated in the object space, the Object point with the pixel ij of the receiver matrix6 is optically conjugated due to axially parallel displacements ΔzIF of flat plates, the displacements with a Precision length measurement system can be measured by using the errors calculated displacements are compared with the measured ones. The readjustment of the 3D recording arrangement is carried out iteratively. The residual deviations are in a numerical model entered, which is not shown here, and can be used for correctionObj_ij belonging current The Cartesian coordinates for each object point are determined on the reproduction scale. Here can create a new coordinate system with the focal point of the imaging lens2nd as zero point for the lateral coordinates in the x and y directions are used. The 3D coordinates are now of the object surface in digital form as a point cloud. This point cloud will vary depending on Task for measurement applications or tasks with a 3D rendering When moving an object point that is in the AO1BO1Position inFig. 1 is located in the AO2BO2- Position along the drawn ABS image beamO experiences this in the pixel of this Detected object point signal a change in the phase position of 2π. The change in the  e.g.IF-Coordinate corresponds to the Δz2nd π-Value, i.e. the change in depth, that of a phase change of 2π corresponds. This Δz2nd π-Value is called the effective wavelength and depends on the depth.Fig. 2 shows the signal profiles S, for exampleO and SR in one pixel of the receiver matrix6  in relation to the signal curve SGon the line grid3rd with the help of a counter grid when moving the Grid3rd can be detected. The signal curve in pixel S is shownO one Object point and the signal curve SR in the pixel of a reference point. Here is the Reference plate closer to focal point FIF than the object surface. At sampling point APR in the area the modulation maximum of the signal in the pixel of a reference point becomes the relative phase ϕRR calculated and at sampling point APO in the range of the maximum modulation of the signal in Pixel of an object point the relative phase ϕRObj. Using equation (3) the absolute Phase difference ΔϕGittzer calculated and with equation (4) the absolute object phase ϕObjfrom the with the equation (5) the zIF-Coordinate of each object point, namely zObj, is determined. The highly stable zero point N serves as the starting point.Fig. 3 shows an advantageous 3D recording arrangement with only one linear guide7, for example for a 3D recording arrangement for multimedia applications. The sled8th the linear guide7  carries a line grid3rd for structured lighting of the object surface5. The lighting is done by means of a light source4th through an opening in the base9 the linear guide7. Furthermore, the carriage8th the moving parts for a measuring system10th for the displacement s, including a Zero point encoder11 is arranged. There is also evaluation electronics with an interface to here Evaluation computer not shown available. The slide8th is powered by a linear motor12th driven and leadership7 instructs miniaturized precision bearings13 on. As a recipient matrix6 can also be a color camera are used, the color sensitive pixels each on a line transverse to the lines of the Line grid3rd after the start of the sled8th the zero point and the line grid are passed in the (-) s direction 3rd through the lighting lens1 in succession at different depths of the object space pictured. On the surface of the object surface5 arises when the line grid is moved3rd  in the time range ΔtB at least once in the process of moving the sharp image of the same, for example at time ti. This sharp image will also appear at time ti from Imaging lens2nd on the receiver matrix6 sharply depicted since these are in the same Level as the line grid3rd located. By the movement of the sled8th the leadership7 is there a lateral movement of the receiver matrix6, the image of the object surface5 in relation to the base9 is certain. In order to compensate for this lateral movement, a fixed assignment of the Points of the object surface5, i.e. the imaging rays, to the pixels of the receiver matrix6  to maintain, the image information obtained is pixel by pixel in the image data massif corresponding to the lateral movement of the receiver matrix6 postponed. This ensures that a real imaging beam each a laterally fixed image point independent of the lateral one Movement of the receiver matrix6 remains assigned.   
DE1999119584 1999-04-29 1999-04-29 3D recording method and arrangement Withdrawn DE19919584A1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE1999119584 DE19919584A1 (en) 1999-04-29 1999-04-29 3D recording method and arrangement
PCT/DE2000/000991 WO2000066972A1 (en) 1999-04-29 2000-04-01 Method and device for scanning objects
DE10081176T DE10081176D2 (en) 1999-04-29 2000-04-01 Object scanning method and apparatus
AU43913/00A AU4391300A (en) 1999-04-29 2000-04-01 Method and device for scanning objects
EP00925063A EP1188035A1 (en) 1999-04-29 2000-04-01 Method and device for scanning objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1999119584 DE19919584A1 (en) 1999-04-29 1999-04-29 3D recording method and arrangement

Publications (1)

Publication Number Publication Date
DE19919584A1 true DE19919584A1 (en) 2000-11-02

Family

ID=7906332

Family Applications (2)

Application Number Title Priority Date Filing Date
DE1999119584 Withdrawn DE19919584A1 (en) 1999-04-29 1999-04-29 3D recording method and arrangement
DE10081176T Expired - Fee Related DE10081176D2 (en) 1999-04-29 2000-04-01 Object scanning method and apparatus

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE10081176T Expired - Fee Related DE10081176D2 (en) 1999-04-29 2000-04-01 Object scanning method and apparatus

Country Status (4)

Country Link
EP (1) EP1188035A1 (en)
AU (1) AU4391300A (en)
DE (2) DE19919584A1 (en)
WO (1) WO2000066972A1 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003101089A1 (en) * 2002-05-23 2003-12-04 Cobra Electronic Gmbh Miniaturised camera
DE102008016766A1 (en) 2008-04-02 2009-11-19 Sick Ag Optoelectronic sensor e.g. charge coupled device sensor, for detecting object in monitoring region, has controller spectrally modifying lighting condition when contrast of image data is evaluated as reliable object recognition
US7830528B2 (en) 2005-12-14 2010-11-09 Koh Young Technology, Inc. 3D image measuring apparatus and method thereof
DE102010060448A1 (en) * 2010-11-09 2012-05-10 Eberhard Lange Device for projecting three-dimensional object, has light source imaged by condensing optic, and controlling unit adjusting effective form of light source as function of structure that is formed by object to be projected
CN101514893B (en) * 2005-12-14 2012-08-08 株式会社高永科技 Three-dimensional shape measuring instrument and method
DE102010030833B4 (en) * 2009-07-03 2014-07-03 Koh Young Technology Inc. Device for measuring a three-dimensional shape
DE102014119126B3 (en) * 2014-12-19 2015-08-06 Sick Ag Strip projector to illuminate a scene with a variable stripe pattern
DE102017004428A1 (en) * 2017-05-08 2018-11-08 Universität Stuttgart Method and device for robust, deep-scanning focusing strip triangulation with multiple wavelets
DE102017004429A1 (en) * 2017-05-08 2018-11-08 Universität Stuttgart Method and device for robust, deep-scanning / focusing strip triangulation
US10352995B1 (en) 2018-02-28 2019-07-16 Nxp Usa, Inc. System and method of multiplexing laser triggers and optically selecting multiplexed laser pulses for laser assisted device alteration testing of semiconductor device
US10782343B2 (en) 2018-04-17 2020-09-22 Nxp Usa, Inc. Digital tests with radiation induced upsets
CN115540759A (en) * 2022-11-16 2022-12-30 南京科天力电子科技有限公司 Detection method and detection system for modifying metal based on image recognition technology
RU2791666C2 (en) * 2018-11-15 2023-03-13 Ксепикс Са Method and system for automatic measurement of the physical and dimentional parameters of multi-segment products

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1607041B1 (en) 2004-06-17 2008-01-16 Cadent Ltd. Method for providing data associated with the intraoral cavity
US9675430B2 (en) 2014-08-15 2017-06-13 Align Technology, Inc. Confocal imaging apparatus with curved focal surface
EP3575773A1 (en) * 2018-05-28 2019-12-04 Universität für Bodenkultur Wien A method for determining a three-dimensional particle distribution in a medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4689480A (en) * 1985-04-25 1987-08-25 Robotic Vision Systems, Inc. Arrangement for improved scanned 3-D measurement
US5003166A (en) * 1989-11-07 1991-03-26 Massachusetts Institute Of Technology Multidimensional range mapping with pattern projection and cross correlation

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003101089A1 (en) * 2002-05-23 2003-12-04 Cobra Electronic Gmbh Miniaturised camera
US7830528B2 (en) 2005-12-14 2010-11-09 Koh Young Technology, Inc. 3D image measuring apparatus and method thereof
CN101514893B (en) * 2005-12-14 2012-08-08 株式会社高永科技 Three-dimensional shape measuring instrument and method
DE102006059132B4 (en) * 2005-12-14 2012-12-06 Koh Young Technology Inc. Three-dimensional image measuring method
DE102008016766A1 (en) 2008-04-02 2009-11-19 Sick Ag Optoelectronic sensor e.g. charge coupled device sensor, for detecting object in monitoring region, has controller spectrally modifying lighting condition when contrast of image data is evaluated as reliable object recognition
DE102010030833B4 (en) * 2009-07-03 2014-07-03 Koh Young Technology Inc. Device for measuring a three-dimensional shape
DE102010060448A1 (en) * 2010-11-09 2012-05-10 Eberhard Lange Device for projecting three-dimensional object, has light source imaged by condensing optic, and controlling unit adjusting effective form of light source as function of structure that is formed by object to be projected
DE102010060448B4 (en) * 2010-11-09 2021-07-01 Eberhard Lange Projection device for projecting an object to be projected
DE102014119126B3 (en) * 2014-12-19 2015-08-06 Sick Ag Strip projector to illuminate a scene with a variable stripe pattern
WO2018206233A1 (en) 2017-05-08 2018-11-15 Universität Stuttgart Method and arrangement for robust, depth-scanning/focusing strip triangulation by means of a plurality of wavelets
DE102017004429A1 (en) * 2017-05-08 2018-11-08 Universität Stuttgart Method and device for robust, deep-scanning / focusing strip triangulation
DE102017004428B4 (en) 2017-05-08 2018-11-29 Universität Stuttgart Method and device for robust, deep-scanning focusing strip triangulation with multiple wavelets
DE102017004429B4 (en) 2017-05-08 2019-05-09 Universität Stuttgart Method and device for robust, deep-scanning / focusing strip triangulation
US10866088B2 (en) 2017-05-08 2020-12-15 Universität Stuttgart Method and arrangement for robust, depth-scanning/focusing strip triangulation by means of a plurality of wavelets
DE102017004428A1 (en) * 2017-05-08 2018-11-08 Universität Stuttgart Method and device for robust, deep-scanning focusing strip triangulation with multiple wavelets
US10352995B1 (en) 2018-02-28 2019-07-16 Nxp Usa, Inc. System and method of multiplexing laser triggers and optically selecting multiplexed laser pulses for laser assisted device alteration testing of semiconductor device
US10782343B2 (en) 2018-04-17 2020-09-22 Nxp Usa, Inc. Digital tests with radiation induced upsets
RU2791666C2 (en) * 2018-11-15 2023-03-13 Ксепикс Са Method and system for automatic measurement of the physical and dimentional parameters of multi-segment products
CN115540759A (en) * 2022-11-16 2022-12-30 南京科天力电子科技有限公司 Detection method and detection system for modifying metal based on image recognition technology
CN115540759B (en) * 2022-11-16 2023-05-09 江西滕创洪科技有限公司 Detection method and detection system for modifying metal based on image recognition technology

Also Published As

Publication number Publication date
EP1188035A1 (en) 2002-03-20
DE10081176D2 (en) 2002-03-28
WO2000066972A1 (en) 2000-11-09
AU4391300A (en) 2000-11-17

Similar Documents

Publication Publication Date Title
EP0932816B1 (en) Method and device for measuring the course of reflective surfaces
EP3033588B1 (en) Method and device for non-contact measuring of surface contours
EP1971820B1 (en) Creation of a distance image
DE102016118562A1 (en) THREE-DIMENSIONAL IMAGE DEVICE CONTAINING A DICHROITIC CAMERA
DE19919584A1 (en) 3D recording method and arrangement
DE102015122842A1 (en) Calibration plate for calibrating a 3D measuring device and method therefor
DE3016361A1 (en) METHOD AND DEVICE FOR ELECTRO-OPTICALLY DETERMINING THE DIMENSIONS, POSITION OR POSITION OF AN OBJECT
DE102009009372A1 (en) Monitoring of tiltable mirrors
DE102014019671B4 (en) Method for optically scanning and measuring an environment with a 3D measuring device and auto-calibration by means of a 2D camera
EP2948732B1 (en) System for determining the position of a test object
DE102013212409A1 (en) Method for image acquisition of a preferably structured surface of an object and device for image acquisition
DE19846145A1 (en) Three-dimensional imaging device for shape measurement has transmitter array whose elements move in straight, parallel lines
DE102006031833A1 (en) Method for generating image information
DE102017004428A1 (en) Method and device for robust, deep-scanning focusing strip triangulation with multiple wavelets
EP0671679A1 (en) Method and device to measure without contact tridimensional objects based on optical triangulation
DE102019201272A1 (en) Device, measurement system and method for detecting an at least partially reflective surface using two reflection patterns
DE102015106838B4 (en) Method for controlling a 3D measuring device by means of the movement path and device for this purpose
DE102015011427B4 (en) Image acquisition system and image evaluation system
DE102012001307A1 (en) Method for three dimensional measurement of objects, particularly under obstructive lighting conditions, involves detecting to be changed or multiple different patterns by detector, where patterns are projected on object surface
DE19749974C2 (en) Method and apparatus for generating a 3D point cloud
DE102005044912B4 (en) Method and device for the three-dimensional optical measurement of reflecting surfaces
WO2012076182A1 (en) Method and system for determining the position and/or location of an object in a spatial measurement volume
DE102017004429B4 (en) Method and device for robust, deep-scanning / focusing strip triangulation
WO2016071078A2 (en) Measurement of the topography and/or the gradient and/or the curvature of a light-reflecting surface of a spectacle lens
DE102014016087B4 (en) Three-dimensional optical detection of object surfaces

Legal Events

Date Code Title Description
8122 Nonbinding interest in granting licences declared
8143 Withdrawn due to claiming internal priority
8170 Reinstatement of the former position
8110 Request for examination paragraph 44
8139 Disposal/non-payment of the annual fee