WO2010084834A1 - 空間像表示装置 - Google Patents

空間像表示装置 Download PDF

Info

Publication number
WO2010084834A1
WO2010084834A1 PCT/JP2010/050473 JP2010050473W WO2010084834A1 WO 2010084834 A1 WO2010084834 A1 WO 2010084834A1 JP 2010050473 W JP2010050473 W JP 2010050473W WO 2010084834 A1 WO2010084834 A1 WO 2010084834A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
image
display device
display
image display
Prior art date
Application number
PCT/JP2010/050473
Other languages
English (en)
French (fr)
Inventor
正裕 山田
直 青木
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201080004826.5A priority Critical patent/CN102282501A/zh
Priority to US13/143,031 priority patent/US20120002023A1/en
Publication of WO2010084834A1 publication Critical patent/WO2010084834A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/004Optical devices or arrangements for the control of light using movable or deformable optical elements based on a displacement or a deformation of a fluid
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/354Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying sequentially
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/307Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • H04N13/315Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers the parallax barriers being time-variant
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects

Definitions

  • the present invention relates to a spatial image display device that displays a stereoscopic image of an object in space.
  • a stereoscopic image is realized by utilizing human recognition physiological functions. That is, the observer occurs when the image from the left and right eyes is recognized (binocular parallax) or recognition from the convergence angle, and the focal length of the lens of the eye is adjusted using the ciliary body or chin body of the eye Based on the recognition from the physiological function (focal distance adjustment function) and the recognition by the change of the image seen when exercised (movement parallax), the solid is recognized in the process comprehensively processed by the brain.
  • a mask is provided on the liquid crystal display surface so that an image for the right eye can be seen by the right eye and an image for the left eye can be seen by the left eye. How to do that is also being developed.
  • Patent Document 1 proposes a three-dimensional display device provided with a plurality of one-dimensional display devices and deflection means for deflecting display patterns from each one-dimensional display device in the same direction as the arrangement direction. There is.
  • this three-dimensional display device a plurality of output images are simultaneously recognized by the afterimage effect of the eye, and it is considered that they can be perceived as a stereoscopic image by the action of binocular parallax.
  • the radiation light from each one-dimensional display device is emitted as a spherical wave, the images corresponding to each of the viewer's eyes are also incident on the opposite eyes from each other. It is thought that there is a high possibility that double images will be recognized.
  • Patent Document 2 one set of condenser lenses and a pinhole member sandwiched between the one set of condenser lenses are disposed between the liquid crystal display element and the observation point.
  • a two-dimensional image display device is disclosed.
  • the light emitted from the liquid crystal display element is collected by one of the condensing lenses so as to have the smallest diameter at the position of the pinhole of the pinhole member, and the light passing through the pinhole is collected by the other
  • a collimated light is made by a light lens (for example, a Fresnel lens). According to such a configuration, it is estimated that images corresponding to each of the left eye and the right eye of the observer are appropriately distributed to obtain binocular parallax.
  • Holography technology is an artificial reproduction of light waves from an object.
  • a stereoscopic image using holography technology uses interference fringes generated by light interference, and uses a diffraction wavefront itself generated when light is illuminated on the interference fringe as an image information medium. Therefore, visual system physiological reactions such as convergence and adjustment occur as in the case where an observer is observing an object in the real world, and an image with less eyestrain can be provided. Furthermore, the fact that the light wavefront from the object is reproduced can be said to be continuity in the direction of transmitting the video information.
  • the method of generating a stereoscopic image using holography technology is a method of providing an image in which motion parallax is continuously provided.
  • the method of generating a stereoscopic image by the above-described holography technique is a method of recording the diffracted wavefront itself from the object itself and reproducing it, it can be said that it is an extremely ideal method of expressing a stereoscopic image.
  • the three-dimensional image display device of Patent Document 2 has a configuration like a Fourier transform optical system, and since the pinhole also has a certain size (diameter), the spatial frequency at the position of the pinhole It is considered that the high component of (i.e., the component with high resolution) is unevenly distributed (more distributed at the peripheral portion) in the plane orthogonal to the optical axis. Therefore, in order to realize strictly collimated light, it is necessary to make the diameter of the pinhole extremely small. However, the smaller the diameter of the pinhole, the lower the brightness and nonuniformity of the obtained image, and the higher the spatial frequency is removed by the pinhole, the resolution is also estimated to be degraded. Be done.
  • Non-Patent Document 1 studies of spatial image display devices based on the light beam reproduction method have been advanced (see, for example, Non-Patent Document 1).
  • the ray reproducing method is intended to represent an aerial image with a large number of rays emitted from a display, and theoretically, it is possible to observe accurate motion parallax information and focal distance information even with naked eye observation Provided to the elderly, and an aerial image with relatively low eyestrain can be obtained.
  • the applicant of the present invention has already proposed a spatial image display device for realizing a spatial image display based on such a light beam reproduction method (see, for example, Patent Document 3).
  • Patent No. 3077930 gazette JP 2000-201359 A JP 2007-86145 A
  • a two-dimensional display having such a high frame rate is expensive and tends to be complicated and large in size.
  • a spatial image display device capable of displaying a more natural spatial image while having a more compact structure without requiring such a high frame rate in a two-dimensional display is desired.
  • the present invention has been made in view of such problems, and an object thereof is to provide a spatial image display device capable of forming a more natural spatial image while having a simple structure.
  • a spatial image display apparatus has a plurality of pixels, and a two-dimensional image generation unit that generates a two-dimensional display image according to a video signal; Is provided with deflection means for horizontally deflecting at least a group of pixels aligned in the horizontal direction as one unit.
  • display image light corresponding to a group of pixels among display image light from the two-dimensional image generation means is grouped together by one deflection means corresponding to the group of pixels To be deflected. That is, when a group of pixels arranged in the horizontal direction consists of n pixels, n deflected display image light beams traveling in different directions are simultaneously emitted from one corresponding deflection means. For this reason, in comparison with the case where one deflection means is provided for one pixel, more differences can be obtained without increasing the frame display speed per unit time (frame rate) in the two-dimensional image generation means. Two-dimensional images are projected respectively in different directions in the horizontal plane.
  • one deflection means is provided for a group of pixels, and the display image light corresponding to the group of pixels is collectively deflected. Even if the frame rate in the two-dimensional image generation means is comparable to that in the past, more two-dimensional images can be emitted in an appropriate direction. Therefore, it is possible to form a more natural spatial image while having a simple structure.
  • FIG. 1 is a schematic diagram showing an example of configuration of a spatial image display device as an embodiment of the present invention.
  • FIG. 2 is a perspective view showing the configuration of a first lens array shown in FIG. 1 and a plan view showing the arrangement of pixels of a display unit. It is a perspective view showing the structure of the 2nd lens array shown in FIG. It is a perspective view which shows the structure of the liquid optical element in the wavefront conversion deflection
  • FIG. 5 is a conceptual diagram for explaining the operation of the liquid optical element shown in FIG. 4; It is a conceptual diagram for demonstrating the operation
  • FIG. 1 shows a configuration example of the spatial image display device 10 in a horizontal plane.
  • FIG. 2A shows a perspective view of the first lens array 1 shown in FIG. 1
  • FIG. 2B shows pixels 22 (22R, 22G, 22G, 22G, 22B, 22C,... In the XY plane of the display unit 2 shown in FIG. 22B) arrangement.
  • FIG. 3 shows a perspective view of the second lens array 3 shown in FIG.
  • FIG. 4 shows a specific configuration of the wavefront conversion deflection unit 4 shown in FIG.
  • the spatial image display device 10 includes, from the side of a light source (not shown), a display unit 2 having a plurality of first lens arrays 1 and pixels 22 (described later), a second lens array 3, and a wavefront.
  • the conversion deflection unit 4 and the diffusion plate 5 are provided in order.
  • the first lens array 1 has a plurality of microlenses 11 (11A, 11B, 11C) arranged in a matrix along a plane (XY plane) orthogonal to the optical axis (Z axis) (FIG. 2 (A) )).
  • the microlenses 11 each condense the backlight BL from the light source and emit the light toward the corresponding pixels 22.
  • the microlens 11 has a spherical lens surface, and the focal length of light passing through the horizontal plane (XZ plane) including the optical axis and the focal length of light passing through the plane including the optical axis orthogonal to the horizontal plane (YZ plane) Are identical to each other. It is desirable that all the microlenses 11 have the same focal length f11 as each other.
  • As the backlight BL it is desirable to use parallel light in which light such as a fluorescent lamp is collimated by a collimator lens or the like.
  • the display unit 2 generates a two-dimensional display image according to a video signal, and specifically, is a color liquid crystal device that emits display image light by being irradiated with the backlight BL.
  • the display unit 2 has a structure in which a glass substrate 21, a plurality of pixels 22 each including a pixel electrode and a liquid crystal layer, and a glass substrate 23 are sequentially stacked from the side of the first lens array 1.
  • the glass substrate 21 and the glass substrate 23 are transparent, and one of them is provided with a color filter having a colored layer of red (R), green (G) and blue (B). For this reason, the pixels 22 are classified into a pixel 22R displaying red, a pixel 22G displaying green, and a pixel 22B displaying blue.
  • the pixel 22R, the pixel 22G, and the pixel 22B are repeatedly arranged in order in the X-axis direction, while the same color is arranged in the Y-axis direction.
  • the pixels 22 are arranged to align.
  • the pixels 22 aligned in the X-axis direction are referred to as a row
  • the pixels 22 aligned in the Y-axis direction are referred to as a column.
  • Each pixel 22 has a rectangular shape extending in the Y-axis direction in the XY plane, and corresponds to the microlens group 12 (FIG. 2A) including a group of microlenses 11A to 11C arranged in the Y-axis direction. Is provided. That is, the positional relationship between the first lens array 1 and the display unit 2 is such that the light passing through the micro lenses 11A to 11C of the micro lens group 12 is condensed on the spots SP1 to SP3 in the effective area of each pixel 22. (FIGS. 2A and 2B).
  • the light having passed through the microlenses 11A to 11C of the microlens group 12 n is condensed on spots SP1 to SP3 of the pixel 22R n , respectively.
  • the light from the microlens group 12 n + 1 is converged to the pixels 22R n + 1
  • the light from the microlens group 12 n + 2 is condensed in the pixel 22R n + 2.
  • one pixel 22 may be disposed corresponding to one microlens 11, or one pixel 22 may be disposed corresponding to two or four or more microlenses 11.
  • the second lens array 3 converts the display image light collected by passing through the first lens array 1 and the display unit 2 into parallel light in a horizontal plane and emits the parallel light.
  • the second lens array 3 is a so-called lenticular lens, and for example, as shown in FIG. 3, the plurality of cylindrical lenses 31 each having a cylindrical surface centered on the axis along the Y axis is the X axis It is arranged to line up in the direction. Therefore, the cylindrical lens 31 exerts refractive power in the horizontal plane including the optical axis (Z axis).
  • Z axis optical axis
  • the cylindrical lens 31 may have a cylindrical surface centered on an axis inclined by a predetermined angle ⁇ ( ⁇ ⁇ 45 °) from the Y axis. It is desirable that all the cylindrical lenses 31 have the same focal length f31. Further, the distance f13 between the first lens array 1 and the second lens array 3 is equal to the sum of respective focal lengths, ie, the sum of the focal length f11 of the micro lens 11 and the focal length f31 of the cylindrical lens 31 I do. Therefore, when the backlight BL is parallel light, the light emitted from the cylindrical lens 31 also becomes parallel light in the horizontal plane.
  • the wavefront conversion deflection unit 4 has one or more liquid optical elements 41 provided for one second lens array 3, and the wavefront for the display image light emitted from the second lens array 3 It performs transformation and deflection.
  • the liquid optical element 41 arranges the wavefront of display image light emitted from the second lens array 3 in a group of pixels 22 aligned in both the horizontal direction (X-axis direction) and the vertical direction (Y-axis direction). As a unit, it is collectively converted to a wavefront having a predetermined curvature, and the display image light is collectively deflected in the horizontal plane (in the XZ plane).
  • the display image light transmitted through the liquid optical element 41 has a curvature to focus on a position having an optical path length equal to the optical path length from the observation point to the virtual object point from an arbitrary observation point as a base point. It is converted to a wave front.
  • FIG. 4A to 4C show a specific perspective configuration of the liquid optical element 41.
  • FIG. 4A in the liquid optical element 41, the transparent nonpolar liquid 42 and the polar liquid 43 having different refractive indices and interfacial tensions on the optical axis (Z axis) are made of copper or the like. It is disposed so as to be sandwiched between the pair of electrodes 44A and 44B.
  • the pair of electrodes 44A and 44B are bonded and fixed to the transparent bottom plate 45 and the top plate 46 via the insulating seal portion 47, respectively.
  • the electrodes 44A and 44B are connected to an external power supply (not shown) through terminals 44AT and 44BT connected to the respective outer surfaces.
  • the top plate 46 is made of a transparent conductive material such as indium tin oxide (ITO) or zinc oxide (ZnO), and functions as a ground electrode.
  • the electrodes 44A and 44B are each connected to a control unit (not shown), and can be set to a predetermined potential.
  • the side surfaces (XZ plane) different from the electrodes 44A and 44B are covered with a glass plate or the like (not shown), and the nonpolar liquid 42 and the polar liquid 43 are sealed in a completely sealed space.
  • the nonpolar liquid 42 and the polar liquid 43 are separated without being dissolved in each other in the closed space, forming an interface 41S.
  • the hydrophobic insulating film exhibits hydrophobicity (water repellency) with respect to the polar liquid 43 (more strictly, exhibits affinity for the nonpolar liquid 42 in the absence of an electric field), as well as excellent electrical insulation.
  • PVdF polyvinylidene fluoride
  • PTFE polytetrafluoroethylene
  • Electrode 44A and the electrode 44B it is possible to use other materials such as spin on glass (SOG) between the electrodes 44A and 44B and the above-mentioned hydrophobic insulating film.
  • SOG spin on glass
  • An insulating film may be provided.
  • the nonpolar liquid 42 is a liquid material which has almost no polarity and exhibits electrical insulation.
  • silicone oil is suitable. It is desirable that the nonpolar liquid 42 has a sufficient capacity to cover the entire surface of the bottom plate 45 when no voltage is applied between the electrodes 44A and 44B.
  • the polar liquid 43 is a liquid material having polarity, and for example, an aqueous solution in which an electrolyte such as potassium chloride or sodium chloride is dissolved in addition to water is preferable.
  • an electrolyte such as potassium chloride or sodium chloride is dissolved in addition to water is preferable.
  • the wettability to the inner surface 44AS, 44BS (or the hydrophobic insulating film covering it) (polar liquid 43 and contact with the inner surface 44AS, 44BS (or the hydrophobic insulating film covering it) (Corner) greatly changes as compared with the nonpolar liquid 42.
  • the polar liquid 43 is in contact with the top plate 46 as a ground electrode.
  • the nonpolar liquid 42 and the polar liquid 43 enclosed so as to be surrounded by the pair of electrodes 44A and 44B and the bottom plate 45 and the top plate 46 are separated without being mixed with each other to form an interface 41S.
  • the nonpolar liquid 42 and the polar liquid 43 are adjusted to have approximately the same specific gravity, and the positional relationship between the nonpolar liquid 42 and the polar liquid 43 is determined in the order of sealing. Since the nonpolar liquid 42 and the polar liquid 43 are transparent, light transmitted through the interface 41 S is refracted according to the incident angle and the refractive index of the nonpolar liquid 42 and the polar liquid 43.
  • the liquid optical element 41 when no voltage is applied between the electrodes 44A and 44B (the potentials of the electrodes 44A and 44B are both zero), as shown in FIG. 41S forms a convex curved surface from the side of the polar liquid 43 toward the nonpolar liquid 42.
  • the contact angle 42 ⁇ A of the nonpolar liquid 42 with respect to the inner surface 44AS and the contact angle 42 ⁇ B of the nonpolar liquid 42 with respect to the inner surface 44BS are adjusted, for example, by selecting the material type of the hydrophobic insulating film covering the inner surfaces 44AS, 44BS. be able to.
  • the liquid optical element 41 exerts negative refractive power.
  • the liquid optical element 41 exhibits positive refractive power.
  • the nonpolar liquid 42 is a hydrocarbon-based material or silicone oil and the polar liquid 43 is water or an aqueous electrolyte solution
  • the liquid optical element 41 exhibits negative refractive power.
  • the interface 41S has a constant curvature in the Y-axis direction, and the curvature is maximized in this state (a state in which no voltage is applied between the electrodes 44A and 44B).
  • FIG. 4C shows the case where the potential Vb is larger than the potential Va (the contact angle 42 ⁇ B is larger than the contact angle 42 ⁇ A).
  • incident light traveling in parallel with the electrodes 44A and 44B and entering the liquid optical element 41 is refracted and deflected in the XZ plane at the interface 41S. Therefore, incident light can be deflected in a predetermined direction in the XZ plane by adjusting the magnitudes of the potential Va and the potential Vb.
  • the curvature of the interface 41S is changed by adjusting the magnitudes of the potential Va and the potential Vb.
  • An interface 41 S 1 (indicated by a solid line) having a curvature smaller than that of the interface 41 S 0 (indicated by a broken line) in the case of zero is obtained. Therefore, the refractive power exerted on the light transmitted through the interface 41S can be adjusted by changing the magnitude of the potential Va and the potential Vb. That is, the liquid optical element 41 functions as a variable focus lens.
  • the interface 41S is inclined while having an appropriate curvature.
  • Va> Vb an interface 41Sa represented by a solid line in FIG. 5B is formed.
  • Vb the potential Vb
  • Va ⁇ Vb the interface 41Sb represented by the broken line in FIG. 5B is formed. Therefore, by adjusting the magnitudes of the electric potential Va and the electric potential Vb, the liquid optical element 41 can deflect the incident light in a predetermined direction while exhibiting appropriate refractive power with respect to the incident light. is there.
  • the diffusion plate 5 diffuses the light from the wavefront conversion / polarization unit 4 only in the vertical direction (Y-axis direction).
  • the light from the wavefront conversion deflection unit 4 is not diffused in the X-axis direction.
  • a diffusion plate 5 for example, a lens diffusion plate (Luminit, LLC, USA; model number LSD 40 ⁇ 0.2 or the like) may be used.
  • a lenticular lens in which a plurality of cylindrical lenses are arranged may be used.
  • the cylindrical lens has a cylindrical surface centered on the axis along the X axis, and they are arranged in the Y axis direction.
  • the diffusion plate 5 is disposed on the projection side of the second lens array 3, but may be disposed between the first lens array 1 and the second lens array 3.
  • the observer when observing an object point on an object, the observer recognizes the object point as a "point" existing in a unique place in a three-dimensional space by observing a spherical wave emitted as a point light source doing.
  • wavefronts emitted from an object simultaneously travel and always continuously reach an observer with a certain wavefront shape.
  • light waves from each of the virtual points are emitted, and even if the time when each light wave reaches the observer is somewhat inaccurate, it will not be continuous, but rather intermittent.
  • the wavefront of each point in space is time-sequentially ordered and formed at high speed using the integration action of this human eye, so that a three-dimensional naturalr than before can be obtained. An image can be formed.
  • the spatial image display device 10 can display a spatial image as follows.
  • FIG. 6 is a conceptual diagram showing a state in which the observers I and II observe a virtual object IMG as a stereoscopic image using the spatial image display device 10. As shown in FIG. The principle of operation will be described below.
  • an image light wave of any virtual object point (for example, virtual object point B) in the virtual object IMG is formed as follows. First, two types of images corresponding to the left and right eyes are displayed on the display unit 2. At that time, the backlight BL (not shown here) is irradiated from the light source to the first lens array 1, and the light transmitted through the plurality of microlenses 11 is focused toward the corresponding pixels 22. The light reaching each pixel 22 travels to the second lens array 3 while diverging as display image light. The display image light from each pixel 22 is converted into parallel light in the horizontal plane when passing through the second lens array 3. Naturally, it is impossible to simultaneously display two images, so each image is sequentially displayed and finally sent to the left and right eyes respectively.
  • an image corresponding to the virtual object point C is displayed at a point CL1 (for the left eye) and a point CR1 (for the right eye) on the display unit 2, respectively.
  • convergent light is emitted from the microlenses 11 corresponding to the pixels 22 located at the point CL1 (for the left eye) and the point CR1 (for the right eye) in the display unit 2.
  • the display image light emitted from the display unit 2 sequentially passes through the second lens array 3, the wavefront conversion deflection unit 4 in the horizontal direction, and the diffusion plate 5 and then reaches the left eye IIL and the right eye IIR of the observer II. .
  • the image of the virtual object point C for the observer I is displayed at a point BL1 (for the left eye) and a point BR1 (for the right eye) on the display unit 2, and the second lens array 3, the wavefront conversion deflection unit 4 and After sequentially transmitting through the diffusion plate 5, the left eye IL and the right eye IR of the observer I are reached respectively. Since this operation is performed at high speed within the time constant of the integration effect of the human eye, the observers I and II do not recognize that the image has been sent sequentially, but recognize the virtual object point C. Can.
  • the display image light emitted from the second lens array 3 travels to the wavefront conversion deflection unit 4 as parallel light in the horizontal plane.
  • the display image light is converted into parallel light, and the focal distance is made infinite, from the physiological function that occurs when adjusting the focal distance of the eye among the positional information of the point where the light wave is emitted
  • the information obtained can be erased once.
  • the wavefront of light traveling from the second lens array 3 to the wavefront conversion deflection unit 4 is shown as a parallel wavefront r0 orthogonal to the traveling direction. This alleviates confusion in the brain caused by the incoincidence of the information from the binocular disparity and convergence angle and the information from the focal distance.
  • the display image light emitted from the points CL1 and CR1 of the display unit 2 passes through the second lens array 3 and then reaches the points CL2 and CR2 of the wavefront conversion and deflection unit 4 respectively.
  • the light wave reaching the points CL 2 and CR 2 of the wavefront conversion deflection unit 4 is deflected in a predetermined direction in the horizontal plane, and appropriate focal distance information according to each pixel 22 is added.
  • Focal length information is added by converting the planar wavefront r0 into a curved wavefront r1. This will be described in more detail later.
  • the display image light having reached the diffusion plate 5 is diffused in the vertical plane by the diffusion plate 5 and emitted toward the left eye IIL and the right eye IIR of the observer II, respectively.
  • the wavefront of the display image light reaches the point CL3 and when the deflection angle faces the right eye IIR of the observer II, the display image light
  • the display unit 2 sends out the image light in synchronization with the deflection angle by the wavefront conversion deflection unit 4 so that the wavefront of the light beam reaches the point CR3.
  • the wavefront conversion and deflection unit 4 may perform an operation of converting the wavefront r0 into the wavefront r1 in synchronization with the deflection angle of its own.
  • the wavefront of the image light emitted from the diffusion plate 5 reaches the left eye IIL and the right eye IIR of the observer II, whereby the observer II regards the virtual object point C on the virtual object IMG as one point in the three-dimensional space It can be recognized.
  • the image light emitted from the points BL1 and BR1 of the display unit 2 passes through the second lens array 3 and then reaches the points BL2 and BR2 of the wavefront conversion deflection unit 4 respectively.
  • FIG. 6 shows a state in which the image of the virtual object point C for the observer I is displayed and the image of the virtual object point B for the observer II is displayed at the points BL1 and BR1 of the display unit 2, These are not displayed simultaneously but at different times.
  • the wavefront RC of light emitted with the virtual object point C as the light source reaches the left eye IIL through the optical path length L1
  • the wavefront RC and the wavefront r1 in the left eye IIL The wave fronts are formed such that the curvatures of y.
  • the focal point CC corresponding to the wavefront r1 exists at a distance equal to the optical path length L2 from the point CL2 to the virtual object point C on the straight line connecting the point CL2 and the point CL1. Then, assuming that the display image light having the wavefront r1 is emitted as the focal point CC as a light source, when the wavefront r1 of the display image light reaches the left eye IIL, it is emitted as if the virtual object point C is a light source It is recognized as if it were the wave front RC. Further, as shown in FIG. 7, when the virtual object point A exists at a position closer to the observer side than the diffusion plate 5, the wavefront r 1 converted by the wavefront conversion deflection unit 4 is focused at the virtual object point A It will be tied.
  • a lens (positive lens) having positive refractive power corresponding to each liquid optical element 41 is separately provided on the optical axis.
  • the interface 41S of the liquid optical element 41 may be brought close to a plane or the curvature of the interface 41S may be reduced to make the function of the positive lens appear stronger.
  • the curvature of the interface 41S may be increased to weaken the action of the positive lens.
  • a lens (negative lens) having negative refractive power corresponding to each liquid optical element 41 is separately provided on the optical axis. Just do it.
  • the following operation can be obtained.
  • the display image lights corresponding to the left and right eyes should not be incident on the opposite eyes.
  • the second lens array 3 is not present and a spherical wave using the display unit 2 as a light source is emitted, even if it is deflected by the wavefront conversion deflection unit 4, it is unnecessary for the eyes on the opposite side to each other. Display image light is incident. In that case, binocular parallax does not occur and is recognized as a double image.
  • the display image light from the display unit 2 is converted into a parallel luminous flux in the second lens array 3 as in the present embodiment, the display image light does not spread fan-likely, and therefore, it can be used for the other eye. It is possible to reach only one target eye without incidence.
  • the display unit 2 generates two-dimensional display image light according to the video signal, and the liquid optical element 41 of the wavefront conversion deflection unit 4 deflects the display image light.
  • the wavefront r0 of the display image light is converted into a wavefront r1 having a desired curvature.
  • the observer can match the information on the binocular parallax, the convergence angle and the motion parallax with the appropriate focal distance information, and recognize the desired stereoscopic image without causing a physiological discomfort. be able to. Furthermore, in the wavefront conversion deflection unit 4, in addition to the wavefront conversion operation described above, the deflection operation in the horizontal plane is also performed, so a simple and compact configuration is realized.
  • display image light corresponding to a group of pixels 22 aligned in both the horizontal direction and the vertical direction is collectively subjected to wavefront conversion by one liquid optical element 41 corresponding to the group of pixels 22. And collectively biased. For this reason, as compared with the case where one liquid optical element 41 is provided for one pixel 22, more differences can be obtained without increasing the frame display speed (frame rate) per unit time in the display unit 2. Two-dimensional display image light is emitted at one time in different directions in the horizontal plane. Therefore, it is possible to form a more natural aerial image while maintaining a simple structure.
  • the display image light is diffused in the vertical direction by the diffusion plate 5, even if the observer stands at a position slightly offset in the vertical direction of the screen (vertical direction), the observer views the space image can do.
  • the display image light is deflected in the horizontal direction by the wavefront conversion deflection unit 4.
  • deflection means for deflecting the display image light in the vertical direction may be additionally provided.
  • the deflection operation in the vertical plane can also be performed by other deflection means, so that the virtual line connecting both eyes of the observer is out of the horizontal direction (for example, the posture in which the observer is lying down) Even in the case of (3), stereoscopic vision is possible because a predetermined image reaches the left and right eyes.
  • the present invention has been described above by citing some embodiments, the present invention is not limited to the above embodiments, and various modifications are possible.
  • the above-mentioned embodiment explained the example which used the liquid crystal device as a display device, it is not limited to this.
  • an array of self-light emitting elements such as organic EL elements, plasma light emitting elements, field emission (FED) elements, or light emitting diodes (LEDs) can be applied as a display device.
  • FED field emission
  • LEDs light emitting diodes
  • the liquid crystal device described in the above embodiment functions as a transmissive light valve, but a reflective light valve such as a GLV (grating light valve) or a DMD (digital multi mirror) is used as a display device. It is also possible.
  • the display image light from the two-dimensional image generation unit is set by the deflection unit as a unit of a group of pixels arranged in both the horizontal direction (X-axis direction) and the vertical direction (Y-axis direction).
  • the deflection unit As a unit of a group of pixels arranged in both the horizontal direction (X-axis direction) and the vertical direction (Y-axis direction).
  • wavefront conversion and deflection are performed, a group of pixels arranged only in the horizontal direction may be treated as one unit. In this case, it is possible to make the light beam emitted from the space image display device approach parallel light, and as a result, it is possible to display a space image with less blur.
  • the liquid optical element 41 as the deflecting means simultaneously performs the wavefront conversion operation and the deflecting operation on the display image light from the two-dimensional image generating means, but only the deflection operation is performed. You may do so.
  • a mechanism (wavefront conversion unit) for performing a wavefront conversion operation and a mechanism (deflection unit) for performing a deflection operation may be separately provided.

Abstract

 簡素な構造でありながら、より自然な空間像を形成可能な空間像表示装置を提供する。空間像表示装置10では、映像信号に応じた2次元表示画像が表示部2によって生成される。表示部2における一群の画素22に応じた表示画像光が、その一群の画素22に対応する一の液体光学素子41によって一括して波面変換され、かつ、一括して偏向される。このため、一の画素22に対して一の液体光学素子41を設けるようにした場合と比較した場合、表示部2におけるフレームレートを高めなくとも、より多くの異なった2次元の表示画像光が水平面内の異なる方向に向けてそれぞれ一度に射出されることとなる。

Description

空間像表示装置
 本発明は、空間に物体の立体映像を表示する空間像表示装置に関する。
 立体映像の生成は、人間の持つ認識生理機能を利用することにより実現されるものである。すなわち、観察者は、左右の眼に入る画像のズレ(両眼視差)や輻輳角からの認識、眼の水晶体の焦点距離を眼の毛様体やチン小体を使って調節する際に起こる生理機能(焦点距離調整機能)からの認識、および運動したときに見える画像の変化による認識(運動視差)に基づき、脳で総合的に処理する過程で立体を認識している。上記の認識生理機能のうち「両眼視差」や「輻輳角」を利用した従来の立体映像の生成方法としては、例えば、左右、色の異なる眼鏡をかけて左右の眼にそれぞれ異なる画像(視差画像)を送る方法や、液晶シャッタの付いたゴーグルをかけて液晶シャッタを高速に切り替えて左右の眼に視差画像を送る方法などがある。また、2次元表示装置に左右のそれぞれの眼に対応した画像を映しこれをレンチキュラーレンズで左右のそれぞれの眼に振り分けることによって立体画像を表現する方法も存在する。さらに、レンチキュラーレンズを用いる方法に類似したものとして、液晶ディスプレイ表面にマスクを設け右眼には右眼用の画像が左眼には左眼用の画像が見えるようにすることによって立体像を表現する方法も開発されている。
 ところが、上記のような特別な眼鏡やゴーグルを使用して視差画像を得る方法は、観察者にとって非常に煩わしいものである。一方、レンチキュラーレンズを用いる方法等では、1つの2次元画像表示装置の領域を右眼用の領域と左眼用の領域とに分割する必要があるので、高精細な画像の表示には適さないという問題がある。
 特許文献1には、複数の1次元表示装置と、各1次元表示装置からの表示パターンをそれぞれの配置方向と同一方向に偏向する偏向手段とを備えるようにした3次元表示装置が提案されている。この3次元表示装置によれば、複数の出力像が眼の残像効果により同時に認識され、両眼視差の作用により立体像として知覚可能であるとされている。しかしながら、各1次元表示装置からの放射光が球面波として放射されるので観察者の両眼の各々に対応した画像が相互に反対側の眼にも入射してしまい、実際には両眼視差が得られるどころか、2重の画像が認識される可能性が高いと考えられる。
 これに対し特許文献2には、液晶表示素子と観測点との間に、1組の集光レンズと、それら1組の集光レンズに挟まれたピンホール部材とを配置するようにした3次元画像表示装置が開示されている。この3次元画像表示装置では、液晶表示素子の射出光を一方の集光レンズによってピンホール部材のピンホールの位置において最も小径となるように集光し、ピンホールを通過した光を他方の集光レンズ(例えばフレネルレンズ)によって平行光とするようになっている。このような構成によれば、観察者の左眼および右眼の各々に対応した画像が適切に振り分けられ両眼視差が得られるものと推測される。
 また、上記の方法とは異なるものとして、ホログラフィ技術を利用して立体映像を生成する方法も存在する。ホログラフィ技術とは、物体からの光波を人工的に再現するものである。ホログラフィ技術を用いた立体映像は、光の干渉により生成された干渉縞を用い、その干渉縞に光が照明された際に生じる回折波面そのものを映像情報媒体として用いている。そのため、観察者が実世界において物体を観察しているときと同様の輻輳、調節などの視覚系生理反応が起き、眼精疲労の少ない映像を提供することができる。さらに、物体からの光波面が再現されているということは、映像情報を伝達する方向に対して連続性が確保されていることといえる。このため、観察者の視点が移動することにより、その移動に応じた異なる角度からの適切な映像を連続的に提示することが可能である。すなわち、ホログラフィ技術を利用した立体映像の生成方法は、運動視差が連続的に提供される映像提供の手法である。
 上記のホログラフィ技術による立体映像の生成方法は、物体からの回折波面そのものを記録し、それを再生する方法であるので、極めて理想的な立体映像の表現方法であるといえる。
 しかしながら、ホログラフィ技術では3次元空間情報を2次元空間における干渉縞として記録しており、その空間周波数は同じ物体を撮影した写真などの2次元空間の場合と比較すると極めて膨大な量になる。これは、3次元空間の情報を2次元空間に変換する際に、その情報が2次元空間上における密度に変換されていると考えることができる。そのために、CGH(Computer Generated Hologram)による干渉縞を表示するデバイスに求められる空間分解能は極めて高く、また膨大な情報量が必要であることから、実時間ホログラムにより立体映像を実現することは、現状において技術的に困難である。その上、記録の際に使用する光はレーザ光のような位相の揃ったものでなければならず、自然光での記録(撮影)が不可能であるという問題もある。
 また、特許文献2の3次元画像表示装置ついてはフーリエ変換光学系のような構成となっており、ピンホールもある程度の大きさ(直径)を有していることから、ピンホールの位置では空間周波数の高い成分(すなわち、解像度の高い成分)が、光軸と直交する面内において不均一に分布(周縁部により多く分布)しているものと考えられる。したがって、厳密な平行光を実現するためにはピンホールの直径を極めて小さくする必要がある。ところがピンホールの直径を小さくすればするほど得られる画像の明るさの低下や不均一化を招くうえ、ピンホールによって空間周波数の高い成分が除去されてしまうので解像度も劣化してしまうものと推定される。
 そこで、近年、光線再生法に基づく空間像表示装置の検討が進められている(例えば非特許文献1参照)。光線再生法とは、ディスプレイから放射される多数本の光線で空間像を表現しようとするものであり、理論的には、裸眼観察であっても正確な運動視差情報と焦点距離情報とを観察者に提供し、比較的、眼精疲労の少ない空間像が得られるものである。本出願人も、このような光線再生法に基づく空間像表示を実現するための空間像表示装置を既に提案している(例えば特許文献3参照)。
特許第3077930号公報 特開2000-201359号公報 特開2007-86145号公報
高木康博,「立体映像とフラットパネル型立体表示技術」,光学,第35巻,第8号,2006年,p.400-406
 ところで、光線再生法によって自然な空間像を表示するには、通常の2次元ディスプレイにおいて通常の2次元画像を1フレーム表示する間に、およそ数十~百以上の異なった2次元画像をそれぞれ異なる方向に向けて投影する必要がある。しかしながら、特許文献3などに開示した空間像表示装置では、1つの画素に対して1つの偏向素子を設けるようにしている。そのため、そのような空間像表示装置に搭載される2次元ディスプレイには、通常の2次元ディスプレイにおいて通常の2次元画像を1フレーム表示する間に、およそ数十~百以上の異なった2次元画像を表示する能力が求められることとなる。すなわち、例えば毎秒1000~6000フレーム以上という非常に高いフレームレートが必要となる。ところが、その様なハイフレームレートを有する2次元ディスプレイは高価であるうえ、複雑かつ大型な構成となりがちである。このため、2次元ディスプレイにおいてそのような高いフレームレートを必要とせず、よりコンパクト化された構造でありながら、より自然な空間像を表示することのできる空間像表示装置が望まれる。
 本発明はかかる問題点に鑑みてなされたもので、その目的は、簡素な構造でありながら、より自然な空間像を形成可能な空間像表示装置を提供することにある。
 本発明の一実施の形態による空間像表示装置は、複数の画素を有し、映像信号に応じた2次元表示画像を生成する2次元画像生成手段と、2次元画像生成手段からの表示画像光を、少なくとも水平方向に並ぶ一群の画素を一単位として、水平方向に偏向する偏向手段とを備えるようにしたものである。
 本発明の一実施の形態による空間像表示装置では、2次元画像生成手段からの表示画像光のうち一群の画素に応じた表示画像光が、その一群の画素に対応する一の偏向手段によって一括して偏向される。すなわち、水平方向に並ぶ一群の画素がn個の画素からなる場合、それらに対応する一の偏向手段から、互いに異なる方向へ向かうn個の偏向された表示画像光が同時に射出される。このため、一の画素に対して一の偏向手段を設けるようにした場合と比較した場合、2次元画像生成手段における単位時間当たりのフレーム表示速度(フレームレート)を上げなくとも、より多くの異なった2次元画像が水平面内の異なる方向に向けてそれぞれ投影されることとなる。
 本発明の一実施の形態による空間像表示装置によれば、一群の画素に対して一の偏向手段を設け、一群の画素に応じた表示画像光を一括して偏向するようにしたので、2次元画像生成手段におけるフレームレートが従来と同程度であっても、より多くの2次元画像を適切な方向へ射出することができる。このため、簡素な構造でありながら、より自然な空間像を形成することが可能となる。
本発明における一実施の形態としての空間像表示装置の一構成例を表す概略図である。 図1に示した第1レンズアレイの構成を表す斜視図、および表示部の画素の配置を表す平面図である。 図1に示した第2レンズアレイの構成を表す斜視図である。 図1に示した波面変換偏向部における液体光学素子の構成を示す斜視図である。 図4に示した液体光学素子の動作を説明するための概念図である。 図1に示した空間像表示装置において立体映像を観測する際の動作を説明するための概念図である。 図1に示した空間像表示装置において立体映像を観測する際の動作を説明するための他の概念図である。
 以下、本発明の実施の形態について図面を参照して詳細に説明する。
 図1~図4を参照し、本発明における一実施の形態としての空間像表示装置10について説明する。図1は、空間像表示装置10の、水平面内における一構成例を表すものである。図2(A)は、図1に示した第1レンズアレイ1の斜視構成を表し、図2(B)は、図1に示した表示部2のXY平面での画素22(22R,22G,22B)の配置を表している。図3は、図1に示した第2レンズアレイ3の斜視構成を表すものである。図4は、図1に示した波面変換偏向部4の具体的な構成を表すものである。
<空間像表示装置の構成>
 図1に示したように、空間像表示装置10は、光源(図示せず)の側から、第1レンズアレイ1、画素22(後述)を複数有する表示部2、第2レンズアレイ3、波面変換偏向部4、拡散板5を順に備えている。
 第1レンズアレイ1は、光軸(Z軸)と直交する面(XY平面)に沿ってマトリクス状に並ぶ複数のマイクロレンズ11(11A,11B,11C)を有している(図2(A))。マイクロレンズ11は、それぞれ光源からのバックライトBLを集光し、対応する各画素22へ向けて射出するものである。マイクロレンズ11は、レンズ面が球面であり、光軸を含む水平面(XZ平面)を通過する光の焦点距離と、光軸を含み水平面と直交する面(YZ平面)を通過する光の焦点距離とが互いに一致するものである。全てのマイクロレンズ11は、互いに等しい焦点距離f11を有することが望ましい。バックライトBLとしては、蛍光灯などの光をコリメータレンズなどによって平行化した平行光を用いることが望ましい。
 表示部2は、映像信号に応じた2次元表示画像を生成するものであり、具体的にはバックライトBLが照射されることにより表示画像光を射出するカラー液晶デバイスである。表示部2は、第1レンズアレイ1の側からガラス基板21と、それぞれ画素電極および液晶層を含む複数の画素22と、ガラス基板23とが順に積層された構造を有している。ガラス基板21およびガラス基板23は透明であり、いずれか一方には赤(R),緑(G),青(B)の着色層を有するカラーフィルタが設けられている。このため、画素22は、赤色を表示する画素22Rと、緑色を表示する画素22Gと、青色を表示する画素22Bとに分類される。この表示部2では、例えば、図2(B)に示したように、X軸方向においては画素22Rと、画素22Gと、画素22Bとが順に繰り返し配置される一方、Y軸方向においては同色の画素22が揃うように配置されている。本明細書では、便宜上、X軸方向に並ぶ画素22を行と呼び、Y軸方向に並ぶ画素22を列と呼ぶ。
 各画素22は、XY平面においてY軸方向に延在する矩形状をなしており、Y軸方向に並ぶ一群のマイクロレンズ11A~11Cからなるマイクロレンズ群12(図2(A))に対応して設けられている。すなわち、第1レンズアレイ1と表示部2とは、マイクロレンズ群12のマイクロレンズ11A~11Cを通過した光が各画素22の有効領域内のスポットSP1~SP3にそれぞれ集光するような位置関係となっている(図2(A)および図2(B))。例えば、マイクロレンズ群12nのマイクロレンズ11A~11Cを通過した光は、画素22RnのスポットSP1~SP3にそれぞれ集光する。同様に、マイクロレンズ群12n+1からの光は画素22Rn+1に集光し、マイクロレンズ群12n+2からの光は画素22Rn+2に集光する。なお、1つのマイクロレンズ11に対応して1つの画素22が配置されていてもよいし、2または4以上のマイクロレンズ11に対応して1つの画素22が配置されていてもよい。
 第2レンズアレイ3は、第1レンズアレイ1および表示部2を通過して集光された表示画像光を水平面内において平行光に変換して射出するものである。具体的には、第2レンズアレイ3は、いわゆるレンチキュラーレンズであり、例えば図3に示したように、Y軸に沿った軸を中心とした円柱面を各々有する複数のシリンドリカルレンズ31がX軸方向に並ぶように配置されたものである。したがって、シリンドリカルレンズ31は、光軸(Z軸)を含む水平面において屈折力を発揮する。図1では、X軸方向に沿って並ぶ9列の画素22ごとに1つのシリンドリカルレンズ31が設けられているが、この数はこれに限定されるものではない。また、シリンドリカルレンズ31は、Y軸から所定の角度θ(θ<45°)だけ傾いた軸を中心とした円柱面を有するものとしてもよい。全てのシリンドリカルレンズ31は、互いに等しい焦点距離f31を有することが望ましい。また、第1レンズアレイ1と第2レンズアレイ3との距離f13は、各々の焦点距離の合計、すなわちマイクロレンズ11の焦点距離f11とシリンドリカルレンズ31の焦点距離f31との合計|f11+f31|と一致している。このため、バックライトBLが平行光であれば、シリンドリカルレンズ31からの射出光も水平面内において平行光となる。
 波面変換偏向部4は、1つの第2レンズアレイ3に対して1つもしくは複数設けられた液体光学素子41を有しており、第2レンズアレイ3から射出された表示画像光に対し、波面変換および偏向を行うものである。具体的には、液体光学素子41によって、第2レンズアレイ3から射出された表示画像光の波面を水平方向(X軸方向)および鉛直方向(Y軸方向)の双方に並ぶ一群の画素22を一単位として所定の曲率を有する波面に一括して変換すると共に、その表示画像光を水平面内(XZ平面内)において一括して偏向する。ここで、液体光学素子41を透過した表示画像光は、任意の観測点を基点として、この観測点から仮想物点までの光路長と等しい光路長となる位置に焦点を結ぶような曲率を有する波面に変換される。
 図4(A)~図4(C)に、液体光学素子41の具体的な斜視構成を表す。図4(A)に示したように、液体光学素子41は、光軸(Z軸)上において、互いに屈折率および界面張力の異なる透明な無極性液体42および極性液体43が、銅などからなる一対の電極44A,44Bの間に挟まれるように配置されたものである。一対の電極44A,44Bは、それぞれ、透明な底板45および天板46と絶縁性のシール部47を介して接着され、固定されている。電極44A,44Bは、それぞれの外表面と接続された端子44AT,44BTを介して外部電源(図示せず)と接続されている。天板46は、酸化インジウム錫(ITO:Indium Tin Oxide)や酸化亜鉛(ZnO)などの透明な導電材料によって構成され、接地電極として機能する。電極44A,44Bはそれぞれ制御部(図示せず)と接続されており、所定の大きさの電位に設定できるようになっている。なお、電極44A,44Bと異なる側面(XZ平面)は図示しないガラス板などで覆われており、無極性液体42および極性液体43が完全に密閉された空間に封入された状態となっている。無極性液体42および極性液体43は、その閉空間において互いに溶解せずに分離して存在し、界面41Sを形成している。
 電極44A,44Bの内表面(互いの対向面)44AS,44BSは、疎水性絶縁膜によって覆われていることが望ましい。この疎水性絶縁膜は、極性液体43に対して疎水性(撥水性)を示す(より厳密には無電界下において無極性液体42に親和性を示す)と共に、電気的絶縁性に優れた性質を有する材料からなるものである。具体的には、フッ素系の高分子であるポリフッ化ビニリデン(PVdF)やポリテトラフルオロエチレン(PTFE)が挙げられる。但し、電極44Aと電極44Bとの電気的絶縁性をより高めることを目的として、電極44Aおよび電極44Bと上記の疎水性絶縁膜との間に例えばスピン・オン・グラス(SOG)などからなる他の絶縁膜を設けるようにしてもよい。
 無極性液体42は、ほとんど極性を有さず、かつ、電気絶縁性を示す液体材料であり、例えばデカン、ドデカン、ヘキサデカンもしくはウンデカンなどの炭化水素系材料のほか、シリコンオイルなどが好適である。無極性液体42は、電極44Aと電極44Bとの間に電圧を印加しない場合において、底板45の表面を全て覆う程度に十分な容量を有していることが望ましい。
 一方、極性液体43は、極性を有する液体材料であり、例えば水のほか、塩化カリウムや塩化ナトリウムなどの電解質を溶解させた水溶液が好適である。極性液体43に電圧を印加すると、内表面44AS,44BS(またはそれを覆う疎水性絶縁膜)に対する濡れ性(極性液体43と内表面44AS,44BS(またはそれを覆う疎水性絶縁膜)との接触角)が無極性液体42と比べて大きく変化する。極性液体43は、接地電極としての天板46と接している。
 一対の電極44A,44Bと底板45および天板46とに囲まれるように封入された無極性液体42および極性液体43は、互いに混在することなく分離し、界面41Sを形成する。なお、無極性液体42および極性液体43は互いにほぼ同等の比重を有するように調整されており、無極性液体42と極性液体43との位置関係は封入する順序で決定される。無極性液体42および極性液体43は透明であることから、界面41Sを透過する光は、その入射角と無極性液体42および極性液体43の屈折率とに応じて屈折する。
 この液体光学素子41では、電極44A,44Bの間に電圧が印加されていない状態(電極44A,44Bの電位がいずれも零である状態)では、図4(A)に示したように、界面41Sは、極性液体43の側から無極性液体42へ向けて凸の曲面をなす。内表面44ASに対する無極性液体42の接触角42θA、および内表面44BSに対する無極性液体42の接触角42θBは、例えば内表面44AS,44BSを覆う疎水性絶縁膜の材料種を選択することによって調整することができる。ここで、無極性液体42が極性液体43よりも大きな屈折率を有していれば、液体光学素子41は負の屈折力を発揮する。これに対し、無極性液体42が極性液体43よりも小さな屈折率を有していれば、液体光学素子41は正の屈折力を発揮する。例えば、無極性液体42が炭化水素系材料またはシリコンオイルであり、極性液体43が水または電解質水溶液であれば、液体光学素子41が負の屈折力を発揮することとなる。界面41SはY軸方向においては一定の曲率を有し、その曲率はこの状態(電極44A,44Bの間に電圧を印加しない状態)が最大となる。
 電極44A,44Bの間に電圧が印加されると、例えば図4(B)に表したように界面41Sの曲率が小さくなり、ある一定以上の電圧を印加すると平面となる。すなわち、接触角42θA,42θBがいずれも直角(90°)となる。この現象は以下のように推察される。すなわち、電圧印加により、内表面44AS,44BS(またはそれを覆う疎水性絶縁膜)の表面に電荷が蓄積され、その電荷のクーロン力によって、極性を有する極性液体43が疎水性絶縁膜へ引き寄せられる。すると、極性液体43が内表面44AS,44BS(またはそれを覆う疎水性絶縁膜)と接触する面積を拡大する一方、無極性液体42が内表面44AS,44BS(またはそれを覆う疎水性絶縁膜)と接触する部分から極性液体43によって排除されるように移動(変形)し、結果として界面41Sが平面に近づくこととなる。なお、図4(B)は、電極44Aの電位(Vaとする)と電極44Bの電位(Vbとする)とが互いに等しい(Va=Vb)場合を示している。電位Vaと電位Vbとが異なる場合には、例えば図4(C)に表したように、X軸およびZ軸に対して傾斜した平面(Y軸に対しては平行な面)となる(42θA≠42θB)。なお、図4(C)は、電位Vaよりも電位Vbが大きい(接触角42θAよりも接触角42θBが大きい)場合を示している。この場合、例えば電極44A,44Bと平行に進行して液体光学素子41へ入射した入射光は、界面41SにおいてXZ平面内で屈折し、偏向される。したがって、電位Vaおよび電位Vbの大きさを調整することで、入射光をXZ平面内の所定の向きへ偏向可能となる。
 また、電位Vaおよび電位Vbの大きさの調整により界面41Sの曲率が変わるようになっている。例えば、電位Va,Vb(Va=Vbとする)を、界面41Sが水平面となる場合の電位Vmaxよりも低い値とすれば、例えば図5(A)に表したように、電位V1,V2が零の場合の界面41S0(破線で表示)よりも曲率の小さな界面41S1(実線で表示)が得られる。このため、界面41Sを透過する光に対して発揮する屈折力は、電位Vaおよび電位Vbの大きさを変えることで調整可能である。すなわち、液体光学素子41は、可変焦点レンズとして機能する。さらに、その状態で電位Vaと電位Vbとが互いに異なる大きさ(Va≠Vb)となれば、界面41Sは適度な曲率を有しつつ、傾斜した状態となる。例えば電位Vaのほうが大きい(Va>Vb)場合には、図5(B)において実線で表した界面41Saが形成される。一方、電位Vbのほうが大きい(Va<Vb)場合には、図5(B)において破線で表した界面41Sbが形成される。したがって、電位Vaおよび電位Vbの大きさを調整することで、液体光学素子41は、入射光に対して適度な屈折力を発揮しつつ、その入射光を所定の向きへ偏向することが可能である。なお、図5(A),5(B)では、無極性液体42が極性液体43よりも大きな屈折率を有しており、液体光学素子41が負の屈折力を発揮する場合に、界面41S1,41Saを
形成したときの入射光の変化を表している。
 拡散板5は、波面変換偏向部4からの光を鉛直方向(Y軸方向)のみに拡散させるものである。波面変換偏向部4からの光は、X軸方向には拡散しないようになっている。このような拡散板5としては、例えばレンズ拡散板(米国Luminit,LLC社;型番LSD40×0.2など)を用いるとよい。あるいは、例えば図3に示した第2レンズアレイ3のように、複数のシリンドリカルレンズが配列されたレンチキュラーレンズを用いてもよい。但し、この場合、シリンドリカルレンズはX軸に沿った軸を中心とした円柱面を有するものとし、それらをY軸方向に配列させるようにする。さらに、シリンドリカルレンズの円柱面の曲率をなるべく大きくし、Y軸方向の単位長さあたりのレンチキュラーレンズの数を大きくするほうがよい。なお、ここでは、拡散板5は、第2レンズアレイ3の投影側に配置されているが、第1レンズアレイ1と第2レンズアレイ3との間に配置するようにしてもよい。
<空間像表示装置の動作>
 次に、空間像表示装置10の動作について、図6および図7を参照して説明する。
 一般に、観測者は、ある物体上の物点を観測するとき、その物点を点光源として発射される球面波を観測することにより、3次元空間の固有な場所に存在する「点」として認識している。通常、自然界においては物体から発射される波面は同時に進行し、かつ常に連続的に、ある波面形状を伴って観測者に到達する。ところが、現状ではホログラフィ技術を除いては、空間の各点における光波の波面を同時かつ連続的に再現することは困難である。しかしながら、ある仮想物体があって、その仮想の各点からの光波が発射され、それぞれの光波が観測者に到達する時刻が多少不正確であっても、また連続的に到達するのではなく間歇的な光信号として到達しても、人の眼にはこの積分作用があることによって、不自然な感覚を感じることなく仮想物体を観測することができる。本実施の形態の空間像表示装置10Aでは、この人の眼の積分作用を利用して空間各点の波面を時系列的に順序立てて高速に形成することにより、従来よりも自然な3次元画像を形成することができる。
 空間像表示装置10では、以下のようにして空間像を表示することができる。図6は、空間像表示装置10を使用して観測者I,IIが立体映像としての仮想物体IMGを観測している状態を表す概念図である。以下、その動作原理を説明する。
 例えば、仮想物体IMGにおける任意の仮想物点(例えば仮想物点B)の映像光波は次のように形成される。まず、左右それぞれの眼に対応した2種類の画像を表示部2に表示する。その際、光源からバックライトBL(ここでは図示せず)を第1レンズアレイ1に照射し、複数のマイクロレンズ11を透過する光を、それぞれに対応する画素22へ向けて集光させる。各画素22に到達した光は、表示画像光として発散しながら第2レンズアレイ3へ向かう。各画素22からの表示画像光は、第2レンズアレイ3を通過する際、水平面内において平行光に変換される。当然、2つの画像を同時に表示することは不可能であるので、それぞれの画像は順次表示されて最終的にそれぞれ左右の眼に順次送られる。例えば、仮想物点Cに対応することとなる画像は、表示部2における点CL1(左眼用)および点CR1(右眼用)にそれぞれ表示される。その際、表示部2における点CL1(左眼用)および点CR1(右眼用)に位置する画素22に対し、それぞれに対応するマイクロレンズ11から収束光が照射される。表示部2から射出される表示画像光は、第2レンズアレイ3、水平方向の波面変換偏向部4および拡散板5を順次透過したのち観測者IIの左眼IILおよび右眼IIRに各々到達する。同様に、観測者Iに対する仮想物点Cの画像は表示部2における点BL1(左眼用)および点BR1(右眼用)にそれぞれ表示され、第2レンズアレイ3、波面変換偏向部4および拡散板5を順次透過したのち観測者Iの左眼ILおよび右眼IRに各々到達する。この動作は人の眼の積分効果の時定数内に高速に行われるので、観測者I,IIは画像が順次送られてきていることを認識することはなく、仮想物点Cを認識することができる。
 第2レンズアレイ3から射出された表示画像光は、水平面内において平行光として波面変換偏向部4へ向かう。第2レンズアレイ3において、表示画像光を平行光に変換し、焦点距離を無限大にすることで、光波が放射された点の位置情報のうち眼の焦点距離をあわせる際に生じる生理機能から得られる情報を一度消すことができる。図6では、第2レンズアレイ3から波面変換偏向部4へ向かう光の波面を、進行方向と直交する平行な波面r0として示している。これにより、両眼視差・輻輳角からの情報と焦点距離からの情報とが一致しないことに起因する脳の混乱が緩和される。
 表示部2の点CL1,CR1から放射された表示画像光は、第2レンズアレイ3を経たのち、それぞれ波面変換偏向部4の点CL2,CR2に到達する。波面変換偏向部4の点CL2,CR2に到達した光波は水平面内において所定方向へ偏向されると共に、各画素22に応じた適切な焦点距離情報が付加され、そののち、拡散板5の点CL3,CR3に到達する。焦点距離情報は、平面状の波面r0を、曲面状の波面r1に変換することで付加される。これについては、のちに詳述する。
 拡散板5に到達した表示画像光は、拡散板5によって垂直面内において拡散され、それぞれ観測者IIの左眼IILおよび右眼IIRへ向かって放射される。ここで、例えば、偏向角が観測者IIの左眼IILに向いたときに表示画像光の波面が点CL3に到達し、偏向角が観測者IIの右眼IIRに向いたときに表示画像光の波面が点CR3に到達するように、波面変換偏向部4による偏向角に同期して表示部2が画像光を送り出すようにする。同時に、波面変換偏向部4は、自らの偏向角に同期して波面r0を波面r1に変換する動作を行うようにしてもよい。拡散板5から放射された画像光の波面が観測者IIの左眼IILおよび右眼IIRに到達することにより、観測者IIは仮想物体IMG上の仮想物点Cを3次元空間中の一点として認識することができる。仮想物点Bについても同様に、表示部2の点BL1,BR1から放射された画像光は、第2レンズアレイ3を経たのち、それぞれ波面変換偏向部4の点BL2,BR2に到達する。点BL2,BR2に到達した光波は水平面内において所定方向へ偏向されたのち、拡散板5によって垂直面内において拡散され、それぞれ観測者IIの左眼IILおよび右眼IIRへ向かって放射される。なお、図6では、表示部2の点BL1,BR1において、観測者Iに対する仮想物点Cの画像を表示すると共に観測者IIに対する仮想物点Bの画像を表示する様子を表しているが、これらは同時に表示されるのではなく、互いに異なるタイミングで表示される。
 ここで、波面変換偏向部4の作用について図6に加えて図7を参照して説明する。波面変換偏向部4では、表示部2から第2レンズアレイ3を経て到達した表示画像光の波面r0が、任意の観測点を基点として、この観測点から仮想物点までの光路長と等しい光路長となる位置に焦点を結ぶような曲率を有する波面r1に変換される。例えば、図7に示したように、仮想物点Cを光源として発射された光の波面RCが光路長L1を経て左眼IILに到達するとした場合、左眼IILでの波面RCと波面r1との曲率が互いに一致するように波面形成がなされる。この場合、点CL2と点CL1とを結ぶ直線上において、点CL2から仮想物点Cまでの光路長L2と等しい距離に波面r1に対応する焦点CCが存在するものと考えることができる。そこで、波面r1を有する表示画像光が焦点CCを光源として発射されたものとみなすとすると、その表示画像光の波面r1が左眼IILに到達したときに、あたかも仮想物点Cを光源として発射された波面RCであるかのように認識される。また、図7に示したように、拡散板5よりも観測者側に近い位置に仮想物点Aが存在する場合、波面変換偏向部4で変換された波面r1は仮想物点Aにおいて焦点を結ぶこととなる。
 なお、液体光学素子41が負の屈折力のみを発揮する場合には、各液体光学素子41に対応して正の屈折力を有するレンズ(正レンズ)を光軸上に別途設けるようにすればよい。すなわち、表示画像光を収束光としたい場合には、液体光学素子41の界面41Sを平面に近づけ、あるいは界面41Sの曲率を小さくして正レンズの作用が強く表れるようにすればよい。一方、表示画像光を発散光としたい場合には、界面41Sの曲率を大きくして正レンズの作用を弱めればよい。反対に、液体光学素子41が正の屈折力のみを発揮する場合には、各液体光学素子41に対応して負の屈折力を有するレンズ(負レンズ)を光軸上に別途設けるようにすればよい。
 この結果、両眼視差・輻輳角からの情報と焦点距離からの情報との不一致から生じる脳の混乱は完全に解消される。
 また、第2レンズアレイ3において表示部2から放射された表示画像光を水平面内において平行化することにより、次のような作用が得られる。両眼視差を確保するためには、左右それぞれの眼に対応した2種類の画像を送る必要がある。すなわち、左右の眼に対応するそれぞれの表示画像光は、互いに反対側の眼に入射してはならない。仮に、第2レンズアレイ3が存在せず、表示部2を光源とした球面波が放射されているとすると、たとえ波面変換偏向部4によって偏向させたとしても互いに反対側の眼にも不要な表示画像光が入射してしまう。その場合、両眼視差が発生せず、2重の画像として認識される。そこで、本実施の形態のように第2レンズアレイ3において表示部2からの表示画像光を平行光束に変換するようにすれば、表示画像光は扇状に広がることなく、よって、他方の眼に入射することなく目的とする一方の眼だけに到達させることができる。
 このように、空間像表示装置10では、表示部2が映像信号に応じた2次元の表示画像光を生成し、波面変換偏向部4の液体光学素子41が、その表示画像光の偏向を行うと共に、その表示画像光の波面r0を所望の曲率を有する波面r1に変換する。これにより、以下の効果が得られる。すなわち、表示部2の表示画像光の波面r0を波面r1に変換することで、表示画像光が、両眼視差、輻輳角および運動視差に関する情報だけでなく、適切な焦点距離情報を含むものとなる。このため、観察者が、両眼視差、輻輳角および運動視差に関する情報と、適切な焦点距離情報との整合性を図ることができ、生理的な違和感を生ずることなく所望の立体映像を認識することができる。さらに、波面変換偏向部4において、上記の波面変換操作に加え、水平面内での偏向操作をも行うようにしたので、簡素かつコンパクトな構成を実現している。
 また、波面変換偏向部4では、水平方向および鉛直方向の双方に並ぶ一群の画素22に応じた表示画像光が、その一群の画素22に対応する一の液体光学素子41によって一括して波面変換され、かつ、一括して偏向される。このため、一の画素22に対して一の液体光学素子41を設けるようにした場合と比較すると、表示部2における単位時間当たりのフレーム表示速度(フレームレート)を高めなくとも、より多くの異なった2次元の表示画像光が水平面内の異なる方向に向けてそれぞれ一度に射出されることとなる。このため、簡素な構造を維持しつつ、より自然な空間像を形成することが可能となる。
 さらに、拡散板5によって鉛直方向に表示画像光を拡散するようにしたので、観察者が画面の上下方向(鉛直方向)に多少ずれた位置に立っていたとしても、観察者は空間像を視認することができる。
 なお、本実施の形態では、表示画像光を波面変換偏向部4において水平方向に偏向するようにしたが、併せて、鉛直方向に表示画像光を偏向する他の偏向手段を配置してもよい。その場合には、他の偏向手段によって鉛直面内での偏向操作をも行うことができるので、観測者の両眼を結ぶ仮想線が水平方向から外れている場合(例えば観測者が寝転んだ姿勢をとった場合)であっても、左右の眼に対して所定の画像が到達することとなるので立体視が可能となる。
 以上、いくつかの実施の形態を挙げて本発明を説明したが、本発明は上記の実施の形態に限定されず、種々の変形が可能である。例えば上記実施の形態では、表示デバイスとして液晶デバイスを利用した例について説明したが、これに限定されるものではない。例えば有機EL素子、プラズマ発光素子、フィールドエミッション(FED)素子、あるいは発光ダイオード(LED)などの自発光素子をアレイ状に配設したものを表示デバイスとして適用することもできる。このような自発光型の表示デバイスを用いた場合には、バックライト用の光源を別途設ける必要がないので、より簡素な構成を実現することができる。また、上記実施の形態で説明した液晶デバイスは透過型のライトバルブとして機能するものであるが、GLV(グレーティングライトバルブ)やDMD(デジタルマルチミラー)などの反射型のライトバルブを表示デバイスとして用いることも可能である。
 また、上記実施の形態では、偏向手段によって、2次元画像生成手段からの表示画像光を、水平方向(X軸方向)および鉛直方向(Y軸方向)の双方に並ぶ一群の画素を一単位として波面変換および偏向するようにしたが、水平方向のみに配列された一群の画素を一単位として扱うようにしてもよい。この場合、空間像表示装置から射出される光線を平行光に近づけることが可能となり、結果としてボケの少ない空間像を表示することができる。
 また、上記実施の形態では、偏向手段としての液体光学素子41が、2次元画像生成手段からの表示画像光に対し波面変換操作と偏向操作とを同時に行うようにしたが、偏向操作のみを行うようにしてもよい。あるいは、液体光学素子41の代わりに、波面変換操作を行う機構(波面変換部)と、偏向操作を行う機構(偏向部)とを別々に分離して設けるようにしてもよい。

Claims (8)

  1.  複数の画素を有し、映像信号に応じた2次元表示画像を生成する2次元画像生成手段と、
     前記2次元画像生成手段からの表示画像光を、少なくとも水平方向に並ぶ一群の画素を一単位として、水平方向に偏向する偏向手段と
     を備えた空間像表示装置。
  2.  前記偏向手段は、一対の電極と、光軸上において前記一対の電極間に封入され、互いに異なる屈折率を有すると共に分離された状態を保つ極性液体および無極性液体とを含む液体光学素子である請求項1に記載の空間像表示装置。
  3.  前記偏向手段は、
     前記2次元画像生成手段からの表示画像光の波面を、任意の観測点を基点として、この観測点から仮想物点までの光路長と等しい光路長となる位置に焦点を結ぶような曲率を有する波面に変換する機能をも有する
     請求項1または請求項2に記載の空間像表示装置。
  4.  前記2次元画像生成手段からの表示画像光を、画素単位で、または一群の画素を一単位として平行光に変換して射出するレンズアレイをさらに備えた請求項1に記載の空間像表示装置。
  5.  前記レンズアレイは、鉛直方向の軸を中心とした円柱面を各々有する複数のシリンドリカルレンズが光軸と直交する面内において並列配置されたものである請求項4記載の空間像表示装置。
  6.  鉛直方向に入射光を散乱させる異方性拡散板が、前記2次元画像生成手段と前記レンズアレイとの間、または前記レンズアレイの投影側に配置されている請求項4記載の空間像表示装置。
  7.  前記極性液体は、前記一対の電極から隔離された接地電極と接している請求項1記載の空間像表示装置。
  8.  前記一対の電極の対向面は、無電界下において前記無極性液体に親和性を示す絶縁膜によって覆われている請求項1記載の空間像表示装置。
PCT/JP2010/050473 2009-01-23 2010-01-18 空間像表示装置 WO2010084834A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201080004826.5A CN102282501A (zh) 2009-01-23 2010-01-18 空间图像显示装置
US13/143,031 US20120002023A1 (en) 2009-01-23 2010-01-18 Spatial image display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-013671 2009-01-23
JP2009013671A JP2010169976A (ja) 2009-01-23 2009-01-23 空間像表示装置

Publications (1)

Publication Number Publication Date
WO2010084834A1 true WO2010084834A1 (ja) 2010-07-29

Family

ID=42355888

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/050473 WO2010084834A1 (ja) 2009-01-23 2010-01-18 空間像表示装置

Country Status (5)

Country Link
US (1) US20120002023A1 (ja)
JP (1) JP2010169976A (ja)
CN (1) CN102282501A (ja)
TW (1) TW201030696A (ja)
WO (1) WO2010084834A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068338A (ja) * 2010-09-22 2012-04-05 Hitachi Consumer Electronics Co Ltd 裸眼立体視ディスプレイ
CN103167309A (zh) * 2011-12-15 2013-06-19 台达电子工业股份有限公司 裸眼立体显示装置
WO2019031443A1 (ja) * 2017-08-09 2019-02-14 株式会社デンソー 立体表示装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201211459A (en) * 2010-09-08 2012-03-16 Jin Zhan Prec Industry Co Ltd Illumination light beam shaping system
KR102005106B1 (ko) * 2011-10-28 2019-07-29 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
US9025111B2 (en) * 2012-04-20 2015-05-05 Google Inc. Seamless display panel using fiber optic carpet
JP6256901B2 (ja) * 2013-02-14 2018-01-10 国立大学法人 筑波大学 映像表示装置
WO2016014438A2 (en) * 2014-07-25 2016-01-28 Zte (Usa) Inc. Wireless communications energy aware power sharing radio resources method and apparatus
ES2578356B1 (es) * 2014-12-22 2017-08-04 Universidad De La Laguna Método para determinar la amplitud compleja del campo electromagnético asociado a una escena
CA2986149A1 (en) * 2015-05-19 2016-11-24 Magic Leap, Inc. Illuminator
CN113917700B (zh) * 2021-09-13 2022-11-29 北京邮电大学 一种三维光场显示系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001284730A (ja) * 2000-03-31 2001-10-12 Matsushita Electric Ind Co Ltd 集光レーザ装置
JP2003177219A (ja) * 2001-09-13 2003-06-27 Lucent Technol Inc 潤滑補助されたエレクトロウェッティングによる調整可能な液体マイクロレンズ
JP2005215325A (ja) * 2004-01-29 2005-08-11 Arisawa Mfg Co Ltd 立体画像表示装置
JP2006521572A (ja) * 2003-02-21 2006-09-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動立体ディスプレイ
JP2007086145A (ja) * 2005-09-20 2007-04-05 Sony Corp 3次元表示装置
WO2007072258A2 (en) * 2005-12-21 2007-06-28 Koninklijke Philips Electronics N.V. Fluid focus lens to isolate or trap small particulate matter
JP2007179044A (ja) * 2005-12-02 2007-07-12 Sony Corp 液体レンズ
JP2008158247A (ja) * 2006-12-25 2008-07-10 Sony Corp 撮像装置用フラッシュ装置および撮像装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001284730A (ja) * 2000-03-31 2001-10-12 Matsushita Electric Ind Co Ltd 集光レーザ装置
JP2003177219A (ja) * 2001-09-13 2003-06-27 Lucent Technol Inc 潤滑補助されたエレクトロウェッティングによる調整可能な液体マイクロレンズ
JP2006521572A (ja) * 2003-02-21 2006-09-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動立体ディスプレイ
JP2005215325A (ja) * 2004-01-29 2005-08-11 Arisawa Mfg Co Ltd 立体画像表示装置
JP2007086145A (ja) * 2005-09-20 2007-04-05 Sony Corp 3次元表示装置
JP2007179044A (ja) * 2005-12-02 2007-07-12 Sony Corp 液体レンズ
WO2007072258A2 (en) * 2005-12-21 2007-06-28 Koninklijke Philips Electronics N.V. Fluid focus lens to isolate or trap small particulate matter
JP2008158247A (ja) * 2006-12-25 2008-07-10 Sony Corp 撮像装置用フラッシュ装置および撮像装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068338A (ja) * 2010-09-22 2012-04-05 Hitachi Consumer Electronics Co Ltd 裸眼立体視ディスプレイ
CN103167309A (zh) * 2011-12-15 2013-06-19 台达电子工业股份有限公司 裸眼立体显示装置
CN103167309B (zh) * 2011-12-15 2015-04-01 台达电子工业股份有限公司 裸眼立体显示装置
WO2019031443A1 (ja) * 2017-08-09 2019-02-14 株式会社デンソー 立体表示装置
JP2019032467A (ja) * 2017-08-09 2019-02-28 株式会社デンソー 立体表示装置

Also Published As

Publication number Publication date
JP2010169976A (ja) 2010-08-05
TW201030696A (en) 2010-08-16
CN102282501A (zh) 2011-12-14
US20120002023A1 (en) 2012-01-05

Similar Documents

Publication Publication Date Title
WO2010084834A1 (ja) 空間像表示装置
WO2010084829A1 (ja) 空間像表示装置
CN102722022B (zh) 影像显示系统
US10429660B2 (en) Directive colour filter and naked-eye 3D display apparatus
Geng Three-dimensional display technologies
JP3375944B2 (ja) 3次元画像表示装置
TWI597526B (zh) 顯示裝置
US20070070476A1 (en) Three-dimensional display
KR101266178B1 (ko) 표시 장치, 표시 제어 방법 및 프로그램 기록 매체
CN101681146B (zh) 具有光波跟踪装置的全息重建系统
KR102093341B1 (ko) 광학적 어드레싱 공간 광변조기 기반 홀로그래픽 디스플레이
TWI394017B (zh) 用以檢視一重建景象的全像投影裝置及方法
Brar et al. Laser-based head-tracked 3D display research
JP2010230984A (ja) 3次元映像表示装置
JP4839795B2 (ja) 3次元表示装置
CN113504650B (zh) 一种用于隐形眼镜显示器的光学调制层结构
Surman et al. Latest developments in a multi-user 3D display
TW200900886A (en) Wavefront forming device
CN115956214A (zh) 衍射片及其制造方法、三维显示装置、光线再现装置、三维空间显示系统、光线再现方法及程序
KR20140062883A (ko) 홀로그래픽 디스플레이
Blanche InformationDisplay Button
Sexton et al. Laser illuminated multi-viewer 3D displays
Aye et al. Real-Time Autostereoscopic 3D Displays
Blanche ID Archive
JP2018045217A (ja) 遠景画像装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080004826.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10733441

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13143031

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10733441

Country of ref document: EP

Kind code of ref document: A1