Types of Image Sensors | Image Sensing

First Principles of Computer Vision
28 Feb 202110:36

Summary

TLDREl guion del video explica cómo los sensores de imagen funcionan utilizando silicio, que al recibir luz libera electrones creando pares electron-agujero. Se describe cómo se crea un equilibrio entre la luz y los electrones, y cómo se leen los electrones para convertirlos en señal de imagen. Se mencionan dos tecnologías principales: CCD y CMOS, con sus ventajas y desventajas. Además, se abordan filtros de color y microlentes para mejorar la calidad de la imagen. El futuro de la tecnología de sensores de imagen implica una integración más estrecha de circuitería y óptica en un solo wafer de silicio.

Takeaways

  • 🧬 Los sensores de imagen más comunes están hechos de silicio, un elemento con propiedades excepcionales.
  • 💥 Al impactar un fotón con suficiente energía en un átomo de silicio, se libera un electrón, creando un par electrón-agujero.
  • 💡 La creación de un cristal de silicio de alta pureza permite que la luz genere flujo de electrones al impactar en él.
  • ⚖️ Existe un equilibrio entre el flujo de fotones y el flujo de electrones generados por la luz.
  • 🔋 El silicio es esencial en la detección de imágenes, generando electrones al recibir luz.
  • 🔍 La dificultad principal es la lectura y conversión de electrones en voltaje para su posterior lectura.
  • 🌟 Se pueden empaquetar fácilmente cientos de millones de píxeles en un sensor de imagen moderno.
  • 📏 La ley de Moore no se aplica de la misma manera a los sensores de imagen, donde el tamaño del píxel está limitado por la longitud de onda de la luz.
  • 🛠 El primer tipo de tecnología utilizada para crear sensores de imagen es el CCD, que implica la transferencia de cargas de un row a otro.
  • 🌈 Los sensores de imagen CMOS son una alternativa a los CCD, ofrecen mayor flexibilidad y dominan en la mayoría de las cámaras modernas.
  • 🎨 Los filtros de color, conocidos como mosaico de color, son esenciales para medir el color en los píxeles que no pueden diferenciar colores por sí solos.
  • 🔬 Cada píxel tiene una lente micro miniatura, llamada microlente, que enfoca la luz desde la lente principal al área activa del píxel.

Q & A

  • ¿Qué material se utiliza comúnmente para los sensores de imagen actuales?

    -Los sensores de imagen se hacen comúnmente de silicio, un material con propiedades increíbles para la detección de luz.

  • ¿Qué sucede cuando un fotón de suficiente energía impacta un átomo de silicio?

    -Cuando un fotón de suficiente energía impacta un átomo de silicio, se libera un electrón, creando un par electrón-agujero.

  • ¿Cómo se establece el equilibrio entre el flujo de fotones y el flujo de electrones en un cristal de silicio?

    -El equilibrio entre el flujo de fotones y el flujo de electrones se establece cuando se ilumina un cristal de silicio de alta pureza con luz.

  • ¿Qué desafío representa leer los electrones generados por la luz en un sensor de imagen de silicio?

    -El desafío es convertir los electrones en voltaje y leerlos, especialmente cuando se trata de millones de píxeles que deben leerse individualmente.

  • ¿Cuál es la dimensión típica de un píxel en un sensor de imagen de 18 megapíxeles?

    -Cada píxel en un sensor de imagen de 18 megapíxeles tiene aproximadamente un micron en cada una de sus dos dimensiones, siendo 1.25 microns en este caso.

  • ¿Cómo se compara el avance en la resolución de los sensores de imagen con la ley de Moore en computación?

    -A diferencia de la ley de Moore, que indica un doble de poder de cómputo cada 18 meses, la resolución de los sensores de imagen no se duplica tan rápidamente debido a los límites de la difracción de la luz.

  • ¿Qué es un CCD y cómo funciona para crear sensores de imagen?

    -Un CCD, o dispositivo acoplado de carga, es una tecnología que utiliza 'calderas' o potenciales bienes para convertir fotones en electrones y luego pasar los electrones de fila en fila hasta ser leídos horizontalmente.

  • ¿Qué es un sensor de imagen CMOS y cómo se diferencia de un CCD?

    -Un sensor de imagen CMOS, o semiconductor complementario de oxido de metal, tiene un circuito en cada píxel para convertir electrones en voltaje, lo que permite una mayor flexibilidad y velocidad en la lectura de los datos.

  • ¿Qué función cumple el filtro de color en un sensor de imagen y cómo se aplica?

    -Los filtros de color, que se sitúan sobre cada píxel, permiten medir el color de la luz, ya que un píxel por sí solo no puede diferenciar colores y solo cuenta fotones.

  • ¿Qué es un microlente y qué propósito tiene en un sensor de imagen?

    -Un microlente es una pequeña lente que se sitúa sobre cada píxel y tiene la función de concentrar la luz proveniente de la lente principal en el área activa del píxel sensible a la luz.

  • ¿Qué es la 'ley de la difracción de la luz' y cómo limita la resolución de los sensores de imagen?

    -La ley de la difracción de la luz establece que más pequeña que sea la longitud de onda de la luz, menos resolución se puede obtener, limitando así el tamaño mínimo de los píxeles y la resolución de los sensores de imagen.

  • ¿Qué es la 'óptica en wafer' y cómo se relaciona con el futuro de los sensores de imagen?

    -La 'óptica en wafer' se refiere a la integración de componentes ópticos, como el microlente y la lente principal, creciendo en una única wafer de silicio, lo que puede llevar a la integración de procesamiento de imagen y visión por computadora en el futuro.

Outlines

00:00

📷 Sensores de imagen de silicio

El primer párrafo se enfoca en cómo los sensores de imagen funcionan utilizando silicio. Se describe cómo, al impactar un fotón de energía suficiente en un átomo de silicio, se libera un electrón, creando un par electrón-agujero. Este fenómeno es fundamental para la generación de señal de imagen. El texto explica que los cristales de silicio, con su alta pureza, son capaces de generar flujo de electrones al ser impactados por luz. La dificultad principal reside en la lectura de estos electrones, su conversión en voltaje y su posterior lectura. Además, se menciona que se trata de millones de píxeles que deben ser leídos simultáneamente, lo cual representa un gran desafío en la creación de sensores de imagen. Se ilustra con un ejemplo de un sensor de 18 megapíxeles, y se discute cómo la tecnología actual permite embutir fácilmente cien millones de píxeles en un sensor. Se señala que la resolución de imagen no sigue la ley de Moore y está limitada por el efecto de difracción de la luz, lo que implica que hacer píxeles más pequeños no siempre resulta en una mejora en la resolución. Finalmente, se introduce el concepto de CCD (Dispositivos Acoplados de Carga) como la primera tecnología utilizada para crear sensores de imagen, donde los píxeles actúan como 'cubos' que reciben y convierten fotónes en electrones, y se describe el proceso de lectura de estos electrones a través de una técnica llamada 'cadena de cubos'.

05:00

🔍 Sensores de imagen CCD y CMOS

El segundo párrafo compara y contrasta dos tecnologías de sensores de imagen: CCD y CMOS. El CCD, o Dispositivo Acoplado de Carga, implica una conversión de fotónes a electrones en el píxel y luego una transferencia de electrones de fila en fila hasta ser leídos en una fila inferior. Este proceso es comparado con una 'cadena de cubos', donde se transfieren electrones de un 'cubículo' a otro mediante campos eléctricos. Por otro lado, los sensores de imagen CMOS, o Semiconductores de Oxido Metálico Complementarios, tienen un circuito en cada píxel que convierte electrones en voltaje, permitiendo una lectura más flexible y rápida de áreas específicas de interés en la imagen. Sin embargo, esta flexibilidad tiene el costo de una área sensible a la luz más pequeña debido a la presencia del circuito en cada píxel. Se destaca que la tecnología CMOS dominó en los sensores de cámaras de consumo debido a su mayor flexibilidad y mejor calidad. Además, se menciona la importancia de los filtros de color, conocidos como mosaico de color, que sientan sobre los píxeles para medir el color de la luz, y se describe cómo se utiliza un microobjetivo en cada píxel para enfocar la luz desde el objetivo principal al área activa del píxel. Se incluye una imagen de un microscopio de barrido que muestra una sección transversal de un sensor de imagen, destacando los microobjetivos, filtros de color y la estructura del píxel.

10:03

🌐 Futuro de la tecnología de sensores de imagen

El tercer párrafo explora las perspectivas futuras para la tecnología de sensores de imagen. Se sugiere que en un futuro cercano, podría ser posible integrar en una sola wafer de silicio no solo la capa del sensor de imagen, sino también la capa de color y la capa del microobjetivo, junto con la lente principal, en una técnica conocida como 'óptica en wafer'. Esto implicaría la creación de sistemas de imagen mucho más compactos e integrados, donde incluso el procesamiento de imagen y visión por computadora podrían ocurrir directamente en la misma wafer. Esta integración avanzada de tecnologías es vista como una tendencia en las décadas venideras para el desarrollo de sensores de imagen más avanzados y eficientes.

Mindmap

Keywords

💡Sensor de imagen

Un sensor de imagen es un dispositivo que convierte la luz en una imagen en una señal eléctrica. Es el corazón de cualquier cámara digital y es fundamental para la captura de imágenes. En el video, se discute cómo los sensores de imagen están hechos generalmente de silicio y cómo funcionan al recibir luz y generar electrones, mostrando su importancia en la captura de imágenes.

💡Silicio

El silicio es un elemento químico que se utiliza en la fabricación de sensores de imagen debido a sus propiedades únicas. Cuando un fotón de suficiente energía impacta un átomo de silicio, libera un electrón, creando un par electrón-agujero. En el video, se menciona cómo el silicio es fundamental en la generación de electrones a partir de la luz que impacta el sensor.

💡Par electrón-agujero

Un par electrón-agujero es una pareja formada por un electrón y un agujero de carga positiva que se crea cuando un fotón de luz tiene suficiente energía para ionizar un átomo de silicio en un sensor de imagen. Este concepto es crucial para entender cómo se genera la señal de imagen, como se describe en el video.

💡Flujo de fotones y electrones

El flujo de fotones se refiere a la cantidad de luz que impacta el sensor de imagen, mientras que el flujo de electrones es la cantidad de electrones generados por esta luz. En el video, se explica que hay un equilibrio entre estos dos flujos y cómo es fundamental para la generación de señales de imagen.

💡CCD

CCD (Dispositivos Acoplados de Carga) es una tecnología utilizada en sensores de imagen que funciona mediante la transferencia de carga de un pixel a otro en una fila y luego de fila en fila hasta ser leída. En el video, se describe cómo funciona este proceso y su importancia en la lectura de los datos de imagen.

💡CMOS

CMOS (Sensores de imagen de semiconductor complementario de oxido metálico) es otra tecnología de sensor de imagen que cuenta con un circuito para convertir electrones en voltaje en cada pixel. Esto permite una mayor flexibilidad y se destaca en el video por su capacidad de leer áreas específicas de la imagen más rápidamente.

💡Pixel

Un pixel es el elemento básico de una imagen digital, representando un punto de color en la pantalla. En el video, se menciona cómo los sensores de imagen tienen millones de pixels y cómo se leen los electrones de cada pixel para formar una imagen.

💡Filtro de color

Los filtros de color son capas que sitúan encima de los pixels para capturar información de color. Se mencionan en el video como parte integral del sensor de imagen, donde cada pixel captura solo un color específico y luego se interpolan para formar una imagen en color completa.

💡Microlente

Una microlente es una pequeña lente que se coloca sobre cada pixel para concentrar la luz proveniente de la lente principal del dispositivo sobre el área activa del pixel. En el video, se describe cómo la microlente ayuda a maximizar la eficiencia de la captura de luz.

💡Interpolación de color

La interpolación de color es el proceso por el cual se estiman los valores de rojo, verde y azul en cada punto de la imagen a partir de los valores de los pixels individuales. Se menciona en el video como un paso importante después de capturar la imagen para construir la imagen en color completa.

💡Óptica en wafer

La óptica en wafer se refiere a la integración de componentes ópticos, como lentes y filtros, directamente en el wafer de silicio. El video sugiere que esta es una tendencia en el desarrollo futuro de la tecnología de sensores de imagen.

Highlights

Silicon is the primary material used in image sensors due to its unique properties.

Photons hitting a silicon atom with sufficient energy can release an electron, creating an electron-hole pair.

High purity silicon crystals can generate electron flux when hit with light, establishing an equilibrium with photon flux.

Silicon simplifies image sensing by generating electrons when hit with light, with the main challenge being electron readout and conversion to voltage.

Modern image sensors can pack 100 million pixels with ease, each pixel being roughly one micron in size.

Image sensor resolution is not governed by Moore's law and is limited by the diffraction effect of light's wavelength.

CCD technology uses a 'bucket brigade' method to transfer charges from one row of pixels to the next for readout.

CCDs involve applying electric fields to shift charges between rows, a sophisticated process to prevent electron loss.

CMOS image sensors have a separate electron-to-voltage conversion circuit at each pixel, providing flexibility and faster readout.

CMOS technology dominates due to its flexibility and improved quality over time.

Color filters, forming a mosaic over the pixels, are used to measure color, as pixels cannot differentiate between colors.

Microlenses focus light from the main lens onto the active area of the pixel to maximize light usage.

A scanning electron microscope reveals the complex structure of an image sensor, including microlenses, color filters, and circuitry.

Image sensors are evolving with more circuitry being built underneath, potentially integrating image processing and computer vision.

Future developments may see optics on wafer, with the main lens grown on top of the integrated layers.

Transcripts

play00:02

Most image sensors in use today are made of silicon.

play00:06

Silicon has some amazing properties.

play00:08

So here, you see a silicon atom.

play00:10

And when you hit a silicon atom with a photon

play00:13

of sufficient energy, it releases an electron.

play00:16

And what's created is called an electron-hole pair.

play00:21

So now, if you have a silicon crystal that's

play00:24

a lattice of silicon atoms, and you

play00:26

can make this with very high purity, you hit it with light.

play00:30

You have photon flux coming in.

play00:32

And you have electron flux, which is being generated.

play00:36

There's going to be an equilibrium between the photon

play00:38

flux and the electron flux.

play00:41

So really, silicon does most of the work for you

play00:44

when it comes to image sensing.

play00:46

You hit it with light.

play00:47

And it generates electrons.

play00:50

And the work that remains to be done,

play00:52

which is really challenging, is to be

play00:54

able to read out these electrons,

play00:57

convert them into voltage, and read them out.

play01:00

And also, not to forget that you're not

play01:03

looking at a single pixel, just one lattice of silicon.

play01:07

You actually have millions of pixels

play01:10

that you want to be able to read these charges out from.

play01:13

That's where a lot of the work has gone in

play01:17

to create these image sensors.

play01:20

Now, this is what an image sensor actually looks like.

play01:23

This is an 18 megapixel image sensor.

play01:28

And each pixel here is roughly one micron along

play01:32

each of its two dimensions, 1.25 microns in this case.

play01:37

That's really small, so you can actually

play01:39

pack in 100 million pixels on an image sensor

play01:43

today with ease using today's technology.

play01:47

Now, this isn't quite like Moore's law.

play01:49

You know, in computations, according

play01:52

to Moore's law, every 18 months you're going to be able to,

play01:55

with the same real estate, double

play01:57

your computational power.

play02:00

Well, that doesn't happen in the case of image sensors.

play02:03

In this case, you come down to around the wavelength

play02:06

of light, which is around, say, let's say half a micron.

play02:10

Once your pixel is in that region,

play02:12

further making it smaller doesn't really

play02:15

help you because the resolution is now

play02:18

limited by this diffraction effect

play02:20

itself, the wavelength of light, the size

play02:22

of the wavelength of light.

play02:24

And making pixels any smaller doesn't really

play02:27

buy you anything.

play02:28

So image resolution will continue to grow a little bit,

play02:33

but at some point the only way you can increase resolution

play02:36

is by making the chips larger and larger.

play02:39

And we're almost there.

play02:42

So let's talk about the first technology that's

play02:45

used to create image sensors.

play02:48

This is called CCD or charge coupled devices.

play02:52

So here, you see your pixels.

play02:54

These are all your pixels.

play02:56

Each pixel has, look at it as a bucket.

play03:00

We call these potential wells.

play03:02

These are wells in which photons arrive and get

play03:06

converted into electrons.

play03:07

So it's photon to electron conversion.

play03:10

And like I said before, the real challenge is reading out,

play03:13

converting these electrons into a voltage that's

play03:16

proportional to the number of electrons.

play03:20

So the way CCD works is that each row--

play03:24

actually, let's take a look at this row--

play03:27

the photon the electron conversion

play03:28

happens in the pixel itself.

play03:30

And each row passes its electron counts,

play03:36

all its electrons to the next row.

play03:38

And that passes it to the next row and the next row

play03:41

and the next one.

play03:42

And finally comes down to this bottom

play03:44

row, where it is read out horizontally one pixel

play03:48

at a time.

play03:49

That is the electrons in each pixel are converted

play03:53

to a voltage right here.

play03:55

And then this voltage is, of course,

play03:57

an analog voltage, which is then converted by analog

play04:01

to digital conversion, which is A to D conversion

play04:04

to get your digital output right here.

play04:08

So that's the process that these pixels

play04:11

are read out in this fashion.

play04:13

So that sounds simple, but it really

play04:15

is a transfer of charges from one row to the next, which

play04:19

is a real innovation here.

play04:21

And this is a technique called bucket brigade.

play04:24

So imagine that you have a string of people.

play04:27

Each one has bucket of water.

play04:29

And I would pass on my bucket to the next person

play04:32

and at the same time take bucket from the person before me.

play04:36

So that's the way bucket brigade actually works.

play04:39

And so in this case, how do you actually move these charges

play04:42

from row to row?

play04:43

Well, the way you do it is you apply electric fields

play04:47

to appropriate positions underneath these buckets

play04:50

to slide or to shift these charges

play04:53

from one row to the next.

play04:55

And that is a really sophisticated piece

play04:57

of technology because along the way

play05:00

you don't want to lose any electrons.

play05:02

And you don't want to collect any spurious electrons either.

play05:07

So that's CCD technology.

play05:10

And then you have CMOS image sensors.

play05:13

CMOS is complementary metal-oxide semiconductor,

play05:17

another type of technology.

play05:19

In this case, again, you have a potential well,

play05:22

where you're collecting light, for instance this one right

play05:25

here.

play05:26

But sitting right next to it is also

play05:29

the circuit that converts your electrons to a voltage.

play05:35

So its an electron to voltage conversion circuit

play05:38

which is sitting at each pixel.

play05:39

Each pixel has its own circuit, and it's not

play05:43

one circuit being shared by the entire chip.

play05:46

So in this particular technology, what you can do

play05:48

is simply address or pull one particular pixel

play05:53

and be able to read its voltage out.

play05:55

So you can go to this pixel right here,

play05:57

or you can go to another pixel and so on.

play06:01

And for that matter, if you were interested

play06:03

not in the entire image, but a small region in the image,

play06:08

you can read out those pixels at a much faster rate

play06:12

because there are fewer pixels and less values to read out.

play06:15

You can actually increase the frame rate of the camera

play06:18

substantially by just reading out that region of interest.

play06:21

So a lot of flexibility in the case of CMOS technology,

play06:26

but the price that you pay is that now

play06:28

your light sensitive area that you're exposing to the world

play06:32

is smaller because sitting next to it you

play06:34

need the circuit that converts electrons to voltage.

play06:39

So CMOS and CCD are both very popular technologies

play06:44

in consumer cameras today.

play06:46

I would say that CMOS technology dominates

play06:48

because of its flexibility.

play06:50

And it's really come a long way in terms of its quality.

play06:55

And there's more to an image sensor.

play06:58

So here, you see the potential wells corresponding to pixels.

play07:03

So this right here is one pixel.

play07:06

This is the next pixel.

play07:09

So that's the area of pixels.

play07:10

And we'll call them photodiodes.

play07:13

But then sitting on top of each one is a color filter.

play07:17

You see, a pixel doesn't really know which color of light

play07:22

is arriving there.

play07:23

It just is counting photons.

play07:25

And so in order to measure color,

play07:27

you're going to use color filters which

play07:30

sit above the pixel itself, the potential well.

play07:33

And at any given location, you can only measure one color

play07:38

because, again, the pixel can't differentiate between colors.

play07:40

So you use one particular filter right here,

play07:43

let's say a red one here, a green one here,

play07:46

a blue one here.

play07:47

And after you've captured your image,

play07:50

you can actually take these red, green, and blue values, which

play07:54

are scattered around the image and interpolate

play07:56

them to figure out what red, green, and blue

play07:59

would be at each point.

play08:00

And we'll talk about this later.

play08:02

So those are your color filters.

play08:04

It's called the color mosaic.

play08:06

And then you may be interested in knowing

play08:08

that each pixel actually has a lens sitting on top of it,

play08:12

this is called a microlens.

play08:14

This is not the lens that's forming the image.

play08:16

What this lens does is that it just takes light

play08:19

from the main lens, and it focuses this light

play08:24

onto the active area of the light sensitive area

play08:27

of the pixel, which is shown down here.

play08:29

So this lens focuses light onto this tiny little window here.

play08:35

And the reason that this window is smaller

play08:38

than the size of the pixel is because, often, like I said,

play08:43

there's circuitry, and there are leads and so on that

play08:45

are sitting around the pixel.

play08:47

And you don't want to waste the light that's

play08:49

falling on that region.

play08:50

So you take all the light, and you channel it

play08:52

down to the active area.

play08:56

And here, you see a scanning electron microscope,

play08:59

a beautiful image of the cross section of an image sensor.

play09:03

You see right here the microlenses.

play09:07

This is one microlens for this particular pixel.

play09:11

Here, you see the color filter.

play09:14

In this case, it happens to be a blue filter.

play09:17

Sitting next to it is a red filter for the next pixel.

play09:21

And underneath that is your potential well,

play09:25

the pixel itself where charges are being collected

play09:29

and circuitry to go with it.

play09:32

And note that the distance between the top

play09:35

of this microlens, right here, and all the way down

play09:39

here to the bottom of the circuitry, is 9.6 micrometers.

play09:46

So there's a lot of stuff happening.

play09:48

There's a lot of action going on in this very thin layer

play09:53

of silicon.

play09:54

And that's why I said to you earlier

play09:56

that you will see with the passage of time

play10:00

that there's going to be more and more circuitry built

play10:03

underneath these.

play10:04

So that in a single wafer you can

play10:07

have perhaps image processing and computer vision happening

play10:12

with the image sensor layer.

play10:15

And then your color layer and then your microlens layer,

play10:18

all being grown on one single wafer of silicon.

play10:23

And in fact, the main lens being grown on top of that as well.

play10:28

This is optics on wafer.

play10:30

This is all coming in the decades to come.

Rate This

5.0 / 5 (0 votes)

Related Tags
Sensores de ImágenesTecnología de SilicioCCDCMOSConversión Foton-ElectrónPixelesFiltros de ColorMicrolentesResolución de ImágenesTendencias de la Industria
Do you need a summary in English?