Types of Image Sensors | Image Sensing
Summary
TLDREl guion del video explica cómo los sensores de imagen funcionan utilizando silicio, que al recibir luz libera electrones creando pares electron-agujero. Se describe cómo se crea un equilibrio entre la luz y los electrones, y cómo se leen los electrones para convertirlos en señal de imagen. Se mencionan dos tecnologías principales: CCD y CMOS, con sus ventajas y desventajas. Además, se abordan filtros de color y microlentes para mejorar la calidad de la imagen. El futuro de la tecnología de sensores de imagen implica una integración más estrecha de circuitería y óptica en un solo wafer de silicio.
Takeaways
- 🧬 Los sensores de imagen más comunes están hechos de silicio, un elemento con propiedades excepcionales.
- 💥 Al impactar un fotón con suficiente energía en un átomo de silicio, se libera un electrón, creando un par electrón-agujero.
- 💡 La creación de un cristal de silicio de alta pureza permite que la luz genere flujo de electrones al impactar en él.
- ⚖️ Existe un equilibrio entre el flujo de fotones y el flujo de electrones generados por la luz.
- 🔋 El silicio es esencial en la detección de imágenes, generando electrones al recibir luz.
- 🔍 La dificultad principal es la lectura y conversión de electrones en voltaje para su posterior lectura.
- 🌟 Se pueden empaquetar fácilmente cientos de millones de píxeles en un sensor de imagen moderno.
- 📏 La ley de Moore no se aplica de la misma manera a los sensores de imagen, donde el tamaño del píxel está limitado por la longitud de onda de la luz.
- 🛠 El primer tipo de tecnología utilizada para crear sensores de imagen es el CCD, que implica la transferencia de cargas de un row a otro.
- 🌈 Los sensores de imagen CMOS son una alternativa a los CCD, ofrecen mayor flexibilidad y dominan en la mayoría de las cámaras modernas.
- 🎨 Los filtros de color, conocidos como mosaico de color, son esenciales para medir el color en los píxeles que no pueden diferenciar colores por sí solos.
- 🔬 Cada píxel tiene una lente micro miniatura, llamada microlente, que enfoca la luz desde la lente principal al área activa del píxel.
Q & A
¿Qué material se utiliza comúnmente para los sensores de imagen actuales?
-Los sensores de imagen se hacen comúnmente de silicio, un material con propiedades increíbles para la detección de luz.
¿Qué sucede cuando un fotón de suficiente energía impacta un átomo de silicio?
-Cuando un fotón de suficiente energía impacta un átomo de silicio, se libera un electrón, creando un par electrón-agujero.
¿Cómo se establece el equilibrio entre el flujo de fotones y el flujo de electrones en un cristal de silicio?
-El equilibrio entre el flujo de fotones y el flujo de electrones se establece cuando se ilumina un cristal de silicio de alta pureza con luz.
¿Qué desafío representa leer los electrones generados por la luz en un sensor de imagen de silicio?
-El desafío es convertir los electrones en voltaje y leerlos, especialmente cuando se trata de millones de píxeles que deben leerse individualmente.
¿Cuál es la dimensión típica de un píxel en un sensor de imagen de 18 megapíxeles?
-Cada píxel en un sensor de imagen de 18 megapíxeles tiene aproximadamente un micron en cada una de sus dos dimensiones, siendo 1.25 microns en este caso.
¿Cómo se compara el avance en la resolución de los sensores de imagen con la ley de Moore en computación?
-A diferencia de la ley de Moore, que indica un doble de poder de cómputo cada 18 meses, la resolución de los sensores de imagen no se duplica tan rápidamente debido a los límites de la difracción de la luz.
¿Qué es un CCD y cómo funciona para crear sensores de imagen?
-Un CCD, o dispositivo acoplado de carga, es una tecnología que utiliza 'calderas' o potenciales bienes para convertir fotones en electrones y luego pasar los electrones de fila en fila hasta ser leídos horizontalmente.
¿Qué es un sensor de imagen CMOS y cómo se diferencia de un CCD?
-Un sensor de imagen CMOS, o semiconductor complementario de oxido de metal, tiene un circuito en cada píxel para convertir electrones en voltaje, lo que permite una mayor flexibilidad y velocidad en la lectura de los datos.
¿Qué función cumple el filtro de color en un sensor de imagen y cómo se aplica?
-Los filtros de color, que se sitúan sobre cada píxel, permiten medir el color de la luz, ya que un píxel por sí solo no puede diferenciar colores y solo cuenta fotones.
¿Qué es un microlente y qué propósito tiene en un sensor de imagen?
-Un microlente es una pequeña lente que se sitúa sobre cada píxel y tiene la función de concentrar la luz proveniente de la lente principal en el área activa del píxel sensible a la luz.
¿Qué es la 'ley de la difracción de la luz' y cómo limita la resolución de los sensores de imagen?
-La ley de la difracción de la luz establece que más pequeña que sea la longitud de onda de la luz, menos resolución se puede obtener, limitando así el tamaño mínimo de los píxeles y la resolución de los sensores de imagen.
¿Qué es la 'óptica en wafer' y cómo se relaciona con el futuro de los sensores de imagen?
-La 'óptica en wafer' se refiere a la integración de componentes ópticos, como el microlente y la lente principal, creciendo en una única wafer de silicio, lo que puede llevar a la integración de procesamiento de imagen y visión por computadora en el futuro.
Outlines
📷 Sensores de imagen de silicio
El primer párrafo se enfoca en cómo los sensores de imagen funcionan utilizando silicio. Se describe cómo, al impactar un fotón de energía suficiente en un átomo de silicio, se libera un electrón, creando un par electrón-agujero. Este fenómeno es fundamental para la generación de señal de imagen. El texto explica que los cristales de silicio, con su alta pureza, son capaces de generar flujo de electrones al ser impactados por luz. La dificultad principal reside en la lectura de estos electrones, su conversión en voltaje y su posterior lectura. Además, se menciona que se trata de millones de píxeles que deben ser leídos simultáneamente, lo cual representa un gran desafío en la creación de sensores de imagen. Se ilustra con un ejemplo de un sensor de 18 megapíxeles, y se discute cómo la tecnología actual permite embutir fácilmente cien millones de píxeles en un sensor. Se señala que la resolución de imagen no sigue la ley de Moore y está limitada por el efecto de difracción de la luz, lo que implica que hacer píxeles más pequeños no siempre resulta en una mejora en la resolución. Finalmente, se introduce el concepto de CCD (Dispositivos Acoplados de Carga) como la primera tecnología utilizada para crear sensores de imagen, donde los píxeles actúan como 'cubos' que reciben y convierten fotónes en electrones, y se describe el proceso de lectura de estos electrones a través de una técnica llamada 'cadena de cubos'.
🔍 Sensores de imagen CCD y CMOS
El segundo párrafo compara y contrasta dos tecnologías de sensores de imagen: CCD y CMOS. El CCD, o Dispositivo Acoplado de Carga, implica una conversión de fotónes a electrones en el píxel y luego una transferencia de electrones de fila en fila hasta ser leídos en una fila inferior. Este proceso es comparado con una 'cadena de cubos', donde se transfieren electrones de un 'cubículo' a otro mediante campos eléctricos. Por otro lado, los sensores de imagen CMOS, o Semiconductores de Oxido Metálico Complementarios, tienen un circuito en cada píxel que convierte electrones en voltaje, permitiendo una lectura más flexible y rápida de áreas específicas de interés en la imagen. Sin embargo, esta flexibilidad tiene el costo de una área sensible a la luz más pequeña debido a la presencia del circuito en cada píxel. Se destaca que la tecnología CMOS dominó en los sensores de cámaras de consumo debido a su mayor flexibilidad y mejor calidad. Además, se menciona la importancia de los filtros de color, conocidos como mosaico de color, que sientan sobre los píxeles para medir el color de la luz, y se describe cómo se utiliza un microobjetivo en cada píxel para enfocar la luz desde el objetivo principal al área activa del píxel. Se incluye una imagen de un microscopio de barrido que muestra una sección transversal de un sensor de imagen, destacando los microobjetivos, filtros de color y la estructura del píxel.
🌐 Futuro de la tecnología de sensores de imagen
El tercer párrafo explora las perspectivas futuras para la tecnología de sensores de imagen. Se sugiere que en un futuro cercano, podría ser posible integrar en una sola wafer de silicio no solo la capa del sensor de imagen, sino también la capa de color y la capa del microobjetivo, junto con la lente principal, en una técnica conocida como 'óptica en wafer'. Esto implicaría la creación de sistemas de imagen mucho más compactos e integrados, donde incluso el procesamiento de imagen y visión por computadora podrían ocurrir directamente en la misma wafer. Esta integración avanzada de tecnologías es vista como una tendencia en las décadas venideras para el desarrollo de sensores de imagen más avanzados y eficientes.
Mindmap
Keywords
💡Sensor de imagen
💡Silicio
💡Par electrón-agujero
💡Flujo de fotones y electrones
💡CCD
💡CMOS
💡Pixel
💡Filtro de color
💡Microlente
💡Interpolación de color
💡Óptica en wafer
Highlights
Silicon is the primary material used in image sensors due to its unique properties.
Photons hitting a silicon atom with sufficient energy can release an electron, creating an electron-hole pair.
High purity silicon crystals can generate electron flux when hit with light, establishing an equilibrium with photon flux.
Silicon simplifies image sensing by generating electrons when hit with light, with the main challenge being electron readout and conversion to voltage.
Modern image sensors can pack 100 million pixels with ease, each pixel being roughly one micron in size.
Image sensor resolution is not governed by Moore's law and is limited by the diffraction effect of light's wavelength.
CCD technology uses a 'bucket brigade' method to transfer charges from one row of pixels to the next for readout.
CCDs involve applying electric fields to shift charges between rows, a sophisticated process to prevent electron loss.
CMOS image sensors have a separate electron-to-voltage conversion circuit at each pixel, providing flexibility and faster readout.
CMOS technology dominates due to its flexibility and improved quality over time.
Color filters, forming a mosaic over the pixels, are used to measure color, as pixels cannot differentiate between colors.
Microlenses focus light from the main lens onto the active area of the pixel to maximize light usage.
A scanning electron microscope reveals the complex structure of an image sensor, including microlenses, color filters, and circuitry.
Image sensors are evolving with more circuitry being built underneath, potentially integrating image processing and computer vision.
Future developments may see optics on wafer, with the main lens grown on top of the integrated layers.
Transcripts
Most image sensors in use today are made of silicon.
Silicon has some amazing properties.
So here, you see a silicon atom.
And when you hit a silicon atom with a photon
of sufficient energy, it releases an electron.
And what's created is called an electron-hole pair.
So now, if you have a silicon crystal that's
a lattice of silicon atoms, and you
can make this with very high purity, you hit it with light.
You have photon flux coming in.
And you have electron flux, which is being generated.
There's going to be an equilibrium between the photon
flux and the electron flux.
So really, silicon does most of the work for you
when it comes to image sensing.
You hit it with light.
And it generates electrons.
And the work that remains to be done,
which is really challenging, is to be
able to read out these electrons,
convert them into voltage, and read them out.
And also, not to forget that you're not
looking at a single pixel, just one lattice of silicon.
You actually have millions of pixels
that you want to be able to read these charges out from.
That's where a lot of the work has gone in
to create these image sensors.
Now, this is what an image sensor actually looks like.
This is an 18 megapixel image sensor.
And each pixel here is roughly one micron along
each of its two dimensions, 1.25 microns in this case.
That's really small, so you can actually
pack in 100 million pixels on an image sensor
today with ease using today's technology.
Now, this isn't quite like Moore's law.
You know, in computations, according
to Moore's law, every 18 months you're going to be able to,
with the same real estate, double
your computational power.
Well, that doesn't happen in the case of image sensors.
In this case, you come down to around the wavelength
of light, which is around, say, let's say half a micron.
Once your pixel is in that region,
further making it smaller doesn't really
help you because the resolution is now
limited by this diffraction effect
itself, the wavelength of light, the size
of the wavelength of light.
And making pixels any smaller doesn't really
buy you anything.
So image resolution will continue to grow a little bit,
but at some point the only way you can increase resolution
is by making the chips larger and larger.
And we're almost there.
So let's talk about the first technology that's
used to create image sensors.
This is called CCD or charge coupled devices.
So here, you see your pixels.
These are all your pixels.
Each pixel has, look at it as a bucket.
We call these potential wells.
These are wells in which photons arrive and get
converted into electrons.
So it's photon to electron conversion.
And like I said before, the real challenge is reading out,
converting these electrons into a voltage that's
proportional to the number of electrons.
So the way CCD works is that each row--
actually, let's take a look at this row--
the photon the electron conversion
happens in the pixel itself.
And each row passes its electron counts,
all its electrons to the next row.
And that passes it to the next row and the next row
and the next one.
And finally comes down to this bottom
row, where it is read out horizontally one pixel
at a time.
That is the electrons in each pixel are converted
to a voltage right here.
And then this voltage is, of course,
an analog voltage, which is then converted by analog
to digital conversion, which is A to D conversion
to get your digital output right here.
So that's the process that these pixels
are read out in this fashion.
So that sounds simple, but it really
is a transfer of charges from one row to the next, which
is a real innovation here.
And this is a technique called bucket brigade.
So imagine that you have a string of people.
Each one has bucket of water.
And I would pass on my bucket to the next person
and at the same time take bucket from the person before me.
So that's the way bucket brigade actually works.
And so in this case, how do you actually move these charges
from row to row?
Well, the way you do it is you apply electric fields
to appropriate positions underneath these buckets
to slide or to shift these charges
from one row to the next.
And that is a really sophisticated piece
of technology because along the way
you don't want to lose any electrons.
And you don't want to collect any spurious electrons either.
So that's CCD technology.
And then you have CMOS image sensors.
CMOS is complementary metal-oxide semiconductor,
another type of technology.
In this case, again, you have a potential well,
where you're collecting light, for instance this one right
here.
But sitting right next to it is also
the circuit that converts your electrons to a voltage.
So its an electron to voltage conversion circuit
which is sitting at each pixel.
Each pixel has its own circuit, and it's not
one circuit being shared by the entire chip.
So in this particular technology, what you can do
is simply address or pull one particular pixel
and be able to read its voltage out.
So you can go to this pixel right here,
or you can go to another pixel and so on.
And for that matter, if you were interested
not in the entire image, but a small region in the image,
you can read out those pixels at a much faster rate
because there are fewer pixels and less values to read out.
You can actually increase the frame rate of the camera
substantially by just reading out that region of interest.
So a lot of flexibility in the case of CMOS technology,
but the price that you pay is that now
your light sensitive area that you're exposing to the world
is smaller because sitting next to it you
need the circuit that converts electrons to voltage.
So CMOS and CCD are both very popular technologies
in consumer cameras today.
I would say that CMOS technology dominates
because of its flexibility.
And it's really come a long way in terms of its quality.
And there's more to an image sensor.
So here, you see the potential wells corresponding to pixels.
So this right here is one pixel.
This is the next pixel.
So that's the area of pixels.
And we'll call them photodiodes.
But then sitting on top of each one is a color filter.
You see, a pixel doesn't really know which color of light
is arriving there.
It just is counting photons.
And so in order to measure color,
you're going to use color filters which
sit above the pixel itself, the potential well.
And at any given location, you can only measure one color
because, again, the pixel can't differentiate between colors.
So you use one particular filter right here,
let's say a red one here, a green one here,
a blue one here.
And after you've captured your image,
you can actually take these red, green, and blue values, which
are scattered around the image and interpolate
them to figure out what red, green, and blue
would be at each point.
And we'll talk about this later.
So those are your color filters.
It's called the color mosaic.
And then you may be interested in knowing
that each pixel actually has a lens sitting on top of it,
this is called a microlens.
This is not the lens that's forming the image.
What this lens does is that it just takes light
from the main lens, and it focuses this light
onto the active area of the light sensitive area
of the pixel, which is shown down here.
So this lens focuses light onto this tiny little window here.
And the reason that this window is smaller
than the size of the pixel is because, often, like I said,
there's circuitry, and there are leads and so on that
are sitting around the pixel.
And you don't want to waste the light that's
falling on that region.
So you take all the light, and you channel it
down to the active area.
And here, you see a scanning electron microscope,
a beautiful image of the cross section of an image sensor.
You see right here the microlenses.
This is one microlens for this particular pixel.
Here, you see the color filter.
In this case, it happens to be a blue filter.
Sitting next to it is a red filter for the next pixel.
And underneath that is your potential well,
the pixel itself where charges are being collected
and circuitry to go with it.
And note that the distance between the top
of this microlens, right here, and all the way down
here to the bottom of the circuitry, is 9.6 micrometers.
So there's a lot of stuff happening.
There's a lot of action going on in this very thin layer
of silicon.
And that's why I said to you earlier
that you will see with the passage of time
that there's going to be more and more circuitry built
underneath these.
So that in a single wafer you can
have perhaps image processing and computer vision happening
with the image sensor layer.
And then your color layer and then your microlens layer,
all being grown on one single wafer of silicon.
And in fact, the main lens being grown on top of that as well.
This is optics on wafer.
This is all coming in the decades to come.
関連動画をさらに表示
Image Sensors 5 of 6 - Frontside and Backside Illumination
Image Sensors 6 of 6 - Charge Movement in CCD
Paneles Solares Explicados - ¡Descubre los Misterios del Funcionamiento de los Paneles Solares!
6 Características físicas de los equipos de radiodiagnóstico. || Pedro Ruiz Manzano
Image Sensors 3 of 6 - CCD and CMOS Overview 1
Transistor Explicado - Cómo Funcionan los Transistores
5.0 / 5 (0 votes)