Como funciona o sensor de imagem da câmera digital

Sensores de imagem convertem luz em elétrons para gerar imagens em câmeras digitais; entenda funcionamento e significado de siglas como CMOS, APS-C e ToF

Felipe Ventura Paulo Higa
Por e
• Atualizado há 1 ano
Sensor CMOS em câmera
Sensor CMOS em câmera (Imagem: Alvin Trusty / Flickr)

O sensor de imagem de uma câmera é um dispositivo que converte a luz em imagem digital. Sua função é capturar a luz recebida pela lente, gerando uma emissão de elétrons que é amplificada e transformada em foto.

Sensores de imagem presentes em câmeras digitais variam em características como tamanho, tipo, resolução, sensibilidade, alcance dinâmico e tamanho dos pixels. Entenda o funcionamento de um sensor e as principais especificações relacionadas ao componente.

O que faz o sensor de imagem em uma câmera digital

Os sensores das câmeras transformam a luz em imagem graças ao efeito fotoelétrico: a luz vem através da lente e atinge uma camada de silício, o que gera um sinal elétrico. Este sinal passa pelo conversor analógico-digital e é transformado em foto pelo processador de imagem.

Componentes de um sensor de imagem
Componentes de um sensor de imagem (Imagem: Vitor Pádua / Tecnoblog)

Todo sensor de câmera digital possui três camadas: o substrato, um filtro de cor, e microlentes.

O substrato mede a intensidade da luz: ele possui pequenas cavidades (pixels) que retêm a luz recebida e permitem que ela seja medida. O substrato, por si só, é monocromático: ele consegue apenas medir a luz coletada, não determinar a cor.

O filtro de cor fica acima do substrato e permite que apenas uma determinada cor entre em cada pixel. O filtro Bayer é o tipo mais comum, com um arranjo RGB alternado de vermelho-verde e verde-azul.

As microlentes ficam acima do filtro Bayer e direcionam a luz para um só pixel, impedindo que ela caia no espaço entre dois pixels (onde ela não seria mensurada).

CCD e CMOS, os tipos mais comuns de sensores

O CMOS é o sensor mais comum em câmeras voltadas para o público em geral, incluindo celulares, mirrorless e DSLRs. O CCD, embora seja encontrado em eletrônicos de consumo, é atualmente mais usado em aplicações profissionais.

Em resumo:

  • CMOS (semicondutor de óxido metálico complementar): transforma a luz em um sinal elétrico, que é amplificado dentro do pixel e gera o sinal digital representando a imagem. Este sensor tem tamanho e custo menores, porém a chance de ruído nas fotos é mais alto;
  • CCD (dispositivo de carga acoplada): o sensor coleta a luz e a converte em uma carga elétrica, que é amplificada fora do sensor e levada para um conversor analógico-digital. A qualidade de imagem costuma ser maior, assim como o custo de fabricação.

Tamanhos de sensores em câmeras: full frame, APS-C, micro quatro terços

Sensores de imagem para câmeras costumam ter tamanhos padronizados, medidos em frações de polegadas ou indicados por siglas como APS-C e M4/3. Os padrões mais comuns são:

Ilustração sobre o tamanho de diferentes sensores de câmeras, com cada tamanho centralizado na imagem
Tamanhos comuns de sensores de câmeras (Imagem: Vitor Pádua / Tecnoblog)
  • Full frame: mede 36 × 24 mm – são as dimensões completas da película cinematográfica de 35 mm. Permite uma profundidade de campo mais rasa em fotos. Serve como referência para o tamanho de outros sensores, medido pelo fator de corte (crop factor);
  • APS-H (Advanced Photo System type H): mede 27,9 x 18,6 mm, com fator de corte de 1,3x – ou seja, dimensões cerca de 1,3x menores que um sensor full frame. Este tamanho foi usado em algumas câmeras da linha Canon EOS-1D;
  • APS-C (Advanced Photo System type C): mede 25,1 x 16,7 mm, com fator de corte de 1,52x a 1,7x, dependendo da fabricante. Tem proporção 3:2 e é usado em câmeras DSLR e mirrorless da Canon, Nikon, Sony e outras marcas;
  • Micro quatro terços (Four Thirds ou M4/3): mede 17,3 x 13,5 mm, com fator de corte de aproximadamente 2. Tem proporção 4:3 e foi criado por Olympus e Panasonic em 2008 para câmeras mirrorless de lentes intercambiáveis;
  • 1 polegada: mede 13,2 × 8,8 mm, com fator de corte de 2,7x. Ele é usado em câmeras compactas, como a Sony RX100 e RX10, e está dando as caras em celulares como o Xiaomi 13 Ultra, Oppo Find X6 Pro e Vivo X90 Pro;
  • 1/1,3 polegada: mede aproximadamente 9,8 × 7,3 mm, com crop factor de 3,6x. É utilizado em smartphones como o iPhone 14 Pro Max, Samsung Galaxy S23 Ultra e Xiaomi 12 Pro;
  • 1/2,3 polegada: mede 6,17 × 4,55 mm, com crop factor de 5,6x. Este formato foi usado em todas as gerações da GoPro até a Hero10 Black, em diversos modelos dos drones DJI Mavic, e em vários celulares Sony Xperia;
  • 1/2,55 polegada: mede 5,6 × 4,2 mm, com fator de corte de 6,4x. Esteve presente na câmera traseira principal do Galaxy S7 ao S10, do Pocophone F1, e do iPhone XR, XS e XS Max;
  • 1/3 polegada: mede 4,80 × 3,60 mm, com fator de corte de 7x. Foi usado pela Apple do iPhone 5S até o iPhone X;
  • Médio formato: mede entre 36 × 24 mm e 130 × 100 mm – é um sensor com dimensões entre o full frame e o grande formato. É usado em câmeras da Hasselblad, Fujifilm e Pentax.

ISO, resolução, alcance dinâmico e outras especificações

Há diversas especificações relacionadas a um sensor de imagem. Além do tipo (CCD ou CMOS) e do tamanho (full frame, APS-C, micro quatro terços etc.), são frequentes os seguintes termos:

  • ISO: indica a sensibilidade à luz de um sensor. Um ISO 1600, por exemplo, sinaliza que o obturador precisa ficar aberto pelo dobro de tempo que um sensor ISO 3200 para capturar a mesma quantidade de luz em uma foto;
  • resolução: quantos pixels uma câmera pode capturar, valor geralmente medido em megapixels;
  • tamanho do pixel: é o tamanho do photosite, isto é, da área do pixel que captura a luz. Ele é medido em micrômetros (µm). No geral, quanto maior o tamanho do pixel, maior será a qualidade da imagem;
  • fator de corte (crop factor): proporção entre a diagonal do sensor full frame (43,3 mm) e de um determinado sensor. Por exemplo, a diagonal do sensor full frame mede o dobro da diagonal em um sensor M4/3, então seu crop factor é 2;
  • taxa de quadros (fps): a taxa na qual o obturador abre e fecha durante um segundo. Os valores de fps mais comuns para vídeo são 24, 25, 29,97, 30, 50 e 60 quadros por segundo;
  • taxa de disparo (burst rate): quantas fotos por segundo a câmera pode capturar em sequência rápida. Os iPhones têm modo burst de 10 quadros por segundo (fps). Câmeras DSLR e mirrorless têm taxas de disparo que variam de 3 a 30 fps;
  • alcance dinâmico: a diferença entre os tons mais escuros e mais claros que uma câmera pode capturar sem perder detalhes. É medido em “stops”: cada stop adicional equivale a dobrar o brilho. O olho humano enxerga até 20 stops, de acordo com a Sony;
  • HDR: técnica que combina várias fotos da mesma cena com diferentes valores de exposição, ou stops. Dessa forma, é possível revelar detalhes nas áreas mais escuras, e preservar as nuances nas partes mais claras;
  • profundidade de campo (depth of field, DoF): a parte da foto que está em foco. Uma profundidade mais alta mostrará quase tudo no enquadramento de forma nítida, e se o DoF estiver raso, somente uma parte da imagem ficará em destaque;
  • profundidade de bits do sensor (bit depth): número de bits que cada pixel pode armazenar, relacionado à profundidade de cores. Com 8 bits, é possível detectar 256 tons diferentes; com 12 bits, isso aumenta para 4.096 tons.

Estes termos também podem aparecer ao se falar de câmeras:

  • rolling shutter: efeito que faz objetos em movimento parecerem inclinados quando capturados por um sensor CMOS, pois a câmera lê os dados linha por linha, não todos de uma vez (como em sensores CCD);
  • efeito moiré: distorção óptica em cenas com detalhes repetidos, como roupas listradas ou linhas verticais em edifícios, que acabam se alinhando com o filtro de cores do sensor;
  • filtro passa-baixa (low-pass): reduz o efeito moiré, cores falsas e serrilhamento (aliasing) nas fotos ao bloquear ondas de alta frequência. Fica localizado em frente ao sensor.

Sensores de profundidade, LiDAR e ToF

Sensores de profundidade medem a distância entre um objeto e a câmera. Eles são usados para realidade aumentada, biometria facial, foco automático em câmeras e efeito bokeh em fotos.

Sensor LiDAR no iPhone 12 Pro
Sensor LiDAR no iPhone 12 Pro (Imagem: Divulgação / Apple)

ToF, LiDAR e outros sensores de profundidade não capturam fotos por conta própria, mas podem ser considerados sensores de imagem porque geram mapas de profundidade, mostrando a distância de cada objeto, através do efeito fotoelétrico.

Como limpar o sensor de imagem da câmera?

Vá para um local sem poeira e vento, remova a lente e use um soprador de ar manual, sem encostá-lo no sensor. Não use ar comprimido. Se a poeira não sair: compre um kit de limpeza para câmeras, pingue duas gotas do líquido na haste de limpeza, e mova a haste suavemente pelo sensor.

Como funciona a limpeza automática do sensor da câmera?

Câmeras DSLR ou mirrorless têm um mecanismo de vibração que faz a poeira cair em um coletor na parte de baixo do sensor. Elas podem usar uma vibração ultrassônica no filtro à frente do sensor, ou fazer deslocamento do próprio sensor.

Quanto maior o tamanho do sensor, melhor a qualidade da imagem?

Sim, porque isso geralmente significa que a câmera possui pixels maiores, ou seja, mais capazes de absorver luz.

Como saber o tamanho do sensor da câmera do celular?

Use o app gratuito Device Info HW no Android: instale-o, abra-o e toque em “Câmera” para ver o tamanho dos sensores das câmeras. No caso do iPhone, procure pelo nome do aparelho em bases de dados como o GSMArena.

Esse conteúdo foi útil?
😄 Sim🙁 Não

Relacionados