Loading
Study Reminders
Support
Text Version

Set your study reminders

We will email you at these times to remind you to study.
  • Monday

    -

    7am

    +

    Tuesday

    -

    7am

    +

    Wednesday

    -

    7am

    +

    Thursday

    -

    7am

    +

    Friday

    -

    7am

    +

    Saturday

    -

    7am

    +

    Sunday

    -

    7am

    +

Olá e bem-vindo à palestra número 28 no curso Computer Graphics. Estamos atualmente em nossa última etapa de discussão sobre o pipeline gráfico 3D. Vamos rapidamente recapitear o gasoduto e depois vamos continuar a nossa discussão hoje.
Por isso, como aprendemos há cinco etapas, vamos rapidamente passar pelos palcos mais uma vez. Primeira etapa é representação de objetos, segundo estágio é transformação de modelagem, terceira etapa é iluminação, quatro estágio é visualização pipeline e há uma quinta etapa que é a conversão de varredura e apenas para recapitalizar entre essas etapas representação de objetos trata-se de representação de objetos que constituem uma cena e ali os objetos são definidos em um sistema de coordenadas local.
Segundo estágio é a transformação de modelagem onde combinamos diferentes objetos para construir uma cena e lá realizamos uma transformação que é local para a transformação coordenada pelo mundo e então a cena é definida em sistema de coordenadas mundiais. Agora, neste sistema de coordenadas do mundo atribuímos cores ao objeto que é o palco de iluminação, então na quarta etapa que está visualizando pipeline executamos uma série de transformações a saber: transformação de visualização em que transformamos do mundo para um sistema de coordenadas de visualização em seguida a transformação de projeção em que transformamos a partir de 3D view coordenar sistema de coordenadas e depois em terceiro janela para a transformação de viewport onde transformamos do sistema de coordenadas de visualização 2D em um sistema de coordenadas de visualização de dispositivo.
Nesta quarta etapa também realizamos duas operações a saber recorte e remoção de superfície oculta ambas as operações são feitas neste sistema de coordenadas de visualização. O quinto estágio que é a conversão de varredura também está relacionado à transformação em que transformamos este dispositivo coordenar descrição de uma cena para uma coordenada de tela ou grade de pixels. Atualmente estamos discutindo sobre esta quinta etapa que é a conversão de varredura.
Agora, aqui nesta etapa já cobrimos poucos tópicos a saber como converter ponto, linha, círculo, área de preenchimento e caracteres. Hoje discutiremos um conceito importante relacionado à conversão de escaneamento que se chama técnicas anti-aliasing. Isso é necessário para o smoothen o scan convertido ou renderizado formas.
Vamos, tentar entender o que é anti-aliasing então discutiremos poucas técnicas de antialiasing com exemplos.
Comecemos, comecemos com a ideia básica. O que é anti-aliasing? Agora considere esta figura aqui como você pode ver a linha pontilhada indica a linha original que nós queríamos escanear converter e esta é a grade do pixel mostrada aqui e nesta grade do pixel, queremos escanear converter esta linha pontilhada. No entanto, como você pode ver nem todos os pontos da linha passam pelos pixels por isso precisamos mapear esses pontos para os pixels mais próximos como vimos em nossa discussão anterior.
Como resultado, o que obtemos, obtemos essa linha convertida em varredura que parece um padrão de escada estair representado com essa grossa linha preta. Agora, esta definitivamente não é a linha original exatamente é uma aproximação como já dissemos no entanto devido a essa aproximação alguma distorção acontece. Em caso de linha estes são chamados de jaggies ou estagi-passo como padrões.
Em geral, haverá distorção para a forma original após a conversão de varredura para quaisquer formas não apenas linhas. Agora, essas distorções são chamadas ou as formas distorcidas que estão aí após a conversão de varredura é chamada aliando esse fenômeno onde obtemos distorção devido aos algoritmos que seguimos para conversão de varredura. Agora, por que é chamado de aliasing? Qual é o significado deste termo?
Antes de entrar em que devemos notar que aliasing é um efeito colaterais indesejável de conversão de varredura queremos evitar isso na medida do possível. Por isso, operações adicionais são realizadas para remover tais distorções essas técnicas juntas são conhecidas como técnicas anti-aliasing. Então, quando executamos algumas técnicas para remover efeitos de aliasing então chamamos essas técnicas como técnicas anti-aliasing.
Então, por que chamamos de aliasing? Qual é o significado deste termo?
Na verdade, o termo aliasing está relacionado ao processamento de sinais podemos explicar a ideia em termos de conceitos que são emprestados do domínio de processamento de sinais.
Em computação gráfica o que queremos nós queremos sintetizar imagens. Em outras palavras, queremos renderizar a imagem verdadeira e aqui temos que pensar nele como renderizar a imagem na janela no sistema de coordenadas de visualização ou no sistema de coordenadas de visualização 2D.
Agora, como definimos essa imagem em termos de valores de intensidade, que pode ser qualquer número real. Lembre-se de que ainda estamos no sistema de coordenadas de visualização em que estamos livres para usar qualquer número real para representar intensidade. Agora, aqueles valores de intensidade se pensarmos de uma maneira diferente, eles representam alguma distribuição de valores contínuos.
Então, se planejarmos que enredo esses valores em um gráfico então teremos alguma curva que representa a distribuição e aqui os valores são contínuos, ele pode levar qualquer valor real real. Então, essencialmente podemos pensar em uma imagem verdadeira como um sinal contínuo que está mapeando a ideia de renderização de imagem para representação de sinais.
Agora, quando executamos a renderização do que fazemos? O processo de renderização pode ser visualizado como processo de duas etapas em um sentido muito amplo na primeira etapa o que fazemos nós amostramos o sinal ou os valores de intensidade. Em outras palavras, nós amostramos esses valores para locais de pixels. Então, nós tentamos obter as intensidades do pixel, isto é o que discutimos até agora como obter as intensidades de pixel a partir das intensidades reais.
Mas há também uma segunda etapa que é das intensidades amostrais que queremos reconstruir o sinal original como um conjunto de pixels coloridos no display. Então, essencialmente nos é dada uma imagem que é um sinal contínuo de valores de intensidade. Podemos pensar nisso dessa forma, então queremos renderizar esta imagem na grade do pixel que é a finalidade da conversão de varredura, como fazemos isso? Seguimos duas etapas amplamente. Na primeira etapa, nós amostramos os valores do pixel e na segunda etapa reconstruímos a partir dessas amostras para obter a imagem renderizada.
Uma vez que reconstruímos o sinal original a partir do valor amostral, claramente não é o sinal exato e estamos lidando com uma falsa representação do sinal original. Agora, em inglês uma pessoa usando um nome falso é conhecida como alias e a mesma ideia é adaptada aqui onde estamos tentando representar um sinal original em termos de falso sinal reconstruído daí este sinal específico é chamado de alias e o que quer que obtenhamos é conhecido como aliasing.
Agora, já que estamos reconstruindo haverá alguma mudança a partir do original. Geralmente ela resulta em distrair visualmente imagens ou artefatos e para reduzir ou eliminar esse efeito usamos técnicas anti-aliasing. Utilizamos técnicas que reduzem os efeitos de aliasing, são chamadas de técnicas anti-aliasing.
Agora, como fazemos isso? Novamente podemos pedir termos emprestados a partir de processamento de sinais. Assim, sinal de intensidade contínua que é a imagem verdadeira pode ser visualizado como uma composição de vários componentes de frequência ou em outras palavras sinais primários de freqüências variadas. Essa é uma forma de dar os valores de intensidade.
Agora, há dois componentes nesses sinais. As regiões uniformes com valores de intensidade constante podem ser visualizadas como correspondentes a componentes de baixa frequência enquanto que há valores que se alteram bruscamente e estes valores correspondem a bordas acentuadas no alto do espectro de frequência. Em outras palavras, onde quer que haja mudanças brustas em valores podemos pensar nessas regiões como representando os componentes de alta frequência.
Agora, por causa desses componentes de alta frequência tais alterações abruptas obtemos efeitos de aliasing. Então, precisamos fumar para fora esses efeitos de aliasing, e como fazer isso?
Removendo ou filtrando os componentes de alta frequência dos sinais de intensidade reconstruídos. Assim, se não fizermos nenhuma operação adicional, teremos o sinal reconstruído tendo a intensidade elevada e baixa que resultará em distorção. Por isso, nosso objetivo seria eliminar ou remover, filtrar os componentes de alta frequência no sinal reconstruído.
Agora, há amplamente duas maneiras de fazer isso. Aplicamos amplamente ao grupo de técnicas de filtragem de técnicas, um conjunto de técnicas vem sob técnicas de pré-filtragem e o outro conjunto vem sob técnicas de pós-filtragem.
Na pré-filtragem, o que fazemos é realizamos filtragem antes da amostragem que significa que trabalhamos no verdadeiro sinal que está no espaço contínuo e o que fazemos tentamos derivar valores adequados para pixels individuais no sinal verdadeiro e esses grupos de técnicas também são chamados de técnicas de amostragem de área.
Em contraste, na filtragem pós como o nome sugere, executamos filtragem após a amostragem. Assim, filtramos componentes de alta frequência a partir dos dados amostrais. Em outras palavras, nós computamos valores de pixel e, em seguida, usando técnicas de pós filtragem modificamos esses valores. Agora, esse grupo de técnicas também são conhecidas como técnicas super amostrais. Então, temos técnicas de pré-filtragem ou de amostragem de área e pós filtragem ou técnicas super amostrais. Agora, vamos tentar aprender sobre poucas dessas técnicas.
Iniciaremos com amostragem de área. Quais são as técnicas e como elas funcionam?
Agora, em caso de amostragem de área, supomos que pixel tenha área. Por isso, pixel não é um ponto adimensional em vez disso tem sua área geralmente considerada quadrada ou circular com raio unitário e linhas que passam por esses pixels têm alguma largura finita. Então, cada linha também tem alguma área.
Agora, para computar a intensidade de pixel o que fazemos determinamos a porcentagem de área de pixel ocupada por linha. Deixe-nos denotar por p então a intensidade de pixel I é computada como uma soma ponderada da cor de linha e cor de fundo como mostrado nesta expressão. Por isso, para computar intensidade de um pixel digamos por exemplo aqui este é o pixel 01.
Agora, aqui você pode ver que a linha cobre 50 da área de pixel ou 0,5 na cor de linha o que quer que seja, que cl então 1 menos 0,5 em qualquer que seja a cor de fundo que será esta cor pixel deste pixel particular 01 na figura. Note que mais cedo o que fizemos anteriormente nós simplesmente atribuímos a cor de linha a este pixel em particular, mas aqui estamos considerando área, o quanto dessa área é ocupada pela linha e então, consequentemente, estamos mudando a cor. Esta é uma abordagem.
Deixe-nos, temos uma abordagem um pouco mais sofisticada envolvendo mais cálculos, que se chama algoritmo Gupta-Sproull.
Agora, esta é uma técnica de pré-filtragem usada para desenho de linha antialiada e aqui a intensidade, a intensidade de pixel é configurada com base em distância de um centro de linha ou de linha. Já que aqui estamos assumindo linha como largura finita do centro de pixel. Agora, essa ideia deste algoritmo em particular é baseada em algoritmo de desenho de linha midpoint.
Por isso, antes falámos sobre o algoritmo DDA, o algoritmo de desenho de linha da Bresenham. Agora, há um outro algoritmo que é o algoritmo de desenho de linha midpoint, este algoritmo é usado na técnica de pré-filtragem Gupta-Sproull. Então, primeiro tentaremos entender esse algoritmo então falaremos sobre a técnica de pré-filtragem real.
Então no algoritmo do ponto médio, o que fazemos? Vamos supor que nós apenas determinamos esse pixel atual aqui e para o pixel seguinte temos dois pixels candidatos. Um é o candidato superior pixel, um é menor pixel candidato dado por estes dois E e NE. Até aqui, ele é semelhante ao algoritmo de desenho de linha da Bresenham que vimos anteriormente. Agora, o que muda é que a forma como decidimos sobre esses pixels candidatos, qual deles escolher.
Mais cedo o que fizemos nós fizemos a decisão baseada na distância de linha dos pixels candidatos. Agora, neste algoritmo de ponto médio, o que faremos é consideraremos meio ponto entre o candidato pixel em vez de distância da linha. Por isso, o ponto médio é mostrado aqui entre esses dois pixels candidatos, que podem ser representados por essa expressão como você pode ver.
Agora, podemos representar uma linha como mostrada aqui com esta expressão em que a, b, c são constantes de número inteiro. Agora podemos reafirmar essa equação multiplicando 2 e obtendo essa expressão sem afetar nada na equação. Então isso é apenas um truque.
Em seguida, fixamos a dk variável de decisão que é a função avaliada no ponto médio M ou neste ponto (xk + 1, yk + ½). Agora se usarmos a equação modificada após a multiplicação por 2 então podemos ver que se expandirmos vai parecer algo assim que é a variável de decisão em k.
Agora, se d é maior que 0 então o ponto médio está abaixo da linha. Em outras palavras, se o ponto médio estiver abaixo da linha então pixel NE está mais próximo e devemos escolher NE aqui. Caso contrário, devemos escolher E. Agora quando o NE mais próximo que significa d é maior que 0. A próxima variável de decisão será dk + 1 que é o próximo ponto médio e se expandimos e nos reorganizarmos então obtemos em termos da dk variável de decisão anterior. Por isso, dk + 1 podemos representar em termos de dk e uma constante duas vezes a mais b.
Agora, quando dk≤ 0, então escolhemos este porque o ponto médio está mais próximo de NE e nesse caso o próximo parâmetro de decisão ou variável de decisão seria dado por esta expressão e que se nós reorganizarmos e nos reorganizarmos então vamos obter dk + 1 = dk + 2a.
Agora, qual é a variável de decisão inicial, que é dada por essa expressão. E depois de expandir obtemos essa variável inicial para ser 2a + b, sabendo que esse valor é 0 como você pode ver aqui nessa derivação.
Então, aqui nós resumimos as etapas do algoritmo. Então, entrada são dois terminais de linha e a saída é conjunto de pixels para renderizar a linha. Agora, primeira tarefa é descobrir o valor dessas constantes dizer a, b e c a partir de endpoints e então valor de decisão inicial d então começamos com um ponto final e continuamos até o outro terminal como antes. Se d> 0 então atualizamos x, y desta forma e atualizamos o parâmetro de decisão desta forma.
Caso contrário, atualizamos x desta forma atualizamos o parâmetro de decisão desta forma e eventualmente em cada iteração adicionamos este pixel para P continuamos até chegarmos ao outro ponto final que é o algoritmo de ponto médio. Agora, vamos ver como esse algoritmo de ponto médio é usado no algoritmo Gupta Sproull.
Agora no algoritmo Gupta Sproull há alguma modificação no algoritmo de ponto médio básico. Considere esta figura aqui, aqui suponhamos que tenhamos escolhido este pixel no presente xk, yk e baseado em ponto intermediário deixe-nos supor que tenhamos escolhido E este pixel na próxima etapa. Mais adiante, veremos o que vai acontecer se escolhermos NE em vez de E.
Agora, D é a distância perpendicular do ponto até a linha e podemos computar D usando geometria como mostrado aqui onde Δx, Δy são as diferenças em coordenadas x e y dos terminais de linha para que sejam constantes essencialmente. Então, o denominador aqui é constante.
Agora, qual deve ser o valor da intensidade aqui, ela será uma fração da cor da linha original. Assim, não irá atribuir a cor de linha original aqui para evitar efeito de aliasing em vez disso, atribuiremos uma fração da cor da linha original. Então, como escolher essa fração ela é baseada nessa distância D. Agora veja que isso está em contraste com as abordagens anteriores como o algoritmo de Bresenham ou algoritmo DDA onde a cor de linha é simplesmente atribuída ao pixel escolhido.
Agora, como essa distância determina a cor? Geralmente, uma função de filtro de cone é usada que significa mais distante a linha do centro de pixel escolhido é o laser é a intensidade. Por isso, mais distante a linha é do centro escolhido pixel o menos será a intensidade que será dimmer.
E esta distância para determinação de valor de intensidade é implementada como uma tabela. Assim, mantemos uma tabela em que com base na distância um determinado valor de intensidade está lá e dependendo da distância do computador simplesmente tiramos o valor da intensidade da tabela e aplicamos no pixel escolhido. Então, cada entrada na tabela representa fração com relação a um dado D. Então, alguns valores de D precomputados e seus valores de intensidade correspondentes estão ali nessa tabela.
Isso não é tudo, junto com isso para aumentar o alisamento da linha, a intensidade dos vizinhos também é alterada. Então, aqui E é o pixel escolhido aqui seus vizinhos são esse pixel e esse pixel. Agora, sua intensidade também é modificada. Novamente, de acordo com as distâncias Dupper e Dlower a partir da linha. Então, aqui como você pode ver, isso é Dlower e isso é Dupper e dependendo desses valores esses valores de pixel de vizinho são configurados.
Este Dupper e Dlower podem ser novamente obtidos usando geometria como mostrado nestas expressões onde v é esta distância e Δx Δy são como antes da diferença entre as coordenadas x e y dos endpoints.
E dependendo dessas distâncias novamente tabelas são mantidas para configurar os valores dos pixels vizinhos. Agora, em caso de E supor que escolhemos NE, então é claro que essas distâncias serão computadas de forma diferente. Novamente, podemos usar a geometria para verificar se as distâncias serão representadas desta forma. É claro que aqui Dupper é diferente e Dlower é diferente como comparado ao caso anterior e suas distâncias podemos representar usando essas expressões.
Então, esta é a distância do pixel escolhido da linha, a distância perpendicular então esta é Dupper isto é Dlower para cada um nós mantemos tabelas para implementar as funções do filtro de cone. Na tabela apenas para recapitear mantemos distâncias e a fração da cor de linha a ser aplicada com base em que escolhemos a cor.
Então, há algumas etapas adicionais realizadas em cada iteração do algoritmo de ponto médio. No algoritmo regular não modificamos as cores do pixel, qualquer que seja a cor de linha lá escolhemos que para ser a cor pixel escolhida mas aqui no algoritmo Gupta-Sproull essas etapas são modificadas. Assim, após escolher um pixel candidato, determinamos a cor de linha por primeiro computar a distância se E for escolhida então a distância é dada nesta expressão caso contrário, se NE for escolhida então expressão separada.
Em seguida, atualizamos o valor da decisão como no algoritmo regular, depois fixamos os valores de intensidade de acordo com D, depois computamos Dupper e Dlower e, em seguida, configuramos intensidade dos dois vizinhos verticais, estes são os passos adicionais que são executados no algoritmo Gupta-Sproull em comparação com o algoritmo de desenho de linha midpoint original.
Deixe-nos, tente entender o algoritmo com um exemplo.
Suponhamos, esta é a nossa linha mostrada aqui, estes são os endpoints e queremos escolher os pixels e colori-los. Por isso, tanto as coisas que precisamos fazer, escolher pixels e também escolher valores de intensidade adequados para esses pixels.
Então, primeiro a gente iria para escolher o pixel e depois vamos decidir sobre a sua cor. Então, a equação da linha pode ser dada dessa forma ou obtemos um igual a este, b igual a este, e c igual a este, e valor de decisão inicial d é dado como 1.
Por isso, na primeira iteração, precisamos escolher entre NE e E, d é maior que 0 se pudermos ver. Então, então precisamos escolher NE que é esse pixel e então reajuste d.
Agora, depois de escolher NE a próxima iteração escolhemos este pixel E ' (3, 2) dependendo do valor de d e então novamente nós reajustamos d.
Agora, depois de escolher esses dois pixels, verificamos que onde está o outro terminal então pare. Por isso, no final o algoritmo devolve esses quatro pixels, estes devem ser renderidos. Agora, enquanto escolhe um pixel também usamos as modificações propostas no algoritmo Gupta-Sproull para designar cores.
Por isso, por exemplo quando estamos a falar de NE este é um pixel escolhido, por isso é preciso escolher a sua cor assim como a cor dos seus dois vizinhos. Da mesma forma, quando escolhemos E temos que escolher a sua cor assim como a cor dos seus dois vizinhos.
Para isso determinamos Δx, Δy. Em seguida, computamos a distância do NE D que é dada aqui e com base nessa distância.
Além disso, computamos Dupper e Dlower pela computação a primeira.
Por isso, Dupper e Dlower são esses dois valores para este pixel NE em particular. Então, você tem Dupper, Dlower. Agora, utilizamos a tabela para determinar a fração da cor de linha original a ser aplicada aos três pixels com base nas três distâncias computadas.
Ou seja, para qualquer agora para o E' temos estes dois pixels, pixels vizinhos e o pixel escolhido E '. Então, aqui similarmente podemos computar D para ser este valor 1/√13.
E nós computamos v aqui para obter os valores Dupper e Dlower.
Então, usando v conseguimos Dupper para ser este valor, Dlower para ser este valor e agora sabemos a distância deste pixel da linha assim como Dupper e Dlower novamente nós vamos voltar para a tabela executar a consulta de tabela para determinar a fração da cor de linha a ser atribuída a estes 3 pixels.
Sendo assim, é assim que escolhemos as cores do pixel. Por isso em resumo, o que fazemos é neste algoritmo Gupta-Sproull é não simplesmente atribuímos cor de linha aos pixels que são escolhidos para representar a linha, em vez disso escolhemos pixels seguindo um algoritmo de desenho de linha em particular e depois computamos três distâncias, distância do pixel da linha e distância dos pixels vizinhos da linha. Aqui estamos a falar apenas em termos de vizinhos verticais.
E com base nessas distâncias encontramos a fração da cor de linha a ser aplicada ao pixel escolhido assim como os pixels vizinhos. Aqui aplicamos uma função de filtro de cone na forma de uma tabela. Na tabela correspondente às distâncias algumas frações são mencionadas. Então, aqueles foram técnicas de amostragem de área Agora, vamos tentar entender a outra ampla classe de técnicas antialiasing conhecida como super amostragem.
Agora, em super amostragem o que fazemos? Aqui cada pixel é assumido para consistir em uma grade de subpixels. Em outras palavras, estamos efetivamente aumentando a resolução do display. Agora para traçar linhas anti-aliadas, contamos número de sub pixels através dos quais a linha passa e este número determina a intensidade a ser aplicada. Por exemplo, aqui todo esse quadrado é um pixel, que é representado com dois por dois de grade de subpixels.
Essa é uma abordagem. Há outras abordagens também, por exemplo, podemos usar uma linha finita com determinação dentro de subpixels que significa os subpixels que estão dentro da largura finita da linha. Pode haver um simples cheque para isso. Podemos considerar apenas aqueles subpixels que tem seus cantos de esquerda mais baixos dentro da linha como dentro. Portanto, se um subpixel tem seu canto inferior esquerdo dentro da linha podemos considerar que subpixel para estar dentro de subpixel e, em seguida, intensidade de pixel é média ponderada de intensidades de subpixel onde os pesos são a fração de subpixels dentro ou fora, essa pode ser outra abordagem simples.
Por exemplo, nesta figura como você pode ver a linha tem alguma largura e cada pixel tem a grade de 2 × 2 subpixel. Então por exemplo, este é um pixel que tem grade de 2 × 2 subpixel, este pixel (0, 2). Da mesma forma, trata-se de um pixel (1, 1) que tem a grade de 2 × 2 subpixel. Agora vamos supor que a cor da linha original é dada por estes valores R, G, B e a luz de fundo é amarela com novamente estes valores R, G, B. Então, então como escolher a cor real depois de renderizar?
Agora na figura como você pode ver esses três subpixels talvez considerados dentro da linha. Assim, a fração de subpixels que está dentro é de 3/4 e a fração externa é de 1/4.
Agora se levarmos uma média ponderada para componentes de intensidade individual, então obtemos o valor R para este pixel em particular como este ou este valor, valor G será este valor e o valor B será 0. E este valor R ou este valor de G e este valor B juntos nos darão a cor desse pixel em particular.
Então, a intensidade será definida como R igual a este, G igual a este e B igual a este valor e conseguimos isso considerando a fração de subpixels que estão dentro da linha e frações que estão fora.
Às vezes, também usamos máscaras de peso para controlar a quantidade de contribuição de vários subpixels para a intensidade geral. Agora esse tamanho de máscara depende do tamanho da grade do subpixel, isso é óbvio porque nós queremos controlar a contribuição de cada um e cada subpixel. Por isso, se temos uma grade de 3 × 3 subpixel então o tamanho da máscara será 3 × 3, deve haver o mesmo.
Por exemplo, considere uma grade de subpixels de 3 × 3 e nós estamos dadas essas máscaras. Então, dada essa máscara e essas três grades do subpixel, como escolher a cor ou a intensidade de um pixel?
Então, podemos usar esta regra que a contribuição de intensidade de um subpixel é o seu valor de máscara correspondente dividido por 16, que é a soma de todos os valores. Assim, para o subpixel (0, 0) sua contribuição será de 1/16, para a contribuição de subpixel (1, 1) será de 4/16 porque o valor correspondente é de 4 e assim por diante. Então, seja qual for o valor de intensidade do subpixel nós vamos multiplicar com essas frações para obter a contribuição fracionada e depois vamos adicionar aqueles para cima para obter a intensidade geral do pixel.
Agora suponha que uma linha passe através ou enfeche os sub pixels top, centro, inferior esquerdo e inferior de um pixel. Supondo as mesmas máscaras que mostradas aqui e 3 × 3 de grade de subpixels.
Depois, para obter a intensidade de linha em qualquer local de pixel particular ou que a intensidade de pixel para a linha em que a cor de linha é dada por cl cor original e cor de fundo é dada por cb, o que podemos fazer, podemos utilizar esta formulação simples; intensidade de pixel será dada por contribuição total dos subpixels em cl mais 1 menos contribuição total em cb, isto é para cada um destes componentes R, G, B.
Então, isso está em efeito o que podemos fazer super amostrando. Então, vamos resumir o que aprendemos até agora.
Por isso, com esta discussão chegamos ao fim da nossa discussão sobre o pipeline 3D e aqui cobrimos nesta série de palestras as cinco etapas como mencionei no início. Hoje aprendemos sobre uma técnica importante que está aliando e como abordá-lo. Acontece porque na quinta etapa quando nós convertemos uma forma para uma imagem para uma grade de pixels então conseguimos distorções e técnicas anti-aliasing são úteis para evitar essas distorções.
Para isso, seguimos amplamente dois grupos de técnicas; ou amostragem de área ou pré-filtragem e super amostragem ou pós-filtragem. Na pré-filtragem, aprendemos sobre o algoritmo Gupta-Sproull junto com alguma outra abordagem simples. Da mesma forma, na filtragem pós aprendemos cerca de três abordagens há muitas outras, é claro.
Por isso, estes são feitos para dar-lhe alguma ideia do que são as questões e como são abordadas mas claramente como se pode ver se vamos para técnicas anti-aliasing, implica cálculos adicionais e suporte de hardware adicional que naturalmente tem o seu próprio custo. Com isso encerramos a nossa discussão hoje e esse também é o fim da nossa discussão sobre o pipeline gráfico 3D.
Na próxima palestra, vamos aprender sobre implementação de pipeline, como os estágios de pipeline que aprendemos até agora são implementados, em particular aprenderão sobre o hardware e software gráficos. Nas palestras introdutórias aprendemos em breve o hardware e o software de forma muito pequena, aqui entraremos em mais detalhes.
O que quer que eu tenha discutido hoje pode ser encontrado neste livro. Você é aconselha a passar pelo capítulo 9 seção 9,5 para obter mais detalhes sobre os tópicos. Então veja você na próxima palestra, até lá, obrigado e adeus.