9º Ciclo de Estudos Dados, Informação e Tecnologia: Tecnologias para obtenção de dados imagéticos

Fábio Mosso Moreira

Universidade Estadual Paulista (UNESP) | fabio.moreira@unesp.br | https://orcid.org/0000-0002-9582-4218 | https://lattes.cnpq.br/1614493890723021

Graduado em Administração de Empresas pela Faculdade de Ciências e Engenharia (UNESP/Tupã). Mestrado concluído em Ciência da Informação - Faculdade de Filosofia e Ciências (UNESP/Marília). Doutorado em andamento Programa de Pós-Graduação em Ciência da Informação - Faculdade de Filosofia e Ciências (UNESP/Marília). Atua como membro do Grupo de Pesquisa Novas Tecnologias em Informação - GPNTI (UNESP/Marília) e Grupo de Pesquisa Tecnologia de Acesso a Dados -GPTAD (UNESP / Tupã). Editor de Conteúdo da Revista Eletrônica Competências Digitais para Agricultura Familiar (RECoDAF). Possui Habilidade Profissional Técnica em Informática pela ETEC Massuyuki Kawano - Centro Paula Souza de Tupã. Tem experiência profissional na área de Sistemas de Informação ERP para Operações de Logística. Atualmente realiza pesquisas com foco na investigação de temas ligados à utilização de recursos digitais para a disponibilização e acesso a dados governamentais de Políticas Públicas no âmbito dos pequenos produtores.

Fernando de Assis Rodrigues

Universidade Federal do Pará (UFPA) | fernando@rodrigues.pro.br | https://orcid.org/0000-0001-9634-1202 | https://lattes.cnpq.br/5556499513805582

Professor Adjunto no Instituto de Ciências Sociais Aplicadas, lotado na Faculdade de Arquivologia da Universidade Federal do Pará. Doutor e Mestre em Ciência da Informação pela UNESP - Universidade Estadual Paulista. Especialista em Sistemas para Internet pela UNIVEM - Centro Universitário Eurípides de Marília. Bacharel em Sistemas de Informação pela USC - Universidade do Sagrado Coração. Membro dos grupos de pesquisa GPNTI - Novas Tecnologias em Informação e GPTAD - Tecnologias de Acesso a Dados (UNESP), GPIDT - Informação, Dados e Tecnologia (USP) e GPDM - Dados e Metadados (UFSCar). Editor do periódico RECoDAF - Revista Eletrônica Competências Digitas para a Agricultura Familiar. Atua nas áreas da Ciência da Informação e da Ciência da Computação, com ênfase em Engenharia de Software, Bancos de Dados, Tecnologia de Informação e Comunicação e Ambientes Informacionais Digitais, focado principalmente nos seguintes temas: Coleta de Dados, Dados, Acesso a Dados, Serviços de Redes Sociais Online, Linked Data, Linked Open Data, Metadados, Internet Applications, Linguagens de Programação, Banco de Dados e Bases de Dados, Privacidade, Governo eletrônico, Open Government Data e Transparência Pública.

Ricardo César Gonçalves Sant'Ana

Universidade Estadual Paulista (UNESP) | ricardo.santana@unesp.br | https://orcid.org/0000-0003-1387-4519 | https://lattes.cnpq.br/1022660730972320

Professor Associado da Universidade Estadual Paulista - UNESP, Faculdade de Ciências e Engenharias - FCE, Campus de Tupã, em regime de dedicação exclusiva, onde é Presidente da Comissão de Acompanhamento e Avaliação dos cursos de Graduação - CAACG, Coordenador Local do Centro de Estudos e Práticas Pedagógicas - CENEPP e Ouvidor Local. Professor do Programa de Pós-Graduação em Ciência da Informação da Universidade Estadual Paulista, Campus de Marília. Graduado em Matemática e Pedagogia, Mestrado em Ciência da Informação (2002), Doutorado em Ciência da Informação (2008) e Livre-Docente em Sistemas de Informações Gerenciais pela UNESP (2017). Possui especializações em Orientação à Objetos (1996) e Gestão de Sistemas de Informação (1998). Parecerista ad hoc de periódicos e de agências de fomento. Lider do Grupo de Pesquisa - Tecnologias de Acesso a Dados (GPTAD) e membro do Grupo de Pesquisa - Novas Tecnologias em Informação GPNTI. Tem experiência na área de Ciência da Computação, atualmente realiza pesquisas com foco em: ciência da informação e tecnologia da informação, investigando temas ligados ao Ciclo de Vida dos Dados, Transparência e ao Fluxo Informacional em Cadeias Produtivas. Atuou como professor na Faccat Faculdade de Ciências Contábeis e Administração de Tupã, onde coordenou curso de Administração com Habilitação em Análise de Sistemas por dez anos e o curso de Licenciatura em Computação. Atuou no setor privado como consultor, integrador e pesquisador de novas tecnologias informacionais de 1988 a 2004.


Organizadores

Fábio Mosso Moreira

Universidade Estadual Paulista (UNESP) | fabio.moreira@unesp.br | https://orcid.org/0000-0002-9582-4218 | https://lattes.cnpq.br/1614493890723021

Graduado em Administração de Empresas pela Faculdade de Ciências e Engenharia (UNESP/Tupã). Mestrado concluído em Ciência da Informação - Faculdade de Filosofia e Ciências (UNESP/Marília). Doutorado em andamento Programa de Pós-Graduação em Ciência da Informação - Faculdade de Filosofia e Ciências (UNESP/Marília). Atua como membro do Grupo de Pesquisa Novas Tecnologias em Informação - GPNTI (UNESP/Marília) e Grupo de Pesquisa Tecnologia de Acesso a Dados -GPTAD (UNESP / Tupã). Editor de Conteúdo da Revista Eletrônica Competências Digitais para Agricultura Familiar (RECoDAF). Possui Habilidade Profissional Técnica em Informática pela ETEC Massuyuki Kawano - Centro Paula Souza de Tupã. Tem experiência profissional na área de Sistemas de Informação ERP para Operações de Logística. Atualmente realiza pesquisas com foco na investigação de temas ligados à utilização de recursos digitais para a disponibilização e acesso a dados governamentais de Políticas Públicas no âmbito dos pequenos produtores.

Fernando de Assis Rodrigues

Universidade Federal do Pará (UFPA) | fernando@rodrigues.pro.br | https://orcid.org/0000-0001-9634-1202 | https://lattes.cnpq.br/5556499513805582

Professor Adjunto no Instituto de Ciências Sociais Aplicadas, lotado na Faculdade de Arquivologia da Universidade Federal do Pará. Doutor e Mestre em Ciência da Informação pela UNESP - Universidade Estadual Paulista. Especialista em Sistemas para Internet pela UNIVEM - Centro Universitário Eurípides de Marília. Bacharel em Sistemas de Informação pela USC - Universidade do Sagrado Coração. Membro dos grupos de pesquisa GPNTI - Novas Tecnologias em Informação e GPTAD - Tecnologias de Acesso a Dados (UNESP), GPIDT - Informação, Dados e Tecnologia (USP) e GPDM - Dados e Metadados (UFSCar). Editor do periódico RECoDAF - Revista Eletrônica Competências Digitas para a Agricultura Familiar. Atua nas áreas da Ciência da Informação e da Ciência da Computação, com ênfase em Engenharia de Software, Bancos de Dados, Tecnologia de Informação e Comunicação e Ambientes Informacionais Digitais, focado principalmente nos seguintes temas: Coleta de Dados, Dados, Acesso a Dados, Serviços de Redes Sociais Online, Linked Data, Linked Open Data, Metadados, Internet Applications, Linguagens de Programação, Banco de Dados e Bases de Dados, Privacidade, Governo eletrônico, Open Government Data e Transparência Pública.

Ricardo César Gonçalves Sant'Ana

Universidade Estadual Paulista (UNESP) | ricardo.santana@unesp.br | https://orcid.org/0000-0003-1387-4519 | https://lattes.cnpq.br/1022660730972320

Professor Associado da Universidade Estadual Paulista - UNESP, Faculdade de Ciências e Engenharias - FCE, Campus de Tupã, em regime de dedicação exclusiva, onde é Presidente da Comissão de Acompanhamento e Avaliação dos cursos de Graduação - CAACG, Coordenador Local do Centro de Estudos e Práticas Pedagógicas - CENEPP e Ouvidor Local. Professor do Programa de Pós-Graduação em Ciência da Informação da Universidade Estadual Paulista, Campus de Marília. Graduado em Matemática e Pedagogia, Mestrado em Ciência da Informação (2002), Doutorado em Ciência da Informação (2008) e Livre-Docente em Sistemas de Informações Gerenciais pela UNESP (2017). Possui especializações em Orientação à Objetos (1996) e Gestão de Sistemas de Informação (1998). Parecerista ad hoc de periódicos e de agências de fomento. Lider do Grupo de Pesquisa - Tecnologias de Acesso a Dados (GPTAD) e membro do Grupo de Pesquisa - Novas Tecnologias em Informação GPNTI. Tem experiência na área de Ciência da Computação, atualmente realiza pesquisas com foco em: ciência da informação e tecnologia da informação, investigando temas ligados ao Ciclo de Vida dos Dados, Transparência e ao Fluxo Informacional em Cadeias Produtivas. Atuou como professor na Faccat Faculdade de Ciências Contábeis e Administração de Tupã, onde coordenou curso de Administração com Habilitação em Análise de Sistemas por dez anos e o curso de Licenciatura em Computação. Atuou no setor privado como consultor, integrador e pesquisador de novas tecnologias informacionais de 1988 a 2004.


Técnicas para tratamento de imagens

Páginas: 20 - 32

Autores

Eveline Batista Rodrigues

Centro Paula Souza (ETEC/Tupã) | evelinerodrigues@yahoo.com | https://lattes.cnpq.br/4967341665335583

Professora do Centro Paula Souza (ETEC/Tupã), possui Mestrado em Engenharia Elétrica (USP), é graduada em Ciência da Computação (UNIVEM), especialista em Sistemas para Internet e possui Licenciatura em Informática.

Transcrição do Vídeo

Vou trazer para vocês um tema sobre técnicas de processamento de imagens, tratamento e processamento de imagens, que foi um assunto que eu estudei no meu mestrado e de onde a gente consegue, dentro da área de Ciência da Informação, tratar de muitos aspectos, porque a imagem não é só o que a gente vê, tem muitas coisas que estão por trás da imagem.

Primeiramente, a definição de imagem digital. A imagem digital é uma função bidimensional de intensidade da luz, uma função ‘f’ de ‘x’, onde (x, y) denotam as coordenadas espaciais no plano, e o valor de “f” em qualquer ponto é proporcional ao brilho ou aos níveis de cinza da imagem.

O processo de amostragem seria a divisão de imagem em ‘x’ e ‘y’, quantas coordenadas teriam no “x” e quantas teriam no ‘y’. Após a amostragem, ocorre o processo de quantização, que é a parte da transformação dos níveis de cinza em valores da imagem, onde cada um desses valores é um pixel da imagem. Se a gente aumenta bastante a imagem, a gente começa a ver os quadrados dessa imagem, que são os pixels.

Os pixels são a menor unidade de informação de uma imagem. Na hora de armazenar no computador, ocorre uma matriz de linhas e colunas, onde cada posição dessa matriz e a informação de cor dessa imagem nos níveis de cinza, dependem do tamanho da imagem. Se for uma imagem de 8 bits, por exemplo, é dois elevado a oito, ou seja, 256 níveis de cinza diferentes, onde o zero é o preto e o nível mais forte, que é o 255, é a cor branca, e o intervalo entre esses números seriam as escalas de cinza.

Você pode perceber a parte de quantificação da imagem digital colorida como funciona. Ela é um pouco diferente da forma de armazenamento, porém ela também mostra informações de cor, então os pixels da imagem colorida não contém informação de cor, mas tem um índice da localização da informação de cor de uma outra tabela, de uma outra matriz.

A imagem teria os índices de uma nova matriz, onde cada índice vai armazenar informações de RGB, que é o vermelho, o verde e o azul, em um sistema de cores aditiva de imagem. A soma desses itens nesses canais de cores dá um valor de uma cor, então, aqui por exemplo, nesse índice 3 teremos a soma de 0.36 de vermelho, 0.21 de verde, 0.32 de azul, a soma dessa graduação de RGB vai dar uma nova cor, que é a cor do pixel em questão onde está armazenada.

Aqui então a imagem é dotada de bastante informação, por isso que a gente tem as técnicas de processamento, se tratando de imagem, essa imagem também tem uma espécie de ciclo de vida. Ela tem um ciclo de vida baseado no ciclo de vida de dados, composto pelo professor Ricardo Santana, que é a utilização de uma delimitação de fases envolvidas no acesso a dados.

Como ponto central são os próprios dados, ele (o ciclo) é utilizado como forma de evidenciar os diferentes momentos e fatores envolvidos no processo. Aqui foi colocado como forma dos dados em imagens em cima desse modelo que o professor Ricardo propôs, onde os dados passam por algumas fases, como a fase de coleta, de armazenamento e recuperação e descarte, tendo ainda alguns fatores envolvidos, como privacidade, integração, a qualidade, os direitos autorais, a integração e a preservação desses dados.

Porque foi trabalhado em cima de dados de imagem, esse ciclo de vida, numa fase de coleta dos dados imagéticos, é a fase de obtenção da imagem, e a gente pode obter através de equipamentos digitais, como fotografias, câmera de vídeo, scanner, aparelhos de raio-x, microscópios eletrônicos, aparelhos de ultrassom e radares.

A fase de coleta, a gente tem que levar em consideração algumas premissas. Se tratando de imagem, teríamos que abordar a fonte de aquisição da imagem, se seria um objeto, a pessoa, o lugar fotografado, como será feita a captura da imagem, se essa imagem conseguiu captar os elementos necessários, o formato dessa imagem, já que existem vários formatos disponíveis para a imagem, os riscos de privacidade dos indivíduos que estão presentes nesta imagem, se ouve permissão de coleta, a procedência e o acesso no futuro após o armazenamento, esta seria a fase da coleta dos dados de imagem.

Temos também a fase de armazenamento de dados de imagens. Como ouvimos, o armazenamento é uma série de informações que são presentes pelos pixels das imagens digitais, elas podem ser armazenadas em dispositivos de armazenamento, que são os dispositivos que vão preservar as imagens ou os dados sem você perder. Se você desliga o computador e liga novamente, os dados estão no disco rígido que são os meios magnéticos, os CDS e DVDS que são os meios óticos, pendrive, cartão de memória, alguns modelos de disco rígido que são SSD, são meios eletrônicos. Na fase de armazenamento desses dados temos algumas outras implicações que devemos considerar, por exemplo, qual será a estrutura física e a parte lógica de armazenamento dos dados, quais são os parâmetros de amostragem, a cotização, que seria a divisão do (x, y), quantidade de pixels de resolução da imagem, quais são os metadados da imagem, o pré-processamento da imagem, como vai ser feito, como vai ser armazenado e o armazenamento de representações e descrições da imagem.

Eu vou mostrar mais pra frente, algumas formas de representação que são obtidas dos pixels que são armazenados também para posterior recuperação, como persistir esses dados sobre a coleta para garantir o contexto da obtenção, se esses dados obtidos através da imagem digital pode representar um risco a privacidade dos indivíduos e das instituições que foram influenciados através da filmagem, se há um direito de armazenar dados de imagens e se esses fatores com a sua utilização ao longo do tempo estão sendo mantidos.

A fase de recuperação seria a fase de obtenção desses dados após eles estarem armazenados na fase anterior. Então é como que vai ser encontrado esses dados acessados e interpretados, devemos considerar outros fatores, por exemplo, o público-alvo e a necessidade internacional, se o acesso vai ser feita uma base de dados de imagem, se vai ta disponibilizado aberto, se vai ser somente essas imagens que passarão.

Você recuperou a imagem, o que você vai fazer com esses dados? Existem alguns algoritmos de segmentação, representação e descrição, que é o que eu vou falar na sequência. Quais informações que poderiam ser recuperadas através de algoritmos de processamento de imagens e de visão computacional, e quais os riscos à privacidade dos indivíduos ou entidades referenciados pelos conteúdos dessas imagens recuperadas, pois podemos extrair informações que estão intrínsecas. Como operacionalizar a integração e seus dados de imagem com outros conjuntos de dados existe, uma fase que é a fase de reconhecimento, interpretação, onde os dados das imagens, que são os dados unidos aos pixels, podem ser relacionados às bases de conhecimento. Como garantir os elementos que sustentam a qualidade dos dados de imagens disponibilizados, se há o direito de disponibilizar, como viabilizar que eles sejam encontrados, acessados e passíveis de interpretação, e se esses processos e procedimentos de recuperação estarão estáveis dentro do ciclo de vida do dado.

Também tem a fase do descarte, porém no tratamento de imagem tem os dois tipos de descarte. Pode ser em bloco, que seria a exclusão total da imagem dentro de uma mídia de armazenamento, ou você pode excluir a imagem como um todo ou por recorte, que você faria recortando a imagem, então você perderia informação porque você sai cortando, diminuindo a sua imagem, provocando uma imagem menor. Não conseguiríamos fazer esses dois tipos de descarte dos dados de imagem, então aqui começamos mais a parte do processamento de imagem, que percorre essas fases.

Temos o início aquisição da imagem, que falei já um pouquinho. O pré-processamento que falarei agora na sequência, a segmentação que apresenta uma descrição, reconhecimento, interpretação e o resultado dessas obras podem utilizar-se de base de conhecimento para fazer se relacionar com os dados obtidos das imagens aos três níveis de processamento.

O processamento de nível baixo visa a remoção de dados indesejáveis da imagem para um posterior processamento. Então seria a fase de retirar ruídos da imagem, realçar algumas partes.

Processamento em nível médio seria a identificação de formas significante dentro da sua imagem. Seria aquilo que você precisa extrair da imagem identificação de objetos curvas, retas, medidas.

E tem o processamento em alto nível, que é o relacionamento/comparação da imagem com algum banco de conhecimento. Para você poder relacionar os dados obtidos em algum banco de conhecimento, sempre são os algoritmos de recuperação por conteúdo, mineração de dados de marketing.

Como funciona o processamento de baixo nível? O processamento de baixo nível vai explorar resultados redundantes dessa imagem, que seria os pixels numa região da imagem que são aproximados ou iguais. Essa fase é utilizada para recuperar algumas estruturas da imagem e um pré-processamento é a fase onde isso vai ser trabalhado para melhorar essa imagem com o futuro processamento.

Então utilizamos, por exemplo, para entender um pouco mais sobre a composição da imagem o histograma. O histograma é um gráfico que usa a frequência dos pixels, os níveis de intensidade de uma imagem. Ele é montado a partir dos pixels que estão presentes em escala de cinza, aqui mas só os pixels e a freqüência que é o quanto esses pixels aparecem dentro da imagem. O histograma é um gráfico de modo que ele se tiver mais barras maiores pro final é uma imagem mais clara, pois ela tem mais níveis de cinza próximos ao branco, e se estiver por aqui (início), seriam os níveis de cinza mais escuros, próximos ao zero.

Então, isso dá uma informação global da imagem, existem algumas operações que podemos fazer a nível deste programa aqui. Também temos os programas da imagem colorida, são 3 histogramas, cada um para um canal diferente.

Aqui temos o histograma a partir da escala de cinza, aí temos o histograma do nível de cor vermelho, o histograma do verde e o histograma do azul. Esse histograma da imagem colorida colocará o nível de cor em questão, a intensidade de cores vermelho desde o preto até o vermelho mais puro, nas escalas de vermelho, no verde a mesma coisa, e no azul.

Através do histograma podemos aplicar algumas técnicas, como alterar o brilho da imagem. Se tivermos que alterar, podemos somar uma constante aos níveis de cinza da imagem, então essa imagem vai clarear. Por exemplo, na imagem podemos ver aqui o processamento da imagem e também tem a partir da suavização, com técnicas de pré-processamento.

Os filtros são usados em tarefas de processamento, como a remoção de detalhes, a remoção de ruídos, que são informações que não fazem parte do objeto e que as vezes vem com o sistema de aquisição da imagem, raio x, ultrassom. Se veio ruído então existem filtros para suavizar os ruídos, porém esses filtros provocam borrões, para os filtros de suavização são utilizados templates que é como se fosse uma máscara.

Normalmente, uma máscara três por três tem uns pesos na imagem, essa máscara passa pixel por pixel dentro da imagem para suavizá-la. Esse valor central aqui é o limiar da máscara, onde cada um desses pixels da máscara será multiplicado pelo valor da imagem e pelos valores dos pixels da imagem, e então é feita uma média ponderada e dessa média o valor é substituído pelo pixel central.

Existem vários tipos de filtro. De acordo com os tipos de filtros específicos, esse é um filtro que se chama média da vizinhança. Multiplicando todos os pixels 3 numa matriz 3x3, todos os pixels da imagem fazendo essa multiplicação e depois fazer uma média ponderada. Após isso, vai fazer uma suavização da imagem, porém ele tende a dar esse aspecto a seguir.

Esse aqui é um outro filtro de suavização que é chamado de cotização. Também é feito para realce e o que ele tem de fazer é tentar diminuir a quantidade de distribuição de cinza que seria o histograma do programa. Aqui é o histograma da imagem original e aqui seria um histograma quantizado, onde foi diminuído a quantidade de níveis de cinza gerando uma imagem. Aqui tem uma aplicação de uma imagem radiografia odontológica, e ele vai fazer um destaque maior da região clara e na região escura da imagem, provocando um realce dessas imagens. As vezes elas vêm de outros documentos, as vezes ela está com a resolução muito boa, mas se a gente pegar uma imagem passado o filme pelo Matlab.

A gente consegue ver melhor também que o Splitting, que é um outro tipo de filtro de realce, que ele vai realçar e fazer uma diferenciação entre os pixels mais escuros e os mais claros, diminuindo, subtraindo uma constante dos pixels mais claros e somando essa constante aos pixels mais escuros, então os pixels mais escuros ficam mais escuros e os mais claros ficam mais claro.

Aqui uma imagem da área médica. Aqui vai realçar as estruturas mais escuras e mais claras, e também vai escurecer o fundo da imagem, vai realçar a imagem que precisa ser processada.

Também existe a equalização, que vai fazer uma distribuição uniforme dos níveis de cinza. Vai uniformizar os níveis de cinza, que seria o histograma da imagem original. Vai fazer o levantamento de estruturas perdidas ou obscura na imagem.

Aqui já começa a partir do processamento de nível médio, que ele chama de segmentação. Essa fase é onde se procura extrair os dados, as formas importantes de uma imagem, aquilo que você precisa procurar uma imagem. Então é só fazer o objetivo de identificar as formas significantes, o autor Gonzalez tem vários, ele é um autor bastante considerado na área e tem livros na área de processamento. Ele define que o processo que subdivide uma imagem em suas partes ou seus objetos constituídos.

Então aqui uma técnica de experimentação é a linearização, que é uma técnica que divide a imagem em duas ou mais partes, considerando valores de milhares onde os pixels mais próximos a esse limiar são escurecidos, e os pixels mais distantes são variados.

Aqui a gente tem uma aplicação da limiarização, então destaca a forma do fundo da imagem e destaca o fundo que a gente precisava procurar. A organização dentro da limiarização existe a finalização, onde é você que destaca, você transforma a imagem em apenas dois níveis de cinza, que é 0 e o 1, que é o preto e o branco. Essa imagem que eliminaria uma parte do fundo ficou toda preta e na caixa destacada ficou com os pixels todos brancos.

Também dentro segmentação existe detecção de pontos de tensão, de linhas e de bordas, e esse aqui seria a detecção de pontos na imagem utilizando máscaras. Também você pode usar um template para a secção de pontos da imagem, esse aqui com a detecção de pontos na imagem e aqui tem o template que detecta linhas na horizontal, na vertical, em 45° graus e menos 45° graus.

Foi descoberto toda uma aplicação aqui da imagem original, da detecção de linhas horizontais e detecção de linhas verticais dessa imagem. Também a detecção de bordas é muito utilizado. A borda é uma fronteira entre regiões com níveis de cinza distintos, então essas regiões exige também o template pra gente utilizar na borda, na vertical e se quiser juntar isso tudo numa mesma imagem é só fazer uma sobreposição de imagens.

Aqui também tem uma outra aplicação de bordas, existe um filtro Sobel, também todos baseados com o template. Todos eles utilizam templates e tem o processamento de alto nível, que é a parte da interpretação visual dos dados que são baseados em elementos de interpretação do que tem que ser montado.

O que tem que se destacado nessa imagem seria o tom, a cor, textura, forma, tamanho e associação com o texto e sombra. Todos esses parâmetros são elementos retirados de uma imagem e como aplicação temos aqui um sistema de recuperação de imagem com base no modelo.

Nesses sistemas a consulta é facilitada por meio de laços e consultas genéricas. No conteúdo online, a consulta apresentada por mesclar essas contas genéricas, são identificados e extraídos informações para gerar um modelo com várias imagens. Da coleção de imagens, são processadas para identificar ou consultar os valores com esse modelo para gerar uma representação que será comparada numa base de reconhecimento para ver se existe alguma equivalência dessa imagem.

Pode ter algumas variantes, a imagem original, no caso, ele deu algumas opções, que são variantes da imagem mas são todas próximas do que ele está buscando.

Dentro do reconhecimento também tem o uso das redes neurais, que são usadas com imagens digitais onde é possível fazer o reconhecimento facial. O reconhecimento também de padrões essa é uma tecnologia complexa e requer mais do que apenas o reconhecimento de imagens e também análise semântica de grandes conjuntos de dados, que ficam normalmente armazenados numa base de dados.

Aqui também é parte do reconhecimento facial onde temos a aquisição da face de um sensor que pode ser de câmera de vídeo ou foto.

Detecção da face. A normalização é a estação de atributos dessa face armazenado num banco de dados, e aqui seria a aquisição do reconhecimento que é também a aquisição de uma face a detecção/atualização da situação de atributos, onde é feito o match, que é verificar se existe correspondência.

Aqui eu trouxe um pouquinho sobre o que eu trabalhei no mestrado. Eu falei do processamento de imagens da radiografia odontológica para análise de evolução da doença periodontal, que é uma doença que ataca a estrutura de fixação dos dentes na mandíbula e essa bactéria causa a perda óssea então o dente acaba ficando mole e cai.

Aqui eu fiz um sistema para a subtração de imagem. Ele seria a imagem de referência, que é uma imagem subsequente provavelmente tirada após um tratamento após o enxerto. Nessa região aqui a região seria analisada no processamento da imagem então foi feita uma subtração da imagem, então essa região, que é uma região claro, foi adquirido um ganho. Se estivesse escuro teria tido perda óssea, como nessa região, que foi uma região clara, foi um ganho.

Tem também a parte quantitativa do sistema que ele coloca em cores onde foi ganho e qual a percentagem de dentro, a região laranja teve um ganho de 10% a 20% e a região verde foi um ganho de 20% a 30%. Antes de fazer essa subtração, as imagens passaram por processamento, passaram por alinhamento, porque são imagens tiradas em tempos diferentes. Não foi feito um alinhamento da imagem na rotação baseado em alguns pontos de referência para que elas ficassem, as estruturas ficassem uma sobreposta a outra e a subtração elimina pixels iguais e destaca apenas os pixels diferentes, mas essa informação conseguimos quantificar.


Apoio

Universidade Estadual Paulista (UNESP)Universidade Federal do Pará (UFPA)Competências Digitais para Agricultura Familiar (CoDAF)Grupo de Pesquisa Tecnologia de Acesso a Dados (GPTAD)