Search engine for discovering works of Art, research articles, and books related to Art and Culture
ShareThis
Javascript must be enabled to continue!

Diseño de modelos y algoritmos para el procesamiento de datos SAR polarimétricos

View through CrossRef
Un sistema SAR es un radar aerotransportado o satelital que sensa la superficie terrestre y forma imágenes para su estudio. Funciona emitiendo ondas electromagnéticas sobre la zona de interés y recolectando las reflexiones producidas. Las ondas reflejadas contienen información acerca del comportamiento del terreno ante la interacción con dichas ondas, a partir de la cual es posible inferir características físicas del terreno subyacente. El proceso de interpretación de las imágenes SAR está basado principalmente en la combinación de dos disciplinas que se complementan: el electromagnetismo y procesamiento estadístico de señales. La extracción de la información de una imagen SAR está fuertemente ligada al modelo utilizado para describir los datos, que a su vez encuentra su fundamento en el comportamiento electromagnético de las ondas reflejadas. Actualmente, una de las aplicaciones más importantes del procesamiento de datos SAR polarimétricos es la clasificación y segmentación de datos. Muchos algoritmos, tanto supervisados como no supervisados, han sido desarrollados para llevar a cabo esta tarea. En los primeros, se seleccionan datos de entrenamiento basados en mapas del terreno, que contienen las características que se desean identificar. Por otro lado, en los algoritmos no supervisados, no se utilizan datos previos. El algoritmo clasifica la imagen de forma automática organizando los píxeles en diferentes clases bajo cierto criterio. En ambos casos, las características a identificar están embebidas en una matriz compleja de nueve elementos que describe a los datos polarimétricos. Los criterios de formación de clases están basados en el modelo estadístico asignado a estas matrices (o a combinaciones de sus elementos) y en distancias estadísticas que de ellos se derivan. Este trabajo realiza su principal aporte en el campo de la clasificación de datos polarimétricos. Para ello, se estudia en primer lugar la geometría del problema SAR y el proceso de formación de imágenes partiendo de los datos crudos. Esto permite entender cabalmente qué magnitudes son las utilizadas para componer las imágenes e interpretarlas correctamente. Luego se aborda el estudio de los modelos estadísticos utilizados en SAR, la distribución Wishart que describe datos polarimétricos y el modelo multiplicativo que da cuenta del alejamiento del modelo gaussiano. En base a esto, se propone la utilización de un modelo de mezclas de densidades para los datos y se desarrollan algoritmos de clasificación propios basados en ellos. Para el caso de datos homogéneos donde el modelo gaussiano es válido, se utiliza un modelo de mezcla de densidades gaussianas multivariante. Para el caso de datos heterogéneos, se utiliza la mezcla de densidades Gp0 que tiene en cuenta la textura. En ambos casos, los algoritmos de clasificación desarrollados se basan el método Expectation-Maximization y clasificación MAP. Son algoritmos no supervisados con una instancia de selección de modelo que permite detectar automáticamente la cantidad de clases relevantes en la escena. Esto asegura el modelo de menor complejidad para la escena dada en función de la distribución utilizada, y por otro lado, evita la necesidad de especificar a priori el número de clases.
Universidad Nacional de La Plata
Title: Diseño de modelos y algoritmos para el procesamiento de datos SAR polarimétricos
Description:
Un sistema SAR es un radar aerotransportado o satelital que sensa la superficie terrestre y forma imágenes para su estudio.
Funciona emitiendo ondas electromagnéticas sobre la zona de interés y recolectando las reflexiones producidas.
Las ondas reflejadas contienen información acerca del comportamiento del terreno ante la interacción con dichas ondas, a partir de la cual es posible inferir características físicas del terreno subyacente.
El proceso de interpretación de las imágenes SAR está basado principalmente en la combinación de dos disciplinas que se complementan: el electromagnetismo y procesamiento estadístico de señales.
La extracción de la información de una imagen SAR está fuertemente ligada al modelo utilizado para describir los datos, que a su vez encuentra su fundamento en el comportamiento electromagnético de las ondas reflejadas.
Actualmente, una de las aplicaciones más importantes del procesamiento de datos SAR polarimétricos es la clasificación y segmentación de datos.
Muchos algoritmos, tanto supervisados como no supervisados, han sido desarrollados para llevar a cabo esta tarea.
En los primeros, se seleccionan datos de entrenamiento basados en mapas del terreno, que contienen las características que se desean identificar.
Por otro lado, en los algoritmos no supervisados, no se utilizan datos previos.
El algoritmo clasifica la imagen de forma automática organizando los píxeles en diferentes clases bajo cierto criterio.
En ambos casos, las características a identificar están embebidas en una matriz compleja de nueve elementos que describe a los datos polarimétricos.
Los criterios de formación de clases están basados en el modelo estadístico asignado a estas matrices (o a combinaciones de sus elementos) y en distancias estadísticas que de ellos se derivan.
Este trabajo realiza su principal aporte en el campo de la clasificación de datos polarimétricos.
Para ello, se estudia en primer lugar la geometría del problema SAR y el proceso de formación de imágenes partiendo de los datos crudos.
Esto permite entender cabalmente qué magnitudes son las utilizadas para componer las imágenes e interpretarlas correctamente.
Luego se aborda el estudio de los modelos estadísticos utilizados en SAR, la distribución Wishart que describe datos polarimétricos y el modelo multiplicativo que da cuenta del alejamiento del modelo gaussiano.
En base a esto, se propone la utilización de un modelo de mezclas de densidades para los datos y se desarrollan algoritmos de clasificación propios basados en ellos.
Para el caso de datos homogéneos donde el modelo gaussiano es válido, se utiliza un modelo de mezcla de densidades gaussianas multivariante.
Para el caso de datos heterogéneos, se utiliza la mezcla de densidades Gp0 que tiene en cuenta la textura.
En ambos casos, los algoritmos de clasificación desarrollados se basan el método Expectation-Maximization y clasificación MAP.
Son algoritmos no supervisados con una instancia de selección de modelo que permite detectar automáticamente la cantidad de clases relevantes en la escena.
Esto asegura el modelo de menor complejidad para la escena dada en función de la distribución utilizada, y por otro lado, evita la necesidad de especificar a priori el número de clases.

Related Results

A hydrogeological approach in urban underground infrastructures
A hydrogeological approach in urban underground infrastructures
The competition for space in urban areas due to an exponential growth of population makes derground engineering plays a crucial role in the development of cities. Urban underground...
PREVENÇÃO DA TROMBOSE VENOSA PROFUNDA NA GRAVIDEZ PELA ENFERMAGEM NA APS
PREVENÇÃO DA TROMBOSE VENOSA PROFUNDA NA GRAVIDEZ PELA ENFERMAGEM NA APS
PREVENÇÃO DA TROMBOSE VENOSA PROFUNDA NA GRAVIDEZ PELA ENFERMAGEM NA APS Danilo Hudson Vieira de Souza1 Priscilla Bárbara Campos Daniel dos Santos Fernandes RESUMO A gravidez ...
Application of BIM visual programming algorithms for infrastructure projects
Application of BIM visual programming algorithms for infrastructure projects
(English) The BIM digitization has generated a growing automation of traditional AECO project development processes. However, this automation has mainly benefited building projects...
Rendimiento de bases de datos columnares
Rendimiento de bases de datos columnares
En la actualidad para el éxito de las empresas es decisiva la capacidad de procesar de manera eficiente una considerable cantidad de datos de una amplia gama de fuentes en cualquie...
Comparación de enfoques de desarrollo HDL y HLL en FPGA para aplicaciones de procesamiento de imágenes
Comparación de enfoques de desarrollo HDL y HLL en FPGA para aplicaciones de procesamiento de imágenes
Desde su invención a medidados de los 90, las FPGA han destacado por su gran poder de cómputo, bajo consumo energético y alta flexibilidad al reconfigurar su arquitectura interna p...
Generación de modelos de procesos y decisiones a partir de documentos de texto
Generación de modelos de procesos y decisiones a partir de documentos de texto
(English) This thesis addresses the importance of formal models for the efficient management of business processes (BPM) and business decision management (BDM) in a constantly evol...
Predicting Properties of Polymer Materials Using Machine Learning Methods
Predicting Properties of Polymer Materials Using Machine Learning Methods
Accurate prediction of polymer properties is essential for their effective application and devel- opment. However, traditional experimental methods are often prohibitively time-con...
A paradigm shift of HPC for geosciences: a novel HPC service model for geosciences applications
A paradigm shift of HPC for geosciences: a novel HPC service model for geosciences applications
(English) The Oil and Gas (O&G) industry ranks prominently among the leading commercial users of powerful supercomputers worldwide, as indicated by global High-Performance Comp...

Back to Top