Menú
Está libre
registro
hogar  /  Internet/ Muthukrishnan R, Radha M. - Algoritmos de corte para segmentación de imágenes

Muthukrishnan R, Radha M. - Algoritmos de extracción de bordes para segmentación de imágenes

Los sistemas de detección de bordes no lineales utilizan combinaciones no lineales de valores de brillo de píxeles para contrastar antes del umbral. La mayoría de los métodos se limitan a procesar una ventana de tamaño o.

Roberts propuso la siguiente operación no lineal simple de diferenciación discreta bidimensional para contrastar y resaltar diferencias:

.(17.4.10)

Otra operación de diferenciación espacial, que requiere menos cálculo, está determinada por la fórmula

Se puede demostrar fácilmente que

Al marcar uno de los cuatro elementos de imagen ubicados cerca del punto detectado, que tiene el valor de brillo más alto, es posible obtener información sobre la orientación aproximada de la gota. Arroz. 17.4.8 ilustra cómo funcionan los operadores de Roberts.


Arroz. 17.4.8. Ejemplos de detección de bordes con detectores Roberts.

Sobel sugirió usar un operador no lineal con una ventana de elementos para contrastar. En la Fig. 17.4.9 muestra las designaciones de los elementos de ventana utilizados por él. Para contrastar las diferencias, se calcula el valor

, (17.4.13а)

Los valores son el brillo de los elementos de la ventana que se muestran en la Fig. 17.4.9. Los resultados de la detección de gotas con el operador de Sobel se muestran en la Fig. 17.4.10.

Kirsch propuso otro operador no lineal con la misma ventana de elementos para contrastar las diferencias.

Arroz. 17.4.9. Designación de elementos para operadores de selección de aristas con tamaño de ventana.

Este operador está definido por la siguiente expresión:

, (17.4.14а)

, (17.4.14b)

Los índices de los sumandos se calculan en módulo 8. En esencia, el operador de Kirsch da el valor máximo del gradiente de rumbo en algún punto de la imagen sin tener en cuenta el valor. Los ejemplos de detección de gotas con el operador de Kirsch se muestran en la Fig. 17.4.11.

Wallis propuso un método de detección de bordes no lineal basado en el procesamiento de imágenes homomórficas. De acuerdo con este método, un punto está en la diferencia si el valor del logaritmo del brillo en este punto excede el valor promedio de los logaritmos del brillo de los cuatro elementos vecinos más cercanos en algún valor fijo. El elemento de contraste se define como

o equivalente

... (17.4.15b)

La comparación con los umbrales superior e inferior equivale a comparar la fracción entre paréntesis de expresión (17.4.156) con el umbral modificado. Por lo tanto, no es necesario calcular con precisión los valores de los logaritmos. La principal ventaja del detector de bordes logarítmicos, además de la simplicidad de los cálculos, es que no es sensible a los cambios multiplicativos en el nivel de brillo. Arroz. 17.4.12 ilustra el funcionamiento del detector de bordes logarítmicos.

Arroz. 17.4.10. Ejemplos de extracción de diferencias mediante el operador de Sobel.

Arroz. 17.4.11. Ejemplos de extracción de diferencias con el operador de Kirsch.

El método de contraste logarítmico, definido por la expresión (17.4.15), puede considerarse como un contraste lineal utilizando el operador de Laplace (17.4.5а) de la imagen, cuyos niveles de los elementos son iguales a los logaritmos del brillo. Otros métodos de contraste también se pueden representar fácilmente como una secuencia de operaciones no lineales elemento por elemento con un contraste lineal adicional de las caídas y la limitación del umbral.

Arroz. 17.4.12. Ejemplos de extracción de gotas utilizando el operador logarítmico de Laplace.

Rosenfeld desarrolló un método no lineal para aumentar el contraste y resaltar las diferencias, basado en calcular el producto de un conjunto de ciertas cantidades. Este método utiliza el operador de promediado fila por fila unidimensional. Promedio actual

donde y es un número entero, calculado para cada elemento de la imagen. Esta operación se realiza para hasta un límite superior deseado. Luego, para cada elemento de la imagen, se calcula el producto

Está claro que los factores correspondientes al promedio de orden superior indican límites bastante amplios de la localización de la gota y producen algo de supresión de ruido, mientras que los factores de promedio de orden inferior localizan la caída con mayor precisión, pero las máscaras son mucho más sensibles al ruido. Al mismo tiempo, se puede suponer que el producto de medios de diferentes órdenes debería garantizar una detección y localización fiables de caídas verdaderas. La justificación de Rosenfeld para esta suposición es la siguiente.

Arroz. 17.4.13. Ejemplos de la restricción de umbral habitual y la restricción con supresión por vecinos dominantes para el caso del operador de Sobel: a - la restricción de umbral habitual; b - área ampliada de la imagen a, que contiene el cañón de la pistola; d - la misma área con un coeficiente de supresión igual a 1,5; d - la misma sección con un coeficiente de supresión igual a 1,2.

La magnitud tiende a detectar y localizar con precisión las caídas importantes al tiempo que suprime el ruido. Esto puede explicarse por el hecho de que el producto es grande solo cuando todos los factores son grandes y, a medida que uno se aleja del punto de diferencia, los factores con índices pequeños primero disminuyen y luego con los grandes.

Además, Rosenfeld propuso un procedimiento de umbral no lineal para aislar diferencias grandes y distintas que están rodeadas por otras más pequeñas. Este procedimiento, que en lo que sigue llamaremos "supresión por vecinos dominantes", se realiza escaneando el campo de gotas contrastantes con una pequeña ventana. El valor en el centro de la ventana se suprime (se establece en cero) siempre que no sea el más grande de todas las muestras en esa ventana. Entonces se ejecuta el umbral normal. Otra opción para dicho procesamiento es que la supresión está permitida solo si hay elementos en la ventana, cuyos valores son mucho más altos que los valores. El algoritmo de supresión de vecino dominante, seguido de un umbral, es bastante eficaz para detectar bordes cuando se combina con una técnica de contraste que proporciona algo de suavizado de ruido. En la Fig. 17.4.13 se dan ejemplos para ilustrar el funcionamiento del algoritmo para la supresión por vecinos dominantes con la consiguiente limitación del umbral.

Uno de los principales objetivos de la visión por computadora en el procesamiento de imágenes es interpretar el contenido de la imagen. Para hacer esto, es necesario separar cualitativamente el fondo de los objetos. La segmentación divide una imagen en sus partes u objetos constituyentes. Separa el objeto del fondo para que pueda procesar fácilmente las imágenes e identificar su contenido. En este caso, la selección de contornos en la imagen es una herramienta fundamental para la segmentación de imágenes de alta calidad. En este artículo, se intenta estudiar el rendimiento de los algoritmos de detección de bordes de uso frecuente para una mayor segmentación de imágenes, así como su comparación utilizando la herramienta de software MATLAB.

Introducción

La segmentación de imágenes es un gran paso para el análisis de imágenes. Divide la imagen en sus partes u objetos constituyentes. El nivel de detalle de las áreas compartidas depende del problema que se resuelva. Por ejemplo, cuando los objetos de interés dejan de mantener su integridad, se dividen en partes componentes más pequeñas, el proceso de segmentación debe detenerse. Los algoritmos de segmentación de imágenes se basan con mayor frecuencia en la discontinuidad y similitud de valores en una imagen. El enfoque de discontinuidad de luminancia se basa en cambios abruptos en los valores de intensidad, mientras que la similitud se basa en dividir una imagen en áreas similares de acuerdo con una serie de criterios predeterminados. Por lo tanto, la elección del algoritmo de segmentación de imágenes depende directamente del problema que debe resolverse. La detección de bordes es parte de la segmentación de imágenes. En consecuencia, la eficiencia de resolver muchos problemas de procesamiento de imágenes y visión por computadora depende de la calidad de los límites seleccionados. Resaltarlos en la imagen se puede clasificar como algoritmos de segmentación basados ​​en discontinuidades de brillo.

El proceso de detección de discontinuidades finas en el brillo de una imagen se denomina proceso de mejora de bordes. Los espacios son cambios abruptos en un grupo de píxeles que son los límites de los objetos. El algoritmo clásico de detección de bordes utiliza la convolución de la imagen mediante un operador que se basa en la sensibilidad a grandes diferencias de brillo en la imagen y devuelve cero al pasar por áreas homogéneas. Disponible ahora gran cantidad algoritmos para la selección de contornos, pero ninguno de ellos es universal. Cada uno de los algoritmos existentes resuelve su propia clase de problemas (es decir, selecciona cualitativamente límites de cierto tipo). Para determinar el algoritmo de detección de bordes adecuado, es necesario tener en cuenta parámetros como la orientación y estructura del contorno, así como la presencia y el tipo de ruido en la imagen. La geometría del operador establece la dirección característica en la que es más sensible a los límites. Los operadores existentes sirven para encontrar límites verticales, horizontales o diagonales. Seleccionar los límites de los objetos es una tarea difícil en el caso de una imagen muy ruidosa, ya que el operador es sensible a los cambios de brillo y, por tanto, el ruido también será considerado como algún objeto de la imagen. Existen algoritmos que le permiten deshacerse en gran medida del ruido, pero a su vez, dañan significativamente los bordes de la imagen, distorsionándolos. Y dado que la mayoría de las imágenes procesadas contienen ruido, los algoritmos de reducción de ruido son muy populares, pero esto afecta la calidad de los contornos seleccionados.

Además, al detectar los contornos de los objetos, existen problemas como encontrar contornos falsos, posicionar contornos, faltar contornos verdaderos, ruido en forma de ruido, tiempo de cálculo elevado, etc. Por lo tanto, el objetivo es examinar y comparar muchas imágenes procesadas y analizar la calidad de los algoritmos en diversas condiciones.

Este artículo es un intento de revisar los algoritmos más populares para la selección de contornos para la segmentación, así como su implementación en el entorno de software MATLAB. La segunda sección presenta las definiciones fundamentales que se utilizan en la literatura. El tercero proporciona información teórica y matemática y explica varios enfoques informáticos para el contorneado. La cuarta sección proporciona un análisis comparativo de varios algoritmos, acompañado de imágenes. La quinta sección contiene una descripción general de los resultados obtenidos y una conclusión.

Segmentación de imagen

La segmentación de imágenes es el proceso de dividir una imagen digital en múltiples regiones o conjuntos de píxeles. De hecho, es una división en diferentes objetos que tienen la misma textura o color. El resultado de la segmentación es un conjunto de regiones que cubren toda la imagen en conjunto y un conjunto de contornos extraídos de la imagen. Todos los píxeles de un área son similares de alguna manera, como el color, la textura o la intensidad. Las áreas adyacentes se diferencian entre sí por las mismas características. Varios enfoques para encontrar los límites entre regiones se basan en la falta de homogeneidad en los niveles de intensidad del brillo. Por lo tanto, la elección del método de segmentación de imágenes depende del problema que debe resolverse.

Los métodos basados ​​en dominios se basan en la continuidad. Estos algoritmos dividen la imagen completa en subáreas según algunas reglas, por ejemplo, todos los píxeles de un grupo determinado deben tener un cierto valor de gris. Estos algoritmos se basan en patrones comunes de valores de intensidad en grupos de píxeles vecinos.

La segmentación por umbral es el tipo de segmentación más simple. Sobre esta base, las áreas se pueden clasificar según un rango básico de valores que dependen de la intensidad de los píxeles de la imagen. La creación de umbrales convierte la imagen de entrada en binaria.

Las técnicas de segmentación basadas en la detección de áreas encuentran directamente cambios abruptos en los valores de intensidad. Estos métodos se denominan métodos de límites. La detección de bordes es un problema fundamental en el análisis de imágenes. Las técnicas de extracción de límites se utilizan comúnmente para encontrar irregularidades en una imagen en escala de grises. Encontrar espacios en una imagen en escala de grises es el enfoque más importante al resaltar los bordes.

Algoritmos de detección de límites

Los límites de los objetos en la imagen reducen en gran medida la cantidad de datos que deben procesarse y, al mismo tiempo, retienen información importante sobre los objetos en la imagen, su forma, tamaño y cantidad. Caracteristica principal La técnica de detección de bordes es la capacidad de extraer una línea precisa con buena orientación. Hay muchos algoritmos descritos en la literatura que le permiten detectar los límites de los objetos, pero en ninguna parte hay una descripción de cómo evaluar los resultados del procesamiento. Los resultados se evalúan de forma puramente individual y dependen del área de aplicación.

La detección de bordes es una herramienta fundamental para la segmentación de imágenes. Estos algoritmos transforman la imagen de entrada en una imagen con contornos de objetos, predominantemente en tonos grises. En el procesamiento de imágenes, especialmente en los sistemas de visión por computadora, con la ayuda de la selección de contornos, se consideran cambios importantes en el nivel de brillo de la imagen, los parámetros físicos y geométricos del objeto en la escena. Es un proceso fundamental que perfila objetos, adquiriendo así algún conocimiento de la imagen. La detección de límites es el enfoque más popular para detectar discontinuidades significativas.

El borde es la variación local de brillo en la imagen. Por lo general, corren a lo largo del borde entre las dos áreas. Los límites se pueden utilizar para obtener una comprensión básica de la imagen. Sus funciones de adquisición se utilizan en campos y algoritmos avanzados de visión por computadora, como imágenes médicas, biometría y similares. La detección de bordes es un área activa de investigación, ya que facilita el análisis de imágenes de alto nivel. Hay tres tipos de rupturas en las imágenes en escala de grises: punto, línea y borde. Se pueden utilizar máscaras espaciales para detectar los tres tipos de discontinuidades.

En la literatura técnica, se dan y describen una gran cantidad de algoritmos para la selección de contornos y límites. Este artículo analiza los métodos más populares. Estos incluyen el operador de Roberts, Sobel, Prewitt, Kirsch, Robinson, el algoritmo de Canny y el algoritmo LoG.

Operador de Roberts

El operador de resaltado de límites de Roberts fue introducido por Lawrence Roberts en 1964. Realiza cálculos de dimensión espacial 2D simples y rápidos en una imagen. Esta técnica enfatiza áreas de alta frecuencia espacial, que a menudo corresponden a bordes. Se envía una imagen en escala de grises a la entrada del operador. El valor de los píxeles de la imagen de salida en cada punto asume una cierta cantidad de gradiente espacial de la imagen de entrada en el mismo punto.

Operador de Sobel

El operador Sobel fue introducido por Sobel en 1970. Este método de detección de límites utiliza una aproximación a la derivada. Esto permite detectar el borde donde el gradiente es más alto. Este método detecta el número de gradientes en la imagen, resaltando así áreas de alta frecuencia espacial que corresponden a los bordes. En general, esto llevó a encontrar el valor absoluto estimado del gradiente en cada punto de la imagen de entrada. Este operador consta de dos matrices de 3 × 3. La segunda matriz se diferencia de la primera solo en que se gira 90 grados. Esto es muy similar al operador de Roberts.

La detección de límites por este método es mucho más fácil computacionalmente que por el método de Sobel, pero genera más ruido en la imagen resultante.

Prewitt del operador

La detección de límites por este operador fue propuesta por Prewitt en 1970. La dirección correcta en este algoritmo fue estimar el tamaño y la orientación del límite. Aunque delinear límites es una tarea tediosa, este enfoque produce muy buenos resultados. Este algoritmo se basa en el uso de máscaras de 3 por 3, que tienen en cuenta 8 direcciones posibles, pero las direcciones rectas dan los mejores resultados. Se calculan todas las máscaras de convolución.

Operador de Kirsch

La detección de límites mediante este método fue introducida por Kirsch en 1971. El algoritmo se basa en el uso de una sola máscara, que se rota en ocho direcciones principales: norte, noroeste, oeste, suroeste, sur, sureste, este y noreste. Las máscaras son las siguientes:

El valor límite se define como el valor máximo encontrado usando la máscara. La dirección determinada por la máscara da el valor máximo. Por ejemplo, la máscara k 0 corresponde al borde vertical y la máscara k 5 corresponde al diagonal. También puede notar que las últimas cuatro máscaras son en realidad las mismas que la primera, son imagen de espejo relativo al eje central de la matriz.

Operador Robinson

El método de Robinson, introducido en 1977, es similar al de Kirsch, pero más sencillo de implementar debido al uso de coeficientes 0, 1 y 2. Máscaras este operador son simétricos con respecto al eje central llenos de ceros. Basta con obtener el resultado del procesamiento de las primeras cuatro máscaras, mientras que el resto se puede obtener invirtiendo la primera.

El valor máximo obtenido después de aplicar las cuatro máscaras al píxel y sus alrededores se considera la magnitud del degradado, y el ángulo del degradado se puede aproximar como el ángulo de las líneas cero enmascaradas que dan la respuesta máxima.

Selección de contornos mediante el método de Marr-Hildreth

El método de Marr-Hildreth (1980) es una técnica de detección de bordes de imágenes digitales que detecta curvas continuas donde se notan cambios rápidos y abruptos en el brillo de un grupo de píxeles. Este es un método bastante simple, funciona usando convolución de imágenes con una función LoG o como una aproximación rápida con DoG. Los ceros en el resultado procesado corresponden a los contornos. El algoritmo del detector de límites consta de los siguientes pasos:

  • difuminar la imagen utilizando el método gaussiano;
  • aplicar el operador de Laplace a una imagen borrosa (a menudo, los dos primeros pasos se combinan en uno);
  • hacemos un ciclo de cálculo y en el resultado miramos el cambio de signo. Si el signo ha cambiado de negativo a positivo y el valor del cambio en el valor es mayor que un cierto umbral predeterminado, defina este punto como un límite;
  • Para obtener los mejores resultados, se puede realizar un paso utilizando el operador de Laplace mediante histéresis como se implementó en el algoritmo de Canny.

Selección de contorno por método LoG

El algoritmo de contorno gaussiano de Laplass se propuso en 1982. Este algoritmo es la segunda derivada, definida como:

Se lleva a cabo en dos pasos. En el primer paso, suaviza la imagen y luego calcula la función de Laplace, que da como resultado la formación de contornos dobles. La definición de contornos se reduce a encontrar ceros en la intersección de límites dobles. La implementación informática de la función de Laplace se suele realizar a través de la siguiente máscara:

Laplassian generalmente usa la búsqueda del píxel en el lado oscuro o claro del borde.

Detector de bordes astuto

El Canny Border Detector es uno de los algoritmos de detección de bordes más populares. Fue propuesto por primera vez por John Canney en su tesis de maestría en 1983, y sigue siendo superior a muchos algoritmos desarrollados posteriormente. Un paso importante en este algoritmo es la eliminación del ruido en los contornos, que puede afectar significativamente el resultado, mientras que es necesario preservar los límites tanto como sea posible. Esto requiere una selección cuidadosa del valor umbral al procesar este método.

Algoritmo:

  • desenfocar la imagen original f (r, c) usando la función gaussiana f ^ (r, c). f ^ (r, c) = f (r, c) * G (r, c, 6);
  • busque un degradado. Los bordes se delinean donde el gradiente es máximo;
  • supresión de no máximos. Solo los máximos locales están marcados como límites;
  • los límites resultantes se determinan suprimiendo todos los bordes que no están vinculados a un límite específico.

A diferencia de los operadores de Roberts y Sobel, el algoritmo de Canny no es muy sensible al ruido de la imagen.

Resultados experimentales

Esta sección presenta los resultados de los algoritmos descritos anteriormente para detectar los límites de los objetos en la imagen.

Todos los algoritmos descritos se implementaron en el entorno de software MATLAB R2009a y se probaron en una fotografía de la universidad. El objetivo del experimento es obtener una imagen procesada con contornos perfectamente definidos. La imagen original y los resultados de su procesamiento se muestran en la Figura 1.

Figura 1 - La imagen original y el resultado del trabajo de varios algoritmos para extraer contornos.


Al analizar los resultados obtenidos, se revelaron las siguientes regularidades: los operadores de Roberts, Sobel y Prewitt dan resultados muy diferentes. Marr-Hildreth, LoG y Kanney encontraron los contornos del objeto casi de la misma manera, Kirsch y Robinson dieron el mismo resultado. Pero observando los resultados obtenidos, podemos concluir que el algoritmo de Canny lo hace un orden de magnitud mejor que otros.

conclusiones

El procesamiento de imágenes es un área de rápido desarrollo en la disciplina de la visión por computadora. Su crecimiento se basa en altos logros en procesamiento de imágenes digitales, desarrollo de procesadores de computadora y dispositivos de almacenamiento de información.

En este artículo, se intentó estudiar en la práctica los métodos para resaltar los contornos de los objetos a partir de las discontinuidades del brillo de una imagen en escala de grises. El estudio del rendimiento relativo de cada uno de los métodos presentados en este artículo se llevó a cabo utilizando la herramienta de software MATLAB. El análisis de los resultados del procesamiento de imágenes mostró que métodos como Marr-Hildreth, LoG y Canny dan casi los mismos resultados. Pero aún así, al procesar esta imagen de prueba, los mejores resultados se pueden observar después de la operación del algoritmo Canny, aunque en otras condiciones, otro método puede resultar mejor.

Incluso teniendo en cuenta el hecho de que el tema de la detección de límites en una imagen está suficientemente iluminado en la literatura técnica moderna, sigue siendo una tarea bastante laboriosa, ya que la selección cualitativa de los límites siempre depende de muchos factores que influyen en el resultado.

Lista de literatura usada

1. Canny J.F. (1983) Encontrar bordes y líneas en imágenes, Tesis de maestría, MIT, AI Lab. TR-720.
2. Canny J.F. (1986) Un enfoque computacional para la detección de bordes, IEEE Transaction on Pattern Analysis and Machine Intelligence, 8. - P. 679-714.
3. Courtney P, Thacker N.A. (2001) Caracterización del desempeño en visión por computadora: el papel de la estadística en las pruebas y el diseño, capítulo en: Sistemas de imagen y visión: teoría, evaluación y aplicaciones, Jacques Blanc-Talon y Dan Popescu (Eds.), NOVA Science Books.
4. Hanzi Wang (2004) Estadísticas robustas para visión artificial: ajuste de modelos, segmentación de imágenes y análisis de movimiento visual, tesis doctoral, Universidad de Monash, Australia.
5. Huber P.J. (1981) Estadísticas robustas, Wiley Nueva York.
6. Kirsch R. (1971) Determinación por computadora de la estructura constituyente de imágenes biológicas, Computadoras e investigación biomédica, 4. - P. 315–328.
7. Lakshmi S, Sankaranarayanan V. (2010) Un estudio de técnicas de detección de bordes para enfoques de computación de segmentación, Técnicas de computación blanda asistida por computadora para aplicaciones de imágenes y biomédicas. - págs. 35-41.
8. Lee K., Meer P. (1998) Segmentación adaptativa robusta de imágenes de rango, IEEE Trans. Análisis de patrones e inteligencia de máquinas, 20 (2). - P. 200-205.
9. Marr D, Hildreth E. (1980) Teoría de la detección de bordes, Proc. Royal Society of London, B, 207. - P. 187-217.
10. Marr D. (1982) Vision, Freeman Publishers.
11. Marr P., Doron Mintz. (1991) Regresión robusta para la visión por computadora: una revisión, Revista internacional de visión por computadora, 6 (1). - P. 59-70.
12. Orlando J. Tobias, Rui Seara (2002) Segmentación de imágenes por umbralización de histograma mediante conjuntos difusos, Transacciones IEEE sobre procesamiento de imágenes, Vol.11, No.12. - P. 1457-1465.
13. Punam Thakare (2011) Un estudio de segmentación de imágenes y técnicas de detección de bordes, Revista internacional de ciencias e ingeniería de la computación, Vol 3, No.2. - P. 899-904.
14. Rafael C., González, Richard E. Woods, Steven L. Eddins (2004) Procesamiento de imágenes digitales con MATLAB, Pearson Education Ptd. Ltd, Singapur.
15. Ramadevi Y. (2010) Segmentación y reconocimiento de objetos mediante técnicas de detección de bordes, Revista Internacional de Ciencias de la Computación y Tecnología de la Información, Vol 2, No.6. - P. 153-161.
16. Roberts L. (1965) Percepción de máquinas de sólidos 3-D, procesamiento de información óptico y electroóptico, MIT Press.
17. Robinson G. (1977) Detección de bordes mediante máscaras de gradiente de brújula, procesamiento de imágenes y gráficos por computadora, 6. - P. 492-501.
18. Rousseeuw P. J., Leroy A. (1987) Regresión robusta y detección de valores atípicos, John Wiley & Sons, Nueva York.
19. Senthilkumaran N., Rajesh R. (2009) Técnicas de detección de bordes para la segmentación de imágenes: una encuesta de enfoques de computación blanda, Revista internacional de tendencias recientes en ingeniería, vol. 1, No. 2. - P. 250-254.
20. Sowmya B., Sheelarani B. (2009) Segmentación de imágenes en color mediante técnicas de computación blanda, Revista internacional de aplicaciones de computación blanda, Número 4. - P. 69-80.
21. Umesh Sehgal (2011) Técnicas de detección de bordes en el procesamiento de imágenes digitales utilizando Fuzzy Logic, Revista Internacional de Investigación en TI y Gestión, Vol.1, Número 3. - P. 61-66.
22. Yu, X, Bui, T.D. & et al. (1994) Estimación robusta para la segmentación y reconstrucción de imágenes de rango, IEEE trans. Análisis de patrones e inteligencia de máquinas, 16 (5). - P. 530-538.

La invención se refiere a medios para procesar imágenes digitales. El resultado técnico es mejorar la precisión de la identificación de los límites de imágenes de estructura compleja generando una pluralidad de imágenes filtradas en la dirección a partir de la imagen de semitonos original mediante el procesamiento local por parte de un operador morfológico compuesto. En el método, el operador especificado se forma a partir de elementos formadores de estructura lineal con diferentes parámetros de orientación en relación con el ráster de imagen de igual longitud, cada imagen filtrada se obtiene mediante la interacción de un elemento formador de estructura lineal de un operador morfológico compuesto con el imagen original, el brillo de los píxeles en la imagen filtrada se obtiene realizando tres operaciones morfológicas para cada píxel de la imagen original interacción de la imagen original con un elemento formador de estructura lineal. 6 enfermos.

Dibujos para patente RF 2510897

La invención propuesta se refiere al campo del procesamiento de imágenes digitales. Segmentación, es decir, la selección de áreas homogéneas sobre el original. Imagen digital, es una de las tareas más importantes en los sistemas de visión artificial, que se utilizan en muchos sectores científicos, técnicos e industriales: medicina, metalografía, fotografía aérea, robótica, defectoscopia, sistemas de seguridad y aplicación de la ley y otros.

Las imágenes ráster reales obtenidas de CCD de cámaras de video pueden contener áreas sombreadas y sobreexpuestas. La misma imagen puede contener objetos claros sobre un fondo oscuro y, a la inversa, objetos oscuros sobre un fondo claro con distintos grados de sombreado. El resultado es una imagen de estructura compleja, cuya división en segmentos es una tarea ambigua. En este caso, para mejorar la calidad de la segmentación, es necesario utilizar tecnologías de selección de segmentos basadas en el modelado de los procesos de segmentación que se implementan en el analizador visual humano.

Hoy en día, se conocen muchos métodos de segmentación diferentes, entre los cuales se pueden distinguir métodos que utilizan información sobre la conectividad de áreas: áreas de cultivo, combinación de áreas de acuerdo con una regla dada, división y fusión de áreas, segmentación a lo largo de cuencas morfológicas, aplicaciones de métodos de teoría de grafos. .

El método de cultivo de áreas en su implementación más simple [González R.S. Procesamiento de imágenes digitales [Texto] / R.S. Gonzalez, R.E. Woods. - M .: Tecnosfera, 2005 .-- 1072 p. - ISBN 5-94836-028-8. - P.875] se puede describir de la siguiente manera:

Sobre la imagen original se seleccionan puntos (centros de cristalización), presumiblemente pertenecientes a las áreas seleccionadas, por ejemplo, estos pueden ser puntos con el máximo nivel de brillo;

Además, a partir de estos puntos, comienza el crecimiento de las regiones, es decir, la unión de las regiones vecinas a los puntos ya existentes, mientras que se usa un cierto criterio de su proximidad, por ejemplo, la diferencia de brillo, dada por un cierto valor de umbral. ;

Detener el crecimiento de áreas en alguna condición, por ejemplo, la desviación máxima del brillo de nuevos puntos en el área del nivel de brillo del centro de cristalización o el área máxima de los segmentos.

La desventaja de este método es que los píxeles de un mismo segmento pueden tener niveles de brillo, cuya diferencia excede lo especificado a priori, y en otros fragmentos de la misma imagen puede haber una situación opuesta, cuando los píxeles de diferentes segmentos Identificarse como píxeles del mismo segmento, ya que sus diferencias en los niveles de brillo no superan a priori el dado.

Otra forma, cercana a la anterior, es el algoritmo de fusión de áreas / M.Baatz, A.Schape. - Revista de Fotogrametría y Teledetección. Volumen 58. Edición 3-4. - Herbert Wichmann Verlag, 2004, págs. 239-258]. Se basa en la idea de que los píxeles de la imagen original ya son de hecho regiones homogéneas, pero al mismo tiempo tienen las mismas dimensiones mínimas. En este caso, el método de segmentación debe combinar regiones vecinas que estén más próximas en algún parámetro (por ejemplo, en color o textura), determinadas en base al análisis de distancia (heterogeneidad, función de fusión de costos), hasta que se realice (o viole) alguna especificada condición (por ejemplo, sobre el tamaño de los segmentos o su número). Para este algoritmo, el problema de determinar los centros de cristalización desaparece por completo, pero el problema de determinar el momento de finalización del proceso de fusiones se vuelve especialmente urgente. Esta implementación, al igual que muchas otras, usa una limitación en el tamaño y número de segmentos para esto, lo que reduce en gran medida la flexibilidad del método.

Cuando se cultivan y fusionan áreas, a menudo se usa información de textura / Shaw M .; Bhaskar R .; Ugarriza L.G. ; Sabre E .; Amuso V.]. Sin embargo, el uso de la información de textura durante el cultivo está limitado por el hecho de que para el análisis de textura (generalmente este es el cálculo de varias características descritas en estadísticas matemáticas), como regla, ya se requiere tener un área de más de un píxel de tamaño, lo cual es imposible durante el crecimiento (agregando un solo píxel al área).

Cercano al reivindicado está el método de segmentación / Mantao X., Qiyong G., Hongzhi L., Jiwu Z.], que básicamente consta de dos etapas: cultivo y posterior fusión de segmentos. En este caso, las regiones en crecimiento se utilizan para realizar la sobresegmentación inicial, y la fusión de regiones, basada en los métodos de la teoría de grafos, tiene como objetivo lograr el estado final óptimo de segmentación. Determinación de centros de cristalización en este método ocurre en modo automático basado en una imagen de degradado obtenida del original usando el operador de máscara de Kirsch. El uso de una imagen de gradiente aquí permite una solución bastante universal al problema de detección automática de centros de cristalización, ya que los mínimos de la función de imagen de gradiente corresponderán a los puntos con la vecindad más homogénea (centros de crecimiento potencial de segmentos). Sin embargo, la desventaja de utilizar el operador de Kirsch en esta situación es su limitación espacial (solo se analizan 3 × 3 píxeles), mientras que al buscar centros de cristalización, sería útil investigar la proximidad de un punto a gran escala para poder tener en cuenta los cambios de baja frecuencia en la función de brillo de la imagen y, por lo tanto, realizar una determinación posterior más precisa de los centros de crecimiento. Este inconveniente carece del enfoque [Minchenkov M.V. Algoritmo para la segmentación automática de imágenes ráster basado en el crecimiento de conglomerados a partir de los máximos del valor R [ Recurso electrónico] / M.V. Minchenkov. - Materiales de la conferencia Graphicon 2004. - Modo de acceso: / 2004 / Proceedings / Technical_ru / sl.pdf. - p.2], basado en el detector Rayleigh de límites de objetos areales, que utiliza áreas de análisis de varios tamaños.

Una desventaja común de todos estos métodos es una regla estricta para completar el proceso de fusión, según el número de segmentos de la imagen o sus tamaños. Esta condición reduce drásticamente la versatilidad del método para una configuración determinada.

La selección de contornos de objetos en imágenes de mapa de bits de medios tonos se puede llevar a cabo junto con la selección de los propios objetos. Para ello, se suelen utilizar métodos de segmentación de umbral basados ​​en el valor medio del brillo de los píxeles, por ejemplo [patente de RF núm. mapa de bits"] Propuso un método de degradado para resaltar los contornos de los objetos en la matriz de un mapa de bits de medios tonos, que consiste en el hecho de que para todos los píxeles del mapa de bits, se calcula la norma o cuadrado del degradado del cambio en su brillo, luego en una nueva matriz monocromática en blanco y negro, todos los elementos se seleccionan en negro sobre un fondo blanco, en el que el valor de la norma o cuadrado de la norma de degradado es mayor que el valor umbral, y se toman configuraciones conectadas de elementos negros Como los contornos de los objetos en una matriz monocromática, para el método elegido para calcular el gradiente, el coeficiente se determina experimentalmente, luego el valor umbral del cuadrado de la norma del gradiente se calcula como el producto de este coeficiente por la suma de los cuadrados de los valores promedio de los cambios de módulo de brillo de píxeles vecinos en filas y columnas, para los cuales los valores exceden los niveles promedio totales de cambios distintos de cero, respectivamente, en filas y columnas, y entre las configuraciones conectadas de negro elementos en matrices monocromas f, inmediatamente descartan las configuraciones para las cuales el número de elementos entrantes es menor a 5-7 elementos, para las configuraciones restantes, se calcula el grado promedio de proximidad - el cociente de dividir la suma entre todos los elementos de configuración de los elementos vecinos por la suma de elementos en la configuración, y aquellas configuraciones para las cuales se descartan las vecindades de grado promedio menores de 3, y las restantes se toman como los contornos buscados de los objetos.

Las desventajas de este método incluyen demasiados parámetros empíricamente ajustables, lo que no permite obtener reglas de decisión adecuadas para imágenes de la misma clase obtenidas en diferentes condiciones o con diferentes niveles de interferencia. Con segmentos indistintos, es casi imposible seleccionar tales parámetros.

El más cercano al reivindicado es el método de procesamiento de imágenes según la patente estadounidense N 5351305, publicada el 27/09/94, MKI G06K 9/40, en el que a partir de la imagen original mediante filtrado de frecuencia se obtiene un conjunto de imágenes filtradas en la dirección. La imagen de salida se forma tomando muestras de cada elemento de la imagen, ya sea de una de las imágenes filtradas en la dirección o de la imagen original, dependiendo de la presencia o ausencia de un borde de contraste adyacente al elemento seleccionado (procesado) de la imagen original. . En este caso, la presencia de un borde de contraste para el elemento de imagen seleccionado se determina calculando el vector propio y comparando su longitud con un valor umbral predeterminado. En ausencia de un borde, el elemento correspondiente de la imagen de salida se toma igual al elemento correspondiente de la imagen de entrada. Si hay un borde, el elemento correspondiente de la imagen de salida se toma igual al elemento correspondiente de esa imagen filtrada en la dirección en la que la dirección de filtrado es la más cercana a la dirección del borde definida.

En el método de procesamiento de imágenes descrito anteriormente, cuando se determina el borde de una imagen, es posible que la longitud del vector propio para elementos de imagen adyacentes cambie cerca del valor umbral. En este caso, puede producirse una amplificación selectiva del ruido, provocada por el muestreo de elementos de imagen adyacentes de diferentes imágenes (originales y filtradas por dirección), lo que conduce a la degradación de la calidad de la imagen de salida.

Además, las imágenes originales con niveles diferentes ruido requieren valores de umbral significativamente diferentes, mientras que Por aquí no prevé un cambio adaptativo de este valor umbral, lo que conduce a la imposibilidad de un procesamiento de alta calidad de imágenes con diferentes niveles de ruido.

En presencia de un borde, los elementos de la imagen de salida se muestrean solo de una de las imágenes filtradas por dirección, lo que conduce a la supresión completa de todos los detalles de la imagen original que difieren en la dirección del borde detectado, incluso si estos detalles son claramente visibles en la imagen original.

El objetivo técnico del método propuesto es mejorar la precisión de la selección de los límites de los segmentos de imágenes de estructura compleja y, como consecuencia, mejorar la calidad de la segmentación (más coherente con la percepción de la imagen por una persona) , así como incrementar el grado de automatización del proceso de análisis y clasificación de segmentos de imagen.

La tarea se logra por el hecho de que a partir de la imagen de semitonos original mediante procesamiento local por un operador morfológico compuesto, se forma un conjunto de imágenes filtradas por dirección. La imagen de salida se forma a partir de imágenes filtradas obtenidas como resultado del procesamiento de la imagen original por un operador morfológico compuesto. En este caso, el operador morfológico compuesto se forma a partir de elementos formadores de estructuras lineales de igual longitud V, pero con diferentes parámetros de orientación con respecto a la trama de imagen. Cada imagen filtrada se obtiene mediante la interacción de un elemento formador de estructura lineal del operador morfológico compuesto con la imagen original F. El brillo de los píxeles en la imagen filtrada se obtiene como sigue. Cuando el centro del elemento formador de estructura lineal se coloca en el píxel p con las coordenadas ij de la imagen original F, el elemento formador de estructura lineal B p () selecciona tres subconjuntos del conjunto de píxeles de la imagen F:

1) ;

donde V> q, s> 1; s l, k> 1; k> l.

Después de determinar los tres subconjuntos, se calcula el valor total del brillo de los píxeles en los subconjuntos A1: S1 y A2: S2. Entonces se calcula la diferencia D = S1-S2. El nuevo valor del brillo del píxel se determina mediante fórmulas recurrentes, en el conjunto A2: lk = lk + D y en el conjunto A3: qs = qs -D.

Después de que la máscara del operador morfológico compuesto pasa todos los píxeles de la imagen original F, es decir, después de determinar las imágenes filtradas para todos los elementos formadores de estructuras lineales del operador morfológico compuesto, la imagen final G se determina sumando las intensidades de píxeles de las imágenes filtradas con las mismas coordenadas, se determina el brillo mínimo de píxel de la imagen final Gmin y el brillo máximo de la imagen final Gmax y lo desplaza y normaliza según la fórmula

.

La Figura 1 muestra un diagrama de un algoritmo que implementa el método presentado.

La Figura 2 muestra una continuación del diagrama de flujo que implementa el método presentado.

La Figura 3 muestra un ejemplo de un elemento formador de estructura lineal del operador morfológico compuesto B (, V) para = 1, V = 3, = 3.

La figura 4 muestra un ejemplo de procesamiento de una imagen binaria por el operador morfológico compuesto mostrado en la figura 3 de acuerdo con el diagrama de flujo de la figura 1 y la figura 2.

La figura 5 muestra un ejemplo de procesamiento de una imagen binaria por el operador morfológico compuesto que se muestra en la figura 3 de acuerdo con el diagrama de flujo que se muestra en la figura 1 y la figura 2.

La figura 6 muestra un ejemplo de procesamiento de las imágenes mostradas en la figura 4 por el detector Prewitt.

El método se lleva a cabo de acuerdo con el diagrama de flujo que se muestra en la Fig.1 y la Fig.2. En el bloque 1, los píxeles de la imagen de trama de semitonos F original se ingresan en la computadora, cuyo tamaño es N verticalmente y M. En el bloque 2, se forma un operador morfológico compuesto, que incluye elementos formadores de estructuras lineales de longitud V. ... Como resultado de este ciclo, obtenemos imágenes filtradas por dirección.

La figura 3 muestra un ejemplo de la formación de un operador morfológico compuesto. En él se destaca un elemento formador de estructura del operador morfológico compuesto correspondiente a la dirección de filtración = 1 para V = 3 y = 3.

Para cada valor en los bloques 4-19, se determina una imagen F () filtrada en la dirección. La esencia de la filtración direccional es la siguiente. Cuando el centro del elemento formador de estructura lineal se coloca en el píxel p con las coordenadas ij de la imagen original F, el elemento formador de estructura lineal B p () selecciona tres subconjuntos del conjunto de píxeles F:

1) ;

donde V> q, s> 1; s l, k> 1; k> l.

Cada operador morfológico compuesto da una tríada de conjuntos A1, A2 y A3 para cada valor de parámetro y píxel p. El subconjunto A1 es un subconjunto de elementos del conjunto F que se encuentran en el elemento formador de estructura B (). El subconjunto A2 es un subconjunto de elementos del conjunto F que se encuentran encima o a la izquierda del elemento que forma la estructura B (). El subconjunto A3 es un subconjunto de elementos del conjunto F que se encuentran debajo o a la derecha del elemento que forma la estructura B (). Suponemos que existe la posibilidad de que cada elemento formador de estructura del operador morfológico compuesto sea un elemento del límite del segmento. Entonces, el brillo promedio de los píxeles en ambos lados del borde del segmento debería ser diferente entre sí. La comparación de estos brillos puede confirmar o refutar la hipótesis planteada. Los píxeles F, que se encuentran a ambos lados del límite del segmento, definen los subconjuntos A2 y A3.

En los bloques 6-9, se determina la suma S1 del brillo de los píxeles del subconjunto A2 para el elemento formador de línea lineal B p (). En este caso, los parámetros de los ciclos kyl en los bloques 7 y 8, dependiendo del parámetro para el píxel con coordenadas ij, toman los siguientes valores:

0: k = i-int (V / 2), i-1; l = j-int (V / 2), j-int (V / 2) + V-1;

1: k = i-int (V / 2), i + int (V / 2) -1; l = j-int (V / 2), j + int (V / 2) + V-1-k;

2: k = i-int (V / 2), i + int (V / 2); l = j-int (V / 2), j-1;

3: k = i-int (V / 2) -1, i + int (V / 2); l = k-1, j + int (V / 2) -1.

En los bloques 10-12, se determina la suma S2 del brillo de los píxeles del conjunto A3 para el elemento formador de línea lineal B p (). En este caso, los parámetros de los ciclos syq en los bloques 10 y 11, dependiendo del parámetro para el píxel con coordenadas ij, toman los siguientes valores:

0: s = i-1, i + int (V / 2); q = j-int (V / 2), j-int (V / 2) + V-1; j + int (V / 2);

3: s = i-int (V / 2), i + int (V / 2); q = j-int (V / 2) -1, k-1.

En el bloque 13, se calcula el parámetro D = S1-S2, que determina qué tan significativa es la diferencia en el brillo de los píxeles del conjunto A2 y el conjunto A3. Para acumular este significado, el parámetro D se suma al brillo de los píxeles del conjunto A2 y el parámetro D se resta del brillo de los píxeles del conjunto A3. Estos procedimientos se implementan en los bloques 14-16 y 17- 19, respectivamente.

En los bloques 20-26 se determina la imagen de salida G. Para ello, se suma el brillo en píxeles con las mismas coordenadas en las imágenes filtradas obtenidas (bloques 20-23). Determine los elementos Gmax máximo y Gmin mínimo de la imagen resultante y luego cámbielos y normalícelos de acuerdo con la fórmula

.

El proceso de procesamiento de imágenes de prueba mediante el método propuesto se ilustra en las Figuras 4-6. La figura 4a muestra una imagen binaria de prueba que tiene un límite de segmento claro con un espectro que se encuentra en la región de frecuencias espaciales más bajas. La figura 4b muestra esta imagen después del procesamiento con un operador morfológico compuesto, implementado según el algoritmo de las figuras 1 y 2 y con los elementos formadores de estructura mostrados en la figura 3.

La figura 5a muestra una imagen binaria de prueba con un límite de segmento claro con un espectro que se encuentra en la región de altas frecuencias espaciales. La figura 5b muestra esta imagen después del procesamiento con un operador morfológico compuesto, implementado según el algoritmo de las figuras 1 y 2 y con los elementos formadores de estructura mostrados en la figura 3.

Realicemos a nivel experto una evaluación comparativa de la eficiencia de detección de bordes con el operador morfológico compuesto propuesto y el operador basado en el detector de bordes Prewitt. La figura 6a muestra una imagen (figura 4a) obtenida después de procesarla con un detector de bordes Prewitt, y la figura 6b muestra una imagen (figura 5a) obtenida después de procesarla con un detector de bordes Prewitt.

La imagen de prueba de la Fig. 4a se refiere a imágenes, cuyo espectro se encuentra en la región de frecuencias espaciales más bajas. La imagen de prueba de la figura 5a se refiere a imágenes cuyo espectro se encuentra en el rango de frecuencia espacial alta. Así, podemos obtener características comparativas de procesamiento de imágenes con diferentes espectros espaciales.

En la evaluación experta de la calidad de la segmentación, gama dinámica entre el brillo medio de los píxeles de la imagen original (fondo) y el brillo medio de los píxeles en el límite del segmento real en las imágenes procesadas. Se asumió que cuanto mayor es este rango dinámico, más estable es el proceso de segmentación a la influencia de la interferencia.

El análisis de los resultados experimentales sobre el procesamiento de imágenes de prueba utilizando el operador morfológico propuesto mostró que los límites del segmento se ven como un "sombrero mexicano" independientemente de las frecuencias espaciales ocupadas por la imagen, lo que aumenta significativamente el rango dinámico en los límites del segmento y, por lo tanto, aumenta el ruido. inmunidad del proceso de segmentación.

AFIRMAR

Un método de segmentación de imágenes de semitonos ráster de estructura compleja basado en operadores morfológicos compuestos, que consiste en el hecho de que se forma un conjunto de imágenes filtradas en dirección a partir de la imagen de semitonos original mediante procesamiento local por parte de un operador morfológico compuesto, y la imagen de salida es obtenido a partir de imágenes filtradas, caracterizado porque el operador morfológico compuesto formado a partir de elementos formadores de estructuras lineales con diferentes parámetros de orientación con respecto a la imagen ráster de igual longitud V y cada imagen filtrada se obtiene mediante la interacción del elemento formador de estructura lineal del operador morfológico compuesto con la imagen original F, en este caso, el brillo de los píxeles en la imagen filtrada se obtiene realizando para cada píxel p imagen original F tres operaciones morfológicas de interacción de la imagen inicial F con un elemento formador de estructura lineal B p (), como resultado de lo cual se obtienen tres subconjuntos

1) ;

donde V> q , s> 1; s l, k> 1; k> l; después de determinar cuál es el valor total del brillo de los píxeles en los subconjuntos A1: S1 y A2: S2, luego calcule la diferencia D = S1-S2, el nuevo valor del brillo del píxel se determina mediante fórmulas recurrentes, en el conjunto A2: f lk = f lk + D y en el conjunto AS: f qs = f qs -D, tras lo cual se procede a la determinación de los tres siguientes subconjuntos en el siguiente píxel p de la imagen original, después de determinar las imágenes filtradas para todos los elementos formadores de estructura lineal del operador morfológico compuesto, la imagen final G se determina sumando el brillo de los píxeles de las imágenes filtradas con las mismas coordenadas , se determina el brillo mínimo de los píxeles de la imagen final Gmin y el brillo máximo de los píxeles de la imagen final Gmax, y se desplaza y normaliza según la fórmula

Para imágenes discretas el cálculo de las derivadas parciales se reduce al cálculo de la diferencia de brillo de los píxeles vecinos mediante varios métodos, es decir, de hecho, al filtrado espacial. Por ejemplo, un filtro de Roberts que utiliza el número mínimo de píxeles para determinar el gradiente de brillo se puede representar como f 11 (x, y) 2 | , donde b es un factor de ponderación; L es la transformación del operador de Laplace; en este caso, es necesario tener en cuenta el signo del brillo del pico del flujo de lodo después de la transformación. Como resultado, el brillo de los píxeles que se encuentran al comienzo de la transición de un área menos brillante a una más brillante disminuirá, ya que el resultado de la transformada de Laplace para estos píxeles será mayor que cero. El brillo de los píxeles al final de esta transición, respectivamente, aumentará, ya que para ellos el resultado de la transformada de Laplace será menor que cero. Como resultado, la nitidez de esta transición aumentará, como se demuestra en la Fig. 6.7 para b = 1. Cambiando el valor de by eligiendo diferentes máscaras para el operador de Laplace de (6.3), es posible ajustar el grado de subrayado del contorno. El segundo enfoque se puede representar como f 11 (x, y) 2 cf 1 (x, y) 3 (c 3 1) G, (6.4) donde c es el factor de peso; G es el resultado de la acción de un filtro espacial lineal difuminado, por ejemplo, el gaussiano (6.2). Recuerde que, como resultado de aplicar filtros de desenfoque, las áreas con brillo constante permanecen sin cambios y el brillo de los píxeles de otras áreas en la imagen resultante es siempre menor que el brillo de los píxeles correspondientes en la imagen original. Luego, como resultado del procesamiento de la imagen de acuerdo con (6.4), las regiones de brillo constante retienen los valores de la imagen original, y el brillo de los píxeles restantes aumentará en la cantidad de desenfoque teniendo en cuenta el factor de ponderación. 72 7. SEGMENTACIÓN DE IMÁGENES 7.1. Segmentación de imágenes binarias La segmentación de imágenes generalmente se entiende como el proceso de dividirla en partes componentes que tienen un significado significativo. Hay docenas de algoritmos de segmentación conocidos, pero la mayoría de ellos se pueden reducir a identificar la similitud entre puntos de imagen individuales para encontrar, en cierto sentido, áreas homogéneas. Como resultado de la segmentación, a cada punto de la imagen se le debe asignar el número del segmento al que está asignado este punto, y el número de segmentos no se conoce de antemano. La principal dificultad del problema de la segmentación radica precisamente en la elección y formalización del concepto de homogeneidad. La segmentación de imágenes en una serie de áreas homogéneas se realiza de acuerdo con la regla de conectividad. elementos individuales y la medida de homogeneidad, que determina la similitud de elementos relacionados entre sí. Los elementos pueden ser tanto puntos individuales como sus agregados, unidos según el principio de proximidad de cualquier propiedad. En este último caso, la segmentación de una imagen compleja se convierte en un proceso jerárquico. Si se elige el brillo como una característica de homogeneidad, entonces, para una imagen discreta en una región homogénea, se agrupan los píxeles conectados que tienen el mismo brillo o similar. En el último caso, el resultado de la segmentación vendrá determinado por la elección del nivel de umbral de proximidad. Para imágenes binarias, la condición de cercanía en brillo es trivial, y la decisión sobre la pertenencia de un píxel a un segmento se toma en base al análisis de conectividad. La conectividad de píxeles define una regla formal que determina qué píxeles se consideran adyacentes. Muy a menudo, para cada píxel, una región de cuatro píxeles adyacentes a él en una fila y una columna, o una región de ocho píxeles más cercanos, incluidos los píxeles diagonales de la vecindad 3 ´ 3, se considera relacionada, aunque 73 y más los complejos a veces se utilizan como definiciones de conectividad. Formalmente, el conjunto de picos P que forman un segmento se llama ocho conectados si entre dos de sus elementos ayb hay una secuencia de elementos (ek Î P) k = 0,…, K tal que la Fig. 7.1. Definición de e0 = a; eK = by para cualquier k, 0