ES2711196T3 - Sistemas y procedimientos para la segmentación y el procesamiento de imágenes de tejidos y extracción de características de estos para tratar, diagnosticar o predecir afecciones médicas - Google Patents

Sistemas y procedimientos para la segmentación y el procesamiento de imágenes de tejidos y extracción de características de estos para tratar, diagnosticar o predecir afecciones médicas Download PDF

Info

Publication number
ES2711196T3
ES2711196T3 ES14160371T ES14160371T ES2711196T3 ES 2711196 T3 ES2711196 T3 ES 2711196T3 ES 14160371 T ES14160371 T ES 14160371T ES 14160371 T ES14160371 T ES 14160371T ES 2711196 T3 ES2711196 T3 ES 2711196T3
Authority
ES
Spain
Prior art keywords
image
segmentation
mask
background
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14160371T
Other languages
English (en)
Inventor
Peter Ajemba
Richard Scott
Janakiramanan Ramachandran
Jack Zeineh
Michael Donovan
Gerardo Fernandez
Qiuhua Liu
Faisal Khan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fund D Anna Sommer Champalimaud E Dr Carlos Montez Champalimaud
Fundacao D Anna Sommer Champalimaud e Dr Carlos Montez Champalimaud
Original Assignee
Fund D Anna Sommer Champalimaud E Dr Carlos Montez Champalimaud
Fundacao D Anna Sommer Champalimaud e Dr Carlos Montez Champalimaud
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fund D Anna Sommer Champalimaud E Dr Carlos Montez Champalimaud, Fundacao D Anna Sommer Champalimaud e Dr Carlos Montez Champalimaud filed Critical Fund D Anna Sommer Champalimaud E Dr Carlos Montez Champalimaud
Application granted granted Critical
Publication of ES2711196T3 publication Critical patent/ES2711196T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/45Analysis of texture based on statistical description of texture using co-occurrence matrix computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20041Distance transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

Un procedimiento implementado por ordenador para evaluar el rendimiento de uno o más algoritmos de segmentación mediante la ejecución de código en un ordenador, comprendiendo el procedimiento: recibir (2302) una imagen de al menos una muestra de tejido; realizar (2306) segmentación en la imagen; crear dos o más divisiones de imagen alrededor de los límites de segmentación de la imagen; crear, en cada una de las dos o más divisiones de imagen, uno o más de un objeto de primer plano y un objeto de fondo; calcular un parámetro de textura en cada una de las dos o más divisiones de imagen; y comparar los parámetros de textura en las dos o más divisiones de imagen para producir una salida que se pueda utilizar como una medida de estabilidad de segmentación, donde el parámetro de textura es: un parámetro de textura de fondo calculado mediante (i) la obtención de una máscara de fondo complementando una máscara de objeto de fondo, y (ii) la multiplicación de la imagen original con la máscara de fondo y el cálculo de una energía promedio en el fondo; o un parámetro de textura de banda calculado mediante (i) la dilatación de una máscara de objeto de primer plano; (ii) la sustracción de la máscara dilatada de la máscara de objeto de primer plano para crear una banda de objeto de primer plano; y (iii) el cálculo de un parámetro de textura de banda para cada imagen como una energía de la banda de objeto de primer plano para cada objeto de primer plano promediado a través de la imagen; o un parámetro de textura de relación de fondo calculado mediante (i) la dilatación de una máscara de objeto de primer plano; (ii) la obtención de un fondo original y un fondo dilatado complementando la máscara de objeto de primer plano y la máscara de objeto de primer plano dilatada; y (iii) el cálculo de un parámetro de textura de relación de fondo para cada imagen como una energía de una relación del fondo original dividido por el fondo dilatado.

Description

DESCRIPCION
Sistemas y procedimientos para la segmentacion y el procesamiento de imagenes de tejidos y extraccion de caractensticas de estos para tratar, diagnosticar o predecir afecciones medicas
CAMPO DE LA INVENCION
Algunos aspectos de la presente invencion se refieren a sistemas y procedimientos para la segmentacion y el procesamiento de imagenes (p. ej., imagenes de tejidos de nucleos y/o citoplasma) y extraccion de caractensticas de estos, por ejemplo, para tratar, diagnosticar y/o predecir la aparicion (p. ej., la recurrencia) de una o mas afecciones medicas (p. ej., el cancer u otros tipos de enfermedades).
ANTECEDENTES DE LA INVENCION
Los procedimientos convencionales para la segmentacion de imagenes de tejidos son propensos a la clasificacion erronea de objetos en el tejido (p. ej., nucleos epiteliales y estromales) y pueden producir nucleos irregulares, identificar incorrectamente los lfmites del citoplasma y provocar una sobresegmentacion y una subsegmentacion de los nucleos agrupados. Estos problemas se ven exacerbados por las variaciones en las condiciones de adquisicion de imagenes y los artefactos de imagenes.
Los sistemas existentes para caracterizar objetos (p. ej., glandulas) en imagenes de tejidos tambien se basan en la necesidad de una segmentacion precisa y repetible de los lumenes en la imagen. Sin embargo, la segmentacion de los lumenes puede ser diffcil a medida que el cancer avanza. Espedficamente, la arquitectura de los tejidos puede consistir tfpicamente en anillos glandulares aislados o en contacto rodeados de tejido fibromuscular (estroma). Cada anillo glandular puede incluir filas de celulas epiteliales que rodean un conducto (lumen). El citoplasma glandular conectado (p. ej., la unidad epitelial) puede incluir un anillo glandular. Sin embargo, a medida que el cancer avanza, las celulas epiteliales se replican de forma incontrolada, lo que altera las estructuras anulares regulares. Por ejemplo, en el grado 4 de Gleason, las unidades epiteliales se fusionan para crear cadenas de anillos glandulares o laminas cribiformes de anillos densas, todo en la misma unidad epitelial, mientras que los lumenes se encogen o desaparecen. En los sistemas de segmentacion existentes, esto puede llevar a que se toquen/se fusionen las celulas/unidades epiteliales. Los sistemas de segmentacion existentes tambien tienen dificultades para realizar una segmentacion basada en los lumenes, que se han encogido o han desaparecido. La misma dificultad de segmentacion surge para el grado 5 de Gleason, donde el tumor pierde estas estructuras y se convierte en laminas indiferenciadas de celulas epiteliales y/o fragmentos epiteliales.
Se necesitan sistemas y procedimientos mas precisos, confiables y repetibles para el procesamiento, la segmentacion y la extraccion de caractensticas de las imagenes (p. ej., imagenes de tejidos), por ejemplo, para permitir la generacion de modelos predictivos mejorados para diagnosticar, tratar y/o predecir la aparicion de afecciones medicas. Estos y otros objetivos de la presente invencion se satisfacen de acuerdo con diversas realizaciones de la presente invencion descritas en la presente memoria descriptiva.
El artfculo titulado "Objects in Context" de Rabinovich y col. (Computer Vision, 2007. ICCV 20007. IEEE 11th International Conference describe una tecnica para la categorizacion de objetos visuales en la que el contexto de objetos semanticos se incorpora como una etapa de procesamiento posterior, y que describe una tecnica para la segmentacion de imagenes basada en la estabilidad.
RESUMEN DE LAS REALIZACIONES DE LA INVENCION
De acuerdo con un aspecto de la invencion, se proporciona un procedimiento implementado por ordenador para evaluar el rendimiento de uno o mas algoritmos de segmentacion mediante la ejecucion de codigo en un ordenador tal como se establece en la reivindicacion 1. Otros aspectos se presentan en las reivindicaciones dependientes. En la invencion, una imagen medica o no medica (p. ej., una imagen de un tejido, una imagen de citologfa, una radiograffa, una imagen de tomograffa computarizada, una imagen de ultrasonido, una imagen de campo brillante y/o campo oscuro de un material semiconductor, una imagen geoespacial o una imagen astronomica) se puede recibir y se puede alterar para generar una o mas variantes de la imagen. La segmentacion se puede realizar en la imagen y en la una o mas variantes de la imagen para producir versiones segmentadas de la imagen y la una o mas variantes de la imagen. Se pueden calcular uno o mas parametros de similitud para las versiones segmentadas de la imagen y la una o mas variantes de la imagen para realizar una o mas de las siguientes funciones: (i) evaluar la estabilidad de la segmentacion; (ii) evaluar la calidad de la segmentacion de una imagen; (iii) clasificar una imagen por su calidad de segmentacion; (iv) comparar una imagen con otras imagenes; (v) determinar si una imagen se debe incluir o excluir de otros procesos (p. ej., extraccion de caractensticas y analisis); y/o (vi) determinar si una salida de segmentacion de imagenes cumple uno o mas criterios de calidad de rendimiento. Por ejemplo, en algunas realizaciones, las extensiones de uno o ambos de los parametros de similitud Dice o Jaccard puede calcularse y utilizarse para evaluar la estabilidad de la segmentacion.
De acuerdo con algunas realizaciones de la presente invencion, se pueden crear una o mas divisiones adicionales alrededor de los lfmites de segmentacion de la imagen (p. ej., al erosionar o dilatar los lfmites de la segmentacion). Se pueden calcular uno o mas parametros de patrones de intensidad, o combinaciones de parametros de patrones de intensidad, a partir de una o mas divisiones para realizar una o mas de las siguientes funciones: (i) evaluar la estabilidad del proceso de segmentacion; (ii) evaluar la calidad de la segmentacion de una imagen; (iii) clasificar una imagen por su calidad de segmentacion; (iv) comparar una imagen con otras imagenes; (v) determinar si una imagen se debe incluir o excluir de otros procesos; y/o (vi) determinar si una salida de segmentacion de imagenes cumple uno o mas criterios de calidad de rendimiento. Por ejemplo, en algunas realizaciones, la energfa del fondo dilatado puede compararse con la energfa del fondo original para evaluar la estabilidad de la segmentacion.
RESUMEN DE LA INFORMACION RELACIONADA DESCRITA EN LA PRESENTE DESCRIPCION
La presente descripcion se refiere a aparatos, procedimientos y medios legibles por ordenador para la segmentacion y el procesamiento de imagenes de tejidos (p. ej., imagenes de nucleos y/o citoplasma) y la extraccion de caractensticas de estos. Las imagenes de tejidos pueden generarse mediante tincion con hematoxilina y eosina (H&E), deteccion por inmunofluorescencia (IF), inmunohistoqmmica (IHC), procesos de tincion similares y/o relacionados, y/u otros procesos. Las caractensticas predictivas descritas en la presente memoria descriptiva pueden proporcionarse para su uso, por ejemplo, en uno o mas modelos predictivos para tratar, diagnosticar y/o predecir la aparicion (p. ej., la recurrencia) de una o mas afecciones medicas tales como, por ejemplo, cancer u otros tipos de enfermedades. La presente descripcion tambien describe un aparato, un procedimiento y un medio legible por ordenador proporcionados para reducir las variaciones no uniformes de intensidad en la imagen de un tejido. Dichas variaciones no uniformes pueden derivar, por ejemplo, de variaciones en las condiciones de adquisicion de imagenes. La imagen puede ser una imagen de nucleos en tejido etiquetado con 4'-6-diamidino-2-fenilindol (DAPI) de contratincion nuclear. La imagen puede ser una imagen de citoplasma en tejido etiquetado con biomarcador citoqueratina 18 (CK18). Uno o mas ordenadores pueden estimar un campo de iluminacion inversa de la imagen del tejido y generar una imagen modificada basandose en el campo de iluminacion inversa de la imagen del tejido. La imagen modificada puede someterse a un procesamiento informatico adicional, incluidas, por ejemplo, la segmentacion, la clasificacion de componentes celulares y/o tisulares, y/o la extraccion de caractensticas.
La imagen modificada puede generarse basandose en el campo de iluminacion inversa que incluye multiplicar la imagen del tejido por su campo de iluminacion inversa.
Estimar el campo de iluminacion inversa de la imagen del tejido puede incluir uno o mas de sustraer el fondo de la imagen del tejido (p. ej., utilizando un filtro sobrero de copa (top hat)), realizar un reconocimiento de regiones (p. ej., utilizando un procedimiento de valores propios de matriz hessiana (EoH)), identificar los maximos locales, dividir la imagen del tejido en multiples componentes alrededor de los maximos locales, establecer una intensidad dentro de cada componente de los multiples componentes, por ejemplo, en una intensidad promedio, y estimar el campo de iluminacion inversa mediante la filtracion (p. ej., utilizando un filtro gaussiano). Se puede aplicar mejoramiento de contraste en la imagen, por ejemplo, despues de sustraer el fondo de la imagen del tejido.
Dividir la imagen en multiples componentes alrededor de los maximos locales puede incluir uno o mas de producir un mapa de distancias en funcion de los maximos locales y realizar una transformacion divisoria utilizando el mapa de distancias.
Estimar el campo de iluminacion inversa de la imagen del tejido puede incluir dividir la imagen del tejido en bloques y, por cada bloque, calcular una estadfstica (p. ej., desviacion maxima, minima, media, mediana, estandar y varianza). La estadfstica de todos los bloques se puede utilizar para generar una imagen nueva, y la imagen nueva se puede volver a muestrear para crear una imagen del campo de iluminacion.
La presente descripcion tambien describe un aparato, un procedimiento y un medio legible por ordenador proporcionados para la binarizacion de una imagen de tejido (p. ej., imagen de DAPI o imagen de CK18). Por ejemplo, se puede proporcionar un proceso adaptativo que identifique un procedimiento de binarizacion optima para cada imagen en funcion de uno o mas patrones de intensidad, por ejemplo, la textura del fondo en la imagen. Se puede realizar una binarizacion inicial de la imagen del tejido (p. ej., utilizando umbralizacion de error mmimo) para extraer una region del fondo de la imagen y se puede evaluar un patron de intensidad de la region del fondo, por ejemplo, la textura de la region del fondo. Se puede realizar una binarizacion adicional o final de la imagen del tejido en funcion de la evaluacion. Por ejemplo, al menos uno de un tamano de filtro o un punto lfmite umbral para su uso en la binarizacion adicional se puede seleccionar en funcion de la evaluacion. Al menos uno del tamano de filtro y el punto lfmite umbral para la binarizacion adicional es diferente de un tamano de filtro y un punto lfmite umbral utilizados en la binarizacion inicial de la imagen del tejido.
Evaluar los patrones de intensidad de la region del fondo de la imagen del tejido, por ejemplo, la textura, puede incluir evaluar un contraste de la region del fondo. Evaluar la textura puede incluir evaluar una energfa de la region del fondo. Evaluar la textura puede incluir evaluar un contraste y una energfa de la region del fondo de la imagen del tejido para producir un valor que indique el contraste y un valor que indique la energfa. Un valor agregado que represente la textura se puede calcular como, por ejemplo, (1 - el valor del contraste) multiplicado por el valor de la energfa.
El procedimiento de binarizacion anterior se puede realizar en una imagen de tejido ya sometida a procesamiento para reducir las variaciones no uniformes de intensidad en la imagen.
La presente descripcion tambien describe un aparato, un procedimiento y un medio legible por ordenador proporcionados para el procesamiento de una imagen segmentada de citoplasma (p. ej., imagen de CK18 segmentada). Este procesamiento se puede realizar en una imagen de tejido ya sometida a al menos uno del procesamiento para reducir variaciones no uniformes de intensidad y la binarizacion. Se pueden identificar espacios en los lfmites de la imagen segmentada de citoplasma (p. ej., bordes festoneados que se superponen con objetos de nucleos). Los huecos provocados por los espacios pueden rellenarse utilizando una o mas operaciones morfologicas (p. ej., dilatacion).
Los espacios dentro de la imagen segmentada de citoplasma y/o en su lfmite pueden identificarse y eliminarse (p. ej., utilizando una operacion de cierre morfologico en escala de grises). Alternativa o adicionalmente, los huecos en el citoplasma que tienen un determinado tamano (p. ej., menor o igual a un tamano de nucleo promedio para la imagen) pueden identificarse y eliminarse. Alternativa o adicionalmente, los huecos que son mas grandes que ese tamano determinado y estan rellenos al menos parcialmente por un solo nucleo (p. ej., huecos mas pequenos que cuatro veces el tamano de nucleo promedio y rellenos al menos en un 50 % con un solo nucleo) pueden identificarse y rellenarse. La presente descripcion tambien describe un aparato, un procedimiento y un medio legible por ordenador proporcionados para clasificar nucleos en una o mas (p. ej., tres o mas) clases (p. ej., nucleos epiteliales, nucleos estromales y no clasificados/no definidos) dependiendo, por ejemplo, de la distancia y/o la superposicion de los nucleos a un borde de citoplasma.
La presente descripcion tambien describe un aparato, un procedimiento y un medio legible por ordenador proporcionados para eliminar artefactos de una imagen segmentada de nucleos. Este procesamiento se puede realizar en una imagen de tejido ya sometida a al menos uno del procesamiento para reducir variaciones no uniformes de intensidad y la binarizacion. Se puede recibir una imagen segmentada (p. ej., binarizada) de nucleos. Se pueden detectar y eliminar artefactos de lumen de la imagen segmentada para producir una imagen de nucleos de salida. Detectar y eliminar artefactos incluye determinar si un objeto dentro de la imagen segmentada de nucleos es un artefacto en funcion de al menos una de una caractenstica morfologica y una caractenstica de textura de al menos uno del objeto y un componente conectado al objeto. Las caractensticas morfologicas se pueden seleccionar de entre el grupo que consiste en un tamano del componente conectado, un tamano de nucleo, un tamano de nucleo promedio, un porcentaje relativo al area del tumor, un porcentaje del area del objeto dentro del lumen, la excentricidad, la elongacion de los nucleos y/u otras caractensticas morfologicas. Las caractensticas de textura se seleccionan de entre el grupo que consiste en intensidad de los nucleos promedio (p. ej., intensidad de DAPI), desviacion estandar de la intensidad de los nucleos y/u otras caractensticas de textura.
La presente descripcion tambien describe un aparato, un procedimiento y un medio legible por ordenador proporcionados para separar unidades epiteliales dentro de una imagen de tejido segmentada (p. ej., mascara binaria de citoplasma). Cada unidad epitelial puede incluir, consistir o consistir esencialmente en citoplasma contenido dentro de una o mas celulas epiteliales relacionadas confinadas por estroma. Este procesamiento se puede realizar en una imagen de tejido ya sometida a al menos uno del procesamiento para reducir variaciones no uniformes de intensidad, la binarizacion y el procesamiento posterior (p. ej., para eliminar artefactos). Se puede realizar un proceso de propagacion que comience en las regiones marcadoras dentro de cada unidad epitelial y que continue hacia los lfmites en contacto de las unidades epiteliales. Las regiones marcadoras pueden crearse, por ejemplo, a partir de una imagen segmentada de nucleos epiteliales y/o una imagen segmentada de lumenes. Una imagen derivada de la separacion de unidades epiteliales puede utilizarse, por ejemplo, dentro de la segmentacion de anillos glandulares posterior (p. ej., para identificar si los anillos glandulares son parte de la misma unidad epitelial o de unidades epiteliales diferentes).
La separacion de unidades epiteliales se puede lograr, por ejemplo: al recibir una imagen segmentada de nucleos (p. ej., mascara binaria de DAPl) y al dilatarla de forma variable utilizando dilatacion morfologica. Se puede generar una imagen complementaria de la imagen de los nucleos dilatados y se pueden extraer los centros marcadores de la imagen complementaria. Utilizando uno o mas (p. ej., todos) de los centros marcadores, una imagen de citoplasma (p. ej., CK18) y una imagen segmentada de citoplasma (p. ej., mascara binaria de citoplasma), se puede generar una imagen nueva de valles y picos de intensidad. Se puede aplicar una transformacion (p. ej., una transformacion divisoria) en la imagen nueva para obtener lmeas (p. ej., lmeas divisorias) de separaciones dentro de una imagen resultante, y la imagen resultante se puede segmentar (p. ej., binarizar). Por ejemplo, se pueden combinar una mascara binaria de citoplasma segmentada y una imagen binarizada divisoria, y se pueden identificar y retener las unidades epiteliales faltantes de la mascara binaria de citoplasma segmentada. Se puede etiquetar una imagen resultante del procedimiento de identificacion y retencion y se pueden extraer los lfmites de separacion de la imagen etiquetada. Una o mas de estas etapas de procesamiento, y/u otras etapas de procesamiento descritas en la presente solicitud, son opcionales y se pueden omitir y/o reemplazar por otras etapas. Por ejemplo, el proceso anterior puede ser un proceso inicializado central. Se puede utilizar un proceso inicializado de lfmites (p. ej., igual o similar al proceso que se muestra y se describe en conexion con la figura 12C). Estos dos procesos tienen efectos complementarios, y entre los dos pueden recoger la mayona, si no todas, las separaciones de las unidades epiteliales. Estos dos procesos pueden eliminar la necesidad de utilizar una transformacion divisoria para la separacion de las unidades epiteliales.
La presente descripcion tambien describe un aparato, un procedimiento y un medio legible por ordenador proporcionados para segmentar unidades glandulares de una imagen de nucleos. Como al menos parte de dicha segmentacion, se puede recibir una mascara binaria de nucleos epiteliales segmentada. La mascara binaria de nucleos se puede dilatar de forma variable utilizando dilatacion morfologica. Se puede generar un complemento de la mascara binaria de nucleos dilatada. Los centros marcadores luego se pueden extraer del complemento de la mascara dilatada.
La presente descripcion tambien describe un aparato, un procedimiento y un medio legible por ordenador proporcionados para refinar una segmentacion de unidades epiteliales dentro de una imagen de tejido segmentada. Este procesamiento se puede realizar en una imagen de tejido ya sometida a al menos uno de (i) el procesamiento para reducir variaciones no uniformes de intensidad, (ii) la binarizacion, (iii) el procesamiento posterior (p. ej., para eliminar artefactos) y (iv) la segmentacion de anillos glandulares inicial. Se puede calcular la intensidad en separaciones individuales de una imagen de intensidad de citoplasma (p. ej., CK18). Tambien se puede calcular la desviacion estandar correspondiente a los calculos de intensidad, y en una desviacion estandar de intensidad en separaciones individuales de un gradiente de la imagen del citoplasma. Se pueden identificar separaciones que toquen cualquier centro marcador de nucleos. Se pueden eliminar los lfmites de separacion en funcion de un criterio umbral y se pueden extraer lfmites de separacion refinados.
La presente descripcion tambien describe un aparato, un procedimiento y un medio legible por ordenador proporcionados para mejorar los rebordes formados por las membranas de citoplasma alrededor de un lfmite exterior del citoplasma en contacto o casi en contacto dentro de una imagen de tejido. Este procesamiento se puede realizar en una imagen de tejido ya sometida a al menos uno del procesamiento para reducir variaciones no uniformes de intensidad, la binarizacion, el procesamiento posterior (p. ej., para eliminar artefactos) y la segmentacion de anillos glandulares. Se puede realizar un proceso de propagacion, que comience en los bordes de mayor contraste de una mascara de citoplasma y que continue a lo largo de los bordes de menor contraste y los bordes entre las unidades epiteliales.
El mejoramiento de los rebordes formados por las membranas de citoplasma se puede lograr, por ejemplo: al generar una imagen de velocidad que incluya la resistencia de los bordes y los rebordes del citoplasma. Se puede realizar una propagacion de resistencia de bordes de marcha rapida utilizando la imagen de velocidad (p. ej., inicializada en los bordes del citoplasma) para crear un mapa de distancias. Se puede realizar una segmentacion (p. ej., segmentacion divisoria) de una inversion del mapa de distancias.
La presente descripcion tambien describe un aparato, un procedimiento y un medio legible por ordenador proporcionados para segmentar y/o clasificar anillos glandulares dentro de una imagen de tejido. Se puede realizar una agrupacion geometrica de nucleos (p. ej., en funcion de una triangulacion o teselacion de coordinadas de nucleos epiteliales) en las regiones epiteliales de division. Se puede realizar una triangulacion en la imagen de tejido con los centros de nucleos epiteliales como vertices, y se combinan regiones seleccionadas de los triangulos. Las regiones epiteliales pueden clasificarse como anillos glandulares o no anillos glandulares.
La segmentacion de los anillos glandulares se puede lograr, por ejemplo: mediante la triangulacion (p. ej., triangulacion Delaunay) en una imagen de tejido con los centros de los nucleos epiteliales como vertices. Se pueden combinar regiones seleccionadas de los triangulos. Las areas poligonales luego se puede clasificar como anillos glandulares o no anillos glandulares (p. ej., areas estromales y no definidas). La clasificacion de las areas poligonales como anillos glandulares o no anillos glandulares puede basarse en uno o mas de un tamano, un area estromal, un area del lumen, una densidad del anillo y una conectividad del citoplasma alrededor del anillo. El proceso puede incluir adicionalmente asignar una profundidad a cada triangulo (p. ej., igual o sustancialmente igual a una longitud del lado mas largo de ese triangulo), clasificar los triangulos por profundidad y/o realizar la combinacion comenzando con los triangulos mas profundos. Las regiones se pueden combinar si una longitud de un lado comun entre los triangulos es al menos, por ejemplo, el 90 % de una profundidad de un vecino y/o si ambas regiones tocan las mismas unidades epiteliales. Se puede utilizar un proceso que incluya una transformacion divisoria (p. ej., igual o similar al proceso utilizado para la separacion de unidades epiteliales pero, por ejemplo, que tenga marcadores mas pequenos) para separar anillos glandulares.
La presente descripcion tambien describe un aparato, un procedimiento y un medio legible por ordenador proporcionados para localizar y cuantificar la senal biomarcadora dentro de una imagen de tejido (p. ej., una imagen de un aspirado con aguja fina, una muestra de biopsia, una seccion de tejido entero y/o una micromatriz tisular (TMA)). Uno o mas objetos brillantes que tengan un tamano inferior a un umbral pueden eliminarse de una imagen de tejido ya que indican ruido speckle (de moteado). Se puede determinar y aplicar un umbral, espedfico de la imagen, para distinguir entre la intensidad de senal del fondo y la intensidad de senal real para multiples objetos (p. ej., objetos de nucleos, objetos de citoplasma y/u objetos glandulares) que permanecen en la imagen, produciendo asf una imagen con umbral. Se puede generar un histograma correspondiente a la imagen con umbral. Se puede extraer una o mas caractensticas predictivas de la imagen con umbral. Ademas de variar de una imagen a otra, el umbral puede variar de una parte de una imagen a otra parte de la misma imagen.
La presente descripcion tambien describe un aparato, un procedimiento y un medio legible por ordenador proporcionados para predecir la aparicion de una afeccion medica (p. ej., cancer de prostata). Se puede evaluar una serie de datos para un paciente con un modelo implementado por ordenador predictivo de la afeccion medica, donde el modelo se basa en una o mas caractensticas del anillo medidas en una o mas imagenes de tejidos, evaluando asf la afeccion medica en el paciente. La una o mas caractensticas del anillo se pueden seleccionar de entre el grupo de caractensticas de anillos glandulares que consiste en combinaciones estadfsticas sobre la imagen de los parametros individuales del anillo como el diametro externo del anillo, el diametro interno del anillo, el espacio del borde, el diametro del lumen o compensacion, la densidad del borde, la relacion del lumen, la proporcion de la compensacion interna en contacto con el borde, la proporcion del estroma en contacto con el borde, la relacion del borde inferior a un numero predefinido de pfxeles del estroma, la distancia media de los pfxeles del borde desde el estroma y el ancho del relleno epitelial entre el anillo y el estroma, y/o los propios parametros individuales del anillo. Los parametros del anillo se pueden combinar y/o promediar sobre la imagen entera para crear caractensticas de imagen. Las caractensticas de imagen pueden parametrizarse, por ejemplo, en cualquiera de cuatro maneras: por estadfstica (dos alternativas), por tipo de region (8 alternativas), por peso (8+ alternativas) y/o por variable (20+ alternativas), creando en total mas de 2*8*8*20 caractensticas posibles de acuerdo con diversas realizaciones de la presente invencion, tal como se muestra, por ejemplo, en las tablas 2-8 en la presente memoria descriptiva. La tabla 2 muestra caractensticas basicas del anillo a partir de las cuales se pueden construir caractensticas de imagen de combinacion estadfstica de acuerdo con algunas realizaciones de la presente invencion. En estas tablas, una convencion de nomenclatura de caractensticas consistente se forma como "Estadfstica Peso Tipo de Region Variable". El modelo predictivo implementado por ordenador puede producir un valor que indique la afeccion medica en el paciente. El modelo puede basarse en al menos una caractenstica adicional seleccionada de entre el grupo de caractensticas que consiste en una o mas caractensticas clmicas, una o mas caractensticas moleculares y/o una o mas caractensticas morfometricas generadas por ordenador generadas a partir de una o mas imagenes de tejidos.
La presente descripcion tambien describe un aparato, un procedimiento y un medio legible por ordenador proporcionados para evaluar una serie de datos para un paciente con un modelo predictivo de la afeccion medica, donde el modelo se basa en una o mas caractensticas seleccionadas de entre el grupo de caractensticas que consiste en (i) una caractenstica generada en funcion de una comparacion de histogramas correspondientes a compartimentos o subcompartimentos de objetos celulares y (ii) una caractenstica generada a partir de un mdice de intensidad correspondiente a la intensidad de senal de la imagen.
La presente descripcion tambien describe un aparato, un procedimiento y un medio legible por ordenador proporcionados para evaluar una serie de datos para un paciente con un modelo predictivo de la afeccion medica, donde el modelo se basa en una o mas caractensticas de textura seleccionadas de entre el grupo de caractensticas que consiste en (i) homogeneidad y (ii) correlacion, evaluando asf la afeccion medica en el paciente.
La presente descripcion tambien describe un aparato, un procedimiento y un medio legible por ordenador para extraer una o mas caractensticas de textura de una imagen de tejido. Se pueden extraer objetos (p. ej., nucleos) forzando el fondo a cero. Se pueden separar subobjetos (p. ej., nucleos epiteliales). Se pueden calcular una o mas caractensticas de textura para cada nucleo epitelial (p. ej., homogeneidad y/o correlacion). Se puede generar un histograma en funcion de la una o mas caractensticas de textura, y se puede ajustar un polinomio al histograma. El histograma correspondiente al primer tipo de subobjetos (p. ej., nucleos epiteliales) puede dividirse por un segundo histograma correspondiente a un segundo tipo de subobjetos (p. ej., nucleos estromales) para obtener un histograma nuevo, y se puede ajustar un polinomio nuevo al histograma nuevo. Se pueden extraer caractensticas de uno o mas de los polinomios. Alternativa o adicionalmente, el primer y el segundo histogramas (p. ej., histogramas epitelial y estromal) se pueden restar o sumar entre sf antes de extraer una o mas caractensticas predictivas en funcion de un resultado de ello. Se puede utilizar un proceso de normalizacion de histogramas, por ejemplo, como alternativa o ademas del ajuste polinomial.
BREVE DESCRIPCION DE LOS DIBUJOS
Para entender mejor las realizaciones de la presente invencion, se hace referencia a la siguiente descripcion, tomada en conjunto con los dibujos adjuntos, donde los caracteres de referencia similares se refieren a partes similares, y en los cuales:
La figura 1 es un diagrama de bloques de un sistema de analisis de imagenes;
La figura 2A es un diagrama de flujo de etapas ilustrativas implicadas en el procesamiento previo de una imagen de tejido para corregir las variaciones no uniformes de intensidad, por ejemplo, debido al historial del tejido subyacente y/o las condiciones de adquisicion de imagenes;
La figura 2B es un diagrama de flujo de subetapas ilustrativas implicadas en la estimacion de un campo de iluminacion inversa dentro del proceso de la figura 2A;
La figura 2C es un diagrama de flujo de subetapas ilustrativas implicadas en el reconocimiento de regiones dentro del proceso de la figura 2A utilizando un procedimiento de valores propios de matriz hessiana (EoH);
La figura 2D es un diagrama de flujo de etapas ilustrativas implicadas en la correccion de variaciones de intensidad no uniformes, por ejemplo, en una imagen de citoplasma (p. ej., CK18 de niveles de grises);
Las figuras 3 y 4 muestran ejemplos ilustrativos de imagenes derivadas del procesamiento de imagenes de tejidos de acuerdo con las figuras 2A-2C;
Las figuras 5 y 6A son diagramas de flujo de etapas ilustrativas implicadas en la binarizacion de una imagen de tejido; La figura 6B es un diagrama de flujo de subetapas ilustrativas implicadas en la segmentacion inicial dentro del proceso de la figura 6A;
La figura 6C es un diagrama de flujo de subetapas ilustrativas implicadas en la evaluacion de textura de fondo dentro del proceso de la figura 6A;
La figura 6D es un diagrama de flujo de subetapas ilustrativas implicadas en la segmentacion adicional o final dentro del proceso de la figura 6A;
La figura 6E muestra imagenes que comparan la segmentacion adaptativa de citoplasma de acuerdo con la figura 6B (imagenes a la izquierda) con la segmentacion no adaptativa (imagenes a la derecha) en imagenes con fondo ruidoso; La figura 7 es un diagrama de flujo de etapas ilustrativas implicadas en la separacion de componentes en contacto o conectados de senal positiva o de primer plano en una imagen de tejido;
Las figuras 8 y 9 son diagramas de flujo de etapas ilustrativas implicadas en la eliminacion de artefactos y/u otros fragmentos o errores no deseados en una imagen segmentada de tejido;
La figura 10 muestra imagenes de artefactos de lumen que pueden ser eliminados mediante el procesamiento; La figura 11A es un diagrama de flujo de etapas ilustrativas implicadas en la clasificacion de nucleos en nucleos epiteliales y estromales;
La figura 11B muestra imagenes segmentadas ilustrativas que tienen clasificaciones de lfmites de nucleos;
La figura 11C es un diagrama de flujo de etapas ilustrativas implicadas en el ajuste de lfmites de objetos de citoplasma dentro de una imagen de tejido para evitar la division de los nucleos de los bordes;
La figura 11D es un diagrama de flujo de etapas ilustrativas implicadas en el ajuste de lfmites de objetos de citoplasma en una imagen de tejido que tiene un aspecto festoneado;
Las figuras 12A-C son diagramas de flujo de etapas ilustrativas implicadas en la segmentacion de una imagen de tejido para identificar unidades epiteliales;
Las figuras 12D-E son diagramas de flujo de etapas ilustrativas implicadas en la generacion de lumen;
La figura 12F muestra una salida de ejemplo de una mascara de lumen de acuerdo con el proceso de las figuras 12D-E;
La figura 12G es un diagrama de flujo de etapas ilustrativas implicadas en la segmentacion de anillos a traves de un proceso grafico basado en la agrupacion de una triangulacion de nucleos epiteliales;
La figura 13 muestra imagenes que demuestran la separacion de unidades epiteliales en contacto;
La figura 14 muestra imagenes que ilustran la segmentacion de nucleos epiteliales en anillos glandulares etiquetados; La figura 15 es un diagrama de flujo de etapas ilustrativas implicadas en la localizacion y cuantificacion de la senal biomarcadora, por ejemplo, en imagenes de tejidos que tienen una relacion senal/ruido (SNR) debil;
La figura 16 muestra histogramas de expresion de biomarcador AR y Ki67 tipicos para cancer progresivo y cancer de prostata latente;
La figura 17 muestra un ejemplo de segmentacion de anillos glandulares en una imagen de campo oscuro;
La figura 18A muestra un esquema para generar caractensticas de anillos glandulares;
Las figuras 18B-D muestran imagenes de anillos glandulares detectados en patrones de Gleason 3, 4 y 5 en tejido; Las figuras 19 y 20 muestran imagenes segmentadas de AR y Ki67 ilustrativas;
La figura 21 es un diagrama de flujo de etapas ilustrativas implicadas en la extraccion de caractensticas de textura de una imagen de tejido;
La figura 22A muestra graficos de histogramas y el ajuste de curvas polinomiales correspondientes de las caractensticas de textura de homogeneidad y correlacion;
La figura 22B muestra un ejemplo de combinacion de caractensticas bilineales;
La figura 23A es un diagrama de flujo de etapas ilustrativas implicadas en la evaluacion del rendimiento de uno o mas algoritmos de segmentacion, por ejemplo, sin utilizar imagenes de datos reales (ground truth), de acuerdo con algunas realizaciones de la presente invencion;
La figura 23B es un diagrama de flujo de etapas ilustrativas implicadas en la determinacion de la estabilidad de una imagen o la segmentacion mediante analisis estadfstico de estabilidad;
La figura 23C es un diagrama de flujo de etapas ilustrativas implicadas en la determinacion de la estabilidad de una imagen o la segmentacion mediante analisis de estabilidad de division;
La figura 23D es un diagrama de flujo de etapas ilustrativas para generar imagenes fantasma para su uso en la evaluacion de segmentacion basada en datos reales;
La figura 24 muestra el resultado del proceso que se muestra en la figura 23D para generar imagenes fantasma para su uso en la evaluacion de segmentacion basada en datos reales, donde la imagen original (arriba a la izquierda) y la mascara real (arriba a la derecha) se utilizan para generar imagenes fantasma (abajo a la izquierda) y (abajo a la derecha);
Las figuras 25A-25D muestran cuatro enfoques de procesamiento y segmentacion de imagenes diferentes que se pueden utilizar en la invencion;
Las figuras 25E-F muestran otro enfoque de segmentacion celular y procesamiento de imagenes, que incluye un proceso de estimacion de tamano iterativo;
La figura 26A, subseccion (a), ilustra una aplicacion del analisis de estabilidad en la puntuacion de segmentacion, donde la imagen de la izquierda es un buen resultado de segmentacion con una alta puntuacion de estabilidad y la imagen de la derecha es un resultado deficiente de segmentacion que produce una baja puntuacion de estabilidad estadfstica;
La figura 26A, subseccion (b), ilustra una aplicacion del analisis de estabilidad en la deteccion de errores, donde un efecto de un error de estimacion estadfstica en un proceso de segmentacion proporciono la imagen de la izquierda que tiene una puntuacion de estabilidad deficiente, y la imagen de la derecha que tiene una puntuacion de validacion correspondientemente mayor se creo con el mismo proceso de segmentacion despues de la correccion del error de estimacion;
La figura 26B ilustra ejemplos de varios nucleos superpuestos (a la derecha) y algunas superposiciones (a la izquierda), donde DAPI, CK18 y las salidas de la segmentacion se muestran de arriba a abajo; y
La figura 26C ilustra una buena salida de segmentacion correspondiente a un caso con una alta puntuacion de estabilidad (columna derecha), y un resultado deficiente de segmentacion que produce una baja puntuacion de estabilidad, donde DAPI, CK18 y los resultados de la segmentacion se muestran de arriba a abajo.
DESCRIPCION DETALLADA DE LAS REALIZACIONES PREFERIDAS
La figura 1 es un diagrama de bloques de un sistema de analisis de imagenes (100) que se puede utilizar con la invencion. El sistema (100) incluye un modulo de adquisicion de imagenes (102), un modulo de procesamiento previo (104), un modulo de segmentacion (106), un modulo de procesamiento posterior (108) y un modulo de extraccion de caractensticas (110). Por ejemplo, en algunas realizaciones de la presente invencion, el modulo de adquisicion de imagenes (102) puede incluir una camara multiespectral (p. ej., camara multiespectral Nuance), por ejemplo, con una resolucion de 20x por 10x. En la figura 1, se muestran los modulos (102-110) acoplados en serie. En otras realizaciones, se puede utilizar cualquier otra disposicion de sistema adecuada que incluya, por ejemplo, acoplar uno o mas de los modulos (102-110) con otro u otros de los modulos (102-110) o provocar que todos los modulos (102­ 110) se acoplen (p. ej., directa o indirectamente para permitir la comunicacion) entre su
Cada uno de los modulos (102-108) puede incluir cualquier hardware (p. ej., uno o mas ordenadores o procesadores), software, firmware adecuado o combinacion de estos para realizar las funciones respectivas descritas en la presente memoria descriptiva en conexion, por ejemplo, con una o mas de las figuras 2A-26D. Por ejemplo, el modulo de procesamiento (104) puede ser un aparato configurado para realizar una o mas (p. ej., todas) de las funciones descritas en conexion con las figuras 2A-4 que incluyen, por ejemplo, corregir las variaciones no uniformes de intensidad en imagenes de tejidos.
El modulo de segmentacion (106) puede ser un aparato configurado para realizar una o mas (p. ej., todas) de las funciones descritas en conexion con las figuras 5-6E que incluyen, por ejemplo, binarizar imagenes de tejidos. El modulo de procesamiento posterior (108) puede ser un aparato configurado para realizar una o mas (p. ej., todas) de las funciones descritas en conexion con las figuras 7-11D que incluyen, por ejemplo, separar componentes en contacto o conectados, rellenar huecos y/o eliminar artefactos dentro de imagenes de tejidos (p. ej., imagenes de tejidos ya sometidas a un proceso de segmentacion). Alternativa o adicionalmente, el modulo de procesamiento posterior (108) puede estar configurado para realizar una o mas (p. ej., todas) de las funciones descritas en conexion con las figuras 12A-13 relacionadas, por ejemplo, con la segmentacion adicional de imagenes de tejidos en unidades epiteliales, y/o la figura 14 relacionada, por ejemplo, con la segmentacion adicional de imagenes de tejidos en anillos glandulares.
El modulo de extraccion de caractensticas (110) puede estar configurado para realizar una o mas (p. ej., todas) de las funciones descritas en conexion con las figuras 15-22B que incluyen, por ejemplo, extraer caractensticas de anillos glandulares, caractensticas de textura (p. ej., homogeneidad y/o correlacion) y/u otras caractensticas. En algunas realizaciones de la presente invencion, el modulo (102) y/u otro aparato adecuado (p. ej., que incluya hardware, software, firmware o combinacion de estos) puede estar configurado para realizar una o mas (p. ej., todas) de las funciones descritas en conexion con la figura 23A-D que incluyen, por ejemplo, evaluar el rendimiento de uno o mas algoritmos de segmentacion sin utilizar imagenes de datos reales.
En la figura 1, los modulos (102-110) se muestran como modulos separados (p. ej., que utilizan hardware, software, firmware diferentes o una combinacion de estos). En algunas realizaciones de la presente invencion, se puede utilizar cualquier otra disposicion de sistema adecuada que incluya, por ejemplo, implementar dos o mas de los modulos (102­ 110) utilizando al menos parcialmente el mismo hardware, software, firmware y/o una combinacion de estos.
Procesamiento previo de imagenes de tejidos
La figura 2A es un diagrama de flujo (200) de etapas ilustrativas implicadas en el procesamiento previo de una imagen de tejido de acuerdo con algunos ejemplos de la presente invencion. El proceso (200) se puede utilizar para corregir las variaciones no uniformes de intensidad, por ejemplo, debido al historial del tejido subyacente (p. ej., variaciones con respecto a como dicho tejido se recogio inicialmente, se proceso o se manipulo posteriormente) y/o las condiciones de adquisicion de imagenes. En algunos ejemplos, el proceso (200) se puede realizar a traves del modulo de procesamiento previo (104) (figura 1) u otro equipo informatico adecuado.
La intensidad de senal de una imagen de tejido se suele utilizar como un criterio para determinar si una parte determinada de la imagen es una senal "positiva" o de fondo. Por ejemplo, cuando la intensidad de una parte determinada (p. ej., uno o mas pfxeles) de la imagen supera un valor umbral, la senal se puede considerar como una senal positiva. Las partes de la imagen que tienen una intensidad inferior al umbral se pueden considerar senal de fondo. La senal positiva se puede incluir en el procesamiento posterior de la imagen del tejido que incluye, por ejemplo, la segmentacion y clasificacion de la senal positiva en objetos celulares y/o tisulares y/o la extraccion de caractensticas. La senal de fondo, por otra parte, se puede ignorar en el procesamiento posterior. Las variaciones no uniformes de intensidad pueden generar una falla, por ejemplo, para distinguir adecuadamente la senal positiva de la senal de fondo y puede conducir a errores de segmentacion, a una clasificacion erronea de objetos celulares y/o tisulares y a la extraccion de caractensticas incorrectas.
En microscopfa multiespectral, por ejemplo, se etiquetan simultaneamente multiples protemas (antfgenos) en una muestra de tejido con diferentes tintes fluorescentes conjugados con anticuerpos espedficos para cada protema particular. Cada tinte tiene un espectro de emision distinto y se une a su protema diana dentro de un compartimento tisular. Se realiza imagenologfa del tejido etiquetado bajo una fuente de luz de excitacion utilizando un microscopio equipado con uno o mas filtros relevantes y una camara multiespectral. La imagen multiespectral resultante (p. ej., cubo de imagen) luego se somete a una descomposicion espectral para separar los espectros superpuestos de las etiquetas fluorescentes. Las imagenes descompuestas tienen multiples componentes, donde cada componente (p. ej., capa de imagen) representa el nivel de expresion de una protema-antigeno en el tejido. Para cada imagen, la presencia o la ausencia de una senal positiva dentro de cualquier region determinada de la imagen se pueden determinar en funcion de la intensidad de la senal en esa region.
En algunas disposiciones descritas en la presente memoria descriptiva, el proceso (200) puede incluir, consistir o consistir esencialmente en estimar el campo de iluminacion inversa de una imagen de tejido en la etapa (202) y generar una imagen corregida en la etapa (204) basandose (p. ej., basandose al menos en parte) en el campo de iluminacion inversa estimado (p. ej., multiplicando la imagen de tejido por el campo de iluminacion inversa para obtener una imagen corregida). La no uniformidad de la intensidad en la entrada de imagen de tejido de la etapa (202) puede corregirse o mejorarse sustancialmente a traves del proceso (200). La salida de le etapa (204) puede ser una imagen corregida o mejorada sustancialmente con menos (p. ej., sin) variaciones de intensidad no uniformes que la entrada de imagen de tejido de la etapa (202). De acuerdo con diversas disposiciones descritas en la presente memoria descriptiva, las imagenes derivadas del proceso (200) pueden procesarse posteriormente en la etapa (206) (p. ej., someterse a segmentacion, clasificacion de objetos celulares y/o tisulares y/o extraccion de caractensticas). De forma ventajosa, el funcionamiento de las etapas (202-204) puede posibilitar resultados mejorados (p. ej., menos errores) en dicho procesamiento posterior.
En algunas disposiciones descritas en la presente memoria descriptiva, se puede utilizar el proceso (200) para corregir la no uniformidad de la intensidad en una imagen de tejido que incluye principalmente nucleos. La entrada de imagen de tejido del proceso (200) se puede generar, por ejemplo, realizando imagenologfa del tejido que esta etiquetado con 4'-6-diamidino-2-fenilindol (DAPI) de contratincion nuclear. Dicha imagenologfa se puede realizar a traves del modulo de adquisicion de imagenes (102). DAPI es un tinte fluorescente que tiene un espectro de emision distinto. En algunos ejemplos, DAPI se puede utilizar solo o en combinacion con uno o mas tintes fluorescentes adicionales tales como, por ejemplo, el biomarcador citoqueratina 18 (CK18) que se une al citoplasma.
En otras disposiciones descritas en la presente memoria descriptiva, se puede utilizar el proceso (200) para corregir las variaciones de intensidad no uniformes en otros tipos de imagenes que incluyen, por ejemplo, imagenes que incluyen principalmente citoplasma (p. ej., generadas mediante imagenologfa del tejido etiquetado con CK18), imagenes generadas mediante imagenologfa del tejido etiquetado con otros biomarcadores y/o imagenes que incluyen otros componentes tisulares o celulares o una combinacion de componentes tisulares y/o celulares.
La figura 2B es un diagrama de flujo de subetapas ilustrativas implicadas en el proceso (200) (figura 2A) de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. Por ejemplo, estimar el campo de iluminacion inversa de la imagen de tejido en la etapa (202) (figura 2A) puede incluir filtracion sombrero de copa, reconocimiento de regiones de valores propios de matriz hessiana y/o una transformacion de distancias. Algunos ejemplos adecuados de filtracion sombrero de copa, reconocimiento de regiones de valores propios de matriz hessiana y transformacion de distancias de acuerdo con algunas realizaciones de la presente invencion se describen en Gonzalez R. C y Woods R. E., Digital Image Processing, segunda edicion, Prentice-Hall Inc, 2002.
En la etapa (208), el fondo del tejido en una imagen de tejido se sustrae de la imagen utilizando, por ejemplo, un filtro sombrero de copa. En algunos ejemplos, el fondo del tejido puede corresponder a un nivel de gris en la imagen del tejido, que esta en contraste con las regiones mas brillantes de la imagen del tejido que representan el primer plano del tejido (p. ej., nucleos y/o citoplasma). El filtro sombrero de copa puede eliminar las regiones lisas que sean mas grandes que la mayona, sino todos, los componentes tisulares y/o celulares de interes en la imagen (p. ej., grupos de nucleos o grupos de citoplasma, por ejemplo, cuando se aplica la etapa (208) en las imagenes de CK18). En algunos ejemplos, se puede establecer un tamano de filtro (p. ej., 30 pfxeles) para el filtro sombrero de copa para su uso en la correccion de iluminacion no uniforme. En algunas realizaciones, los grupos de nucleos y/o de citoplasma tienen un intervalo de tamano de entre tres y cinco agrupamientos de nucleos pequenos (p. ej., que ocupan aproximadamente 100-200 pfxeles) a 10-30 agrupamientos de nucleos grandes (p. ej., que ocupan aproximadamente 500-2000 pfxeles).
En la etapa (210), se aplica mejoramiento de contraste a la imagen filtrada derivada de la etapa (208). En algunas disposiciones descritas en la presente memoria descriptiva, el mejoramiento de contraste expande la imagen (p. ej., algunos o todos los pfxeles en la imagen), por ejemplo, para rellenar el intervalo completo de valores de intervalo. Por ejemplo, para imagenes de 8 bits, la intensidad_nueva = (intensidad_anterior-qmm) 255/(pmax-qmm), donde pmax = intensidad del percentil p, qmm = intensidad del percentil q, tomando, por ejemplo, p = 99 % y q = 1 %. En otro ejemplo, para imagenes de 16 bits, 255 se reemplaza por 65535. En otro ejemplo, que puede proporcionar un muestreo mas equilibrado de pfxeles brillantes y oscuros en la imagen y evitar aumentar el ruido de fondo en las imagenes con areas brillantes pequenas en un fondo oscuro grande, se pueden calcular los valores de percentil maximo y mmimo en las bandas alrededor de los bordes en la imagen. En algunos ejemplos, la etapa (210) puede ser opcional y se puede omitir del proceso (200). En otros ejemplos, la etapa (210) se puede utilizar, por ejemplo, segun lo requiera la filtracion sombrero de copa de la etapa (208) y/o el bajo contraste presente en la imagen de tejido original que sirve como entrada del proceso (200).
En la etapa 212, se realiza reconocimiento de regiones (p. ej., deteccion de nucleos) en la imagen derivada de la etapa (210), o de la etapa (208) si no se utiliza la etapa (210). En algunos ejemplos, dicha deteccion se puede realizar utilizando un procedimiento de valores propios de matriz hessiana (EoH). De forma ventajosa, los presentes inventores han determinado que dicho procedimiento de deteccion puede detectar componentes tanto brillantes como tenues (p. ej., nucleos tanto brillantes como tenues) de los tipos que pueden estar presentes en las imagenes de tejidos evaluadas por el proceso (200) de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. Mas abajo, en conexion con la figura 2C, se describen subetapas ilustrativas implicadas en la etapa (212).
En la etapa (214), se extraen (se identifican) los maximos locales de la imagen derivada de la etapa (212). Por ejemplo, la etapa (212) genera una imagen de regiones, que se puede umbralizar posteriormente (p. ej., como se muestra en la figura 3D) para identificar los maximos locales. En algunos ejemplos, los maximos locales son los pfxeles que tienen el valor de intensidad mas alto en sus regiones locales respectivas. Por ejemplo, para la imagen, pueden representar una estimacion aproximada de la intensidad maxima promedio en cada region. Tal como se describe mas abajo, en algunos ejemplos, el campo de iluminacion inversa de intensidad se obtiene mediante el procesamiento de los puntos de maximos locales.
En la etapa (216), se calcula una transformacion de distancias euclidiana inversa que comienza en los puntos de maximos locales para producir un mapa de distancias.
En la etapa (218), se realiza una transformacion divisoria utilizando el mapa de distancias de la etapa (216) como entrada. La transformacion divisoria divide la imagen en componentes o celulas pequenas alrededor de los maximos locales (p. ej., maximos locales de los nucleos). Un ejemplo adecuado de un proceso de transformacion divisoria se describe en Gonzalez R. C y Woods R. E., Digital Image Processing, segunda edicion, Prentice-Hall Inc, 2002.
En algunos ejemplos, la intensidad dentro de cada componente o celula se establece en su intensidad promedio en la etapa (220) ("estimacion de campo").
En la etapa (222), se obtiene una primera estimacion del campo de intensidad, por ejemplo, suavizando la imagen derivada de la etapa (220) utilizando un filtro gaussiano.
En la etapa (224), se logra una correccion de la intensidad no uniforme al multiplicar la imagen original por la inversa del campo de intensidad obtenido como resultado de la etapa (220). En algunos ejemplos, el proceso (200) incluye una etapa adicional (p. ej., despues de la etapa (224)) para mejorar la separacion entre los componentes agrupados (p. ej., los nucleos), por ejemplo, a lo largo de los rebordes oscuros y finos que los separan utilizando una transformacion sombrero de copa morfologica sobre la imagen de nucleos con intensidad corregida. En algunos ejemplos, esta transformacion sombrero de copa puede ser igual, o similar, al filtro sombrero de copa descrito anteriormente en conexion con la etapa (208) (p. ej., con un tamano de filtro de 30 pfxeles).
La figura 2C es un diagrama de flujo de subetapas ilustrativas implicadas en el reconocimiento de regiones de la etapa (212) (figura 2B) de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. En algunos ejemplos, se utiliza una matriz EoH para calcular un mdice de forma en cada punto. En la etapa (226), se calcula una matriz hessiana en multiples puntos (p. ej., cada punto) (x, y) en la imagen I de la siguiente manera:
Figure imgf000011_0001
En la etapa (228), dada la matriz hessiana, se calculan los valores propios de la matriz, por ejemplo, aproximadamente de la siguiente manera:
Figure imgf000012_0001
En la etapa (230), los valores propios (p. ej., valores aproximados) se utilizan para calcular el mdice de forma en cada punto (x, y), por ejemplo, de la siguiente manera:
Figure imgf000012_0002
En algunos ejemplos de la presente invencion, las regiones (p. ej., los nucleos) se definen como los puntos para los cuales n / 4 < Q(x, y) < 3n / 4, aunque en otros ejemplos de la presente invencion se pueden emplear otros valores. La figura 2D describe etapas ilustrativas implicadas en la correccion de variaciones de intensidad no uniformes, por ejemplo, en una imagen de citoplasma (p. ej., CK18 de niveles de grises) de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. El proceso de la figura 2D puede ser una forma de correccion de no uniformidad basada en bloques. En algunos ejemplos, el proceso de la figura 2D puede ser una alternativa al proceso que se muestra en las figuras 2A-2C. En algunos ejemplos, el proceso de la figura 2D puede utilizar promediacion de fondo y/o muestreo de fondo. En la etapa (232), la imagen se puede contrastar, por ejemplo, al expandir una parte inferior (p. ej., el 10 % mas abajo) y una parte superior (p. ej., el 10 % mas arriba) de todos los valores de pfxeles. En algunos ejemplos, este proceso puede ser igual o similar al proceso de mejoramiento de contraste descrito anteriormente en conexion con la etapa (210). En la etapa (234), se puede eliminar el ruido (p. ej., ruido sal y pimienta) en el fondo utilizando, por ejemplo, un filtro mediano de 3x3. En la etapa (236), se puede utilizar procesamiento en bloques para mejorar los pfxeles oscuros en la imagen. Por ejemplo, se puede utilizar un bloque de 4x4 con una funcion maxima que reemplace el valor maximo de pixel en cada entorno de 4x4. En la etapa (238), la imagen se puede volver a dimensionar a su tamano original o similar u otro tamano utilizando, por ejemplo, interpolacion bilineal. El resultado del proceso de la figura 2D puede ser una imagen a la que se le hayan ajustado las variaciones no uniformes.
La figura 3 muestra ejemplos ilustrativos de imagenes derivadas del procesamiento de imagenes de tejidos de acuerdo con las figuras 2A-2C de acuerdo con las disposiciones descritas en la presente memoria descriptiva. La imagen A es la imagen de DAPI sin corregir original de los nucleos presentes en el tejido que sirvio como una entrada del proceso (200). La imagen B es la imagen modificada generada a partir de la filtracion sombrero de copa en la etapa (208). La imagen C es la imagen modificada derivada del mejoramiento de contraste en la etapa (210). La imagen D es la imagen modificada derivada del reconocimiento de regiones de EoH y la umbralizacion de imagen en las etapas (212) y (214). La imagen E es el campo de iluminacion inversa estimado derivado de la etapa (224). Por ultimo, la imagen F es la imagen con intensidad corregida derivada de la multiplicacion de la imagen original A por la imagen E que representa el campo de iluminacion inversa estimado.
La figura 4 muestra ejemplos ilustrativos adicionales de imagenes derivadas del procesamiento de imagenes de tejidos de acuerdo con las figuras 2A-2C de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. La imagen A es la imagen de DAPI sin corregir original de los nucleos presentes en el tejido que sirvio como una entrada del proceso (200). La imagen B es el campo de iluminacion inversa estimado derivado de la etapa (224). Por ultimo, la imagen C es la imagen con intensidad corregida derivada de la multiplicacion de la imagen original A por la imagen B que representa el campo de iluminacion inversa estimado.
Binarizacion y segmentacion de imagenes de tejidos
La figura 5 es un diagrama de flujo (500) de etapas ilustrativas implicadas en la binarizacion de una imagen de tejido de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. El proceso (300) se puede utilizar, por ejemplo, para extraer de una imagen de nucleos (p. ej., la imagen de DAPI derivada de la deteccion espectral) las partes de la imagen correspondientes a la senal positiva o de primer plano del tejido (es decir, los nucleos). En algunos ejemplos, el proceso (500) se puede realizar a traves del modulo de segmentacion (106) (figura 1) u otro equipo informatico adecuado. En algunos ejemplos, se puede realizar el proceso (500) sobre una imagen de tejido que ya se ha procesado previamente de acuerdo con el proceso (200) (figuras 2A-2C) para eliminar las variaciones de intensidad no uniformes.
En la etapa (502), se recibe una imagen de tejido. En la etapa (504), la imagen se binariza utilizando umbralizacion de error mmimo. Por ejemplo, en algunos ejemplos, dicha umbralizacion de error mmimo puede incluir un enfoque basado en agrupacion que asuma que el histograma de la intensidad de senal en la imagen es bimodal para estimar los parametros de mezcla de Poisson (p. ej., asumiendo que una imagen de DAPI derivada del proceso (200) (figuras 2A-2C) tiene un histograma representativo que incluye una mezcla de dos distribuciones de Poisson). En algunos ejemplos, la etapa (504) puede incluir utilizar el procedimiento de umbralizacion de error mmimo descrito en Al-Kofahi y col., "Improved automatic detection and segmentation of cell nuclei in histopathology images," IEEE Transactions on Biomedical Engineering, 57(4), 2010, u otro proceso adecuado. En algunos ejemplos, el proceso (500) puede generar la identificacion de regiones congruentes (p. ej., de nucleos) asf como fragmentos (p. ej., de nucleos) que no pertenecen a ninguna region. En algunos ejemplos (p. ej., las realizaciones donde la imagen es una imagen de nucleos), se pueden eliminar los fragmentos mas pequenos, por ejemplo, de 30 pfxeles en un area. En algunos ejemplos, la imagen resultante luego se puede etiquetar utilizando un procedimiento de componentes reetiquetados. En algunas disposiciones descritas en la presente memoria descriptiva, el enfoque basado en agrupacion de la etapa (504) puede modelar el histograma de imagen normalizada de la imagen de tejido de la siguiente manera:
Figure imgf000013_0001
donde Pk es la probabilidad anterior del componente k.°, p(i | k) es una distribucion de Poisson con pk media y /max es el compartimento de intensidad maxima en el histograma. Para cualquier t umbral, los parametros de mezcla de Poisson se proporcionan mediante:
Figure imgf000013_0002
donde
Figure imgf000013_0003
En algunos ejemplos, el objetivo es encontrar un t* umbral que minimice la siguiente funcion de criterio de error, donde p es la intensidad media general de toda la imagen:
Figure imgf000013_0004
La figura 6A es otro diagrama de flujo (600) de etapas ilustrativas implicadas en la binarizacion de una imagen de tejido de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. El proceso (600) se puede utilizar, por ejemplo, para extraer de una imagen de citoplasma (p. ej., la imagen de CK18 derivada de la deteccion espectral) las partes de la imagen correspondientes a la senal positiva o de primer plano del tejido (es decir, el citoplasma). Por ejemplo, el proceso (600) puede adaptar el procesamiento realizado (p. ej., los parametros de un proceso de umbral de error mmimo) en funcion de la textura de fondo en la imagen (p. ej., textura de fondo no epitelial). De forma ventajosa, la flexibilidad de este enfoque puede conducir a una segmentacion precisa de imagenes con texturas de fondo ruidosas. En algunos ejemplos, el proceso (600) se puede realizar a traves del modulo de segmentacion (106) (figura 1) u otro equipo informatico adecuado. En algunos ejemplos, se puede realizar el proceso (600) sobre una imagen de tejido que ya se ha procesado previamente de acuerdo con el proceso (200) (figuras 2A-2C) para eliminar las variaciones de intensidad no uniformes.
En la etapa (602), se recibe una imagen de tejido (p. ej., imagen de CK18 de citoplasma obtenida mediante imagenologfa espectral). En la etapa (604), la imagen se somete a segmentacion inicial. En la etapa (606), se evalua la textura de fondo en la imagen. En la etapa (608), la imagen se somete a una segmentacion adicional o final.
La figura 6B es un diagrama de flujo de subetapas ilustrativas implicadas en la segmentacion inicial (604) dentro del proceso (600) (figura 6A) de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. En la etapa 610, se aplica un filtro (p. ej., un filtro mediano de 10 x 10 pfxeles de tamano promedio) sobre la imagen para suavizar el ruido de fondo, por ejemplo, debido a tincion residual conservando la estructura lfmite (p. ej., la estructura lfmite del citoplasma). Por ejemplo, en algunos ejemplos, el tamano del filtro de acuerdo con el proceso (600) puede variar, por ejemplo, entre 2 y 18, donde el valor mas pequeno del filtro mediano es de 2x2 y el mas grande es de 18x18. Con los valores de 2x2 a 18x18 en este ejemplo, el filtro mediano de tamano promedio puede ser de 10x10. En la etapa (612), la imagen resultante se binariza utilizando, por ejemplo, el procedimiento de umbral de error mmimo descrito anteriormente u otro proceso adecuado. El lfmite de umbral puede ser, por ejemplo, un umbral de 0,5*Otsu. Por ejemplo, el lfmite de umbral puede referirse al valor de pixel al cual el proceso convierte la imagen de intensidad en una imagen binaria. El umbral de 0,5*Otsu puede referirse a un valor lfmite determinado calculando la mitad del valor del umbral determinado a traves del procedimiento de Otsu, que elige un umbral para minimizar la varianza intraclase de los pfxeles negros y blancos. En la etapa (614), el complemento de la imagen binarizada luego se multiplica con una version normalizada de la imagen original para extraer el fondo no epitelial.
La figura 6C es un diagrama de flujo de subetapas ilustrativas implicadas en la evaluacion de la textura de fondo (606) dentro del proceso (600) (figura 6A) de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. Una imagen de fondo se puede generar al complementar (invertir) la mascara de citoplasma de la segmentacion inicial y multiplicar la imagen complementada por la imagen original (p. ej., CK18). En algunos ejemplos, y tal como se describio anteriormente, la segmentacion inicial puede utilizar un filtro mediano de tamano promedio de 10x10 y un nivel de umbral de 0,5*Otsu. Comenzando con la imagen de fondo en la etapa (616) (p. ej., una imagen de fondo no epitelial), en la etapa (618) se calcula una matriz de co-ocurrencia de niveles de grises de la imagen de fondo. En la etapa (620), se calculan caractensticas de textura (p. ej. contraste y energfa) de la matriz. La energfa puede definirse de la siguiente manera:
Figure imgf000014_0001
El contraste puede definirse de la siguiente manera:
Figure imgf000014_0002
Para estas ecuaciones, p(i,j) se obtiene de la matriz de co-ocurrencia de niveles de grises que calcula con que frecuencia un pixel con valor de niveles de grises (intensidad de escala de grises) i se produce horizontalmente adyacente a un pixel con el valor j. Algunos ejemplos adecuados de parametros de energfa y contraste se describen en Gonzalez R. C y Woods R. E., Digital Image Processing, segunda edicion, Prentice-Hall Inc, 2002, y en Mathworks' Matlab (http://www.mathworks.com/help/toolbox/images/ref/graycoprops.htm). En la etapa (622), las caractensticas se combinan para generar valores agregados de textura. En algunos ejemplos, el valor agregado se puede calcular como (1 - contraste)* energfa.
La figura 6D es un diagrama de flujo de subetapas ilustrativas implicadas en la segmentacion adicional o final (608) dentro del proceso (600) (figura 6A) de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. En las etapas (624) y (626), respectivamente, se seleccionan automaticamente el tamano de filtro mediano optimo y el punto Ifmite optimo para la binarizacion adicional o final (p. ej., utilizando el procedimiento de umbralizacion de error mmimo u otro proceso adecuado). En la etapa (628), se realiza una binarizacion adicional o final. En algunas disposiciones descritas en la presente memoria descriptiva, se selecciona un filtro de tamano mediano mas pequeno y/o un valor umbral de lfmite inferior para las imagenes que tienen menos ruido en el fondo. En algunos ejemplos, esta seleccion automatica se realiza de forma adaptativa en funcion del valor del producto de textura de fondo de cada imagen (p. ej., calculado como se indico anteriormente). Por ejemplo, un valor de producto de textura mas grande es tfpico para las imagenes con ruido de fondo limitado. En algunos ejemplos, el tamano de filtro mediano y el valor umbral lfmite se aumentan gradualmente para cubrir regiones adicionales (p. ej., dos mas) del valor de producto de textura a medida que aumenta el nivel de ruido de fondo. Estas (p. ej., tres) regiones juntas pueden cubrir el intervalo de ruido de textura de fondo completo. En un ejemplo, se puede proporcionar un valor de producto de textura correspondiente a las tres regiones (p. ej., definido como (1 - contraste)*energfa). En este ejemplo de valor de producto de textura, los valores de producto de textura siempre seran entre 0 y 1. En algunos ejemplos, se puede dividir en tres regiones, por ejemplo, (i) 0,00-0,33, (ii) 0,34-0,66 y (iii) 0,67-1,00. En algunos ejemplos, el lfmite umbral es 0,9 y el tamano de filtro mediano es 18 para la primera region de entre 0,0 y 0,33; el lfmite umbral es 0,55 y el tamano de filtro mediano es 15 para la segunda region de entre 0,34 y 0,66; y/o el ifmite umbral es 0,35 y el tamano de filtro mediano es 5 para la tercera region de entre 0,67 y 1,00. En algunas disposiciones descritas en la presente memoria descriptiva, las imagenes binarizadas se convierten en imagenes etiquetadas utilizando componentes conectados en la etapa (630).
La figura 6E es una comparacion de la segmentacion de adaptativa de citoplasma (imagenes a la izquierda) con la segmentacion no adaptativa (imagenes a la derecha) en imagenes con fondo ruidoso. Tal como se muestra, la estimacion de textura de fondo facilita la segmentacion de citoplasma mejorada, por ejemplo, mediante la seleccion automatica de parametros de filtro mediano y binarizacion.
Ejemplo: Segmentacion de imagenes de citoplasma ruidosas
Se aplico segmentacion de citoplasma epitelial adaptativa como se describio anteriormente en 1030 imagenes (de 383 pacientes) que teman fondo de bastante ruidoso a muy ruidoso. Una fraccion de las imagenes tema altos niveles de ruido en el fondo que hadan que la diferencia en el contraste entre el primer plano y el fondo sea muy baja. Estos fueron los casos mas diffciles. El proceso de estimacion de textura de fondo facilito la segmentacion de citoplasma mejorada mediante la seleccion automatica de parametros de nivel umbral de binarizacion y tamano de filtro mediano. Por ende, la segmentacion se ajusto para adaptarla a cada imagen en funcion del nivel cuantitativo del ruido de fondo.
La figura 7 es un diagrama de flujo (700) de etapas ilustrativas implicadas en la separacion de componentes en contacto o conectados de senal positiva o de primer plano en una imagen de tejido (p. ej., imagen de DApI de nucleos y/o imagen de CK18 de citoplasma derivada de la deteccion espectral). En algunas disposiciones descritas en la presente memoria descriptiva, el proceso (700) se puede realizar a traves del modulo de segmentacion (106) (figura 1) u otro equipo informatico adecuado. En algunos ejemplos, se puede realizar el proceso (700) en una imagen de tejido que ya se ha procesado previamente de acuerdo con el proceso (200) (figuras 2A-2C) para eliminar las variaciones de intensidad no uniformes, y/o binarizado de acuerdo con el proceso (500) (figura 5) o el proceso (600) (figuras 6A-6D) para extraer de una imagen las partes de la imagen correspondientes a la senal positiva o de primer plano del tejido.
En algunas disposiciones descritas en la presente memoria descriptiva, el proceso (700) puede detectar un punto semilla para multiples (p. ej., todos) componentes (p. ej., nucleos o celula) dentro de una imagen. En la etapa (702), se recibe una imagen de tejido. En la etapa (704), se realiza deteccion de semillas en la imagen para separar componentes en contacto o conectados en la imagen.
En algunas disposiciones descritas en la presente memoria descriptiva, la deteccion de semillas en la etapa (704) se puede realizar utilizando un filtro Laplaciano de Gauss multiescala (LoG) (espedficamente, la aproximacion de Diferencias de Gaussianas (DoG) de LoG). En algunos ejemplos, el uso del filtro LoG (o DoG) puede basarse en la idea de que la mayona de los objetos de nucleos y citoplasma tienen un aspecto similar a una region. La escala del filtro (usualmente la desviacion estandar de su kernel Gaussiano) puede estar directamente relacionada con el tamano de la region. Por ende, la respuesta maxima de LoG en el centro de la region puede producirse cuando se utiliza un filtro LoG con un tamano que coincide con el tamano de la region. En algunos ejemplos, es posible que sea necesario el uso de multiples escalas de LoG por la presencia de multiples tamanos de objetos de nucleos y citoplasma en las imagenes dentro de una serie de datos en consideracion. En algunos ejemplos, la aproximacion de Diferencias de Gaussianas (DoG) del LoG multiescala se puede utilizar debido a su facilidad de implementacion y el hecho de que el procedimiento DoG no requiere normalizacion a traves de la escala. En algunas disposiciones descritas en la presente memoria descriptiva, dicha deteccion de semillas se puede realizar utilizando el proceso descrito en Al-Kofahi y col., "Improved automatic detection and segmentation of cell nuclei in histopathology images," IEEE Transactions on Biomedical Engineering, 57(4), 2010, u otro proceso adecuado. Vease tambien Al-Kofahi, Algorithms and Framework for Cellular-Scale Mapping, Doctoral Desertation, Renssealaer Polytechnic Institute, Troy, Nueva York, 2009.
En algunos ejemplos, la deteccion de semillas en la imagen se puede realizar de la siguiente manera: asumiendo que Lnorm (x,y,d) es LoG normalizado a escala en la escala a, en terminos de una diferencia de Gaussianas, se deduce que:
Figure imgf000016_0001
donde G(x,y,d) es un kernel Gaussiano con desviacion estandar a. En algunos ejemplos, para detectar los puntos semillas, la imagen I(x, y) primero puede ser convuelta con multiples LoG normalizados a escala (utilizando la aproximacion de DoG) a diferentes escalas. La respuesta maxima de LoG en cada puntos se puede establecer al maximo a traves de las escalas como
Figure imgf000016_0002
donde * es la operacion de convolucion y a son los intervalos de la escala. La imagen resultante R(x, y) denominada imagen de respuesta de LoG puede considerarse como una superficie topografica en la cual cada region (p. ej., nucleos o citoplasma) esta representada por una region similar a una Gaussiana con un maximo local. En algunos ejemplos, los puntos semillas pueden detectarse mediante la identificacion de estos puntos maximos locales. En algunos ejemplos, se puede utilizar un lfmite de tamano mmimo para limitar el tamano de la region identificada. El tamano del area (casilla de busqueda) puede depender de un parametro denominado resolucion de agrupacion r que, a su vez, depende de la escala minima.
En algunos ejemplos, el parametro de resolucion de agrupacion se puede utilizar posteriormente para realizar la agrupacion de maximos locales. Una ventaja de utilizar el procedimiento LoG multiescala para la deteccion de semillas es que ademas de producir puntos semillas, el procedimiento proporciona la imagen de respuesta de LoG R(x, y). En algunos ejemplos, la imagen de respuesta de LoG y las semillas detectadas se pueden combinar con un enfoque basado en agrupacion para separar las celulas en contacto. En algunos ejemplos, este proceso puede no ser seguido por el refinamiento de segmentacion que utiliza un enfoque basado en recortes graficos. Esto se debe a que el presente solicitante ha determinado que los resultados producidos por la aplicacion de un enfoque de agrupacion de maximos locales son adecuados, lo que hace que el refinamiento de segmentacion sea innecesario. Como puede deducirse de su nombre, el procedimiento de agrupacion agrupa puntos en la imagen alrededor de sus maximos locales utilizando un enfoque de crecimiento de region graduado. A medida que se aplica la agrupacion a la imagen de respuesta y los maximos locales de la imagen tambien son los puntos semillas, el procedimiento de agrupacion se degenera en una tarea simple de asignar puntos de imagen en puntos semillas.
En algunos ejemplos, el algoritmo de agrupacion de maximos locales utiliza una casilla de deslizamiento que tiene un tamano definido por un parametro de resolucion donde cada punto en la imagen primero es asignado a su maximo local dentro de esa casilla. En iteraciones posteriores, esa asignacion puede propagarse hasta que cada punto de primer plano sea asignado a un punto semilla. En algunos ejemplos, puede haber dos ventajas de este procedimiento de agrupacion sobre, por ejemplo, el uso de un procedimiento de transformacion divisoria. Primero, este procedimiento puede tener un parametro de resolucion de agrupacion que controle el menor tamano de grupo posible, lo que permite evitar producir grupos o fragmentos muy pequenos. Segundo, este procedimiento se puede aplicar solamente en los puntos de primer plano (o se puede restringir a una parte limitada de la imagen), lo que lo hace informaticamente atractivo y flexible.
Procesamiento posterior: Eliminacion y reclasificacion de artefactos cerca de los limites
La figura 8 es un diagrama de flujo (800) de etapas ilustrativas implicadas en la eliminacion de artefactos y/u otros fragmentos o errores no deseados en una imagen segmentada de tejido (p. ej., imagen de DAPI de nucleos o imagen de CK18 de citoplasma) de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. En algunas disposiciones descritas en la presente memoria descriptiva, el proceso (800) se puede realizar a traves del modulo de procesamiento posterior (108) (figura 1) u otro equipo informatico adecuado. En algunos ejemplos, se puede realizar el proceso (800) en una imagen de tejido que ya se ha procesado previamente de acuerdo con el proceso (200) (figuras 2A-2C) para eliminar las variaciones de intensidad no uniformes, y/o binarizado de acuerdo con el proceso (500) (figura 5) o el proceso (600) (figuras 6A-6D) para extraer de una imagen las partes de la imagen correspondientes a la senal positiva o de primer plano del tejido, y/o procesado de acuerdo con el proceso (700) (figura 7) para separar los componentes en contacto o conectados de la senal positiva o de primer plano en la imagen del tejido.
El proceso (800) puede incluir utilizar una primera imagen segmentada (p. ej., segmentacion de nucleos) como una plantilla para rellenar huecos en una segunda imagen segmentada (p. ej., segmentacion de citoplasma). Por ejemplo, en algunas disposiciones descritas en la presente memoria descriptiva, cuando la primera y la segunda imagenes corresponden a una imagen de nucleos (DAPI) y una imagen de citoplasma (CK18), respectivamente, el proceso (800) puede implicar rellenar los huecos en la segunda imagen dejada por la tincion de DAPI. Por ejemplo, aqm, la primera y la segunda imagenes pueden ser la salida de un proceso de segmentacion de imagenes de nucleos (p. ej., DAPI) ("mascara de nucleos") y la salida de un proceso de segmentacion de imagenes de citoplasma (p. ej., CKl8) ("mascara de citoplasma"). Dos tipos de huecos pueden ser comunes en la mascara de citoplasma. El primer tipo representa objetos de nucleos que se pasan por alto durante una etapa de umbralizacion inicial (p. ej., la etapa (504), figura 5) debido a que son muy tenues y estan cerca del nivel de intensidad del fondo. El segundo tipo representa huecos de lumen dentro de un objeto glandular. Los huecos debido al lumen normalmente son mas tenues y mas grandes que los huecos nucleares. En algunos ejemplos, el proceso de rellenado de huecos se utiliza para rellenar el primer tipo de huecos pero no el segundo tipo.
En la etapa (802), los pequenos espacios dentro de la imagen de citoplasma o en su lfmite se cierran mediante la aplicacion, por ejemplo, de una operacion de cierre morfologico a escala de grises. Un ejemplo adecuado de una operacion de cierre morfologico a escala de grises de acuerdo con algunas realizaciones de la presente invencion se describe en Gonzalez R. C y Woods R. E., Digital Image Processing, segunda edicion, Prentice-Hall Inc, 2002. En la etapa (804), esto puede ir seguido del rellenado de multiples (p. ej., todos) huecos de citoplasma, por ejemplo, que tienen un tamano inferior o igual a un tamano de nucleo promedio para la imagen. En la etapa (806), tambien se pueden rellenar los huecos mas pequenos, por ejemplo, que cuatro veces el tamano de nucleo promedio y/o rellenos al menos el 50 % por un solo nucleo. En algunos ejemplos, los huecos restantes se pueden considerar (p. ej., etiquetar o clasificar a traves de uno o mas ordenadores) huecos de lumen. Alternativa o adicionalmente, en algunos ejemplos, los semihuecos que tocan un borde de una mascara no tumoral y estan completamente encerrados por un objeto de citoplasma se pueden considerar (p. ej., etiquetar o clasificar a traves de uno o mas ordenadores) huecos de lumen.
La figura 9 es otro diagrama de flujo (900) de etapas ilustrativas implicadas en la eliminacion de artefactos y/u otros fragmentos no deseados en una imagen segmentada de tejido (p. ej., imagen de DAPI de nucleos) de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. En algunas disposiciones descritas en la presente memoria descriptiva, el proceso (900) se puede realizar a traves del modulo de procesamiento posterior (108) (figura 1) u otro equipo informatico adecuado. En algunos ejemplos, se puede realizar el proceso (900) en una imagen de tejido que ya se ha procesado previamente de acuerdo con el proceso (200) (figuras 2A-2C) para eliminar las variaciones de intensidad no uniformes, y/o binarizado de acuerdo con el proceso (500) (figura 5) o el proceso (600) (figuras 6A-6D) para extraer de una imagen las partes de la imagen correspondientes a la senal positiva o de primer plano del tejido, y/o procesado de acuerdo con el proceso (700) (figura 7) para separar los componentes en contacto o conectados de la senal positiva o de primer plano en la imagen del tejido, y/o procesado de acuerdo con el proceso (800) (figura 8) anterior.
En algunas disposiciones descritas en la presente memoria descriptiva, el proceso (900) puede incluir recibir una imagen de nucleos en la etapa (902) y detectar y eliminar artefactos de lumen en la etapa (904) para producir una imagen de nucleos de salida. En algunos ejemplos, al menos una parte (p. ej., la mayona) de los artefactos no deseados pueden haber sido localizados dentro de huecos de lumen extrafdos anteriormente durante la generacion de la mascara de citoplasma (p. ej., de acuerdo con el proceso (800), figura 8). Sin embargo, es posible que no todos los huecos de lumen extrafdos en la etapa anterior hayan sido un hueco de lumen real. Por ejemplo, la sobreestimacion de la senal de CK18 puede producir la combinacion de glandulas vecinas. Como resultado, los espacios entre esas glandulas pueden clasificarse erroneamente como huecos de lumen. Ademas, ocasionalmente, puede haber nucleos presentes en los huecos de lumen. Por ende, no todos los objetos presentes en el hueco de lumen son un artefacto. Por dichos motivos, en algunas disposiciones descritas en la presente memoria descriptiva, el proceso (900) puede implicar determinar diferentes caractensticas y mediciones de cada objeto de DAPI (y componente conectado) dentro del lumen para distinguir los artefactos de los nucleos estromales. En algunas disposiciones descritas en la presente memoria descriptiva, un problema de clasificacion como este se resuelve mediante el aprendizaje supervisado con ejemplos. Esto puede implicar la derivacion de multiples modelos basados en caractensticas de los artefactos a partir de la examinacion de una serie de ejemplos. Los modelos aprendidos luego pueden utilizarse para identificar artefactos de lumen en la etapa (904). En la figura 10, se muestran ejemplos de artefactos de lumen que pueden eliminarse durante el procesamiento.
En algunas disposiciones descritas en la presente memoria descriptiva, la etapa (904) puede implicar el uso (p. ej., a traves de uno o mas ordenadores) de un sistema basado en reglas que considere las caractensticas morfologicas y la textura de los objetos y/o sus componentes conectados para determinar si son posibles artefactos. Las caractensticas de componentes conectados pueden incluir, por ejemplo, uno o mas (p. ej., todos) del tamano del componente conectado Zc y su desviacion promedio y estandar de intensidades Ac y Sc respectivamente. Tal como las caractensticas basadas en objetos (nucleos), pueden incluir uno o mas (p. ej., todos) de tamano de nucleo, excentricidad Cn t elongacion En. En algunos ejemplos, asumiendo que Pn es el porcentaje del area del objeto dentro del lumen, Zn es el tamano de nucleo promedio, AVn es el promedio de las intensidades de nucleos promedio y STn es sus desviaciones estandar, un clasificador basado en reglas se puede definir de la siguiente manera:
Figure imgf000018_0001
La figura 11A es un diagrama de flujo de etapas ilustrativas implicadas en la clasificacion de nucleos en nucleos epiteliales y estromales de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. En algunos ejemplos, se puede aplicar un procedimiento geometrico basado en proporciones de superposicion en un lfmite de citoplasma para clasificar los nucleos en categonas epiteliales y estromales.
En la etapa (1102), se puede aplicar un filtro (p. ej., filtro de componente conectado) a la salida de una segmentacion de nucleos. En la etapa (1104), se puede crear una mascara (p. ej., mascara binaria) a partir de la salida de una segmentacion de citoplasma. En la etapa (1106), se puede crear una imagen de complemento a partir de la mascara binaria de la segmentacion de citoplasma para crear una nueva imagen. Con respecto a la imagen inicial, se puede generar un complemento de imagen, por ejemplo, mediante el reemplazo de todos los valores de pfxeles altos en la imagen inicial con valores de pfxeles bajos, y el reemplazo de todos los valores de pfxeles bajos en la imagen inicial con valores de pfxeles altos, lo cual tambien se puede denominar inversion de imagen.
En la etapa (1108), se puede aplicar una operacion (p. ej., operacion morfologica binaria) tal como erosion binaria, dilatacion binaria, cierre binario o apertura binaria en la mascara binaria de la salida de segmentacion de citoplasma (p. ej., erosion de la mascara por 2 pfxeles) para crear una mascara epitelial. En la etapa (1110), se puede aplicar una operacion (p. ej., una operacion morfologica binaria) tal como erosion binaria, dilatacion binaria, cierre binario o apertura binaria en el complemento de la salida de segmentacion de citoplasma binarizado (p. ej., erosion de la mascara por 5 pfxeles) para crear una mascara estromal. En la etapa (1112), para cada objeto de nucleo en la imagen de salida de segmentacion de nucleos, se puede determinar su superposicion con las mascaras epitelial y/o estromal. En algunos ejemplos, si la superposicion con la mascara epitelial es mayor que una fraccion determinada (p. ej., una fraccion predeterminada y fija, p. ej., 0,6), el objeto de nucleo se puede etiquetar como un objeto epitelial. En algunos ejemplos, si la superposicion con la mascara estromal es mayor que una fraccion determinada (p. ej., una fraccion predeterminada y fija que puede ser igual o diferente de la fraccion anterior, p. ej., 0,5), el objeto de nucleo se puede etiquetar como un objeto estromal. En algunos ejemplos, si los nucleos no se etiquetan como epiteliales ni estromales (p. ej., debido a una superposicion insuficiente), se pueden etiquetar como no clasificados.
En la etapa (1114), para cada nucleo etiquetado como objeto epitelial y/o estromal, se puede determinar si la una o mas caractensticas de forma morfologicas (p. ej., la excentricidad, la circularidad, la redondez, etc.) y/o la una o mas caractensticas de textura (p. ej., la energfa, la desviacion estandar de valores en escala de grises, etc.) del nucleo cumplen uno o mas umbrales (p. ej., confirmar que todos los nucleos etiquetados como nucleos estromales tienen una excentricidad mayor que 0,5). En algunos ejemplos, la etapa (1114) puede ser opcional y se puede omitir del proceso de la figura 11A.
La figura 11B muestra ejemplos de clasificaciones de Kmites de nucleos de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. En la imagen original, los nucleos epiteliales teman un lfmite y una tonalidad azules, los nucleos estromales teman un lfmite y una tonalidad rojos y el citoplasma tema un lfmite y una tonalidad verdes. Sin embargo, para el caso de reproduccion, estas imagenes se han incluido sin color en esta aplicacion.
La figura 11C es un diagrama de flujo de etapas ilustrativas implicadas en el ajuste de lfmites de objetos de citoplasma dentro de una imagen de tejido para evitar la division de los nucleos de los bordes de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. En la etapa (1116), se puede recibir una imagen derivada de la segmentacion de citoplasma. En la etapa (1118), se puede recibir una imagen derivada de la segmentacion de nucleos. En la etapa (1120), se puede crear una mascara (p. ej., mascara binaria) a partir de la imagen derivada de la segmentacion de citoplasma. En la etapa (1122), para cada objeto de nucleo en la imagen derivada de la segmentacion de nucleos, se puede determinar su superposicion con la mascara de citoplasma. En algunos ejemplos, si la superposicion con la mascara de citoplasma es mayor que una fraccion determinada (p. ej., una fraccion predeterminada y fija, p. ej., 0,1), el objeto de nucleo se puede etiquetar como un objeto en contacto. En la etapa (1124), se puede crear una imagen de objeto en contacto a partir de todos los objetos en contacto. En la etapa (1126), se puede realizar una operacion (p. ej., una operacion AND logica binaria) para combinar la imagen de objeto en contacto con la mascara de citoplasma. En la etapa (1128), se puede realizar una operacion (p. ej., una operacion morfologica binaria) tal como erosion binaria, dilatacion binaria o cierre binario (p. ej., realizar cierre binario con un tamano de pixel 5) en la imagen de combinacion para obtener una imagen de salida.
La figura 11D es un diagrama de flujo de etapas ilustrativas implicadas en el ajuste de los lfmites de objetos de citoplasma que tienen un aspecto festoneado, por ejemplo, provocado por la tincion debil alrededor de los nucleos a lo largo del lfmite de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. En la etapa (1130), se puede recibir una imagen derivada de la segmentacion de citoplasma. En la etapa (1132), se puede recibir una imagen derivada de la segmentacion de nucleos. En la etapa (1134), se puede crear una mascara (p. ej., mascara binaria) a partir de la imagen derivada de la segmentacion de citoplasma. En la etapa (1136), se puede realizar una operacion (p. ej., una operacion morfologica binaria) tal como erosion binaria, dilatacion binaria o cierre binario (p. ej., realizar cierre binario con un tamano de pixel 10) en la imagen binaria. En la etapa (1138), para cada objeto de nucleo en la imagen derivada de la segmentacion de nucleos, se puede determinar su superposicion con la mascara de citoplasma modificada derivada de la etapa (1136). En algunos ejemplos, si la superposicion con la mascara de citoplasma es mayor que una fraccion determinada (p. ej., una fraccion predeterminada y fija, p. ej., 0,1), el objeto de nucleo se puede etiquetar como un objeto en contacto. En la etapa (1140), se puede crear una imagen de objeto en contacto a partir de todos los objetos en contacto. En la etapa (1142), se puede realizar una operacion (p. ej., una operacion AND binaria) para combinar la imagen de objeto en contacto con la mascara de citoplasma. En la etapa (1144), se puede realizar una operacion (p. ej., una operacion morfologica binaria) tal como erosion binaria, dilatacion binaria o cierre binario (p. ej., realizar cierre binario con un tamano de pixel 5) en la imagen de combinacion para obtener una imagen de salida.
Ejemplo: segmentacion celular integrada de tejido glandular de prostata
981 secciones 5 pM de tejidos de prostata humana incrustados en parafina y fijados con formalina se rehidrataron y tineron utilizando DAPI y CK18 nucleares. Las imagenes de emision de DAPI y CK18 se capturaron utilizando una camara multiespectral Nuance con una resolucion de 20X por 10X. Un patologo desenmascaro digitalmente las regiones del tejido no cancerosas de las imagenes de DAPI-CK18. Como resultado, habfa tres niveles de grises presentes en las imagenes: el area enmascarada (negro), el fondo del tejido (gris oscuro) y el primer plano del tejido (regiones brillantes que representan los nucleos o el citoplasma). Se crearon datos reales a partir de 48 imagenes de DAPI-CK18 utilizando una herramienta de etiquetado semiautomatico y utilizando el proceso descrito en la figura 23D. Dos patologos superiores revisaron los datos reales generados.
Se midio el rendimiento de la segmentacion utilizando los parametros Dice y Jaccard estandar (mas abajo) y tambien utilizando "promedio de Dice" y "promedio de Jaccard", que son extensiones de los parametros tradicionales para sistemas de multiples objetos y multiples pinzamientos (tal como imagenes celulares).
■Ar\B
Indice Dice 2(.-tn j?) Indice Jaccard ■
A + B (A ,j E)
La precision de la segmentacion general para el procesamiento y segmentacion de imagenes de acuerdo con algunas realizaciones establecidas en la presente memoria descriptiva supero el 94 % utilizando los cuatro parametros. El proceso de eliminacion de artefactos se evaluo utilizando 981 imagenes de tejidos de cancer de prostata reales. Para estimar la eficacia del proceso, se le pidio a personal entrenado que calificara la condicion general de los artefactos de las imagenes resultantes como "satisfactoria" o "no satisfactoria". La eliminacion de artefactos produjo una reduccion drastica en las imagenes con artefactos visibles. Solamente el 10 % de las imagenes fueron calificadas como "no satisfactorias" en comparacion, por ejemplo, con el 37 % de imagenes del proceso descrito en el artfculo de Al-Kofahi incorporado anteriormente, que no tiene el proceso de eliminacion de artefactos de los Solicitantes. De los experimentos se observo que la mayor parte de la mejora en el rendimiento fue el resultado de la introduccion de las etapas de normalizacion de intensidad no uniforme inicial y de eliminacion de artefactos final tal como se describe en la presente memoria descriptiva.
Separacion de unidades epiteliales
Las figuras 12A-D son diagramas de flujo de etapas ilustrativas implicadas en la segmentacion de una imagen de tejido para identificar, por ejemplo, unidades epiteliales. En algunos ejemplos, estos procesos reciben como entrada, por ejemplo, dos imagenes de biomarcadores del mismo tejido: una imagen de CK18 que muestra el citoplasma epitelial y una imagen de DAPI que muestra los nucleos epiteliales y estromales. En algunos ejemplos, estas imagenes se segmentan previamente, utilizando los procedimientos de segmentacion descritos anteriormente para producir mascaras etiquetadas del area epitelial conectada. En algunas realizaciones, la separacion de unidades epiteliales se realiza utilizando los procesos descritos mas abajo que tienen efectos complementarios, y entre los dos capturan la mayona o todas las separaciones. De forma ventajosa, algunas disposiciones descritas en la presente memoria descriptiva separan unidades epiteliales en contacto, pero no fusionadas y/o agrupan nucleos epiteliales en anillos discretos que no dependen de los lumenes o la segmentacion de lumenes inicial.
La figura 12A es un diagrama de flujo de etapas ilustrativas implicadas en la separacion de unidades epiteliales de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. En algunos ejemplos, este proceso utiliza inicializacion de un algoritmo divisorio de los centros interiores o marcadores. Un centro marcador puede ser una estructura binaria obtenida mediante la dilatacion, por ejemplo, de una mascara de nucleos de DAPI epiteliales segmentada y complementando la mascara dilatada. En algunas disposiciones descritas en la presente memoria descriptiva, los procesos de una o mas de las figuras 12A-D se pueden realizar en una imagen de tejido que ya se ha procesado previamente de acuerdo con el proceso (200) (figuras 2A-2C) para eliminar las variaciones de intensidad no uniformes, y/o binarizado de acuerdo con el proceso (500) (figura 5) o el proceso (600) (figuras 6A-6D) para extraer de una imagen las partes de la imagen correspondientes a la senal positiva o de primer plano del tejido, y/o procesado de acuerdo con el proceso (700) (figura 7) para separar los componentes en contacto o conectados de la senal positiva o de primer plano en la imagen del tejido, y/o procesado de acuerdo con los procesos (800) (figura 8) y/o (900) (figura 9) anteriores.
En la etapa (1202), se recibe una mascara binaria de nucleos segmentada (p. ej., DAPI). En la etapa (1204), la mascara binaria de nucleos segmentada se dilata de forma variable utilizando dilatacion morfologica. En la etapa (1206), se genera el complemento de la mascara dilatada. En la etapa (1208), se extraen los centros marcadores del complemento de la mascara dilatada. En la etapa (1210), utilizando los centros marcadores, una imagen de citoplasma suavizada (p. ej., CK18) (p. ej., generada al suavizar la imagen de CK18 utilizando un filtro de paso bajo gaussiano y un filtro de promediacion) y/o una mascara binaria de citoplasma segmentada (p. ej., CK18) como entrada, se genera una nueva imagen de valles y picos de intensidad (mmimos y maximos) y se aplica una transformacion divisoria sobre la imagen nueva para obtener lmeas divisorias de separaciones. En la etapa (1212), se binariza la imagen divisoria. En la etapa (1214), se combinan la mascara binaria de citoplasma segmentada (p. ej., CK18) y la imagen binarizada divisoria. En la etapa (1216), las unidades epiteliales faltantes de la mascara binaria de citoplasma segmentada (p. ej., CK18) se buscan y se retienen utilizando una o mas operaciones logicas entre la imagen divisoria binarizada y la mascara binaria de citoplasma segmentada (p. ej., CK18). Por ejemplo, en algunos ejemplos, primero se puede utilizar una operacion OR logica para combinar todas las separaciones que estan marcadas para la eliminacion, y se pueden combinar la imagen basada en divisiones binarizadas y la mascara de citoplasma segmentada. En la etapa (1218), se etiqueta la imagen (p. ej., se etiqueta utilizando componentes conectados) y se extraen los lfmites y/o regiones de separacion de la imagen etiquetada, por ejemplo, mediante la sustraccion de las separaciones marcadas para la eliminacion de las separaciones iniciales obtenidas de la segmentacion divisoria.
La figura 12B es un diagrama de flujo de etapas ilustrativas implicadas en el refinamiento de separacion de unidades epiteliales de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. En algunos ejemplos, este proceso utiliza inicializacion de un algoritmo divisorio de los centros interiores o marcadores. En algunos ejemplos, el procedo de la figura 12B elimina las separaciones falsas utilizando criterios de imagen tales como, por ejemplo, los criterios derivados, de desviacion estandar, de intensidad media y/o de contacto de marcadores.
En las etapas (1220) y (1222), respectivamente, se calcula una intensidad (p. ej., intensidad media) y su desviacion estandar (p. ej., la desviacion estandar de la intensidad media) en separaciones individuals de una imagen de intensidad de citoplasma (p. ej., CK18) (p. ej., la imagen de CK18 original o procesada previamente). En la etapa (1224), se calcula la desviacion estandar, por ejemplo, de la intensidad media en separaciones individuales de un gradiente de la imagen de citoplasma (p. ej., c K18). En la etapa (1226), se identifican las separaciones que tocan cualquier centro marcador de nucleo (p. ej., DAPI). En la etapa (1228), en funcion de un criterio de umbral (p. ej., obtenido mediante la division del area de lumen por el area de citoplasma segmentada), se eliminan lfmites de separacion potencialmente falsa (p. ej., estos lfmites de separacion pueden no estar en los espacios de citoplasma epitelial). En la etapa (1230), se extraen lfmites de separacion final o refinada.
La figura 12C es un diagrama de flujo de etapas ilustrativas implicadas en mejorar rebordes en imagenes de tejidos de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. Por ejemplo, en algunos ejemplos, se pueden mejorar los rebordes lineales de bajo contraste y oscuros formados por las membranas de citoplasma visibles alrededor del lfmite exterior de las areas de citoplasma en contacto o casi en contacto (p. ej., CK18). En algunas disposiciones descritas en la presente memoria descriptiva, dicho proceso puede incluir el uso de un proceso de marcha rapida para propagar el borde de citoplasma inicial (p. ej., CK18). Un ejemplo de un proceso de marcha rapida adecuado de acuerdo con algunas realizaciones de la presente invencion se describen en J.A. Sethian, "Level Set Methods and Fast Marching Methods," Cambridge University Press, 1999. La imagen resultante, una representacion de un mapa de distancias, puede incluir valores altos lejos de los bordes y valores bajos a lo largo de los bordes alcanzables para la propagacion rapida. En algunos ejemplos, la implementacion de dicho proceso puede ser en C++.
En la etapa (1232), se puede crear una imagen de velocidad, que incluya la resistencia del reborde y el borde CK18. Por ejemplo, en algunos ejemplos, la imagen de velocidad puede tener valores en el intervalo 0-1, donde la velocidad de propagacion es proporcional al nivel de gris, y la distancia (diferencia entre pfxeles de salida de marcha rapida vecinos) es proporcional a (1/nivel de gris). La imagen de velocidad puede estar disenada para promover la propagacion a lo largo de los valles oscuros entre las unidades epiteliales brillantes y tambien a lo largo de la parte exterior (lado oscuro) de los bordes brillantes de las unidades epiteliales. En algunos ejemplos, la velocidad puede ser una imagen de resistencia de bordes redimensionada, definida de la siguiente manera: (0,08 nivel_gris_originalA2)/(lado oscuro de bordes brillantes valles oscuros), donde el lado oscuro de los bordes brillantes = Dilatacion[CKimagen, 2] - CKImagen, y los valles oscuros = SombrerodeFondo[CKimagen, 2]. En la etapa (1234), se realiza un procedimiento de propagacion de resistencia de bordes de marcha rapida utilizando la imagen de velocidad, inicializado en los bordes de CK18, para crear un mapa de distancias, que luego se invierte en la etapa (1236). En la etapa (1238), se realiza una segmentacion divisoria del mapa de distancias invertido y en la etapa (1240) se extraen las separaciones divisorias.
La figura 13 muestra imagenes que demuestran la separacion de las unidades epiteliales en contacto de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. La imagen (a) es una imagen de CK18 de entrada. La imagen (b) es una imagen de segmentacion de CK18. La imagen (c) es una imagen de resistencia de bordes y rebordes combinados. La imagen (d) muestra los resultados de la marcha rapida inicializada en la imagen (b) que se propaga con la velocidad desde (c). La imagen (e) muestra la separacion divisoria. La imagen (f) muestra un ejemplo mas grande con los bordes de algunos de los segmentos recientemente identificados con un drculo. En la imagen original (f), los bordes de los segmentos nuevos estaban superpuestos en rojo. En la presente, la imagen (f) se presenta en negro y blanco para facilitar la reproduccion.
En algunas disposiciones descritas en la presente memoria descriptiva, los procesos para separar las unidades epiteliales (p. ej., las glandulas en contacto) pueden ser iguales o similares para diversos tipos diferentes de imagenes de tejidos, incluidas, por ejemplo, imagenes H&E, imagenes IF, imagenes IHC y/u otras imagenes derivadas de otros tipos de tincion. Por ejemplo, para una imagen H&E, antes de la separacion, se puede utilizar un proceso de segmento de imagenes H&E para segmentar la imagen H&E. Una vez que se completa la segmentacion, el resto de las etapas de procesamiento pueden ser iguales a las utilizadas, por ejemplo, para la separacion de unidades epiteliales en imagenes IF.
Generacion de lumen
Las figuras 12D-E son diagramas de flujo de etapas ilustrativas implicadas en la generacion de lumen (p. ej., la creacion de una imagen de mascara de lumen) de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. En algunos ejemplos, se puede utilizar una imagen de mascara de lumen generada de acuerdo con los procesos de la figura 12D y/o la figura 12E para facilitar el procesamiento adicional de las imagenes de tejidos, por ejemplo, despues de la segmentacion de imagenes de nucleo y citoplasma como se describio anteriormente en conexion con el proceso (500) (figura 5) y/o el proceso (600) (figura 6A). Por ejemplo, las areas del fondo en la mascara de citoplasma obtenida de la segmentacion de citoplasma son lumen o estroma. La clasificacion correcta de regiones de lumen y estroma puede ser importante para construir caracteristicas morfologicas predictivas y/o etapas de procesamiento de imagenes de tejidos posteriores que incluyan, por ejemplo, separar las unidades epiteliales de acuerdo con los procesos de las figuras 12A-C.
En algunas disposiciones descritas en la presente memoria descriptiva, se puede generar una imagen de mascara de lumenes inicial y una imagen de mascara de lumenes intermedia a partir de las imagenes de mascara de citoplasma y nucleo generadas, por ejemplo, a traves del proceso (500) (figura 5) y/o el proceso (600) (figura 6A). Por ejemplo, en algunos ejemplos, la mascara de lumenes inicial puede generarse mediante la extraccion de huecos en la mascara de citoplasma, la seleccion de regiones con forma compacta (p. ej., regiones con proporcion de aspecto inferior a 0,10) y/o la determinacion de que hay muy pocos nucleos internos (p. ej., ninguno o menos de 5 nucleos internos). Aunque en este proceso inicial se pueden pasar por algo pocos lumenes, muchos de ellos se pueden clasificar erroneamente. En algunos ejemplos, la imagen de mascara de lumen intermedia se puede utilizar como una entrada de uno o mas de los procesos, por ejemplo, de las figuras 12A, 12B y/o 12C (p. ej., una entrada de la etapa 1232) para separar la mascara de citoplasma en unidades epiteliales individuales. En algunos ejemplos, se puede lograr una generacion de lumen final mediante la combinacion de los lumenes iniciales y las separaciones de unidades epiteliales para formar una mascara de lumen combinada.
Con referencia a la figura 12D (p. ej., generacion de mascara de lumenes intermedia), en la etapa (1242), que comienza con una mascara de citoplasma segmentada (p. ej., CK18), se pueden realizar rellenado de imagen, operaciones logicas y/o reconstruccion morfologica para obtener un conjunto inicial de lumenes. El rellenado de imagen puede incluir rellenar uno o mas (p. ej., todos) huecos (p. ej., lumenes u otros huecos en el estroma). Esto puede ser la primera etapa hacia la extraccion de lumenes de la mascara de citoplasma. Las operaciones logicas pueden incluir, por ejemplo, una operacion logica XOR de la mascara de citoplasma recientemente rellena y la original, aunque en otros ejemplos tambien se pueden utilizar otras operaciones logicas. La reconstruccion morfologica puede incluir, por ejemplo, la dilatacion repetida realizada entre la imagen de salida de XOR y la imagen rellena para extraer los lumenes u otros huecos en el estroma.
En la etapa (1244), para cada lumen, se miden una o mas estadfsticas de forma que incluyen, por ejemplo, uno o mas (p. ej., todos) del penmetro, el area, la excentricidad y la redondez y la medida del lumen. En la etapa (1246), se determina un umbral de forma. Por ejemplo, una estadfstica de forma (p. ej., la excentricidad) se puede multiplicar con un complemento de una o mas estadfsticas adicionales (p. ej., la redondez, el penmetro, el area y/o la medida) para obtener un umbral de forma que tenga un intervalo, por ejemplo, que solo pueda ser de entre 0-1. Por ejemplo, en algunos ejemplos, el parametro de umbral puede ser:
Umbral de forma = excentricidad*( L-redondez)*( l-penmetro)*(l-area)*(l-extension)
En la etapa (1248), se retienen los lumenes que son inferiores o iguales, por ejemplo, a un valor determinado del parametro de umbral (p. ej., valor de umbral de forma 0,15), y los lumenes retenidos constituyen los lumenes basados en forma identificados.
Con referencia a la figura 12E (p. ej., clasificacion de lumen exhaustiva posterior o final lograda mediante el refinamiento iterativo en una o mas etapas, p. ej., 4 etapas), en la etapa (1250) se realiza una separacion de unidades epiteliales (p. ej., de acuerdo con uno o mas de los procesos de las figuras 12A, 12B y/o 12C) en funcion de una mascara de lumen (p. ej., la mascara de lumen intermedia derivada del proceso de la figura 12D) y las mascaras de nucleos y citoplasma (p. ej., derivadas de los procesos (500) (figura 5) y/o (600) (figura 6A)). En la etapa (1252), se genera una mascara de lumen combinada (p. ej., final) a traves de la combinacion de la mascara de lumenes inicial (p. ej., generada como se describio anteriormente) y las separaciones de unidades epiteliales. En algunos ejemplos, se pueden eliminar los lumenes en la mascara de lumen combinada que tocan las separaciones en la mascara de citoplasma, y/o se pueden eliminar los huecos que tocan los bordes de imagen o la mascara de patologfa, donde la imagen resultante es la mascara de lumen final.
La figura (12F) muestra una salida de ejemplo de acuerdo con el proceso de las figuras 12D-E de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. En la imagen original, los lumenes se mostraban en verde y las separaciones se mostraban en amarillo, no obstante, en la presente memoria descriptiva la imagen se proporciona en negro y blanco para facilitar la reproduccion. A modo de ilustracion, uno de los lumenes tiene un cfrculo y una de las separaciones esta cubierta con un cuadrado.
Segmentacion de anillos
La figura 12G es un diagrama de flujo de etapas ilustrativas implicadas en la segmentacion de anillos a traves de un proceso grafico basado en la agrupacion de una triangulacion de nucleos epiteliales de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. Algunas disposiciones descritas en la presente memoria descriptiva funcionan basandose en el principio de que una propiedad geometrica clave de un "anillo" de puntos, que posiblemente incluya algunos puntos interiores que no se encuentran en el lfmite del anillo, es que los puntos estan espaciados mas estrechamente alrededor del lfmite que en la parte interior o la parte exterior del anillo. En algunas disposiciones descritas en la presente memoria descriptiva, un proceso divisorio inicializado de forma adecuada en un grafico captura esta propiedad.
En la etapa (1254), se realiza triangulacion Delaunay con los centros de nucleos epiteliales como vertices. En algunas disposiciones descritas en la presente memoria descriptiva, el grafico de conectividad de triangulo es el diagrama Voronoi. En la etapa (1256), se asigna una "profundidad" a cada triangulo, por ejemplo, igual a la longitud del lado mas largo. En la etapa (1258), se realiza una clasificacion por profundidad y luego, comenzando en los triangulos mas profundos, se examinan las regiones vecinas (p. ej., 3 regiones vecinas); las regiones se combinan si la longitud del lado comun es al menos, por ejemplo, el 90 % de la profundidad del vecino, y si ambas regiones tocan las mismas unidades epiteliales. En algunos ejemplos, en la etapa (1260), una etapa de combinacion reduce la sobrefragmentacion para completar la division de la imagen en anillos poligonales. Por ejemplo, de acuerdo con algunos ejemplos, una ventaja de un procedimiento divisorio basado en graficos sobre un algoritmo basado en pfxeles es que es mas conveniente rastrear estadfsticas de regiones dentro del algoritmo y aplicar criterios de combinacion de regiones adaptados. Los criterios de combinacion que pueden utilizarse de acuerdo con diversos ejemplos de la presente invencion incluyen, por ejemplo, uno o mas de: (i) combinar dos regiones en contacto si el contraste de las regiones = Mm (diametro de region1, diametro de region 2) - longitud de bordes en contacto < 300 pfxeles, donde el diametro de region se define como Max (longitudes de borde de triangulo en la region); (ii) combinar regiones en contacto si la proporcion de contraste = longitud de bordes en contacto/ancho de region > 0,75 para cualquier region; (iii) combinar regiones en contacto si la region mas pequena tiene un ancho < 10 pfxeles; y/o (iv) no combinar si las dos regiones superponen unidades epiteliales diferentes.
La figura 14 muestra imagenes de la segmentacion de nucleos epiteliales en anillos glandulares etiquetados de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. En la presente, estas imagenes se proporcionan en negro/blan
entrada. La imagen (b) muestra una imagen de CK18 superpuesta con bordes de unidades epiteliales (se muestra en imagen a color en blanco) y bordes de nucleos de DAPI (se muestra en imagen a color en azul). La imagen (c) muestra un diagrama Voronoi de centros de nucleos epiteliales, coloreados por etiquetas de segmentacion divisoria. La imagen (d) muestra regiones poligonales clasificadas como anillo glandular (se muestra en imagen a color en rojo), no anillo glandular (se muestra en imagen a color en verde), estromal (se muestra en imagen a color en negro) y confusa/no definida (se muestra en imagen a color en azul). La imagen (e) es un ejemplo mas grande.
Clasificacion de anillos
De acuerdo con algunas disposiciones descritas en la presente memoria descriptiva, los anillos son regiones poligonales de tejido identificadas y emitidas por un proceso de segmentacion (p. ej., el proceso de segmentacion de anillos descrito anteriormente). El objetivo de la clasificacion de anillos de acuerdo con algunos ejemplos es clasificar los anillos, por ejemplo, en uno o mas (p. ej., todos) de cinco tipos diferentes: (1) anillos glandulares; (2) no anillos epiteliales; (3) regiones estromales; (4) regiones sub-segmentadas; y/o (5) regiones incompletas.
En algunos ejemplos, los anillos glandulares pueden ser anillos caracterizados por un anillo de nucleos con una compensacion central que posiblemente contenga un lumen. Los no anillos epiteliales pueden estar caracterizados por campos densos de nucleos que no esten en los anillos, fragmentos aislados de nucleos o nucleos en la parte exterior de un anillo entre los anillos vecinos o entre un anillo y el estroma. Las regiones estromales pueden ser anillos bordeados por nucleos epiteliales en unidades epiteliales diferentes o anillos que bordeen la concavidad del estroma en la misma unidad epitelial. Las regiones sub-segmentadas pueden ser anillos con estroma y epitelio que no pueden clasificarse en ninguna de las categonas. Las regiones incompletas pueden ser anillos divididos por bordes de imagen o una mascara de patologfa.
Nuevamente con referencia a la figura 12G, en la etapa (1262), las areas poligonales derivadas de la segmentacion de anillos se pueden clasificar en uno o mas (p. ej., todos) de los cinco tipos/clases, incluidos anillos glandulares, no anillos epiteliales, regiones estromales, regiones sub-segmentadas y/o regiones incompletas, utilizando, por ejemplo, los criterios identificados anteriormente. Mas abajo se proporcionan detalles adicionales sobre como clasificar las areas poligonales de acuerdo con algunos ejemplos.
De acuerdo con algunas disposiciones descritas en la presente memoria descriptiva, puede haber tres niveles/tipos de caractensticas de anillos: (i) parametros de anillos basicos, (ii) caractensticas para la clasificacion de tipos de anillos y (iii) caractensticas para pronostico. La tabla 2 a continuacion describe parametros de anillos basicos de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva, que tambien se ilustran en la figura 18A. En la tabla 2, un "+" en la columna "Dir" indica que un mayor valor es mejor para el resultado del paciente, o al menos no peor. La caractenstica de densidad de borde, d/b, en valores bajos, detecta segmentaciones de anillos deficientes asf como anillos pequenos con nucleos espaciados ampliamente (como se muestra en los anillos verdes en la imagen coloreada original correspondiente a la figura 17). La tabla 3 a continuacion describe caractensticas de clasificacion de anillos ilustrativas que se pueden utilizar para clasificar anillos, por ejemplo, en las cinco clases enumeradas anteriormente. En algunos ejemplos, se pueden proporcionar caractensticas de anillos adicionales para su uso en el pronostico (p. ej., la tabla 4 a continuacion - Estadfsticas de caractensticas de anillos), por ejemplo, mediante uno o mas modelos predictivos. En algunas disposiciones descritas en la presente memoria descriptiva, se pueden utilizar una o mas (p. ej., todas) de las caractensticas, por ejemplo, de las tablas 2, 3 y/o 4 para el pronostico dentro de un modelo predictivo solo o en combinacion con una o mas caractensticas adicionales (p. ej., caractensticas clmicas, moleculares y/o morfologicas).
En algunas disposiciones descritas en la presente memoria descriptiva, se pueden utilizar las adyacencias y conectividades de uno o mas parametros de anillos basicos (p. ej., tabla 2) para construir un conjunto mas detallado de una o mas caractensticas (p. ej., tabla 3) con el fin de clasificar los anillos en los cinco tipos o clases. Por ejemplo, en algunas disposiciones descritas en la presente memoria descriptiva, se puede proporcionar un procedimiento basado en reglas que utilice uno o mas de los parametros de anillos basicos en la tabla 2 y/o las caractensticas de clasificacion de anillos en la tabla 3 para clasificar cada anillo, por ejemplo, en una de las cinco clases 1-5, tal como se ilustra en la tabla 1:
Tabla 1 - Re la de decision de clasificacion de anillos
Figure imgf000024_0001
Tabla 2 - Parametros de anillos basicos
Figure imgf000024_0002
Figure imgf000025_0001
Tabla 3 - Caractensticas de clasificacion de anillos
Figure imgf000025_0002
Figure imgf000026_0001
En algunas disposiciones descritas en la presente memoria descriptiva, se proporcionan aparatos, procedimientos y medios legibles por ordenador que utilizan caractensticas basadas en la conectividad del citoplasma dentro de los anillos con correcciones de concavidades donde el lumen o el estroma cruzan el lfmite del anillo. Por ejemplo, con referencia a la tabla 3 anterior, algunos ejemplos de la presente invencion pueden detectar concavidades pequenas e ignorarlas al calcular conectividades de regiones. Este procedimiento puede ser util, por ejemplo, cada vez que se analicen las conectividades de las regiones superpuestas, especialmente regiones con huecos y bordes concavos.
Segmentacion/cuantificacion de senal biomarcadora - Imagenes con baja relacion senal/ruido
La figura 15 es un diagrama de flujo (1500) de etapas ilustrativas implicadas en la localizacion y cuantificacion de la senal biomarcadora de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. Los solicitantes han determinado que este proceso funciona bien, por ejemplo, para imagenes de tejidos que tienen relaciones senal/ruido (SNR) debiles y otras imagenes. Por ejemplo, los tejidos de biopsia, las muestras de reseccion quirurgica y los aspirados celulares con frecuencia sufren variaciones en la manipulacion y el procesamiento de los tejidos que incluyen corte mecanico durante la division del tejido. Los microarreglos de tejido (TMA) suelen construirse utilizando protocolos estandarizados destinados a mitigar los efectos del historial del tejido al permitir la evaluacion de todas las imagenes de tejidos al mismo tiempo en condiciones similares. Por ende, en algunas disposiciones descritas en la presente memoria descriptiva, se puede utilizar el proceso (1500) para mejorar el analisis de imagenes de TMA y/o tejidos de biopsia que pueden tener, por ejemplo, s Nr baja.
En algunas disposiciones descritas en la presente memoria descriptiva, se puede realizar el proceso (1500) en una imagen de tejido (p. ej., DAPI y/o CK18) que ya se ha procesado previamente de acuerdo con el proceso (200) (figuras 2A-2C) para eliminar las variaciones de intensidad no uniformes, y/o binarizado de acuerdo con el proceso (500) (figura 5) o el proceso (600) (figuras 6A-6D) para extraer de una imagen las partes de la imagen correspondientes a la senal positiva o de primer plano del tejido, y/o procesado de acuerdo con el proceso (700) (figura 7) para separar los componentes en contacto o conectados de la senal positiva o de primer plano en la imagen del tejido, y/o procesado de acuerdo con los procesos (800) (figura 8) y/o (900) (figura 9) anteriores. En algunos ejemplos, el procesamiento antes de la utilizacion del proceso puede incluir, por ejemplo, clasificar nucleos en una imagen de tejido en nucleos epiteliales (DAPI+/CK18+) y/o nucleos estromales (DAPI+/CK18-) utilizando un proceso de colocalizacion y/o una identificacion de glandulas de citoplasma y objetos glandulares. El proceso (1500) puede ser precedido por otro procesamiento.
En la etapa (1502), uno o mas objetos brillantes que tienen un tamano inferior a un umbral se eliminan de una imagen de tejido (p. ej., imagen de nucleos) ya que indican y se caracterizan como ruido speckle. En algunos ejemplos, se utilizan dos umbrales, uno para tamano y otro para brillo. El umbral de tamano puede utilizarse para eliminar artefactos pequenos (p. ej., fragmentos de nucleo y citoplasma generados durante el proceso del tejido), mientras que el umbral de brillo puede utilizarse para eliminar ruido speckle (p. ej., puntos de speckle creados durante el proceso de tincion). Por ejemplo, en algunos ejemplos, la intensidad de senal relativa en una imagen de biomarcador indica un proceso y/o atributo biologico dirigido para el cual el biomarcador esta disenado para capturar. La intensidad absoluta de una senal de biomarcador en una imagen relativa a otra puede verse influenciada por la union no espedfica fuerte como resultado del historial del tejido (p. ej., etapas de extraccion, procesamiento y almacenamiento) asf como las impurezas en los reactivos de etiquetado. Esta union no espedfica constituye ruido de fondo en la imagen.
En algunas disposiciones descritas en la presente memoria descriptiva, para limitar la influencia de ruido debido al historial de tejido y otros elementos del ensayo, la cuantificacion de biomarcadores puede limitarse a objetos segmentados (p. ej., objetos de nucleos, citoplasma y/o glandulares). Alternativa o adicionalmente, en algunos ejemplos, la cantidad de ruido speckle permitida en cada objeto (p. ej., objeto de nucleo, citoplasma y/o glandular) se limita utilizando un umbral experimentalmente determinado (p. ej., determinado automaticamente o basandose en la revision por parte de un patologo de los resultados del procesamiento de imagenes utilizando multiples valores de umbral). Por ejemplo, la intensidad I del objeto promedio resultante (p. ej., nucleos) puede darse de la siguiente manera:
Figure imgf000027_0001
En (1), b son pfxeles de objetos biomarcadores de nucleos validos (p. ej., pfxeles de nucleos), t es el umbral de ruido speckle, m es la cantidad total de pfxeles de objetos y n es la cantidad total de nucleos en la imagen.
En la etapa (1504), se puede determinar un umbral (lfmite) para distinguir entre intensidad de senal de ruido de fondo y real para cada objeto (p. ej., nucleo). En algunos ejemplos, cada objeto (p. ej., nucleos) en cada uno de los multiples subcompartimentos (p. ej., epitelio y estroma) puede tratarse de forma separada. En algunos ejemplos, el umbral de intensidad de senal T puede determinarse como una funcion de las caractensticas de fondo del biomarcador. Por ejemplo, para encontrar su funcion, los objetos (p. ej., nucleos) B pueden dividirse en dos clases no superpuestas: 1) objetos coloreados de senal real Br (p. ej., donde la madia, la desviacion estandar y las intensidades promedio son dadas por^ r, or , y ar-° percentiles qr,a, donde a=5,10,...,100; y 2) objetos coloreados de fondo Bb (p. ej., con ^b, Ob y a­ ° percentiles qb,a). En algunos ejemplos, una relacion lineal es modelada entre el umbral T y las caractensticas de fondo:
Figure imgf000027_0002
donde p = [So, S1 , ..., Sp ]T son parametros de modelo de un modelo y X = [1, X1, ..., Xp ]T son caractensticas de fondo. En otros ejemplos, se puede utilizar modelado no lineal. Cabe destacar que en (2) o de acuerdo con otros modelos de acuerdo con otro ejemplos, el umbral T puede cambiar segun las propiedades de cada imagen. En algunos ejemplos, se puede utilizar analisis de regresion lineal indirecta mediante la optimizacion del mdice de concordancia (CI) para determinar p. Por ejemplo, se puede seleccionar un conjunto de imagenes para entrenar el modelo. Para cada imagen: a) se pueden identificar los objetos Bc y Bb; b) se pueden extraer las caractensticas de fondo; y c) se puede calcular CI. El valor de p que optimiza el CI se puede seleccionar como optimo.
En las etapas (1506) y (1508), despues de la identificacion de objeto positiva, se pueden realizar la generacion de histogramas de subcompartimentos (etapa (1506)) y extraccion de caractenstica (etapa (1508)). En algunos ejemplos de la presente invencion, se extraen histogramas (p. ej., los histogramas epiteliales y estromales He y Hs) mediante la union de los objetos coloreados de senal real (p. ej., los nucleos Br), por ejemplo, de forma separada en cada subcompartimento. En algunos ejemplos, la union tambien puede implicar utilizar compartimentos tales como, por ejemplo, periepitelio y subcompartimentos del estroma. Los histogramas (p. ej., los histogramas de epitelio y estroma) pueden analizarse de forma separada para obtener caractensticas de intensidad relativa tales como, por ejemplo, expresiones acumuladas en cada percentil a-°. Alternativa o adicionalmente, los histogramas pueden ser analizados en relacion unos con otros para obtener caractensticas relacionadas con la expresion relativa, por ejemplo, de nucleos de epitelio y estroma en cada posicion a.
La figura 16 muestra histogramas de expresion de biomarcador AR tfpicos para cancer progresivo (arriba a la izquierda) y cancer de prostata latente (arriba a la derecha) de acuerdo con algunos ejemplos. La figura 16 tambien muestra histogramas de expresion de biomarcador Ki67 tfpicos para cancer progresivo (abajo a la izquierda) y cancer de prostata latente (abajo a la derecha) de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva.
En algunas disposiciones descritas en la presente memoria descriptiva, se proporcionan aparatos, procedimientos y medios legibles por ordenador para reducir la influencia de los errores de segmentacion mientras se promedian los objetos positivos de biomarcadores mediante la exclusion de regiones sin senal/con poca senal (p. ej., evitando elementos de pixel cero). Se puede recibir la salida de una segmentacion de la imagen de nucleos. Uno o mas (p. ej., todos) objetos en la imagen etiquetada de nucleos pueden rellenarse con su intensidad correspondiente en la imagen de nucleos original (p. ej., imagen de DAPI). Para cada objeto con etiqueta de nucleo relleno, se pueden eliminar los p^xeles inferiores a un umbral de intensidad (p. ej., umbral fijo, p. ej., cero). Para cada objeto etiquetado de nucleo relleno, se pueden identificar y eliminar objetos inferiores a un umbral de tamano (p. ej., umbral de tamano fijo, p. ej., 20 pfxeles). Para cada objeto etiquetado de nucleo relleno, se puede calcular la intensidad promedio de los pfxeles. Las etiquetas de nucleos originales pueden rellenar con los valores de intensidad promedio correspondientes calculados.
En algunas disposiciones descritas en la presente memoria descriptiva, se proporcionan aparatos, procedimientos medios legibles por ordenador para estimar y corregir el fondo ruidoso de una imagen de biomarcador mediante el muestreo de la senal en una region de banda (o cinta) que bordea un subcompartimento (p. ej., el citoplasma). Se puede recibir una imagen de biomarcador (p. ej., imagen de AR). Se puede recibir una mascara de citoplasma. La mascara de citoplasma se puede dilatar, por ejemplo, a un tamano fijo (p. ej., 10 pfxeles). La mascara de citoplasma original se puede sustraer de la mascara dilatada para crear una banda. Los valores de imagen de biomarcador se pueden muestrear dentro de la banda y se pueden calcular sus valores promedio (p. ej., despues de excluir los pfxeles inferiores a un umbral fijo, p. ej., cero). La intensidad de las regiones de la imagen de biomarcador original superiores a un valor de intensidad fijo (p. ej., 5000) se puede reducir al valor umbral calculado.
Extraccion de caracteristicas
De acuerdo con otro aspecto de algunas disposiciones descritas en la presente memoria descriptiva, se proporcionan caractensticas predictivas para su uso en modelos predictivos. Los modelos predictivos de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva pueden estar configurados para su uso en el tratamiento, diagnostico y/o prediccion, por ejemplo, de la aparicion (p. ej., la recurrencia) de una afeccion medica (p. ej., cancer) en un paciente. En algunas disposiciones descritas en la presente memoria descriptiva, una o mas de las caractensticas descritas en la presente memoria descriptiva se pueden utilizar dentro de un modelo predictivo que incluya una o mas caractensticas morfometricas y/o una o mas caractensticas moleculares. Alternativa o adicionalmente, en algunos ejemplos, dichos modelos predictivos pueden incluir una o mas caractensticas clmicas. Algunos ejemplos de tipos adecuados de caractensticas clmicas, moleculares y morfometricas se describen, por ejemplo, en la solicitud estadounidense n.° 12/584.048 de propiedad conjunta, presentada el 31 de agosto de 2009.
En algunas disposiciones descritas en la presente memoria descriptiva, una o mas de las caractensticas descritas en la presente memoria descriptiva se pueden extraer de imagenes procesadas (p. ej., procesadas previamente, segmentadas y/o procesadas posteriormente) de acuerdo con algunas o todas las ensenanzas establecidas en la presente memoria descriptiva (p. ej., de acuerdo con las figuras 1-16 y sus descripciones correspondientes).
En algunas disposiciones descritas en la presente memoria descriptiva, una o mas de las caractensticas descritas en la presente memoria descriptiva se pueden extraer de una imagen de tejido que incluya segmentaciones de imagenes de campo brillante, imagenes de campo oscuro u otras imagenes. Por ejemplo, en algunos ejemplos, las caractensticas descritas en la presente memoria descriptiva se pueden extraer de imagenes de tejido derivadas de tincion con hematoxilina y eosina (H&E), deteccion mediante inmunofluorescencia (IF), inmunohistoqmmica (IHC), procesos de tincion similares y/o relacionados y/u otros procesos.
Caracteristicas de anillos
En algunas disposiciones descritas en la presente memoria descriptiva, se proporcionan caractensticas predictivas de objetos glandulares como anillos. En algunos ejemplos, estas caractensticas se generan sin utilizar segmentacion de lumen inicial. Por el contrario, dichos anillos pueden detectarse en funcion de una geometna de nucleos. Se puede proporcionar una segmentacion de nucleos de una region celular en regiones individualmente contiguas (o etiquetadas). Se puede extraer el centroide de cada region de nucleo y luego se puede dividir cada imagen en regiones poligonales con los nucleos epiteliales en los vertices, por ejemplo, tal como se describio anteriormente con respecto a la segmentacion de anillos y la clasificacion de anillos. La figura 17 muestra un ejemplo de segmentacion de anillos en una imagen de campo oscuro, que se ha proporcionado en negro y blan
imagen original, los anillos buenos se mostraron en rojo, los anillos con menos del 50 % del estroma en contacto con el borde se mostraron en amarillo, los anillos con densidad de nucleos inferior a 1,5 se mostraron en verde oscuro, las regiones no anillo epiteliales se mostraron en verde claro, el area estromal con borde epitelial se mostro en negro, el area confusa/no definida se mostro en azul y el borde en contacto/mascara de patologfa se mostro en negro.
En algunas disposiciones descritas en la presente memoria descriptiva, se combinan y/o promedian caractensticas de anillos de pronostico, por ejemplo, sobre parte de una imagen o una imagen entera para crear una familia de caractensticas de imagen. Esta familia de caractensticas de imagen se puede parametrizar, por ejemplo, en una o mas de cuatro maneras:
(i) por estadfstica (dos alternativas);
(ii) por tipo de region (7 alternativas);
(iii) por peso (10+ alternativas); y/o
(iv) por variable (20+ alternativas),
creando potencialmente asf en total mas de 4300 caractensticas posibles. Por ejemplo, una convencion de nomenclatura de caractenstica consistente se puede formar como "Estadfstica_Peso_TipodeRegion_Variable". La tabla 4 a continuacion describe estadfsticas que se pueden utilizar para generar caractensticas de anillos de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. Ademas, la tabla 5 a continuacion describe regiones, la tabla 6 a continuacion describe variables de peso y la tabla 7 a continuacion describe variables de caractensticas de anillos que se pueden utilizar para generar caractensticas de anillos de acuerdo con algunos ejemplos de la presente invencion. La tabla 8 a continuacion describe ejemplos de las caractensticas que pueden generarse para su uso dentro de un modelo predictivo en algunas disposiciones descritas en la presente memoria descriptiva. En la tabla 8, un "+" en la columna "Dir" significa que un mayor valor es mejor para el resultado del paciente.
Tabla 4 - Estadfsticas de caractensticas de anillos
Figure imgf000029_0001
Tabla 5 - Ti os de re ion de caractensticas de anillos
Figure imgf000029_0002
Tabla 6 - Pesos de caractensticas de anillos
Figure imgf000029_0003
Figure imgf000030_0001
Tabla 7 - Variables de caracteristicas de anillos
Figure imgf000030_0002
T l - r ri i nill ml r
Figure imgf000030_0003
Figure imgf000031_0001
La tabla 9 a continuacion muestra como las caractensticas de pronostico de anillos generadas de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva estan asociadas con muchos aspectos del sistema de escala de Gleason tales como, por ejemplo, la fusion de multiples anillos en una unidad epitelial, el grado al cual los anillos tocan el lumen y el estroma, la formacion de laminas epiteliales con y sin anillos cribiformes y la fragmentacion de glandulas. El sistema de escala de Gleason es el estandar de oro para el analisis morfologico de imagenes de tejidos tenidas con H&E de la prostata. Estos aspectos de la escala de Gleason no han sido capturados previamente por sistemas automatizados, ya que dependen de la comprension de la necesidad de combinar los procesos de separacion de unidades epiteliales y de segmentacion de anillos glandulares y, segun los inventores, no existen procesos previos de separacion de unidades epiteliales. Los procesos anteriores de anillos glandulares tambien se han visto limitados por la necesidad de que las semillas de lumen inicien un procedimiento de propagacion, lo que resulta problematico para los grados de Gleason altos en los que los lumenes se encogen y desaparecen.
T l - rr n n i nr l r n i nill l m rf l i ^ l n
Figure imgf000032_0002
Las figuras 18B-D son imagenes de anillos glandulares detectados en los patrones de Gleason 3,4 y 5 en tejido de acuerdo con algunos ejemplos de la presente invencion. En las imagenes originales, los anillos fusionados con menos del 50 % del estroma en contacto con el borde se mostraron en amarilla, sin embargo, en la presente memoria descriptiva las imagenes se han incluido en negro y blan
La tabla 10 a continuacion proporciona informacion adicional con respecto a la correspondencia entre las caractensticas descritas anteriormente y la arquitectura de la glandula. Por ejemplo, demuestra como los aspectos de la arquitectura glandular, que incluyen anillos fusionados, lumenes o compensaciones en anillos, Cribiforme, tamano de anillo, grupos de nucleos no anillo, fragmentacion de citoplasma, borde de citoplasma, espaciado de nucleos, forma de anillo, dimensionalidad de anillo, espaciado de anillo, disposicion de anillo y nucleos de estroma, estan representados por las caractensticas. "CI por caso" en la tabla 10 se refiere al valor del mdice de concordancia calculado a partir de los valores de caractensticas promedio para cada paciente (p. ej., mediante el uso de los valores de caractensticas medios para cada paciente independientemente de la cantidad de imagenes disponible para ese paciente). "CI aprox. por imagen" se refiere a los valores del mdice de concordancia calculados a partir de todos los valores de caractensticas de todos los pacientes. Ademas, en lugar de utilizar el momento de evento real (p. ej., mes de evento = 56), el parametro de resultado consistio en una agrupacion binaria de todos los casos de "evento", independientemente del momento en un grupo, y todos los casos de "no evento" independientemente de la censura en otro grupo.
T l 1 - r ri i riz r r i r l n l r
Figure imgf000032_0001
Figure imgf000033_0001
Figure imgf000034_0001
Caracteristicas de unidades epiteliales
En algunas disposiciones descritas en la presente memoria descriptiva, se proporcionan caractensticas predictivas de objetos glandulares como unidades epiteliales. Se pueden generar unidades epiteliales a partir de las disposiciones descritas en la presente memoria descriptiva y el proceso descrito anteriormente en conexion con las figuras 12A-D. En algunas disposiciones descritas en la presente memoria descriptiva, se pueden construir una o mas caractensticas de unidades epiteliales a partir de mediciones basicas tales como, por ejemplo, area o densidad de nucleos. En algunos ejemplos, se pueden construir una o mas caractensticas de unidades epiteliales a partir de los procesos de caracterizacion de anillos descritos anteriormente en conexion con las caractensticas de anillos. Por ejemplo, en un ejemplo, se pueden construir una o mas caractensticas de unidades epiteliales utilizando el procedimiento de promediacion ponderada descrito anteriormente en la tabla 4.
Caracteristicas de biomarcadores
En algunas disposiciones descritas en la presente memoria descriptiva, se proporcionan caractensticas de biomarcadores predictivos. En algunos ejemplos, la generacion de caractensticas de biomarcadores puede comenzar con la segmentacion de objetos celulares individuales (citoplasma y nucleos de celula) y subcompartimentos (epitelio y estroma). La generacion de caractensticas de biomarcadores puede incluir dos etapas: generacion de histogramas de subcompartimentos y extraccion de caractensticas. Los histogramas (p. ej., histogramas He y Hs epiteliales y de estroma) se pueden extraer mediante la union de objetos coloreados de senal real (p. ej., los nucleos Br), por ejemplo, en cada subcompartimento por separado. Los histogramas de epitelio y estroma pueden analizarse de forma separada para obtener caractensticas de intensidad relativa tales como, por ejemplo, expresiones acumuladas en cada percentil or-°. Alternativa o adicionalmente, los histogramas tambien se pueden analizar juntos para obtener caractensticas relacionadas con la expresion relativa de objetos (p. ej., nucleos de epitelio y estroma), por ejemplo, en cada posicion a. En algunos ejemplos, se pueden calcular los percentiles positivos fraccionales.
La figura 19 muestra una segmentacion de AR ilustrativa (imagen c) obtenida a partir de imagenes de expresion de AR (imagen b) y DAPI (imagen a) en escala de grises. La figura 20 muestra una segmentacion de Ki67 ilustrativa (imagen c) derivada de imagenes de DAPI (imagen a) y Ki67 (imagen b) en escala de grises. Las figuras 19 y 20 originalmente estaban en color, pero en la presente memoria descriptiva proporcionan en negro y blanco para facilitar la reproduccion.
La tabla 11 a continuacion incluye descripciones, de acuerdo con algunos ejemplos, clases de caractensticas para biomarcadores de nucleos AR (y Ki67) con su indicacion de valor favorable, y el mdice de concordancia (CI) en un subconjunto de 309 pacientes cuyas 980 imagenes de biopsia se estudiaron.
Figure imgf000034_0002
Figure imgf000035_0001
La tabla 12 a continuacion muestra cuatro ejemplos de casos que demuestran valores relativos de determinadas caractensticas de AR de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. Los casos 1 y 2 tuvieron resultados favorables, mientras que los casos 3 y 4 tuvieron resultados desfavorables. En algunas disposiciones descritas en la presente memoria descriptiva, se pueden aplicar el procesamiento de imagenes y la extraccion de caractensticas descritos en la presente memoria descriptiva en muestras de tejidos obtenidas de secciones de biopsia o micromatriz tisular ya que son resistentes a las condiciones de variabilidad en la calidad de imagen y heterogeneidad en la tincion. De forma ventajosa, puede automatizar procedimientos tradicionales de "normalizacion" de intensidad de senal por aspecto objetivo y relativo. En algunos ejemplos, las caractensticas construidas a partir del analisis relativo de histogramas de multiples compartimentos como se describe en la presente memoria descriptiva son resistentes a las variaciones de tejidos.
Tabla 12: Cuatro casos de ejemplo que demuestran valores relativos de caractensticas de AR (los casos 1 y 2 fueron favorables mientras ue los casos 3 4 fueron desfavorables .
Figure imgf000035_0002
Caracteristicas de textura
En algunas disposiciones descritas en la presente memoria descriptiva, se proporcionan caracteristicas de textura predictiva. Por ejemplo, en algunos ejemplos, se pueden obtener caracteristicas de textura mediante el analisis de la textura de los nucleos (p. ej., nucleos de DAPI). A medida que una enfermedad avanza (por ejemplo, del patron Gleason 3 a 4), la textura de los nucleos de DAPI se vuelven mas gruesa, lo que hace que sea ventajoso analizar las diferencias de textura.
La figura 21 es un diagrama de flujo (2100) de etapas ilustrativas implicadas en la extraccion de caracteristicas de textura de una imagen de tejido de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva. En la etapa (2102), se pueden extraer nucleos (p. ej., nucleos de DAPI de una imagen de DAPI) forzando el fondo a cero en funcion de una mascara etiquetada de nucleos segmentada. En la etapa (2104), se pueden separar nucleos epiteliales utilizando una mascara o mascaras de segmentacion de citoplasma. En la etapa (2106), para cada nucleo epitelial, se pueden calcular una o mas caracteristicas de textura, incluidas, por ejemplo, la homogeneidad y la correlacion. En algunos ejemplos, la homogeneidad se puede definir de la siguiente manera:
Figure imgf000036_0001
En algunos ejemplos, la correlacion se puede definir de la siguiente manera:
Figure imgf000036_0002
donde p(ij) se obtiene de la matriz de co-ocurrencia de niveles de grises que calcula con que frecuencia un pixel con valor de niveles de grises (intensidad de escala de grises) i se produce horizontalmente adyacente a un pixel con el valor j .
En la etapa (2108), se puede graficar un histograma en funcion de la homogeneidad y la correlacion de los nucleos individuales y, por ejemplo, el histograma se puede normalizar mediante la division por la suma total (eje y). En algunos ejemplos, el histograma tambien se puede expandir entre 0 y 1 (eje x).
En la etapa (2110), se puede ajustar una curva polinomial en el histograma para minimizar o deshacerse de las fluctuaciones en el conteo. En algunos ejemplos, cada compartimento para la curva ajustada del histograma se puede convertir en una caracteristica. La figura 22A muestra graficos de histogramas y el ajuste de curvas polinomiales correspondientes de homogeneidad y correlacion, donde se pueden obtener conteos de la curva para 80 compartimentos que forman 80 caracteristicas para cada categoria. En algunos ejemplos, estas caracteristicas pueden basarse solamente en nucleos epiteliales (ho_epixx, cr_epixx).
En la etapa (2112), se pueden extraer nucleos estromales de la imagen de nucleos (p. ej., DAPI) y el histograma se puede graficar utilizando un proceso igual o similar al descrito anteriormente.
En la etapa (2114), el histograma epitelial de homogeneidad y correlacion se puede dividir por sus histogramas estromales respectivos. Esto puede normalizar el histograma entre diversas imagenes. Se puede ajustar una curva polinomial al nuevo histograma (p. ej., relacion de histogramas epitelial y estromal) para obtener un nuevo conjunto de caracteristicas (ho_epiestromxx, cr_epiestromxx). En algunas disposiciones descritas en la presente memoria descriptiva, el primer y el segundo histogramas (p. ej., histogramas epitelial y estromal) tambien se pueden restar o sumar entre sf antes de extraer una o mas caracteristicas predictivas en funcion de un resultado de ello. En algunas disposiciones descritas en la presente memoria descriptiva, se puede utilizar un proceso de normalizacion de histogramas, por ejemplo, como alternativa o ademas del ajuste polinomial. Un proceso de normalizacion de histogramas adecuado de acuerdo con algunas disposiciones descritas en la presente memoria descriptiva se describe, por ejemplo, en Gonzalez R. C y Woods R. E, Digital Image Processing, segunda edicion, Prentice-Hall Inc, 2002.
Ejemplo 1: Generacion de caracteristicas de anillos
Las caractensticas se desarrollaron para predecir el avance significativo de una enfermedad de cancer de prostata (incluidos la resistencia al tratamiento, la metastasis y la desaparicion de la enfermedad) despues de una prostatectoirna radical (RP) a partir de imagenes de IF de biopsias positivas. Este estudio empleo un cohorte multiinstitucional de 306 pacientes. Se estudiaron muestras de tejidos de biopsia incrustados en parafina y fijados con formalina de pacientes tratados con RP entre 1989 y 2003 para cancer de prostata localmente avanzado o localizado (cT1c-cT3). Las muestras se etiquetaron con contratincion de DAPI y el biomarcador CK18, y se tomaron imagenes utilizando un sistema de imagenologfa multiespectral Nuance de cRl. Despues, un patologo experimentado reviso manualmente las imagenes para asegurarse de que las segmentaciones fueran precisas, y las caractensticas de anillos glandulares se definieron como proporciones de nucleos epiteliales en varias categonas, tabla 13.
Tabla 13: Definiciones de caractensticas
Figure imgf000037_0001
La caractenstica "NucEpiAnillo" es analoga a la caractenstica "OguWigu5x" de H&E, que se describe en Donovan y col., "Personalized Prediction of Tumor Response and Cancer Progression from the Prostate Needle Biopsy," Journal of Urology, 2009, 182:1, 125-132. La caractenstica "NucEpiVerde" es casi la inversa de la caractenstica "NucEpiAnillo". Debido a que se producen pocos nucleos epiteliales en los fragmentos dentro de las areas estromales, generalmente se clasifican como anillo o no anillo glandular. Esto se confirma en la correlacion cruzada entre estas dos caractensticas de -0,91, tabla 14.
Tabla 14: Correlaciones cruzadas de caractensticas en el intervalo entre -1 y 1, que comparan las caractensticas de IF r n n r n i ni l n l r H E Wi x
Figure imgf000037_0002
La caractenstica de IF con la mayor correlacion con OguWigu5x, 0,52, es NucEpiMidRojo, que es una version filtrada de NucEpiRojo que excluye los anillos que no tocan el estroma en al menos el 40 % de su lfmite. Esto tiene el efecto de reducir la proporcion nuclear de anillos glandulares para areas de unidades epiteliales densamente combinadas, tales como laminas cribiformes.
Los indices de concordancia (CI) en la tabla 15 a continuacion se calcularon comparando los valores de caractensticas con el tiempo transcurrido entre la realizacion de la biopsia y la aparicion del avance significativo de la enfermedad (metastasis o fallecimiento como resultado de cancer de prostata). NucEpiMidRojo se correlaciona con la caractenstica "OguWigu5x" de H&E, y es mas estable que esta, descrita anteriormente. La correlacion esta relacionada con la correlacion entre el estroma en contacto y los lumenes en contacto presentes en los anillos buenos. Todas las caractensticas, excepto NucEpiVerde, se correlacionan de forma positiva con el resultado, con CI superiores a 0,5, lo que significa que un mayor valor de la caractenstica es mejor para el paciente. Esta interpretacion corresponde con la correlacion clmica y patologica de objetos glandulares con avance de enfermedad. Resulta interesante destacar el funcionamiento ventajoso del proceso de separacion de unidades epiteliales para aumentar el CI de la caractenstica NucEpiMidRojo hasta 0,70. Esto se puede explicar como un valor mas exacto y generalmente mayor para el contacto-E, el porcentaje de estroma en contacto con el borde, que ahora incluye partes del borde donde las unidades epiteliales se tocan pero no estan fusionadas. Estas caractensticas se han refinado adicionalmente, por ejemplo, al reemplazar los umbrales duros del contactoE > 40 % y la densidad > 1,5 en NucEpiMidRojo por umbrales de rampa lineal suaves, por ejemplo, de entre 0,3 y 0,5 para contactoE y de entre 1 y 2 para la densidad. Esto produce mayor solidez de CI sobre diferentes conjuntos de datos. La version actualizada de esta caractenstica se denomina Relaci6n_AreaEN_Anillo_SuaveTeG40_DeG15, tal como se muestra en la tabla 8 a continuacion.
Tabla 15: indices de concordancia de una variable que comparan las caracteristicas de IF propuestas con una r ri i ni l n l r H E Wi x
Figure imgf000038_0001
Ejemplo 2: Caracteristicas de AR y Ki67
Se rehidrataron secciones 5 pM de tejidos de prostata humana incrustados en parafina y fijados con formalina y se tineron utilizando DAPI y CK18 asf como receptor de androgeno (AR) y Ki67. Las emisiones de biomarcadores se capturaron utilizando una camara multiespectral Nuance con una resolucion de 20X por 10X. Se desenmascararon regiones de tejidos no cancerosas de la imagen. Se utilizo un cohorte de 926 imagenes de 306 pacientes. La segmentacion de objetos de nucleos y citoplasma se baso en las imagenes de DAPI y CK18. Se calculo el mdice de concordancia de una variable para cada una de las cuatro caracteristicas (dos de cada uno de los biomarcadores AR y Ki67). Las caracteristicas seleccionadas se describen en la tabla 16 a continuacion.
Figure imgf000038_0002
Tambien se entrenaron dos modelos multivariados en el contexto de un paradigma de patologfa de sistemas. En este ejemplo, se combino informacion dispar de los perfiles clmico (p. ej., la edad), histologico (mediante caracteristicas de imagen extrafdas de muestras de tejidos tenidas con hematoxilina y eosina) y molecular (mediante caracteristicas que miden la expresion de biomarcadores de protema) del paciente en un marco de aprendizaje supervisado para predecir la recurrencia de cancer. Uno de los modelos utilizo caracteristicas de un procedimiento anterior, mientras que el otro utilizo caracteristicas descritas en la presente memoria descriptiva. El analisis muestra una mejora del 0,04 en la energfa predictiva (CI) del modelo basado en las caracteristicas nuevas.
Se cuantifico la expresion del receptor de androgenos (AR) y el biomarcador Ki67 en muestras de biopsia de prostata y se mostro que las caracteristicas de histogramas extrafdas estan asociadas con el avance de enfermedad en un analisis de una variable. Manifesto un mejor rendimiento en comparacion con los sistemas anteriores. Las caracteristicas tambien se seleccionaron en un modelo multivariado que integraba otras caracteristicas clmicas e histologicas, demostrando su valor pronostico independiente. La utilidad de este enfoque integrado para la cuantificacion de biomarcadores se demostro mediante la prediccion del avance de enfermedad de cancer de prostata dentro de los ocho anos despues de una prostatectoirna radical.
Caracteristicas de combinacion de anillos
En algunas disposiciones descritas en la presente memoria descriptiva, se proporcionan caracteristicas predictivas que son combinaciones de otras caractensticas, por ejemplo, caractensticas de biomarcadores con caractensticas de morfolog^a glandular. En algunos ejemplos, las caractensticas combinadas pueden adaptar el peso del pronostico de otras caractensticas con arquitectura morfologica particular de la imagen de tejido. Por ejemplo, en un ejemplo, se generan valores de intensidad del biomarcador AR y se combinan con caractensticas de anillos para cada anillo en una imagen. Los valores del biomarcador AR y anillos combinados para cada anillo luego se agregan, por ejemplo, sobre toda la imagen de tejido utilizando una probabilidad bayesiana ingenua u otro procedimiento.
De acuerdo con diversas disposiciones descritas en la presente memoria descriptiva, se pueden utilizar uno o mas de los siguientes enfoques para generar caractensticas combinadas. Primero, se pueden localizar las caractensticas por anillo. Segundo, se pueden multiplicar las caractensticas por una o mas caractensticas dentro de un conjunto de parametros morfologicos (p. ej., componentes del triangulo de Gleason). Tercero, las caractensticas se pueden combinar, por ejemplo, multiplicando los valores de caractensticas (p. ej., primero convirtiendo los valores de caractensticas en valores de probabilidad y luego combinandolos mediante la multiplicacion de sus valores de probabilidad bayesiana ingenua). Cada uno de estos enfoques se describe con mas detalle mas adelante.
Localizacion de caractensticas por anillo: en algunos ejemplos, este enfoque puede implicar calcular el valor de una caractenstica en cada anillo en una imagen. El proceso de calcular el valor de caractenstica en cada anillo puede considerar la informacion de todo el tejido o de alguna parte de este (p. ej., el valor epitelial promedio, el valor de estroma maximo y el valor de intensidad de imagen).
Ejemplo 1: Se calcula el valor del aumento de AR relativo por glandula en el 70 % (ARRR70) a partir del valor del 70 % del histograma de valores de AR por anillo y el valor del 70 % del histograma del valor de AR en todo el estroma. Se normaliza adicionalmente por una relacion, N, que es una funcion de la cantidad de nucleos en el anillo.
Figure imgf000039_0001
Ejemplo 2: Se calcula la relacion positiva de Ki67 por glandula (Ki67PR) a partir del numero de nucleos de Ki67 positivos en un anillo y el numero de nucleos epiteliales en ese anillo. Ki67PR = numero de Ki67 positivo en anillo / numero de nucleos epiteliales en anillo
Multiplicacion de caractensticas por un parametro morfologico: en algunos ejemplos de acuerdo con este enfoque, los parametros morfologicos proporcionan una clasificacion parcial de un anillo en dos o mas caractensticas morfologicas, donde la suma de los valores de la clasificacion parcial obtenidos es igual a 1.
Ejemplo 1: El parametro morfologico "triangulo de Gleason" incluye (p. ej., consiste en) tres componentes: "patron 3", "patron 4 fragmentado" y "lamina de patron 4" como se muestra en la tabla 17 a continuacion. Estos componentes caracterizan diferentes aspectos de la morfologfa de la region glandular. Cada anillo clasificado utilizando el triangulo de Gleason puede tener tres valores de clasificacion de componentes que suman 1. En la tabla se muestran dos ejemplos. En el primer ejemplo, la region tiene valor de clasificacion parcial "s" en el intervalo de entre 0 y 1 (alternativa, tiene membresfa parcial "s") para el componente "patron 3" del triangulo de Gleason. Tambien tiene valor de clasificacion parcial "1-s" para el componente "lamina de patron 4" y valor de clasificacion "0" para el componente "patron 4 fragmentado". La segunda region tiene valores de clasificacion parcial "0", "s" y "1-s" para los componentes "patron 3", "patron 4 fragmentado" y "lamina de patron 4", respectivamente. Los anillos aislados pueden tener un valor "s" alto, mientras que los anillos o laminas fusionados pueden tener un valor "s" bajo. Por ende, "s" puede ser el valor de caractenstica "contacto s", "contacto1" o similar descrito anteriormente en conexion con las caractensticas de anillos.
Tabla 17 - Descri cion de caractensticas del trian ulo de Gleason
Figure imgf000039_0002
Combinacion de caractensticas: en algunas disposiciones descritas en la presente memoria descriptiva, de acuerdo con este enfoque, puede haber uno o mas (p. ej., cuatro) esquemas diferentes para la combinacion de valores de caractensticas, tal como se ilustra a continuacion en conexion con la tabla 18. Esto puede incluir: localizacion por glandula, localizacion por imagen, probabilidad bayesiana ingenua por anillo y probabilidad bayesiana ingenua por imagen. Los esquemas pueden utilizar una tecnica que convierta una caractenstica de pronostico en una probabilidad de evento aproximado por un ajuste lineal de los mmimos cuadrados de la caractenstica a 0 (no evento) o 1 (evento).
Un esquema alternativo puede reemplazar 0 y 1 por el tiempo del evento. Cuando el evento es desconocido o esta censurado, un esquema iterativo puede actualizar los tiempos del evento sometidos a las limitaciones de la censura para optimizar la probabilidad del resultado. En algunos ejemplos, este cambio de escala lineal de la caractenstica no cambia el mdice de concordancia (CI) o el valor pronostico de la caractenstica, pero permite que la caractenstica sea tratada como un valor de probabilidad.
Tabla 18 - Com aracion de es uemas de combinacion de caractensticas
Figure imgf000040_0002
Ejemplo 1: Localizacion por ARRR70 de anillo. Esto implica multiplicar los valores de anillo de ARRR70, por cada uno de los tres componentes de morfologfa (s3, s4f y s4s). Luego, se toma un promedio ponderado de los componentes de AR resultantes sobre la imagen como se muestra en la tabla 4 - "Estadfsticas de caractensticas de anillos", utilizando el area de nucleos como una funcion en peso y normalizando sobre los tipos de region 1 y 2. Un ajuste de los cuadrados mmimos de estos tres componentes en 0 (no evento) o 1 (evento) crea una puntuacion de probabilidad que es el valor de caractenstica de salida.
Ejemplo 2: Localizacion por ARRR70 de imagen. Esto implica calcular el promedio ponderado del ARRR70 por caractenstica de anillo sobre toda la imagen, y el promedio ponderado de los componentes del triangulo de Gleason por anillo sobre toda la imagen. El procedimiento de ponderacion aqrn utiliza area de nucleos como un peso y normaliza sobre los tipos de region 1 y 2. El promedio ponderado de ARRR70 y cada uno de los tres componentes de morfologfa se multiplican para obtener tres valores. Un ajuste de los cuadrados mmimos del resultado en 0 (no evento) o 1 (evento) para crear una puntuacion de probabilidad que es el valor de caractenstica de salida
Ejemplo 3: Probabilidad bayesiana ingenua por ARRR70 de anillo. Esto implica multiplicar los valores de anillo de ARRR70 por cada uno de los tres componentes de morfologfa (s3, s4f y s4s). Luego, se toma un promedio ponderado de los componentes de AR resultantes sobre la imagen, como en el ejemplo 1. Los tres componentes se convierten por separado en tres puntuaciones de probabilidad (p3, p4f, p4s), que luego se combinan asumiendo que las probabilidades de no evento son independientes utilizando la formula:
Figure imgf000040_0001
Ejemplo 4: Probabilidad bayesiana ingenua por ARRR70 de imagen. Esto implica calcular el promedio ponderado del ARRR70 por caractenstica de anillo sobre toda la imagen, y el promedio ponderado de los componentes del triangulo de Gleason por anillo sobre toda la imagen como en el ejemplo 2. El promedio ponderado de ARRR70 y cada uno de los tres componentes de Gleason se multiplican para obtener tres valores, que se convierten por separado en tres puntuaciones de probabilidad (p3, p4f, p4s). Las tres puntuaciones de probabilidad luego se combinan asumiendo que las probabilidades de no evento son independientes como en ejemplo 3.
Ejemplo 5: La localizacion por caractenstica "borde proporcional 3 de arbol de expansion minima (MST)" de imagen, que se describe en Donovan y col., "Personalized Prediction of Tumor Response and Cancer Progression from the Prostate Needle Biopsy," Journal of Urology, 2009, 182:1, 125-132 incorporado anteriormente. Esto implica calcular el promedio ponderado de las "caractensticas de borde proporcional 3 de MST" por anillo sobre toda la imagen, y el promedio ponderado de los componentes del triangulo de Gleason por anillo sobre toda la imagen. El procedimiento de ponderacion aqrn utiliza area de nucleos como un peso y normaliza sobre los tipos de region 1 y 2. El promedio ponderado de "borde proporcional 3 de MST" y cada uno de los tres componentes de morfologfa se multiplican para obtener tres valores. Un ajuste de los cuadrados mmimos del resultado en 0 (no evento) o 1 (evento) para crear una puntuacion de probabilidad que es el valor de caractenstica de salida
Ejemplo 6: Localizacion por caractenstica de energfa de imagen, que se describio anteriormente en conexion con la figura 6C. Esto implica calcular el promedio ponderado de las caractensticas de energfa por anillo sobre toda la imagen, y el promedio ponderado de los componentes del triangulo de Gleason por anillo sobre toda la imagen. El procedimiento de ponderacion aqu utiliza area de nucleos como un peso y normaliza sobre los tipos de region 1 y 2. El promedio ponderado de la caractenstica de energfa y cada uno de los tres componentes de morfologfa se multiplican para obtener tres valores. Un ajuste de los cuadrados mmimos del resultado en 0 (no evento) o 1 (evento) para crear una puntuacion de probabilidad que es el valor de caractenstica de salida.
Ejemplo 7: Localizacion por imagen de una caractenstica de citoqueratina de alto peso molecular (HMWCK). HMWCK es un biomarcador cuya ausencia en unidades epiteliales define el cancer invasivo. Esto implica calcular el promedio ponderado de la HMWCK por anillo sobre toda la imagen, y el promedio ponderado de los componentes del triangulo de Gleason por anillo sobre toda la imagen. El procedimiento de ponderacion aqu utiliza area de nucleos como un peso y normaliza sobre los tipos de region 1 y 2. El promedio ponderado de la caractenstica de HMWCK y cada uno de los tres componentes de morfologfa se multiplican para obtener tres valores. Un ajuste de los cuadrados mmimos del resultado en 0 (no evento) o 1 (evento) para crear una puntuacion de probabilidad que es el valor de caractenstica de salida.
En algunas disposiciones descritas en la presente memoria descriptiva, en lugar de utilizar los componentes del triangulo de Gleason, se puede utilizar el triple ["s", "b", "sb"] (donde "s" es un componente morfologico, "b" es un biomarcador u otra caractenstica y "sb" es su producto). Este ajuste de parametro morfologico se puede utilizar con los cuatro esquemas descritos anteriormente. El esquema "Localizado por imagen" crea una interpolacion bilineal de las puntuaciones de probabilidad "s" y "b". Esto se muestra en la figura 22B, que muestra un ejemplo de combinacion de caractensticas bilineales. En la imagen original, los puntos rojos eran eventos tempranos y los puntos azules era eventos tardms, donde el eje AR es 0,8-1, el eje de morfologfa (gTr3 = contactoE) es 0-1, y el eje vertical es probabilidad de evento. En la presente, la figura 22B se ha incluido en negro y blanco para facilitar la reproduccion. Los diferentes valores de pronostico del biomarcador en los valores bajo y alto de la caractenstica morfologica pueden observarse como pendientes diferentes de la superficie en los valores bajo y alto.
Analisis de estabilidad
La figura 23A es un diagrama de flujo (2300) de etapas ilustrativas implicadas en la evaluacion del rendimiento de uno o mas algoritmos de segmentacion de acuerdo con algunas realizaciones de la presente invencion. De forma ventajosa, en algunas realizaciones, el proceso (2300) puede funcionar sin el uso de imagenes de datos reales. Esto es lo contrario a los enfoques anteriores para evaluacion de segmentacion, que usualmente implican evaluar un resultado de segmentacion utilizando una comparacion de objetos de segmentacion uno a uno con datos reales conocidos obtenidos manualmente, y que asume que las imagenes de datos reales son exactas, confiables y representativas de todo el ajuste de imagenes. Estas presunciones no suelen cumplirse en aplicaciones como la citometna de imagenes, donde la delineacion de los datos reales es tediosa y en la practica solamente se utiliza un manojo de imagenes de datos reales. Ademas, despues del despliegue del proceso de segmentacion, la monitorizacion de la calidad de segmentacion obtenida de las imagenes que no se utilizaron para desarrollar el proceso puede convertirse en un problema cntico, sin embargo, sin imagenes de datos reales obtenidas de las nuevas imagenes que se estan tratando, solo es posible la evaluacion subjetiva de un experto. Por ende, las realizaciones de la presente invencion que evaluan los resultados de segmentacion sin la necesidad de datos reales resuelven estos y otros problemas. En otras realizaciones de la presente invencion, en funcion de analisis de estabilidad de division y estadfstica, las imagenes (p. ej., las imagenes de tejidos) se pueden clasificar basandose en su dificultad para segmentarse, por ejemplo, con el fin de identificar automaticamente las imagenes diffciles y eliminarlas de un cohorte de imagenes para su uso en una aplicacion de analisis de imagenes. En algunas realizaciones de la presente invencion, se puede utilizar analisis de estabilidad para seleccionar caractensticas predictivas o de pronostico para su uso, por ejemplo, en un modelo predictivo.
En la etapa (2302), se puede recibir una imagen de entrada (p. ej., una imagen de entrada derivada del procesamiento previo de acuerdo con el proceso (200) (figura 2)). En la etapa (2304), se generan una o mas variantes alteradas de una imagen de tejido mediante la aplicacion de una perturbacion (p. ej., difuminado lineal leve) en la imagen. Por ejemplo, la figura 24 muestra una imagen original (arriba a la izquierda) y una imagen fantasma (abajo a la izquierda) que tienen diferentes parametros de difuminado y varianza.
En la etapa (2306), las imagenes original y alterada (p. ej., difuminada levemente) luego se segmentan utilizando uno o mas procesos de segmentacion. Por ejemplo, se puede aplicar analisis de estabilidad estadfstica en multiples procesos de segmentacion diferentes considerados para clasificar la estabilidad de dichos enfoques de segmentacion. En algunas realizaciones, se selecciona el enfoque de segmentacion mas estable para su uso en el desarrollo de modelos predictivos y/o la evaluacion de imagenes de tejidos de pacientes nuevos que se evaluaran a traves de modelos existentes.
En la etapa (2308), se evalua una coincidencia entre la salida de segmentacion de la imagen original con la salida de segmentacion de cada una de sus variantes alteradas para evaluar la estabilidad y producir uno o mas parametros de coincidencia. Por ejemplo, en una realizacion ilustrativa, se utilizaron 48 imagenes fantasmas realistas obtenidas de tejido de cancer de prostata de biopsia real. Las imagenes solo conteman tejido canceroso ya que todas las regiones no cancerosas se desenmascararon anteriormente.
La tabla 19 a continuacion proporciona una comparacion del enfoque para la evaluacion de segmentacion de acuerdo con algunas realizaciones de la presente invencion con la validacion basada en datos reales tradicional. Algunas realizaciones del presente enfoque surgen, por ejemplo, de la observacion de que los errores de segmentacion pueden clasificarse como estadfsticos o estructurales. Los errores estadfsticos reflejan la incapacidad de tener en cuenta las variaciones aleatorias en los valores de pfxeles, mientras que los errores estructurales derivan de modelos de descripcion de imagenes inadecuados. Las observaciones muestran que los errores estadfsticos predominan en el analisis de imagenes, por ejemplo, en citometna.
Tabla 19
Figure imgf000042_0001
Ejemplo de estabilidad 1: Analisis y clasificacion de algoritmos de segmentacion
Se crearon imagenes de datos reales para cada una de las 48 imagenes fantasma utilizando el proceso que se muestra en la figura 23D. Se evaluaron cuatro enfoques de segmentacion diferentes con diferencias de rendimiento variables y grandes. El proposito era ver que tan bien el procedimiento de perturbacion estadfstica distingrna el rendimiento de estos enfoques utilizando sus segmentaciones de las imagenes fantasma. Para cada par enfoque de segmentacionimagen, se obtuvieron una puntuacion de coincidencia de datos reales y cuatro puntuaciones de validacion estadfstica diferentes. El analisis de los resultados de esto mostro que las puntuaciones de validacion estadfstica y validacion de datos reales se correlacionan en mas del 96 % de los casos. El enfoque de validacion estadfstica reduce el esfuerzo y tiempo de revision de segmentacion en mas de un 99 % y permite la evaluacion de la calidad de segmentacion mucho despues de que se haya desplegado un algoritmo.
Mas espedficamente, se rehidrataron dieciseis secciones 5 pM de tejidos de prostata humana incrustados en parafina y fijados con formalina y se tineron utilizando 4'-6-diamidino-2-fenilindol (DAPI) de contratincion nuclear y citoqueratina 18 (CK18). Las imagenes de emision de DAPI y CK18 se capturaron utilizando una camara multiespectral Nuance con una resolucion de 20X por 10X. Un patologo desenmascaro digitalmente las regiones del tejido no cancerosas de las imagenes de DAPI-CK18. Como resultado, habfa tres niveles de grises presentes en las imagenes: el area enmascarada (negro), el fondo del tejido (gris oscuro) y el primer plano del tejido (regiones brillantes que representan los nucleos o el citoplasma). Se crearon tres imagenes de datos reales a partir de cada una de las 16 imagenes de DAPI-CK18 utilizando una herramienta de etiquetado semiautomatica. Dos patologos superiores revisaron los datos reales generados.
Generacion de datos reales: Las imagenes de datos reales se obtuvieron utilizando un procedimiento semiautomatico que implica la delineacion manual de los lfmites de celulas utilizando una herramienta de trazado de bordes. Permite la seleccion de puntos a lo largo del lfmite de interes que se aproximan a sus puntos de control de spline que utiliza para calcular la mejor aproximacion de B-spline de la curva cerrada. El usuario puede editar la curva agregando o eliminando puntos. Se trazo la forma de las celulas en las imagenes fantasma a partir de celulas de cancer de prostata reales utilizando la herramienta de trazado semiautomatica. La textura de los nucleos, citoplasma y fondo se muestreo a partir de las imagenes reales y se registro en las imagenes de datos reales. Se tuvo cuidado de replicar cualquier variacion de textura a lo largo del borde de las imagenes reales en los fantasmas. Se hizo un esfuerzo para normalizar la distribucion estadfstica de la intensidad general y la distribucion de los fantasmas para que coincidieran con los de las plantillas de imagenes reales. La figura 24 muestra las imagenes reales, la mascara de datos reales etiquetada y dos de las tres imagenes fantasma generadas a partir de la textura de las imagenes reales y la mascara de datos reales. Espedficamente, la imagen superior izquierda es del tejido de cancer de prostata real utilizado para generar las imagenes fantasma. La imagen superior derecha es una mascara de datos reales etiquetada obtenida del trazado de nucleos de la imagen de cancer de prostata real. Las imagenes inferior derecha e izquierda son imagenes fantasma obtenidas de las imagenes anteriores, respectivamente. Las imagenes fantasma tienen diferentes parametros de difuminado y varianza.
Enfoques de segmentacion y procesamiento de imagenes: Las figuras 25A-25D muestran cuatro enfoques de segmentacion celular y procesamiento de imagenes diferentes de acuerdo con algunas realizaciones de la presente invencion. Estos enfoques incluyen componentes modulares para la binarizacion (de la imagen de nucleos), la binarizacion (de la imagen de citoplasma), la deteccion de semillas (de la imagen de nucleo), la estimacion de tamano (de la imagen de nucleo), la segmentacion (de la imagen de nucleo), la segmentacion (de la imagen de citoplasma), el refinamiento de bordes (de la imagen de citoplasma), el procesamiento previo (de la imagen de nucleo), el rellenado de huecos (de la imagen de citoplasma) y la eliminacion de artefactos (de la imagen de nucleo) utilizando, por ejemplo, los procesos correspondientes para estos componentes modulares descritos anteriormente (p. ej., el procesamiento previo como se establece en el proceso (200) (figura 2)).
Este enfoque que se muestra en la figura 25A era el mas simple que inclrna (p. ej., consisrta en) binarizacion, deteccion de semillas, estimacion de tamano y segmentacion de la imagen de nucleo y binarizacion paralela, refinamiento de bordes y segmentacion de la imagen de citoplasma. El enfoque que se muestra en la figura 25B tiene ademas una etapa de procesamiento previo que incluye (p. ej., consiste en) correccion de no uniformidad de la imagen de DAPI original (descrita con mas detalle anteriormente de acuerdo con algunas realizaciones). El enfoque que se muestra en la figura 25C no utiliza la etapa de procesamiento previo pero utiliza la mascara de nucleo para rellenar huecos en la mascara de citoplasma. El enfoque que se muestra en la figura 25D contiene todas las etapas anteriores, que se describieron anteriormente de acuerdo con diversas realizaciones.
Las figuras 25E-F muestran otro enfoque de segmentacion celular y procesamiento de imagenes de acuerdo con otra realizacion de la presente invencion, que incluye un proceso de estimacion de tamano iterativo. En algunas realizaciones, la imagen de nucleos (p. ej., DAPI) es procesada previamente y binarizada antes de la segmentacion utilizando agrupacion de maximos locales con semillas. La segmentacion de nucleos y la imagen de citoplasma binarizada y con bordes refinados (p. ej., CK18) se utilizan para rellenar huecos en la mascara de citoplasma. La segmentacion de citoplasma puede utilizar algoritmo divisorio. La mascara de citoplasma se puede utilizar para detectar objetos de nucleos candidatos que pueden ser artefactos en la mascara de nucleos. Se pueden utilizar las caractensticas aprendidas de estos objetos (p. ej., incluidos sus tamanos, formas y/o texturas) en una deteccion de artefactos. En la figura 25F, se muestran etapas ilustrativas implicadas en el proceso iterativo. En algunas realizaciones, una imagen de nucleo de entrada (p. ej., imagen de DAPI) y una estimacion inicial de las semillas de nucleos contenidas en una imagen de semillas se utilizan en un proceso de estimacion de tamano que produce, por ejemplo, una estimacion del tamano de cada nucleo. Esta estimacion se puede utilizar en un proceso de agrupacion para producir una estimacion inicial de los lfmites del nucleo. Un proceso de analisis de estabilidad (p. ej., que se muestra en la figura 23B) crea una medida de la estabilidad de cada lfmite del nucleo, por ejemplo, en forma de una mascara de error. Un proceso de decision evalua la mascara de error y ajusta los lfmites del nucleo, por ejemplo, hasta lograr una division aceptable segun lo descrito por los valores en la mascara de error. La salida del proceso es una mascara de segmentacion de nucleo y una mascara de error.
Enfoque de estabilidad estadistica: Se generaron variantes alteradas de cada una de las imagenes de entrada utilizando kernels de convolucion [181] o [262] en cada una de las cuatro direcciones (de arriba hacia abajo, de arriba a la derecha hacia abajo a la izquierda, de derecha a izquierda y de abajo a la derecha hacia arriba a la izquierda) para obtener ocho variantes en total. Con referencia a la figura 23B, en algunas realizaciones de la presente invencion, se puede alterar una imagen de entrada para una o mas variantes. La imagen de entrada y todas sus variantes pueden segmentarse a traves de un proceso de segmentacion. La salida obtenida de la segmentacion de cada una de las variantes se puede comparar con la salida obtenida de la segmentacion de la imagen de entrada utilizando un parametro de coincidencia (p. ej. el coeficiente de similitud de Dice). Las discrepancias creadas en esta etapa de comparacion son salida, por ejemplo, en forma de una imagen de error.
Enfoque de estabilidad de division: En la figura 23C, se muestran etapas ilustrativas del proceso. En algunas realizaciones de la presente invencion, una imagen de entrada se puede segmentar y/o dividir a traves de un sistema de division. El sistema de division puede realizar operaciones morfologicas tales como, por ejemplo, erosion morfologica y/o dilatacion morfologica, para crear uno o mas de un primer plano, banda de primer plano y un fondo.
En algunas realizaciones, la caractenstica de textura utilizada puede ser energfa, por ejemplo, definida de la siguiente manera:
Figure imgf000044_0001
donde, p(i,j) se obtiene de la matriz de co-ocurrencia de niveles de grises que calcula con que frecuencia un pixel con valor de niveles de grises (intensidad de escala de grises) i se produce horizontalmente adyacente a un pixel con el valor j. Se pueden aplicar una o mas operaciones aritmeticas (p. ej., division o sustraccion) en una o mas divisiones. Los parametros de textura resultantes en dos o mas divisiones se pueden comparar y la salida de esta comparacion se puede utilizar como medida de estabilidad.
Parametros de validacion de estabilidad estadistica: Se derivaron las extensiones de los parametros de similitud de imagen Dice y Jaccard basicos al caso de: 1) multiples imagenes donde cada objeto en cada imagen se considero una coincidencia solo con un objeto en las otras imagenes (tabla 20, mas abajo); y 2) multiples imagenes, donde cada objeto en cada imagen se considero una coincidencia posiblemente con mas de un objeto en las otras imagenes (tabla 21, mas abajo). Se calcularon dos formas de cada uno de estos tres parametros. En la primera forma, se calculo el porcentaje de objetos en cada imagen cuya coincidencia de similitud Dice o Jaccard con su objeto u objetos correspondientes en todas las otras imagenes fuera mas de un punto lfmite (se utilizo 0,70 en los experimentos) para las ocho variantes alteradas. En la segunda forma, se promediaron las puntuaciones de similitud Dice y Jaccard de todos los objetos en cada imagen. Aqrn, las puntuaciones de similitud eran el promedio de las puntuaciones para todas las coincidencias con cada variante alterada, donde se obtuvo una puntuacion de 0,70. Esto era necesario para evitar sesgar excesivamente los resultados cuando un objeto no tema coincidencia en una variante alterada.
Tabla 20
Figure imgf000044_0002
donde max[.]p= maximo de todas las permutaciones
Figure imgf000045_0001
donde p= plazo de penalizacion,
e = superposiciones secundarias ponderadas por areas relativas,
1 = superposiciones secundarias ponderadas por areas relativas, y
max[.]p = maximo de todas las permutaciones.
Parametros de validacion de estabilidad de division: En algunas realizaciones de la presente invencion, se pueden utilizar uno o mas de los parametros para clasificar imagenes segmentadas.
Parametro 1: En algunas realizaciones, se puede utilizar un parametro de textura de fondo, por ejemplo, textura de fondo de objetos de citoplasma epitelial por imagen, para clasificar imagenes segmentadas. En algunas realizaciones, este parametro se puede calcular de la siguiente manera:
1. obtener la mascara de fondo complementando una mascara segmentada de citoplasma original; y
2. multiplicar la imagen original con la mascara de fondo y calcular la energfa promedio en el fondo.
Parametro 2: En algunas realizaciones, se puede utilizar un parametro de textura de banda, por ejemplo, textura promedio de la banda alrededor de cada objeto de citoplasma epitelial por imagen, para clasificar las imagenes segmentadas. En algunas realizaciones, este parametro se puede calcular de la siguiente manera:
1. dilatar una mascara de citoplasma epitelial segmentada utilizando, por ejemplo, un elemento de estructuracion de disco de 10 pfxeles;
2. sustraer la mascara dilatada de la mascara de citoplasma original; y
3. calcular la energfa (textura) de esa banda para cada objeto glandular de citoplasma y promediada para cada imagen, donde su valor es la textura de banda para esa imagen particular.
Parametro 3: En algunas realizaciones, se puede utilizar un parametro de textura de relacion de fondo, por ejemplo, la relacion de la textura de fondo del fondo de citoplasma original (p. ej., CK18) dividido por el fondo dilatado (p. ej., CK18), para clasificar las imagenes segmentadas. En algunas realizaciones, este parametro se puede calcular de la siguiente manera:
1. dilatar una mascara de citoplasma epitelial segmentada utilizando, por ejemplo, un elemento de estructuracion de disco de 10 pfxeles;
2. obtener los fondos original y dilatado complementando las mascaras segmentadas de citoplasma original y dilatado; y
3. calcular la energfa (textura) de la relacion del fondo de citoplasma original (p. ej., CK18) dividido por el fondo dilatado (p. ej., CK18), donde este valor es la textura de relacion de fondo para esa imagen particular.
Analisis de resultados: Para cada uno de los pares imagen-algoritmo de 48 por 4, se calcularon un parametro de coincidencia de datos reales (utilizando el parametro Dice clasico) y cuatro parametros de validacion de estabilidad (descritos anteriormente). La correlacion entre cada una de las puntuaciones de datos reales de 48 por 4 para cada par imagen-algoritmo con la puntuacion de validacion de estabilidad correspondiente tambien se calculo para cada parametro. Utilizando 48 imagenes y 4 algoritmos, se determino si el procedimiento de validacion basado en estabilidad podfa elegir el mejor de cada par de algoritmos para cada imagen, segun lo juzgado por la validacion basada en precision. Los resultados mostraron que esto es cierto en mas del 96 % de los casos. Exagero la diferencia de precision en los resultados de segmentacion juzgados similares por la validacion de datos reales en el 4 % de los casos. El procedimiento redujo el esfuerzo y el tiempo de revision de segmentacion en un 99 % y detecto consistentemente salidas de segmentacion deficientes.
La figura 26A muestra imagenes sometidas a analisis de estabilidad de acuerdo con algunas realizaciones de la presente invencion. En (a), se realizo una puntuacion de segmentacion y la imagen de la izquierda tema una buena segmentacion con una puntuacion de estabilidad alta, mientras que la imagen de la derecha tema una segmentacion deficiente que produjo una puntuacion de estabilidad estadfstica baja. En este ejemplo, los parametros descritos en conexion con la tabla 20 se utilizaron para calificar estas imagenes. En (b), se realizo una deteccion de errores y el efecto de un error de estimacion estadfstica en uno de los enfoques de segmentacion proporciono la imagen de la izquierda, que tema una puntuacion deficiente, mientras que la imagen de la derecha se creo con el mismo enfoque de segmentacion despues de la correccion del error de estimacion, y recibio una puntuacion de validacion correspondientemente mayor. Las imagenes en la figura 26A originalmente se generaron en color, pero en la presente memoria descriptiva se proporcionan en negro y blan
de varios nucleos superpuestos (a la derecha) y algunas superposiciones (a la izquierda), donde DAPI, CK18 y las salidas de la segmentacion se muestran de arriba a abajo. La figura 26C ilustra una buena salida de segmentacion correspondiente a un caso con una alta puntuacion de estabilidad (columna derecha), y un resultado deficiente de segmentacion que produce una baja puntuacion de estabilidad, donde DAPI, CK18 y las salidas de la segmentacion se muestran de arriba a abajo.
Para caracterizar los dos conjuntos de datos, se calcularon la estadfstica promedio del parametro de estabilidad estadfstica 1 y los tres parametros de estabilidad de division para imagenes de tejidos de biopsia y prostatectoirna, que se muestran en la tabla 22 mas abajo. Debido a las diferencias en el proceso de laboratorio, las imagenes de tejidos de prostatectom^a teman mayor ruido de fondo que las imagenes de tejidos de biopsia. Esto correspondfa a valores de parametros medios mas bajos. Ademas, las desviaciones estandar de los valores para las imagenes de biopsia eran inferiores a las de las imagenes de prostatectomna, lo cual indica que su segmentacion era superior en promedio. En la tabla 22: S-DSC: coeficiente de correlacion Dice basado en estabilidad, BGT: textura de fondo; BNT: textura de banda; BGRT: la relacion de la textura de fondo con la textura combinada del primer plano y la banda, en otras palabras, la textura en el fondo del fondo original frente al fondo de citoplasma dilatado.
Tabla 22
Figure imgf000046_0001
La tabla 23 a continuacion ilustra la mejora en las caractensticas de nucleos obtenida, por ejemplo, cuando se recorta (elimina) el 30 % inferior de las imagenes con puntuaciones de estabilidad estadfstica bajas del conjunto de datos. La tabla 23 muestra el mdice de concordancia de las caractensticas de nucleos de arbol de expansion minima obtenidas de 926 imagenes de biopsia de prostata antes y despues de dicho recorte.
Tabla 23
Figure imgf000047_0001
Analisis: Se aplico analisis de estabilidad para la evaluacion del rendimiento de algoritmos de segmentacion sin utilizar imagenes de datos reales. Las pruebas que utilizan 48 fantasmas realistas y cuatro algoritmos de segmentacion muestran que las puntuaciones de validacion estadfstica corresponden a puntuaciones de validacion de datos reales en mas del 96 % de los casos. Las pruebas en 6000 resultados de segmentacion muestran que este procedimiento acorta el esfuerzo y el tiempo de revision de segmentacion en un 99 %. Debido a que no se requieren datos reales, este procedimiento se puede utilizar para la evaluacion del rendimiento mucho tiempo despues del desarrollo del algoritmo.
En diversas realizaciones de la presente invencion, se puede aplicar una o ambas de la estabilidad estadfstica y de division para la tarea de clasificar imagenes por segmentacion. La tabla 22 anterior muestra los valores promedio de los parametros de estabilidad estadfstica y de division en los conjuntos de biopsia y prostatectoirna.
Por ende, se observa que se proporcionan sistemas y procedimientos, por ejemplo, para la segmentacion y el procesamiento de imagenes de tejidos y la extraccion de caractensticas de las mismas. Si bien en la presente memoria descriptiva se han descrito detalladamente realizaciones espedficas, esto se ha hecho a modo de ejemplo solo con fines ilustrativos, y no pretende ser taxativo con respecto al alcance de las reivindicaciones adjuntas, que se presentan a continuacion. En particular, el solicitante contempla que se pueden realizar diversas sustituciones, alteraciones y modificaciones sin apartarse del alcance de la invencion segun se define en las reivindicaciones. Se considera que otros aspectos, ventajas y modificaciones se encuentran dentro del alcance de las siguientes reivindicaciones. En la medida en que las realizaciones de la invencion descritas anteriormente son implementables, al menos en parte, utilizando un sistema informatico, se apreciara que se preve un programa informatico para implementar al menos parte de los procedimientos y/o los sistemas descritos como un aspecto de la presente invencion. El sistema informatico puede ser cualquier aparato, sistema o dispositivo adecuado. Por ejemplo, el sistema informatico puede ser un aparato de procesamiento de datos programable, un ordenador de uso general, un procesador digital de senales o un microprocesador. El programa informatico se puede incorporar como un codigo fuente y someterse a compilacion para su implementacion en una ordenador, o se puede incorporar como codigo objeto, por ejemplo.
Tambien es posible que alguna o todas las funcionalidades atribuidas al programa informatico o sistema informatico mencionado anteriormente puedan implementarse en hardware, por ejemplo, por medio de uno o mas circuitos integrados de aplicacion espedfica.
De forma adecuada, el sistema informatico se puede almacenar en un medio portador de forma utilizable por ordenador, tal como un medio legible por ordenador no transitorio, que tambien se preve como un aspecto de la presente invencion. Por ejemplo, el medio portador puede ser una memoria de estado solido, una memoria optica o magneto-optica tal como un disco legible y/o grabable, por ejemplo, un disco compacto (CD) o un disco versatil digital (DVD), o una memoria magnetica tal como disco o cinta, y el sistema informatico puede utilizar el programa para configurarla para su funcionamiento. El programa informatico tambien puede suministrarse desde una fuente remota incorporada en un medio portador, tal como una senal electronica, que incluya una onda portadora de radiofrecuencia o una onda portadora optica.

Claims (7)

REIVINDICACIONES
1. Un procedimiento implementado por ordenador para evaluar el rendimiento de uno o mas algoritmos de segmentacion mediante la ejecucion de codigo en un ordenador, comprendiendo el procedimiento:
recibir (2302) una imagen de al menos una muestra de tejido;
realizar (2306) segmentacion en la imagen;
crear dos o mas divisiones de imagen alrededor de los lfmites de segmentacion de la imagen;
crear, en cada una de las dos o mas divisiones de imagen, uno o mas de un objeto de primer plano y un objeto de fondo;
calcular un parametro de textura en cada una de las dos o mas divisiones de imagen; y
comparar los parametros de textura en las dos o mas divisiones de imagen para producir una salida que se pueda utilizar como una medida de estabilidad de segmentacion,
donde el parametro de textura es:
un parametro de textura de fondo calculado mediante (i) la obtencion de una mascara de fondo complementando una mascara de objeto de fondo, y (ii) la multiplicacion de la imagen original con la mascara de fondo y el calculo de una energfa promedio en el fondo; o
un parametro de textura de banda calculado mediante (i) la dilatacion de una mascara de objeto de primer plano; (ii) la sustraccion de la mascara dilatada de la mascara de objeto de primer plano para crear una banda de objeto de primer plano; y (iii) el calculo de un parametro de textura de banda para cada imagen como una energfa de la banda de objeto de primer plano para cada objeto de primer plano promediado a traves de la imagen; o
un parametro de textura de relacion de fondo calculado mediante (i) la dilatacion de una mascara de objeto de primer plano; (ii) la obtencion de un fondo original y un fondo dilatado complementando la mascara de objeto de primer plano y la mascara de objeto de primer plano dilatada; y (iii) el calculo de un parametro de textura de relacion de fondo para cada imagen como una energfa de una relacion del fondo original dividido por el fondo dilatado.
2. El procedimiento de acuerdo con la reivindicacion 1 que, ademas, comprende clasificar las imagenes segmentadas en funcion del parametro de textura.
3. El procedimiento de acuerdo con la reivindicacion 1 que, ademas, comprende determinar si una salida de segmentacion de imagenes de la imagen cumple uno o mas criterios de calidad de rendimiento.
4. El procedimiento de acuerdo con la reivindicacion 1 que, ademas, comprende:
aplicar una perturbacion en la imagen para generar una o mas variantes de imagenes;
realizar segmentacion en la imagen y en la una o mas variantes de la imagen para producir versiones segmentadas de la imagen y la una o mas variantes de la imagen;
realizar segmentacion en la imagen utilizando un parametro de coincidencia para producir una imagen segmentada de parametro de coincidencia; y
comparar la segmentacion de la una o mas variantes de imagenes con la imagen segmentada de parametro de coincidencia para evaluar una calidad de segmentacion de al menos una de la imagen y la una o mas variantes de imagenes, donde el parametro de coincidencia es un parametro de similitud Dice o Jaccard.
5. El procedimiento de acuerdo con la reivindicacion 4, donde aplicar una perturbacion en la imagen comprende configurar el ordenador utilizando un modulo de perturbacion para aplicar un algoritmo de difuminado lineal para transformar la imagen.
6. El procedimiento de acuerdo con la reivindicacion 1, donde la imagen recibida comprende una imagen de nucleo y/o una imagen de citoplasma, y donde el procedimiento ademas comprende realizar binarizacion, deteccion de semillas y estimacion de tamano en la imagen de nucleo, y binarizacion y refinamiento de bordes de la imagen de citoplasma.
7. El procedimiento de acuerdo con la reivindicacion 1, donde se calcula la energfa en el parametro de textura de acuerdo con
Figure imgf000048_0001
donde p(ij) se obtiene de la matriz de co-ocurrencia de niveles de grises que calcula con que frecuencia un pixel con valor de niveles de grises i se produce horizontalmente adyacente a un pixel con valor j.
ES14160371T 2010-07-30 2011-08-01 Sistemas y procedimientos para la segmentación y el procesamiento de imágenes de tejidos y extracción de características de estos para tratar, diagnosticar o predecir afecciones médicas Active ES2711196T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US40065710P 2010-07-30 2010-07-30
US40064210P 2010-07-30 2010-07-30
US45600910P 2010-10-28 2010-10-28
US45598810P 2010-10-28 2010-10-28

Publications (1)

Publication Number Publication Date
ES2711196T3 true ES2711196T3 (es) 2019-04-30

Family

ID=44533139

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14160371T Active ES2711196T3 (es) 2010-07-30 2011-08-01 Sistemas y procedimientos para la segmentación y el procesamiento de imágenes de tejidos y extracción de características de estos para tratar, diagnosticar o predecir afecciones médicas

Country Status (6)

Country Link
US (3) US9286505B2 (es)
EP (2) EP2779089B1 (es)
CA (3) CA2807144C (es)
ES (1) ES2711196T3 (es)
PT (1) PT2779089T (es)
WO (1) WO2012016242A2 (es)

Families Citing this family (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9773307B2 (en) * 2010-01-25 2017-09-26 Amcad Biomed Corporation Quantification and imaging methods and system of the echo texture feature
JP5665655B2 (ja) * 2011-05-24 2015-02-04 株式会社日立製作所 画像処理装置及び方法
JP5949558B2 (ja) * 2011-06-07 2016-07-06 コニカミノルタ株式会社 超音波診断装置および超音波診断装置の制御方法
RU2476932C1 (ru) * 2012-03-30 2013-02-27 Федеральное государственное бюджетное учреждение науки Вычислительный центр им. А.А. Дородницына Российской академии наук Автоматизированная система анализа биомедицинских микроизображений для обнаружения и характеризации информативных объектов заданных классов на неоднородном фоне
JP5924406B2 (ja) * 2012-04-23 2016-05-25 日本電気株式会社 画像計測装置、画像計測方法、および、画像計測用プログラム
US9036888B2 (en) * 2012-04-30 2015-05-19 General Electric Company Systems and methods for performing quality review scoring of biomarkers and image analysis methods for biological tissue
WO2013164277A2 (en) * 2012-04-30 2013-11-07 General Electric Company Systems and methods for selection and display of multiplexed images of biological tissue
US20140064596A1 (en) * 2012-08-29 2014-03-06 Micron Technology, Inc. Descriptor guided fast marching method for analyzing images and systems using the same
US10262330B2 (en) * 2013-01-04 2019-04-16 PlaceIQ, Inc. Location-based analytic platform and methods
RU2533876C2 (ru) * 2013-01-23 2014-11-20 Олег Владимирович Чикало Способ бинаризации медицинских изображений
US9235890B2 (en) * 2013-03-15 2016-01-12 Yahoo! Inc. Identifying regions characterized by labeled measurements
US11080318B2 (en) * 2013-06-27 2021-08-03 Kodak Alaris Inc. Method for ranking and selecting events in media collections
KR20160032137A (ko) * 2013-07-15 2016-03-23 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 특징 기반 영상 집합 압축
CN104346801B (zh) * 2013-08-02 2018-07-20 佳能株式会社 图像构图评估装置、信息处理装置及其方法
TWI496112B (zh) * 2013-09-13 2015-08-11 Univ Nat Cheng Kung 細胞影像分割方法以及核質比評估方法
WO2015054295A1 (en) * 2013-10-07 2015-04-16 Arizona Board Of Regents On Behalf Of Arizona State University Kidney glomeruli measurement systems and methods
US8885901B1 (en) * 2013-10-22 2014-11-11 Eyenuk, Inc. Systems and methods for automated enhancement of retinal images
US9412005B2 (en) * 2013-10-25 2016-08-09 Gooch & Housego Plc Use of error image for unmixing artifact removal in linear spectral unmixing
CN103530887B (zh) * 2013-10-29 2016-02-03 重庆大学 一种基于多特征融合的河面图像区域分割方法
WO2015089434A1 (en) * 2013-12-12 2015-06-18 University Of Pittsburgh - Of The Commonwealth System Of Higher Education Automated epithelial nuclei segmentation for computational disease detection algorithms
US9384550B2 (en) * 2014-03-27 2016-07-05 Konica Minolta, Inc. Image processing device and storage medium for image processing
CN106462767B (zh) * 2014-04-03 2021-01-19 皇家飞利浦有限公司 用于处理和分析图像的检查设备
WO2015189264A1 (en) * 2014-06-10 2015-12-17 Ventana Medical Systems, Inc. Predicting breast cancer recurrence directly from image features computed from digitized immunohistopathology tissue slides
WO2016014384A2 (en) * 2014-07-25 2016-01-28 Covidien Lp Augmented surgical reality environment
EP2985719A1 (en) * 2014-08-15 2016-02-17 IMEC vzw A system and method for cell recognition
US10096110B2 (en) * 2014-08-22 2018-10-09 University Of South Florida System and method for automated stereology of cancer
WO2016075095A2 (en) * 2014-11-10 2016-05-19 Ventana Medical Systems, Inc. Using contextual information to classify nuclei in histology images
US10943350B2 (en) * 2015-02-25 2021-03-09 London Health Science Center Research Inc. Automated segmentation of histological sections for vasculature quantification
US10733417B2 (en) 2015-04-23 2020-08-04 Cedars-Sinai Medical Center Automated delineation of nuclei for three dimensional (3-D) high content screening
JP6725646B2 (ja) * 2015-09-02 2020-07-22 ベンタナ メディカル システムズ, インコーポレイテッド 解析的に別個の検体染色のパターンの混合を有する細胞サンプルの自動化解析
US9779499B2 (en) * 2015-09-18 2017-10-03 Definiens Ag Grading of glandular tissue cancer by detailed image analysis of stained tissue slices
US9613254B1 (en) 2015-09-30 2017-04-04 General Electric Company Quantitative in situ characterization of heterogeneity in biological samples
US10019796B2 (en) * 2015-10-16 2018-07-10 General Electric Company System and method for blood vessel analysis and quantification in highly multiplexed fluorescence imaging
US20170119316A1 (en) * 2015-10-30 2017-05-04 Orthosensor Inc Orthopedic measurement and tracking system
JP6559353B2 (ja) * 2015-12-15 2019-08-14 ライカ バイオシステムズ イメージング インコーポレイテッドLeica Biosystems Imaging, Inc. 自動核セグメンテーション
CN106910180B (zh) * 2015-12-22 2019-08-20 成都理想境界科技有限公司 一种图像质量评估方法及装置
WO2017132674A1 (en) * 2016-01-28 2017-08-03 Letterie Gerard Automated image analysis to assess reproductive potential of human oocytes and pronuclear embryos
EP3455789A1 (en) * 2016-06-10 2019-03-20 Amnis Corporation A method to combine brightfield and fluorescent channels for cell image segmentation and morphological analysis using images obtained from imaging flow cytometer (ifc)
EP3477586A4 (en) * 2016-06-23 2019-05-01 Konica Minolta, Inc. PICTURE PROCESSING DEVICE, PICTURE PROCESSING METHOD AND PICTURE PROCESSING PROGRAM
US20180053297A1 (en) * 2016-08-18 2018-02-22 Ohio University Methods and Apparatuses for Detection of Abnormalities in Low-Contrast Images
CN109963936A (zh) 2016-09-08 2019-07-02 雅培实验室 自动体液分析
US10430943B2 (en) * 2016-10-07 2019-10-01 Sony Corporation Automated nuclei area/number estimation for IHC image analysis
WO2018115055A1 (en) * 2016-12-22 2018-06-28 Ventana Medical Systems, Inc. Computer scoring based on primary stain and immunohistochemistry images
US10332252B2 (en) * 2016-12-29 2019-06-25 General Electric Company Slope constrained cubic interpolation
CN110326024B (zh) * 2017-02-21 2023-11-03 株式会社高迎科技 用于处理由医学成像装置捕获的组织学图像的方法和装置
EP3607491A4 (en) * 2017-04-06 2021-01-13 Cadess.Ai Ab SEGMENTATION OF HISTOLOGICAL TISSUE IMAGES IN GLAND STRUCTURES FOR THE CLASSIFICATION OF PROSTATE CANCER
US11748877B2 (en) 2017-05-11 2023-09-05 The Research Foundation For The State University Of New York System and method associated with predicting segmentation quality of objects in analysis of copious image data
US10650520B1 (en) * 2017-06-06 2020-05-12 PathAI, Inc. Systems and methods for training a statistical model to predict tissue characteristics for a pathology image
JP7011035B2 (ja) * 2017-08-04 2022-01-26 ベンタナ メディカル システムズ, インコーポレイテッド 染色された標本画像内で細胞を検出するための自動化された方法およびシステム
CN107465771B (zh) * 2017-09-20 2020-05-19 广东工业大学 一种网络地址段划分方法及系统
JP2019058073A (ja) * 2017-09-25 2019-04-18 オリンパス株式会社 画像処理装置、細胞認識装置、細胞認識方法および細胞認識プログラム
US10803328B1 (en) * 2017-11-15 2020-10-13 Uatc, Llc Semantic and instance segmentation
US10402623B2 (en) * 2017-11-30 2019-09-03 Metal Industries Research & Development Centre Large scale cell image analysis method and system
KR101998397B1 (ko) * 2017-12-22 2019-07-09 한국기술교육대학교 산학협력단 작업 공간 모델링에서 뎁스 이미지를 이용한 버텍스 최적화 방법 및 시스템
US10818011B2 (en) * 2017-12-29 2020-10-27 Shenzhen Institutes Of Advanced Technology Chinese Academy Of Sciences Carpal segmentation and recognition method and system, terminal and readable storage medium
WO2019152850A1 (en) * 2018-02-02 2019-08-08 Centerline Biomedical, Inc. Segmentation of anatomic structures
CN110298811B (zh) * 2018-03-21 2021-10-26 北京大学 图像的预处理方法、装置、终端以及计算机可读存储介质
CN108550129B (zh) * 2018-04-20 2019-04-09 北京航天宏图信息技术股份有限公司 基于地理模板的匀色方法及装置
CN108961208B (zh) * 2018-05-21 2021-04-27 江苏康尚生物医疗科技有限公司 一种聚集白细胞分割计数系统及方法
EP3803686A4 (en) 2018-05-24 2022-03-16 University of Pittsburgh - of the Commonwealth System of Higher Education PREDICTION OF CANCER RECIDENCE USING CELLULAR AND SUBCELLULAR IMAGING DATA WITH MULTIPLE SPATIAL PARAMETERS
IT201800005848A1 (it) * 2018-05-30 2019-11-30 Metodo per segmentazione e classificazione automatica di oggetti rilevanti in un’immagine digitale di un campione di tessuto
WO2019241771A1 (en) * 2018-06-15 2019-12-19 Riegle Christopher Methods and systems for recognizing geometric units in a computer image
US10430708B1 (en) * 2018-08-17 2019-10-01 Aivitae LLC System and method for noise-based training of a prediction model
EP3629240B1 (en) * 2018-09-07 2023-08-23 Panasonic Intellectual Property Corporation of America Generative adversarial networks for local noise removal from an image
JP7228688B2 (ja) * 2018-10-15 2023-02-24 ベンタナ メディカル システムズ, インコーポレイテッド 改善された核検出およびセグメンテーションを可能にする画像強化
CN111161275B (zh) * 2018-11-08 2022-12-23 腾讯科技(深圳)有限公司 医学图像中目标对象的分割方法、装置和电子设备
US20220050996A1 (en) * 2018-12-15 2022-02-17 The Brigham And Women's Hospital, Inc. Augmented digital microscopy for lesion analysis
CN109934812B (zh) * 2019-03-08 2022-12-09 腾讯科技(深圳)有限公司 图像处理方法、装置、服务器及存储介质
JP7450942B2 (ja) * 2019-03-26 2024-03-18 国立大学法人大阪大学 画像解析方法、画像解析プログラム、記録媒体、画像解析装置、画像解析システム
US11521316B1 (en) 2019-04-03 2022-12-06 Kentucky Imaging Technologies Automatic extraction of interdental gingiva regions
JP7148462B2 (ja) * 2019-07-19 2022-10-05 京セラ株式会社 画像認識評価プログラム、画像認識評価方法、評価装置及び評価システム
US11361574B2 (en) * 2019-10-23 2022-06-14 Bendix Commercial Vehicle Systems Llc System and method for monitoring for driver presence and position using a driver facing camera
CN111062962B (zh) * 2019-12-06 2022-09-27 昆明理工大学 一种基于差分搜索算法的多阈值超声图像分割方法
CN111192251B (zh) * 2019-12-30 2023-03-28 上海交通大学医学院附属国际和平妇幼保健院 基于水平集图像分割的卵泡超声处理方法和系统
CN111340773B (zh) * 2020-02-24 2022-11-22 齐鲁工业大学 一种视网膜图像血管分割方法
TWI743693B (zh) * 2020-02-27 2021-10-21 國立陽明交通大學 良性腫瘤發展趨勢評估系統、其伺服計算機裝置及計算機可讀取的儲存媒體
CN111476881A (zh) * 2020-03-18 2020-07-31 创业慧康科技股份有限公司 基于结构相似性水平集算法的人体组织器官三维重建方法
CN111257348B (zh) * 2020-03-27 2023-02-17 河海大学常州校区 一种基于机器视觉的led导光板缺陷检测方法
CN111583175B (zh) * 2020-03-30 2024-03-22 浪潮通用软件有限公司 一种红细胞图像检测方法及设备、介质
CN111583189B (zh) * 2020-04-16 2024-02-27 武汉联影智融医疗科技有限公司 大脑核团定位方法、装置、存储介质及计算机设备
CN111582111B (zh) * 2020-04-29 2022-04-29 电子科技大学 一种基于语义分割的细胞各成分分割方法
CN113628157A (zh) * 2020-05-06 2021-11-09 德克萨斯大学体系董事会 利用病理图像来表征肿瘤微环境的系统和方法
EP3922980B1 (en) * 2020-06-12 2022-08-10 Sartorius Stedim Data Analytics AB Computer-implemented method, computer program product and system for data analysis
WO2022046494A1 (en) * 2020-08-24 2022-03-03 Applied Materials, Inc. Cell detection using segmentation based on nuclear staining and mfish images
US11869125B2 (en) * 2020-09-30 2024-01-09 Adobe Inc. Generating composite images with objects from different times
CN112330688A (zh) * 2020-11-02 2021-02-05 腾讯科技(深圳)有限公司 基于人工智能的图像处理方法、装置和计算机设备
JP7122017B2 (ja) * 2020-12-28 2022-08-19 株式会社APSAM Imaging 画像解析方法、推定装置、推定システム、制御プログラム、記録媒体
KR102654891B1 (ko) * 2020-12-28 2024-04-05 세메스 주식회사 이상 진단 시스템 및 이상 진단 방법
CN112819788B (zh) * 2021-02-01 2023-02-07 上海万物新生环保科技集团有限公司 一种图像稳定性检测方法及设备
CN113034460B (zh) * 2021-03-21 2022-09-09 湖南科迈森医疗科技有限公司 子宫内膜腺体密度预估方法
CN114037724B (zh) * 2021-10-18 2024-04-09 哈尔滨工业大学 一种阈值法图像分割的异构并行计算系统、方法及电子设备
CN114119645B (zh) * 2021-11-25 2022-10-21 推想医疗科技股份有限公司 一种图像分割质量的确定方法、系统、设备及介质
CN114283156B (zh) * 2021-12-02 2024-03-05 珠海移科智能科技有限公司 一种用于去除文档图像颜色及手写笔迹的方法及装置
CN114862877B (zh) * 2022-05-27 2024-03-22 四川大学华西医院 基于置信度评分的细胞粘连分割方法和装置
CN115082529B (zh) * 2022-06-30 2023-04-14 华东师范大学 一种大体组织多维信息采集和分析系统与方法
CN116580041A (zh) * 2023-05-30 2023-08-11 山东第一医科大学附属眼科研究所(山东省眼科研究所、山东第一医科大学附属青岛眼科医院) 基于voronoi图的角膜内皮细胞边界分割方法和装置
CN116597389B (zh) * 2023-07-18 2023-09-15 山东省地质测绘院 基于图像处理的地质灾害监测及预警方法
CN116645382B (zh) * 2023-07-26 2023-10-20 天津恒宇医疗科技有限公司 自适应的血管分割方法及系统

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1059808A (en) 1912-07-06 1913-04-22 Triumph Voting Machine Co Operating-lever lock for voting-machines.
US6227850B1 (en) 1999-05-13 2001-05-08 Align Technology, Inc. Teeth viewing system
US6577762B1 (en) * 1999-10-26 2003-06-10 Xerox Corporation Background surface thresholding
JP4320990B2 (ja) * 2001-11-30 2009-08-26 セイコーエプソン株式会社 画面欠陥検出方法及び装置並びに画面欠陥検出のためのプログラム
WO2003095986A1 (en) * 2002-05-14 2003-11-20 Amersham Biosciences Niagara, Inc. System and methods for rapid and automated screening of cells
US6706605B1 (en) 2003-03-31 2004-03-16 Texas Instruments Incorporated Transistor formed from stacked disposable sidewall spacer
US7321881B2 (en) 2004-02-27 2008-01-22 Aureon Laboratories, Inc. Methods and systems for predicting occurrence of an event
US6995020B2 (en) 2003-07-21 2006-02-07 Aureon Laboratories, Inc. Methods and compositions for the preparation and use of fixed-treated cell-lines and tissue in fluorescence in situ hybridization
US7580556B2 (en) * 2004-01-26 2009-08-25 Drvision Technologies Llc Image region partitioning using pre-labeled regions
US8265355B2 (en) * 2004-11-19 2012-09-11 Koninklijke Philips Electronics N.V. System and method for automated detection and segmentation of tumor boundaries within medical imaging data
CA2607609C (en) * 2005-05-13 2014-07-15 Tripath Imaging, Inc. Methods of chromogen separation-based image analysis
US8280132B2 (en) * 2006-08-01 2012-10-02 Rutgers, The State University Of New Jersey Malignancy diagnosis using content-based image retreival of tissue histopathology
DE102007013971B4 (de) * 2007-03-23 2011-07-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V., 80686 Verfahren und Vorrichtung zur Ermittlung einer Zellkontur einer Zelle
US8417033B2 (en) * 2007-04-27 2013-04-09 Hewlett-Packard Development Company, L.P. Gradient based background segmentation and enhancement of images
EP2107589B1 (de) 2008-03-31 2012-05-16 SMA Solar Technology AG Schaltungsvorrichtung zur Erdung eines Wechselrichters
US8472683B2 (en) * 2008-05-09 2013-06-25 General Electric Company Motion correction in tomographic images
CA2731747C (en) * 2008-07-25 2020-05-05 Aureon Laboratories, Inc. Systems and methods for treating, diagnosing and predicting the occurrence of a medical condition
US9779213B2 (en) * 2008-07-25 2017-10-03 Fundacao D. Anna Sommer Champalimaud E Dr. Carlos Montez Champalimaud System for evaluating a pathological stage of prostate cancer
US8718340B2 (en) * 2008-09-03 2014-05-06 Trustees Of The University Of Pennsylvania System and method for accurate and rapid identification of diseased regions on biological images with applications to disease diagnosis and prognosis
CN102388305B (zh) * 2009-02-02 2014-11-19 罗格斯新泽西州立大学 基于图像的风险分数-来自数字组织病理学的存活率和结果的预后预估
KR101058726B1 (ko) * 2009-11-11 2011-08-22 삼성전자주식회사 조명 성분을 제거하기 위한 이미지 보정 장치 및 방법
US9779283B2 (en) * 2011-01-05 2017-10-03 The Board Of Trustees Of The University Of Illinois Automated prostate tissue referencing for cancer detection and diagnosis
US9230063B2 (en) * 2011-01-05 2016-01-05 The Board Of Trustees Of The University Of Illinois Automated prostate tissue referencing for cancer detection and diagnosis
WO2012096992A1 (en) * 2011-01-10 2012-07-19 Rutgers, The State University Of New Jersey Boosted consensus classifier for large images using fields of view of various sizes
US9286672B2 (en) * 2012-01-10 2016-03-15 Rutgers, The State University Of New Jersey Integrated multivariate image-based method for disease outcome predicition

Also Published As

Publication number Publication date
EP2779089B1 (en) 2018-11-14
EP2779089A2 (en) 2014-09-17
CA3010836C (en) 2020-09-08
CA3048769A1 (en) 2012-02-02
US9971931B2 (en) 2018-05-15
US9286505B2 (en) 2016-03-15
US20180025212A1 (en) 2018-01-25
WO2012016242A3 (en) 2012-05-18
PT2779089T (pt) 2019-02-19
CA2807144C (en) 2019-05-28
US9754152B2 (en) 2017-09-05
EP2599055A2 (en) 2013-06-05
EP2779089A3 (en) 2014-12-31
US20130230230A1 (en) 2013-09-05
WO2012016242A2 (en) 2012-02-02
US20160188954A1 (en) 2016-06-30
CA2807144A1 (en) 2012-02-02
CA3010836A1 (en) 2012-02-02

Similar Documents

Publication Publication Date Title
ES2711196T3 (es) Sistemas y procedimientos para la segmentación y el procesamiento de imágenes de tejidos y extracción de características de estos para tratar, diagnosticar o predecir afecciones médicas
Sirinukunwattana et al. A stochastic polygons model for glandular structures in colon histology images
Naik et al. Gland segmentation and computerized gleason grading of prostate histology by integrating low-, high-level and domain specific information
US8488863B2 (en) Combinational pixel-by-pixel and object-level classifying, segmenting, and agglomerating in performing quantitative image analysis that distinguishes between healthy non-cancerous and cancerous cell nuclei and delineates nuclear, cytoplasm, and stromal material objects from stained biological tissue materials
US8712142B2 (en) Method and apparatus for analysis of histopathology images and its application to cancer diagnosis and grading
JP2020508143A (ja) インスタンス重み付けを伴うランダムフォレストを使用するマルチパラメトリックmriにおける前立腺がんの検出、およびホリスティックネスト型ネットワークを用いたディープラーニングによるmr前立腺セグメント化
Salvi et al. A hybrid deep learning approach for gland segmentation in prostate histopathological images
Singh et al. Gland segmentation in prostate histopathological images
Goceri et al. Quantitative validation of anti‐PTBP1 antibody for diagnostic neuropathology use: Image analysis approach
Xu et al. Using transfer learning on whole slide images to predict tumor mutational burden in bladder cancer patients
Sánchez et al. Bright spot regions segmentation and classification for specular highlights detection in colonoscopy videos
Wang et al. Identifying neutrophils in H&E staining histology tissue images
Song et al. New morphological features for grading pancreatic ductal adenocarcinomas
Fogarasi et al. Glandular object based tumor morphometry in H&E biopsy samples for prostate cancer prognosis
Saxena et al. Study of Computerized Segmentation & Classification Techniques: An Application to Histopathological Imagery
Smochina Image processing techniques and segmentation evaluation
Eapen et al. Swarm intelligence integrated graph-cut for liver segmentation from 3D-CT volumes
Nandanwar et al. Analysis of pixel intensity variation by performing morphological operations for image segmentation on cervical cancer pap smear image
Benaggoune et al. A deep learning pipeline for breast cancer ki-67 proliferation index scoring
Łowicki et al. Towards sustainable health-detection of tumor changes in breast histopathological images using deep learning
Ramachandran et al. Adaptive epithelial cytoplasm segmentation and epithelial unit separation in immunoflurorescent images
TSAKU Texture-based deep neural network for histopathology cancer whole slide image (WSI) classification
Khan A hybrid unsupervised classification technique for automatic brain MRI tumor recognition
Sanghavi Computer-aided automated Gleason grading of prostate cancer histopathology images
Kaur Automated classification of the histopathology and frozen section images of prostate cancer using transfer learning framework