<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0365-6691</journal-id>
<journal-title><![CDATA[Archivos de la Sociedad Española de Oftalmología]]></journal-title>
<abbrev-journal-title><![CDATA[Arch Soc Esp Oftalmol]]></abbrev-journal-title>
<issn>0365-6691</issn>
<publisher>
<publisher-name><![CDATA[Sociedad Española de Oftalmología]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0365-66912004001200009</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Tratamiento digital de retinografías para detectar automáticamente lesiones asociadas con la retinopatía diabética]]></article-title>
<article-title xml:lang="en"><![CDATA[Retinal image analysis to detect lesions associated with diabetic retinopathy]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Sánchez Gutiérrez]]></surname>
<given-names><![CDATA[CI]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[López Gálvez]]></surname>
<given-names><![CDATA[MI]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Hornero Sánchez]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Poza Crespo]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de Valladolid Instituto Universitario de Oftalmobiología Aplicada (IOBA) ]]></institution>
<addr-line><![CDATA[Valladolid ]]></addr-line>
<country>Epaña</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad de Valladolid Escuela Técnica Superior de Ingenieros de Telecomunicación ]]></institution>
<addr-line><![CDATA[Valladolid ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>12</month>
<year>2004</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>12</month>
<year>2004</year>
</pub-date>
<volume>79</volume>
<numero>12</numero>
<fpage>623</fpage>
<lpage>628</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.isciii.es/scielo.php?script=sci_arttext&amp;pid=S0365-66912004001200009&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.isciii.es/scielo.php?script=sci_abstract&amp;pid=S0365-66912004001200009&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.isciii.es/scielo.php?script=sci_pdf&amp;pid=S0365-66912004001200009&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Objetivos: La retinopatía diabética es la causa más frecuente de ceguera en la población activa de los países industrializados. Para retrasar su evolución y evitar así la pérdida de visión, el mejor método de prevención es un seguimiento regular médico. Para ello, se utilizan las imágenes de fondo de ojo o retinografías. Sin embargo, debido al gran número de pacientes, se requiere mucho esfuerzo y tiempo para revisar todas las imágenes. El objetivo de este trabajo es desarrollar un método automático que ayude a detectar los primeros síntomas de la retinopatía diabética mediante un tratamiento digital de las retinografías. Métodos: El método expuesto en este artículo se centra exclusivamente en la detección de exudados duros, uno de los primeros síntomas de la retinopatía diabética. Su localización automática se basa en su color, usando clasificación estadística, y sus bordes definidos, mediante un filtro detector de bordes. Resultados: Aplicando el algoritmo propuesto a 20 retinografías de distinta calidad, iluminación y color, obtuvimos una sensibilidad de 79,62% con una media de 3 falsos positivos por imagen. El número de falso negativos aumentaba sobre todo cuando los exudados aparecían muy cerca de los vasos sanguíneos. Conclusión: El objetivo final de este proyecto es automatizar el seguimiento médico de la retinopatía diabética mediante el tratamiento digital de las retinografias de los pacientes. En esta primera etapa, se ha desarrollado una herramienta que permite la detección automática de una lesión asociada a esta enfermedad: los exudados duros. En futuros trabajos se pretende mejorar los resultados obtenidos y continuar con la localización de otras lesiones.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Purpose: Diabetic retinopathy is a leading cause of vision loss in developed countries. Regular diabetic retinal eye screenings are needed to detect early signs of retinopathy, so that appropriate treatments can be rendered to prevent blindness. Digital imaging is becoming available as a means of screening for diabetic retinopathy. However, with the large number of patients undergoing screenings, medical professionals require a tremendous amount of time and effort in order to analyse and diagnose the fundus photographs. Our aim is to develop an automatic algorithm using digital image analysis for detecting these early lesions from retinal images. Methods: An automatic method to detect hard exudates, a lesion associated with diabetic retinopathy, is proposed. The algorithm is based on their colour, using a statistical classification, and their sharp edges, applying an edge detector, to localise them. Results: A sensitivity of 79.62% with a mean number of 3 false positives per image is obtained in a database of 20 retinal images with variable colour, brightness and quality. It can also be seen that the number of the false negative cases increases when the hard exudates were very close to the vessel tree. Conclusion: The long term goal of the project is to automate the screening for diabetic retinopathy with retinal images. We have described the preliminary development of a tool to provide automatic analysis of digital fundus photographs to localise hard exudates. Future work will address the issue of improving the obtained results and also will focus on detecting other lesions.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Exudados duros]]></kwd>
<kwd lng="es"><![CDATA[procesado digital]]></kwd>
<kwd lng="es"><![CDATA[retinografía]]></kwd>
<kwd lng="es"><![CDATA[retinopatía diabética]]></kwd>
<kwd lng="en"><![CDATA[Diabetic retinopathy]]></kwd>
<kwd lng="en"><![CDATA[digital processing]]></kwd>
<kwd lng="en"><![CDATA[hard exudates]]></kwd>
<kwd lng="en"><![CDATA[retinal images]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <P align=right><b>ARTÍCULO        ORIGINAL&nbsp;</b><B> <HR>        </B>              <P align=center><B> <font size="4"> TRATAMIENTO DIGITAL DE RETINOGRAFÍAS PARA DETECTAR  AUTOMÁTICAMENTE&nbsp;    <br>  LESIONES ASOCIADAS CON LA RETINOPATÍA DIABÉTICA</font></B>              <P align=center><B> &nbsp;RETINAL IMAGE ANALYSIS TO DETECT LESIONS ASSOCIATED WITH  DIABETIC RETINOPATHY</B>     <P align=center>SÁNCHEZ GUTIÉRREZ CI <sup>1</sup>, LÓPEZ GÁLVEZ MI <sup>2</sup>, HORNERO  SÁNCHEZ R <sup>3</sup>, POZA CRESPO J <sup>1</sup></P>       <table border="0" width="100%">         <tr>           <td width="48%" valign="top"><B>      <P align=center>RESUMEN</P></B>     <P><B>Objetivos: </B>La retinopatía diabética es la  causa más frecuente de ceguera en la población activa de los países  industrializados. Para retrasar su evolución y evitar así la pérdida de visión,  el mejor método de prevención es un seguimiento regular médico. Para ello, se  utilizan las imágenes de fondo de ojo o retinografías. Sin embargo, debido al  gran número de pacientes, se requiere mucho esfuerzo y tiempo para revisar todas  las imágenes. El objetivo de este trabajo es desarrollar un método automático  que ayude a detectar los primeros síntomas de la retinopatía diabética mediante  un tratamiento digital de las retinografías.<B>    <br> Métodos:</B> El método expuesto  en este artículo se centra exclusivamente en la detección de exudados duros, uno  de los primeros síntomas de la retinopatía diabética. Su localización automática  se basa en su color, usando clasificación estadística, y sus bordes definidos,  mediante un filtro detector de bordes.<B>    <br> Resultados:</B> Aplicando el  algoritmo propuesto a 20 retinografías de distinta calidad, iluminación y color,  obtuvimos una sensibilidad de 79,62% con una media de 3 falsos positivos por  imagen. El número de falso negativos aumentaba sobre todo cuando los exudados  aparecían muy cerca de los vasos sanguíneos.<B>    <br> Conclusión:</B> El objetivo final  de este proyecto es automatizar el seguimiento médico de la retinopatía  diabética mediante el tratamiento digital de las retinografias de los pacientes.  En esta primera etapa, se ha desarrollado una herramienta que permite la  detección automática de una lesión asociada a esta enfermedad: los exudados  duros. En futuros trabajos se pretende mejorar los resultados obtenidos y  continuar con la localización de otras lesiones.</P><B>     ]]></body>
<body><![CDATA[<P>Palabras claves:</B> Exudados  duros, procesado digital, retinografía, retinopatía diabética.</P>           </td>           <td width="4%" valign="top"></td>           <td width="48%" valign="top"> <B>     <P align=center>SUMMARY</P></B>     <P><B>Purpose:</B> Diabetic retinopathy is a leading  cause of vision loss in developed countries. Regular diabetic retinal eye  screenings are needed to detect early signs of retinopathy, so that appropriate  treatments can be rendered to prevent blindness. Digital imaging is becoming  available as a means of screening for diabetic retinopathy. However, with the  large number of patients undergoing screenings, medical professionals require a  tremendous amount of time and effort in order to analyse and diagnose the fundus photographs. Our aim is to develop an automatic algorithm using digital image  analysis for detecting these early lesions from retinal images.<B>    <br> Methods:</B> An automatic method  to detect hard exudates, a lesion associated with diabetic retinopathy, is proposed. The algorithm is based on their colour, using a statistical classification, and their sharp edges, applying an edge detector, to localise them.<B>    <br> Results: </B>A sensitivity of  79.62% with a mean number of 3 false positives per image is obtained in a  database of 20 retinal images with variable colour, brightness and quality. It  can also be seen that the number of the false negative cases increases when the  hard exudates were very close to the vessel tree.<B>    <br> Conclusion:</B> The long term  goal of the project is to automate the screening for diabetic retinopathy with  retinal images. We have described the preliminary development of a tool to  provide automatic analysis of digital fundus photographs to localise hard exudates. Future work will address the issue of improving the obtained results  and also will focus on detecting other lesions <I>(Arch Soc  Esp Oftalmol 2004; 79: 623-628).</P></I><B>     <P>Key words:</B> Diabetic retinopathy, digital processing, hard exudates, retinal images.</P>                 <p>&nbsp;</td>         </tr>       </table>       <B> <HR align="left" width="30%">        </B>           <P align=left><font size="2">Recibido: 31/5/04. Aceptado: 22/12/04.    <br>       Instituto de Oftalmobiología (IOBA). Universidad de Valladolid.       Valladolid. Epaña.    ]]></body>
<body><![CDATA[<br>       <sup>1</sup> Licenciado en Ingeniería de Telecomunicación.    <br>       <sup>2</sup> Doctor en Medicina.    <br>       <sup>3</sup> Doctor en Ingeniería de Telecomunicaciones. E.T.S.       Ingenieros de Telecomunicación. Universidad de Valladolid. Valladolid.    <br>       Comunicación presentada parcialmente en el LXXIX Congreso de la S.E.O.       (Valencia 2003).    <br>       Proyecto Subencionado Agencia de Desarrollo Económico. Junta de Castilla       y León.</font></P>    <P align=left><font size="2">Correspondencia:    <br>       Clara Isabel Sánchez    <br>       IOBA. Facultad de Ciencias de la Salud    <br>       Avda. Ramón y Cajal, 7    <br>       47005 Valladolid    ]]></body>
<body><![CDATA[<br>       España    <br>       E-mail: <a href="mailto:csangut@telefonica.net">csangut@telefonica.net</a>    <br>       </font></P><B>      <P align=center>&nbsp;</P>      <P align=center>INTRODUCCIÓN</P></B>     <P>La Diabetes Mellitus es una enfermedad metabólica que  se caracteriza por la presencia de niveles elevados de glucosa en sangre. La  diabetes por sí misma provoca otras complicaciones crónicas, entre ellas una  enfermedad ocular conocida como Retinopatía Diabética (RD). Hoy en día, la RD es  la causa más frecuente de ceguera entre la población activa de los países  desarrollados. Los principios que producen esta enfermedad no se conocen  completamente y todavía no puede ser prevenida. Sin embargo, existen  tratamientos efectivos que retrasan su evolución siempre que sea diagnosticada  con suficiente antelación (1). El problema de la RD es que es una enfermedad  asintomática y sólo aparecen defectos en la visión en una etapa avanzada de la  enfermedad. Por lo tanto, los pacientes diabéticos no se dan cuenta de que  padecen la enfermedad y no se someten a un examen ocular. Algunas veces se  examina al paciente cuando ya es demasiado tarde para un tratamiento adecuado y  ya se han causado severos daños a la retina (1).</P>     <P>Con la idea de evitar estos daños, lo que se ha  propuesto es realizar un despistaje regular de la retina de todos los pacientes  diabéticos para garantizar una detección a tiempo y un tratamiento adecuado. De  esta manera, cada persona con diabetes se debería someter a una exploración  oftalmológica al menos una vez al año (2). Debido a que la diabetes es una  enfermedad de elevada prevalencia (superior a un 6% de la población mundial  según la Organización Mundial de la Salud), son muchos los exámenes que se  tienen que llevar a cabo. Por lo tanto, la realización de este despistaje supone  unos costes muy elevados y requiere personal altamente cualificado (1). Para  reducir tanto los costes como el número de especialistas, sería de gran utilidad  desarrollar un método automático para detectar la enfermedad en sus primeras  etapas.</P>     <P>Existen un gran conjunto de técnicas que ayudan a  realizar este despistaje. Varían desde la observación directa con un  oftalmoscopio hasta la revisión de fotografías del fondo de ojo y más  recientemente de imágenes digitales (retinografías). Estas últimas están  adquiriendo un protagonismo cada vez mayor, ya que resultan un modo económico y  eficaz de mantener almacenada la información del fondo de ojo (2). Además,  tienen la capacidad de ser procesadas por sistemas automáticos.</P>     <P>Basándose en esto, el objetivo a largo plazo de este  trabajo es automatizar el despistaje de la RD usando imágenes digitales a color  de la retina. De esta manera, se podría discriminar entre pacientes diabéticos  que necesitan un examen más detenido por un oftalmólogo de aquellos que no lo  necesitan. Este artículo se centra en el análisis automático de una de las  lesiones asociadas a la RD: los exudados duros, como un primer paso para esa  automatización completa. Anteriormente se han realizado otros trabajos que han  identificado los exudados duros utilizando su nivel de gris (3,4), su contraste  (4-7) o su color (8,9). Debido a que la iluminación, contraste y color de los  exudados varía mucho entre imágenes de diferentes pacientes, estos métodos no  funcionan con todos los tipos de imágenes que se producen en un entorno clínico  normal. La mejora principal que se introduce en el presente artículo es su  robustez ante la apariencia variable de las retinografías para obtener un  rendimiento óptimo con todos los tipos de imágenes posibles.</P> <B>     <P align=center>MÉTODOS</P></B>     ]]></body>
<body><![CDATA[<P>El método desarrollado intenta detectar los exudados  duros usando dos de las características principales que los diferencia del resto  de lesiones: su color blanco-amarillento y sus bordes definidos. La idea del  algoritmo se presenta de manera gráfica en el diagrama de la <a href="#f1"> figura 1</a>. En una  primera etapa, se detecta elementos comunes de las mayorías de las  retinografías, como son la papila y los vasos sanguíneos. Posteriormente, por  una parte, se consigue una imagen con aquellos elementos que posean una  coloración blanco-amarillenta y, por otra parte, otra imagen con todos los  objetos que presenten unos bordes bien definidos. Seleccionando los elementos  que se encuentren en ambas imágenes a la vez, se detectan regiones de color  blanquecino con bordes definidos. Finalmente, eliminando posibles falsos  positivos (como la papila), se conseguirá detectar los exudados duros presentes  en la imagen. Una explicación más detallada de cada una de estas etapas se lleva  a cabo en los siguientes apartados.</P>     <P align=center>  <a name="f1">  <IMG src="/img/aseo/v79n12/f09-01.gif" border=0> </a>    <BR><font size="2"><i><b>Fig. 1</b>. Esquema del método diseñado para la detección de exudados  duros.</i></font></P> <B>     <P>Detección de la papila y de los vasos  sanguíneos</P></B>     <P>Primeramente se localiza la papila buscando los  conjuntos de píxeles con mayor intensidad y aplicando sobre estos el modelo  Principal Component Analysis (PCA) para seleccionar la que va a ser la posición  final del centro de la papila (7). También detectamos su borde usando un  contorno activo o snake conducido por un campo exterior conocido como Gradient  Vector Field (GVF) (10) sobre la imagen e inicializado automáticamente (<a href="#f2ab">fig. 2 a</a>).</P>     <P>Los vasos sanguíneos se realzan mediante el filtrado  adaptado descrito en (11) y posteriormente se detectan poniendo un umbral a la  imagen obtenida (<a href="#f2ab">fig. 2 b</a>).</P>     <P align=center>  <a name="f2ab">  <IMG src="/img/aseo/v79n12/f09-02.jpg" border=0> </a>     <BR><font size="2"><i><b>Fig. 2</b>. A. Imagen en la que se puede ver en color negro el perfil de la papila  que se ha detectado;&nbsp;    <br>  B. Detección de la red vascular.</i></font></P> <B>     <P>Detección de regiones blanco  amarillentas</P></B>     ]]></body>
<body><![CDATA[<P>La detección de este tipo de elementos se lleva a  cabo mediante una segmentación de color basado en el método de clasificación  estadística expuesto en (8,9). Este método consiste en dividir la imagen en  diferentes clases. Cada una de estas clases viene definida por un patrón de  color que es necesario conocer. En nuestro caso, estas clases son dos: la clase  1 que la forman las regiones de color blanquecino y la clase 2 compuesta por el  resto de regiones que presentan otro color. De esta manera, un píxel de la  imagen pertenece a la clase 1 si su color se acerca más al patrón de color de la  clase 1 que al de la clase 2 y viceversa. Al finalizar el algoritmo se obtendría  una imagen en blanco y negro, donde las regiones en color blanco representan los  elementos de la clase 1. De esta manera se conseguirá una imagen en la que sólo  aparecen los elementos blanco-amarillentos. Un esquema de este método se puede  observar en la <a href="#f3"> figura 3</a>.</P>     <P align=center>  <a name="f3">  <IMG  src="/img/aseo/v79n12/f09-03.gif" border=0  > </a>     <BR><font size="2"><i><b>Fig. 3</b>. Esquema del método seguido para la detección de regiones blanco  amarillentas.</i></font></P>     <P>Primeramente, se realiza un preprocesado para  conseguir una uniformidad del color y una mejora del contraste de la imagen.  Esta etapa es necesaria porque debido a la variación de iluminación, la  disminución de la saturación del color, la pigmentación de la piel,... el color  y la iluminación de los exudados en algunas regiones pueden aparecer menos  nítidos que en otras, pudiendo así ser clasificados incorrectamente (<a href="#f4">fig. 4 a</a>).  El preprocesado consiste en la combinación aritmética de las componentes de  color del modelo YCbCr de la imagen. De esta manera, se mejora tanto el  contraste de las lesiones como la saturación del color de la imagen (<a href="#f4">fig. 4 b</a>).</P>     <P align=center>  <font size="2"><a name="f4">  <IMG  src="/img/aseo/v79n12/f09-04.jpg" border=0 width="600" height="220"  > </a>     <BR><i><b>Fig.  4.</b> A. Imagen original en la que se puede ver como los exudados cercanos a la  papila aparecen con menos contraste&nbsp;    <br>  y más débiles que aquellos que están más  alejados de ella; B. Imagen realzada en la que los exudados aparecen&nbsp;    <br>  con el  mismo color independientemente del lugar en el que se encuentren.</i></font></P>     <P>Para la elección de los patrones de color,  aprovechamos que, tras la primera etapa, la papila y los exudados presenta la  misma coloración independientemente de la posición en la que se encuentren los  exudados. Así tomamos como patrón de color de la clase 1 (los objetos  blanco-amarillentos de la imagen) la coloración que presenta la papila en la  imagen y para la clase 2 el color de la zona que rodea este elemento.</P>     <P>Aplicando finalmente el algoritmo descrito en (8,9),  obtenemos todos los elementos blanco-amarillentos de la imagen (<a href="#f5">fig. 5</a>). A la  vez que los exudados duros, otras regiones también se detectan, como la papila,  los exudados algodonosos, drusas,...</P>     ]]></body>
<body><![CDATA[<P align=center>  <a name="f5">  <IMG  src="/img/aseo/v79n12/f09-05.jpg" border=0  > </a>     <BR><font size="2"><i><b>Fig.  5.</b> Detección de las zonas blanco-amarillentas, en las que&nbsp;    <br>  además de los  exudados se incluyen la zona cercana a la papila.</i></font></P> <B>     <P>Detección de elementos con bordes  definidos</P></B>     <P>La detección de estos elementos se lleva a cabo  mediante la aplicación de un filtro detector de borde: el filtro Kirsch, y la  imposición de un umbral T a la imagen obtenida (<a href="#f6">fig. 6</a>). T es un parámetro del  algoritmo. Si disminuimos T, se detectaría bordes cada vez menos abruptos,  aumentando así la sensibilidad pero disminuyendo la especificidad. Otros objetos  con bordes fuertemente definidos son detectados, como la papila, los vasos  sanguíneos, las hemorragias,...</P>     <P align=center>  <a name="f6">  <IMG  src="/img/aseo/v79n12/f09-06.jpg" border=0  > </a>     <BR><font size="2"><i><b>Fig. 6</b>. Detección de los bordes de los elementos con mayor contraste,&nbsp;    <br>  entre ellos  los exudados, hemorragias, vasos sanguíneos, papila,...</i></font></P> <B>     <P>Combinación de las etapas anteriores y eliminación de  falsos positivos</P></B>     <P>Para detectar únicamente los exudados duros, se  combinan las dos imágenes obtenidas en las etapas previas (elementos  blanco-amarillentos y elementos con bordes definidos) mediante un AND  lógico.</P>     ]]></body>
<body><![CDATA[<P>Tras ello, además de los exudados duros se obtienen  algunos falsos positivos localizados en la región papilar y cerca de los vasos.  Su eliminación se lleva a cabo mediante la substracción a la imagen obtenida de  una versión dilatada de la detección de la papila y de los vasos sanguíneos. En  la <a href="#f7"> figura 7</a> se muestra el resultado final de nuestro algoritmo.</P>     <P align=center>  <a name="f7">  <IMG  src="/img/aseo/v79n12/f09-07.jpg" border=0  > </a>     <BR><font size="2"><i><b>Fig. 7</b>. Imagen que presenta en verde los exudados duros&nbsp;    <br>  detectados  automáticamente sobre la figura.</i></font></P> <B>     <P align=center>RESULTADOS</P></B>     <P>El algoritmo se probó en una base de datos de 20  retinografías tomadas con una TopCon TRC-NW6S (Topcon Medical Co., Ltd. Hongo,  Bukyo-ku, Tokyo, Japan) y se compararon los resultados obtenidos con la opinión  de un especialista en la materia.</P>     <P>Para evaluar la calidad del sistema se determinan el  número de aciertos y el de falsos positivos (FP) en cada imagen a la vez que se  varía T. Así se puede representar en una gráfica la tasa de aciertos frente al  número de FP por imagen usando las curvas Free Response Operating Characteristic  (FROC). Es un método muy apropiado para medir la calidad del sistema y encontrar  un compromiso entre la tasa de aciertos y la de fallos. Cada umbral de decisión  T produce un punto de operación en la curva.</P>     <P>Un exudado se considera que ha sido detectado cuando  se ha localizado al menos el 50% de su área. La curva obtenida se muestra en <a href="#f8">  figura 8</a>. El mejor resultado se alcanza en el punto de operación T=0,8 con una  sensibilidad del 79,62% con una media del 2.2 FP por imagen.</P>     <P align=center>  <a name="f8">  <IMG  src="/img/aseo/v79n12/f09-08.gif" border=0  > </a>     <BR><font size="2"><i><b>Fig. 8</b>. Curva FROC en la que se representa distintos puntos de operación (T=1,3,  1, 0,8 y 0,6).</i></font></P> <B>     ]]></body>
<body><![CDATA[<P align=center>DISCUSIÓN</P></B>     <P>La evaluación del método se ha llevado a cabo en una  base de datos de retinografías independiente y personal, caracterizada por tener  un conjunto de imágenes muy variables en cuanto iluminación y color. Debido a la  falta de una base de datos común y un método fiable de medida del rendimiento,  es difícil comparar los resultados de este método con los propuestos por otros  autores. Así, por ejemplo, se puede observar una discrepancia con los resultados  presentados por otros autores (5,7).</P>     <P>La principal contribución del trabajo expuesto en  este artículo es que se obtiene una detección aceptable de manera global en la  mayoría de las imágenes independientemente de su color, iluminación, tamaño,...  manteniendo el número de FP pequeño. Esta independencia en el aspecto se  consigue usando un método particular para cada imagen (para realzarlas, para la  segmentación de color,...) en contraposición a otros autores que utilizan  técnicas generales para todas ellas. Particularizar el algoritmo para cada  imagen es muy importante ya que el color de las retinografías varía mucho de  unas a otras, y el color que presenta los exudados en una de ellas puede ser muy  distinto, aunque dentro de la misma gama, que el que presenta en otra imagen.  Por lo tanto, el comportamiento que muestra el algoritmo es más adecuado para un  entorno clínico en el que la variabilidad de las imágenes es algo común. Aunque  algunos exudados no son detectados debido a su proximidad a los vasos sanguíneos  o porque aparecen muy pálidos incluso después del realzado propuesto.</P>     <P>El método descrito, sin embargo, presenta una serie  de problemas que tienen que ser mejorados. Primero, el algoritmo depende de  otras tareas de detección como es la detección de la papila y de los vasos,  provocando que los resultados sean dependientes del éxito o fracaso de estas  tareas. Sería, por lo tanto, necesario mejorar estas tareas de detección para  mejorar el resultado global. Por otra parte, se usa el color de la papila para  caracterizar las regiones blanco-amarillentas pero así no se representa su color  real. Una buena idea consistiría localizar un conjunto de exudados y, a partir  de su color, localizar el resto. Finalmente la detección de los exudados duros  puede verse distorsionada por lesiones de apariencia semejante en cuanto al  color y las dimensiones, como sucede con las drusas duras, incrementando así el  número de falsos positivos y presentando un problema difícil de resolver. Ahora  bien, la coexistencia de otras alteraciones en el fondo de ojo de los pacientes  diabéticos, como los microaneurismas, las hemorragias o las alteraciones del  calibre venoso, y su consiguiente detección sería imprescindible para el  diagnóstico.</P>     <P>Este artículo presenta principalmente la detección de  exudados duros en retinografías. Pero las primeras etapas de la RD están  caracterizadas también por otros signos clínicos, como son los microaneurismas,  las hemorragias y los exudados algodonosos. El trabajo futuro de este grupo de  trabajo se centrará, por lo tanto, en detectar el resto de lesiones para así  poder discriminar con mayor exactitud un paciente con retinopatía diabética de  uno que no la posee.</P> <B>     <P align=center>BIBLIOGRAFÍA</P></B>           <!-- ref --><P>1. Pastor JC. Guiones de Oftalmología. 3.ª edición. Madrid:    McGraw-Hill; 2002. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=856116&pid=S0365-6691200400120000900001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>2. Aiello LP, Gardner TW, King GL, Blankenship G, Cavallerano JD,    Ferris FL 3rd, et al. Diabetic retinopathy. Diabetes Care 1998; 21: 143-156.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=856117&pid=S0365-6691200400120000900002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>3. Ward NP, Tomlinson S, Taylor CJ. Image analysis of fundus    photographs. The detection and measurement of exudates associated with    diabetic retinopathy. Ophthalmology 1989; 96: 80-86. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=856118&pid=S0365-6691200400120000900003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>4. Philips R, Forrester J, Sharp P. Automated detection and    quantification of retinal exudates. Graefes Arch Clin Exp Ophthalmol 1993;    231: 90-94. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=856119&pid=S0365-6691200400120000900004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>5. Walter T, Klein JC, Massin P, Erginay A. A contribution of image    processing to the diagnosis of diabetic retinopathy--detection of exudates in    color fundus images of the human retina. IEEE Trans Med Imaging 2002; 21:    1236-1243. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=856120&pid=S0365-6691200400120000900005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>6. Li H, Chutatape O. Fundus image features extraction. Proc 22nd    Annual Int Conf of the IEEE Engin Med Biol Soc (EMBS’00) 2000: 3071-3073. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=856121&pid=S0365-6691200400120000900006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>7. Li H, Chutatape O. A model-base approach for automated feature    extraction in fundus images. Proc 9th Int Conf of the IEEE Comp Vision, (ICCV’    03) 2003: 50-53. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=856122&pid=S0365-6691200400120000900007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>8. Goh KG, Hsu W, Lee ML, Wang H. ADRIS: an automatic diabetic    retinal image screening system. In: Cios. KJ Medical Data Mining and Knowledge    Discovery. New York: Physica Verlag; 2000; 181-210. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=856123&pid=S0365-6691200400120000900008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>9. Wang H, Hsu W, Goh KG, Lee M. An effective approach to detect    lesions in color retinal images. IEEE Conf on Comp Vision and Patt Recogn    2000; 2: 181-186. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=856124&pid=S0365-6691200400120000900009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>10. Xu C, Prince JL. Snake, shapes and gradient vector flow. IEEE    Trans Imag Process 1998; 7: 359-369. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=856125&pid=S0365-6691200400120000900010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><P>11. Chaudhuri S, Chatterjee S, Katz N, Nelson M, Goldbaum M.    Detection of blood vessels in retinal images using two-dimensional matched    filters. IEEE Trans Med Imaging 1989; 8: 263-269. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=856126&pid=S0365-6691200400120000900011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Pastor]]></surname>
<given-names><![CDATA[JC.]]></given-names>
</name>
</person-group>
<source><![CDATA[Guiones de Oftalmología]]></source>
<year>2002</year>
<edition>3</edition>
<publisher-loc><![CDATA[Madrid ]]></publisher-loc>
<publisher-name><![CDATA[McGraw-Hill]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Aiello]]></surname>
<given-names><![CDATA[LP]]></given-names>
</name>
<name>
<surname><![CDATA[Gardner]]></surname>
<given-names><![CDATA[TW]]></given-names>
</name>
<name>
<surname><![CDATA[King]]></surname>
<given-names><![CDATA[GL]]></given-names>
</name>
<name>
<surname><![CDATA[Blankenship]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[Cavallerano]]></surname>
<given-names><![CDATA[JD]]></given-names>
</name>
<name>
<surname><![CDATA[Ferris]]></surname>
<given-names><![CDATA[FL]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Diabetic retinopathy]]></article-title>
<source><![CDATA[Diabetes Care]]></source>
<year>1998</year>
<volume>21</volume>
<page-range>143-156</page-range></nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ward]]></surname>
<given-names><![CDATA[NP]]></given-names>
</name>
<name>
<surname><![CDATA[Tomlinson]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Taylor]]></surname>
<given-names><![CDATA[CJ.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Image analysis of fundus photographs: The detection and measurement of exudates associated with diabetic retinopathy]]></article-title>
<source><![CDATA[Ophthalmology]]></source>
<year>1989</year>
<volume>96</volume>
<page-range>80-86</page-range></nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Philips]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Forrester]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Sharp]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Automated detection and quantification of retinal exudates]]></article-title>
<source><![CDATA[Graefes Arch Clin Exp Ophthalmol]]></source>
<year>1993</year>
<volume>231</volume>
<page-range>90-94</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Walter]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Klein]]></surname>
<given-names><![CDATA[JC]]></given-names>
</name>
<name>
<surname><![CDATA[Massin]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Erginay]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A contribution of image processing to the diagnosis of diabetic retinopathy--detection of exudates in color fundus images of the human retina]]></article-title>
<source><![CDATA[IEEE Trans Med Imaging]]></source>
<year>2002</year>
<volume>21</volume>
<page-range>1236-1243</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Li]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Chutatape]]></surname>
<given-names><![CDATA[O.]]></given-names>
</name>
</person-group>
<source><![CDATA[Fundus image features extraction]]></source>
<year>2000</year>
<conf-name><![CDATA[22 Annual Int Conf of the IEEE Engin Med Biol Soc (EMBS’00)]]></conf-name>
<conf-loc> </conf-loc>
<page-range>3071-3073</page-range></nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Li]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Chutatape]]></surname>
<given-names><![CDATA[O.]]></given-names>
</name>
</person-group>
<source><![CDATA[A model-base approach for automated feature extraction in fundus images]]></source>
<year>2003</year>
<conf-name><![CDATA[9 Int Conf of the IEEE Comp Vision, (ICCV’ 03)]]></conf-name>
<conf-loc> </conf-loc>
<page-range>50-53</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Goh]]></surname>
<given-names><![CDATA[KG]]></given-names>
</name>
<name>
<surname><![CDATA[Hsu]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
<name>
<surname><![CDATA[Lee]]></surname>
<given-names><![CDATA[ML]]></given-names>
</name>
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[ADRIS: an automatic diabetic retinal image screening system]]></article-title>
<source><![CDATA[Cios: KJ Medical Data Mining and Knowledge Discovery]]></source>
<year>2000</year>
<page-range>181-210</page-range><publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Physica Verlag]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Hsu]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
<name>
<surname><![CDATA[Goh]]></surname>
<given-names><![CDATA[KG]]></given-names>
</name>
<name>
<surname><![CDATA[Lee]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An effective approach to detect lesions in color retinal images]]></article-title>
<source><![CDATA[IEEE Conf on Comp Vision and Patt Recogn]]></source>
<year>2000</year>
<volume>2</volume>
<page-range>181-186</page-range></nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Xu]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Prince]]></surname>
<given-names><![CDATA[JL.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Snake, shapes and gradient vector flow]]></article-title>
<source><![CDATA[IEEE Trans Imag Process]]></source>
<year>1998</year>
<volume>7</volume>
<page-range>359-369</page-range></nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chaudhuri]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Chatterjee]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Katz]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[Nelson]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Goldbaum]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Detection of blood vessels in retinal images using two-dimensional matched filters]]></article-title>
<source><![CDATA[IEEE Trans Med Imaging]]></source>
<year>1989</year>
<volume>8</volume>
<page-range>263-269</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
