• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 343
  • 113
  • 42
  • 8
  • 4
  • 3
  • 3
  • 3
  • 3
  • 1
  • 1
  • Tagged with
  • 511
  • 175
  • 142
  • 67
  • 47
  • 43
  • 38
  • 38
  • 37
  • 36
  • 36
  • 34
  • 34
  • 33
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Aplicação da Transformada de Hough em inspeção visual automática / not available

Silva, Ernany Paranaguá da 15 February 1996 (has links)
Neste trabalho é proposto a técnica da Transformada de Hough para a Inspeção Visual Automática de placas retangulares, visando a determinação de características tais como perímetro, ortogonalidade, centro de massa, área, independente de rotação e translação do objeto dentro da imagem. Os resultados obtidos por essa técnica são avaliados pela comparação com o método dos Momentos, o recurso mais utilizado para a determinação de área e centro de massa para imagens bi-dimensionais. A análise estatística dos dados mostra a robustez da técnica da Transformada Hough para imagens ruidosas. / In this work, is proposed the Hough transform method for the Automated Visual lnspection of rectangular boards. The aim is to extract features such as position, perimeter and area, despite of object translation and rotation. The results obtained by this method are evaluated by comparing them with the method of Moments, the most used method to determine the area and center of mass for bi-dimensional images. Statistical analysis show the robustness of Hough transform for noisy images visual inspection.
122

Arquitectura embebida en FPGA para control visual dinámico basado en imagen de robots manipuladores

Alabdo, Aiman 03 July 2017 (has links)
En esta Tesis Doctoral se presenta una arquitectura para el control visual de robots manipuladores embebida en FPGA. El objetivo fundamental de esta arquitectura es obtener una plataforma hardware y software en la que implementar controladores visuales dinámicos. Además, en la Tesis se presentan distintas contribuciones entre las que se encuentra tanto la propia arquitectura como los distintos controladores implementados y las optimizaciones de los mismos. La mayoría de los sistemas de control visual basados en imagen implementados hasta la actualidad son controladores visuales indirectos en los que la acción de control está formada por las velocidades articulares o en el espacio de la tarea a aplicar al robot para conseguir su posicionado respecto a un objeto observado. El control directo de los motores de cada articulación del robot se deja en este caso en manos del controlador interno del robot, que traducirá esas velocidades en pares articulares. En esta Tesis se trata fundamentalmente el caso de sistemas de control visual directo basados en imagen para el seguimiento de trayectorias. En este caso, la acción de control es ya directamente un vector de pares articulares, con el propósito de seguir una trayectoria previamente especificada en el espacio de la imagen. Un aspecto fundamental a la hora de mejorar el desempeño de este tipo de controladores es reducir su latencia y, para abordar este objetivo, se ha realizado el diseño, construcción, implementación y programación de la arquitectura hardware y software necesaria para dar soporte a los controladores propuestos. En la Tesis se describe en detalle una arquitectura embebida reconfigurable para el control visual dinámico de robots manipuladores basada en FPGA. Esta arquitectura puede ser fácilmente adaptada para el control de cualquier robot articular sin más que modificar ciertos módulos dependientes del hardware. La arquitectura propuesta es modular y flexible para poder adaptarse a posibles cambios que puedan producirse como consecuencia de la incorporación o modificación del driver de control, o incluso a cambios en la configuración del sistema de adquisición de datos o su control. Se ha prestado especial atención a la optimización e implementación paralela en la FPGA tanto de los controladores como los sistemas de visión artificial utilizados en la realimentación del bucle de control. Se ha optimizado cada uno de los cálculos necesarios para implementar un sistema de control visual directo basado en imagen. Se ha estudiado su paralelización y su implementación basada en FPGA Además, respecto a los sistemas de visión artificial, se propone el diseño de un cauce segmentado, que permite ejecutar en tiempo real el flujo de datos proporcionado por el digitalizador. De esta manera, la FPGA realiza el procesamiento tal como van llegando los píxeles para segmentar la imagen y etiquetar los objetos de la escena para posteriormente obtener su centroide que constituirán las características visuales empleadas por los controladores visuales directos propuestos. En estos grandes rasgos se encuadra la Tesis Doctoral, sin embargo, no sólo se ha pretendido aportar nuevos algoritmos para evitar las limitaciones de los existentes, sino que se ha evaluado el impacto de los mismos para su implantación en entornos reales. Así, se ha realizado la implementación de los distintos controladores empleando la arquitectura software y hardware propuesta para el control de dos robots. Un robot industrial comercial de 7 grados de libertad: Mitsubishi PA10, y otro robot de 3 grados de libertad cuyo diseño e implementación se ha realizado en el grupo de investigación en el que se ha desarrollado la Tesis.
123

Some Contributions to Interactive Machine Translation and to the Applications of Machine Translation for Historical Documents

Domingo Ballester, Miguel 28 February 2022 (has links)
[ES] Los documentos históricos son una parte importante de nuestra herencia cultural. Sin embargo, debido a la barrera idiomática inherente en el lenguaje humano y a las propiedades lingüísticas de estos documentos, su accesibilidad está principalmente restringida a los académicos. Por un lado, el lenguaje humano evoluciona con el paso del tiempo. Por otro lado, las convenciones ortográficas no se crearon hasta hace poco y, por tanto, la ortografía cambia según el período temporal y el autor. Por estas razones, el trabajo de los académicos es necesario para que los no expertos puedan obtener una comprensión básica de un documento determinado. En esta tesis abordamos dos tareas relacionadas con el procesamiento de documentos históricos. La primera tarea es la modernización del lenguaje que, a fin de hacer que los documentos históricos estén más accesibles para los no expertos, tiene como objetivo reescribir un documento utilizando la versión moderna del idioma original del documento. La segunda tarea es la normalización ortográfica. Las propiedades lingüísticas de los documentos históricos mencionadas con anterioridad suponen un desafío adicional para la aplicación efectiva del procesado del lenguaje natural en estos documentos. Por lo tanto, esta tarea tiene como objetivo adaptar la ortografía de un documento a los estándares modernos a fin de lograr una consistencia ortográfica. Ambas tareas las afrontamos desde una perspectiva de traducción automática, considerando el idioma original de un documento como el idioma fuente, y su homólogo moderno/normalizado como el idioma objetivo. Proponemos varios enfoques basados en la traducción automática estadística y neuronal, y llevamos a cabo una amplia experimentación que ratifica el potencial de nuestras contribuciones -en donde los enfoques estadísticos arrojan resultados iguales o mejores que los enfoques neuronales para la mayoría de los casos-. En el caso de la tarea de modernización del lenguaje, esta experimentación incluye una evaluación humana realizada con la ayuda de académicos y un estudio con usuarios que verifica que nuestras propuestas pueden ayudar a los no expertos a obtener una comprensión básica de un documento histórico sin la intervención de un académico. Como ocurre con cualquier problema de traducción automática, nuestras aplicaciones no están libres de errores. Por lo tanto, para obtener modernizaciones/normalizaciones perfectas, un académico debe supervisar y corregir los errores. Este es un procedimiento común en la industria de la traducción. La metodología de traducción automática interactiva tiene como objetivo reducir el esfuerzo necesario para obtener traducciones de alta calidad uniendo al agente humano y al sistema de traducción en un proceso de corrección cooperativo. Sin embargo,la mayoría de los protocolos interactivos siguen una estrategia de izquierda a derecha. En esta tesis desarrollamos un nuevo protocolo interactivo que rompe con esta barrera de izquierda a derecha. Hemos evaluado este nuevo protocolo en un entorno de traducción automática, obteniendo grandes reducciones del esfuerzo humano. Finalmente, dado que este marco interactivo es de aplicación general a cualquier problema de traducción, lo hemos aplicado -nuestro nuevo protocolo junto con uno de los protocolos clásicos de izquierda a derecha- a la modernización del lenguaje y a la normalización ortográfica. Al igual que en traducción automática, el marco interactivo logra disminuir el esfuerzo requerido para corregir los resultados de un sistema automático. / [CA] Els documents històrics són una part important de la nostra herència cultural. No obstant això, degut a la barrera idiomàtica inherent en el llenguatge humà i a les propietats lingüístiques d'aquests documents, la seua accessibilitat està principalment restringida als acadèmics. D'una banda, el llenguatge humà evoluciona amb el pas del temps. D'altra banda, les convencions ortogràfiques no es van crear fins fa poc i, per tant, l'ortografia canvia segons el període temporal i l'autor. Per aquestes raons, el treball dels acadèmics és necessari perquè els no experts puguen obtindre una comprensió bàsica d'un document determinat. En aquesta tesi abordem dues tasques relacionades amb el processament de documents històrics. La primera tasca és la modernització del llenguatge que, a fi de fer que els documents històrics estiguen més accessibles per als no experts, té per objectiu reescriure un document utilitzant la versió moderna de l'idioma original del document. La segona tasca és la normalització ortogràfica. Les propietats lingüístiques dels documents històrics mencionades amb anterioritat suposen un desafiament addicional per a l'aplicació efectiva del processat del llenguatge natural en aquests documents. Per tant, aquesta tasca té per objectiu adaptar l'ortografia d'un document als estàndards moderns a fi d'aconseguir una consistència ortogràfica. Dues tasques les afrontem des d'una perspectiva de traducció automàtica, considerant l'idioma original d'un document com a l'idioma font, i el seu homòleg modern/normalitzat com a l'idioma objectiu. Proposem diversos enfocaments basats en la traducció automàtica estadística i neuronal, i portem a terme una àmplia experimentació que ratifica el potencial de les nostres contribucions -on els enfocaments estadístics obtenen resultats iguals o millors que els enfocaments neuronals per a la majoria dels casos-. En el cas de la tasca de modernització del llenguatge, aquesta experimentació inclou una avaluació humana realitzada amb l'ajuda d'acadèmics i un estudi amb usuaris que verifica que les nostres propostes poden ajudar als no experts a obtindre una comprensió bàsica d'un document històric sense la intervenció d'un acadèmic. Com ocurreix amb qualsevol problema de traducció automàtica, les nostres aplicacions no estan lliures d'errades. Per tant, per obtindre modernitzacions/normalitzacions perfectes, un acadèmic ha de supervisar i corregir les errades. Aquest és un procediment comú en la indústria de la traducció. La metodologia de traducció automàtica interactiva té per objectiu reduir l'esforç necessari per obtindre traduccions d'alta qualitat unint a l'agent humà i al sistema de traducció en un procés de correcció cooperatiu. Tot i això, la majoria dels protocols interactius segueixen una estratègia d'esquerra a dreta. En aquesta tesi desenvolupem un nou protocol interactiu que trenca amb aquesta barrera d'esquerra a dreta. Hem avaluat aquest nou protocol en un entorn de traducció automàtica, obtenint grans reduccions de l'esforç humà. Finalment, atès que aquest marc interactiu és d'aplicació general a qualsevol problema de traducció, l'hem aplicat -el nostre nou protocol junt amb un dels protocols clàssics d'esquerra a dreta- a la modernització del llenguatge i a la normalitzaciò ortogràfica. De la mateixa manera que en traducció automàtica, el marc interactiu aconsegueix disminuir l'esforç requerit per corregir els resultats d'un sistema automàtic. / [EN] Historical documents are an important part of our cultural heritage. However,due to the language barrier inherent in human language and the linguistic properties of these documents, their accessibility is mostly limited to scholars. On the one hand, human language evolves with the passage of time. On the other hand, spelling conventions were not created until recently and, thus, orthography changes depending on the time period and author. For these reasons, the work of scholars is needed for non-experts to gain a basic understanding of a given document. In this thesis, we tackle two tasks related with the processing of historical documents. The first task is language modernization which, in order to make historical documents more accessible to non-experts, aims to rewrite a document using the modern version of the document's original language. The second task is spelling normalization. The aforementioned linguistic properties of historical documents suppose an additional challenge for the effective natural language processing of these documents. Thus, this task aims to adapt a document's spelling to modern standards in order to achieve an orthography consistency. We affront both task from a machine translation perspective, considering a document's original language as the source language, and its modern/normalized counterpart as the target language. We propose several approaches based on statistical and neural machine translation, and carry out a wide experimentation that shows the potential of our contributions¿with the statistical approaches yielding equal or better results than the neural approaches in most of the cases. For the language modernization task, this experimentation includes a human evaluation conducted with the help of scholars and a user study that verifies that our proposals are able to help non-experts to gain a basic understanding of a historical document without the intervention of a scholar. As with any machine translation problem, our applications are not error-free. Thus, to obtain perfect modernizations/normalizations, a scholar needs to supervise and correct the errors. This is a common procedure in the translation industry. The interactive machine translation framework aims to reduce the effort needed for obtaining high quality translations by embedding the human agent and the translation system into a cooperative correction process. However, most interactive protocols follow a left-to-right strategy. In this thesis, we developed a new interactive protocol that breaks this left-to-right barrier. We evaluated this new protocol in a machine translation environment, obtaining large reductions of the human effort. Finally, since this interactive framework is of general application to any translation problem, we applied it¿our new protocol together with one of the classic left-to-right protocols¿to language modernization and spelling normalization. As with machine translation, the interactive framework diminished the effort required for correcting the outputs of an automatic system. / The research leading to this thesis has been partially funded by Ministerio de Economía y Competitividad (MINECO) under projects SmartWays (grant agreement RTC-2014-1466-4), CoMUN-HaT (grant agreement TIN2015-70924-C2-1-R) and MISMISFAKEnHATE (grant agreement PGC2018-096212-B-C31); Generalitat Valenciana under projects ALMAMATER (grant agreement PROMETEOII/2014/030) and DeepPattern (grant agreement PROMETEO/2019/121); the European Union through Programa Operativo del Fondo Europeo de Desarrollo Regional (FEDER) from Comunitat Valenciana (2014–2020) under project Sistemas de frabricación inteligentes para la indústria 4.0 (grant agreement ID-IFEDER/2018/025); and the PRHLT research center under the research line Machine Learning Applications. / Domingo Ballester, M. (2022). Some Contributions to Interactive Machine Translation and to the Applications of Machine Translation for Historical Documents [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/181231 / TESIS
124

Automatización del proceso de pólizas con valores garantizados en una compañía de seguros

Ganvini Montes, Gino Isaac January 2016 (has links)
Publicación a texto completo no autorizada por el autor / Establece una solución tecnológica que brinde ventajas diferenciales y competitivas en la gestión de pólizas con valores garantizados y a los procesos que involucra. Esto se logra aplicando una metodología para la implementación de un sistema de información, que a nivel estratégico permitirá el cumplimiento de los objetivos de la empresa que comprende la automatización de los procesos manuales, disminuir el tiempo de atención a los clientes, brindar servicios eficientes y de calidad. / Trabajo de suficiencia profesional
125

Diseño y evaluación de un modelo de generación de secuencias de lectura para el aprendizaje

Hernández-Blanco, Antonio 20 July 2023 (has links)
Esta tesis se centra en la generación y secuenciación de listas de lectura automáticas para usuarios no expertos que buscan adentrarse en nuevos campos de conocimiento. Se abordan preguntas fundamentales como “¿Dónde debería empezar un usuario no experto cuando se introduce a un nuevo tema?”, y “¿Por dónde debería continuar su lectura después de cada documento?”. Para responder a estas cuestiones, se propone un modelo que evalúa y secuencia las lecturas considerando las relaciones de prerrequisito entre los documentos y poniendo especial énfasis en las características intrínsecas de los documentos, como la coherencia, la legibilidad, el contenido textual y la polaridad. La tarea de secuenciación de documentos se formula como un problema de optimización combinatoria que busca encontrar el conjunto óptimo de caminos de lectura que maximicen la efectividad del aprendizaje. Los contenidos de los documentos se representan mediante modelado de tópicos y modelos basados en Transformer. Estas representaciones se combinan con algoritmos genéticos y de colonia de hormigas para generar secuencias óptimas de lectura que consideren la relevancia y las relaciones entre los documentos. La validación de los enfoques propuestos se realiza mediante experimentos empíricos que respaldan la eficacia del modelo propuesto en entornos de aprendizaje abiertos y no supervisados. Los resultados demuestran que la representación de documentos y la generación de secuencias de lectura basadas en las características intrínsecas de los documentos pueden ser efectivas para proporcionar recomendaciones de lectura personalizadas y significativas. Aunque cada enfoque tiene sus ventajas y desventajas, el estudio subraya la relevancia de considerar tanto la generalidad como la relevancia temática de los documentos en la generación de listas de lectura.
126

Control visual-fuerza autocalibrado para el seguimiento de trayectorias en tareas cooperativas robóticas

Garcia, Gabriel J. 25 March 2010 (has links)
No description available.
127

Pós-edição automática de textos traduzidos automaticamente de inglês para português do Brasil

Martins, Débora Beatriz de Jesus 10 April 2014 (has links)
Made available in DSpace on 2016-06-02T19:06:12Z (GMT). No. of bitstreams: 1 5932.pdf: 1110060 bytes, checksum: fe08b552e37f04451248c376cfc4454f (MD5) Previous issue date: 2014-04-10 / Universidade Federal de Minas Gerais / The project described in this document focusses on the post-editing of automatically translated texts. Machine Translation (MT) is the task of translating texts in natural language performed by a computer and it is part of the Natural Language Processing (NLP) research field, linked to the Artificial Intelligence (AI) area. Researches in MT using different approaches, such as linguistics and statistics, have advanced greatly since its beginning in the 1950 s. Nonetheless, the automatically translated texts, except when used to provide a basic understanding of a text, still need to go through post-editing to become well written in the target language. At present, the most common form of post-editing is that executed by human translators, whether they are professional translators or the users of the MT system themselves. Manual post-editing is more accurate but it is cost and time demanding and can be prohibitive when too many changes have to be made. As an attempt to advance in the state-of-the-art in MT research, mainly regarding Brazilian Portuguese, this research has as its goal verifying the effectiveness of using an Automated Post-Editing (APE) system in translations from English to Portuguese. By using a training corpus containing reference translations (good translations produced by humans) and translations produced by a phrase-based statistical MT system, machine learning techniques were applied for the APE creation. The resulting APE system is able to: (i) automatically identify MT errors and (ii) automatically correct MT errors by using previous error identification or not. The evaluation of the APE effectiveness was made through the usage of the automatic evaluation metrics BLEU and NIST, calculated for post-edited and not post-edited sentences. There was also manual verification of the sentences. Despite the limited results that were achieved due to the small size of our training corpus, we can conclude that the resulting APE improves MT quality from English to Portuguese. / O projeto de mestrado descrito neste documento tem como foco a pós-edição de textos traduzidos automaticamente. Tradução Automática (TA) é a tarefa de traduzir textos em língua natural desempenhada por um computador e faz parte da linha de pesquisa de Processamento de Línguas Naturais (PLN), vinculada à área de Inteligência Artificial (IA). As pesquisas em TA, utilizando desde abordagens linguísticas até modelos estatísticos, têm avançado muito desde seu início na década de 1950. Entretanto, os textos traduzidos automaticamente, exceto quando utilizados apenas para um entendimento geral do assunto, ainda precisam passar por pós-edição para que se tornem bem escritos na língua alvo. Atualmente, a forma mais comum de pós-edição é a executada por tradutores humanos, sejam eles profissionais ou os próprios usuários dos sistemas de TA. A pós-edição manual é mais precisa, mas traz custo e demanda tempo, especialmente quando envolve muitas alterações. Como uma tentativa para avançar o estado da arte das pesquisas em TA, principalmente envolvendo o português do Brasil, esta pesquisa visa verificar a efetividade do uso de um sistema de pós-edição automática (Automated Post-Editing ou APE) na tradução do inglês para o português. Utilizando um corpus de treinamento contendo traduções de referência (boas traduções produzidas por humanos) e traduções geradas por um sistema de TA estatística baseada em frases, técnicas de aprendizado de máquina foram aplicadas para o desenvolvimento do APE. O sistema de APE desenvolvido: (i) identifica automaticamente os erros de TA e (ii) realiza a correção automática da tradução com ou sem a identificação prévia dos erros. A avaliação foi realizada usando tanto medidas automáticas BLEU e NIST, calculadas para as sentenças sem e com a pós-edição; como analise manual. Apesar de resultados limitados pelo pequeno tamanho do corpus de treinamento, foi possível concluir que o APE desenvolvido melhora a qualidade da TA de inglês para português.
128

Ampliación y perfeccionamiento de los métodos cuantitativos y leyes clásicas en recuperación de la información: desarrollo de un sistema de indización y segmentación automática para textos en español

Rodríguez Luna, Manuela 29 July 2013 (has links)
Se desarrolla e implementa un Sistema de Indización y Segmentación Automática para textos largos en español, contribuyendo a su categorización textual e indización automática. Para su desarrollo, se estudian y perfeccionan los métodos cuantitativos y leyes clásicas en Recuperación de Información, como son los modelos relativos al proceso de repetición de palabras (Zipf, 1949), (Mandelbrot, 1953) y al proceso de creación de vocabulario (Heaps, 1978). Se realiza una crítica de las circunstancias de aplicación de los modelos y se estudia la estabilidad de los parámetros de manera experimental mediante recuentos en textos y sus fragmentos. Se establecen recomendaciones a priori para los valores de sus parámetros, dependiendo de las circunstancias de aplicación y del tipo de texto analizado. Se observa el comportamiento de los parámetros de las fórmulas para vislumbrar una relación directa con la tipología de texto analizado. Se propone un nuevo modelo (Log-%) para la visualización de la distribución de frecuencias de las palabras de un texto. El objetivo final es detectar los cambios temáticos que se producen en un documento, para establecer su estructura temática y obtener la indización automática de cada una de sus partes. De este modo, se obtiene la categorización del texto o documento utilizando la enumeración de sus partes temáticas a modo de niveles o estructura arbórea. Una vez constituidas las partes temáticas del texto en sus niveles correspondientes con los términos indizados, estos se agrupan en bloques distribuidos jerárquicamente según se desglose el documento en cuestión. El bloque inicial describe el contenido global de todo el documento con una cantidad inicial de palabras o descriptores. Seguidamente este bloque inicial se subdivide en varios bloques, los cuales corresponden a distintas partes del documento total, cada uno de estos también contiene una serie de palabras que describe el contenido y así sucesivamente hasta poder formar las div.... / Rodríguez Luna, M. (2013). Ampliación y perfeccionamiento de los métodos cuantitativos y leyes clásicas en recuperación de la información: desarrollo de un sistema de indización y segmentación automática para textos en español [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/31517 / Palancia
129

Desenvolvimento de novas técnicas para redução de falso-positivo e definição automática de parâmetros em esquemas de diagnóstico auxiliado por computador em mamografia / Development of news technique for reduction of false-positive and automatic definition of parameters of mammograms for CAD schemes

Martinez, Ana Cláudia 28 September 2007 (has links)
O presente trabalho consiste na investigação das características da imagem mamográfica digitalizada para definir automaticamente parâmetros de processamento em um esquema de diagnóstico auxiliado por computador (CAD) para mamografia, com o objetivo de se obter o melhor desempenho possível. Além disso, com base na aplicação dos resultados dessa primeira investigação, propõe-se também uma técnica de redução dos índices de falso-positivo em esquemas CAD visando à redução do número de biópsias desnecessárias. Para a definição automática dos parâmetros de processamento nas técnicas de detecção de microcalcificações e nódulos, foram extraídas algumas características das imagens, como desvio padrão, terceiro momento e o limiar de binarização. Utilizando o método de automatização proposto, observou-se um aumento de 20% no desempenho do esquema CAD (Az da curva ROC) em relação ao método não automatizado com parâmetro fixo. Para que fosse possível o processamento da imagem mamográfica inteira pelo esquema CAD e as técnicas desenvolvidas, foi desenvolvida também uma técnica para seleção automática de regiões de interesses, que recorta partes relevantes da mama para a segmentação. O índice de falsos positivos foi tratado por técnica específica desenvolvida com base na comparação das duas incidências típicas do exame mamográfico que, juntamente com a avaliação automática da imagem no pré-processamento para detecção de microcalcificações produziu uma redução significativa de 86% daquela taxa em relação ao procedimento de parâmetro fixo. / This present work consists on the investigation of mammographic image characteristics for automatic determination of image processing parameters for a mammography computer aided diagnosis scheme (CAD) in order to get optimal performance. Additionally, using the results obtained on this first investigation, it was also developed a new technique for the reduction of false-positive rates on CAD projects, which can result on the reduction of the number of unnecessary biopsies. For the automatic definition of the image processing parameters for the techniques of detection of microcalcifications and nodules, some image characteristics had been extracted, as standard deviation, third momentum and the thresholding value. Using the proposed automatization method it was reported an increase of 20% in the CAD performance (evaluated determining the ROC curve) in comparison to the non-automatic method (fixed parameter). Besides, for CAD schemes it is necessary to process the entire mammographic image. Thus, it was also developed a technique for automatic selection of regions of interests in the mammogram, which extracts better regions from breast image for further segmentation. False-positives rates was treated by a specific technique based on the comparison of the two typical incidences of mammographic examination that together with the automatic parameter determination method for microcalcification detection produced a significant reduction of 86% of that rate in relation to the procedure that uses fixed parameter.
130

Desenvolvimento de novas técnicas para redução de falso-positivo e definição automática de parâmetros em esquemas de diagnóstico auxiliado por computador em mamografia / Development of news technique for reduction of false-positive and automatic definition of parameters of mammograms for CAD schemes

Ana Cláudia Martinez 28 September 2007 (has links)
O presente trabalho consiste na investigação das características da imagem mamográfica digitalizada para definir automaticamente parâmetros de processamento em um esquema de diagnóstico auxiliado por computador (CAD) para mamografia, com o objetivo de se obter o melhor desempenho possível. Além disso, com base na aplicação dos resultados dessa primeira investigação, propõe-se também uma técnica de redução dos índices de falso-positivo em esquemas CAD visando à redução do número de biópsias desnecessárias. Para a definição automática dos parâmetros de processamento nas técnicas de detecção de microcalcificações e nódulos, foram extraídas algumas características das imagens, como desvio padrão, terceiro momento e o limiar de binarização. Utilizando o método de automatização proposto, observou-se um aumento de 20% no desempenho do esquema CAD (Az da curva ROC) em relação ao método não automatizado com parâmetro fixo. Para que fosse possível o processamento da imagem mamográfica inteira pelo esquema CAD e as técnicas desenvolvidas, foi desenvolvida também uma técnica para seleção automática de regiões de interesses, que recorta partes relevantes da mama para a segmentação. O índice de falsos positivos foi tratado por técnica específica desenvolvida com base na comparação das duas incidências típicas do exame mamográfico que, juntamente com a avaliação automática da imagem no pré-processamento para detecção de microcalcificações produziu uma redução significativa de 86% daquela taxa em relação ao procedimento de parâmetro fixo. / This present work consists on the investigation of mammographic image characteristics for automatic determination of image processing parameters for a mammography computer aided diagnosis scheme (CAD) in order to get optimal performance. Additionally, using the results obtained on this first investigation, it was also developed a new technique for the reduction of false-positive rates on CAD projects, which can result on the reduction of the number of unnecessary biopsies. For the automatic definition of the image processing parameters for the techniques of detection of microcalcifications and nodules, some image characteristics had been extracted, as standard deviation, third momentum and the thresholding value. Using the proposed automatization method it was reported an increase of 20% in the CAD performance (evaluated determining the ROC curve) in comparison to the non-automatic method (fixed parameter). Besides, for CAD schemes it is necessary to process the entire mammographic image. Thus, it was also developed a technique for automatic selection of regions of interests in the mammogram, which extracts better regions from breast image for further segmentation. False-positives rates was treated by a specific technique based on the comparison of the two typical incidences of mammographic examination that together with the automatic parameter determination method for microcalcification detection produced a significant reduction of 86% of that rate in relation to the procedure that uses fixed parameter.

Page generated in 0.0746 seconds