• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 134
  • 11
  • 9
  • 2
  • 1
  • 1
  • Tagged with
  • 158
  • 42
  • 29
  • 21
  • 21
  • 21
  • 21
  • 21
  • 20
  • 18
  • 17
  • 15
  • 15
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Sensibilización de la técnica Espectroscopía de Plasmas Producidos por Laser para el análisis de muestras líquidas mediante el uso de procedimientos de preparación de la muestra eficientes y fácilmente automatizables

Ripoll-Seguer, Laura 28 October 2020 (has links)
Hoy en día, como consecuencia del gran desarrollo de las metodologías de análisis, han surgido nuevas necesidades analíticas que son cada vez más exigentes, demandando análisis rápidos, fiables, in-situ, ecológicos y con instrumentación relativamente de bajo coste. Para cumplir estos ambiciosos objetivos, las nuevas tendencias de la química analítica van encaminadas hacia la miniaturización de las metodologías de análisis y el uso de detectores disponibles en formato compacto. La espectrometría de plasmas producidos por láser (Laser-Induced Breakdown Spectrometry, LIBS), es una técnica que presenta unas características que podrían cumplir con estas nuevas necesidades analíticas y que son difícilmente abordables por otras técnicas de análisis establecidas más sensibles, pero más complejas y costosas. LIBS es una técnica de análisis elemental que emplea como fuente de excitación un láser altamente energético que es enfocado en un pequeño punto de tamaño submilimétrico de la muestra, provocando la generación de un intenso plasma que se caracteriza por una elevada temperatura y densidad electrónica (plasma inducido por láser). En el seno de este plasma, el material objeto de análisis es vaporizado, reducido a su forma elemental y excitado. Las especies emisoras (iones o átomos neutros) se identifican resolviendo espectral y temporalmente la emisión del plasma, lo que se utiliza para obtener información cuantitativa y/o cualitativa sobre la composición elemental de la muestra. Mediante esta técnica, es posible analizar cualquier sustancia independientemente del estado de agregación en que se encuentre sin la necesidad de condiciones ambientales específicas para su uso (i.e., utilización de gases especiales (Ar, He, etc.) o condiciones de baja presión o vacío), lo que simplifica y abarata tanto el coste del análisis como de la instrumentación requerida. Además, teniendo en cuenta que un espectro LIBS puede ser adquirido en tiempos del orden de microsegundos, puede considerarse una técnica de análisis rápida que, adicionalmente, proporciona información multielemental. También es extremadamente flexible desde el punto de vista experimental, ya que todos sus componentes (láseres, detector, óptica, electrónica, etc.) pueden ser miniaturizados y el sistema completo puede ser fácilmente automatizado, lo que la hace especialmente interesante para su aplicación al análisis en línea e in-situ. Por todas estas características, la técnica LIBS es muy atractiva desde el punto de vista de las nuevas tendencias de la química analítica. Por otra parte, como cualquier técnica analítica, posee una serie de limitaciones. Aunque en principio, la técnica LIBS puede ser utilizada para el análisis de muestras de muy distinta naturaleza (sólidas, líquidas, gaseosas o aerosoles), lo cierto es que su principal campo de aplicación ha sido fundamentalmente el análisis de muestras sólidas. Este hecho se debe principalmente a la baja sensibilidad y reproducibilidad del análisis LIBS de líquidos. Esta falta de sensibilidad se debe principalmente a la diferente evolución del plasma LIBS cuando se encuentra confinado en un medio líquido. La duración del plasma debido a este efecto de confinamiento es menor, reduciendo también el tiempo de vida del estado excitado de los analitos y resultando en una señal más difícil de separar del fondo continuo de emisión. Además, una elevada porción de la energía "del plasma" generado es disipada como energía “no radiante”. Por una parte, debido a los fuertes efectos mecánicos que se producen al inducir el plasma en la densa masa líquida (i.e., onda de choque, burbuja de cavitación, etc.) y, por otra, debido a la vaporización de líquido, quedando sólo una pequeña fracción de energía que puede convertirse en energía radiativa. Estas limitaciones en la sensibilidad han sido abordadas en la literatura mediante el desarrollo de diferentes estrategias experimentales para el análisis LIBS de líquidos (i.e., análisis mediante la técnica LIBS de doble impulso, conversión de la muestra líquida a sustrato sólido, etc.). Pese a estos esfuerzos, este aumento de la sensibilidad ha sido, hasta la fecha, o bien insuficiente, o bien logrado mediante procedimientos de preparación de muestras complejos, con diversas etapas y difíciles de automatizar. Por este motivo, el objetivo fundamental de este trabajo de tesis doctoral ha sido la sensibilización de la técnica LIBS mediante la obtención de nuevos métodos de preparación de la muestra que puedan ser combinados con LIBS y que resulten simples, miniaturizados o fácilmente miniaturizables, y con posibilidades de automatización. De esta forma, se busca extender la aplicabilidad de LIBS para el análisis de “elementos traza” en muestras líquidas que puedan ser utilizados in-situ. En el capítulo 3 de esta memoria de tesis se ha evaluado la combinación de LIBS con una técnica de nebulización automática que permite la creación de películas sólidas homogéneas a partir de muestras líquidas, la deposición por electrospray. De esta forma, se realiza una conversión automática de la muestra líquida a matriz sólida que puede ser directamente interrogada por el sistema LIBS, sin necesidad de etapas intermedias entre la preparación de la muestra y la detección. Las películas finas obtenidas pueden ser directamente interrogadas por el sistema LIBS. Por otra parte, en los capítulos 4, 5 y 6 se ha evaluado la combinación de metodologías de microextracción en fase sólida con LIBS, ya que estas nuevas técnicas han demostrado ser rápidas, ecológicas y altamente eficientes en la extracción de los analitos de interés de las muestras líquidas. Además, son especialmente interesantes para ser combinadas con LIBS, ya que los analitos quedan retenidos directamente en una matriz sólida que puede ser fácilmente interrogada por LIBS, sin la necesidad de realizar la etapa de desorción o elución de los analitos requerida con otras técnicas de detección convencionales. De esta forma, en el Capítulo 4 se ha evaluado el uso de un material adsorbente de elevada eficiencia (i.e., el óxido de grafeno) para su uso en un procedimiento de microextracción en fase sólida en modalidad dispersiva (DSPME), y se ha comparado con un material clásicamente utilizado en extracción, el carbón activo; demostrándose las ventajas del uso de óxido de grafeno para el análisis de trazas mediante DSPME-LIBS. En los capítulos 5 y 6 se ha evaluado la combinación de la modalidad de microextracción en película delgada con la detección por LIBS (TFME-LIBS), ya que es un procedimiento eficiente y fácilmente automatizable. Pese a estas ventajas, las características morfológicas de las películas adsorbentes tienen un papel muy importante tanto en la etapa de microextracción como en la detección LIBS. Por este motivo, en estos dos últimos capítulos se han estudiado diversas modalidades de generación de películas finas para TFME, así como las capacidades analíticas de los procedimientos TFME-LIBS desarrollados.
132

Diseño de la arquitectura de un extractor de endmembers de imágenes hiperespectrales sobre un FPGA en tiempo real

Luis Peña, Christian Jair 27 November 2018 (has links)
El presente trabajo consiste en el dise˜no hardware de un extractor de endmembers para im´agenes hiperespectrales en tiempo real empleando el algoritmo N-FINDR. Para comprobar la efeciencia de la arquictectura se utiliz´o la imagen hiperespectral Cuprite la cual tiene un tama˜no de 350 350 y fue capturada por el sensor aerotransportado AVIRIS, el cual escanea una columna de 512 p´ıxeles en 8.3ms. Por ende, el procesamiento de la referida imagen se realizar´a en menos de 1.98 segundos para alcanzar el tiempo real. En primer lugar, el algoritmo fue analizado por medio del entorno de programaci´on MATLAB® con el fin de identificar los procesos m´as costosos computacionalmente para optimizarlos. Adem´as, se realiz´o el estudio de una nueva forma de eliminaci´on de pixeles en el an´alisis por medio de un pre-procesamiento con la intenci´on de reducir el tiempo de ejecuci´on del algoritmo. Posteriormente, se analiz´o el proceso m´as costoso computacionalmente y se propuso un dise˜no algor´ıtmico para mejorar la velocidad del proceso. En segundo lugar, se realiz´o la s´ıntesis comportamental de la aplicaci´on software con la finalidad de obtener una arquitectura hardware del sistema. La arquitectura fue descrita utilizando el lenguaje de descripci´on de hardware Verilog. Finalmente, el dise˜no se verific´o y valid´o mediante la herramienta ISim de Xilinx, a trav´es del uso de testbenches, realizando la sintesis de la arquitectura dise˜nada sobre un FPGA Virtex 4 utilizado el software ISE de la empresa Xilinx obteniendo una frecuencia de operaci´on estimada de 69.4Mhz, que representa un 64% de mejora, respecto de la referencia [1], llegando a procesar una imagen hiperespectral en 17.98 segundos. Sin embargo, con esta frecuencia no es posible alcanzar el procesamiento en tiempo real esperado utilizando la familia Virtex 4. La arquitectura dise˜nada, fue optimizada utilizando paralelismo de operaciones, lo cual hace que se incremente el ´area de dise˜no, excediendo el l´ımite de slices disponibles en el modelo Virtex 4 utilizando en la referencia [1], por ello se identific´o mediante las hojas de datos de la familia Virtex que el FPGA m´as id´oneo para soportar la arquitectura dise˜nada es la Virtex 7 modelo XC7VX980T que supera los 71,096 slices que requiere la presente arquitectura, obteniendo una frecuencia de operaci´on de 112.819MHz.
133

Informe sobre Expediente N° 00316-2011-PA/TC

Anglas Quiroz, Alexander Raúl 23 March 2021 (has links)
En el marco del proceso de amparo seguido con el expediente E-2378, se discute si el Decreto de Urgencia 012-2010 vulneró los derechos constitucionales invocados por Empresa Minera de Servicios Generales S.R.L y otros (derecho a la no retroactividad de la ley, derecho a la igualdad, derecho a la libertad de empresa y derecho a la propiedad) Además, los accionantes afirman que la norma cuestionada infringe los requisitos contenidos en el Num. 19) del Art. 118° de la Constitución Política, motivo por el cual exigieron la inaplicación del acotado decreto de urgencia. Sobre la norma cuestionada, se advierte que contiene disposiciones autoaplicativas (aunque no todas) que tienen por objeto el ordenamiento de la actividad minera en el departamento de Madre de Dios, adoptando medidas específicas en este sentido, siendo una de ellas la prohibición del uso de dragas en actividades de minería aurífera. Además, estableció que, desde su promulgación, los términos de referencia para obtener la certificación ambiental para iniciar operaciones no deben incluir el uso de dragas, carancheras y artefactos similares. Ambos extremos fueron cuestionados por los demandantes. El proceso fue iniciado ante el Juzgado Mixto de Tambopata, en el departamento de Madre de Dios. Luego de un pronunciamiento desfavorable para los amparistas tanto en primera como en segunda instancia, el Tribunal Constitucional ratificó lo decidido por el juzgado y la Sala, conforme se advierte de la sentencia recaída en el Exp. N° 0316-2011- PA/TC, de fecha 17.07.2012. En ella se declaró la existencia de un empate ponderativo entre el principio perseguido por el Decreto de Urgencia 012-2010 (tutela del medio ambiente) y el derecho de propiedad de Empresa Minera de Servicios Generales y otros, determinando que, según las dimensiones del caso, correspondía establecer la prevalencia de la tutela del medio ambiente sobre el derecho de propiedad de los accionantes. Tras analizar las dimensiones procesales y de fondo del expediente E-2378, advertimos una serie de deficiencias no sólo en los argumentos que sostenían la tesis de los demandantes, sino que dicha calificación también alcanzó el pronunciamiento de la justicia constitucional, con especial énfasis del esgrimido por el Tribunal Constitucional. Es en esta última instancia donde advertimos omisiones muy relevantes, motivo pro el cual somos enfáticos en calificar la sentencia constitucional expedida por el máximo intérprete de la Constitución como deficiente.
134

Applications of ionic liquids in catalysis and metal extraction

Lledó, David 19 February 2021 (has links)
Los líquidos iónicos (IL) son unos disolventes constituidos principalmente por pares iónicos y cuyo punto de fusión se encuentra por debajo de los 100 ºC. Desde su descubrimiento a principios del siglo XX hasta la actualidad, el uso de los ILs en todos los campos de la Química ha experimentado un crecimiento exponencial debido a sus propiedades físicoquímicas únicas (e.g. estabilidad química, conductividad, presión de vapor, etc.). En este sentido, los ILs pueden funcionalizarse con diferentes grupos funcionales de tal forma que presenten propiedades adicionales (task-specific ionic liquids, TSILs). Así, por ejemplo, los TSILs se han utilizado en catálisis en combinación con diversos metales o como agente quelantes para la recuperación de metales. A pesar de los númerosos estudios realizados hasta la fecha, sigue habiendo un gran desconocimiento a cerca del potencial de los TSIL en catálisis y extracción-preconcentración de metales. En la presente Tesis Doctoral se ha sintetizado el TSIL hexafluorofosfato de 1-butil-2-(difenilfosfino)-3-metilimidazolio y, gracias a su capacidad coordinante por el grupo fosfano, se ha empleado en combinación con diversos metales como catalizador de: (i) cicloadiciones 1,3-dipolares de iluros de azometino y alquenos electrofílicos (metal: Ag); (ii) acoplamientos Suzuki-Miyaura (metal: Pd); y (iii) alilaciones Tsuji-Trost (metal: Pd). En todos los casos, los complejos catalíticos formados muestran una gran eficiencia catalítica y reciclabilidad (>8 ciclos catalíticos). Por otro lado, debido a la estabilidad de los complejos formados entre este TSILy Pd, se ha desarrollado un método de análisis para determinar Pd en productos farmacéuticos. Para ello, se utilizó una metodología basada en la microextracción líquido-líquido y la determinación de Pd se realizó mediante espectroscopía de emisión óptica con plasma acoplado inductivamente. Los resultados obtenidos muestran que esta nueva metodología analítica presenta numerosas ventajas (i.e. límite de detección, velocidad de análisis, etc.) respecto a los métodos convencionales de preparación de muestra (i.e. digestión y disolución) y permite el control de Pd en productos farmacéuticos según la USP (United States Pharmacopeia).
135

Recuperación de pasajes multilingües para la búsqueda de respuestas

Gómez Soriano, José Manuel 07 May 2008 (has links)
JAVA Information Retrieval System (JIRS) es un sistema de Recuperación de Información especialmente orientado a tareas de Búsqueda de Respuestas. Los tradicionales motores de búsqueda se basan en las palabras claves de la pregunta para obtener los documentos relevantes a una consulta. JIRS, por el contrario, intenta obtener trozos de texto, es decir pasajes, con mayor probabilidad de contener la respuesta. Para ello realiza una búsqueda basada en los n-gramas de la pregunta -efectuada en lenguaje natural- usando tres posibles modelos. Los modelos de n-gramas desarrollados son independientes del idioma, lo que hace de JIRS un sistema idóneo para trabajar en ambientes multilingües. Por otra parte, JIRS incorpora un potente núcleo que permite una adaptación y escalabilidad sin precedentes en los modernos motores de búsqueda. Desde sus inicios fue diseñado para que fuera una herramienta potente que permitiese adaptarse sin dificultad a muy diferentes funciones. Esto permite ampliar o modificar aspectos de JIRS de forma muy fácil e intuitiva sin que el usuario final tenga que conocer el código desarrollado por otros. Además, permite generar nuevas aplicaciones con una estructura cliente/servidor, distribuida, etc. únicamente modificando el archivo de configuración. Este trabajo presenta el estado del arte de la Recuperación de Información centrándose en la Búsqueda de Respuestas multilingüe, así como una descripción detallada de JIRS junto con sus modelos de búsqueda exponiendo, finalmente, los resultados obtenidos por este sistema en las competiciones del CLEF. / Gómez Soriano, JM. (2007). Recuperación de pasajes multilingües para la búsqueda de respuestas [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1930
136

Técnicas de extracción de características y clasificación de imágenes orientada a objetos aplicadas a la actualización de bases de datos de ocupación del suelo

Recio Recio, Jorge Abel 08 January 2010 (has links)
El objetivo general de esta tesis es el desarrollo de metodologías para la actualización de bases de datos cartográficas de ocupación del suelo, basadas en el empleo de datos de observación de la Tierra y geográficos. Esta actualización se aborda mediante la integración y el análisis de información cartográfica vectorial, imágenes aéreas de alta resolución, la información alfanumérica contenida en la base de datos e información auxiliar. La integración de los datos se realiza mediante la extracción de características y la clasificación de imágenes orientada a objetos. En primer lugar, la cartografía aporta los límites espaciales que delimitan los objetos de estudio. En segundo lugar, el uso de las subparcelas se asigna mediante el análisis de un conjunto de características, como son las extraídas a partir del análisis de una imagen de alta resolución, o las definidas por su forma, su uso previo, etc. La asignación de clases se realiza con el multiclasificador boosting sobre un conjunto de árboles de decisión creados mediante el algoritmo C5.0, a partir de un conjunto de muestras de aprendizaje. Por último, se compara la clasificación de las subparcelas con la clase contenida en la base de datos, de forma que se detecten las discordancias entre ambas fuentes. Las cuales son revisadas por un fotointérprete con el fin de determinar si ha existido un cambio real o un error de clasificación. / Recio Recio, JA. (2009). Técnicas de extracción de características y clasificación de imágenes orientada a objetos aplicadas a la actualización de bases de datos de ocupación del suelo [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6848
137

Deep Learning Methodologies for Textual and Graphical Content-Based Analysis of Handwritten Text Images

Prieto Fontcuberta, José Ramón 08 July 2024 (has links)
[ES] En esta tesis se abordan problemas no resueltos en el campo de la Inteligencia Artificial aplicada a documentos históricos manuscritos. Primero haremos un recorrido por diversas técnicas y conceptos que se utilizarán durante la tesis. Se explorarán diferentes formas de representar datos, incluidas imágenes, texto y grafos. Se introducirá el concepto de Índices Probabilísticos (PrIx) para la representación textual y se explicará su codificación usando TfIdf. También se discutirá la selección de las mejores características de entrada para redes neuronales mediante Information Gain (IG). En el ámbito de las redes neuronales, se abordarán modelos específicos como Multilayer Perceptron (MLP), Redes Neuronales Convolucionales (CNNs) y redes basadas en grafos (GNNs), además de una breve introducción a los transformers. El primer problema que aborda la tesis es la segmentación de libros históricos manuscritos en unidades semánticas, un desafío complejo y recurrente en archivos de todo el mundo. A diferencia de los libros modernos, donde la segmentación en capítulos es más sencilla, los libros históricos presentan desafíos únicos debido a su irregularidad y posible mala conservación. La tesis define formalmente este problema por primera vez y propone un pipeline para extraer consistentemente las unidades semánticas en dos variantes: una con restricciones del corpus y otra sin ellas. Se emplearán diferentes tipos de redes neuronales, incluidas CNNs para la clasificación de partes de la imagen y RPNs y transformers para detectar y clasificar regiones. Además, se introduce una nueva métrica para medir la pérdida de información en la detección, alineación y transcripción de estas unidades semánticas. Finalmente, se comparan diferentes métodos de ``decoding'' y se evalúan los resultados en hasta cinco conjuntos de datos diferentes. En otro capítulo, la tesis aborda el desafío de clasificar documentos históricos manuscritos no transcritos, específicamente actos notariales en el Archivo Provincial Histórico de Cádiz. Se desarrollará un framework que utiliza Índices Probabilísticos (PrIx) para clasificar estos documentos y se comparará con transcripciones 1-best obtenidas mediante técnicas de Reconocimiento de Texto Manuscrito (HTR). Además de la clasificación convencional en un conjunto cerrado de clases (Close Set Classification, CSC), la tesis introduce el framework de Open Set Classification (OSC). Este enfoque no solo clasifica documentos en clases predefinidas, sino que también identifica aquellos que no pertenecen a ninguna de las clases establecidas, permitiendo que un experto los etiquete. Se compararán varias técnicas para este fin y se propondrán dos. Una sin umbral en las probabilidades a posteriori generadas por el modelo de red neuronal, y otra que utiliza un umbral en las mismas, con la opción de ajustarlo manualmente según las necesidades del experto. En un tercer capítulo, la tesis se centra en la Extracción de Información (IE) de documentos tabulares manuscritos. Se desarrolla un pipeline que comienza con la detección de texto en imágenes con tablas, línea por línea, seguido de su transcripción mediante técnicas de HTR. De forma paralela, se entrenarán diferentes modelos para identificar la estructura de las tablas, incluidas filas, columnas y secciones de cabecera. El pipeline también aborda problemas comunes en tablas manuscritas, como el multi-span de columnas y la sustitución de texto entre comillas. Además, se emplea un modelo de lenguaje entrenado específicamente para detectar automáticamente las cabeceras de las tablas. Se utilizarán dos conjuntos de datos para demostrar la eficacia del pipeline en la tarea de IE, y se identificarán las áreas de mejora en el propio pipeline para futuras investigaciones. / [CA] En aquesta tesi s'aborden problemes no resolts en el camp de la Intel·ligència Artificial aplicada a documents històrics manuscrits. Primer farem un recorregut per diverses tècniques i conceptes que s'utilitzaran durant la tesi. S'exploraran diferents formes de representar dades, incloses imatges, text i grafos. S'introduirà el concepte d'Índexs Probabilístics (PrIx) per a la representació textual i s'explicarà la seva codificació usant TfIdf. També es discutirà la selecció de les millors característiques d'entrada per a xarxes neuronals mitjançant Information Gain (IG). En l'àmbit de les xarxes neuronals, s'abordaran models específics com Multilayer Perceptron (MLP), Xarxes Neuronals Convolucionals (CNNs) i xarxes basades en grafos (GNNs), a més d'una breu introducció als transformers. El primer problema que aborda la tesi és la segmentació de llibres històrics manuscrits en unitats semàntiques, un desafiament complex i recurrent en arxius de tot el món. A diferència dels llibres moderns, on la segmentació en capítols és més senzilla, els llibres històrics presenten desafiaments únics degut a la seva irregularitat i possible mala conservació. La tesi defineix formalment aquest problema per primera vegada i proposa un pipeline per extreure consistentment les unitats semàntiques en dues variants: una amb restriccions del corpus i una altra sense elles. S'empraran diferents tipus de xarxes neuronals, incloses CNNs per a la classificació de parts de la imatge i RPNs i transformers per detectar i classificar regions. A més, s'introdueix una nova mètrica per mesurar la pèrdua d'informació en la detecció, alineació i transcripció d'aquestes unitats semàntiques. Finalment, es compararan diferents mètodes de ``decoding'' i s'avaluaran els resultats en fins a cinc conjunts de dades diferents. En un altre capítol, la tesi aborda el desafiament de classificar documents històrics manuscrits no transcrits, específicament actes notarials a l'Arxiu Provincial Històric de Càdiz. Es desenvoluparà un marc que utilitza Índexs Probabilístics (PrIx) per classificar aquests documents i es compararà amb transcripcions 1-best obtingudes mitjançant tècniques de Reconèixer Text Manuscrit (HTR). A més de la classificació convencional en un conjunt tancat de classes (Close Set Classification, CSC), la tesi introdueix el marc d'Open Set Classification (OSC). Aquest enfocament no només classifica documents en classes predefinides, sinó que també identifica aquells que no pertanyen a cap de les classes establertes, permetent que un expert els etiqueti. Es compararan diverses tècniques per a aquest fi i es proposaran dues. Una sense llindar en les probabilitats a posteriori generades pel model de xarxa neuronal, i una altra que utilitza un llindar en les mateixes, amb l'opció d'ajustar-lo manualment segons les necessitats de l'expert. En un tercer capítol, la tesi es centra en l'Extracció d'Informació (IE) de documents tabulars manuscrits. Es desenvolupa un pipeline que comença amb la detecció de text en imatges amb taules, línia per línia, seguit de la seva transcripció mitjançant tècniques de HTR. De forma paral·lela, s'entrenaran diferents models per identificar l'estructura de les taules, incloses files, columnes i seccions de capçalera. El pipeline també aborda problemes comuns en taules manuscrites, com ara el multi-span de columnes i la substitució de text entre cometes. A més, s'empra un model de llenguatge entrenat específicament per detectar automàticament les capçaleres de les taules. S'utilitzaran dos conjunts de dades per demostrar l'eficàcia del pipeline en la tasca de IE, i s'identificaran les àrees de millora en el propi pipeline per a futures investigacions. / [EN] This thesis addresses unresolved issues in the field of Artificial Intelligence as applied to historical handwritten documents. The challenges include not only the degradation of the documents but also the scarcity of available data for training specialized models. This limitation is particularly relevant when the trend is to use large datasets and massive models to achieve significant breakthroughs. First, we provide an overview of various techniques and concepts used throughout the thesis. Different ways of representing data are explored, including images, text, and graphs. Probabilistic Indices (PrIx) are introduced for textual representation and its encoding using TfIdf is be explained. We also discuss selecting the best input features for neural networks using Information Gain (IG). In the realm of neural networks, specific models such as Multilayer Perceptron (MLP), Convolutional Neural Networks (CNNs), and graph-based networks (GNNs) are covered, along with a brief introduction to transformers. The first problem addressed in this thesis is the segmentation of historical handwritten books into semantic units, a complex and recurring challenge in archives worldwide. Unlike modern books, where chapter segmentation is relatively straightforward, historical books present unique challenges due to their irregularities and potential poor preservation. To the best of our knowledge, this thesis formally defines this problem. We propose a pipeline to consistently extract these semantic units in two variations: one with corpus-specific constraints and another without them. Various types of neural networks are employed, including Convolutional Neural Networks (CNNs) for classifying different parts of the image and Region Proposal Networks (RPNs) and transformers for detecting and classifying regions. Additionally, a new metric is introduced to measure the information loss in the detection, alignment, and transcription of these semantic units. Finally, different decoding methods are compared, and the results are evaluated across up to five different datasets. In another chapter, we tackle the challenge of classifying non-transcribed historical handwritten documents, specifically notarial deeds, from the Provincial Historical Archive of Cádiz. A framework is developed that employs Probabilistic Indices (PrIx) for classifying these documents, and this is compared to 1-best transcriptions obtained through Handwritten Text Recognition (HTR) techniques. In addition to conventional classification within a closed set of classes (Close Set Classification, CSC), this thesis introduces the Open Set Classification (OSC) framework. This approach not only classifies documents into predefined classes but also identifies those that do not belong to any of the established classes, allowing an expert to label them. Various techniques are compared, and two are proposed. One approach without using a threshold on the posterior probabilities generated by the neural network model. At the same time, the other employs a threshold on these probabilities, with the option for manual adjustment according to the expert's needs. In a third chapter, this thesis focuses on Information Extraction (IE) from handwritten tabular documents. A pipeline is developed that starts with detecting text in images containing tables, line by line, followed by its transcription using HTR techniques. In parallel, various models are trained to identify the structure of the tables, including rows, columns, and header sections. The pipeline also addresses common issues in handwritten tables, such as multi-span columns and substituting ditto marks. Additionally, a language model specifically trained to detect table headers automatically is employed. Two datasets are used to demonstrate the effectiveness of the pipeline in the IE task, and areas for improvement within the pipeline itself are identified for future research. / Prieto Fontcuberta, JR. (2024). Deep Learning Methodologies for Textual and Graphical Content-Based Analysis of Handwritten Text Images [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/206075
138

Extracció de terminologia: elements per a la construcció d'un SEACUSE (Sistema d'Extracció Automàtica de Candidats a Unitats de Significació Especialitzada)

Estopà, Rosa 26 July 1999 (has links)
L'objectiu principal d'aquesta tesi és dissenyar un model d'un Sistema d'Extracció Automàtica de Candidats a Unitats de Significació Especialitzada (SEACUSE) basat en fonaments lingüístics de diferents tipus i adequat a les necessitats d'unes activitats professionals concretes.Per fer-ho, en el primer capítol es descriu els sistemes d'extracció automàtica de candidats a terme (SEACAT) i s'analitza i valora els principals SEACAT amb l'objectiu d'elaborar un estat de la qüestió en aquest camp que evidenciï les característiques i sobretot les limitacions d'aquests sistemes.En el segon capítol, en primer lloc, es validen les hipòtesis que vam postular en el treball de recerca sobre els patrons estructurals de les UTP i en segon lloc a comprovar les principals limitacions dels SEACAT que es basen en patrons morfosintàctics. Aquestes limitacions es manifesten en dos aspectes: el silenci (unitats pertinents no detectades per l'extractor) i el soroll (unitats no pertinents presentades com si ho fossin).Les dades que es desprenen de l'anàlisi del silenci i el soroll s'estudien en el tercer i quart capítol, respectivament. Així, primer s'analitzen els tipus i les causes de silenci que produeixen els SEACAT, i tot seguit els tipus i les causes del soroll generat per aquests sistemes.El cinquè proposa elements i estratègies perquè un sistema d'extracció automàtica redueixi el silenci i el soroll, i d'aquesta manera aconsegueixi que els seus resultats s'acostin més al reconeixement i delimitació manuals de les unitats de significació especialitzada.El sisè capítol introdueix el punt de vista de l'usuari i planteja el fet que no totes les activitats professionals requereixen els mateixos tipus ni el mateix nombre d'unitats especialitzades d'un text. Aquesta hipòtesi és verificada a través d'una prova experimental basada en les necessitats de quatre activitats professionals diferents.I, finalment, en el setè capítol, s'exposa una proposta de model de SEACUSE que, a més de les estratègies plantejades en el capítol cinquè, té en compte les finalitats dels professionals a l'hora de presentar els resultats. / El objetivo principal de esta tesis es diseñar un modelo de un Sistema de Extracción Automática de Candidatos a Unidades de Significación Especializada (SEACUSE) basado en fundamentos lingüísticos diferentes y adecuado a las necesidades de unas actividades profesionales concretas.En el primer capítulo se describen los sistemas de extracción automática de candidatos a término (SEACAT) y se analizan y valoran los principales SEACAT con el objetivo de elaborar un estado de la cuestión en este campo que evidencie las características y sobre todo las limitaciones de estos sistemas.En el segundo capítulo, primeramente, se validan las hipótesis que postulamos en el proyecto de investigación previo a la tesis doctoral sobre los patrones estructurales de las UTP y después se comprueba las principales limitaciones de los SEACAT que se basan en patrones morfosintácticos. Estas limitaciones se manifestar en dos aspectos: el silencio (unidades pertinentes no detectadas por el extractor) y el ruido (unidades no pertinentes presentadas como si lo fueran).Los datos que se desprenden del análisis del silencio y del ruido se estudian en los capítulos tercero y cuarto, respectivamente. Así, primero se analizan los tipos y las causas de silencio que producen los SEACAT, y seguidamente los tipos y las causas del ruido generado por estos sistemas.El quinto propone elementos y estrategias para que un sistema de extracción automática reduzca el silencio y el ruido, y de esta manera consiga que sus resultados se aproximen más al reconocimiento y delimitación manuales de las unidades de significación especializada.El sexto capítulo introduce el punto de vista del usuario y plantea el hecho de que no todas las actividades profesionales requieren los mismos tipos ni el mismo número de unidades especializadas de un texto. Esta hipótesis se verifica a través de una prueba experimental basada en las necesidades de cuatro actividades profesionales diferentes.Y, finalmente, en el último capítulo, se expone una propuesta de un modelo de SEACUSE que, además de las estrategias planteadas en el quinto capítulo, tiene en cuenta las finalidades de los profesionales en la presentación de los resultados. / The main objective of this dissertation is to design a model for an Automatic Extraction System for Candidates of Specialized Meaning Units (AESCSMU) based upon different types of linguistic foundations that are adequate to meet the needs of concrete professional activities.To achieve this purpose, the first chapter describes the automatic extraction systems for term candidates (AESTCs). It also analyzes and makes an evaluation of the main AESTCs with the purpose of presenting the state of the issue in this field of knowledge, while showing the characteristics and, above all, the limitations of these systems.The second chapter validates, in the first place, the hypotheses that are going to be taken for granted during the research project about the structural patterns of the multiword units, and, in the second place, tests the main limitations of the AESTCs that are based upon morphosyntactic patterns. These limitations become manifest in two aspects: silence (when the extractor does not detect pertinent units) and noise (when non-pertinent units are presented as if they were pertinent).Data derived from the analysis of silence and noise are studied both on the third and fourth chapters. There, we first analyze the types and causes of silence produced by the AESTCs, and then the types and causes of the noise generated by these systems.The fifth chapter proposes elements and strategies so that automatic extraction systems may reduce silence as well as noise. This way we can accomplish that their results may come closer to the manual identification and delimitation of specialized meaning units.The sixth chapter introduces of the user's point of view, and states the fact that not all the professional activities require the same type and the same number of specialized units from a text. This hypothesis is verified through an experimental test based upon the needs of four different professional activities.Finally, the seventh and last chapter proposes a possible model of an AESCSMU that, besides the strategies presented on chapter five, considers the goals of professionals at the time of presenting the results.
139

L'évaluation comptable des réserves et ressources des entreprises de l'industrie extractive / The accounting valuation of reserves and resources of companies in the extractive industry / La evaluación contable de las reserves y los recursos de las empresas de la industria de extracción

Orellana Fuentes, Claudia Alejandra 14 January 2014 (has links)
Cette recherche apporte une contribution à la problématique de l'évaluation économique et comptable des actifs de réserves et de ressources de l'industrie extractive. Elle vise à répondre à la question suivante: Quelles sont les valeurs économiques des réserves et des ressources qui sont appréhendées par la comptabilité d'entreprise et quelles sont, en cas de choix entre plusieurs types de valeurs, les raisons de ces choix?Elle montre dans sa première partie qu'il n'existe qu'une correspondance partielle entre les valeurs économiques et les valeurs comptables, ce qui privilégie la théorie économique néoclassique. Elle montre dans sa deuxième partie que diverses méthodes comptables cohabitent au sein des six pays étudiés en considération des intérêts des entreprises majors et juniors de cette industrie. La troisième partie de la thèse analyse le processus de normalisation de l'IASB et souligne l'influence du pouvoir des majors et l'influence indirecte exercée par les juniors. Cette thèse s'inscrit dans le prolongement de la recherche en comptabilité critique. / This research contributes to the problem of economic and accounting valuation of the assets reserves and resources in the extractive industry. It aims to answer the following question: What are the economic values of reserves and resources that are recognized by corporate accounting and what are, in cas of a choice between several types of values, the reasons for these choices? It shows in the first part there is only partial matching between economic values and accounting values that favors neoclassical economic theory. It shows, in the second part, that different accounting methods coexist in the six countries studied, taking int consideration the interests of majors and juniors companies in this industry. The third part of the thesis analyzes the IASB's standard-setting process and underlines the influence of the majors power and the indirect influence of the juniors. This thesis is a continuation of research in critical accounting. / Esta investigación aporta una contribución a la problemática de la evaluación económica y contable de los activos reservas y recursos de la industria de extracción. Su objetivo es responder a la siguiente pregunta: ¿Cuáles son los valores económicos de las reservas y los recursos que son reconocidos por la contabilidad de empresas y cuáles son, en el caso de escoger entre varios tipos de valores , las razones de estas decisiones? En la primera parte se demuestra que sólo hay correspondencia parcial entre los valores económicos y los valores de contables, lo que favorece la teoría económica neoclásica. En la segunda parte se demuestra que diversos métodos de contabilidad coexisten en los seis países estudiados tomando en cuenta los intereses de las empresas majors y las empresas juniors de esta industria. La tercera parte de la tesis analiza el proceso de normalización del IASB y subraya la influencia del poder de las grandes multinacionales y la influencia indirecta de los juniors. Esta tesis es una continuación de la investigación en contabilidad crítica.
140

Proposição de plataforma co-design para processamento de imagens de sensoriamento remoto /

Cardim, Guilherme Pina. January 2019 (has links)
Orientador: Erivaldo Antonio da Silva / Resumo: O processamento digital de imagens (PDI) consiste em uma área de grande interesse científico. Em Cartografia, o PDI é muito utilizado para extração de feições cartográficas de interesse presentes nas imagens de sensoriamento remoto (SR). Dentre as feições cartográficas, a detecção de malhas viárias é de grande interesse científico, pois proporciona a obtenção de informações atualizadas e acuradas para a realização de planejamentos urbanos. Devido à sua importância, a literatura científica possui diversos trabalhos propondo diferentes metodologias de extração de malhas viárias em imagens digitais. Dentre as metodologias, é possível encontrar metodologias propostas baseadas em lógica fuzzy, em detector de bordas e crescimento de regiões, por exemplo. Contudo, os estudos existentes focam na aplicação da metodologia de extração para determinadas áreas ou situações e utilizam recortes da imagem em seus estudos devido à grande quantidade de informações contidas nessas imagens. O avanço tecnológico proporcionou que imagens de SR sejam adquiridas com alta resolução espacial, espectral e temporal. Esse fato produz uma grande quantidade de dados a serem processados durante estudos desenvolvidos nessas imagens, o que acarreta um alto custo computacional e, consequentemente, um alto tempo de processamento. Na tentativa de reduzir o tempo de execução das metodologias de extração, os desenvolvedores dedicam esforços na redução da complexidade dos algoritmos e na utilização de outros recurs... (Resumo completo, clicar acesso eletrônico abaixo) / Resumen: El procesamiento digital de imágenes (PDI) consiste en un área de gran interés científico en diferentes áreas. En Cartografía, el PDI es muy utilizado en estudios de teledetección para extracción de los objetos cartográficos de interés presentes en las imágenes orbitales. Entre los objetos cartográficos de interés, la detección de redes viales se ha vuelto de gran interés científico proporcionando la obtención de informaciones actualizadas y precisas para la realización de planificaciones urbanas, por ejemplo. En este sentido, la literatura científica posee diversos trabajos proponiendo diferentes metodologías de extracción de redes viales en imágenes orbitales. Es posible encontrar metodologías propuestas basadas en lógica fuzzy, detector de bordes y crecimiento por región, por ejemplo. Sin embargo, los estudios existentes se centran en la aplicación de la metodología de extracción para determinadas áreas o situaciones y utilizan recortes de la imagen orbitales en sus estudios debido a la gran cantidad de informaciones contenidas en esas imágenes. Además, el avance tecnológico proporcionó que las imágenes de teledetección se adquieran con altas resoluciones espacial, espectral y temporal. Este hecho produce una gran cantidad de datos a ser procesados durante estudios desarrollados en esas imágenes, lo que acarrea en un alto costo computacional y, consecuentemente, un alto tiempo de procesamiento. En el intento de reducir el tiempo de respuesta de las metodologías de extracci... (Resumen completo clicar acceso eletrônico abajo) / Abstract: Digital image processing (DIP) consists of an area of great scientific interest in different areas. In Cartography, the DIP is widely used in remote sensing studies to extract cartographic features of interest present in orbital images. Among the cartographic features, the detection of road networks has become of great scientific interest, since it can provide accurate and updated information for urban planning, for example. In this sense, the scientific literature has several works proposing different methodologies of extraction of road networks in orbital images. It is possible to find proposed methodologies based on fuzzy logic, edge detector and growth by region, for example. However, the existing studies focus on the application of the extraction methodology to certain areas or situations and use orbital image cuts in their studies due to the large amount of information contained in these images. In addition, the technological advance has allowed the acquisition of remote sensing images with high spatial, spectral and temporal resolutions. This fact produces a large amount of data to be processed during studies developed in these images, which results in a high computational cost and, consequently, a high processing time. In an attempt to reduce the response time of the extraction methodologies, the developers dedicate efforts in reducing the complexity of the algorithms and in using some available hardware resources suggesting solutions that include software and hardwar... (Complete abstract click electronic access below) / Doutor

Page generated in 0.1031 seconds