• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 134
  • 2
  • Tagged with
  • 136
  • 136
  • 39
  • 30
  • 25
  • 24
  • 23
  • 21
  • 19
  • 18
  • 15
  • 15
  • 15
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Portal de Proyectos Externos del DCC

Pereira Villarroel, Sergio Alejandro January 2010 (has links)
El objetivo general del presente trabajo de título es desarrollar un portal de Proyectos Externos que permita al Departamento de Ciencias de la Computación (DCC) mejorar: (1) el vínculo con las Empresas y (2) la gestión interna del área. Se espera que éste pueda dar a conocer a la industria los proyectos realizados dentro del Departamento, promover la realización de nuevos proyectos, y, también, permitir una mejor toma de decisiones en futuras gestiones dentro del área. El DCC realiza constantemente diversos proyectos de extensión relacionados con Empresas externas. En la actualidad, no existe ningún lugar donde quede registro de éstos proyectos, sino que simplemente son los profesores encargados quienes mantienen esta información. Frente a lo cual, se torna complejo el proceso de obtención de aquella información. Es por esta razón, que se propone el “Portal de Proyectos Externos del DCC”. Es decir, una aplicación web que permita el manejo de la información en un lugar centralizado, lo cual facilitará el acceso para quienes busquen conocer los proyectos que el Departamento realiza. En este portal, se da solución a los problemas planteados mediante una aplicación a la que se accede vía web, en la cual Alumnos, Empresas y Profesores son partícipes en el debido proceso de publicaciones y postulaciones a proyectos. Más aún, se dispone de información suficiente como para poder tener conocimiento de lo que el Departamento está realizando. De la misma forma, la aplicación se integra a módulos estadísticos que permiten obtener reportes inmediatos para un Administrador, a quién se le facilita la gestión y toma de decisiones para futuros proyectos. El resultado final ha sido satisfactorio e interesante al mismo tiempo, puesto que han surgido mayores interesados que los que se esperaban, permitiendo dar aún mayores soluciones que las propuestas y generando expectativas para posibles trabajos futuros a realizar, tomando como base lo hecho hasta ahora. Asimismo, los usuarios de este portal se hacen partícipes de éste, logrando en una primera instancia acercamientos que previo a la realización de este trabajo no se tenían. Se concluye que el portal permitirá un mayor acercamiento con la industria, comportándose como una vitrina frente al mundo exterior. Por otro lado, se podrá llevar a cabo una mayor gestión interna dentro del DCC, obteniéndose estadísticas de cantidad y desempeño de proyectos a lo largo del tiempo.
92

Cálculo de las Trayectorias de Partículas en la Atmósfera Mediante Cálculos Paralelizados Haciendo Uso Intensivo de GPU

Ozimica Gacitúa, Nicolás Eugenio January 2010 (has links)
El cálculo de la trayectoria de partículas en la atmósfera es una actividad abordada desde hace mucho tiempo, tomando en cuenta un enfoque clásico del uso de los computadores, en el cual se utilizan sus recursos como Procesador Central (CPU) y Memoria RAM. Este enfoque, que ha servido para alcanzar los logros actuales, con predicciones bastante acertadas, aún adolece de problemas claves y en cierta medida irresolubles, que se ven acentuados cuando los procesos se hacen más complejos, ya sea incorporando muchas partículas, o tomando en cuenta modelos de desplazamiento más realistas. El presente trabajo aborda un enfoque totalmente nuevo, el cual hace uso de una componente física de los computadores llamada “Tarjeta Gráfica”, la cual cuenta con su propia unidad de procesamiento gráfico llamada GPU por sus siglas en inglés. Esta componente, gracias a su gran cantidad de núcleos, ofrece la posibilidad de realizar paralelamente entre sí todos, o una parte de los cálculos que le son asignados, de una manera mucho más potente que lo conseguido en la actualidad al hacer uso solamente de CPU. Este problema es abordado mediante la implementación de un programa en dos versiones: una para funcionar exclusivamente en CPU y la otra para hacer uso de GPU en los cálculos. De esta manera se puede contar con un método directo para comparar el desempeño de estos dos enfoques, contrastarlos entre sí, y deducir los casos en que uno supera al otro. El principal insumo en la comparación de estos cálculos es la información del pronóstico del viento. El programa fue aplicado a una situación real: la erupción del Volcán Chaitén, para un día cuyos datos se poseían de antemano. Los resultados obtenidos fueron graficados y comparados con una imagen satelital correspondiente al mismo día simulado, siendo posible comprobar la alta similitud entre ellas. El tiempo de cálculo empleado por la versión que funciona en GPU supera en algunos casos en más de doscientas veces lo que tarda su contraparte CPU, sin afectar en gran medida la exactitud de los cálculos. Esto permite comprobar efectivamente que las GPU superan ampliamente el desempeño de las CPU, cuando el problema abordado es altamente paralelizable. Este es un tema que no está en absoluto cerrado, por cuanto son muchos los caminos donde seguir explorando las ventajas y desventajas del uso de GPU para estos cálculos. Por ejemplo se puede ver cómo funcionan las GPU incorporando procesos físicos más complejos para el cálculo de los desplazamientos de las partículas, o se puede considerar algunas propiedades físicas de estas partículas, como lo es la masa por ejemplo.
93

Pronóstico de Volúmenes de Deshielos Mediante Redes Neuronales Recurrentes e Imágenes Satelitales Modis

Cartes Valdivia, Mauricio Andrés January 2009 (has links)
No description available.
94

Propuesta de mejora en el área de preparación de pliegos, en una fábrica de llantas, mediante un modelo de simulación de sistemas

Mejía Pascual, Carmen January 2018 (has links)
Publicación a texto completo no autorizada por el autor / Propone mejoras para la productividad en el área de cortadoras, donde se prepara pliegos para la construcción de llantas. Utiliza el modelo de simulación de eventos discretos con el Software Arena; basado en el análisis, el diagnóstico y las propuestas de mejora para lograr la eficiencia en la producción de llantas. Estas propuestas son las implementaciones de: impresora de tarjetas para rollos de rack, enrolladoras eléctricas y sistema de Tándem de Porta Rack. Cada propuesta contempla un análisis económico. / Trabajo de suficiencia profesional
95

Sistema de soporte a las decisiones para la planificación de rutas nacionales en una courier basado en modelos de optimización y simulación

Ulfe Vega, Luis Alberto January 2017 (has links)
Determina en qué medida la implementación de un sistema de soporte a las decisiones mejoraría la planificación de rutas nacionales en una courier, basado en modelos de optimización y simulación. Para el estudio de la variable dependiente: planificación de rutas nacionales en una courier se aplicó 3 fichas de observaciones para recopilar los datos antes y después de los indicadores cuantitativos: el tiempo de planificación de rutas nacionales, costo en la distribución y tiempo de generación de reportes. La investigación fue de tipo aplicada, de nivel explicativo y de diseño pre experimental. Mediante la prueba t de Student se halló diferencias significativas en el tiempo de planificación de Rutas Nacionales, antes y después de haber implementado el sistema de soporte a las decisiones basado en modelos de optimización y simulación; y para el indicador tiempo de generación de reportes se usó W de Wilcoxon, también se halló diferencias significativas. Los resultados de la investigación fueron los siguientes: que el tiempo de planificación de rutas nacionales disminuye después de aplicar el sistema de soporte a las decisiones basado en modelos de optimización y simulación llegando a una media de solamente 8,70 minutos teniendo anteriormente 1931,60 minutos; y que el tiempo de generación de reportes disminuye después de aplicar el sistema llegando a una media de solamente 0,07 minutos teniendo anteriormente 68,85 minutos, con esto determinamos su impacto positivo en la planificación de rutas nacionales en la courier. / Tesis
96

Expansión de la capacidad de los filtros convolucionales en redes neuronales

Larregui, Juan Ignacio 10 May 2021 (has links)
En los últimos años el campo de la Visión Artificial ha experimentado un crecimiento acelerado con el éxito de las Redes Neuronales Artificiales y el Aprendizaje Profundo. La cantidad de datos etiquetados que se han relevado, las mejoras en hardware especializado y las importantes modificaciones introducidas en los algoritmos tradicionales surgidos en la segunda mitad del siglo pasado han posibilitado el avance en problemas complejos que parecían imposibles de abordar pocos años atrás. En particular, las Redes Neuronales Convolucionales se han convertido en el modelo más popular dentro de este campo de las Ciencias de la Computación. A lo largo de la década del 2010, los trabajos que avanzaron el estado del arte en los diferentes problemas de la Visión Artificial han incluido casi exclusivamente redes de este tipo. Sin embargo, algunos componentes de las Redes Convolucionales han mantenido sus estructuras y definiciones originales. Este es el caso de los filtros convolucionales, los cuales han mantenido su estructura geométrica estática en las últimas décadas. El objetivo general de esta tesis es explorar las limitaciones inherentes a la estructura tradicional de los filtros convolucionales, proponiendo nuevas definiciones y operaciones para superar las mismas. En esta línea, se presenta una generalización de la definición de los filtros convolucionales, extendiendo el concepto de dilatación de los mismos a intervalos continuos sobre las dimensiones espaciales. Adicionalmente, se presenta una nueva definición de la Convolución Dilatada para permitir comportamientos dinámicos durante el proceso de entrenamiento. Basadas en las definiciones introducidas, se proponen las nuevas operaciones de Convolución de Dilatación Adaptativa y Convolución de Dilatación Aleatoria. La primera introduce a las redes convolucionales la capacidad de optimizar la dilatación de los filtros de acuerdo a los datos de entrada, de manera de adaptarse dinámicamente a los cambios semánticos y geométricos presentes en las diferentes escenas. La segunda permite explorar la utilización de filtros de dilataciones aleatorias para simular transformaciones de escala, con el objetivo de aumentar la invariancia a escala de una red convolucional, una de sus limitaciones más conocidas. Finalmente, se definieron casos de estudio para Clasificación de Imágenes y Segmentación Semántica, de manera de obtener métricas cuantitativas que permitan evaluar las propuestas realizadas. Se realizaron múltiples entrenamientos de diferentes arquitecturas y configuraciones para redes conocidas en la literatura, mostrando resultados favorables con la inclusión de las operaciones propuestas. Más aún, el diseño de estas es modular, por lo que pueden ser incluidas en arquitecturas arbitrarias. / In the last years, the field of Computer Vision has seen incredible success through the adoption of Artificial Neural Networks and Deep Learning. The amount of labeled data, the improvements in specialized hardware, and further development in the traditional algorithms, have enabled advances in complex problems that seemed impossible to approach a few years before. In particular, these networks have become the most popular models within this field of Computer Sciences. Throughout the last decade, the state-of-the-art research in the different Computer Vision problems had almost exclusively included this type of model. However, the structure of some components of Convolutional Networks has remained almost unaffected. This is the case with convolutional filters, which have kept their original geometric structure in the last decades. The overall goal of this thesis is to explore the limitations inherent to the traditional structure of the convolutional filters, introducing new definitions and operations to overcome them. In this context, a generalization of the definition of convolutional filters is presented, extending the concept of dilation to continuous intervals in the spatial dimensions. Additionally, a new definition for the Dilated or Atrous Convolution is proposed, which enables dynamic behaviors in the dilation of the filters during the training process. Based on these new definitions, two new operations are presented: the Adaptive Dilation Convolution and the Random Dilation Convolution. The first one introduces the capacity for Convolutional Networks to optimize the dilation of the filters according to the input data, dynamically adapting to the semantic and geometric differences found across scenes. The second, enables the exploration of random dilations to simulate different scale transformations in the data, aiming to increase the scale invariance of these networks, one of their known limitations. Finally, different study cases were defined for Image Classification and Semantic Segmentation, in order to evaluate the introduced operations using quantitative metrics. Several training experiments were performed, using different architectures and configurations for renowned networks, showing positive results during the inclusion of the proposed operations. Moreover, their design is modular, enabling them to be included in arbitrary architectures.
97

Diseño y verificación de sistemas de tiempo real heterogéneos

Páez, Francisco Ezequiel 12 March 2021 (has links)
Un Sistema de Tiempo Real (STR) debe garantizar que sus resultados, además de correctos, cumplan también con un conjunto de restricciones temporales. En general, esto implica asegurar que sus tareas finalicen su ejecución antes de un vencimiento. Para cumplir esto, la predictibilidad y el determinismo adquieren suma importancia. El campo de aplicación clásico de los STR ha sido la industria, como por ejemplo la aviónica, la exploración espacial, equipamiento médico, sistemas de control, etc. Todos estos sistemas tienen en común el de ser de misión crítica, donde un fallo tiene consecuencias graves, como pérdidas materiales y económicas, daños al medio ambiente o poner en riesgo la vida humana. Por lo general estos sistemas son estáticos, y utilizan arquitecturas de hardware y algoritmos de efectividad comprobada. En muchas ocasiones su diseño e implementación es ad-hoc. Sin embargo, en las últimas décadas el campo de aplicación de los STR se ha extendiendo. En la actualidad son utilizados en ámbitos y productos de lo más variados: electrodomésticos, productos electrónicos de consumo, telefonía celular, automóviles, comunicaciones, sistemas de reservas de pasajes, etc. Muchos de estos sistemas están constituidos tanto por tareas críticas como por tareas no-críticas. Un fallo en la ejecución de las primeras tiene consecuencias graves, en tanto que el incumplimiento de las restricciones temporales de las últimas afecta la calidad de servicio esperada. Es vital entonces que las tareas no-críticas no afecten la correcta ejecución de las tareas críticas. Un STR con estas características se denomina heterogéneo. En los últimos años, gracias al incremento de la potencia de cálculo de los microprocesadores, y la reducción de sus costos, el número de STR que permiten que coexistan estos dos conjuntos de tareas ha aumentado. Para lograr una correcta ejecución de un STR heterogéneo, se requiere de técnicas que calculen y administren en línea, el tiempo ocioso disponible. De esta manera, el planificador puede mantener la garantía decumplimiento de las constricciones temporales de las tareas críticas, y al mismo tiempo brindar una atención aceptable a las tareas sin requerimientos estrictos. En la actualidad, microprocesadores más potentes abren la posibilidad de implementar estos métodos incluso en sistemas que antaño contaban con muy baja potencia de cálculo. Sin embargo, la sobrecarga que agregan no es despreciable, por lo que reducir el costo computacional de estos métodos sigue siendo de suma utilidad, aún cuando se dispone de hardware con mayor capacidad de computo. Existe una amplia literatura que aborda la problemática de la planificación de STR heterogéneos. Sin embargo, existe una brecha significativa entre los desarrollos teóricos en la disciplina, y las técnicas efectivamente utilizadas en la industria. Es necesario poder comprobar el costo real y las ventajas y desventajas objetivas de implementar los modelos teóricos de punta. Muchos modelos teóricos no tienen en cuenta costos adicionales presentes en implementaciones concretas. Estos son comúnmente considerados despreciables en la modelización, a fin de simplificar el análisis, la evaluación y el desarrollo del sistema. Como consecuencia, en la implementación real se estos parámetros se sobrestiman, lo que resulta en una menor eficiencia del sistema. Un ejemplo común es el uso de microprocesadores con una capacidad de cálculo por encima de la realmente requerida, lo que impacta negativamente en el consumo de energía y en los costos. Un modelo más detallado en la etapa de diseño, implementación y verificación, permitiría mejorar el desempeño del sistema final, sin abandonar la garantía de predictibilidad temporal. Igualmente importantes, se deben contar con técnicas y herramientas que permitan implementar estos modelos métodos teóricos de manera eficiente. La presente tesis se basa en la hipótesis de que los STR heterogéneos pueden ser eficaces en la planificación de sus conjuntos de tareas y en el uso de sus recursos computacionales. Bajo esta premisa, se presentan nuevos modelos y mejoras a modelos ya existentes, junto con simulaciones, pruebas y desarrollos necesarios para su verificación. El trabajo se basa fuertemente en la implementación práctica de los resultados teóricos, identificando las dificultades reales que su puesta en práctica trae aparejado. De esta manera, se busca reducir la brecha existente entre los resultados obtenidos por la investigación científica en la disciplina de los STR, y aquello concretamente utilizado e implementado realmente en la industria, la investigación y el desarrollo tecnológico. / A Real-Time System (RTS) must warrant that its results are correct and fulfill a set of temporal restrictions. This implies that each task completes its execution before a specific deadline. In order to accomplish this, the predictibility and determinism of the system as a whole is very important. These kind of systems are used in several industries, like aircraft avionics, space exploration, medical equipment, etc., which are mission critical. A failure in this systems could have catastrophic consequences, like loss of human lives. Most of the time the design and implementation of these systems is ad-hoc. In the last decades, thanks to the growth and sophistication of embedded systems, the application domain of the RTS increased. Nowdays they can be found on consumer electronics, cellphones, communications systems, cars, etc. A lot of these new kind of real-time systems are composed of both critical and noncritical tasks. A failure in the execution of the former have severe consequences, but a missed deadline of the later only affects the quality of service. Such a RTS is known as a heterogeneus one. In order to accomplish a correct execution of a heterogeneus RTS, methods and techniques that calculates and manages the system idle-time are needed. With these tools, the system scheduler can guarantee that all the time-critical tasks fulfill their deadlines. Nonetheless, these techniques add an execution overhead to the system. Although severalworks in the literature proposes solutions for many of the scheduling problems in a heterogeneus RTS, a gap exists between these results and what is actually used and implemented in the industry. Many theoretical models do not take into account the additional costs present in a concrete implementation. These are commonly considered negligible in order to simplify the analysis, evaluation and development of the system. As a consequence, some parameters are overestimated, resulting in reduced system efficiency. A common scenario is the use of microprocessors more powerful than required, with negative impact on energy consumption and production costs. A more detailed model in the design and implementation stage could improve the performance of the final system, without abandoning the guarantee of temporal predictability. Equally important, there must be techniques and tools that allow the implementation of these theoretical results. The working hipothesis of this thesis is that a heterogeneus RTS could be efficient in the scheduling of their tasks and resources. Following this premise, new models and improvements to existing ones are presented, in conjunction with several simulations and implementations of the theoretical results, in order to identify the real difficulties that the implementation brings about. This seeks to reduce the gap between the scientific research in the discipline of RTS and what actually implemented in the industry.
98

Desarrollo de técnicas de computación evolutiva : multiobjetivo y aprendizaje automático para la inferencia, modelado y simulación de redes regulatorias

Gallo, Cristian Andrés 19 March 2014 (has links)
Durante las últimas décadas el desarrollo de la bioinformática nos ha permitido lograr una mayor comprensión de los procesos biológicos que ocurren con nuestras células a nivel molecular. Al respecto, las mejoras e innovaciones en la tecnología continúan estimulando la mejora en la calidad de los datos biológicos que pueden ser obtenidos a nivel genómico. En tal sentido, grandes volúmenes de información pueden ser encontrados en formas de anotaciones o bases de datos computacionales. Estos conjuntos de datos, apropiadamente combinados, tienen el potencial de posibilitar descubrimientos novedosos que lleven a avances en campos tan relevantes para el desarrollo nacional como son la biotecnología o la medicina post-genómica. En particular, esta tesis se centra en la investigación de técnicas de aprendizaje automático y computación evolutiva para la inferencia de redes regulatorias de genes a partir de datos de expresión de genes, a nivel de genomas completos. Una red regulatoria de genes es una colección de segmentos de ADN (ácido desoxirribonucleico) en una célula que interactúan unos con otros (indirectamente a través del producto de su expresión) y con otras sustancias en la célula, gobernando así las tasas de transcripción de los genes de la red en ARNm (ácido ribonucleico mensajero). La principal contribución de esta tesis esta relacionada con el desarrollo de metodologías computacionales que asistan, a expertos en bioinformática, en la ingeniería inversa de las redes regulatorias de genes. En tal sentido, se desarrollaron algoritmos de computación evolutiva que permiten la identificación de grupos de genes co-expresados bajo ciertos subconjuntos de condiciones experimentales. Estos algoritmos se aplican sobre datos de expresión de genes, y optimizan características deseables desde el punto de vista biológico, posibilitando la obtención de relaciones de co-expresión relevantes. Tales algoritmos fueron cuidadosamente validados por medio de comparaciones con otras técnicas similares disponibles en la literatura, realizando estudios con datos reales y sintéticos a fin de mostrar la utilidad de la información extraída. Además, se desarrolló un algoritmo de inferencia que permite la extracción de potenciales relaciones causa-efecto entre genes, tanto simultáneas como también aquellas diferidas en el tiempo. Este algoritmo es una evolución de una técnica presentada con anterioridad, e incorpora características novedosas como la posibilidad de inferir reglas con múltiples retardos en el tiempo, a nivel genoma completo, e integrando múltiples conjuntos de datos. La técnica se validó mostrando su eficacia respecto de otros enfoques relevantes de la literatura. También se estudiaron los resultados obtenidos a partir de conjuntos de datos reales en términos de su relevancia biológica, exponiendo la viabilidad de la información inferida. Finalmente, estos algoritmos se integraron en una plataforma de software que facilita la utilización de estas técnicas permitiendo la inferencia, manipulación y visualización de redes regulatorias de genes. / In recent decades, the development of bioinformatics has allowed us to achieve a greater understanding of the biological processes that occur at the molecular level in our cells. In this regard, the improvements and innovations in technology continue to boost the improvement in the quality of the biological data that can be obtained at the genomic level. In this regard, large volumes of information can be found in forms of ontology's or computer databases. These datasets, appropriately combined, have the potential to enable novel discoveries that lead to progress in relevant fields to national development such as biotechnology and post-genomic medicine. In particular, this thesis focuses on the research of machine learning techniques and evolutionary computation for the inference of gene regulatory networks from gene expression data at genome-wide levels. A gene regulatory network is a collection of segments of DNA (deoxyribonucleic acid) in a cell which interact with each other (indirectly through their products of expression) and with other substances in the cell, thereby governing the rates of network genes transcription into mRNA (messenger ribonucleic acid). The main contribution of this thesis is related to the development of computational methodologies to attend experts in bioinformatics in the reverse engineering of gene regulatory networks. In this sense, evolutionary algorithms that allow the identification of groups of coexpressed genes under certain subsets of experimental conditions were developed. These algorithms are applied to gene expression data, and optimize desirable characteristics from the biological point of view, allowing the inference of relevant co-expression relationships. Such algorithms were carefully validated by the comparison with other similar techniques available in the literature, conducting studies with real and synthetic data in order to show the usefulness of the information extracted. Furthermore, an inference algorithm that allows the extraction of potential cause-effect relationships between genes, both simultaneous and time-delayed, were developed. This algorithm is an evolution of a previous approach, and incorporates new features such as the ability to infer rules with multiple time delays, at genome-wide level, and integrating multiple datasets. The technique was validated by showing its effectiveness over other relevant approaches in the literature. The results obtained from real datasets were also studied in terms of their biological relevance by exposing the viability of the inferred information. Finally, these algorithms were integrated into a software platform that facilitates the use of these techniques allowing the inference, manipulation and visualization of gene regulatory networks.
99

Formalización y generalización del manejo de preferencias en servicios de razonamiento rebatible

Teze, Juan Carlos Lionel 30 March 2017 (has links)
Esta tesis aborda el estudio, diseño y formalización de herramientas computacionales concretas para seleccionar y cambiar el criterio de preferencia entre argumentos que es utilizado por el sistema de Programación Lógica Rebatible (DeLP) requerido para decidir derrotas al analizar ataques entre argumentos. Para lograr esto, se proponen varios servicios de razonamiento basados en DeLP que disponen de distintos criterios y permiten llevar a cabo esta tarea de diferentes maneras. Como parte de la contribución, se propone un servicio que utiliza expresiones condicionales para programar cómo seleccionar el criterio que mejor se ajusta a las preferencias del usuario o a una situación en particular. Por otra parte, en la tesis se aborda también la definición de un servicio con mecanismos que permiten no solo seleccionar sino también combinar criterios. Estos mecanismos permiten que sea posible comparar argumentos considerando de manera simultánea más de un criterio. Como se detalla a continuación, DeLP ha demostrado ser de gran utilidad en diferentes dominios de aplicación [CCS05, RGS07, GCS08, GGS10]. Los formalismos propuestos incorporan herramientas concretas para tratar el manejo de múltiples criterios de preferencia entre argumentos, lo cual no ha sido considerado hasta el momento por otros trabajos. En consecuencia, los resultados obtenidos en esta tesis brindan una contribución importante a los desarrollos en la comunidad de argumentación, particularmente en el campo de los sistemas basados en Programación Lógica Rebatible, significando además un aporte dentro del área de Inteligencia Artifcial en las Ciencias de la Computación.
100

Alineamiento e integración de información basada en ontologías para biogeografía marina y biodiversidad

Zárate, Marcos Daniel 24 October 2019 (has links)
El objetivo principal de esta tesis es analizar los problemas que existen actualmente con el manejo integrado de información en las ciencias de la vida en general, y particularmente analizar que sucede con la Biodiversidad y la Oceanografía. La actual crisis mundial de la biodiversidad, debida, entre otras cosas, al calentamiento global, genera un profundo impacto en la distribución geográfica de las especies y las comunidades ecológicas. Esto provoca un creciente interés entre los científicos para coordinar el uso compartido de conjuntos de datos que ayuden a entender esta problemática global. En este contexto, el paradigma de los Datos Vinculados (Linked Data en inglés) ha emergido como un conjunto de buenas prácticas para conectar, compartir y exponer datos y conocimiento, una parte central de este paradigma son las ontologías, que permiten la definición de vocabularios compartidos y modelos conceptuales que ayuden a integrar esta información. Estas consideraciones proporcionan una fuerte motivación para formular un sistema que tenga en cuenta las características geoespaciales que pueden brindar respuestas a preguntas como las siguientes: (i) >Cómo podemos definir las regiones espaciales para nuestros estudios? (ii) >Cómo se distribuyen las especies en una determinada región? (iii) Dada una georeferencia particular, >a qué re- gión geográfica pertenece? (iv) >Cómo relacionar las ocurrencias de especies con variables ambientales dentro de una región especifica?. En esta tesis se presenta el desarrollo de un sistema basado en ontologías denominado BiGe-Onto [ZBF+19] para administrar información de los dominios de Biodiversidad y Biogeografía marina. Este sistema está compuesto por (i) Arquitectura; (ii) Modelo conceptual; (iii) Versión operacional OWL 2; y (iv) Conjunto de datos vinculados para su explotación a través de un punto final SPARQL. La evaluación de BiGe-Onto se realizo desde dos enfoques, el primero de ellos consiste en validar la ontologíaa utilizando datos reales extraídos de repositorios de Biodiversidad y Biogeografía marina para luego validar el modelo conceptual propuesto utilizando preguntas de competencia. El segundo enfoque tiene que ver con la validación mediante casos de estudio definidos en conjunto con investigadores del Centro Científico Tecnológico (CENPAT-CONICET) que trabajan realizando análisis de distribución de especies. Finalmente la documentación de BiGe-Onto esta disponible en línea en http://crowd.fi.uncoma.edu.ar/cenpat-gilia/bigeonto/ y el conjunto de datos enlazados es accesible públicamente a través de DOI 10.5281/zenodo.3235548. / The main goal of this thesis is to analyze the existing issues currently related to the integrated management of information in life sciences in general, and particularly to analyze what happens with Biodiversity and Oceanography. The current global biodiversity crisis, due, among other things, to global warming, has a great impact on the geographical distribution of species and ecological communities. This motivates a growing interest among scientists to coordinate the sharing of datasets that help to understand this global problem. In this context, Linked Data paradigm has emerged as a set of good practices to connect, share and expose data and knowledge. A central part of this paradigm are the ontologies, which allow the de nition of shared vocabularies and conceptual models that help integrate this information. These considerations provide strong motivation to formulate an ontologybased system considering geospatial features that may provide answers to questions such as: (i) How can we define spatial regions for our studies? (ii) How are the species distributed in a certain region? (iii) Given a particular georeference, which geographic region does it belong to? (iv) How to relate occurrences of species with environmental variables within a specific region?. This thesis presents the development of an ontology-based system called BiGe-Onto [ZBF+19] to manage information from Biodiversity and Marine Biogeography domains. This system is composed of (i) Architecture; (ii) Conceptual model; (iii) OWL 2 operational version; and (iv) Linked dataset to exploit through a SPARQL endpoint. BiGe-Onto evaluation was developed from two approaches, the first one is to validate the ontology using real data extracted from Biodiversity and Marine Biogeography repositories and then validate the proposed conceptual model using competence questions. The second approach is based on validation through case studies defined in conjunction with researchers from the Technological Scientific Center (CENPAT-CONICET) who work on species distribution analysis. Finally, BiGe-Onto documentation is available online at http: //crowd.fi.uncoma.edu.ar/cenpat-gilia/bigeonto/ and the linked dataset is publicly accessible through DOI 10.5281/zenodo.3235548.

Page generated in 0.1077 seconds