Spelling suggestions: "subject:"ciencias dde lla computacional"" "subject:"ciencias dde lla computacionais""
91 |
Portal de Proyectos Externos del DCCPereira Villarroel, Sergio Alejandro January 2010 (has links)
El objetivo general del presente trabajo de título es desarrollar un portal de Proyectos Externos que permita al Departamento de Ciencias de la Computación (DCC) mejorar: (1) el vínculo con las Empresas y (2) la gestión interna del área. Se espera que éste pueda dar a conocer a la industria los proyectos realizados dentro del Departamento, promover la realización de nuevos proyectos, y, también, permitir una mejor toma de decisiones en futuras gestiones dentro del área.
El DCC realiza constantemente diversos proyectos de extensión relacionados con Empresas externas. En la actualidad, no existe ningún lugar donde quede registro de éstos proyectos, sino que simplemente son los profesores encargados quienes mantienen esta información. Frente a lo cual, se torna complejo el proceso de obtención de aquella información.
Es por esta razón, que se propone el “Portal de Proyectos Externos del DCC”. Es decir, una aplicación web que permita el manejo de la información en un lugar centralizado, lo cual facilitará el acceso para quienes busquen conocer los proyectos que el Departamento realiza. En este portal, se da solución a los problemas planteados mediante una aplicación a la que se accede vía web, en la cual Alumnos, Empresas y Profesores son partícipes en el debido proceso de publicaciones y postulaciones a proyectos. Más aún, se dispone de información suficiente como para poder tener conocimiento de lo que el Departamento está realizando. De la misma forma, la aplicación se integra a módulos estadísticos que permiten obtener reportes inmediatos para un Administrador, a quién se le facilita la gestión y toma de decisiones para futuros proyectos.
El resultado final ha sido satisfactorio e interesante al mismo tiempo, puesto que han surgido mayores interesados que los que se esperaban, permitiendo dar aún mayores soluciones que las propuestas y generando expectativas para posibles trabajos futuros a realizar, tomando como base lo hecho hasta ahora. Asimismo, los usuarios de este portal se hacen partícipes de éste, logrando en una primera instancia acercamientos que previo a la realización de este trabajo no se tenían.
Se concluye que el portal permitirá un mayor acercamiento con la industria, comportándose como una vitrina frente al mundo exterior. Por otro lado, se podrá llevar a cabo una mayor gestión interna dentro del DCC, obteniéndose estadísticas de cantidad y desempeño de proyectos a lo largo del tiempo.
|
92 |
Cálculo de las Trayectorias de Partículas en la Atmósfera Mediante Cálculos Paralelizados Haciendo Uso Intensivo de GPUOzimica Gacitúa, Nicolás Eugenio January 2010 (has links)
El cálculo de la trayectoria de partículas en la atmósfera es una actividad abordada desde hace mucho tiempo, tomando en cuenta un enfoque clásico del uso de los computadores, en el cual se utilizan sus recursos como Procesador Central (CPU) y Memoria RAM. Este enfoque, que ha servido para alcanzar los logros actuales, con predicciones bastante acertadas, aún adolece de problemas claves y en cierta medida irresolubles, que se ven acentuados cuando los procesos se hacen más complejos, ya sea incorporando muchas partículas, o tomando en cuenta modelos de desplazamiento más realistas.
El presente trabajo aborda un enfoque totalmente nuevo, el cual hace uso de una componente física de los computadores llamada “Tarjeta Gráfica”, la cual cuenta con su propia unidad de procesamiento gráfico llamada GPU por sus siglas en inglés. Esta componente, gracias a su gran cantidad de núcleos, ofrece la posibilidad de realizar paralelamente entre sí todos, o una parte de los cálculos que le son asignados, de una manera mucho más potente que lo conseguido en la actualidad al hacer uso solamente de CPU.
Este problema es abordado mediante la implementación de un programa en dos versiones: una para funcionar exclusivamente en CPU y la otra para hacer uso de GPU en los cálculos. De esta manera se puede contar con un método directo para comparar el desempeño de estos dos enfoques, contrastarlos entre sí, y deducir los casos en que uno supera al otro. El principal insumo en la comparación de estos cálculos es la información del pronóstico del viento.
El programa fue aplicado a una situación real: la erupción del Volcán Chaitén, para un día cuyos datos se poseían de antemano. Los resultados obtenidos fueron graficados y comparados con una imagen satelital correspondiente al mismo día simulado, siendo posible comprobar la alta similitud entre ellas. El tiempo de cálculo empleado por la versión que funciona en GPU supera en algunos casos en más de doscientas veces lo que tarda su contraparte CPU, sin afectar en gran medida la exactitud de los cálculos. Esto permite comprobar efectivamente que las GPU superan ampliamente el desempeño de las CPU, cuando el problema abordado es altamente paralelizable.
Este es un tema que no está en absoluto cerrado, por cuanto son muchos los caminos donde seguir explorando las ventajas y desventajas del uso de GPU para estos cálculos. Por ejemplo se puede ver cómo funcionan las GPU incorporando procesos físicos más complejos para el cálculo de los desplazamientos de las partículas, o se puede considerar algunas propiedades físicas de estas partículas, como lo es la masa por ejemplo.
|
93 |
Pronóstico de Volúmenes de Deshielos Mediante Redes Neuronales Recurrentes e Imágenes Satelitales ModisCartes Valdivia, Mauricio Andrés January 2009 (has links)
No description available.
|
94 |
Propuesta de mejora en el área de preparación de pliegos, en una fábrica de llantas, mediante un modelo de simulación de sistemasMejía Pascual, Carmen January 2018 (has links)
Publicación a texto completo no autorizada por el autor / Propone mejoras para la productividad en el área de cortadoras, donde se prepara pliegos para la construcción de llantas. Utiliza el modelo de simulación de eventos discretos con el Software Arena; basado en el análisis, el diagnóstico y las propuestas de mejora para lograr la eficiencia en la producción de llantas. Estas propuestas son las implementaciones de: impresora de tarjetas para rollos de rack, enrolladoras eléctricas y sistema de Tándem de Porta Rack. Cada propuesta contempla un análisis económico. / Trabajo de suficiencia profesional
|
95 |
Sistema de soporte a las decisiones para la planificación de rutas nacionales en una courier basado en modelos de optimización y simulaciónUlfe Vega, Luis Alberto January 2017 (has links)
Determina en qué medida la implementación de un sistema de soporte a las decisiones mejoraría la planificación de rutas nacionales en una courier, basado en modelos de optimización y simulación. Para el estudio de la variable dependiente: planificación de rutas nacionales en una courier se aplicó 3 fichas de observaciones para recopilar los datos antes y después de los indicadores cuantitativos: el tiempo de planificación de rutas nacionales, costo en la distribución y tiempo de generación de reportes. La investigación fue de tipo aplicada, de nivel explicativo y de diseño pre experimental. Mediante la prueba t de Student se halló diferencias significativas en el tiempo de planificación de Rutas Nacionales, antes y después de haber implementado el sistema de soporte a las decisiones basado en modelos de optimización y simulación; y para el indicador tiempo de generación de reportes se usó W de Wilcoxon, también se halló diferencias significativas. Los resultados de la investigación fueron los siguientes: que el tiempo de planificación de rutas nacionales disminuye después de aplicar el sistema de soporte a las decisiones basado en modelos de optimización y simulación llegando a una media de solamente 8,70 minutos teniendo anteriormente 1931,60 minutos; y que el tiempo de generación de reportes disminuye después de aplicar el sistema llegando a una media de solamente 0,07 minutos teniendo anteriormente 68,85 minutos, con esto determinamos su impacto positivo en la planificación de rutas nacionales en la courier. / Tesis
|
96 |
Expansión de la capacidad de los filtros convolucionales en redes neuronalesLarregui, Juan Ignacio 10 May 2021 (has links)
En los últimos años el campo de la Visión Artificial ha experimentado un crecimiento
acelerado con el éxito de las Redes Neuronales Artificiales y el Aprendizaje Profundo. La
cantidad de datos etiquetados que se han relevado, las mejoras en hardware especializado
y las importantes modificaciones introducidas en los algoritmos tradicionales surgidos en
la segunda mitad del siglo pasado han posibilitado el avance en problemas complejos que
parecían imposibles de abordar pocos años atrás.
En particular, las Redes Neuronales Convolucionales se han convertido en el modelo
más popular dentro de este campo de las Ciencias de la Computación. A lo largo de la
década del 2010, los trabajos que avanzaron el estado del arte en los diferentes problemas
de la Visión Artificial han incluido casi exclusivamente redes de este tipo. Sin embargo,
algunos componentes de las Redes Convolucionales han mantenido sus estructuras y definiciones originales. Este es el caso de los filtros convolucionales, los cuales han mantenido
su estructura geométrica estática en las últimas décadas.
El objetivo general de esta tesis es explorar las limitaciones inherentes a la estructura
tradicional de los filtros convolucionales, proponiendo nuevas definiciones y operaciones
para superar las mismas. En esta línea, se presenta una generalización de la definición de
los filtros convolucionales, extendiendo el concepto de dilatación de los mismos a intervalos continuos sobre las dimensiones espaciales. Adicionalmente, se presenta una nueva
definición de la Convolución Dilatada para permitir comportamientos dinámicos durante
el proceso de entrenamiento. Basadas en las definiciones introducidas, se proponen las
nuevas operaciones de Convolución de Dilatación Adaptativa y Convolución de Dilatación
Aleatoria. La primera introduce a las redes convolucionales la capacidad de optimizar la
dilatación de los filtros de acuerdo a los datos de entrada, de manera de adaptarse dinámicamente a los cambios semánticos y geométricos presentes en las diferentes escenas. La
segunda permite explorar la utilización de filtros de dilataciones aleatorias para simular
transformaciones de escala, con el objetivo de aumentar la invariancia a escala de una
red convolucional, una de sus limitaciones más conocidas.
Finalmente, se definieron casos de estudio para Clasificación de Imágenes y Segmentación Semántica, de manera de obtener métricas cuantitativas que permitan evaluar las
propuestas realizadas. Se realizaron múltiples entrenamientos de diferentes arquitecturas
y configuraciones para redes conocidas en la literatura, mostrando resultados favorables
con la inclusión de las operaciones propuestas. Más aún, el diseño de estas es modular,
por lo que pueden ser incluidas en arquitecturas arbitrarias. / In the last years, the field of Computer Vision has seen incredible success through
the adoption of Artificial Neural Networks and Deep Learning. The amount of labeled
data, the improvements in specialized hardware, and further development in the traditional algorithms, have enabled advances in complex problems that seemed impossible to
approach a few years before.
In particular, these networks have become the most popular models within this field
of Computer Sciences. Throughout the last decade, the state-of-the-art research in the
different Computer Vision problems had almost exclusively included this type of model.
However, the structure of some components of Convolutional Networks has remained
almost unaffected. This is the case with convolutional filters, which have kept their original
geometric structure in the last decades.
The overall goal of this thesis is to explore the limitations inherent to the traditional
structure of the convolutional filters, introducing new definitions and operations to overcome them. In this context, a generalization of the definition of convolutional filters is
presented, extending the concept of dilation to continuous intervals in the spatial dimensions. Additionally, a new definition for the Dilated or Atrous Convolution is proposed,
which enables dynamic behaviors in the dilation of the filters during the training process.
Based on these new definitions, two new operations are presented: the Adaptive Dilation
Convolution and the Random Dilation Convolution. The first one introduces the capacity
for Convolutional Networks to optimize the dilation of the filters according to the input
data, dynamically adapting to the semantic and geometric differences found across scenes. The second, enables the exploration of random dilations to simulate different scale
transformations in the data, aiming to increase the scale invariance of these networks,
one of their known limitations.
Finally, different study cases were defined for Image Classification and Semantic Segmentation, in order to evaluate the introduced operations using quantitative metrics.
Several training experiments were performed, using different architectures and configurations for renowned networks, showing positive results during the inclusion of the proposed
operations. Moreover, their design is modular, enabling them to be included in arbitrary
architectures.
|
97 |
Diseño y verificación de sistemas de tiempo real heterogéneosPáez, Francisco Ezequiel 12 March 2021 (has links)
Un Sistema de Tiempo Real (STR) debe garantizar que sus resultados, además de
correctos, cumplan también con un conjunto de restricciones temporales. En general,
esto implica asegurar que sus tareas finalicen su ejecución antes de un vencimiento. Para
cumplir esto, la predictibilidad y el determinismo adquieren suma importancia.
El campo de aplicación clásico de los STR ha sido la industria, como por ejemplo la
aviónica, la exploración espacial, equipamiento médico, sistemas de control, etc. Todos
estos sistemas tienen en común el de ser de misión crítica, donde un fallo tiene consecuencias
graves, como pérdidas materiales y económicas, daños al medio ambiente o poner en
riesgo la vida humana. Por lo general estos sistemas son estáticos, y utilizan arquitecturas
de hardware y algoritmos de efectividad comprobada. En muchas ocasiones su diseño e
implementación es ad-hoc.
Sin embargo, en las últimas décadas el campo de aplicación de los STR se ha extendiendo.
En la actualidad son utilizados en ámbitos y productos de lo más variados:
electrodomésticos, productos electrónicos de consumo, telefonía celular, automóviles,
comunicaciones, sistemas de reservas de pasajes, etc.
Muchos de estos sistemas están constituidos tanto por tareas críticas como por tareas
no-críticas. Un fallo en la ejecución de las primeras tiene consecuencias graves, en tanto
que el incumplimiento de las restricciones temporales de las últimas afecta la calidad de
servicio esperada. Es vital entonces que las tareas no-críticas no afecten la correcta ejecución
de las tareas críticas. Un STR con estas características se denomina heterogéneo. En los
últimos años, gracias al incremento de la potencia de cálculo de los microprocesadores,
y la reducción de sus costos, el número de STR que permiten que coexistan estos dos
conjuntos de tareas ha aumentado.
Para lograr una correcta ejecución de un STR heterogéneo, se requiere de técnicas
que calculen y administren en línea, el tiempo ocioso disponible. De esta manera, el
planificador puede mantener la garantía decumplimiento de las constricciones temporales
de las tareas críticas, y al mismo tiempo brindar una atención aceptable a las tareas sin
requerimientos estrictos. En la actualidad, microprocesadores más potentes abren la
posibilidad de implementar estos métodos incluso en sistemas que antaño contaban con
muy baja potencia de cálculo. Sin embargo, la sobrecarga que agregan no es despreciable,
por lo que reducir el costo computacional de estos métodos sigue siendo de suma utilidad,
aún cuando se dispone de hardware con mayor capacidad de computo.
Existe una amplia literatura que aborda la problemática de la planificación de STR
heterogéneos. Sin embargo, existe una brecha significativa entre los desarrollos teóricos
en la disciplina, y las técnicas efectivamente utilizadas en la industria. Es necesario poder
comprobar el costo real y las ventajas y desventajas objetivas de implementar los modelos
teóricos de punta.
Muchos modelos teóricos no tienen en cuenta costos adicionales presentes en implementaciones
concretas. Estos son comúnmente considerados despreciables en la modelización,
a fin de simplificar el análisis, la evaluación y el desarrollo del sistema. Como
consecuencia, en la implementación real se estos parámetros se sobrestiman, lo que resulta
en una menor eficiencia del sistema. Un ejemplo común es el uso de microprocesadores
con una capacidad de cálculo por encima de la realmente requerida, lo que impacta negativamente
en el consumo de energía y en los costos. Un modelo más detallado en la etapa
de diseño, implementación y verificación, permitiría mejorar el desempeño del sistema
final, sin abandonar la garantía de predictibilidad temporal. Igualmente importantes,
se deben contar con técnicas y herramientas que permitan implementar estos modelos
métodos teóricos de manera eficiente.
La presente tesis se basa en la hipótesis de que los STR heterogéneos pueden ser eficaces
en la planificación de sus conjuntos de tareas y en el uso de sus recursos computacionales.
Bajo esta premisa, se presentan nuevos modelos y mejoras a modelos ya existentes, junto
con simulaciones, pruebas y desarrollos necesarios para su verificación. El trabajo se basa
fuertemente en la implementación práctica de los resultados teóricos, identificando las
dificultades reales que su puesta en práctica trae aparejado. De esta manera, se busca
reducir la brecha existente entre los resultados obtenidos por la investigación científica
en la disciplina de los STR, y aquello concretamente utilizado e implementado realmente
en la industria, la investigación y el desarrollo tecnológico. / A Real-Time System (RTS) must warrant that its results are correct and fulfill a set of
temporal restrictions. This implies that each task completes its execution before a specific
deadline. In order to accomplish this, the predictibility and determinism of the system as
a whole is very important.
These kind of systems are used in several industries, like aircraft avionics, space
exploration, medical equipment, etc., which are mission critical. A failure in this systems
could have catastrophic consequences, like loss of human lives. Most of the time the
design and implementation of these systems is ad-hoc.
In the last decades, thanks to the growth and sophistication of embedded systems,
the application domain of the RTS increased. Nowdays they can be found on consumer
electronics, cellphones, communications systems, cars, etc.
A lot of these new kind of real-time systems are composed of both critical and noncritical
tasks. A failure in the execution of the former have severe consequences, but a
missed deadline of the later only affects the quality of service. Such a RTS is known as a
heterogeneus one.
In order to accomplish a correct execution of a heterogeneus RTS, methods and techniques
that calculates and manages the system idle-time are needed. With these tools,
the system scheduler can guarantee that all the time-critical tasks fulfill their deadlines.
Nonetheless, these techniques add an execution overhead to the system.
Although severalworks in the literature proposes solutions for many of the scheduling
problems in a heterogeneus RTS, a gap exists between these results and what is actually
used and implemented in the industry.
Many theoretical models do not take into account the additional costs present in a
concrete implementation. These are commonly considered negligible in order to simplify
the analysis, evaluation and development of the system. As a consequence, some parameters are overestimated, resulting in reduced system efficiency. A common scenario is
the use of microprocessors more powerful than required, with negative impact on energy
consumption and production costs. A more detailed model in the design and implementation
stage could improve the performance of the final system, without abandoning the
guarantee of temporal predictability. Equally important, there must be techniques and
tools that allow the implementation of these theoretical results.
The working hipothesis of this thesis is that a heterogeneus RTS could be efficient in
the scheduling of their tasks and resources. Following this premise, new models and
improvements to existing ones are presented, in conjunction with several simulations and
implementations of the theoretical results, in order to identify the real difficulties that the
implementation brings about. This seeks to reduce the gap between the scientific research
in the discipline of RTS and what actually implemented in the industry.
|
98 |
Desarrollo de técnicas de computación evolutiva : multiobjetivo y aprendizaje automático para la inferencia, modelado y simulación de redes regulatoriasGallo, Cristian Andrés 19 March 2014 (has links)
Durante las últimas décadas el desarrollo de la bioinformática nos ha permitido lograr una mayor
comprensión de los procesos biológicos que ocurren con nuestras células a nivel molecular. Al
respecto, las mejoras e innovaciones en la tecnología continúan estimulando la mejora en la calidad de
los datos biológicos que pueden ser obtenidos a nivel genómico. En tal sentido, grandes volúmenes de
información pueden ser encontrados en formas de anotaciones o bases de datos computacionales.
Estos conjuntos de datos, apropiadamente combinados, tienen el potencial de posibilitar
descubrimientos novedosos que lleven a avances en campos tan relevantes para el desarrollo nacional
como son la biotecnología o la medicina post-genómica.
En particular, esta tesis se centra en la investigación de técnicas de aprendizaje automático y
computación evolutiva para la inferencia de redes regulatorias de genes a partir de datos de expresión
de genes, a nivel de genomas completos. Una red regulatoria de genes es una colección de segmentos
de ADN (ácido desoxirribonucleico) en una célula que interactúan unos con otros (indirectamente a
través del producto de su expresión) y con otras sustancias en la célula, gobernando así las tasas de
transcripción de los genes de la red en ARNm (ácido ribonucleico mensajero).
La principal contribución de esta tesis esta relacionada con el desarrollo de metodologías
computacionales que asistan, a expertos en bioinformática, en la ingeniería inversa de las redes
regulatorias de genes. En tal sentido, se desarrollaron algoritmos de computación evolutiva que
permiten la identificación de grupos de genes co-expresados bajo ciertos subconjuntos de condiciones
experimentales. Estos algoritmos se aplican sobre datos de expresión de genes, y optimizan
características deseables desde el punto de vista biológico, posibilitando la obtención de relaciones de
co-expresión relevantes. Tales algoritmos fueron cuidadosamente validados por medio de
comparaciones con otras técnicas similares disponibles en la literatura, realizando estudios con datos
reales y sintéticos a fin de mostrar la utilidad de la información extraída. Además, se desarrolló un
algoritmo de inferencia que permite la extracción de potenciales relaciones causa-efecto entre genes,
tanto simultáneas como también aquellas diferidas en el tiempo. Este algoritmo es una evolución de
una técnica presentada con anterioridad, e incorpora características novedosas como la posibilidad de
inferir reglas con múltiples retardos en el tiempo, a nivel genoma completo, e integrando múltiples
conjuntos de datos. La técnica se validó mostrando su eficacia respecto de otros enfoques relevantes de
la literatura. También se estudiaron los resultados obtenidos a partir de conjuntos de datos reales en
términos de su relevancia biológica, exponiendo la viabilidad de la información inferida. Finalmente,
estos algoritmos se integraron en una plataforma de software que facilita la utilización de estas técnicas
permitiendo la inferencia, manipulación y visualización de redes regulatorias de genes. / In recent decades, the development of bioinformatics has allowed us to achieve a greater
understanding of the biological processes that occur at the molecular level in our cells. In this
regard, the improvements and innovations in technology continue to boost the improvement in
the quality of the biological data that can be obtained at the genomic level. In this regard, large
volumes of information can be found in forms of ontology's or computer databases. These
datasets, appropriately combined, have the potential to enable novel discoveries that lead to
progress in relevant fields to national development such as biotechnology and post-genomic
medicine.
In particular, this thesis focuses on the research of machine learning techniques and
evolutionary computation for the inference of gene regulatory networks from gene expression
data at genome-wide levels. A gene regulatory network is a collection of segments of DNA
(deoxyribonucleic acid) in a cell which interact with each other (indirectly through their
products of expression) and with other substances in the cell, thereby governing the rates of
network genes transcription into mRNA (messenger ribonucleic acid).
The main contribution of this thesis is related to the development of computational
methodologies to attend experts in bioinformatics in the reverse engineering of gene regulatory
networks. In this sense, evolutionary algorithms that allow the identification of groups of coexpressed
genes under certain subsets of experimental conditions were developed. These
algorithms are applied to gene expression data, and optimize desirable characteristics from the
biological point of view, allowing the inference of relevant co-expression relationships. Such
algorithms were carefully validated by the comparison with other similar techniques available in
the literature, conducting studies with real and synthetic data in order to show the usefulness of
the information extracted. Furthermore, an inference algorithm that allows the extraction of
potential cause-effect relationships between genes, both simultaneous and time-delayed, were
developed. This algorithm is an evolution of a previous approach, and incorporates new features
such as the ability to infer rules with multiple time delays, at genome-wide level, and integrating
multiple datasets. The technique was validated by showing its effectiveness over other relevant
approaches in the literature. The results obtained from real datasets were also studied in terms of
their biological relevance by exposing the viability of the inferred information. Finally, these
algorithms were integrated into a software platform that facilitates the use of these techniques
allowing the inference, manipulation and visualization of gene regulatory networks.
|
99 |
Formalización y generalización del manejo de preferencias en servicios de razonamiento rebatibleTeze, Juan Carlos Lionel 30 March 2017 (has links)
Esta tesis aborda el estudio, diseño y formalización de herramientas computacionales
concretas para seleccionar y cambiar el criterio de preferencia entre argumentos que es
utilizado por el sistema de Programación Lógica Rebatible (DeLP) requerido para decidir
derrotas al analizar ataques entre argumentos. Para lograr esto, se proponen varios servicios
de razonamiento basados en DeLP que disponen de distintos criterios y permiten
llevar a cabo esta tarea de diferentes maneras. Como parte de la contribución, se propone
un servicio que utiliza expresiones condicionales para programar cómo seleccionar el
criterio que mejor se ajusta a las preferencias del usuario o a una situación en particular.
Por otra parte, en la tesis se aborda también la definición de un servicio con mecanismos
que permiten no solo seleccionar sino también combinar criterios. Estos mecanismos permiten
que sea posible comparar argumentos considerando de manera simultánea más de
un criterio.
Como se detalla a continuación, DeLP ha demostrado ser de gran utilidad en diferentes
dominios de aplicación [CCS05, RGS07, GCS08, GGS10]. Los formalismos propuestos
incorporan herramientas concretas para tratar el manejo de múltiples criterios de preferencia
entre argumentos, lo cual no ha sido considerado hasta el momento por otros
trabajos. En consecuencia, los resultados obtenidos en esta tesis brindan una contribución importante a los desarrollos en la comunidad de argumentación, particularmente en
el campo de los sistemas basados en Programación Lógica Rebatible, significando además
un aporte dentro del área de Inteligencia Artifcial en las Ciencias de la Computación.
|
100 |
Alineamiento e integración de información basada en ontologías para biogeografía marina y biodiversidadZárate, Marcos Daniel 24 October 2019 (has links)
El objetivo principal de esta tesis es analizar los problemas que existen actualmente con el manejo integrado de información en las ciencias de la vida
en general, y particularmente analizar que sucede con la Biodiversidad y
la Oceanografía. La actual crisis mundial de la biodiversidad, debida, entre
otras cosas, al calentamiento global, genera un profundo impacto en la distribución geográfica de las especies y las comunidades ecológicas. Esto provoca
un creciente interés entre los científicos para coordinar el uso compartido de
conjuntos de datos que ayuden a entender esta problemática global. En este
contexto, el paradigma de los Datos Vinculados (Linked Data en inglés)
ha emergido como un conjunto de buenas prácticas para conectar, compartir
y exponer datos y conocimiento, una parte central de este paradigma
son las ontologías, que permiten la definición de vocabularios compartidos y
modelos conceptuales que ayuden a integrar esta información. Estas consideraciones
proporcionan una fuerte motivación para formular un sistema que
tenga en cuenta las características geoespaciales que pueden brindar respuestas
a preguntas como las siguientes: (i) >Cómo podemos definir las regiones
espaciales para nuestros estudios? (ii) >Cómo se distribuyen las especies en
una determinada región? (iii) Dada una georeferencia particular, >a qué re-
gión geográfica pertenece? (iv) >Cómo relacionar las ocurrencias de especies
con variables ambientales dentro de una región especifica?.
En esta tesis se presenta el desarrollo de un sistema basado en ontologías
denominado BiGe-Onto [ZBF+19] para administrar información de los dominios
de Biodiversidad y Biogeografía marina. Este sistema está compuesto
por (i) Arquitectura; (ii) Modelo conceptual; (iii) Versión operacional OWL
2; y (iv) Conjunto de datos vinculados para su explotación a través de un
punto final SPARQL.
La evaluación de BiGe-Onto se realizo desde dos enfoques, el primero
de ellos consiste en validar la ontologíaa utilizando datos reales extraídos de
repositorios de Biodiversidad y Biogeografía marina para luego validar el
modelo conceptual propuesto utilizando preguntas de competencia. El segundo
enfoque tiene que ver con la validación mediante casos de estudio
definidos en conjunto con investigadores del Centro Científico Tecnológico
(CENPAT-CONICET) que trabajan realizando análisis de distribución
de especies. Finalmente la documentación de BiGe-Onto esta disponible
en línea en http://crowd.fi.uncoma.edu.ar/cenpat-gilia/bigeonto/ y
el conjunto de datos enlazados es accesible públicamente a través de DOI
10.5281/zenodo.3235548. / The main goal of this thesis is to analyze the existing issues currently related
to the integrated management of information in life sciences in general,
and particularly to analyze what happens with Biodiversity and Oceanography.
The current global biodiversity crisis, due, among other things, to
global warming, has a great impact on the geographical distribution of species
and ecological communities. This motivates a growing interest among
scientists to coordinate the sharing of datasets that help to understand this
global problem. In this context, Linked Data paradigm has emerged as a set
of good practices to connect, share and expose data and knowledge. A central
part of this paradigm are the ontologies, which allow the de nition of shared
vocabularies and conceptual models that help integrate this information.
These considerations provide strong motivation to formulate an ontologybased
system considering geospatial features that may provide answers to
questions such as: (i) How can we define spatial regions for our studies? (ii)
How are the species distributed in a certain region? (iii) Given a particular
georeference, which geographic region does it belong to? (iv) How to relate
occurrences of species with environmental variables within a specific region?.
This thesis presents the development of an ontology-based system called
BiGe-Onto [ZBF+19] to manage information from Biodiversity and Marine
Biogeography domains. This system is composed of (i) Architecture;
(ii) Conceptual model; (iii) OWL 2 operational version; and (iv) Linked dataset
to exploit through a SPARQL endpoint. BiGe-Onto evaluation was
developed from two approaches, the first one is to validate the ontology
using real data extracted from Biodiversity and Marine Biogeography repositories
and then validate the proposed conceptual model using competence
questions. The second approach is based on validation through case
studies defined in conjunction with researchers from the Technological
Scientific Center (CENPAT-CONICET) who work on species distribution
analysis. Finally, BiGe-Onto documentation is available online at http:
//crowd.fi.uncoma.edu.ar/cenpat-gilia/bigeonto/ and the linked dataset
is publicly accessible through DOI 10.5281/zenodo.3235548.
|
Page generated in 0.1077 seconds