• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 352
  • 313
  • 108
  • 2
  • 2
  • 1
  • Tagged with
  • 778
  • 778
  • 215
  • 145
  • 144
  • 127
  • 126
  • 126
  • 126
  • 126
  • 111
  • 103
  • 98
  • 96
  • 93
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Metodologías y herramientas visuales para Ingeniería Ontológica

Braun, Germán Alejandro 26 March 2019 (has links)
El objetivo principal de esta tesis es estudiar la retroalimentación entre los sistemas de representación visual de conocimiento y los formalismos lógicos, y definir la teoría subyacente a esta interacción, mediante la manipulación de ontologías gráficas basadas en Lógicas Descriptivas (DLs) y las características principales de los ambientes de ingeniería ontológica que la soporten. Las tecnologías semánticas son cada vez más preponderantes en la integración de datos e interoperabilidad de sistemas de información y, en este contexto, las ontologías son centrales para la definición de vocabularios compartidos y modelos conceptuales. De esta manera, proveer ambientes para el desarrollo de ontologías de calidad es esencial, potenciando la integración del conocimiento de los expertos de dominio con la semántica formal de los lenguajes de ontologías. En esta Tesis se presentan la formalización de los sistemas de manipulación de ontologías gráficas, a los cuales notamos como GOMS, y de un proceso de visualización de conocimiento basado en ontologías, que articula esta teoría junto con aspectos de visualización en el contexto de herramientas gráficas. A partir de los resultados obtenidos, se diseño y documentó una arquitectura de referencia web y se implementó una herramienta concreta, llamada crowd, para tareas de ingeniería ontológica, por medio de representaciones gráficas de dominios y sus reconstrucciones en DL. Esta infraestructura ha sido concebida como un sistema visual integrando fuertemente los modelos gráficos con sus representaciones lógicas, interfaces con multiples razonadores lógicos para validarlos y cumplimiento con estándares relevantes de la W3C. Asimismo, se incorporó la gestión de espacios de nombres para obtener modelos ontológicos listos para documentar y publicar. Evaluaciones basadas en experiencias de usuarios y en la formalización de un sistema para visualización de contenido semántico, son también presentadas y han sido ejecutadas sobre la implementación de crowd, actualmente en linea en http://crowd.fi.uncoma.edu.ar. / The aim of this thesis is to study how both knowledge representation visual systems and logic-based formalisms feed each other, theorise about this interaction through manipulating graphical ontologies based on Description Logics (DLs), and thus de ning the main requirements of ontology engineering environments to support them. Semantics technologies are increasingly important in data integration and information system interoperability. In this sense, ontologies are key for shared vocabularies and conceptual models. Thus, providing environments for high quality ontologies becomes an essential issue, empowering the integration of domain experts' knowledge with the semantics of ontology languages. In this thesis, we formalise a system for manipulating graphical ontologies, named as GOMS, and an ontology-based knowledge visualisation process, which orchestate the theoretical and visualisation aspects in the context of visual tools. From these results, we have designed and documented a reference web architecture. Moreover, we have implemented a concrete tool, named crowd, for ontology engineering tasks based on visual representations of domains and their logic-based reconstructions. This infrastructure has been conceived as a visual system intragrating closely visual models and their logical representations, interfacing with diverse reasoning tools to validate them and compliancing to all relevant W3C recommendations. The tool also support namespaces de nition in order to get ontologies ready to be documented and published. Evaluations based on user experiences and the formalisation as a system for visualising semantic content are also presented, which have been run on the current implementation of crowd, hosted at http://crowd.fi.uncoma. edu.ar.
212

Planificación y formalización de acciones para agentes inteligentes

García, Diego R. 16 April 2012 (has links)
En esta tesis se define un formalismo que combina acciones y argumentación rebatible para representar dominios y proble-mas de planificación. Lo novedoso de este formalismo es que permite representar conocimiento acerca del dominio y definir acciones utilizando la Programación en Lógica Rebatible. El conocimiento del dominio permite razonar rebatiblemente acerca de las precondiciones, restricciones y efectos de las acciones, las cuales permiten cambiar el entorno para lograr las metas de un problema de planificación. Además, se define un nuevo método de planificación que combina técnicas de Planificación de Orden Parcial con Argumentación Rebatible, y permite resolver problemas de planificación definidos utilizando el formalismo de representación antes mencionado. La incor-poración de Argumentación Rebatible permite utilizar el cono-cimiento del dominio para razonar rebatiblemente durante la construcción de un plan. Los formalismos basados en argumen-tación rebatible permiten representar y razonar con conoci-miento que involucre información incompleta o errónea. Esta característica está presente en muchos aspectos de un pro-ceso de planificación, donde no siempre es posible contar de ante mano con toda la informacion necesaria para resolver un problema.
213

Los esquemas de argumentación y el pensamiento crítico en la inteligencia artificial

Budán, Paola Daniela 22 October 2016 (has links)
Los esquemas de argumentación son entendidos en la Inteligencia Artificial como patrones de razonamiento semi-estructurados subyacentes a las conversaciones, textos o discursos escritos. La utilidad práctica de los mismos es constituir una herramienta para expresar una línea argumental, y en lo posible, razonar en base a la información que de ellos se deriva. Uno de los objetivos del presente trabajo es extender la representación de los esquemas de argumentación ajustando los mismos al pensamiento crítico debido a las características expresivas que este estándar proporciona. Además, dado un discurso o un texto, en la actualidad el proceso de encontrar el esquema de argumentación subyacente en base al cual razonar automáticamente es complejo y multidisciplinario. Requiere un sistema general capaz de integrar diversas tareas relacionadas con el procesamiento del lenguaje natural y la minería de argumentos, como así tambin transformar el producto de estas tareas en insumos que permitan razonar en base a la información potencialmente contradictoria. Es por esto que en el presente trabajo propondremos una arquitectura general a la que podría ajustarse cualquier desarrollo de sistemas cuyo objetivo sea añadir formalizaci ón o estructura a dichos patrones de razonamiento para hacerlos más prácticos para la Inteligencia Artificial. / The argumentation schemes are understood in the Artificial Intelligence like semistructured reasoning patterns underlying to the conversations, texts or written speeches. The practical utility of the same ones is to constitute a tool for to express an argumentative line, and if it is possible, to reason based on the information that from them stems. One of the objectives of this work is to extend the representation of the argumentation schemes fitting the same ones to the critical thinking due to the expressive characteristics of this standard. Also, given a speech or a text, the process of finding the argumentation scheme underlying it based on which to reason automatically is a complex and multidisciplinary process. It requires a general system able to integrate various tasks related to natural language processing and argumentation mining, as well as transforming the product of these tasks in inputs to reason based on potentially con icting information. In this way, we will propose in this work a general architecture to which there might fit any system development which target is to add formalization or structure to the above mentioned reasoning patterns, to make them more practical for the Artificial Intelligence.
214

Diálogos colaborativo-argumentativos para compartir conocimiento en sistemas multi-agente

Agis, Ramiro Andrés 17 December 2019 (has links)
En los sistemas multi-agente, los agentes necesitan poder dialogar para resolver conflictos de información, solucionar problemas, encontrar pruebas formales, o simplemente informarse mutuamente de los hechos pertinentes. En esta tesis se propondrán dos protocolos y estrategias de diálogo para dos tipos de diálogo colaborativo-argumentativos en sistemas multi-agente: consulta a experto e indagación. En el diálogo de consulta a experto un agente es un experto en cierto dominio de conocimiento, y otro agente le consulta sobre un tema de ese dominio-el cual desconoce o conoce parcialmente-con el n de adquirir información. Actualmente, no existen otras estrategias de diálogo de consulta a experto, y aquellas semejantes no consideran que el agente consultante podr a tener información estricta en contradicción con las creencias del agente experto, ni que podrán tener diferentes preferencias entre argumentos. Por otra parte, en el di alogo de indagación un grupo de agentes busca llegar a un acuerdo general sobre la respuesta a una pregunta, siendo imparciales y contribuyendo toda la información relevante que tengan. Si bien en la literatura existen otras estrategias de diálogo de indagación, estas no consideran que los agentes podrán tener información estricta en contradicción con las creencias de los demás. Además, las pocas que no se limitan a sólo dos agentes no permiten que el conjunto de participantes varíe dinámicamente durante del diálogo. En los dos protocolos y estrategias de di alogo que se de nir an en esta tesis se confrontar an dichas limitaciones con el n de proveer una mayor versatilidad que la de las propuestas ya existentes. / In multi-agent systems, agents need to be able to dialogue in order to resolve information conflicts, solve problems, find formal proofs, or simply inform each other of the pertinent facts. In this thesis, two dialogue protocols and strategies will be proposed for two types of collaborative-argumentative dialogues in multi-agent systems: expert consultation and inquiry. In the expert consultation dialogue, an agent is an expert in a certain field of knowledge, and another agent consults the expert on a subject of that domain-which does not know or partially knows about|in order to acquire information. Currently, there are no other expert consultation dialogue strategies, and those that are similar do not consider that the consulting agent may have strict information in contradiction with the expert agent's beliefs, nor that they may have different preferences among arguments. On the other hand, in the inquiry dialogue, a group of agents seeks to reach a general agreement on the answer to a question while being impartial and contributing all the relevant information they have. Although there are other inquiry dialogue strategies in the literature, these do not consider that agents may have strict information in contradiction with the beliefs of others. Moreover, the few that are not limited to only two agents do not allow the set of participants to vary dynamically during the dialogue. In the two protocols and dialogue strategies that will be defined in this thesis, these limitations will be confronted in order to provide greater versatility than that of the existing proposals.
215

Arquitectura de búsqueda basada en técnicas soft computing para la resolución de problemas combinatorios en diferentes dominios de aplicación

Valero Cubas, Soledad 24 May 2010 (has links)
En los problemas de optimización combinatoria se estudian colecciones finitas de objetos que satisfacen unos criterios específicos y se persigue determinar si cierto objeto ``óptimo'' existe. En la mayoría de las ocasiones, a pesar de que el dominio de búsqueda es finito, éste puede ser de dimensiones exponenciales. En la actualidad es posible solucionar un gran número de problemas combinatorios presentes en la vida real empleando técnicas basadas en programación entera. Sin embargo, en numerosas ocasiones no es posible resolverlos de forma exacta debido a la gran dificultad que presentan algunos problemas de optimización combinatoria y sólo es posible encontrar soluciones cercanas al óptimo. Para estas ocasiones, los esfuerzos de investigación se han centrado en la aplicación de técnicas meta-heurísticas. En este último caso se enmarca el presente trabajo, es decir, en la resolución de problemas combinatorios complejos, de grandes dimensiones, donde explorar todas las posibilidades a fin de encontrar el óptimo es inabordable, ya sea por motivos económicos (probar cada combinación sea caro) o por motivos computacionales (temporalmente sea intratable). En concreto, en esta tesis se propone una arquitectura de búsqueda independiente del dominio de aplicación y capaz de abordar problemas combinatorios de grandes dimensiones, de los que se disponga de poca información de partida. Esta arquitectura está basada en técnicas Soft Computing, pues combina un algoritmo genético basado en codificación real con modelos basados en redes neuronales, concretamente en perceptrones multicapa. Así, el algoritmo genético emplea, en los casos en los que sea necesario, modelos aproximados de las funciones de aptitud mediante perceptrones diseñados para tal fin. El sistema obtenido ofrece la flexibilidad y versatilidad requeridas para poder adaptarse a los requisitos propios de cada problema combinatorio a tratar, sea cual sea su dominio. / Valero Cubas, S. (2010). Arquitectura de búsqueda basada en técnicas soft computing para la resolución de problemas combinatorios en diferentes dominios de aplicación [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8329
216

Parallel implementation of Davidson-type methods for large-scale eigenvalue problems

Romero Alcalde, Eloy 17 April 2012 (has links)
El problema de valores propios (tambien llamado de autovalores, o eigenvalues) esta presente en diversas tareas cienficas a traves de la resolucion de ecuaciones diferenciales, analisis de modelos y calculos de funciones matriciales, entre otras muchas aplicaciones. Si los problemas son de dimension moderada (menor a 106), pueden ser abordados mediante los llamados metodos directos, como el algoritmo iterativo QR o el metodo de divide y vencerlas. Sin embargo, si el problema es de gran dimension y solo se requieren unas pocas soluciones (comparado con el tama~no del problema) y con un cierto grado de aproximacion, los metodos iterativos pueden resultar mas eficientes. Ademas los metodos iterativos pueden ofrecer mejores prestaciones en arquitecturas de altas prestaciones, como las de memoria distribuida, en las que existen un cierto numero de nodos computacionales con espacio de memoria propios y solo pueden compartir informacion y sincronizarse mediante el paso de mensajes. Esta tesis aborda la implementacion de metodos de tipo Davidson, destacando Generalized Davidson y Jacobi-Davidson, una clase de metodos iterativos que puede ser competitiva en casos especialmente dificiles como calcular valores propios en el interior del espectro o cuando la factorizacion de matrices es prohibitiva o ineficiente, y solo es posible una factorizacion aproximada. La implementacion se desarrolla en SLEPc (Scalable Library for Eigenvalue Problem Computations), libreria libre destacada en la resolucion de problemas de gran tama~no de valores propios, problemas cuadraticos de valores propios y problemas de valores singulares, entre otros. A su vez, SLEPc se desarrolla bajo el marco de PETSc (Portable, Extensible Toolkit for Scientic Computation), que ofrece implementaciones eficientes de operaciones basicas del algebra lineal, como operaciones con matrices y vectores, resolucion aproximada de sistemas lineales, factorizaciones exactas y aproximadas de matrices, etc. / Romero Alcalde, E. (2012). Parallel implementation of Davidson-type methods for large-scale eigenvalue problems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/15188
217

Gestión de infraestructuras virtuales configuradas dinámicamente

Caballer Fernández, Miguel 12 May 2014 (has links)
En los últimos años y con el auge las tecnologías de virtualización y de las infraestructuras cloud, se abre un nuevo abanico de posibilidades para acceso de recursos de cómputo para el ámbito científico. Estas tecnologías permiten "acceso ubicuo, adaptado y bajo demanda en red a un conjunto compartido de recursos de computación". Estas tecnologías permiten que el acceso a grandes cantidades de recursos virtualizados sea mucho más sencillo para el científico. Si bien la adaptación de aplicaciones a un entorno distribuido sigue requiriendo de una experiencia importante, es posible utilizar de forma eficiente software adaptado a sistemas de colas e incluso computación paralela de memoria distribuida. A pesar de todo, en la actualidad existen diferentes proveedores cloud, diferente software para el despliegue de plataformas cloud, diferentes gestores de máquinas virtuales, y otros componentes que complican el acceso de forma sencilla y homogénea. Por tanto el objetivo principal de esta tesis es la de proporcionar a la comunidad científica el acceso a las tecnologías de virtualización y cloud de manera sencilla. De tal manera que sea muy sencillo el despliegue y gestión de sus infraestructuras virtuales, para que los investigadores solo tengan que centrarse en las tareas propias de su aplicación. Una plataforma Cloud para investigación debe contemplar todos los aspectos necesarios para creación y gestión de las infraestructuras, partiendo de que el investigador debe poder expresar sus requerimientos, tanto hardware como software, sobre los recursos que va a necesitar para la ejecución de su aplicación. En base a los requerimientos definidos por el usuario el sistema debe crear la infraestructura del usuario, teniendo en cuenta aspectos como la selección de despliegues cloud, de imágenes de máquinas virtuales, procesos de contextualización, etc. El sistema también debe permitir que el usuario modifique la cantidad de recursos (elasticidad horizontal) así como las características de los mismos (elasticidad vertical). Por último la plataforma debe proporcionar interfaces tanto a nivel de usuario, mediante aplicaciones de comandos o interfaces gráficas, como a nivel programático para que capas de mayor nivel puedan hacer uso de la funcionalidad mediante un API. La tesis pretende tanto avanzar en las especificaciones y arquitecturas software como desarrollar y testear un prototipo. / Caballer Fernández, M. (2014). Gestión de infraestructuras virtuales configuradas dinámicamente [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/37376 / Premios Extraordinarios de tesis doctorales
218

Predicción de asistencia en accidentes de tráfico con un modelo de aprendizaje profundo

Pérez-Sala, Luis 13 September 2024 (has links)
Esta tesis doctoral versa sobre la necesidad de predecir la gravedad de los accidentes de tráfico con el objetivo de anticiparse a las posibles consecuencias que sufrirían las víctimas utilizando como información base la descripción de las circunstancias que rodean al accidente mediante el uso de la inteligencia artificial. La principal motivación de esta tesis es limitar dichas consecuencias que sufrirían las víctimas tanto a corto como a largo plazo, y que pueden ser reducidas gracias a una gestión eficiente y rápida de recursos médicos una vez se conocen las características del accidente. Diversos estudios avalan que una rápida respuesta por parte de los servicios de emergencia pueden evitar resultados mortales en los accidentados si cuentan con asistencia médica en un tiempo acorde a su gravedad, además de poder reducir las futuras lesiones a largo plazo que las víctimas puedan sufrir. Históricamente, en el estado del arte el principal inconveniente en distintos enfoques de este problema, en lo que respecta a la predicción de la gravedad de los accidentes, radica en que los métodos que han sido aplicados hasta ahora son dependientes de los datos disponibles por cada región concreta, siendo estos asimétricos y, en muchos casos, dependientes de la economía del lugar (un país desarrollado siempre tiene acceso a más información que otro que no tenga suficientes recursos para ello). Esta dependencia de los datos es un inconveniente, ya que impide la presencia de un modelo generalista que pueda ser agnóstico a los datos ofrecidos por una región concreta en la que han sido entrenados. Es por esto que es necesario la presencia de un método general que pueda ser aplicado en cualquier población o región independientemente de los datos de los que cada región dispone, independientemente de la limitación marcada por sus condiciones socioeconómicas o culturales. Para solventar este reto, en esta tesis se propone un modelo general de predicción en la gravedad de los accidentes de tráfico (GTAAF) independiente a los datos propios de cada región, que clasifica muestras de accidentes en dos clases distintas: necesidad de asistencia médica y sin necesidad de ella, con el objetivo de poder priorizar los recursos médicos cuando se produce un nuevo accidente. Gracias a un sistema de categorización de variables disponibles en los datos se presenta un modelo que puede ser aplicado a cualquier área, región o población. La metodología diseñada en esta tesis se basa en un modelo que, teniendo como entrada la descripción de los accidentes en formato de datos tabulares, aplica diferentes etapas de limpieza de datos, discretización, filtrado de accidentes en base a la división por áreas de las regiones, y rebalanceo de datos para posteriormente transformar los datos resultantes en matrices que serán la entrada al modelo convolucional diseñado. Esto último, gracias a un método de transformación de matrices que hace uso de la importancia que ha tenido cada una de las características en los datos en el entrenamiento de un modelo tipo boosting basado en árboles de decisión optimizado mediante un algoritmo genético, para posteriormente hacer uso de la categorización de las características que serán la referencia de la construcción de las matrices. Una vez entrenado, los resultados obtenidos por el modelo convolucional propuesto GTAAF superan ampliamente a los seis modelos del estado del arte contra los que se ha comparado, a lo largo de ocho poblaciones distintas, con características diferentes, de tres países distintos (España, Reino Unido y Australia). Así, el marco GTAAF llega a mejorar un 6.7% en la métrica F1-Score sobre el segundo mejor modelo para accidentes sin necesidad de asistencia y hasta un 13.8% de mejora en accidentes con necesidad de asistencia. Para comprobar la generalización y escalabilidad del modelo GTAAF, se diseñan una serie de pruebas de robustez en las que se eliminan las características de mayor y menor influencia de manera individual y posteriormente ambas conjuntamente, ofreciendo resultados que resaltan, aún más, la mejora respecto a los seis modelos comparativos del estado del arte. En conclusión, en esta tesis se presenta un modelo general para predecir la gravedad de los accidentes de tráfico y la necesidad o no de asistencia médica, con un potencial para ser aplicado a cualquier región del mundo.
219

MINERVA: Modelo Integral para Entornos de Realidad Virtual y Agentes

López García, Gabriel 10 November 2014 (has links)
Uno de los problemas más importantes en los sistemas de realidad virtual es la diversidad de los dispositivos visuales y de interacción que existen en la actualidad. Junto a esto, la heterogeneidad de los motores gráficos, los motores físicos y los motores de inteligencia artificial, propicia que no exista un modelo que aúne todos estos aspectos de una forma integral y coherente. Con el objetivo de unificar toda esta diversidad, presentamos un modelo formal que afronta de forma integral el problema de la diversidad en los sistemas de realidad virtual, así como la definición de los módulos principales que los constituyen. El modelo propuesto se basa en la definición de varias gramáticas que integra su actividad, su visualización y su interacción con el usuario. La descripción de un mundo se presenta como una cadena de un lenguaje L(M) que representa una secuencia ordenada de agentes que aceptan eventos y que definen la actividad del sistema. Por otro lado, la visualización del estado actual del sistema se traduce en otra cadena del lenguaje de visualización L(V) y que está compuesta de primitivas y transformaciones. Los conceptos de primitiva y transformación son mucho más amplios de lo que es habitual en estos sistemas. Las primitivas no son simples primitivas de dibujo sino acciones que se deben ejecutar en un determinado sistema de representación que es definida mediante otro lenguaje L(G) y que representa las acciones ordenadas en un determinado dispositivo visual o no. Las transformaciones, por otro lado, modifican las primitivas, dependiendo de su naturaleza. Los agentes desarrollan una o varias actividades en el mundo virtual, se visualizan mediante primitivas y transformaciones, y usan eventos que también se definen en sentido amplio. El modelo presentado tiene como virtud la separación de la actividad del sistema de los dispositivos visuales y de interacción concretos que lo componen. Esto supone varias ventajas: los dispositivos pueden ser sustituidos por otros dispositivos o por simulaciones de estos, los elementos del sistema pueden ser reutilizados, y la representación gráfica puede ser diferente dependiendo del dispositivo visual. En definitiva, se ha pretendido diseñar un sistema integral, adaptativo, reutilizable y genérico. Por último, se presentan varios casos prácticos que permiten concretar cómo se utiliza el modelo propuesto.
220

Inteligência artificial aplicada à nutrição na prescrição de planos alimentares /

Camargo, Katia Gavranich January 1999 (has links)
Dissertação (Mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. / Made available in DSpace on 2012-10-18T19:29:53Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-09T01:29:38Z : No. of bitstreams: 1 139618.pdf: 4839469 bytes, checksum: b49ae7ec97f4cb807afc205978899bdc (MD5)

Page generated in 0.0692 seconds