• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 326
  • 306
  • 97
  • 2
  • 2
  • 1
  • Tagged with
  • 734
  • 734
  • 212
  • 140
  • 130
  • 111
  • 102
  • 101
  • 101
  • 101
  • 101
  • 98
  • 96
  • 96
  • 78
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Implementación de una herramienta de inteligencia de negocios para la administración de justicia sobre una metodología ad-hoc

Parco Iquiapaza, Alex Alsey, Eguila Canales, Arturo January 2007 (has links)
En el presente trabajo se desarrolla el Análisis y Diseño para el desarrollo e implementación futura de una herramienta de Inteligencia de Negocios para la toma de decisiones en el Área de Defensoría de Oficio del Ministerio de Justicia, el propósito de la implementación de dicha herramienta es tener un mejor control y gestión de la información de el sistema de defensores de oficio de forma que, ayude a mejorar la calidad del servicio que presta dicha entidad, por la toma de decisiones eficientes conseguidas a partir de la información que este sistema proporcione a los directivos de dicha entidad. Este trabajo muestra la metodología utilizada para el desarrollo del Datamart, el cual plantearemos cómo desarrollarlo y mostraremos mediante prototipos su funcionamiento. / -- The present work develops the Analysis and Design for the development and future implementation of a tool of Business Intelligence for the taking of decisions in the Area of Defensoría de Oficio of the Justice Ministry, the intention of the implementation of this tool is to have a better control and management of the information of the office defenders system so, it will help to improve the quality of the service that gives this organization, by the efficient decision taking from the information that this system provides to the managers of this organization. This work shows the methodology used for the development of the Datamart, which we will show as to develop it and we will show by means of prototypes its operation.
22

Multi-Agent based decentralized reinforcement learning of individual behaviors

Leottau Forero, David Leonardo January 2018 (has links)
Doctor en Ingeniería Eléctrica / El paradigma del aprendizaje reforzado (RL \footnote{Por sus siglas en inglés: Reinforcement Learning}) está siendo recurrentemente utilizado para aprender tareas complejas en contextos aplicativos como la robótica. No obstante, muchas aplicaciones en el mundo real manejan un espacio de acciones multi-dimensional, en donde las acciones individuales trabajan juntas para que el agente ejecute un comportamiento deseado. En tales aplicaciones, el RL presenta de una explosión en la complejidad computacional, que ocurre cuando se usan esquemas con RL Centralizado (CRL). Esto genera problemas como el consumo excesivo de memoria o de tiempo de entrenamiento, sin embargo, el uso del RL Descentralizado (DRL) ayuda a solucionar tales problemas. En esta tesis, se usará el termino DRL para referirse a aquellos métodos descentralizados usados para el aprendizaje de tareas ejecutadas por una entidad individual, por ejemplo, un robot. En esta tesis, se propone una metodología para modelar el DRL de comportamientos individuales en problemas con espacios de acciones multi-dimensionales. Cada sub-problema (ej., las acciones de un efector o actuador) es aprendido por agentes independientes que trabajan en paralelo. Dado que la mayoría de los estudios reportados sobre Sistemas Multi-Agente (MAS) no validan los métodos propuestos en problemas estocásticos-multiestado y del mundo real, uno de los objetivos de la presente tesis es demostrar empíricamente que los beneficios de los MAS son extensibles a problemas complejos como son las plataformas robóticas, si estos son modelados e implementados con sistemas DRL. Para ello, varios esquemas de DRL basados en algoritmos multi-agente y métodos de transferencia de conocimiento son presentados, validados y analizados, a través de un extenso estudio experimental, en donde diferentes problemas son modelados e implementados, siguiendo la metodología propuesta. Los resultados de la validación empírica muestran que las implementaciones con DRL mejoran el desempeño de su análogo CRL, usando además menos recursos computacionales. Además, aquellos esquemas de DRL implementados con mecanismos de coordinación, muestran mejores desempeños y/o tiempos de entrenamiento que los esquemas de DRL que no usan coordinación directa.
23

Análisis comparativo entre el algoritmo cuántico de Grover y un algoritmo Grasp, aplicados a la búsqueda de individuos óptimos en la población inicial de un algoritmo genético

Rivera Alejo, José Enrique 13 June 2011 (has links)
Este trabajo trata sobre la aplicación de dos algoritmos de búsqueda a la selección de individuos óptimos en la población inicial de un algoritmo genético, y la consiguiente comparación entre ambos. El primero de ellos es el algoritmo meta-heurístico GRASP, y el segundo es el algoritmo cuántico de Grover. El algoritmo cuántico de Grover forma parte de una nueva generación en las ciencias de la computación: la computación cuántica. Y por tanto hace uso de conceptos matemáticos y físicos completamente distintos a los usados en la programación clásica. En esta tesis se presenta un análisis general de ambos algoritmos, siendo de especial mención el análisis del algoritmo cuántico de Grover, ya que incluye un modelo matemático del funcionamiento del mismo. Este modelo será de suma importancia para simular la ejecución del algoritmo de Grover en una computadora clásica, dada la carencia de una computadora cuántica sobre la cual realizar esto. Luego, se preparan dos procesos experimentales, los cuales se usarán para realizar la comparación de eficacia y eficiencia entre las ejecuciones de los dos algoritmos. Posteriormente, se presenta el diseño e implementación de los algoritmos, ambos aplicados a la selección de individuos de un algoritmo genético genérico. Una vez ambos algoritmos se encuentren correctamente implementados y funcionales, se ejecutarán las pruebas experimentales que permitan realizar la comparación entre ellos. Finalmente se realizan las conclusiones y observaciones del caso en base a los resultados numéricos obtenidos en la fase experimental. / Tesis
24

Automatic lymphocyte detection on gastric cancer IHC images using deep learning

García Ríos, Emilio Rafael 19 January 2018 (has links)
Tumor-infiltrating lymphocytes (TILs) have received considerable attention in recent years, as evidence suggests they are related to cancer prognosis. Distribution and localization of these and other types of immune cells are of special interest for pathologists, and frequently involve manual examination on Immunohistochemistry (IHC) Images. We present a model based on Deep Convolutional Neural Networks for Automatic lymphocyte detection on IHC images of gastric cancer. The dataset created as part of this work is publicly available for future research. / Tesis
25

Conciencia e inteligencia artificial: consideraciones críticas sobre la plausibilidad de que una máquina programada posea conciencia fenoménica

Fuentes Barassi, Cristóbal January 2011 (has links)
Tesis para optar al grado de Magíster en Estudios Cognitivos / El presente trabajo tiene como objetivo realizar observaciones críticas a la plausibilidad de que una máquina programada en función de algoritmos pueda poseer conciencia fenoménica.Las observaciones críticas se vinculan con la implausibilidad de que la utilización de algoritmos sea suficiente para explicar y entregar experiencia subjetiva a una máquina programada. Entre las críticas se encuentra el hecho de que la experiencia cualitativa del mundo ocurre desde un punto de vista. Además, no existe - usando la terminología de Nagel (1974) - algo así como “la experiencia subjetiva de ser como una máquina”. También se explora cómo el carácter subjetivo de la conciencia fenoménica presenta dificultades adicionales para su modelamiento e implementación por parte de la Inteligencia Artificial, dada su ontología de primera persona. Finalmente, se entregan argumentos a favor de la importancia de entregar conciencia fenoménica a un artefacto artificial toda vez que ésta formaría parte esencial para la conducta inteligente, pero dicha tarea debería llevarse a cabo a través de otros modelamientos alternativos al uso de algoritmos, toda vez que éstos no son capaces de explicar la existencia de la conciencia fenoménica.
26

Modelo de entrenamiento de rede neuronales basado en algoritmos genéticos

Cussi Cuentas, Hebert Erland January 2009 (has links)
La Inteligencia Artificial es la disciplina que estudia la forma de diseñar procesos que exhiban características que comúnmente se asocian con el comportamiento humano inteligente. La Inteligencia Artificial sintetiza y automatiza tareas intelectuales y es, por lo tanto, potencialmente relevante para cualquier ámbito de la actividad intelectual humana. Actualmente esta ciencia está comprendida por varios subcampos que van desde áreas de propósito general, como el aprendizaje y la percepción, a otras más específicas como la demostración de teoremas matemáticos, el diagnostico de enfermedades, etc. Uno de los modelos que ha surgido para emular el proceso de aprendizaje es la red neuronal artificial. Las redes neuronales son modelos que intentan reproducir el comportamiento del cerebro humano Una red neuronal consiste en un conjunto de elementos de procesamiento, llamados neuronas, los cuales se conectan entre sí. La organización y disposición de las neuronas dentro de una red neuronal se denomina topología, y viene dada por el número de capas, la cantidad de neuronas por capa, el grado de conectividad, y el tipo de conexión entre neuronas. Una vez determinada la topología de la red neuronal es necesario entrenarla. En la etapa de entrenamiento la red es capaz de aprender relaciones complejas entre entradas y salidas mediante el ajuste de los pesos de las conexiones entre neuronas. Widrow y Lehr identifican una cantidad significativa de algoritmos de entrenamiento. La mayoría de éstos utilizan información del gradiente de una función de error para ajustar los pesos de las conexiones, y se los llaman algoritmos de gradiente descendente Las redes neuronales artificiales han sido aplicadas con éxito en gran cantidad de problemas como por ejemplo reconocimiento de patrones, clasificación, visión, control, predicción, etc
27

Metodología de Caracterización Conceptual por Condicionamientos Sucesivos. Una Aplicación a Sistemas Medioambientales.

Pérez Bonilla, Alejandra Alicia 12 January 2010 (has links)
La validación de un cluster sigue siendo un problema abierto por no haberse encontrado aún un criterio objetivo para determinar la calidad de un conjunto de clases en el contexto del clustering. La interpretación de un clustering se convierte así en una fase fundamental del proceso de validación y sigue siendo, aún hoy, uno de los criterios más utilizados en la práctica.Así, actualmente es necesario introducir herramientas para asistir al usuario en las tareas de interpretación de una partición sobre un conjunto de objetos, con el fin de establecer el significado de las clases resultantes. Si las clases obtenidas no tienen sentido para los expertos, los resultados no son considerados válidos, ni tampoco se podrán utilizar, ni darán apoyo a ninguna decisión posterior. La literatura abunda algoritmos (técnicas) de validación orientados a la vertiente estructural de la partición, pero disponer de clases bien formadas estructuralmente no ofrece garantía de que un experto vaya a ser capaz de asociar cada uno de esos grupos a una entidad semántica. Esta tesis pretende contribuir a la mejora de este proceso, fundamental para comprender el significado de las clases obtenidas y dar soporte efectivo a la posterior toma de decisiones.La alternativa que parece más prometedora es el desarrollo de técnicas que a partir de la evidencia empírica, identifiquen las variables más relevantes y formulen conceptos que expresen las particularidades de cada clase y se expresen en una forma de representación conceptual generable automáticamente y directamente comprensible para el experto.Incorporar procedimientos que trasladen los resultados del análisis a una representación explícita del conocimiento obtenido, se sitúa en la línea de lo que Fallad propone para los sistemas de Knowledge Discovery from Data (KDD), donde la fase de post-proceso de los resultados para generar conocimiento es casi tan importante como el análisis en si mismo.La metodología de Caracterización Conceptual por Condicionamientos Sucesivos (CCCS) trata de aproximar en un modelo formal el proceso natural que sigue un experto en su fase de interpretación de resultados realizando una aproximación iterativa basada en el clustering jerárquico. La CCCS:· Aporta una sistematización al proceso de interpretación de clases procedentes de un cluster jerárquico y supone un avance significativo respecto al estado actual en que la interpretación se realiza de forma artesanal.· Contribuye a sistematizar y objetivar los mecanismos de interpretación que usan los expertos humanos.· Genera resultados que permiten que el experto pueda comprender más fácilmente las características principales de la clasificación obtenida ya que genera conocimiento explícito directamente a partir de las clases.Si bien la CCCS es general, se ha centrado la aplicación a estaciones depuradoras de aguas residuales por ser éste uno de los dominios donde las aproximaciones clásicas funcionan peor.Desde un punto de vista teórico, el interés de esta tesis es presentar una propuesta metodológica híbrida que combine herramientas y técnicas de Estadística e Inteligencia Artificial (IA) en forma cooperativa, siguiendo un enfoque transversal y multidiciplinar combinando elementos de la inducción de conceptos en IA, lógica proposicional y teoría de probabilidad. Es así como, ésta tesis, contribuye a la concepción genérica de sistema de KDD y a objetivar los procedimientos de validación de resultados, ya que el hecho de que un clustering tenga una interpretación clara está relacionado con su utilidad; evaluarla requiere un mecanismo a posteriori de comprensión del significado de las clases.La CCCS aprovecha la estructura jerárquica de la clasificación objetivo para inducir conceptos iterando sobre las divisiones binarias que indica el dendrograma, de tal forma que, a partir de las variables que describen los objetos pertenecientes a cierto dominio, se puedan encontrar las particularidades de cada clase, contribuyendo así al proceso de interpretación conceptual automática de clases. / The validation of a cluster is still an open problem as an objective criteria for determining the quality of a set of classes has not yet been found in the context of clustering. The interpretation constitutes a fundamental phase of the process and still today remains one of the most commonly used criteria to validate the cluster. Thus, it is now necessary to introduce tools to assist the user in the task of interpreting a partition of a set of objects in order to establish the meaning of the resulting classes. If the classes obtained don't do not make sense to the experts, the results of the classification are not considered valid, nor could be used or support any subsequent decision. All validation techniques and algorithms focus on the structure of the partition, but having well-structured classes does not guarantee that an expert will be able to associate each of these groups with a semantic entity. This thesis wants to make a contribution to this process, fundamental for understanding the meaning of the obtained classes and to give effective support to the subsequent decision-making.The most promising alternative seems to be the development of techniques based on empirical evidence to identify the most important variables and formulate concepts that express the specifics (or: specific nature) of each class and are expressed in a conceptual representation able apt for automatic generation and directly understandable to the expert.To incorporate procedures that translate the results of analysis (in this case of clustering) into a representation of explicit knowledge is in line with what Fayyad in 1996 suggests for systems of Knowledge Discovery from Data (KDD) where the phase of post-process of the results to generate knowledge is almost as important as the analysis itself. Perhaps due to its semantic nature, the automatic generation of interpretations of a classification has not been formally treated by statistics, but to resolve it is essential.The methodology of Characterization by Embedded Conditioning (CCEC) proposed tries to approximate in a formal model the natural process that an expert follows in its phase of interpretation of results by making an iterative approximation based on a hierarchical clustering. The CCEC:· Provides a systematizing of the process of interpretation of classes from a hierarchical cluster and represents a significant advance to the current situation in which the interpretation is done manually and more or less crafted.· Helps to systematize and objectify the mechanisms of interpretation used by human experts.· The results generated by the methodology allow the expert to better understand the main characteristics of the classification obtained by generating explicit knowledge directly from the classes.While the methodology proposed is general, the application focuses on Waste Water Treatment Plant (WWTP) because this is one of the domains where conventional approaches lack efficiency.From a theoretical point of view, the main focus of this thesis has been to present a hybrid methodology that combines tools and techniques of statistics and Artificial Intelligence in a cooperative way, using a transversal and multidisciplinary approach combining elements of the induction of concepts from Artificial Intelligence, propositional logic and probability theory. Thus, this thesis contributes to the generic design of KDD system. It also contributes to objectivate procedures for the validation of results, as the fact that clustering has a clear interpretation is related to the usefulness of a classification; evaluating the usefulness requires a posteriori mechanism of understanding the meaning of classes.The methodology CCEC benefits from the hierarchical structure of the target classification by induceing concepts iterating with binary divisions from dendrogram, so that, based on the variables that describe the objects belonging to a certain domain, the specifics of each class can be found, thus contributing to the automatic interpretation of conceptual description of clustering.
28

Implementación de una herramienta de inteligencia de negocios para la administración de justicia sobre una metodología ad-hoc

Eguila Canales, Arturo, Parco Iquiapaza, Alex Alsey January 2007 (has links)
En el presente trabajo se desarrolla el Análisis y Diseño para el desarrollo e implementación futura de una herramienta de Inteligencia de Negocios para la toma de decisiones en el Área de Defensoría de Oficio del Ministerio de Justicia, el propósito de la implementación de dicha herramienta es tener un mejor control y gestión de la información de el sistema de defensores de oficio de forma que, ayude a mejorar la calidad del servicio que presta dicha entidad, por la toma de decisiones eficientes conseguidas a partir de la información que este sistema proporcione a los directivos de dicha entidad. Este trabajo muestra la metodología utilizada para el desarrollo del Datamart, el cual plantearemos cómo desarrollarlo y mostraremos mediante prototipos su funcionamiento. / The present work develops the Analysis and Design for the development and future implementation of a tool of Business Intelligence for the taking of decisions in the Area of Defensoría de Oficio of the Justice Ministry, the intention of the implementation of this tool is to have a better control and management of the information of the office defenders system so, it will help to improve the quality of the service that gives this organization, by the efficient decision taking from the information that this system provides to the managers of this organization. This work shows the methodology used for the development of the Datamart, which we will show as to develop it and we will show by means of prototypes its operation.
29

Diseño y simulación de un sistema para la programación de un robot móvil utilizando herramientas VHDL

Utrilla Salazar, Dario January 2008 (has links)
En el desarrollo de ésta Tesis, se realizó el diseño y simulación del sistema de control de un “robot móvil” utilizando herramientas de programación VHDL (Very high speed integrated circuit Hardware Description Language, lenguaje descriptivo de hardware para circuitos integrados de muy alta velocidad) Project Navigator de Xilinx y Max+Plus II de Altera; para realizar la síntesis, simulación e implementación en un dispositivo FPGA (Field Programmable Gate Array, arreglo de compuertas programables en campo). / In the development of this thesis it was made the design and simulation of the system of control of a “mobile robot” having used tools of programming VHDL (Very High Speed Integrated Circuit Hardware Description Language, descriptive language hardware integrated circuit for very high speed) Project Navigator Xilinx and Max+Plus II of Altera, soon to make the synthesis, simulation and implementation in a device FPGA (Field Programmable Gate Array, settling in field programmable gate).
30

Inteligencia artificial: aprendizaje computacional

Meléndez, Mónica, Potente, Roberto January 1996 (has links)
No description available.

Page generated in 0.0844 seconds