• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 735
  • 386
  • 130
  • 11
  • 4
  • 3
  • 3
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1275
  • 795
  • 276
  • 275
  • 275
  • 275
  • 275
  • 254
  • 248
  • 202
  • 171
  • 152
  • 148
  • 146
  • 120
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Metodología de Caracterización Conceptual por Condicionamientos Sucesivos. Una Aplicación a Sistemas Medioambientales.

Pérez Bonilla, Alejandra Alicia 12 January 2010 (has links)
La validación de un cluster sigue siendo un problema abierto por no haberse encontrado aún un criterio objetivo para determinar la calidad de un conjunto de clases en el contexto del clustering. La interpretación de un clustering se convierte así en una fase fundamental del proceso de validación y sigue siendo, aún hoy, uno de los criterios más utilizados en la práctica.Así, actualmente es necesario introducir herramientas para asistir al usuario en las tareas de interpretación de una partición sobre un conjunto de objetos, con el fin de establecer el significado de las clases resultantes. Si las clases obtenidas no tienen sentido para los expertos, los resultados no son considerados válidos, ni tampoco se podrán utilizar, ni darán apoyo a ninguna decisión posterior. La literatura abunda algoritmos (técnicas) de validación orientados a la vertiente estructural de la partición, pero disponer de clases bien formadas estructuralmente no ofrece garantía de que un experto vaya a ser capaz de asociar cada uno de esos grupos a una entidad semántica. Esta tesis pretende contribuir a la mejora de este proceso, fundamental para comprender el significado de las clases obtenidas y dar soporte efectivo a la posterior toma de decisiones.La alternativa que parece más prometedora es el desarrollo de técnicas que a partir de la evidencia empírica, identifiquen las variables más relevantes y formulen conceptos que expresen las particularidades de cada clase y se expresen en una forma de representación conceptual generable automáticamente y directamente comprensible para el experto.Incorporar procedimientos que trasladen los resultados del análisis a una representación explícita del conocimiento obtenido, se sitúa en la línea de lo que Fallad propone para los sistemas de Knowledge Discovery from Data (KDD), donde la fase de post-proceso de los resultados para generar conocimiento es casi tan importante como el análisis en si mismo.La metodología de Caracterización Conceptual por Condicionamientos Sucesivos (CCCS) trata de aproximar en un modelo formal el proceso natural que sigue un experto en su fase de interpretación de resultados realizando una aproximación iterativa basada en el clustering jerárquico. La CCCS:· Aporta una sistematización al proceso de interpretación de clases procedentes de un cluster jerárquico y supone un avance significativo respecto al estado actual en que la interpretación se realiza de forma artesanal.· Contribuye a sistematizar y objetivar los mecanismos de interpretación que usan los expertos humanos.· Genera resultados que permiten que el experto pueda comprender más fácilmente las características principales de la clasificación obtenida ya que genera conocimiento explícito directamente a partir de las clases.Si bien la CCCS es general, se ha centrado la aplicación a estaciones depuradoras de aguas residuales por ser éste uno de los dominios donde las aproximaciones clásicas funcionan peor.Desde un punto de vista teórico, el interés de esta tesis es presentar una propuesta metodológica híbrida que combine herramientas y técnicas de Estadística e Inteligencia Artificial (IA) en forma cooperativa, siguiendo un enfoque transversal y multidiciplinar combinando elementos de la inducción de conceptos en IA, lógica proposicional y teoría de probabilidad. Es así como, ésta tesis, contribuye a la concepción genérica de sistema de KDD y a objetivar los procedimientos de validación de resultados, ya que el hecho de que un clustering tenga una interpretación clara está relacionado con su utilidad; evaluarla requiere un mecanismo a posteriori de comprensión del significado de las clases.La CCCS aprovecha la estructura jerárquica de la clasificación objetivo para inducir conceptos iterando sobre las divisiones binarias que indica el dendrograma, de tal forma que, a partir de las variables que describen los objetos pertenecientes a cierto dominio, se puedan encontrar las particularidades de cada clase, contribuyendo así al proceso de interpretación conceptual automática de clases. / The validation of a cluster is still an open problem as an objective criteria for determining the quality of a set of classes has not yet been found in the context of clustering. The interpretation constitutes a fundamental phase of the process and still today remains one of the most commonly used criteria to validate the cluster. Thus, it is now necessary to introduce tools to assist the user in the task of interpreting a partition of a set of objects in order to establish the meaning of the resulting classes. If the classes obtained don't do not make sense to the experts, the results of the classification are not considered valid, nor could be used or support any subsequent decision. All validation techniques and algorithms focus on the structure of the partition, but having well-structured classes does not guarantee that an expert will be able to associate each of these groups with a semantic entity. This thesis wants to make a contribution to this process, fundamental for understanding the meaning of the obtained classes and to give effective support to the subsequent decision-making.The most promising alternative seems to be the development of techniques based on empirical evidence to identify the most important variables and formulate concepts that express the specifics (or: specific nature) of each class and are expressed in a conceptual representation able apt for automatic generation and directly understandable to the expert.To incorporate procedures that translate the results of analysis (in this case of clustering) into a representation of explicit knowledge is in line with what Fayyad in 1996 suggests for systems of Knowledge Discovery from Data (KDD) where the phase of post-process of the results to generate knowledge is almost as important as the analysis itself. Perhaps due to its semantic nature, the automatic generation of interpretations of a classification has not been formally treated by statistics, but to resolve it is essential.The methodology of Characterization by Embedded Conditioning (CCEC) proposed tries to approximate in a formal model the natural process that an expert follows in its phase of interpretation of results by making an iterative approximation based on a hierarchical clustering. The CCEC:· Provides a systematizing of the process of interpretation of classes from a hierarchical cluster and represents a significant advance to the current situation in which the interpretation is done manually and more or less crafted.· Helps to systematize and objectify the mechanisms of interpretation used by human experts.· The results generated by the methodology allow the expert to better understand the main characteristics of the classification obtained by generating explicit knowledge directly from the classes.While the methodology proposed is general, the application focuses on Waste Water Treatment Plant (WWTP) because this is one of the domains where conventional approaches lack efficiency.From a theoretical point of view, the main focus of this thesis has been to present a hybrid methodology that combines tools and techniques of statistics and Artificial Intelligence in a cooperative way, using a transversal and multidisciplinary approach combining elements of the induction of concepts from Artificial Intelligence, propositional logic and probability theory. Thus, this thesis contributes to the generic design of KDD system. It also contributes to objectivate procedures for the validation of results, as the fact that clustering has a clear interpretation is related to the usefulness of a classification; evaluating the usefulness requires a posteriori mechanism of understanding the meaning of classes.The methodology CCEC benefits from the hierarchical structure of the target classification by induceing concepts iterating with binary divisions from dendrogram, so that, based on the variables that describe the objects belonging to a certain domain, the specifics of each class can be found, thus contributing to the automatic interpretation of conceptual description of clustering.
72

Implementación de una herramienta de inteligencia de negocios para la administración de justicia sobre una metodología ad-hoc

Eguila Canales, Arturo, Parco Iquiapaza, Alex Alsey January 2007 (has links)
En el presente trabajo se desarrolla el Análisis y Diseño para el desarrollo e implementación futura de una herramienta de Inteligencia de Negocios para la toma de decisiones en el Área de Defensoría de Oficio del Ministerio de Justicia, el propósito de la implementación de dicha herramienta es tener un mejor control y gestión de la información de el sistema de defensores de oficio de forma que, ayude a mejorar la calidad del servicio que presta dicha entidad, por la toma de decisiones eficientes conseguidas a partir de la información que este sistema proporcione a los directivos de dicha entidad. Este trabajo muestra la metodología utilizada para el desarrollo del Datamart, el cual plantearemos cómo desarrollarlo y mostraremos mediante prototipos su funcionamiento. / The present work develops the Analysis and Design for the development and future implementation of a tool of Business Intelligence for the taking of decisions in the Area of Defensoría de Oficio of the Justice Ministry, the intention of the implementation of this tool is to have a better control and management of the information of the office defenders system so, it will help to improve the quality of the service that gives this organization, by the efficient decision taking from the information that this system provides to the managers of this organization. This work shows the methodology used for the development of the Datamart, which we will show as to develop it and we will show by means of prototypes its operation.
73

Diseño y simulación de un sistema para la programación de un robot móvil utilizando herramientas VHDL

Utrilla Salazar, Dario January 2008 (has links)
En el desarrollo de ésta Tesis, se realizó el diseño y simulación del sistema de control de un “robot móvil” utilizando herramientas de programación VHDL (Very high speed integrated circuit Hardware Description Language, lenguaje descriptivo de hardware para circuitos integrados de muy alta velocidad) Project Navigator de Xilinx y Max+Plus II de Altera; para realizar la síntesis, simulación e implementación en un dispositivo FPGA (Field Programmable Gate Array, arreglo de compuertas programables en campo). / In the development of this thesis it was made the design and simulation of the system of control of a “mobile robot” having used tools of programming VHDL (Very High Speed Integrated Circuit Hardware Description Language, descriptive language hardware integrated circuit for very high speed) Project Navigator Xilinx and Max+Plus II of Altera, soon to make the synthesis, simulation and implementation in a device FPGA (Field Programmable Gate Array, settling in field programmable gate).
74

Sistema de soporte a la toma de decisiones basado en inteligencia de negocios para mejorar los procesos comerciales del importador peruano

Chávez Colmenares, Daniel Ángel January 2015 (has links)
El presente proyecto, propone la implementación de un sistema de soporte a la toma de decisiones basado en inteligencia de negocios para mejorar los procesos comerciales del importador peruano, donde el principal problema radica en la información desintegrada que se encuentra en diferentes formatos almacenados y además no se le da una debida orientación a dicho importador. Por ello es preciso hacer la siguiente pregunta ¿De qué manera el sistema de soporte a la toma de decisiones basado en inteligencia de negocios contribuirá a que el importador peruano tome una adecuada decisión al momento de importar y que de esta manera pueda mejorar sus procesos comerciales? Tomando en cuenta la problemática que se nos presenta, se necesitará la implementación de un sistema de soporte a la toma de decisiones basado en Business Intelligence para la mejora de los procesos comerciales del importador peruano. El proyecto tiene como objetivo principal el correcto procesamiento y limpieza de datos para que de esta manera responda a los requerimientos del importador peruano. En el marco metodológico, se opta por utilizar la metodología de Ralph Kimball que es de un enfoque descendente, escalando todos los requerimientos funcionales de cada unidad de negocio o departamento para consolidar finalmente el datawarehouse. Como muestra se tomará a una parte de la población de importadores a los que se les aplicará un pre y post test, la recopilación de datos estará dada por entrevistas, observaciones y reportes; y para el procesamiento de estos datos se utilizara la herramienta de Microsoft Office Excel. Por lo tanto se concluye que el sistema contribuyó a mejorar los procesos comerciales mediante una oportuna toma de decisiones.
75

Inteligencia artificial: aprendizaje computacional

Meléndez, Mónica, Potente, Roberto January 1996 (has links)
No description available.
76

Lo aparente como real

Marengo, María Eugenia 09 December 2013 (has links) (PDF)
La siguiente investigación tiene por objetivo analizar las representaciones de las diversas dependencias de inteligencia de la Policía de la provincia de Buenos Aires, en relación a la construcción del actor político calificado como “comunista”, entre el período 1930-1962. El enfoque de análisis recorrió las prácticas que caracterizaron el funcionamiento de la labor de inteligencia de la policía bonaerense, desde sus inicios en la Década Infame, hasta su definitiva institucionalización y jerarquización como labor policial hacia fines de los años cincuenta y principios de los sesenta.
77

Aplicación de la metodología de Amón y Jiménez para asegurar la calidad de los datos en la construcción del ETL durante la implementación de un datamart para la Empresa MC Express de la ciudad de Chiclayo

Castillo Montalvan, Luis Felipe Raul January 2011 (has links)
En la empresa MC Express existen múltiples base de datos para cada proceso, la información que se muestra muchas veces no es la correcta, dando como resultado informes erróneos que afectan directamente en las decisiones de la alta dirección. Es así que se optó por asegurar la calidad de los datos cuando se extraigan, transformen y carguen de las bases de datos de compras y ventas, ayudados por la guía metodológica de Amón y Jiménez al momento de elegir la mejor técnica de depuración de datos durante el proceso ETL. Finalmente, se pudo reducir el alto índice de error en los datos, cometidos por la extracción de datos de múltiples fuentes, que al no ser analizadas como corresponde, produce consultas con errores en la información, contribuyendo así en la malas decisiones por parte de la alta dirección, y que conllevan a la pérdida de tiempo, dinero, oportunidades de nuevos negocios, y hasta la banca rota de las empresas.
78

Identificação e caracterização de pterígio utilizando floresta de caminhos ótimos e técnicas de otimização

Pagnin, André Franco [UNESP] 04 November 2011 (has links) (PDF)
Made available in DSpace on 2014-08-13T14:50:32Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-11-04Bitstream added on 2014-08-13T18:01:18Z : No. of bitstreams: 1 pagnin_af_me_sjrp.pdf: 656654 bytes, checksum: a36c07c3e11274be048901638e7344ba (MD5) / Neste trabalho abordamos o problema de identificação e caracterização do pterígio, uma neo-formação conjuntival triangular ou trapezoidal benigna, com causa exata ainda não definida, que potencialmente pode acarretar cegueira, como um primeiro passo para a criação de um sistema espe-cialista para auxílio ao diagnóstico utilizando a técnica de reconhecimento de padrões denominada Floresta de Caminhos Ótimos (OPF). Para a caracterização da doença, propomos a utilização de três técnicas de seleção de características as quais buscaram reduzir a quantidade de características utilizadas no reconhecimento, sem todavia, projudicar a acurácia do classificador. Essas técnicas nasceram da junção do OPF com técnicas de otimização já existentes como Otimização por Enxame de Partículas (PSO), Busca Harmônica (BH) e Algoritmo de Busca Gravitacional(GSA), resultando nos algoritmos híbridos PSO-OPF, BH-OPF e GSA-OPF, respectivamente. O banco de dados utili-zado neste trabalho é proveniente de um Projeto da Faculdade de Medicina da UNESP de Botucatu que visou a criação de uma Unidade Móvel para atendimento oftalmológico à comunidades da região de Botucatu. Esse banco de dados possui 89 características de 7,654 pacientes dos quais 682 são acometidos por pterígio e os 6,972 restantes não possuem a doença. As técnicas foram aplicadas à esse Banco de dados em dois momentos distintos. Inicialmente, buscando a identificação da doença, aplicamos o OPF juntamente com outros nove classificadores buscando somente a identificação do pterígio, dividindo a base de dados em 50 % para treinamento dos classificadores e os 50 % restantes para a classificação dos dados, num ciclo repetido 10 vezes, com esses conjuntos treinamento e classificação gerados aleatoriamente... (Resumo completo, clicar acesso eletrônico abaixo)
79

Um modelo baseado em agentes para suporte a automação de serviços

Savio, Luciano José January 2000 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção / Made available in DSpace on 2012-10-17T18:17:41Z (GMT). No. of bitstreams: 1 175745.pdf: 1015338 bytes, checksum: abb99b3d4800534546385d892212b372 (MD5) / A automação das atividades realizadas pelo homem é uma constante em nossos dias, visando aprimorar a maneira de como estas atividades são executadas. Objetivando auxiliar neste processo de automação, através do uso da tecnologia de agentes, do gerenciamento indireto e de técnicas de inteligência artificial, esse trabalho propõe uma arquitetura de agentes especializados aliado a aplicação da teoria do gerenciamento indireto, para suporte a automação de serviços. Nesta arquitetura será possível identificar os serviços a serem prestados, bem como a maneira como serão prestados, se utilizando de toda a gama de recursos proporcionada pela sociedade de agentes presente neste modelo. Esta arquitetura contempla principalmente 4 elementos: Base de conhecimentos, arquitetura de quadro-negro, bases de dados e uma sociedade de agentes. Esta sociedade de agentes através de seus agentes especializados na busca de informações, interfaces, coordenação e execução de tarefas se utilizam dos demais elementos da arquitetura para prover os serviços da forma mais automatizada possível. Esta arquitetura propõe ainda a utilização de uma arquitetura de execução distribuída em três camadas, proporcionando maior flexibilidade e utilização dos recursos para a execução dos serviços. Neste trabalho, a arquitetura foi aplicada tendo como finalidade o gerenciamento automatizado das solicitações solicitaçöes de serviços para uma secretaria de ensino de nível superior, tendo em vista a carência e a crescente demanda por automação dos processos ao atendimento de seus clientes, obtendo ótimos resultados.
80

Um sistema de apoio a dosimetria da pena do código penal brasileiro utilizando fuzzy logic

Guimarães, Márcio Ghisi January 2000 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. / Made available in DSpace on 2012-10-17T22:17:08Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T18:33:48Z : No. of bitstreams: 1 174263.pdf: 2439492 bytes, checksum: 51f63bd8ee75c3b2ed541e3404bb97c4 (MD5)

Page generated in 0.0773 seconds