• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 973
  • 25
  • Tagged with
  • 998
  • 456
  • 456
  • 456
  • 456
  • 456
  • 436
  • 432
  • 399
  • 275
  • 227
  • 183
  • 179
  • 171
  • 169
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Estudio de un sistema de visión para control de pesos y tamaño de racimos de uva de mesa

Basilio Vela, Oscar André 20 June 2016 (has links)
El presente estudio tiene como objetivo determinar la viabilidad del uso de redes neuronales y sistema de visión para la determinación de peso y tamaño de racimo de uva así como la lógica de control de la maquina a controlar. Desde el año 2000, el Perú empezó a exportar una gran cantidad de uvas de mesa al mercado norteamericano, siendo la uva la tercera fruta con mayor popularidad en este mercado. La uva de mesa presenta una gran potencialidad en el mercado Norteamericano, debido a que presenta un crecimiento acelerado en el volumen de exportaciones los últimos 5 años, posicionándolo como el tercer país que brinda uva de mesa a este mercado. En el año 2015 la exportación de Uvas se incrementó en 8% en el 2015 alcanzando los U$ 692 millones pasando a ser el primer producto de exportación Peruano por encima del Café y los Espárragos. A USA se exportó por U$ 202 millones superior a los U$ 121 millones vendidos en el 2014. Holanda U$ 89 millones (13% del total). Sigue China y Hong Kong con U$ 86 y U$ 77 millones respectivamente. El crecimiento del sector agrícola específicamente de las uvas de mesa en el Perú está generando una mayor producción de racimos, este crecimiento conlleva a un mayor nivel en los procesos que involucran la cosecha y el control por peso de los racimos de uva de mesa. Estos procesos actualmente se desarrollan de una manera manual. Uno de los factores importantes para poder clasificar las uvas de mesa es el peso del racimo, el cual permita clasificarlas en tres categorías distintas de uva según su calibre basada en la norma técnica peruana NTP 011.012-2005 [1]. Por estos motivos, se requiere un sistema mediante el cual se extraiga de manera automatizada el peso del racimo de uva. En este estudio se propuso diseñar algoritmos de control y visión que permitan controlar un sistema automatizado para lograr disminuir el error debido al trabajo manual, y aumentar el volumen de procesamiento de los racimos de uva. Se procedió a abordar la solución a esta problemática utilizando técnicas del campo de visión por computadora. Un sistema de visión, comprende la selección del sistema de iluminación, así como la selección de la cámara de video las cuales deben garantizar una buena captura de la imagen del racimo de uva. La etapa de preprocesamiento permitirá realzar problemas de ruido que se presenten al momento de la captura de la imagen para poder continuar con una segmentación de la imagen y de esta forma realizar la toma de decisiones en la cual se utilizara una red neuronal artificial para poder determinar los pesos de los racimos de uva a partir de las imágenes. Adicionalmente se realizó el programa del controlador de procesos para un sistema mecánico-eléctrico, seleccionador de productos agrícolas, en esta etapa se seleccionó el controlador y se realizó la lógica de control de todo el sistema mecánico-eléctrico. Para la síntesis de los controladores de visión y del sistema mecánico-eléctrico, se utilizó un protocolo de comunicación que permitió realizar la configuración maestroesclavo entre el sistema de visión y el de control respectivamente. La validez de la lógica de control en el controlador de procesos fue corroborado mediante pruebas en un sistema mecánico-eléctrico para la selección de productos agrícolas que se encuentra en el laboratorio de Oleohidráulica y Neumática de la Sección de Ingeniería Mecánica de la Pontificia Universidad Católica del Perú (PUCP). / Tesis
112

Implementation of a high performance embedded MPC on FPGA using high-level synthesis

Araujo Barrientos, Antonio 19 June 2017 (has links)
Model predictive control (MPC) has been, since its introduction in the late 70’s, a well accepted control technique, especially for industrial processes, which are typically slow and allow for on-line calculation of the control inputs. Its greatest advantage is its ability to consider constraints, on both inputs and states, directly and naturally. More recently, the improvements in processor speed have allowed its use in a wider range of problems, many involving faster dynamics. Nevertheless, implementation of MPC algorithms on embedded systems with resources, size, power consumption and cost constraints remains a challenge. In this thesis, High-Level Synthesis (HLS) is used to implement implicit MPC algo- rithms for linear (LMPC) and nonlinear (NMPC) plant models, considering constraints on both control inputs and states of the system. The algorithms are implemented in the Zynq@ -7000 All Programmable System-on-a-Chip (AP SoC) ZC706 Evaluation Kit, targeting Xilinx’s Zynq@-7000 AP SoC which contains a general purpose Field Programmable Gate Array (FPGA). In order to solve the optimization problem at each sampling instant, an Interior-Point Method (IPM) is used. The main computation cost of this method is the solution of a system of linear equations. A minimum residual (MINRES) algorithm is used for the solution of this system of equations taking into consideration its special structure in order to make it computationally efficient. A library was created for the linear algebra operations required for the IPM and MINRES algorithms. The implementation is tested on trajectory tracking case studies. Results for the linear case show good performance and implementation metrics, as well as computation times within the considered sampling periods. For the nonlinear case, although a high computation time was needed, the algorithm performed well on the case study presented. Because of resources constraints, implementation of the nonlinear algorithm on higher order systems was precluded. / Modellprädiktive Regelung (engl: Model Predictive Control (MPC) ist, seit der Einfüh- rung in den späten 70er Jahren, eine gut angenommene Regelungstechnik, insbesondere für industrielle Prozesse, die typischerweise langsam sind und die online Steuergröße Berechnung ermöglichen. Ihr größter Vorteil ist die Fähigkeit, Beschränkungen bezüg- lich der Steuergrößen und der Regelgrößen zu berücksichtigen. In letzter Zeit hat die Verbesserung der Geschwindigkeit der Prozessoren den Einsatz in einer breitere Pro- blemreichweite mit einer schnelleren Dynamik ermöglicht. Allerdings bleibt die MPC Algorithmus-Implementierung in eingebetteten Systeme mit beschränkte Ressourcen, Größe, Energieverbrauch und Kosten eine Herausforderung. In dieser Arbeit wird die High-Level Synthesis (HLS) benutzt, um implizit MPC Algorithmen für lineare (LMPC) und nichtlineare (NMPC) Regelstrecken zu implemen- tieren, wobei Steuergröße- und Regelgrößenbeschränkungen berücksichtigt werden. Die Algorithmen sind im Zynq@-7000 AP SoC ZC706 Auswertungskit implementiert, wobei auf der Xilinxs Zynq@-7000 AP SoC, der ein allgemeiner Zweck FPGA enthält, abgezielt wird. Ein innere-Punkte Verfahren (engl: Interior-Point Method (IPM)) wird für die Lösung des Optimierungsproblems in jedem Sampling benutzt. Die größte Berechnungs- komplexität bei dem IPM ist die Lösung eines linearen Gleichungssystems. Ein minimaler Residuum-Algorithmus (MINRES) wird für die Lösung dieses Gleichungssystem benutzt, wobei die spezielle Struktur berücksichtigt wird, um das Verfahren recheneffizient zu machen. Es wurde eine Bibliothek mit Funktionen für die benötigten linearen Algebra Operationen in den IPM und MINRES Verfahren entwickelt. Die Implementierung wird in Trajektorieverfolgung Fallstudien getestet. Die Ergeb- nisse für den linearen Fall zeigen gute Leistungen und Metriken, sowie Rechenzeiten innerhalb des berücksichtigten Taktzeiten. Für den nichtlinearen Fall wurde eine ho- he Rechenzeit benötigt. Trotzdem hat der Algorithmus für die vorgestellte Fallstudie gut funktioniert. Infolge der Ressourcenbeschränkungen war die Implementierung des nichtlinearen Algorithmus für Systeme höherer Ordnung verhindert. / Tesis
113

Aplicación de una metodología ágil en el desarrollo de un sistema de información

Samamé Silva, Jaime Humberto 09 December 2013 (has links)
Las aplicaciones informáticas han contribuido enormemente en el escenario de nuestras vidas, están directas o indirectamente presentes en nuestro día a día, y somos consumidores o desarrolladores de ellas. Cuando cumplimos un papel de desarrolladores, se presentan diversas metodologías al momento de empezar un proyecto de software, dentro de ellas nos ofrecen un punto de vista alternativo a las clásicas y duras, las metodologías ágiles. El presente proyecto aplica una de estas metodologías ágiles, Programación Extrema (Extreme Programming), en un pequeño proyecto de software, utilizando herramientas de software libre como Java, y como repositorio de datos el estándar XML. El resultado de esta investigación aporta una guía del uso de la metodología ágil en un pequeño proyecto de software que tiene aplicabilidad dentro del ciclo de inteligencia de la información. / Tesis
114

Análisis, diseño e implementación de un módulo de planificación de construcción de casos de uso

Moquillaza Vizarreta, Arturo 24 April 2014 (has links)
Los procesos actuales de desarrollo de software implican la utilización de una serie de herramientas y de metodologías que permitan dirigir y soportar el proceso de desarrollo y la gestión adecuada del proyecto mismo. Con el paso del tiempo, estas metodologías se han hecho más útiles a medida que la complejidad del software que se desarrolla ha ido en aumento. RUP, por ejemplo, es una metodología que nos guía para lograr este propósito [1]. Uno de los grandes desafíos de la comunidad de investigadores en ingenie ría de software, es involucrar a los stakeholders en el proceso de captura de requerimientos. Un stakeholder se puede definir como aquella persona que está materialmente afectada por el resultado del proyecto. En ese sentido, todo proyecto involucra la satisfacción de necesidades de un grupo diverso de stakeholders. Típicamente, estos tienen diferentes perspectivas sobre el problema, y diferentes necesidades que deben ser convenientemente identificadas [4]. No obstante los avances logrados en los últimos años, hay algunas partes del proceso de desarrollo de software que aún no están adecuadamente soportadas por alguna metodología, y en ese sentido, requieren de la experiencia de quienes manejan el proyecto de software. El proceso de elección del orden de construcción de los casos de uso a partir de los requerimientos capturados, es un ejemplo de lo anterior. El presente proyecto muestra una propuesta de solución a este tema. Se ha implementado un módulo de software que permite capturar la opinión de los stakeholders y a partir de estas, generar una secuencia de construcción de casos de uso. / Tesis
115

Análisis, diseño e implementación de un software que determine la solución al problema del flujo máximo aplicando el algoritmo de Ford-Fulkerson

Arangoitia Fernández Baca, Jorge Víctor 13 May 2013 (has links)
El presente proyecto de fin carrera esboza una solución informática al problema del flujo máximo, para lo cual se ha optado por utilizar el algoritmo de Ford-Fulkerson, al ser este el más conocido y difundido, y que permite llegar a una solución exacta del problema en un tiempo relativamente corto. Dicho problema tiene una amplia gama de aplicaciones, que van desde cálculo de rutas disjuntas para redes de comunicaciones, circulación con capacidad, programación de líneas aéreas, selección de proyectos, entre otras. El problema del flujo máximo fundamentalmente consiste en: dado una red (o grafo) de arcos y nodos, cada arco con una capacidad determinada, y con un nodo fuente y otro sumidero, se trata de hallar la cantidad máxima de material (flujo) que puede circular desde el nodo fuente hasta el nodo sumidero, de manera que el flujo individual que va por cada arco no supere la capacidad de dicho arco; esto último es conocido como restricción de capacidad del arco. Como se verá en la memoria descriptiva, este problema se reduce a uno de investigación de operaciones, es decir, un problema de maximización de una expresión dependiente de una serie de variables, las cuales están sujetas a un conjunto de restricciones. El algoritmo elegido para la implementación de la solución es el de Ford-Fulkerson, el cual fue propuesto en 1956 en un artículo científico por los matemáticos estadounidenses Lester Randolph Ford Jr. y Delbert Ray Fulkerson, quienes establecieron y demostraron el teorema del flujo máximo - corte mínimo, fundamental para la justificación del algoritmo como proveedor de la solución. Como se dijo en el párrafo inicial del resumen, existe una vasta y variada cantidad de contextos que pueden modelarse como un problema de flujo máximo, las principales serán brevemente explicadas en la memoria descriptiva, y se deja como trabajo futuro la particularización de esta solución a alguna de las mencionadas situaciones. / Tesis
116

Diagnóstico y propuesta de mejora del sistema de atención a pacientes de emergencia adultos de un hospital público utilizando simulación discreta

Delgado Encinas, Karem Cecilia 24 November 2011 (has links)
En la presente tesis se ha evaluado la situación actual del área de emergencia , zona adultos de un hospital público, utilizando simulación de eventos discreta, con el objetivo de brindar propuestas de mejora que permitan reducir el tiempo total de permanencia del paciente en el sistema. Este sistema está formado por cuatro tópicos de atención: medicina, cirugía, traumatología y shock trauma. El paciente ingresa al sistema, tiene una primera revisión en Triaje donde se le asigna un tópico de atención, pasa a admisión, luego se dirige al tópico que le asignaron, recibe la atención, y según la evaluación del doctor el paciente puede seguir diferentes recorridos, los cuales se detallan en el desarrollo de la tesis. Emergencia adultos, funciona las 24 horas del día durante toda la semana, siendo las mañanas las horas en que más pacientes llegan al sistema. Se simularon 80 réplicas, cada una de una semana de duración, donde se identificó a los pacientes de alivio, los cuales se atienden en el tópico de medicina, y a los de medicina y cirugía con resultados de análisis, como los más críticos en el sistema. Para disminuir sus tiempos totales de permanencia en el sistema se propusieron diversas modificaciones al modelo, siendo un nuevo horario de trabajo para los doctores de medicina la mejor solución encontrada. Esta propuesta, que sugiere se tengan 4 doctores durante las primeras 12 horas y 2 durante las 12 horas restantes, fue la que permitió tener mayores reducciones en los tiempos de estos pacientes; sin embargo, el tiempo que toma obtener resultados de análisis es una variable crítica que afecta directamente en el tiempo total del paciente, por lo que se recomendó efectuar un estudio posterior en esta área. / Tesis
117

Diseño e implementación del algoritmo de convolución bidimensional en la arquitectura CUDA

Sánchez Checa Crosato, Ivo 25 October 2011 (has links)
En el presente documento se explicarán las consideraciones realizadas para implementar la convolución bidimensional en la arquitectura CUDA. En general se discutirá la metodología seguida y se mostrarán y analizarán los resultados obtenidos. Inicialmente en el Capítulo 1, a manera de introducción, se discutirá la programación en paralelo y los diferentes aspectos a tener en cuenta al desarrollar programas para arquitecturas concurrentes. De esta forma se pretende explicar conceptos importantes que servirán para poner la presente investigación en contexto y comprender mejor los siguientes capítulos. En el Capítulo 2 se describirá a profundidad los aspectos más importantes de la arquitectura CUDA así como la operación de convolución bidimensional. De esta manera se espera dejar claros los conceptos pertinentes. Posteriormente en el Capítulo 3 se explicará la metodología para el desarrollo de los programas realizados, detallándose las diferentes consideraciones para optimizar el desempeño y reducir el tiempo de ejecución de los mismos. Finalmente en el capítulo 4 se mostrarán los tiempos de ejecución obtenidos con los diferentes programas desarrollados. Estos se obtendrán al tomar en cuenta cada una de las optimizaciones mencionadas en el tercer capítulo con lo que se apreciará la mejora de desempeño en cada caso. A continuación se tomará la mejor de las implementaciones realizadas y se comparará con otras existentes para poner los resultados obtenidos en contexto. Por último se presentarán las conclusiones y recomendaciones pertinentes. / Tesis
118

Implementación de un software para búsqueda de publicaciones científicas en bases de datos estructuradas mediante datos enlazados

Uribe Canchanya, Iván Renato 10 July 2018 (has links)
En la actualidad, la información es uno de los activos más importantes tanto en niveles personales, educativos y organizacionales. La información permite el desarrollo y el avance de los estados del conocimiento. Desde la aparición del Internet y su exponencial evolución, el acceso a la información se ha vuelto universal y su cantidad disponible sigue aumentando considerablemente. Para las organizaciones es muy valioso el resguardo y uso de la información ya que, de esta administración depende su capacidad para seguir creciendo y obteniendo valor dentro de sus respectivos campos de acción. Del mismo modo, para una persona el obtener información importante es adquirir conocimientos que serán relevantes para la consecución de sus objetivos planteados. En cualquiera de los ámbitos el uso de la información permite la formulación y la ejecución de los planes estratégicos. Sin embargo, el encontrar aquella información que realmente se necesita se ha vuelto una tarea cada vez más complicada. En el campo de la investigación científica la recopilación de fuentes de información representa el punto de partida. Trasladando esta necesidad al contexto peruano, se observa que la producción científica está en aumento y en un ritmo acorde al crecimiento de otras naciones. Sin embargo, actualmente resulta complicado para los investigadores el obtener la información relevante para iniciar sus investigaciones con la certeza de que no existen investigaciones previas o que abarquen el mismo campo de estudio. Para lograr una buena recopilación se debe navegar entre los distintos repositorios digitales existentes que son de libre acceso o incluso pagados. En tal sentido, existe una solución conocida como Datos Enlazados, un enfoque que no se contrapone a la web actual que permite el vínculo entre páginas web (documentos HTML), pero sí lo complementa ya que permite la vinculación de datos entre distintos contextos y fuentes de información. El presente trabajo de fin de carrera propone una alternativa de solución para la búsqueda integral y automatizada en distintos repositorios digitales que son de libre acceso y cuyas bases de datos están estructuradas mediante Datos Enlazados. Se implementó un método de búsqueda adaptativo en base a las ontologías que manejan los distintos repositorios digitales (datasets). De tal manera, se obtiene una ontología de dominio adaptable que permite la extracción de datos relevantes de cada repositorio, para su posterior reestructuración y su visualización. Para lograr la ontología dinámica se implementó un algoritmo adaptador que analiza el vocabulario ontológico del dataset e identifica las entidades relevantes para el dominio de investigaciones y publicaciones. Luego, se implementaron métodos de extracción con funciones en SPARQL que dependen de la ontología y finalmente, los datos relevantes son guardados en grafos RDF para luego ser serializados en documentos RDF/XML y Turtle. Se concluye que el proyecto ha sido exitoso en cuanto que el software permite realizar la búsqueda de publicaciones de distintos autores peruanos que tienen indexados sus documentos en repositorios digitales como DBLP o IEEE Library Project, contribuyendo de esta manera a la búsqueda integral de información. / Tesis
119

Análisis, diseño e implementación de una aplicación para la administración de las herramientas de seguridad en una red local

Cohn Muroy, Dennis Stephen 09 May 2011 (has links)
Las soluciones presentes en el mercado, a pesar de poseer un adecuado desempeño en cuanto a la prevención y la detección de los ataques, carecen de un entorno intuitivo y de fácil uso, lo cual influye en el registro de reglas débiles o erróneas; provocando agujeros en el perímetro de la seguridad de la red local. Es por ello, que en el presente documento se plantea como solución analizar, diseñar e implementar una aplicación para facilitar la administración de las herramientas Iptables, Squid y Snort; utilizadas para proteger la información dentro de una red local. / Tesis
120

Construcción de un compilador de asertos de programación metódica

Berolatti Gonzales, Diego 12 November 2014 (has links)
Siempre ha existido la necesidad de validar la codificación de un programa. Este proyecto tiene como objetivo la implementación de un compilador que, mediante notaciones matemáticas que especifican un programa, genere las instrucciones de manera automática. El resultado tiene como principal característica que es formalmente correcto. Esto se da debido a que el compilador implementa una metodología llamada derivación de programas la cual garantiza esa característica. La implementación de esta metodología se da mediante la estructura formal de un compilador y la inclusión de un autómata adaptativo capaz de aplicar las reglas de programación metódica. El proyecto tiene como alcance el no aplicar ninguna regla que implique resolver un problema de complejidad np. Debido a esto la expresividad del lenguaje y su capacidad de generación automática se encuentra limitada. El resultado es un compilador capaz de generar código de manera automática en base a las especificaciones que el compilador es capaz de compilar. Este proyecto es la base de los compiladores de programación automática. / Tesis

Page generated in 0.0347 seconds