Spelling suggestions: "subject:"computadoras"" "subject:"computadores""
111 |
Estudio de un sistema de visión para control de pesos y tamaño de racimos de uva de mesaBasilio Vela, Oscar André 20 June 2016 (has links)
El presente estudio tiene como objetivo determinar la viabilidad del uso de redes
neuronales y sistema de visión para la determinación de peso y tamaño de racimo de
uva así como la lógica de control de la maquina a controlar.
Desde el año 2000, el Perú empezó a exportar una gran cantidad de uvas de mesa al
mercado norteamericano, siendo la uva la tercera fruta con mayor popularidad en
este mercado. La uva de mesa presenta una gran potencialidad en el mercado
Norteamericano, debido a que presenta un crecimiento acelerado en el volumen de
exportaciones los últimos 5 años, posicionándolo como el tercer país que brinda uva
de mesa a este mercado.
En el año 2015 la exportación de Uvas se incrementó en 8% en el 2015 alcanzando
los U$ 692 millones pasando a ser el primer producto de exportación Peruano por
encima del Café y los Espárragos. A USA se exportó por U$ 202 millones superior a
los U$ 121 millones vendidos en el 2014. Holanda U$ 89 millones (13% del total).
Sigue China y Hong Kong con U$ 86 y U$ 77 millones respectivamente.
El crecimiento del sector agrícola específicamente de las uvas de mesa en el Perú
está generando una mayor producción de racimos, este crecimiento conlleva a un
mayor nivel en los procesos que involucran la cosecha y el control por peso de los
racimos de uva de mesa. Estos procesos actualmente se desarrollan de una manera
manual. Uno de los factores importantes para poder clasificar las uvas de mesa es el
peso del racimo, el cual permita clasificarlas en tres categorías distintas de uva según
su calibre basada en la norma técnica peruana NTP 011.012-2005 [1].
Por estos motivos, se requiere un sistema mediante el cual se extraiga de manera
automatizada el peso del racimo de uva. En este estudio se propuso diseñar
algoritmos de control y visión que permitan controlar un sistema automatizado para lograr disminuir el error debido al trabajo manual, y aumentar el volumen de
procesamiento de los racimos de uva.
Se procedió a abordar la solución a esta problemática utilizando técnicas del campo
de visión por computadora. Un sistema de visión, comprende la selección del sistema
de iluminación, así como la selección de la cámara de video las cuales deben
garantizar una buena captura de la imagen del racimo de uva. La etapa de preprocesamiento
permitirá realzar problemas de ruido que se presenten al momento de
la captura de la imagen para poder continuar con una segmentación de la imagen y de
esta forma realizar la toma de decisiones en la cual se utilizara una red neuronal
artificial para poder determinar los pesos de los racimos de uva a partir de las
imágenes.
Adicionalmente se realizó el programa del controlador de procesos para un sistema
mecánico-eléctrico, seleccionador de productos agrícolas, en esta etapa se seleccionó
el controlador y se realizó la lógica de control de todo el sistema mecánico-eléctrico.
Para la síntesis de los controladores de visión y del sistema mecánico-eléctrico, se
utilizó un protocolo de comunicación que permitió realizar la configuración maestroesclavo
entre el sistema de visión y el de control respectivamente. La validez de la
lógica de control en el controlador de procesos fue corroborado mediante pruebas en
un sistema mecánico-eléctrico para la selección de productos agrícolas que se
encuentra en el laboratorio de Oleohidráulica y Neumática de la Sección de
Ingeniería Mecánica de la Pontificia Universidad Católica del Perú (PUCP). / Tesis
|
112 |
Implementation of a high performance embedded MPC on FPGA using high-level synthesisAraujo Barrientos, Antonio 19 June 2017 (has links)
Model predictive control (MPC) has been, since its introduction in the late 70’s, a
well accepted control technique, especially for industrial processes, which are typically slow and
allow for on-line calculation of the control inputs. Its greatest advantage is its ability to
consider constraints, on both inputs and states, directly and naturally. More recently, the
improvements in processor speed have allowed its use in a wider range of problems, many involving
faster dynamics. Nevertheless, implementation of MPC algorithms on embedded systems with resources,
size, power consumption and cost constraints remains a challenge.
In this thesis, High-Level Synthesis (HLS) is used to implement implicit MPC algo- rithms for
linear (LMPC) and nonlinear (NMPC) plant models, considering constraints on both control inputs and
states of the system. The algorithms are implemented in the Zynq@ -7000 All Programmable
System-on-a-Chip (AP SoC) ZC706 Evaluation Kit, targeting Xilinx’s Zynq@-7000 AP SoC which
contains a general purpose Field Programmable Gate Array (FPGA). In order to solve the optimization
problem at each sampling instant, an Interior-Point Method (IPM) is used. The main computation
cost of this method is the solution of a system of linear equations. A minimum residual (MINRES)
algorithm is used for the solution of this system of equations taking into consideration its
special structure in order to make it computationally efficient. A library was created for
the linear algebra operations required for the IPM and MINRES algorithms.
The implementation is tested on trajectory tracking case studies. Results for the linear case
show good performance and implementation metrics, as well as computation times within the
considered sampling periods. For the nonlinear case, although a high computation time was needed,
the algorithm performed well on the case study presented. Because of resources constraints,
implementation of the nonlinear algorithm on higher
order systems was precluded. / Modellprädiktive Regelung (engl: Model Predictive Control (MPC) ist, seit der Einfüh- rung in den
späten 70er Jahren, eine gut angenommene Regelungstechnik, insbesondere für industrielle Prozesse,
die typischerweise langsam sind und die online Steuergröße Berechnung ermöglichen. Ihr größter
Vorteil ist die Fähigkeit, Beschränkungen bezüg- lich der Steuergrößen und der Regelgrößen zu
berücksichtigen. In letzter Zeit hat die Verbesserung der Geschwindigkeit der Prozessoren den
Einsatz in einer breitere Pro- blemreichweite mit einer schnelleren Dynamik ermöglicht. Allerdings
bleibt die MPC Algorithmus-Implementierung in eingebetteten Systeme mit beschränkte Ressourcen,
Größe, Energieverbrauch und Kosten eine Herausforderung.
In dieser Arbeit wird die High-Level Synthesis (HLS) benutzt, um implizit MPC Algorithmen für
lineare (LMPC) und nichtlineare (NMPC) Regelstrecken zu implemen- tieren, wobei Steuergröße- und
Regelgrößenbeschränkungen berücksichtigt werden. Die Algorithmen sind im Zynq@-7000 AP SoC ZC706
Auswertungskit implementiert, wobei auf der Xilinxs Zynq@-7000 AP SoC, der ein allgemeiner Zweck
FPGA enthält, abgezielt wird. Ein innere-Punkte Verfahren (engl: Interior-Point Method (IPM)) wird
für die Lösung des Optimierungsproblems in jedem Sampling benutzt. Die größte Berechnungs-
komplexität bei dem IPM ist die Lösung eines linearen Gleichungssystems. Ein minimaler
Residuum-Algorithmus (MINRES) wird für die Lösung dieses Gleichungssystem benutzt, wobei die
spezielle Struktur berücksichtigt wird, um das Verfahren recheneffizient zu machen. Es wurde eine
Bibliothek mit Funktionen für die benötigten linearen Algebra Operationen in den IPM und MINRES
Verfahren entwickelt.
Die Implementierung wird in Trajektorieverfolgung Fallstudien getestet. Die Ergeb- nisse für den
linearen Fall zeigen gute Leistungen und Metriken, sowie Rechenzeiten innerhalb des
berücksichtigten Taktzeiten. Für den nichtlinearen Fall wurde eine ho- he Rechenzeit benötigt.
Trotzdem hat der Algorithmus für die vorgestellte Fallstudie gut funktioniert. Infolge der
Ressourcenbeschränkungen war die Implementierung des
nichtlinearen Algorithmus für Systeme höherer Ordnung verhindert. / Tesis
|
113 |
Aplicación de una metodología ágil en el desarrollo de un sistema de informaciónSamamé Silva, Jaime Humberto 09 December 2013 (has links)
Las aplicaciones informáticas han contribuido enormemente en el escenario de
nuestras vidas, están directas o indirectamente presentes en nuestro día a día, y somos
consumidores o desarrolladores de ellas. Cuando cumplimos un papel de
desarrolladores, se presentan diversas metodologías al momento de empezar un
proyecto de software, dentro de ellas nos ofrecen un punto de vista alternativo a las
clásicas y duras, las metodologías ágiles.
El presente proyecto aplica una de estas metodologías ágiles, Programación Extrema
(Extreme Programming), en un pequeño proyecto de software, utilizando herramientas
de software libre como Java, y como repositorio de datos el estándar XML. El
resultado de esta investigación aporta una guía del uso de la metodología ágil en un
pequeño proyecto de software que tiene aplicabilidad dentro del ciclo de inteligencia
de la información. / Tesis
|
114 |
Análisis, diseño e implementación de un módulo de planificación de construcción de casos de usoMoquillaza Vizarreta, Arturo 24 April 2014 (has links)
Los procesos actuales de desarrollo de software implican la utilización de una serie de
herramientas y de metodologías que permitan dirigir y soportar el proceso de desarrollo y la
gestión adecuada del proyecto mismo. Con el paso del tiempo, estas metodologías se han
hecho más útiles a medida que la complejidad del software que se desarrolla ha ido en
aumento. RUP, por ejemplo, es una metodología que nos guía para lograr este propósito [1].
Uno de los grandes desafíos de la comunidad de investigadores en ingenie ría de software, es
involucrar a los stakeholders en el proceso de captura de requerimientos. Un stakeholder se
puede definir como aquella persona que está materialmente afectada por el resultado del
proyecto. En ese sentido, todo proyecto involucra la satisfacción de necesidades de un grupo
diverso de stakeholders. Típicamente, estos tienen diferentes perspectivas sobre el problema,
y diferentes necesidades que deben ser convenientemente identificadas [4].
No obstante los avances logrados en los últimos años, hay algunas partes del proceso de
desarrollo de software que aún no están adecuadamente soportadas por alguna metodología,
y en ese sentido, requieren de la experiencia de quienes manejan el proyecto de software.
El proceso de elección del orden de construcción de los casos de uso a partir de los
requerimientos capturados, es un ejemplo de lo anterior.
El presente proyecto muestra una propuesta de solución a este tema. Se ha implementado un
módulo de software que permite capturar la opinión de los stakeholders y a partir de estas,
generar una secuencia de construcción de casos de uso. / Tesis
|
115 |
Análisis, diseño e implementación de un software que determine la solución al problema del flujo máximo aplicando el algoritmo de Ford-FulkersonArangoitia Fernández Baca, Jorge Víctor 13 May 2013 (has links)
El presente proyecto de fin carrera esboza una solución informática al problema del
flujo máximo, para lo cual se ha optado por utilizar el algoritmo de Ford-Fulkerson, al
ser este el más conocido y difundido, y que permite llegar a una solución exacta del
problema en un tiempo relativamente corto. Dicho problema tiene una amplia gama de
aplicaciones, que van desde cálculo de rutas disjuntas para redes de comunicaciones,
circulación con capacidad, programación de líneas aéreas, selección de proyectos,
entre otras.
El problema del flujo máximo fundamentalmente consiste en: dado una red (o grafo) de
arcos y nodos, cada arco con una capacidad determinada, y con un nodo fuente y otro
sumidero, se trata de hallar la cantidad máxima de material (flujo) que puede circular
desde el nodo fuente hasta el nodo sumidero, de manera que el flujo individual que va
por cada arco no supere la capacidad de dicho arco; esto último es conocido como
restricción de capacidad del arco. Como se verá en la memoria descriptiva, este
problema se reduce a uno de investigación de operaciones, es decir, un problema de
maximización de una expresión dependiente de una serie de variables, las cuales
están sujetas a un conjunto de restricciones.
El algoritmo elegido para la implementación de la solución es el de Ford-Fulkerson, el
cual fue propuesto en 1956 en un artículo científico por los matemáticos
estadounidenses Lester Randolph Ford Jr. y Delbert Ray Fulkerson, quienes
establecieron y demostraron el teorema del flujo máximo - corte mínimo, fundamental
para la justificación del algoritmo como proveedor de la solución.
Como se dijo en el párrafo inicial del resumen, existe una vasta y variada cantidad de
contextos que pueden modelarse como un problema de flujo máximo, las principales
serán brevemente explicadas en la memoria descriptiva, y se deja como trabajo futuro
la particularización de esta solución a alguna de las mencionadas situaciones. / Tesis
|
116 |
Diagnóstico y propuesta de mejora del sistema de atención a pacientes de emergencia adultos de un hospital público utilizando simulación discretaDelgado Encinas, Karem Cecilia 24 November 2011 (has links)
En la presente tesis se ha evaluado la situación actual del área de emergencia ,
zona adultos de un hospital público, utilizando simulación de eventos discreta, con
el objetivo de brindar propuestas de mejora que permitan reducir el tiempo total de
permanencia del paciente en el sistema.
Este sistema está formado por cuatro tópicos de atención: medicina, cirugía,
traumatología y shock trauma. El paciente ingresa al sistema, tiene una primera
revisión en Triaje donde se le asigna un tópico de atención, pasa a admisión, luego
se dirige al tópico que le asignaron, recibe la atención, y según la evaluación del
doctor el paciente puede seguir diferentes recorridos, los cuales se detallan en el
desarrollo de la tesis.
Emergencia adultos, funciona las 24 horas del día durante toda la semana, siendo
las mañanas las horas en que más pacientes llegan al sistema.
Se simularon 80 réplicas, cada una de una semana de duración, donde se identificó
a los pacientes de alivio, los cuales se atienden en el tópico de medicina, y a los de
medicina y cirugía con resultados de análisis, como los más críticos en el sistema.
Para disminuir sus tiempos totales de permanencia en el sistema se propusieron
diversas modificaciones al modelo, siendo un nuevo horario de trabajo para los
doctores de medicina la mejor solución encontrada. Esta propuesta, que sugiere se
tengan 4 doctores durante las primeras 12 horas y 2 durante las 12 horas restantes,
fue la que permitió tener mayores reducciones en los tiempos de estos pacientes;
sin embargo, el tiempo que toma obtener resultados de análisis es una variable
crítica que afecta directamente en el tiempo total del paciente, por lo que se
recomendó efectuar un estudio posterior en esta área. / Tesis
|
117 |
Diseño e implementación del algoritmo de convolución bidimensional en la arquitectura CUDASánchez Checa Crosato, Ivo 25 October 2011 (has links)
En el presente documento se explicarán las consideraciones realizadas para
implementar la convolución bidimensional en la arquitectura CUDA. En general se discutirá la metodología seguida y se mostrarán y analizarán los resultados
obtenidos.
Inicialmente en el Capítulo 1, a manera de introducción, se discutirá la
programación en paralelo y los diferentes aspectos a tener en cuenta al
desarrollar programas para arquitecturas concurrentes. De esta forma se
pretende explicar conceptos importantes que servirán para poner la presente
investigación en contexto y comprender mejor los siguientes capítulos.
En el Capítulo 2 se describirá a profundidad los aspectos más importantes de la
arquitectura CUDA así como la operación de convolución bidimensional. De
esta manera se espera dejar claros los conceptos pertinentes.
Posteriormente en el Capítulo 3 se explicará la metodología para el desarrollo
de los programas realizados, detallándose las diferentes consideraciones para
optimizar el desempeño y reducir el tiempo de ejecución de los mismos.
Finalmente en el capítulo 4 se mostrarán los tiempos de ejecución obtenidos con los diferentes programas desarrollados. Estos se obtendrán al tomar en cuenta cada una de las optimizaciones mencionadas en el tercer capítulo con lo que se apreciará la mejora de desempeño en cada caso. A continuación se tomará la mejor de las implementaciones realizadas y se comparará con otras
existentes para poner los resultados obtenidos en contexto.
Por último se presentarán las conclusiones y recomendaciones pertinentes. / Tesis
|
118 |
Implementación de un software para búsqueda de publicaciones científicas en bases de datos estructuradas mediante datos enlazadosUribe Canchanya, Iván Renato 10 July 2018 (has links)
En la actualidad, la información es uno de los activos más importantes tanto en niveles
personales, educativos y organizacionales. La información permite el desarrollo y el avance de
los estados del conocimiento. Desde la aparición del Internet y su exponencial evolución, el
acceso a la información se ha vuelto universal y su cantidad disponible sigue aumentando
considerablemente.
Para las organizaciones es muy valioso el resguardo y uso de la información ya que, de
esta administración depende su capacidad para seguir creciendo y obteniendo valor dentro de sus
respectivos campos de acción. Del mismo modo, para una persona el obtener información
importante es adquirir conocimientos que serán relevantes para la consecución de sus objetivos
planteados. En cualquiera de los ámbitos el uso de la información permite la formulación y la
ejecución de los planes estratégicos. Sin embargo, el encontrar aquella información que
realmente se necesita se ha vuelto una tarea cada vez más complicada.
En el campo de la investigación científica la recopilación de fuentes de información
representa el punto de partida. Trasladando esta necesidad al contexto peruano, se observa que la
producción científica está en aumento y en un ritmo acorde al crecimiento de otras naciones. Sin
embargo, actualmente resulta complicado para los investigadores el obtener la información
relevante para iniciar sus investigaciones con la certeza de que no existen investigaciones
previas o que abarquen el mismo campo de estudio. Para lograr una buena recopilación se debe
navegar entre los distintos repositorios digitales existentes que son de libre acceso o incluso
pagados.
En tal sentido, existe una solución conocida como Datos Enlazados, un enfoque que no
se contrapone a la web actual que permite el vínculo entre páginas web (documentos HTML),
pero sí lo complementa ya que permite la vinculación de datos entre distintos contextos y fuentes
de información. El presente trabajo de fin de carrera propone una alternativa de solución para la búsqueda integral y automatizada en distintos repositorios digitales que son de libre acceso y
cuyas bases de datos están estructuradas mediante Datos Enlazados.
Se implementó un método de búsqueda adaptativo en base a las ontologías que manejan
los distintos repositorios digitales (datasets). De tal manera, se obtiene una ontología de dominio
adaptable que permite la extracción de datos relevantes de cada repositorio, para su posterior
reestructuración y su visualización. Para lograr la ontología dinámica se implementó un
algoritmo adaptador que analiza el vocabulario ontológico del dataset e identifica las entidades
relevantes para el dominio de investigaciones y publicaciones. Luego, se implementaron
métodos de extracción con funciones en SPARQL que dependen de la ontología y finalmente,
los datos relevantes son guardados en grafos RDF para luego ser serializados en documentos
RDF/XML y Turtle.
Se concluye que el proyecto ha sido exitoso en cuanto que el software permite realizar la
búsqueda de publicaciones de distintos autores peruanos que tienen indexados sus documentos
en repositorios digitales como DBLP o IEEE Library Project, contribuyendo de esta manera a la
búsqueda integral de información. / Tesis
|
119 |
Análisis, diseño e implementación de una aplicación para la administración de las herramientas de seguridad en una red localCohn Muroy, Dennis Stephen 09 May 2011 (has links)
Las soluciones presentes en el mercado, a pesar de poseer un adecuado desempeño en cuanto a la prevención y la detección de los ataques, carecen de un entorno intuitivo y de fácil uso, lo cual influye en el registro de reglas débiles o erróneas; provocando agujeros en el perímetro de la seguridad de la red local.
Es por ello, que en el presente documento se plantea como solución analizar, diseñar e implementar una aplicación para facilitar la administración de las herramientas Iptables, Squid y Snort; utilizadas para proteger la información dentro de una red local. / Tesis
|
120 |
Construcción de un compilador de asertos de programación metódicaBerolatti Gonzales, Diego 12 November 2014 (has links)
Siempre ha existido la necesidad de validar la codificación de un programa.
Este proyecto tiene como objetivo la implementación de un compilador que,
mediante notaciones matemáticas que especifican un programa, genere las
instrucciones de manera automática. El resultado tiene como principal
característica que es formalmente correcto. Esto se da debido a que el
compilador implementa una metodología llamada derivación de programas la
cual garantiza esa característica. La implementación de esta metodología se
da mediante la estructura formal de un compilador y la inclusión de un
autómata adaptativo capaz de aplicar las reglas de programación metódica.
El proyecto tiene como alcance el no aplicar ninguna regla que implique
resolver un problema de complejidad np. Debido a esto la expresividad del
lenguaje y su capacidad de generación automática se encuentra limitada. El
resultado es un compilador capaz de generar código de manera automática
en base a las especificaciones que el compilador es capaz de compilar. Este
proyecto es la base de los compiladores de programación automática. / Tesis
|
Page generated in 0.0432 seconds