• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 60
  • 43
  • 11
  • 11
  • 9
  • 8
  • 7
  • 4
  • 3
  • 3
  • 2
  • 1
  • Tagged with
  • 179
  • 179
  • 46
  • 37
  • 32
  • 27
  • 24
  • 24
  • 24
  • 23
  • 21
  • 20
  • 15
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Optimering av blåsmaskinstyrning på Bromma reningsverk / Optimization of blower control at Bromma wastewater treatment plant

Wikén, Moa January 2017 (has links)
The aeration step is the most energy consuming process in the wastewater treatment plant, i.e. making the energy usage in this step more efficient is of great concern both in Sweden and world wide. There are some examples of previous studies investigating ways to make the ae- ration control more efficient, though most of these have focused on for example ammonium feedback control rather than blower control which is the main focus of this study. Bromma wastewater treatment plant installed three new blowers in december 2016 functioning as suppliers of air to the aeration step in the bioreactor. Since there are still three old blowers operating at the WWTP, there is a need to control two different types of blowers efficiently. This is challenging since the two blower types have different capacities, efficiency and maxi- mum/minimum air flows and a control strategy that optimizes the operation of these two blower types combined needs to take this into account. Operational data for the blowers was used to generate a second grade polynome for each blower type which gives the efficiency as a function of produced air flow. These polynomes were further utilized to build a script in MATLAB that chooses the most efficient number of blowers operating and at what air flows for a certain total aeration need. The least square method was used to calibrate a model for calculating energy consumption for the simulated control strate- gy. Calculations for energy consumption from the current control strategy and another strategy proposed by the blower deliverer Sulzer were made in order to decide whether the optimized control strategy was an improvement or not. The simulation results and the calculations for energy consumption indicates that the current control strategy at Bromma WWTP is almost as effective as the optimized control strategy. Both strategies sets the new blowers at the first places in the queue. The optimized strategy appears to be more efficient for flows that requires both new and old blowers operating. From the calculations of energy consumption, it was shown that the control strategy from Sulzer de- mands an energy consumption on levels in between the one for the current control strategy and the optimized control strategy. / Luftningssteget är den mest energikrävande processen i ett avloppsreningsverk. Det finns därför incitament till att effektivisera energianvändningen då en minskad elförbrukning är positivt både ur ett ekonomiskt perspektiv och ur ett resursmässigt perspektiv. Energibesparingar från luftningssteget har undersökts tidigare genom att främst studera optimering av syreregleringen och luftregulatorn. Det här projektet syftar till att uppnå en minskad effektförbrukning på Bromma reningsverk genom att optimera blåsmaskinsregulatorn, ett mer outforskat forskningsfält.  På Bromma reningsverk installerades den 16 december 2016 tre nya blåsmaskiner som ska försörja luftningssteget i den biologiska reningen med luft. Det innebär att det finns två olika typer av blåsmaskiner som är i drift på Bromma: den gamla modellen (HST9000) och den nya modellen (HST40). Då dessa två olika typer av blåsmaskiner har olika kapacitet och verkningsgrad är det viktigt att blåsmaskinsregulatorn använder en styrstrategi som ställer dessa maskiner i kö på ett optimalt energieffektivt sätt. Det är även viktigt att i så stor utsträckning som möjligt låta maskinerna generera luftflöden nära sin högsta verkningsgrad.  Driftinformation för blåsmaskinerna användes för att med hjälp av beräkningar i MATLAB kunna välja ut det effektivaste antalet maskiner i drift, avgöra vilken typ av maskiner som ska användas samt vilket luftflöde respektive maskin ska generera vid ett specifikt luftflödesbehov. Målet var att hitta en optimal styrstrategi för Bromma reningsverk, samt att undersöka om det fanns möjligheter till energibesparingar jämfört med nuvarande implementerade styrstrategi. Effektförbrukningsberäkningar gjordes för både den simulerade optimerade styrstrategin och den nuvarande. Ytterligare en styrstrategi, föreslagen av blåsmaskinsleverantören Sulzer, undersöktes också ur ett energiförbrukningsperspektiv för jämförelse.  Resultatet av simuleringen och effektberäkningen indikerar att den nuvarande styrningen i princip är lika energieffektiv som den simulerade optimala styrningen. I båda fallen kopplas de nya maskinerna in i första hand. Dock visar resultatet på att den simulerade styrningen är effektivare vid flöden där det krävs att de gamla blåsmaskinerna sätts i drift. Sulzers föreslagna styrstrategi är mer energieffektiv än nuvarande styrning, men inte lika effektiv som den optimerade styrstrategin.
152

Positioning in wireless networks:non-cooperative and cooperative algorithms

Destino, G. (Giuseppe) 06 November 2012 (has links)
Abstract In the last few years, location-awareness has emerged as a key technology for the future development of mobile, ad hoc and sensor networks. Thanks to location information, several network optimization strategies as well as services can be developed. However, the problem of determining accurate location, i.e. positioning, is still a challenge and robust algorithms are yet to be developed. In this thesis, we focus on the development of distance-based non-cooperative and cooperative algorithms, which is derived based on a non-parametric non- Bayesian framework, specifically with a Weighted Least Square (WLS) optimization. From a theoretic perspective, we study the WLS problem and establish the optimality through the relationship with a Maximum Likelihood (ML) estimator. We investigate the fundamental limits and derive the consistency conditions by creating a connection between Euclidean geometry and inference theory. Furthermore, we derive the closed-form expression of a distance-model based Cramér-Rao Lower Bound (CRLB), as well as the formulas, that characterize information coupling in the Fisher information matrix. Non-cooperative positioning is addressed as follows. We propose a novel framework, namely the Distance Contraction, to develop robust non-cooperative positioning techniques. We prove that distance contraction can mitigate the global minimum problem and structured distance contraction yields nearly optimal performance in severe channel conditions. Based on these results, we show how classic algorithms such as the Weighted Centroid (WC) and the Non-Linear Least Square (NLS) can be modified to cope with biased ranging. For cooperative positioning, we derive a novel, low complexity and nearly optimal global optimization algorithm, namely the Range-Global Distance Continuation method, to use in centralized and distributed positioning schemes. We propose an effective weighting strategy to cope with biased measurements, which consists of a dispersion weight that captures the effect of noise while maximizing the diversity of the information, and a geometric-based penalty weight, that penalizes the assumption of bias-free measurements. Finally, we show the results of a positioning test where we employ the proposed algorithms and utilize commercial Ultra-Wideband (UWB) devices. / Tiivistelmä Viime vuosina paikkatietoisuudesta on tullut eräs merkittävä avainteknologia mobiili- ja sensoriverkkojen tulevaisuuden kehitykselle. Paikkatieto mahdollistaa useiden verkko-optimointistrategioiden sekä palveluiden kehittämisen. Kuitenkin tarkan paikkatiedon määrittäminen, esimerkiksi kohteen koordinaattien, on edelleen vaativa tehtävä ja robustit algoritmit vaativat kehittämistä. Tässä väitöskirjassa keskitytään etäisyyspohjaisten, yhteistoiminnallisten sekä ei-yhteistoiminnallisten, algoritmien kehittämiseen. Algoritmit pohjautuvat parametrittömään ei-bayesilaiseen viitekehykseen, erityisesti painotetun pienimmän neliösumman (WLS) optimointimenetelmään. Väitöskirjassa tutkitaan WLS ongelmaa teoreettisesti ja osoitetaan sen optimaalisuus todeksi tarkastelemalla sen suhdetta suurimman todennäköisyyden (ML) estimaattoriin. Lisäksi tässä työssä tutkitaan perustavanlaatuisia raja-arvoja sekä johdetaan yhtäpitävyysehdot luomalla yhteys euklidisen geometrian ja inferenssiteorian välille. Väitöskirjassa myös johdetaan suljettu ilmaisu etäisyyspohjaiselle Cramér-Rao -alarajalle (CRLB) sekä esitetään yhtälöt, jotka karakterisoivat informaation liittämisen Fisherin informaatiomatriisiin. Väitöskirjassa ehdotetaan uutta viitekehystä, nimeltään etäisyyden supistaminen, robustin ei-yhteistoiminnallisen paikannustekniikan perustaksi. Tässä työssä todistetaan, että etäisyyden supistaminen pienentää globaali minimi -ongelmaa ja jäsennetty etäisyyden supistaminen johtaa lähes optimaaliseen suorituskykyyn vaikeissa radiokanavan olosuhteissa. Näiden tulosten pohjalta väitöskirjassa esitetään, kuinka klassiset algoritmit, kuten painotetun keskipisteen (WC) sekä epälineaarinen pienimmän neliösumman (NLS) menetelmät, voidaan muokata ottamaan huomioon etäisyysmittauksen harha. Yhteistoiminnalliseksi paikannusmenetelmäksi johdetaan uusi, lähes optimaalinen algoritmi, joka on kompleksisuudeltaan matala. Algoritmi on etäisyyspohjainen globaalin optimoinnin menetelmä ja sitä käytetään keskitetyissä ja hajautetuissa paikannusjärjestelmissä. Lisäksi tässä työssä ehdotetaan tehokasta painotusstrategiaa ottamaan huomioon mittausharha. Strategia pitää sisällään dispersiopainon, joka tallentaa häiriön aiheuttaman vaikutuksen maksimoiden samalla informaation hajonnan, sekä geometrisen sakkokertoimen, joka rankaisee harhattomuuden ennakko-oletuksesta. Lopuksi väitöskirjassa esitetään tulokset kokeellisista mittauksista, joissa ehdotettuja algoritmeja käytettiin kaupallisissa erittäin laajakaistaisissa (UWB) laitteissa.
153

Abondance et origine trophique de la noctuelle de la tomate (Helicoverpa armigera) dans les paysages ruraux de production cotonnière au Nord Bénin / Abundance and trophic origin of the Cotton Bollworm (Helicoverpa armigera) in cotton producing farmland of North Benin

Tsafack-Menessong, Noëlline 10 July 2014 (has links)
Mettre en place des stratégies de lutte contre les ravageurs, indépendantes des produits chimiques est un objectif fondamental pour une protection durable des cultures contre les ravageurs et la conservation d’un environnement sain pour les populations humaines en zone rurale. L’objectif principal de ce travail était de contribuer à la mise en place d’une lutte biologique par gestion des habitats à l’échelle du paysage de la noctuelle polyphage Helicoverpa armigera, principal ravageur de cotonnier dans le nord Bénin. Cette thèse visait à analyser l’influence des pratiques agricoles et de l’organisation du paysage sur l’abondance et l’origine trophique de H. armigera. L’analyse biochimique d’individus élevés en laboratoire, nous a permis de confirmer le fait que le gossypol est un bon marqueur pour identifier les adultes qui ont passé leur vie larvaire sur le cotonnier. Au contraire de la tomatine qui ne peut être considérée comme un marqueur de la tomate car la tomatine a été détectée seulement chez les larves d’H. armigera et non chez les adultes. Notre étude sur le terrain au nord Bénin dans 40 parcelles, a montré que les pratiques agricoles avaient un fort effet sur l’infestation larvaire. La date de semis et la fréquence de sarclage étaient négativement corrélées à l’infestation larvaire. La proportion de cotonniers dans le paysage et celle de tomate ont influencé positivement l’infestation en larves d’H. armigera. Nous avons également montré qu’un précédent cultural tomate présentait une abondance larvaire en moyenne trois fois supérieur à un précédent cultural maïs. Ensuite, dans des rayons de 100 m, 250 m et 500 m, nous avons étudié les effets de la composition et de l’hétérogénéité du paysage d’une part sur l’abondance des adultes d’H. armigera et d’autre part sur leur origine trophique. L’hétérogénéité du paysage en plantes hôtes est le facteur paysager principal qui a influencé positivement l’abondance des adultes. Les isotopes stables de Carbone nous ont permis d’identifier les individus dont la larve s’était nourrie sur des plantes de type photosynthétique C3 (cotonniers, tomates, ...) ou C4 (maïs, sorgho, …). L’origine trophique, plantes hôtes C3 ou C4, est reliée positivement à la proportion de plantes hôtes respectivement C3 ou C4 dans un rayon de 500m. Seulement 10% des individus ayant consommés des plantes en C3 ont été détecté positif au gossypol. La proportion de cotonniers dans le paysage ne semble pas expliquer la proportion d’individus détectés positif au gossypol. Nous formulons des propositions de gestion de l’assolement et des rotations culturales pour contribuer à la régulation d’H. armigera. Ainsi, il faudrait éviter que le cotonnier soit semé sur un précédent cultural tomate. Il serait important de décaler les dates de semis entre les parcelles de cotonniers voisines et de respecter la fréquence de sarclage minimale qui est de trois. Par ailleurs, il serait judicieux de préférer un environnement paysager homogène autour d’une parcelle de cotonnier, en privilégiant par exemple, le maïs. / The development of strategies independent of pesticides is a fundamental objective for sustainable crop protection against pests as well as for maintaining of a healthy environment for human populations. The rationale of the research presented here was to improve our ability to control the cotton bollworm, Helicoverpa armigera by non-pesticide methods via habitat conservation. We analyzed the influence of agricultural practices and landscape composition and diversity on the abundance and trophic origin of H. armigera and assessed gossypol and tomatine in individual H. armigera as cotton and tomato biomarkers respectively. Gossypol was shown to be a stable cotton biomarker, even in adult H. armigera 12 days after emergence. In contrast, tomatine was only detected in larvae of H. armigera and not adults; thereby tomatine can not be considered as a marker of tomato plants. Subsequently, in north Benin, the abundance of H. armigera larvae and adults was monitored in cotton fields. We found a strong effect of agricultural practices on H. armigera larvae abundance. Delay sowing date and increase frequency of weeding reduced the abundance of H. armigera in cotton fields; whereas the proportion of cotton and tomato in the landscape increased. This study also highlights the role of the previous landcover in the infestation of a cotton field: A previous tomato landcover increased infestation three times more than a previous maize landcover. At nested scales ranging from 100 m, 250 m to 500 m, we studied the effects of landscape composition and diversity firstly on the abundance of adult H. armigera and secondly on their trophic origin. We found that, landscape diversity was the main factor that influenced both the abundance adult and their trophic origin at 500 m scale. Analyses of stables isotopes of Carbone showed that proportion of hosts plants with C3 photosynthetic pathway in the landscape was positively related to H. armigera moths with C3 trophic origin signal at 500 m scale. Only 10% of moths were positive to gossypol signal. The proportion of cotton in the landscape seems not important to explain the trophic origin of individual which were positive to gossypol signal. Therefore, for integrated management of H. armigera our results suggest it is necessary to consider the following agricultural practices and crop diversity regimes (in regard to the resource use strategies of this polyphagous pest). A tomato previous landcover should be avoid; shift sowing date between cotton fields, and have at less three manual weedings. In additional, we suggest employing maize around cotton fields rather than other crops.
154

Estudio de la integración de procedimientos multivariantes para la regulación óptima y monitorización estadística de procesos

Barceló Cerdá, Susana 04 May 2016 (has links)
[EN] Statistical Process Control (SPC) and the Automatic Process Control (APC) are two control philosophies have evolved independently until recently. The overall objective of both APC and SPC is to optimize the performance of processes, reducing the variability of the resulting characteristics around the desired values. The fundamentals of the two disciplines arise from the idea that the whole process has operation variations. These variations may affect, to a greater or lesser extent, the final product quality and the process productivity. The two methodologies conceptualize processes and control in different ways, they originated in different industrial sectors and have evolved independently, until the interest to integrate them in the control of industrial processes was deduced. It was warned that they could be complementary rather than conflicting methodologies as they were understood until then. The possibility of combining the advantages of both, integrating them into a new control paradigm was explored. First, the problem of identifying and estimating a process model is considered. Controlled variables in this model are the main feature of product quality and a productivity variable. The latter is innovative since the productivity variables are measured, but they are not considered as controlled variables. For this, two methods of multivariate time series are used, the Box-Jenkins multiple transfer function in the parsimonious way and the impulse response function obtained by Partial Least Squares regression (Time Series-Partial Least Squares, TS-PLS). These two methods were compared taking into account different aspects such as the simplicity of the modeling process in the stages of identification, estimation and model validation, as well as the utility of graphical tools that provide both methodologies, the goodness of fit obtained, and the simplicity of the mathematical structure of the model. The DMC (Dynamic Matrix Control) controller, an automatic control algorithm belonging to the family of MPC (Model Predictive Control) controllers, is derived from the estimated Box-Jenkins multiple transfer function that has been selected as the most suitable for this kind of processes. An optimal tuning method to maximize the controller performance, applying experimental design 2k-p, is presented. Finally, an integrated control system MESPC (Multivariate Engineering Statistical Process Control) whose monitoring component has been implemented applying latent structures based multivariate statistical process control methods (Lsb-MSPC), has been developed. The monitoring module is designed to act as both process and DMC controller supervisor. To do this, we estimate a NOC-PCA model (Normal Operation Conditions Principal Component Analysis), which has as variables both process-related and quality-related variables, all derived from the automatic control system. From this model, and DModX graphics have been derived. We assessed the performance of MESPC system, subjecting it to simulated potential failures or special causes of variability. / [ES] El Control Estadístico de Procesos (Statistical Process Control, SPC) y el Control Automático de Procesos (Automatic Process Control, APC) son dos filosofías de control se han desarrollado hasta recientemente de forma independiente. El objetivo general tanto del SPC como del APC, es optimizar el funcionamiento de los procesos, reduciendo la variabilidad de las características resultantes en torno a los valores deseados. El fundamento de ambas disciplinas, parte de la idea de que todo proceso presenta variaciones en su funcionamiento. Estas variaciones pueden afectar en mayor o en menor medida a la calidad final del producto y a la productividad del proceso. Las dos metodologías conceptualizan los procesos y su control de diferentes formas, se originaron en diferentes sectores industriales y han evolucionado de forma independiente, hasta que se dedujo el interés de integrarlas en el control de los procesos industriales, ya que se advirtió que podían ser complementarias, antes que contrapuestas, como se entendían hasta entonces y se exploró la posibilidad de aunar las ventajas de ambas, integrándolas en un nuevo paradigma de control. Esta tesis se centra en el estudio de la integración de procedimientos multivariantes para la regulación óptima y la monitorización estadística de procesos, con el propósito de contribuir a la mejora de la calidad y de la productividad de los procesos. La metodología propuesta se ha aplicado con fines ilustrativos a un proceso MIMO de producción en continuo de Polietileno de Alta Densidad (PEAD).En primer lugar, se considera el problema de la identificación y posterior estimación de un modelo del proceso. Las variables controladas en este modelo han sido la principal característica de calidad del producto y una variable de productividad, esto último es innovador puesto que las variables de productividad se miden, pero no se consideran variables controladas. Para ello, se emplean dos metodologías de series temporales multivariantes, la obtención de la función de transferencia múltiple en forma parsimoniosa de Box-Jenkins y la obtención de la función de respuesta a impulsos mediante los modelos de regresión por mínimos cuadrados parciales (Time Series-Partial Least Squares, TS-PLS). Estas dos metodologías se han comparado teniendo en cuenta distintos aspectos como son la simplicidad del proceso de modelado en las etapas de identificación, estimación y validación del modelo, así como la utilidad de las herramientas gráficas que proporcionan ambas metodologías, la bondad de ajuste obtenida, y la simplicidad de la estructura matemática del modelo. A partir del modelo de función de transferencia múltiple estimado, elegido como el más adecuado para este tipo de procesos, se desarrolla el controlador DMC (Dynamic Matrix Control), un algoritmo de control automático que pertenece a la familia del Control Predictivo basado en Modelos (Model Predictive Control, MPC). Se presenta un método de sintonizado óptimo del controlador que permita maximizar su rendimiento, aplicando diseño de experimentos 2k-p.Finalmente, se ha desarrollado un sistema de control integrado MESPC (Multivariate Engineering Statistical Process Control), cuya componente de monitorización se ha implementado aplicando métodos de control estadístico multivariante de procesos basados en técnicas de proyección en estructuras latentes. Este módulo de monitorización se ha diseñado para que actúe como supervisor tanto del proceso como del controlador DMC. Para ello, se ha estimado un modelo NOC-PCA (Normal Operation Conditions Principal Component Analysis), en el que han intervenido tanto variables relacionadas con el proceso como con la calidad, todas derivadas de la componente del control automático. A partir de este modelo se han derivado los gráficos y DModX. Se ha evaluado el funcionamiento del sistema MESPC, sometiéndolo a fallos potenciales o causas especiales de variabiliabilidad. / [CAT] El Control Estadístic de Processos (Statistical Process Control, SPC) i del Control Automàtic de Processos (Automatic Process Control, APC) son dues filosofies de control s'han desenvolupat fins a recentment de forma independent. L'objectiu general tant del SPC com del APC, és optimitzar el funcionament dels processos, reduint la variabilitat de les característiques resultants entorn dels valors desitjats. El fonament d'ambdues disciplines, part de la idea que tot procés presenta variacions en el seu funcionament. Aquestes variacions poden afectar en major o en menor mesura a la qualitat final del producte i a la productivitat del procés. Les dues metodologies conceptualitzen els processos i el seu control de diferents formes, es van originar en diferents sectors industrials i han evolucionat de forma independent, fins que es va deduir l'interès d'integrar-les en el control dels processos industrials, ja que es va advertir que podien ser complementàries, abans que contraposades, com s'entenien fins llavors i es va explorar la possibilitat de conjuminar els avantatges d'ambdues, integrant-les en un nou paradigma de control. Aquesta tesi se centra en l'estudi de la integració de procediments multivariants per a la regulació òptima i el monitoratge estadístic de processos amb el propòsit de contribuir a la millora de la qualitat i de la productivitat dels processos. La metodologia proposada s'ha aplicat amb finalitats il·lustratives a un procés MIMO de producció en continu de Polietilè d'Alta Densitat (PEAD). En primer lloc, es considera el problema de la identificació i posterior estimació d'un model del procés. Les variables controlades en aquest model han sigut la principal característica de qualitat del producte i una variable de productivitat, açò últim és innovador ja que les variables de productivitat es mesuren, però no es consideren variables controlades. Per a açò, s'utilitzen dues metodologies de sèries temporals multivariants, l'obtenció de la funció de transferència múltiple en forma parsimòniosa de Box-Jenkins i l'obtenció de la funció de resposta a impulsos mitjançant els models de regressió per mínims quadrats parcials (Times Series-Partial Least Squares, TS-PLS). Aquestes dues metodologies s'han comparat tenint en compte diferents aspectes com són la simplicitat del procés de modelatge en les etapes d'identificació, estimació i validació del model, així com la utilitat de les eines gràfiques que proporcionen ambdues metodologies, la bondat d'ajust obtinguda, i la simplicitat de l'estructura matemàtica del model. A partir del model de funció de transferència múltiple estimat, triat com el més adequat per a aquest tipus de processos, es desenvolupa el controlador DMC (Dynamic Matrix Control), un algorisme de control automàtic que pertany a la família del Control Predictiu basat en Models (Model Predictive Control, MPC). Es presenta un mètode de sintonitzat òptim del controlador que permeta maximitzar el seu rendiment, aplicant disseny d'experiments 2k-p. Finalment, s'ha desenvolupat un sistema de control integrat MESPC (Multivariate Engineering Statistical Process Control). Per a implementar la component de monitoratge d'aquest sistema integrat s'han usat mètodes de control estadístic multivariants de processos basats en tècniques de projecció en estructures latents (Latent structures based-Multivariate Statistical Process Control). Aquest mòdul de monitoratge s'ha dissenyat perquè actue com a supervisor tant del procés com del controlador DMC. Per a açò, s'ha estimat un model NOC-PCA (Normal Operation Conditions Principal Component Analysis), en el qual han intervingut variables relacionades tant amb el procés, com amb la qualitat, totes derivades de la component del control automàtic. A partir d'aquest model s'han derivat els gràfics i DModX. S'ha avaluat el funcionament del sistema MESPC, sotmetent-lo a fallades potencials o causes especials de / Barceló Cerdá, S. (2016). Estudio de la integración de procedimientos multivariantes para la regulación óptima y monitorización estadística de procesos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63442 / TESIS
155

LIDAR a stereokamera v lokalizaci mobilních robotů / LIDAR and Stereocamera in Localization of Mobile Robots

Vyroubalová, Jana January 2017 (has links)
LIDAR (2D) has been widely used for mapping, localization and navigation in mobile robotics. However, its usage is limited to simple environments. This problem can be solved by adding more sensors and processing these data together. This paper explores a method how measurements from a stereo camera and LIDAR are fused to dynamical mapping. An occupancy grid map from LIDAR data is used as prerequisite and extended by a 2D grid map from stereo camera. This approach is based on the ground plane estimation in disparity map acquired from the stereo vision. For the ground plane detection, RANSAC and Least Squares methods are used. After obstacles determination, 2D occupancy map is generated. The output of this method is 2D map as a fusion of complementary maps from LIDAR and camera. Experimental results obtained from RUDA robot and MIT Stata Center Data Set are good enough to determine that this method is a benefit, although my implementation is still a prototype. In this paper, we present the applied methods, analyze the results and discuss the modifications and possible extensions to get better results.
156

Identifikace 3D objektů pro robotické aplikace / Identification of 3D objects for Robotic Applications

Hujňák, Jaroslav January 2020 (has links)
This thesis focuses on robotic 3D vision for application in Bin Picking. The new method based on Conformal Geometric Algebra (CGA) is proposed and tested for identification of spheres in Pointclouds created with 3D scanner. The speed, precision and scalability of this method is compared to traditional descriptors based method. It is proved that CGA maintains the same precision as the traditional method in much shorter time. The CGA based approach seems promising for the use in the future of robotic 3D vision for identification and localization of spheres.
157

Detekce zubů na 3D počítačovém polygonálním modelu čelisti / Tooth Detection of jaw 3D Computer Polygonal Model

Kantor, Roman January 2012 (has links)
This document discusses a problem of tooth detection on jaw 3D polygonal model. It describes known methods that can be used to reach expected results, such as their advantages and disadvantages. Considering this, I choose one solution that is closely described with all theory needed for its implementation.
158

Análisis y desarrollo de algoritmos de altas prestaciones para reconstrucción de imagen médica TAC 3D basados en la reducción de dosis.

Chillarón Pérez, Mónica 21 January 2022 (has links)
Tesis por compendio / [ES] La prueba médica de Tomografía Computarizada (TC) es esencial actualmente en la práctica clínica para el diagnóstico y seguimiento de múltiples enfermedades y lesiones, siendo una de las pruebas de imagen médica más importante por la gran cantidad de información que es capaz de aportar. Sin embargo, a diferencia de otros métodos de diagnóstico por imagen que son inocuos, la prueba de TC utiliza rayos X, que son ionizantes, por lo que suponen un riesgo para los pacientes. Es por ello que es necesario desarrollar métodos que permitan reducir la dosis de radiación a la que se expone a los pacientes que se realizan un estudio, sin comprometer la calidad de imagen puesto que sino se estaría sometiendo a un riesgo a estas personas sin que un diagnóstico de calidad esté garantizado. Durante el desarrollo de esta tesis se han investigado métodos de reconstrucción de imagen TC que se basan en reducir el número de proyecciones usadas, con el objetivo de reducir el tiempo de exposición a los rayos X. Esta estrategia de reducción de dosis está en fase de investigación, a diferencia de otras que están implantadas en la práctica clínica y ya han sido desarrolladas por los propios fabricantes de los escáneres. Por tanto, nos hemos centrado en los llamados métodos algebraicos de reconstrucción, que son los más apropiados para este tipo de adquisición de proyecciones puesto que son capaces de trabajar con menos información que los métodos clásicos conservando una buena calidad de imagen. En concreto, se ha estudiado a fondo el comportamiento del método LSQR para la resolución de este problema, combinado con una técnica de filtrado llamada Soft Thresholding Filter y una técnica de aceleración llamada FISTA. Además, se ha introducido el filtro de imagen Bilateral que es capaz de mejorar la calidad de las imágenes cuando se combina con los métodos anteriores. El estudio multiparamétrico realizado se ha llevado a cabo en un entorno de computación distribuida Grid, para analizar cómo los distintos parámetros que intervienen en el proceso de reconstrucción pueden influir sobre la imagen resultado. Dicho estudio se ha diseñado para hacer uso de la potencia de cómputo de la plataforma distribuida aunque el software que se necesita no esté disponible. La instalación de dicho software se puede realizar en el tiempo de ejecución de los trabajos, o en se puede empaquetar en una imagen que estará instalada en un contenedor Docker, lo que es una opción muy interesante para sistemas donde no tengamos privilegios. El esquema seguido para la creación y lanzamiento de los trabajos es fácilmente reproducible. Por otra parte, se han planteado dos métodos algebraicos directos para la reconstrucción de TC basados en la factorización de la matriz que modela el sistema. El primero es el método SVD, que se ha probado mediante la librería SLEPc, obteniendo mayores tasas de uso de memoria principal, por lo que ha sido descartado en favor del método QR. La primera aproximación a la resolución se ha hecho mediante la librería SuiteSparseQR, desarrollando después un método propio siguiendo la técnica Out-Of-Core que permite almacenar las matrices en el propio disco duro en lugar de cargarlas en memoria, por lo que el tamaño del problema puede aumentar sin que el coste del hardware sea muy alto. Dicho método obtiene reconstrucciones de alta calidad cuando el rango de la matriz factorizada es completo. En los resultados se muestra como para una resolución alta, garantizar el rango completo todavía supone una reducción del número de proyecciones con respecto a métodos tradicionales. Por tanto, en esta tesis se ha llevado a cabo la investigación y el posterior desarrollo mediante librerías y técnicas de computación de Altas Prestaciones de varios métodos algebraicos de reconstrucción de TC basados en la reducción de proyecciones que permiten mantener una buena calidad de imagen. Dichos métodos han sido optimizados para lograr los menores tiempos de reconstrucción posibles, con el fin de hacerlos competitivos y que algún día puedan ser instaurados en la práctica clínica. / [CA] Actualment, la prova mèdica de tomografia computeritzada (TC) és essencial en la pràctica clínica per al diagnòstic i el seguiment de múltiples malalties i lesions, sent una de les proves d'imatge mèdica més importants a causa de la gran quantitat d'informació que és capaç d'oferir. Tanmateix, a diferència d'altres mètodes d'imatge médica, la prova CT utilitza raigs X, que són ionitzants i suposen un risc per als pacients. Per això, és necessari desenvolupar mètodes que permetin reduir la dosi de radiació a la qual estan exposats els pacients sotmesos a un estudi, sense comprometre la qualitat de la imatge, ja que en cas contrari estarien sotmetent a aquestes persones a un risc sense que es garantís l'avantatge d'un diagnòstic d'alta qualitat. Durant el desenvolupament d'aquesta tesi, s'han investigat diversos mètodes de reconstrucció d'imatges CT basats en la reducció del nombre de projeccions utilitzades, amb l'objectiu de reduir el temps d'exposició als raigs X. Aquesta estratègia de reducció de dosis es troba en fase investigació, a diferència d'altres que s'implementen a la pràctica clínica i que ja han estat desenvolupades pels propis fabricants d'escàners. Per tant, ens hem centrat en els anomenats mètodes de reconstrucció algebraica, que són els més adequats per a aquest tipus d'adquisició de projecció, ja que són capaços de treballar amb menys informació que els mètodes clàssics mantenint una bona qualitat d'imatge. Concretament, s'ha estudiat a fons el comportament del mètode LSQR per resoldre aquest problema, combinat amb una tècnica de filtratge anomenada Soft Thresholding Filter i una tècnica d'acceleració anomenada FISTA. A més, s'ha introduït un filtre d'imatges anomenat filtre bilateral, que és capaç de millorar la qualitat de les imatges quan es combina amb els mètodes anteriors. L'estudi multiparamètric de LSQR es va dur a terme en un entorn informàtic distribuït Grid, per analitzar com els diferents paràmetres implicats en el procés de reconstrucció poden influir en la imatge resultant. Aquest estudi ha estat dissenyat per fer ús de la potència de càlcul de la plataforma distribuïda encara que el programari requerit no estigui disponible. La instal·lació d'aquest programari es pot fer en el moment d'executar els treballs o es pot empaquetar en una imatge que s'instal·larà en un contenidor Docker, que és una opció molt interessant per a sistemes on no tenim privilegis. L'esquema seguit per a la creació i el llançament dels treballs es pot reproduir fàcilment per a estudis multiparamètrics d'aquest tipus. D'altra banda, s'han proposat dos mètodes algebraics directes per a la reconstrucció CT basats en la factorització de la matriu que modela el sistema. El primer és el mètode SVD, que s'ha provat mitjançant la biblioteca SLEPc, obtenint taxes d'ús més alt de memòria principal, motiu pel qual s'ha descartat a favor del mètode QR. La primera aproximació a la resolució s'ha fet a través de la biblioteca SuiteSparseQR, desenvolupant posteriorment la nostra pròpia implementació mitjançant la tècnica Out-Of-Core que permet emmagatzemar les matrius al disc dur en lloc de carregar-les a la memòria, de manera que la mida de el problema pot augmentar sense que el cost del maquinari sigui molt alt. Aquest mètode obté reconstruccions d'alta qualitat quan el rang de la matriu factoritzada és complet. En els resultats es demostra que per a una alta resolució, garantir el rang complet encara significa una reducció del nombre de projeccions en comparació amb els mètodes tradicionals. Per tant, en aquesta tesi s'ha dut a terme la investigació i el desenvolupament posterior de diversos mètodes de reconstrucció algebraica de CT mitjançant biblioteques i tècniques de computació d'altes prestacions. Aquests mètodes basats en la reducció de projeccions, que permeten mantenir una bona qualitat d’imatge, s’han optimitzat per aconseguir els temps de reconstrucció més breus possibles, per tal de fer-los competitius perquè algun dia puguin implementarse a la pràctica clínica. / [EN] The Computerized Tomography (CT) medical test is currently essential in clinical practice for the diagnosis and monitoring of multiple diseases and injuries, being one of the most important medical imaging tests due to the large amount of information it is capable of providing. However, unlike other safe imaging methods, the CT test uses X-rays, which are ionizing, posing a risk to patients. That is why it is necessary to develop methods that allow reducing the radiation dose to which patients undergoing a study are exposed, without compromising image quality since otherwise they would be subjecting these people to a risk without the benefit of a high-quality diagnosis being guaranteed. During the development of this thesis, several CT image reconstruction methods that are based on reducing the number of projections used have been investigated, with the aim of reducing the time of exposure to X-rays. This dose reduction strategy is in research phase, unlike others that are implemented in clinical practice and have already been developed by the scanner manufacturers themselves. Therefore, we have focused on the algebraic reconstruction methods, which are the most appropriate for this type of projection acquisition since they are capable of working with less information than the classical methods while maintaining good image quality. Specifically, the behavior of the LSQR method to solve this problem has been thoroughly studied, combined with a filtering technique called Soft Thresholding Filter and an acceleration technique called FISTA. In addition, the so-called Bilateral filter has been introduced, which is capable of improving the quality of images when combined with the above methods. The multiparametric LSQR study was carried out in a Grid distributed computing environment, to analyze how the different parameters involved in the reconstruction process can influence the resulting image. This study has been designed to make use of the computing power of the distributed platform even if the software required is not available. The installation of said software can be done at the time of execution of the jobs, or it can be packaged in an image that will be installed in a Docker container, which is a very interesting option for systems where we do not have privileges. The scheme followed for the creation and launch of the jobs is easily reproducible for multiparametric studies of this type. On the other hand, two direct algebraic methods have been proposed for CT reconstruction based on the factorization of the matrix that models the system. The first is the SVD method, which has been tested using the SLEPc library, obtaining higher rates of main memory usage, which is why it has been discarded in favor of the QR method. The first approximation to the resolution has been made through the SuiteSparseQR library, later developing our own implementation using the Out-Of-Core technique that allows the matrices to be stored on the hard drive itself instead of loading them in memory, so the size of the problem can increase without the cost of the hardware being very high. This method obtains high-quality reconstructions when the rank of the factored matrix is complete. In the results it is shown that for a high resolution, guaranteeing the full rank still means a reduction in the number of projections compared to traditional methods. Therefore, in this thesis, research and subsequent development of several algebraic CT reconstruction methods has been carried out using libraries and High Performance Computing techniques. These methods based on the reduction of projections, which allows maintaining good image quality, and have been optimized to achieve the shortest possible reconstruction times, in order to make them competitive so that one day they can be implemented in clinical practice. / This research has been supported by Universitat Politècnica de València and partially funded by TIN2015-66972-C5-4-R, ENE2014-59442-P-AR and TIN2013-44390-R projects of the "Ministerio de Economía y Competitividad" of Spain, as well as the Spanish ”Generalitat Valenciana” PROMETEOII/2014/008, PROMETEO/2018/035 projects and ACIF/2017/075 predoctoral grant. This work has also been co-financed by FEDER and FSE funds, and the “Spanish Ministry of Science, Innovation and Universities” under Grant RTI2018-098156-B-C54 / Chillarón Pérez, M. (2021). Análisis y desarrollo de algoritmos de altas prestaciones para reconstrucción de imagen médica TAC 3D basados en la reducción de dosis [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/180116 / TESIS / Compendio
159

Some Inferential Results for One-Shot Device Testing Data Analysis

So, Hon Yiu January 2016 (has links)
In this thesis, we develop some inferential results for one-shot device testing data analysis. These extend and generalize existing methods in the literature. First, a competing-risk model is introduced for one-shot testing data under accelerated life-tests. One-shot devices are products which will be destroyed immediately after use. Therefore, we can observe only a binary status as data, success or failure, of such products instead of its lifetime. Many one-shot devices contain multiple components and failure of any one of them will lead to the failure of the device. Failed devices are inspected to identify the specific cause of failure. Since the exact lifetime is not observed, EM algorithm becomes a natural tool to obtain the maximum likelihood estimates of the model parameters. Here, we develop the EM algorithm for competing exponential and Weibull cases. Second, a semi-parametric approach is developed for simple one-shot device testing data. Semi-parametric estimation is a model that consists of parametric and non-parametric components. For this purpose, we only assume the hazards at different stress levels are proportional to each other, but no distributional assumption is made on the lifetimes. This provides a greater flexibility in model fitting and enables us to examine the relationship between the reliability of devices and the stress factors. Third, Bayesian inference is developed for one-shot device testing data under exponential distribution and Weibull distribution with non-constant shape parameters for competing risks. Bayesian framework provides statistical inference from another perspective. It assumes the model parameters to be random and then improves the inference by incorporating expert's experience as prior information. This method is shown to be very useful if we have limited failure observation wherein the maximum likelihood estimator may not exist. The thesis proceeds as follows. In Chapter 2, we assume the one-shot devices to have two components with lifetimes having exponential distributions with multiple stress factors. We then develop an EM algorithm for developing likelihood inference for the model parameters as well as some useful reliability characteristics. In Chapter 3, we generalize to the situation when lifetimes follow a Weibull distribution with non-constant shape parameters. In Chapter 4, we propose a semi-parametric model for simple one-shot device test data based on proportional hazards model and develop associated inferential results. In Chapter 5, we consider the competing risk model with exponential lifetimes and develop inference by adopting the Bayesian approach. In Chapter 6, we generalize these results on Bayesian inference to the situation when the lifetimes have a Weibull distribution. Finally, we provide some concluding remarks and indicate some future research directions in Chapter 7. / Thesis / Doctor of Philosophy (PhD)
160

Socio-economic factors that affect livestock numbers : a case study of smallholder cattle and sheep farmers in the Free State province of South Africa

Ogunkoya, Folasade Temitope 05 1900 (has links)
The study was conducted across the four district municipalities in the Free State province of South Africa. The objective of the study was to determine socio-economic factors that affected livestock numbers among smallholder cattle and sheep farmers in the Free State province of South Africa. The research was qualitative and quantitative in nature. Proportionate random sampling method was used to collect data. The population comprised of smallholder cattle and sheep farmers that kept at least 30 livestock. Data between the 2008 and 2012 farming seasons were collected by administering well-structured questionnaires to 250 smallholder cattle and sheep farmers. Data collected were captured and analysed using the statistical package for social sciences (SPSS version 22 of 2013) to obtain frequency, cross-tabulation, descriptive statistics and ordinary least square (OLS) regression. Descriptive statistics results indicated that lack of camp systems, drought prevalence, increased feed costs, poor veterinary interventions, insufficient breeding stock, high cost of fuel and transportation, lack of equipment, diseases, stock theft and pilfering, and insufficient grazing land were the prevalent factors that affected cattle and sheep farming in the province.The OLS regression results indicated that the variables that significantly affected livestock numbers were district, household size, livestock numbers in 2008, planted pastures, grazing land condition, grazing land acquisition, service, advice / training, veterinary services, purchase of dosing products and sales per year. The results also indicated that the majority (96.8%) of the smallholder cattle and sheep farmers would like to increase their livestock numbers. It was therefore recommended that extension and veterinary services should be strengthened in the study area. In addition, it was recommended that smallholder livestock farmers should be encouraged to plant pastures to reduce pressure on the natural veld and make forage available throughout the year. Lastly, as a recommendation, government should provide subsidies with distribution policies that will ensure that all smallholder livestock farmers can benefit. / Agriculture and  Animal Health / M. Sc. (Agriculture)

Page generated in 0.1084 seconds