• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 92
  • 79
  • 5
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 208
  • 52
  • 29
  • 27
  • 27
  • 26
  • 24
  • 22
  • 22
  • 21
  • 21
  • 19
  • 18
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Global optimisation of the car front-end geometry to minimise pedestrian head injury levels

Kianifar, Mohammed R., Campean, Felician 22 February 2019 (has links)
Yes / The paper presents a multidisciplinary design optimisation strategy for car front-end profile to minimise head injury criteria across pedestrian groups. A hybrid modelling strategy was used to simulate the car-pedestrian impact events, combining parametric modelling of front-car geometry with pedestrian models for the kinematics of crash impact. A space filling response surface modelling strategy was deployed to study the head injury response, with Optimal Latin Hypercube (OLH) Design of Experiments sampling and Kriging technique to fit response models. The study argues that the optimisation of the front-end car geometry for each of the individual pedestrian models, using evolutionary optimisation algorithms is not an effective global optimization strategy as the solutions are not acceptable for other pedestrian groups. Collaborative Optimisation (CO) multidisciplinary design optimisation architecture is introduced instead as a global optimisation strategy, and proven that it can enable simultaneous minimisation of head injury levels for all the pedestrian groups, delivering a global optimum solution which meets the safety requirements across the pedestrian groups.
72

Active distribution networks planning with integration of demand response

Mokryani, Geev 12 1900 (has links)
Yes / This paper proposes a probabilistic method for active distribution networks planning with integration of demand response. Uncertainties related to solar irradiance, load demand and future load growth are modelled by probability density functions. The method simultaneously minimizes the total operational cost and total energy losses of the lines from the point of view of distribution network operators with integration of demand response over the planning horizon considering active management schemes including coordinated voltage control and adaptive power factor control. Monte Carlo simulation method is employed to use the generated probability density functions and the weighting factor method is used to solve the multi-objective optimization problem. The effectiveness of the proposed method is demonstrated with 16-bus UK generic distribution system.
73

Advances in therapeutic risk management through signal detection and risk minimisation tool analyses

Nkeng, Lenhangmbong 02 1900 (has links)
Les quatre principales activités de la gestion de risque thérapeutique comportent l’identification, l’évaluation, la minimisation, et la communication du risque. Ce mémoire aborde les problématiques liées à l’identification et à la minimisation du risque par la réalisation de deux études dont les objectifs sont de: 1) Développer et valider un outil de « data mining » pour la détection des signaux à partir des banques de données de soins de santé du Québec; 2) Effectuer une revue systématique afin de caractériser les interventions de minimisation de risque (IMR) ayant été implantées. L’outil de détection de signaux repose sur la méthode analytique du quotient séquentiel de probabilité (MaxSPRT) en utilisant des données de médicaments délivrés et de soins médicaux recueillis dans une cohorte rétrospective de 87 389 personnes âgées vivant à domicile et membres du régime d’assurance maladie du Québec entre les années 2000 et 2009. Quatre associations « médicament-événement indésirable (EI) » connues et deux contrôles « négatifs » ont été utilisés. La revue systématique a été faite à partir d’une revue de la littérature ainsi que des sites web de six principales agences réglementaires. La nature des RMIs ont été décrites et des lacunes de leur implémentation ont été soulevées. La méthode analytique a mené à la détection de signaux dans l'une des quatre combinaisons médicament-EI. Les principales contributions sont: a) Le premier outil de détection de signaux à partir des banques de données administratives canadiennes; b) Contributions méthodologiques par la prise en compte de l'effet de déplétion des sujets à risque et le contrôle pour l'état de santé du patient. La revue a identifié 119 IMRs dans la littérature et 1,112 IMRs dans les sites web des agences réglementaires. La revue a démontré qu’il existe une augmentation des IMRs depuis l’introduction des guides réglementaires en 2005 mais leur efficacité demeure peu démontrée. / The four main components of therapeutic risk management (RM) consist of risk detection (identification), evaluation, minimisation, and communication. This thesis aims at addressing RM methodologies within the two realms of risk detection and risk minimisation, through the conduct of two distinct studies: i) The development and evaluation of a data mining tool to support signal detection using health care claims databases, and ii) A systematic review to characterise risk minimisation interventions (RMIs) implemented so far. The data mining tool is based on a Maximised Sequential Probability Ratio Test (MaxSPRT), using drug dispensing and medical claims data found in the Quebec health claims databases (RAMQ). It was developed and validated in a cohort of 87,389 community-dwelling elderly aged 66+, randomly sampled from all elderly drug plan members between 2000 and 2009. Four known drug-AE associations and two "negative" controls were used. The systematic review on RMIs is based on a literature search as well as a review of the websites of six main regulatory agencies. Types of RMIs have been summarized and implementation gaps identified. The data mining tool detected signals in one of four of the known drug-AE associations. Major contributions are: a) The first signal detection data mining tool applied to a Canadian claims database; b) Methodological improvements over published methods by considering the depletion of susceptibles effect and adjusting for overall health status to control for prescription channelling. The review yielded 119 distinct RMIs from the literature and 1,112 from the websites. The review demonstrated that an increase in RMI numbers among websites occurred since the introduction of guidances in 2005, but their effectiveness remains insufficiently examined.
74

Méthodes d’optimisation numérique pour le calcul de stabilité thermodynamique des phases / Numerical optimisation methods for the phase thermodynamic stability computation

Boudjlida, Khaled 27 September 2012 (has links)
La modélisation des équilibres thermodynamiques entre phases est essentielle pour le génie des procédés et le génie pétrolier. L’analyse de la stabilité des phases est un problème de la plus haute importance parmi les calculs d’équilibre des phases. Le calcul de stabilité décide si un système se présente dans un état monophasique ou multiphasique ; si le système se sépare en deux ou plusieurs phases, les résultats du calcul de stabilité fournissent une initialisation de qualité pour les calculs de flash (Michelsen, 1982b), et permettent la validation des résultats des calculs de flash multiphasique. Le problème de la stabilité des phases est résolu par une minimisation sans contraintes de la fonction distance au plan tangent à la surface de l’énergie libre de Gibbs (« tangent plane distance », ou TPD). Une phase est considérée comme étant thermodynamiquement stable si la fonction TPD est non- négative pour tous les points stationnaires, tandis qu’une valeur négative indique une phase thermodynamiquement instable. La surface TPD dans l’espace compositionnel est non- convexe et peut être hautement non linéaire, ce qui fait que les calculs de stabilité peuvent être extrêmement difficiles pour certaines conditions, notamment aux voisinages des singularités. On distingue deux types de singularités : (i) au lieu de la limite du test de stabilité (stability test limit locus, ou STLL), et ii) à la spinodale (la limite intrinsèque de la stabilité thermodynamique). Du point de vue géométrique, la surface TPD présente un point selle, correspondant à une solution non triviale (à la STLL) ou triviale (à la spinodale). Dans le voisinage de ces singularités, le nombre d’itérations de toute méthode de minimisation augmente dramatiquement et la divergence peut survenir. Cet inconvénient est bien plus sévère pour la STLL que pour la spinodale. Le présent mémoire est structuré sur trois grandes lignes : (i) après la présentation du critère du plan tangent à la surface de l’énergie libre de Gibbs, plusieurs solutions itératives (gradient et méthodes d’accélération de la convergence, méthodes de second ordre de Newton et méthodes quasi- Newton), du problème de la stabilité des phases sont présentées et analysées, surtout du point de vue de leurs comportement près des singularités; (ii) Suivant l’analyse des valeurs propres, du conditionnement de la matrice Hessienne et de l’échelle du problème, ainsi que la représentation de la surface de la fonction TPD, la résolution du calcul de la stabilité des phases par la minimisation des fonctions coût modifiées est adoptée. Ces fonctions « coût » sont choisies de telle sorte que tout point stationnaire (y compris les points selle) de la fonction TPD soit converti en minimum global; la Hessienne à la STLL est dans ce cas positif définie, et non indéfinie, ce qui mène a une amélioration des propriétés de convergence, comme montré par plusieurs exemples pour des mélanges représentatifs, synthétiques et naturels. Finalement, (iii) les calculs de stabilité sont menés par une méthode d’optimisation globale, dite de Tunneling. La méthode de Tunneling consiste à détruire (en plaçant un pôle) les minima déjà trouvés par une méthode de minimisation locale, et a tunneliser pour trouver un point situé dans une autre vallée de la surface de la fonction coût qui contient un minimum 9 à une valeur plus petite de la fonction coût; le processus continue jusqu'à ce que les critères du minimum global soient remplis. Plusieurs exemples soigneusement choisis montrent la robustesse et l’efficacité de la méthode de Tunneling pour la minimisation de la fonction TPD, ainsi que pour la minimisation des fonctions coût modifiées. / The thermodynamic phase equilibrium modelling is an essential issue for petroleum and process engineering. Phase stability analysis is a highly important problem among phase equilibrium calculations. The stability computation establishes whether a given mixture is in one or several phases. If a mixture splits into two or more phases, the stability calculations provide valuables initialisation sets for the flash calculations, and allow the validation of multiphase flash calculations. The phase stability problem is solved as an unconstrained minimisation of the tangent plan distance (TPD) function to the Gibbs free energy surface. A phase is thermodynamically stable if the TPD function is non-negative at all its stationary points, while a negative value indicates an unstable case. The TPD surface is non-convex and may be highly non-linear in the compositional space; for this reason, phase stability calculation may be extremely difficult for certain conditions, mainly within the vicinity of singularities. One can distinguish two types of singularities: (i) the stability test limit locus (STLL), and (ii) the intrinsic limit of stability (spinodal). Geometrically, the TPD surface exhibits a saddle point, corresponding to a non-trivial (at the STLL) or trivial solution (at the spinodal). In the immediate vicinity of these singularities, the number of iterations of all minimisation methods increases dramatically, and divergence could occur. This inconvenient is more severe for the STLL than for the spinodal. The work presented herein is structured as follow: (i) after the introduction to the concept of tangent plan distance to the Gibbs free energy surface, several iterative methods (gradient, acceleration methods, second-order Newton and quasi-Newton) are presented, and their behaviour analysed, especially near singularities. (ii) following the analysis of Hessian matrix eigenvalues and conditioning, of problem scaling, as well as of the TPD surface representation, the solution of phase stability computation using modified objective functions is adopted. The latter are chosen in such a manner that any stationary point of the TPD function becomes a global minimum of the modified function; at the STLL, the Hessian matrix is no more indefinite, but positive definite. This leads to a better scheme of convergence as will be shown in various examples for synthetic and naturally occurring mixtures. Finally, (iii) the so-called Tunneling global optimization method is used for the stability analysis. This method consists in destroying the minima already found (by placing poles), and to tunnel to another valley of the modified objective function to find a new minimum with a smaller value of the objective function. The process is resumed when criteria for the global minimum are fulfilled. Several carefully chosen examples demonstrate the robustness and the efficiency of the Tunneling method to minimize the TPD function, as well as the modified objective functions.
75

Identifiabilité des signaux parcimonieux structurés et solutions algorithmiques associées : application à la reconstruction tomographique à faible nombre de vues / Identifability of s-sparse structured signals and associated algorithms : application at limited view angle tomography

Nicodeme, Marc 23 November 2016 (has links)
Cette thèse étudie différents problèmes de minimisations avec des fonctions de régularisations qui promeuvent la parcimonie. Plus précisément, on souhaite reconstruire une image, que l'on suppose parcimonieuse et qui a subit une transformation après un opérateur linéaire, à l'aide de problèmes de minimisations. Dans ce manuscrit, on s'intéressera plus particulièrement à la minimisation l1 synthèse, analyse et bloc qui sont très utilisées pour reconstruction une image que l'on sait parcimonieuse. Ces minimisations produisent en pratique des résultats convaincants qui n'ont été compris théoriquement que récemment. Les différents travaux sur le sujet mettent en évidence le rôle d'un vecteur particulier appelé certificat dual. L'existence d'un certificat dual permet à la fois d'assurer la reconstruction exacte d'une image dans le cas où il n'y a pas de perturbations et d'estimer l'erreur de la reconstruction en présence de perturbations. Dans nos travaux, nous allons introduire l'existence d'un certifical dual optimal pour la minimisation l1 synthèse qui minimisent l'erreur de reconstruction. Ces résultats ayant une forte interprétation géométrique, nous avons développé un critère identifiabilité, c'est à dire que ce critère assure que l'image recherchée est l'unique solution du problème de minimisation. Ce critère permet d'étendre nos travaux à la minimisation l1 analyse, l1 bloc et à d'autres cas. / This thesis studies different minimization problems with sparses based regularization. More precisely, we want to reconstruct a sparses image, which undergone a linear transformation, with minimization problems. In this manuscript, we will be focused on l1 synthesis, analysis and block minimization which are widely used in sparse approximations. These problems offer competitive results which are theorietical understood only recntly. Different studies on the subject emphasized the contribution of a particular vector called dual certificate. The existence of this dual certificate allows simultaneously to guarantee the exact recovey of an image in noiseless case and to estimate the noise robustness in noisy case. In this work, we introduce eth existence of an optimal dual certificate for the l1 synthesis minimization which minimizes the reconstruction error. As those results have a strong geometrical interpretation, we develop an identifiability criterion which ensures the uniqueness of a solution. This criterion generalizes the work on l1 synthesis minimization tothe analysis case, block case and others.
76

Nouvelles Méthodes de Synthèse Logique et Application aux Réseaux Programmables

Belrhiti Alaoui, Mohammed 16 December 1996 (has links) (PDF)
Cette thèse propose et analyse de nouvelles méthodes de synthèse logique. L'analyse concerne des outils de la "troisième génération" d'écriture de bases irrédondantes de fonctions booléennes, à savoir les minimiseurs dits symboliques. Cette génération de minimiseurs conduit à la solution optimale plus rapidement et avec moins d'espace mémoire que les heuristiques de la minimisation explicite. Elle permet également le calcul de la forme complémentée minimale sans être exposée à des problèmes d'explosion en complexité, ce qui permet d'aboutir à un choix efficace entre une fonction et son complément. Nous avons abordé ensuite les problèmes de granularité des expressions factorisées. Nous avons proposé une méthode originale de réinjection qui intègre d'une façon concurrente une phase de minimisation symbolique des expressions booléennes. Cette méthode a permis de "corriger" la granularité: d'une part, des expressions booléennes obtenues par la factorisation, d'autre part, des équations obtenues par une description de haut niveau de type VHDL. La méthode proposée peut être également appliquée en tant que minimiseur logique qui tient compte du partage de la logique entre les expressions booléennes, ce qui n'est pas possible avec un minimiseur logique local ou global. Les expériences pratiques et l'application sur les réseaux programmables de type CPLD sont concluantes. Enfin, nous avons proposé une méthode originale de l'exploration de l'espace des solutions des macro-générateurs de type additionneur. Cette méthode est fondée sur le filtrage des solutions générées et l'amélioration par dérivation d'une solution donnée. Cette approche peut être efficacement appliquée sur la macro-génération sous contraintes temporelles
77

Advances in therapeutic risk management through signal detection and risk minimisation tool analyses

Nkeng, Lenhangmbong 02 1900 (has links)
Les quatre principales activités de la gestion de risque thérapeutique comportent l’identification, l’évaluation, la minimisation, et la communication du risque. Ce mémoire aborde les problématiques liées à l’identification et à la minimisation du risque par la réalisation de deux études dont les objectifs sont de: 1) Développer et valider un outil de « data mining » pour la détection des signaux à partir des banques de données de soins de santé du Québec; 2) Effectuer une revue systématique afin de caractériser les interventions de minimisation de risque (IMR) ayant été implantées. L’outil de détection de signaux repose sur la méthode analytique du quotient séquentiel de probabilité (MaxSPRT) en utilisant des données de médicaments délivrés et de soins médicaux recueillis dans une cohorte rétrospective de 87 389 personnes âgées vivant à domicile et membres du régime d’assurance maladie du Québec entre les années 2000 et 2009. Quatre associations « médicament-événement indésirable (EI) » connues et deux contrôles « négatifs » ont été utilisés. La revue systématique a été faite à partir d’une revue de la littérature ainsi que des sites web de six principales agences réglementaires. La nature des RMIs ont été décrites et des lacunes de leur implémentation ont été soulevées. La méthode analytique a mené à la détection de signaux dans l'une des quatre combinaisons médicament-EI. Les principales contributions sont: a) Le premier outil de détection de signaux à partir des banques de données administratives canadiennes; b) Contributions méthodologiques par la prise en compte de l'effet de déplétion des sujets à risque et le contrôle pour l'état de santé du patient. La revue a identifié 119 IMRs dans la littérature et 1,112 IMRs dans les sites web des agences réglementaires. La revue a démontré qu’il existe une augmentation des IMRs depuis l’introduction des guides réglementaires en 2005 mais leur efficacité demeure peu démontrée. / The four main components of therapeutic risk management (RM) consist of risk detection (identification), evaluation, minimisation, and communication. This thesis aims at addressing RM methodologies within the two realms of risk detection and risk minimisation, through the conduct of two distinct studies: i) The development and evaluation of a data mining tool to support signal detection using health care claims databases, and ii) A systematic review to characterise risk minimisation interventions (RMIs) implemented so far. The data mining tool is based on a Maximised Sequential Probability Ratio Test (MaxSPRT), using drug dispensing and medical claims data found in the Quebec health claims databases (RAMQ). It was developed and validated in a cohort of 87,389 community-dwelling elderly aged 66+, randomly sampled from all elderly drug plan members between 2000 and 2009. Four known drug-AE associations and two "negative" controls were used. The systematic review on RMIs is based on a literature search as well as a review of the websites of six main regulatory agencies. Types of RMIs have been summarized and implementation gaps identified. The data mining tool detected signals in one of four of the known drug-AE associations. Major contributions are: a) The first signal detection data mining tool applied to a Canadian claims database; b) Methodological improvements over published methods by considering the depletion of susceptibles effect and adjusting for overall health status to control for prescription channelling. The review yielded 119 distinct RMIs from the literature and 1,112 from the websites. The review demonstrated that an increase in RMI numbers among websites occurred since the introduction of guidances in 2005, but their effectiveness remains insufficiently examined.
78

Consumer attitudes towards curbside recycling of waste within the eThekwini municipality area

Abbu, Allan Robert January 2006 (has links)
Thesis (M.Tech.: Marketing)-Dept. of Marketing, Durban University of Technology, 2006 xii, 152 leaves / Consumer attitudes play an important role when it comes to waste management. Consumers, who purchase any number of packaged goods also dispose of or discard waste in large quantities. In the business sector the introduction of new technologies in the production cycle is imperative, and this technology involves discovering more cost effective methods of reducing and reusing solid waste as a resource. The challenge for the eThekwini Municipality is to discover ways to reduce the volume of waste disposed at the landfills. This study determines the attitudes of consumers towards curbside recycling specifically within the eThekwini municipal region. This study focuses on various theories and evaluates ways in which waste prevention and reduction initiatives can be employed to protect the depletion of natural resources.
79

L'algorithme d'échange en optimisation convexe

Carasso, Claude 05 October 1973 (has links) (PDF)
.
80

Bayesian methods for inverse problems in signal and image processing / Méthodes bayésiennes pour la résolution des problèmes inverses de grande dimension en traitement du signal et des images

Marnissi, Yosra 25 April 2017 (has links)
Les approches bayésiennes sont largement utilisées dans le domaine du traitement du signal. Elles utilisent des informations a priori sur les paramètres inconnus à estimer ainsi que des informations sur les observations, pour construire des estimateurs. L'estimateur optimal au sens du coût quadratique est l'un des estimateurs les plus couramment employés. Toutefois, comme la loi a posteriori exacte a très souvent une forme complexe, il faut généralement recourir à des outils d'approximation bayésiens pour l'approcher. Dans ce travail, nous nous intéressons particulièrement à deux types de méthodes: les algorithmes d'échantillonnage Monte Carlo par chaînes de Markov (MCMC) et les approches basées sur des approximations bayésiennes variationnelles (VBA).La thèse est composée de deux parties. La première partie concerne les algorithmes d'échantillonnage. Dans un premier temps, une attention particulière est consacrée à l'amélioration des méthodes MCMC basées sur la discrétisation de la diffusion de Langevin. Nous proposons une nouvelle méthode pour régler la composante directionnelle de tels algorithmes en utilisant une stratégie de Majoration-Minimisation ayant des propriétés de convergence garanties. Les résultats expérimentaux obtenus lors de la restauration d'un signal parcimonieux confirment la rapidité de cette nouvelle approche par rapport à l'échantillonneur usuel de Langevin. Dans un second temps, une nouvelle méthode d'échantillonnage basée sur une stratégie d'augmentation des données est proposée pour améliorer la vitesse de convergence et les propriétés de mélange des algorithmes d'échantillonnage standards. L'application de notre méthode à différents exemples en traitement d'images montre sa capacité à surmonter les difficultés liées à la présence de corrélations hétérogènes entre les coefficients du signal.Dans la seconde partie de la thèse, nous proposons de recourir aux techniques VBA pour la restauration de signaux dégradés par un bruit non-gaussien. Afin de contourner les difficultés liées à la forme compliquée de la loi a posteriori, une stratégie de majoration est employée pour approximer la vraisemblance des données ainsi que la densité de la loi a priori. Grâce à sa flexibilité, notre méthode peut être appliquée à une large classe de modèles et permet d'estimer le signal d'intérêt conjointement au paramètre de régularisation associé à la loi a priori. L'application de cette approche sur des exemples de déconvolution d'images en présence d'un bruit mixte Poisson-gaussien, confirme ses bonnes performances par rapport à des méthodes supervisées de l'état de l'art. / Bayesian approaches are widely used in signal processing applications. In order to derive plausible estimates of original parameters from their distorted observations, they rely on the posterior distribution that incorporates prior knowledge about the unknown parameters as well as informations about the observations. The posterior mean estimator is one of the most commonly used inference rule. However, as the exact posterior distribution is very often intractable, one has to resort to some Bayesian approximation tools to approximate it. In this work, we are mainly interested in two particular Bayesian methods, namely Markov Chain Monte Carlo (MCMC) sampling algorithms and Variational Bayes approximations (VBA).This thesis is made of two parts. The first one is dedicated to sampling algorithms. First, a special attention is devoted to the improvement of MCMC methods based on the discretization of the Langevin diffusion. We propose a novel method for tuning the directional component of such algorithms using a Majorization-Minimization strategy with guaranteed convergence properties.Experimental results on the restoration of a sparse signal confirm the performance of this new approach compared with the standard Langevin sampler. Second, a new sampling algorithm based on a Data Augmentation strategy, is proposed to improve the convergence speed and the mixing properties of standard MCMC sampling algorithms. Our methodological contributions are validated on various applications in image processing showing the great potentiality of the proposed method to manage problems with heterogeneous correlations between the signal coefficients.In the second part, we propose to resort to VBA techniques to build a fast estimation algorithm for restoring signals corrupted with non-Gaussian noise. In order to circumvent the difficulties raised by the intricate form of the true posterior distribution, a majorization technique is employed to approximate either the data fidelity term or the prior density. Thanks to its flexibility, the proposed approach can be applied to a broad range of data fidelity terms allowing us to estimate the target signal jointly with the associated regularization parameter. Illustration of this approach through examples of image deconvolution in the presence of mixed Poisson-Gaussian noise, show the good performance of the proposed algorithm compared with state of the art supervised methods.

Page generated in 0.0938 seconds