• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 10
  • 1
  • Tagged with
  • 20
  • 16
  • 6
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Perfectionnement de métaheuristiques pour l'optimisation continue / Improvement of metaheuristics for continuous optimization

Boussaid, Ilhem 29 June 2013 (has links)
Les métaheuristiques sont des algorithmes génériques, souvent inspirés de la nature, conçues pour résoudre des problèmes d'optimisation complexes. Parmi les métaheuristiques les plus récentes, nous retenons celle basée sur la théorie de la biogéographie insulaire: Biogeography-based optimization (BBO).Dans cette thèse, nous considérons à la fois les problèmes d'optimisation globale à variables continues avec et sans contraintes. De nouvelles versions hybrides de BBO sont proposées comme des solutions très prometteuses pour résoudre les problèmes considérés. Les méthodes proposées visent à pallier les inconvénients de la convergence lente et du manque de diversité de l'algorithme BBO. Dans la première partie de cette thèse, nous présentons la méthode que nous avons développée, issue d'une hybridation de BBO avec l'évolution différentielle (DE) pour résoudre des problèmes d'optimisation sans contraintes. Nous montrons que les résultats de l'algorithme proposé sont plus précis, notamment pour des problèmes multimodaux, qui sont parmi les problèmes les plus difficiles pour de nombreux algorithmes d'optimisation. Pour résoudre des problèmes d'optimisation sous contraintes, nous proposons trois nouvelles variantes de BBO. Des expérimentations ont été menées pour rendre compte de l'utilité des méthodes proposées. Dans une deuxième partie, nous nous intéressons à l'étude des capacités des méthodes proposées à résoudre des problèmes d'optimisation, issus du monde réel. Nous nous proposons d'abord de résoudre le problème d'allocation optimale de puissance pour la détection décentralisée d'un signal déterministe dans un réseau de capteurs sans fil, compte tenu des fortes contraintes en ressources énergétiques et en bande passante des noeuds répartis. L'objectif est de minimiser la puissance totale allouée aux capteurs, tout en gardant la probabilité d'erreur de détection au dessous d'un seuil requis. Dans un deuxième temps, nous nous focalisons sur la segmentation d'images en niveaux de gris par seuillage multi-niveaux. Les seuils sont déterminés de manière à maximiser l'entropie floue. Ce problème d'optimisation est résolu en appliquant une variante de BBO (DBBO-Fuzzy) que nous avons développée. Nous montrons l'efficacité de la méthode proposée aux travers de résultats expérimentaux / Metaheuristics are general algorithmic frameworks, often nature-inspired, designed to solve complex optimization problems. Among representative metaheuristics, Biogeography-based optimization (BBO) has been recently proposed as a viable stochastic optimization algorithm. In this PhD thesis, both unconstrained and constrained global optimization problems in a continuous space are considered. New hybrid versions of BBO are proposed as promising solvers for the considered problems. The proposed methods aim to overcome the drawbacks of slow convergence and the lack of diversity of the BBO algorithm. In the first part of this thesis, we present the method we developed, based on an hybridization of BBO with the differential evolution (DE) algorithm, to solve unconstrained optimization problems. We show that the results of the proposed algorithm are more accurate, especially for multimodal problems, which are amongst the most difficult-to-handle class of problems for many optimization algorithms. To solve constrained optimization problems, we propose three new variations of BBO. Our extensive experimentations successfully demonstrate the usefulness of all these modifications proposed for the BBO algorithm. In the second part, we focus on the applications of the proposed algorithms to solve real-world optimization problems. We first address the problem of optimal power scheduling for the decentralized detection of a deterministic signal in a wireless sensor network, with power and bandwidth constrained distributed nodes. The objective is to minimize the total power spent by the whole sensor network while keeping the detection error probability below a required threshold. In a second time, image segmentation of gray-level images is performed by multilevel thresholding. The optimal thresholds for this purpose are found by maximizing the fuzzy entropy. The optimization is conducted by a newly-developed BBO variants (DBBO-Fuzzy). We show the efficiency of the proposed method through experimental results
12

Design modeling and evaluation of a bidirectional highly integrated AC/DC converter / Conception, modélisation et évaluation d'un convertisseur AC/DC réversible isolé

Le Lesle, Johan 05 April 2019 (has links)
De nos jours, les énergies renouvelables remplacent les énergies fossiles. Pour assurer une l’interconnexion entre toutes ces installations électriques, l’électronique de puissance est nécessaire. Les principales spécifications de la prochaine génération de convertisseur de puissances sont un rendement et une densité de puissance élevés, fiabilité et faibles coûts. L’intégration PCB des composants actifs et/ou passifs est perçue comme une approche prometteuse, peu onéreuse et efficace. Les délais ainsi que les coûts de fabrication des convertisseurs de puissance peuvent considérablement réduits. L’intégration permet également d’améliorer les performances des convertisseurs. Dans ce but, un concept original d’inductance 3D pliable utilisant la technologie PCB est présenté. Il permet un coût faible pour une production en série, ainsi qu’une excellente reproductibilité. Un usinage partiel de la carte PCB est utilisé, permettant le pliage et la conception des enroulements de l’inductance. Différents prototypes sont développés par le biais d’une procédure d’optimisation. Des tests électriques et thermiques sont réalisés pour valider l’applicabilité du concept au sein de convertisseurs de puissance.Le développement d’une procédure d’optimisation appliqué aux convertisseurs hautement intégrés utilisant l’enterrement PCB est présenté. Tous les choix importants, facilitant l’intégration PCB, e.g. réduction des composants passifs, sont présentés. Cela inclut la sélection de la topologie adéquate avec la modulation associée. La procédure de design et les modèles analytiques sont introduits. Il en résulte un convertisseur comprenant quatre pont-complet entrelacés avec des bras fonctionnant à basse (50 Hz) et haute (180 kHz) fréquences. Cette configuration autorise une variation de courant importante dans les inductances, assurant ainsi la commutation des semi-conducteurs à zéro de tension (ZVS), et ceux sur une période complète du réseau. L’impact de la forte variation de courant sur le filtre CEM est compensé par l’entrelacement. Deux prototypes d’un convertisseur AC/DC bidirectionnel de 3.3 kW sont présentés, les résultats théorique et pratique sont analysés.Pour augmenter la densité de puissance du system, un filtre actif de type “Buck” est étudié. La procédure d’optimisation est adaptée à partir de la procédure implémentée pour le convertisseur AC/DC. L’approche utilisée, mène à un convertisseur opérant également en ZVS durant une période compète du réseau, et ce, à fréquence de commutation fixe. Les technologies sélectionnées, condensateur céramique et inductance compatible avec la technologie PCB sont favorable à l’intégration et sont implémenté sur le prototype. / Nowadays, the green energy sources are replacing fossil energies. To assure proper interconnections between all these different electrical facilities, power electronics is mandatory. The main requirements of next generation converters are high efficiency, high power density, high reliability and low-cost. The Printed Circuit Board (PCB) integration of dies and/or passives is foreseen as a promising, low-cost and efficient approach. The manufacturing time and cost of power converters can be drastically reduced. Moreover, integration allows the converter performances to be improved. For this purpose, an original 3D folded power inductor concept using PCB technology is introduced. It is low cost for mass production and presents good reproducibility. A partial milling of the PCB is used to allow bending and building the inductor winding. Prototypes are designed through an optimisation procedure. Electrical and thermal tests are performed to validate the applicability in power converters. The development of an optimisation procedure for highly integrated converters, using PCB embedding, is presented. All important choices, facilitating the PCB integration, e.g. reduction of passive components, are presented. It includes the selection of the suitable converter topology with the associated modulation. The design procedure and implemented analytical models are introduced. It results in four interleaved full-bridges operating with low (50 Hz) and high (180 kHz) frequency legs. The configuration allows high current ripple in the input inductors inducing zero voltage switching (ZVS) for all the semiconductors, and for a complete grid period. The impact of high current ripple on the EMI filter is compensated by the interleaving. Two prototypes of a 3.3 kW bidirectional AC/DC converters are presented, theoretical and practical results are discussed. To further increase the power density of the overall system, a Buck power pulsating buffer is investigated. The optimisation procedure is derived from the procedure implemented for the AC/DC converter. The result favours an original approach, where the converter also operates with ZVS along the entire main period at a fixed switching frequency. The selected technologies for prototyping are integration friendly as ceramic capacitors and PCB based inductors are implemented in the final prototype.
13

Modélisation mathématique et simulation numérique de populations neuronales thalamo-corticales dans le contexte de l'anesthésie générale / Analytical and numerical studies of thalamo-cortical neural population models during general anesthesia

Hashemi, Meysam 14 January 2016 (has links)
Bien que l’anesthésie générale soit un outil indispensable dans la chirurgie médicale d’aujourd’hui, ses mécanismes sous-jacents précis sont encore inconnus. Au cours de la sédation induite par le propofol les actions anesthésiques à l’échelle microscopique du neurone isolé conduisent à des changements spécifiques à l’échelle macroscopique qui sont observables comme les signaux électroencéphalogrammes (EEG). Pour une concentration faible en propofol, ces changements caractéristiques comprennent une augmentation de l’activité dans les bandes de fréquence delta (0.5-4 Hz) et alpha (8 13 Hz) dans la région frontal, une l’activité augmentée de delta et une l’activité diminuée de alpha dans la région occipitale. Dans cette thèse, nous utilisons des modèles de populations neuronales thalamo-corticales basés sur des données expérimentales. Les effets de propofol sur les synapses et sur les récepteurs extra-synaptiques GABAergiques situés dans le cortex et le thalamus sont modélisés afin de comprendre les mécanismes sous-jacents aux changements observés dans certaines puissances de l’EEG spectrale. Il est démontré que les modèles reproduisent bien les spectrales caractéristiques observées expérimentalement. Une des conclusions principales de ce travail est que l’origine des delta rythmes est fondamentalement différente de celle des alpha rythmes. Nos résultats indiquent qu’en fonction des valeurs moyennes des potentiels de l’état du système au repos, une augmentation ou une diminution des fonctions de gain thalamo-corticale résulte respectivement en une augmentation ou une diminution de alpha puissance. En revanche, l’évolution de la delta puissance est plutôt indépendant de l’état du système au repos; l'amélioration de la puissance spectrale de delta bande résulte de l’inhibition GABAergique synaptique ou extra-synaptique pour les fonctions de gain non linéaire à la fois croissante et décroissante. De plus, nous cherchons à identifier les paramètres d’un modèle de thalamo-corticale en ajustant le spectre de puissance de modèle pour les enregistrements EEG. Pour ce faire, nous considérons la tâche de l’estimation des paramètres dans les modèles qui sont décrits par un ensemble d’équations différentielles ordinaires ou bien stochastiques avec retard. Deux études de cas portant sur des données pseudo-expérimentales bruyantes sont d’abord effectuées pour comparer les performances des différentes méthodes d’optimisation. Les résultats de cette élaboration montrent que la méthode utilisée dans cette étude est capable d’estimer avec précision les paramètres indépendants du modèle et cela nous permet d’éviter les coûts de calcul des intégrations numériques. En considérant l’ensemble, les conclusions de cette thèse apportent de nouveaux éclairages sur les mécanismes responsables des changements spécifiques qui sont observées pendant la sédation propofol-induite dans les modèles de EEG. / Although general anaesthesia is an indispensable tool in today’s medical surgery, its precise underlying mechanisms are still unknown. During the propofol-induced sedation, the anaesthetic actions on the microscopic single neuron scale lead to specific changes in macroscopic-scale observables such as electroencephalogram (EEG) signals. For low concentration of propofol these characteristic changes comprised increased activity in the delta (0.5-4 Hz) and alpha (8-13 Hz) frequency bands over the frontal head region, but increased delta and decreased alpha power activity over the occipital region. In this thesis, we employ thalamo-cortical neural population models, and based on the experimental data, the propofol effects on the synaptic and extrasynaptic GABAergic receptors located in the cortex and thalamus are modelized to understand the mechanisms underlying the observed certain changes in EEG-spectral power. It is shown that the models reproduce well the characteristic spectral features observed experimentally. A key finding of this work is that the origin of delta rhythm is fundamentally different from the alpha rhythm. Our results indicate that dependent on the mean potential values of the system resting states, an increase or decrease in the thalamo-cortical gain functions results in an increase or decrease in the alpha power, respectively. In contrast, the evolution of the delta power is rather independent of the system resting states; the enhancement of spectral power in the delta band results from the increased synaptic or extra-synaptic GABAergic inhibition for both increasing and decreasing nonlinear gain functions. Furthermore, we aim to identify the parameters of a thalamo-cortical model by fitting the model power spectrum to the EEG recordings. To this end, we address the task of parameter estimation in the models that are described by a set of stochastic ordinary or delay differential equations. Two case studies dealing with noisy pseudo-experimental data are first carried out to compare the performance of different optimization methods. The results of this elaboration show that the method used in this study is able to accurately estimate the independent model parameters while it allows us to avoid the computational costs of the numerical integrations. Taken together, the findings of this thesis provide new insights into the mechanisms responsible for the specific changes in EEG patterns that are observed during propofol-induced sedation.
14

Méthodologie d’analyse de fiabilité basée sur des techniques heuristiques d’optimisation et modèles sans maillage : applications aux systèmes mécaniques / Reliability analysis methodology based on heuristic optimization techniques and non-mesh models : applications to mechanical systems

Rojas, Jhojan Enrique 04 April 2008 (has links)
Les projets d'Ingénierie Structurale doivent s’adapter aux critères de performance, de sécurité, de fonctionnalité, de durabilité et autres, établis dans la phase d’avant-projet. Traditionnellement, les projets utilisent des informations de nature déterministe comme les dimensions, les propriétés des matériaux et les charges externes. Toutefois, la modélisation des systèmes structuraux complexes implique le traitement des différents types et niveaux d'incertitudes. Dans ce sens, la prévision du comportement doit être préférablement faite en termes de probabilités puisque l'estimation de la probabilité de succès d'un certain critère est une nécessité primaire dans l’Ingénierie Structurale. Ainsi, la fiabilité est la probabilité rapportée à la parfaite opération d'un système structural donné durant un certain temps en des conditions normales d'opération pour trouver le meilleur compromis entre coût et sécurité pour l’élaboration des projets. Visant à pallier les désavantagés des méthodes traditionnelles FORM et SORM (First and Second Order Reliability Method), cette thèse propose une méthode d’analyse de fiabilité basée sur des techniques d’optimisation heuristiques (HBRM, Heuristic-based Reliability Method). Les méthodes heuristiques d’optimisation utilisées par cette méthode sont : Algorithmes Génétiques (Genetic Algorithms), Optimisation par Essaims Particulaires (Particle Swarm Optimisation) et Optimisation par Colonie de Fourmis (Ant Colony Optimization). La méthode HBRM ne requiert aucune estimation initiale de la solution et opère selon le principe de la recherche multi-directionnelle, sans besoin de calculer les dérivées partielles de la fonction d’état limite par rapport aux variables aléatoires. L’évaluation des fonctions d’état limite est réalisée en utilisant modèles analytiques, semi analytiques et numériques. Dans ce but, la mise en oeuvre de la méthode de Ritz (via MATLAB®), la méthode des éléments finis (via MATLAB® et ANSYS®) et la méthode sans maillage de Galerkin (Element-free Galerkin sous MATLAB®) a été nécessaire. La combinaison d’analyse de fiabilité, des méthodes d’optimisation et méthodes de modélisation, ci-dessus mentionnées, configure la méthodologie de conception fiabiliste proposée dans ce mémoire. L’utilisation de différentes méthodes de modélisation et d’optimisation a eu pour objectif de mettre en évidence leurs avantages et désavantages pour des applications spécifiques, ainsi pour démontrer l’applicabilité et la robustesse de la méthodologie de conception fiabiliste en utilisant ces techniques numériques. Ce qui a été possible grâce aux bons résultats trouvés dans la plupart des applications. Dans ce sens, des applications uni, bi et tridimensionnelles en statique, stabilité et dynamique des structures explorent l’évaluation explicite et implicite des fonctions d’état limite de plusieurs variables aléatoires. Procédures de validation déterministe et analyses stochastiques, et la méthode de perturbation de Muscolino, donnent les bases de l’analyse de fiabilité des applications en problèmes d’interaction fluide-structure bi et tridimensionnelles. La méthodologie est particulièrement appliquée à une structure industrielle. Résultats de applications uni et bidimensionnelles aux matériaux composites stratifiés, modélisés par la méthode EFG sont comparés avec les obtenus par éléments finis. A la fin de la thèse, une extension de la méthodologie à l’optimisation fiabiliste est proposée à travers la méthode des facteurs optimaux de sûreté. Pour cela, sont présentes des applications pour la minimisation du poids, en exigent un indice de fiabilité cible, aux systèmes modélisés par la méthode de EF et par la méthode EFG. / Structural Engineering designs must be adapted to satisfy performance criteria such as safety, functionality, durability and so on, generally established in pre-design phase. Traditionally, engineering designs use deterministic information about dimensions, material properties and external loads. However, the structural behaviour of the complex models needs to take into account different kinds and levels of uncertainties. In this sense, this analysis has to be made preferably in terms of probabilities since the estimate the probability of failure is crucial in Structural Engineering. Hence, reliability is the probability related to the perfect operation of a structural system throughout its functional lifetime; considering normal operation conditions. A major interest of reliability analysis is to find the best compromise between cost and safety. Aiming to eliminate main difficulties of traditional reliability methods such as First and Second Order Reliability Method (FORM and SORM, respectively) this work proposes the so-called Heuristic-based Reliability Method (HBRM). The heuristic optimization techniques used in this method are: Genetic Algorithms, Particle Swarm Optimization and Ant Colony Optimization. The HBRM does not require initial guess of design solution because it’s based on multidirectional research. Moreover, HBRM doesn’t need to compute the partial derivatives of the limit state function with respect to the random variables. The evaluation of these functions is carried out using analytical, semi analytical and numerical models. To this purpose were carried out the following approaches: Ritz method (using MATLAB®), finite element method (through MATLAB® and ANSYS®) and Element-free Galerkin method (via MATLAB®). The combination of these reliability analyses, optimization procedures and modelling methods configures the design based reliability methodology proposed in this work. The previously cited numerical tools were used to evaluate its advantages and disadvantages for specific applications and to demonstrate the applicability and robustness of this alternative approach. Good agreement was observed between the results of bi and three-dimensional applications in statics, stability and dynamics. These numerical examples explore explicit and implicit multi limit state functions for several random variables. Deterministic validation and stochastic analyses lied to Muscolino perturbation method give the bases for reliability analysis in 2-D and 3-D fluidstructure interaction problems. This methodology is applied to an industrial structure lied to a modal synthesis. The results of laminated composite plates modelled by the EFG method are compared with their counterparts obtained by finite elements. Finally, an extension in reliability based design optimization is proposed using the optimal safety factors method. Therefore, numerical applications that perform weight minimization while taking into account a target reliability index using mesh-based and meshless models are proposed. / Os projectos de Engenharia Estrutural devem se adaptar a critérios de desempenho, segurança, funcionalidade, durabilidade e outros, estabelecidos na fase de anteprojeto. Tradicionalmente, os projectos utilizam informações de natureza deterministica nas dimensões, propriedades dos materiais e carregamentos externos. No entanto, a modelagem de sistemas complexos implica o tratamento de diferentes tipos e níveis de incertezas. Neste sentido, a previsão do comportamento deve preferivelmente ser realizada em termos de probabilidades dado que a estimativa da probabilidade de sucesso de um critério é uma necessidade primária na Engenharia Estrutural. Assim, a confiabilidade é a probabilidade relacionada à perfeita operação de um sistema estrutural durante um determinado tempo em condições normais de operação. O principal objetivo desta análise é encontrar o melhor compromisso entre custo e segurança. Visando a paliar as principais desvantagens dos métodos tradicionais FORM e SORM (First and Second Order Reliability Method), esta tese propõe um método de análise de confiabilidade baseado em técnicas de optimização heurísticas denominado HBRM (Heuristic-based Reliability Method). Os métodos heurísticos de otimização utilizados por este método são: Algoritmos Genéticos (Genetic Algorithms), Optimização por Bandos Particulares (Particle Swarm Optimisation) e Optimização por Colónia de Formigas (Ant Colony Optimization). O método HBRM não requer de uma estimativa inicial da solução e opera de acordo com o princípio de busca multidirecional, sem efetuar o cálculo de derivadas parciais da função de estado limite em relação às variáveis aleatórias. A avaliação das funções de estado limite é realizada utilizando modelos analíticos, semi analíticos e numéricos. Com este fim, a implementação do método de Ritz (via MATLAB®), o método dos elementos terminados (via MATLAB® e ANSYS®) e o método sem malha de Galerkin (Element-free Galerkin via MATLAB®) foi necessária. A combinação da análise de confiabilidade, os métodos de optimização e métodos de modelagem, acima mencionados, configura a metodologia de projeto proposta nesta tese. A utilização de diferentes métodos de modelagem e de otimização teve por objetivo destacar as suas vantagens e desvantagens em aplicações específicas, assim como demonstrar a aplicabilidade e a robustez da metodologia de análise de confiabilidade utilizando estas técnicas numéricas. Isto foi possível graças aos bons resultados encontrados na maior parte das aplicações. As aplicações foram uni, bi e tridimensionais em estática, estabilidade e dinâmica de estruturas, as quais exploram a avaliação explícita e implícita de funções de estado limite de várias variáveis aleatórias. Procedimentos de validação déterministica e de análises estocásticas, aplicando o método de perturbação de Muscolino, fornecem as bases da análise de confiabilidade nas aplicações de problemas de iteração fluído-estrutura bi e tridimensionais. A metodologia é testada com uma estrutura industrial. Resultados de aplicações bidimensionais em estratificados compostos, modelados pelo método EFG são comparados com os obtidos por elementos finitos. No fim da tese, uma extensão da metodologia à optimização baseada em confiabilidade é proposta aplicando o método dos factores óptimos de segurança. Finalmente são apresentadas as aplicações para a minimização do peso em sistemas modelados pelo método de EF e o método EFG que exigem um índice de confiabilidade alvo.
15

Résolution de problèmes d'optimisation combinatoire mono et multi-objectifs par énumération ordonnée / Solving single and multi-objective combinatorial optimization problems by ordered enumeration

Belhoul, Lyes 09 December 2014 (has links)
Notre objectif dans cette thèse est de proposer des algorithmes efficaces pour résoudre des problèmes d’optimisation combinatoire difficiles. Dans un premier temps, nous établissons le principe de l’énumération ordonnée qui consiste à générer dans un ordre adéquat les solutions d’un problème relâché associé au problème principal jusqu’à l’obtention de la preuve d’optimalité d’une solution. Nous construisons une procédure générique dans le cadre général des problème d’optimisation combinatoire. Dans un second temps nous abordons les applications de notre algorithme sur des problèmes qui admettent le problème d’affectation comme relaxation. Le premier cas particulier que nous étudions est la recherche d’une solution de bon compromis pour le problème d’affectation multiobjectif. La seconde application se rapporte au problème du voyageur de commerce asymétrique qui présente la difficulté de comporter des contraintes qui interdisent les sous-tournées, en plus des contraintes du problème d’affectation. / Our aim in this thesis is to propose efficient algorithms for solving difficult combinatorial optimization problems. Our algorithms are based on a generic method of ordered enumeration. Initially, we describe the principle of ordered enumeration which consists in generating in a specific order solutions of a relaxed problem associated to the difficult main problem, until meeting a proof of the optimality of a feasible solution. We construct a generic procedure in the general context of combinatorial optimization problems. In a second step we discuss applications of our algorithm on some difficult problems which admit the assignment problem as relaxation. The first special case we study is the search for a compromise solution to the multiobjective assignment problem. The second application is the asymmetric travelling salesman problem, which contains sub-tour constraints in addition to the constraints of the assignment problem.
16

Automatically correcting syntactic and semantic errors in ATL transformations using multi-objective optimization

VaraminyBahnemiry, Zahra 12 1900 (has links)
L’ingénierie dirigée par les modèles (EDM) est un paradigme de développement logiciel qui promeut l’utilisation de modèles en tant qu’artefacts de première plan et de processus automatisés pour en dériver d’autres artefacts tels que le code, la documentation et les cas de test. La transformation de modèle est un élément important de l’EDM puisqu’elle permet de manipuler les représentations abstraites que sont les modèles. Les transformations de modèles, comme d’autres programmes, sont sujettes à la fois à des erreurs syntaxiques et sémantiques. La correction de ces erreurs est difficile et chronophage, car les transformations dépendent du langage de transformation comme ATL et des langages de modélisation dans lesquels sont exprimés les modèles en entrée et en sortie. Les travaux existants sur la réparation des transformations ciblent les erreurs syntaxiques ou sémantiques, une erreur à la fois, et définissent manuellement des patrons de correctifs. L’objectif principal de notre recherche est de proposer un cadre générique pour corriger automatiquement de multiples erreurs syntaxiques et sémantiques. Afin d’atteindre cet objectif, nous reformulons la réparation des transformations de modèles comme un problème d’optimisation multiobjectif et le résolvons au moyen d’algorithmes évolutionnaires. Pour adapter le cadre aux deux catégories d’erreurs, nous utilisons différents types d’objectifs et des stratégies sophistiquées pour guider l’exploration de l’espace des solutions. / Model-driven engineering (MDE) is a software development paradigm that promotes the use of models as first-class artifacts and automated processes to derive other artefacts from them such as code, documentation and test cases. Model transformation is an important element of MDE since it allows to manipulate the abstract representations that are models. Model transformations, as other programs are subjects to both syntactic and semantic errors. Fixing those errors is difficult and time consuming as the transformations depend on the transformation language such as ATL, and modeling languages in which input and output models are expressed. Existing work on transformation repair targets either syntactic or semantic errors, one error at a time, and define patch templates manually. The main goal of our research is to propose a generic framework to fix multiple syntactic and semantic errors automatically. In order to achieve this goal, we reformulate the repair of model transformations as a multi-objective optimization problem and solve it by means of evolutionary algorithms. To adapt the framework to the two categories of errors, we use different types of objectives and sophisticated strategies to guide the search.
17

Engineering the near field of radiating systems at millimeter waves : from theory to applications / Manipulation du champ proche des systèmes rayonnants en ondes millimétriques : théorie et applications

Iliopoulos, Ioannis 20 December 2017 (has links)
L'objectif général est de développer un nouvel outil numérique dédié à la focalisation en 3D de l'énergie en zone de champ très proche par un système antennaire. Cet outil permettra de définir la distribution spatiale complexe des champs dans l'ouverture rayonnante afin de focaliser l'énergie sur un volume quelconque en zone de champ réactif. L'hybridation de cet outil avec un code de calcul dédié à l'analyse rapide d‘antennes SIW par la méthode des moments permettra de synthétiser une antenne SIW ad-hoc. Les structures antennaires sélectionnées seront planaires comme par exemple les antennes RLSA (Radial Line Slot Array). Les dimensions de l'antenne (positions, dimensions et nombre de fentes) seront définies à l'aide des outils décrits ci-dessus. Les résultats numériques ainsi obtenus seront validés d'abord numériquement par analyse électromagnétique globale à l'aide de simulateurs commerciaux, puis expérimentalement en ondes millimétriques (mesure en zone de champ très proche). Pour atteindre ces objectifs, nous avons défini quatre tâches principales : Développement d'un outil de synthèse de champ dans l'ouverture rayonnante (formulation théorique couplée à une méthode dite des projections alternées) ; développement d'un outil de calcul rapide (sur la base de traitements par FFT) du champ électromagnétique rayonné en zone de champ proche par une ouverture rayonnante, et retro-propagation ; hybridation de ces algorithmes avec un code de calcul (méthode des moments) en cours de développement à l'IETR et dédié à l'analyse très rapide d'antennes en technologie SIW ; conception d'une preuve ou plusieurs preuves de concept, et validations numérique et expérimentale des concepts proposés. / With the demand for near-field antennas continuously growing, the antenna engineer is charged with the development of new concepts and design procedures for this regime. From the microwave and up to terahertz frequencies, a vast number of applications, especially in the biomedical domain, are in need for focused or shaped fields in the antenna proximity. This work proposes new theoretical methods for near-field shaping based on different optimization schemes. Continuous radiating planar apertures are optimized to radiate a near field with required characteristics. In particular, a versatile optimization technique based on the alternating projection scheme is proposed. It is demonstrated that, based on this scheme, it is feasible to achieve 3-D control of focal spots generated by planar apertures. Additionally, with the same setup, also the vectorial problem (shaping the norm of the field) is addressed. Convex optimization is additionally introduced for near-field shaping of continuous aperture sources. The capabilities of this scheme are demonstrated in the context of different shaping scenarios. Additionally, the discussion is extended to shaping the field in lossy stratified media, based on a spectral Green's functions approach. Besides, the biomedical applications of wireless power transfer to implants and breast cancer imaging are addressed. For the latter, an extensive study is included here, which delivers an outstanding improvement on the penetration depth at higher frequencies. The thesis is completed by several prototypes used for validation. Four different antennas have been designed, based either on the radial line slot array topology or on metasurfaces. The prototypes have been manufactured and measured, validating the overall approach of the thesis.
18

Plans d'expérience optimaux en régression appliquée à la pharmacocinétique / Optimal sampling designs for regression applied to pharmacokinetic

Belouni, Mohamad 09 October 2013 (has links)
Le problème d'intérêt est d'estimer la fonction de concentration et l'aire sous la courbe (AUC) à travers l'estimation des paramètres d'un modèle de régression linéaire avec un processus d'erreur autocorrélé. On construit un estimateur linéaire sans biais simple de la courbe de concentration et de l'AUC. On montre que cet estimateur construit à partir d'un plan d'échantillonnage régulier approprié est asymptotiquement optimal dans le sens où il a exactement la même performance asymptotique que le meilleur estimateur linéaire sans biais (BLUE). De plus, on montre que le plan d'échantillonnage optimal est robuste par rapport à la misspecification de la fonction d'autocovariance suivant le critère du minimax. Lorsque des observations répétées sont disponibles, cet estimateur est consistant et a une distribution asymptotique normale. Les résultats obtenus sont généralisés au processus d'erreur de Hölder d'indice compris entre 0 et 2. Enfin, pour des tailles d'échantillonnage petites, un algorithme de recuit simulé est appliqué à un modèle pharmacocinétique avec des erreurs corrélées. / The problem of interest is to estimate the concentration curve and the area under the curve (AUC) by estimating the parameters of a linear regression model with autocorrelated error process. We construct a simple linear unbiased estimator of the concentration curve and the AUC. We show that this estimator constructed from a sampling design generated by an appropriate density is asymptotically optimal in the sense that it has exactly the same asymptotic performance as the best linear unbiased estimator (BLUE). Moreover, we prove that the optimal design is robust with respect to a misspecification of the autocovariance function according to a minimax criterion. When repeated observations are available, this estimator is consistent and has an asymptotic normal distribution. All those results are extended to the error process of Hölder with index including between 0 and 2. Finally, for small sample sizes, a simulated annealing algorithm is applied to a pharmacokinetic model with correlated errors.
19

Les conditions du développement des compétences interculturelles des adolescents immigrants à Sherbrooke / Conditions for the development of cross cultural competencies of immigrant youth in Sherbrooke

Hanina, Marina 03 June 2016 (has links)
Le thème de la présente recherche est l'étude des conditions dans lesquelles se développent les compétences interculturelles des jeunes immigrants en milieu scolaire à Sherbrooke. La problématique met en évidence divers questionnements en lien non seulement avec l’évolution de la société québécoise, mais aussi avec les besoins propres aux systèmes éducatifs et aux contextes dans lesquels évoluent les personnes concernées. Au niveau national et particulièrement au plan institutionnel, ces contextes sont de plus en plus marqués par l’émergence d’expériences interculturelles complexes. Celles-ci constituent des phénomènes dynamiques et en transformation; elles provoquent des sentiments multiples, des comportements spécifiques, des troubles émotionnels, des chocs culturels, etc. Ces phénomènes s’accentuent proportionnellement à l’augmentation du nombre de nouveaux arrivants dans certaines régions. Ainsi, le nombre des jeunes immigrants à Sherbrooke s’accroît sans cesse. Les professionnels du milieu scolaire ne savent plus comment agir de façon adéquate dans une telle situation ; ils déplorent leur propre manque de connaissances et de ressources dans ce domaine, étant donné que l'augmentation de l'immigration vers les petites villes constitue un phénomène relativement nouveau au Canada. Ce phénomène demeure largement sous-représenté dans la documentation scientifique. Il est traité de manière parcellaire et peu adaptée aux réalités spécifiques des adolescents évoluant dans une telle région. Il s’agit donc d’un champ conceptuel à redéfinir; son cadre de référence est à rebâtir. Dès lors, il s’avère impératif de mener une analyse fine pour mieux comprendre le processus de développement des compétences interculturelles chez les immigrants, afin de mettre en place des outils efficaces pour une meilleure appropriation des connaissances et des actions pertinentes dans plusieurs sphères culturelles et institutionnelles. Pour cela, nous avons adopté un modèle de référence structurant permettant d’analyser les conditions du développement des compétences vues sous l’angle des facteurs favorables et défavorables, en allant du microsystème au macrosystème. Quatre types de répondants ont été interrogés : les jeunes québécois, les adolescents immigrants et leurs parents, ainsi que les enseignants œuvrant au sein des classes multiethniques, pour obtenir un regard global sur les témoignages des différents acteurs concernés par les expériences d'intégration. A l’issue des analyses, les résultats montrent que les conditions étudiées relèvent de plusieurs facteurs essentiels, qui sont classés selon l’écosystème. On y retrouve principalement les degrés de motivation et d’estime de soi, l’image perçue de l’école (microsystème), les stratégies parentales (mesosystème), la formation et les approches des enseignants (exosystème) ainsi que les lois touchant à l’accueil scolaire (macrosystème). De plus, il faut noter que les jeunes immigrants tendent à s’acculturer plus rapidement et au mieux dans la nouvelle société aussi bien que dans le nouveau collectif scolaire.Dans le présent travail, les concepts traités en rapport avec la notion des compétences interculturelles se trouvent enrichis par des apports multidisciplinaires (psychologie, sciences de l’éducation, sociologie, ainsi qu’anthropologie). / The subject matter of the present research is the analysis of conditions in which immigrant youth develop their cross cultural competences in school milieu in Sherbrooke.Several questions pertaining to changes taking place in Quebec society and the particular needs of Quebec’s educational system, in which the target population evolves, are outlined. Nationally, and particularly on the institutional level, the emergence of complex intercultural trajectories is increasingly taking center-stage. Such experiences represent dynamic evolving phenomena that provoke various feelings, specific behavior patterns, emotional disorders and cultural shocks. They are more clearly identifiable in certain regions where the number of newly arrived immigrants continuously grows. And the immigration in Sherbrooke is in constant evolution. Academic professionals are not sufficiently skilled to adequately perform in this kind of situations. They deplore their lack of knowledge and resources in this area, given that immigration to small towns on this scale is a relatively new phenomenon in Canada.Furthermore, this new phenomenon remains largely unexplored in the scientific domain. This subject is only partially paid attention to and is poorly adapted to the specific realities of immigrant youth being brought up in such regions.The conceptual field and frame of reference appear to have to be entirely reconstructed. To do so, it is necessary to analyze the conditions in which immigrant youth develop their cross-cultural competencies as it would allow us to understand the process of how they are acquired.Such subtle analysis will provide for carrying out tools and techniques to better equip academic professionals with knowledge and skills to help them face their new school realities and act in an appropriate and efficient manner.To address this need, we deployed an analysis pattern, which allowed us to study the evolution of cross-cultural competences by considering positive and negative factors for their development. These factors have been classified in an ecosystem, going from micro-system to macro-system.In the present study four types of respondents were interrogated: Quebecois youth, immigrant youth and their parents and teachers working in multicultural classes. These four respondents’ types were necessary to obtain a comprehensive view of the immigrant situation and their integration. We used focus groups, projective imagination test and face to face interviews.The results of the global analysis have shown that there are several crucial factors which were classified into the ecosystem. The main identified factors are: the degree of self-motivation, self esteem and how the school image is perceived (microsystem), parental strategies (mesosystem), teachers’ academic background and their tutorial approach, as well as policies around “welcome classes” structure (macrosystem). Moreover, we noticed that immigrant youth tend to faster adopt and integrate the culture of the Quebec society as well as merge with the new school community.The present research aimed to study the concepts of cross-cultural competencies has been enriched by the multidisciplinary approach we have applied throughout our analysis (psychology, pedagogy, sociology and anthropology).
20

Virtual reality therapy for Alzheimer’s disease with speech instruction and real-time neurofeedback system

Ai, Yan 05 1900 (has links)
La maladie d'Alzheimer (MA) est une maladie cérébrale dégénérative qui entraîne une perte progressive de la mémoire, un déclin cognitif et une détérioration graduelle de la capacité d'une personne à faire face à la complexité et à l'exigence des tâches quotidiennes nécessaires pour vivre en autonomie dans notre société actuelle. Les traitements pharmacologiques actuels peuvent ralentir le processus de dégradation attribué à la maladie, mais ces traitements peuvent également provoquer certains effets secondaires indésirables. L'un des traitements non pharmacologiques qui peut soulager efficacement les symptômes est la thérapie assistée par l'animal (T.A.A.). Mais en raison de certaines limitations telles que le prix des animaux et des problèmes d'hygiène, des animaux virtuels sont utilisés dans ce domaine. Cependant, les animaux virtuels animés, la qualité d'image approximative et le mode d'interaction unidirectionnel des animaux qui attendent passivement les instructions de l’utilisateur, peuvent difficilement stimuler le retour émotionnel entre l'utilisateur et les animaux virtuels, ce qui affaiblit considérablement l'effet thérapeutique. Cette étude vise à explorer l'efficacité de l'utilisation d'animaux virtuels à la place d’animaux vivants et leur impact sur la réduction des émotions négatives chez le patient. Cet objectif a été gardé à l'esprit lors de la conception du projet Zoo Therapy, qui présente un environnement immersif d'animaux virtuels en 3D, où l'impact sur l'émotion du patient est mesuré en temps réel par électroencéphalographie (EEG). Les objets statiques et les animaux virtuels de Zoo Therapy sont tous présentés à l'aide de modèles 3D réels. Les mouvements des animaux, les sons et les systèmes de repérage spécialement développés prennent en charge le comportement interactif simulé des animaux virtuels. De plus, pour que l'expérience d'interaction de l'utilisateur soit plus réelle, Zoo Therapy propose un mécanisme de communication novateur qui met en œuvre une interaction bidirectionnelle homme-machine soutenue par 3 méthodes d'interaction : le menu sur les panneaux, les instructions vocales et le Neurofeedback. La manière la plus directe d'interagir avec l'environnement de réalité virtuelle (RV) est le menu sur les panneaux, c'est-à-dire une interaction en cliquant sur les boutons des panneaux par le contrôleur de RV. Cependant, il était difficile pour certains utilisateurs ayant la MA d'utiliser le contrôleur de RV. Pour accommoder ceux qui ne sont pas bien adaptés ou compatibles avec le contrôleur de RV, un système d'instructions vocales peut être utilisé comme interface. Ce système a été reçu positivement par les 5 participants qui l'ont essayé. Même si l'utilisateur choisit de ne pas interagir activement avec l'animal virtuel dans les deux méthodes ci-dessus, le système de Neurofeedback guidera l'animal pour qu'il interagisse activement avec l'utilisateur en fonction des émotions de ce dernier. Le système de Neurofeedback classique utilise un système de règles pour donner des instructions. Les limites de cette méthode sont la rigidité et l'impossibilité de prendre en compte la relation entre les différentes émotions du participant. Pour résoudre ces problèmes, ce mémoire présente une méthode basée sur l'apprentissage par renforcement (AR) qui donne des instructions à différentes personnes en fonction des différentes émotions. Dans l'expérience de simulation des données émotionnelles synthétiques de la MD, la méthode basée sur l’AR est plus sensible aux changements émotionnels que la méthode basée sur les règles et peut apprendre automatiquement des règles potentielles pour maximiser les émotions positives de l'utilisateur. En raison de l'épidémie de Covid-19, nous n'avons pas été en mesure de mener des expériences à grande échelle. Cependant, un projet de suivi a combiné la thérapie de RV Zoo avec la reconnaissance des gestes et a prouvé son efficacité en évaluant les valeurs d'émotion EEG des participants. / Alzheimer’s disease (AD) is a degenerative brain disease that causes progressive memory loss, cognitive decline, and gradually impairs one’s ability to cope with the complexity and requirement of the daily routine tasks necessary to live in autonomy in our current society. Actual pharmacological treatments can slow down the degradation process attributed to the disease, but such treatments may also cause some undesirable side effects. One of the non-pharmacological treatments that can effectively relieve symptoms is animal-assisted treatment (AAT). But due to some limitations such as animal cost and hygiene issues, virtual animals are used in this field. However, the animated virtual animals, the rough picture quality presentation, and the one-direction interaction mode of animals passively waiting for the user's instructions can hardly stimulate the emotional feedback background between the user and the virtual animals, which greatly weakens the therapeutic effect. This study aims to explore the effectiveness of using virtual animals in place of their living counterpart and their impact on the reduction of negative emotions in the patient. This approach has been implemented in the Zoo Therapy project, which presents an immersive 3D virtual reality animal environment, where the impact on the patient’s emotion is measured in real-time by using electroencephalography (EEG). The static objects and virtual animals in Zoo Therapy are all presented using real 3D models. The specially developed animal movements, sounds, and pathfinding systems support the simulated interactive behavior of virtual animals. In addition, for the user's interaction experience to be more real, the innovation of this approach is also in its communication mechanism as it implements a bidirectional human-computer interaction supported by 3 interaction methods: Menu panel, Speech instruction, and Neurofeedback. The most straightforward way to interact with the VR environment is through Menu panel, i.e., interaction by clicking buttons on panels by the VR controller. However, it was difficult for some AD users to use the VR controller. To accommodate those who are not well suited or compatible with VR controllers, a speech instruction system can be used as an interface, which was received positively by the 5 participants who tried it. Even if the user chooses not to actively interact with the virtual animal in the above two methods, the Neurofeedback system will guide the animal to actively interact with the user according to the user's emotions. The mainstream Neurofeedback system has been using artificial rules to give instructions. The limitation of this method is inflexibility and cannot take into account the relationship between the various emotions of the participant. To solve these problems, this thesis presents a reinforcement learning (RL)-based method that gives instructions to different people based on multiple emotions accordingly. In the synthetic AD emotional data simulation experiment, the RL-based method is more sensitive to emotional changes than the rule-based method and can automatically learn potential rules to maximize the user's positive emotions. Due to the Covid-19 epidemic, we were unable to conduct large-scale experiments. However, a follow-up project combined VR Zoo Therapy with gesture recognition and proved the effectiveness by evaluating participant's EEG emotion values.

Page generated in 0.0994 seconds