• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 100
  • 35
  • 14
  • Tagged with
  • 148
  • 44
  • 25
  • 22
  • 19
  • 18
  • 18
  • 16
  • 16
  • 16
  • 15
  • 15
  • 14
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Contribution à l'identification des systèmes à retards et d'une classe de systèmes hybrides / Contribution to the identification of time delays systems and a class of hybrid systems

Ibn Taarit, Kaouther 17 December 2010 (has links)
Les travaux présentés dans cette thèse concernent le problème d'identification des systèmes à retards et d'une certaine classe de systèmes hybrides appelés systèmes "impulsifs".Dans la première partie, un algorithme d'identification rapide a été proposé pour les systèmes à entrée retardée. Il est basé sur une méthode d'estimation distributionnelle non asymptotique initiée pour les systèmes sans retard. Une telle technique mène à des schémas de réalisation simples, impliquant des intégrateurs, des multiplicateurs et des fonctions continues par morceaux polynomiales ou exponentielles. Dans le but de généraliser cette approche pour les systèmes à retard, trois exemples d'applications ont été étudiées. La deuxième partie a été consacrée à l'identification des systèmes impulsifs. En se basant sur le formalisme des distributions, une procédure d'identification a été élaborée afin d'annihiler les termes singuliers des équations différentielles représentant ces systèmes. Par conséquent, une estimation en ligne des instants de commutations et des paramètres inconnus est prévue indépendamment des lois de commutations. Des simulations numériques d'un pendule simple soumis à des frottements secs illustrent notre méthodologie / This PhD thesis concerns the problem of identification of the delays systems and the continuous-time systems subject to impulsive terms.Firstly, a fast identification algorithm is proposed for systems with delayed inputs. It is based on a non-asymptotic distributional estimation technique initiated in the framework of systems without delay. Such technique leads to simple realization schemes, involving integrators, multipliers andContribution to the identification of time delays systems and a class of hybrid systems piecewise polynomial or exponential time functions. Thus, it allows for a real time implementation. In order to introduce a generalization to systems with input delay, three simple examples are presented.The second part deals with on-line identification of continuous-time systems subject to impulsive terms. Using a distribution framework, a scheme is proposed in order to annihilate singular terms in differential equations representing a class of impulsive systems. As a result, an online estimation of unknown parameters is provided, regardless of the switching times or the impulse rules. Numerical simulations of simple pendulum subjected to dry friction are illustrating our methodology
122

Etude de la structure partonique de l'hélium / Study of partonic structure of helium nucleus

Perrin, Yohann 19 October 2012 (has links)
La structure des nucléons et des noyaux a été intensivement étudiée au cours duvingtième siècle au travers de la diffusion élastique d’électrons (mesure des facteurs deforme électromagnétique) et de la diffusion profondément inélastique (mesure des distributionsde partons). Le formalisme des distributions généralisées de partons (GPD)a permis d’unifier les facteurs de forme et les distributions de partons. Ce lien procureune source d’information unique sur la dynamique des partons, telle la distribution desforces nucléaires et de moment orbital au sein des hadrons. L’accès expérimental le plussimple aux GPD est la diffusion Compton profondément virtuelle (DVCS), correspondantà l’électroproduction dure d’un photon réel. Tandis que plusieurs expériences sesont déjà focalisées sur la réaction DVCS sur le nucléon, les expériences sur une ciblenucléaire s’avèrent plus rares. Cette thèse se concentre sur l’étude du canal DVCS cohérentsur l’hélium 4, avec pour objectif l’extraction des parties réelle et imaginaire dufacteur de forme Compton via l’asymétrie de spin du faisceau. / The structure of the nucleons and of the nuclei was actively studied during the twentiethcentury through electron elastic scattering (measuring the electromagnetic formfactors) and deep inelastic electron scattering (measuring the parton distributions). Theformalism of generalized parton distributions (GPD) achieved the unification of the formfactors and the parton distributions. This link gives a source of information about partondynamics, such as the distribution of nuclear forces and orbital momentum insidehadrons. The easiest experimental access to the GPD is the deeply virtual Comptonscattering (DVCS), which corresponds to the hard electroproduction of a real photon.While several experiments focussed on DVCS off the nucleon, only a few experimentsstudied DVCS off a nuclear target. This thesis is dealing with the study of the coherentchannel of DVCS off helium 4, with the aim to extract the real and imaginary parts ofthe Compton form factor thanks to the beam spin asymetry.
123

Modélisation du rôle des produits de corrosion sur l'évolution de la vitesse de corrosion des aciers au carbone en milieu désaéré et carbonaté / Modelling of the role of corrosion products on the evolution of the corrosion rate of carbon steel in deaerated and carbonated media

Mohamed-Saïd, Maalek 06 March 2018 (has links)
Cette thèse s’inscrit dans le contexte de la durabilité des structures en acier au carbone envisagées pour le stockage des déchets radioactifs à haute activité et à vie longue. Ce travail porte plus particulièrement sur la simulation numérique de la corrosion généralisée (et de son évolution), principale forme de corrosion susceptible d’affecter ces aciers en phase aqueuse et en condition désaérée.Le processus de corrosion des aciers au carbone est grandement influencé par la formation de couches de produits de corrosion (CPC) dont le rôle sur l’évolution de la vitesse de corrosion a été mis en évidence dans de nombreuses études. Le caractère plus ou moins protecteur d’une CPC dépend de plusieurs paramètres physiques (porosité, épaisseur et propriétés électriques de CPC) et chimiques (pH, PCO2, formations de complexes,…). Le principal objectif de ce travail de thèse est l’étude du rôle d’une CPC de sidérite sur la vitesse de corrosion des aciers au carbone en condition désaérée. Le régime de corrosion est ainsi simulé sur la base de modèles mécanistes en faisant appel à une résolution par la méthode des éléments finis de l’équation de transport réactif en milieu poreux et en potentiel libre.Dans un premier temps, l’étude de la stabilité d’une CPC par expérience numérique est présentée et constitue une étape importante dans la mesure où elle permet de sélectionner les paramètres influençant cette stabilité et par conséquent le processus de corrosion. Cette expérience numérique confirme des résultats expérimentaux obtenus sur des coupons dans un environnement représentatif des conditions de stockage mais sur des durées beaucoup plus courtes (de l’ordre de quelques années). Ces calculs montrent qu’en fonction des conditions chimiques (pH, complexants,…), morphologiques (épaisseur, distribution de porosité dans la CPC, …) et des propriétés électriques de la couche, on obtient soit un dépôt stable pouvant potentiellement entraîner une diminution de la vitesse de corrosion, ou soit un dépôt instable mettant à nu la surface du métal et qui se traduit par une vitesse de corrosion élevée.De manière complémentaire, le transitoire de croissance d’une CPC est également étudié en prenant en compte numériquement le déplacement de l’interface métal – CPC correspondant à la création de vide par la dissolution du métal. Deux approches, la première dite « implicite » et la seconde dite « explicite », de mouvement de cette interface sont présentées. Tous ces modèles numériques sont comparés à différents retours d’expérience. A cet égard, une loi de précipitation de la sidérite, discutée et confrontée aux différentes lois de la littérature, est proposée. Les résultats de simulation d’un transitoire de croissance d’une CPC conductrice sont conformes à certains retours d’expériences, montrant d’abord une phase active de corrosion suivie d’une phase pseudo-passive où la vitesse de corrosion est ralentie par le recouvrement de la surface métallique par la CPC. / This thesis is related to the issue of the sustainability of carbon steel structures intended for the storage of high-level long-lived radioactive waste. This work focuses on the numerical simulation of the uniform corrosion (and on its evolution), representing the main form of corrosion likely to affect these steel components in aqueous and deaerated conditions.The corrosion process of carbon steels is greatly influenced by the formation of corrosion product layers (CPL) whose role on the evolution of the corrosion rate has been demonstrated in numerous studies. The more or less protective nature of a CPL depends on several physical (porosity, thickness and electrical properties of CPL) and chemical parameters (pH, PCO2, complex formations, ...). The main objective of this thesis is the study of the role of a siderite CPL on the corrosion rate of carbon steels in deaerated conditions. The corrosion regime is simulated on the basis of mechanistic models using a finite element method to resolve the reactive transport equation in porous media and in free potential conditions.Firstly, the stability of a CPL is studied by numerical experiment and constitutes an important step that permits to select the key parameters influencing this stability and consequently the corrosion process. This numerical experiment confirms experimental results obtained on coupons in an environment representative of the storage conditions but on much shorter durations (few years). These calculations show that depending on the chemical conditions (pH, complexing medium, ...), morphological (thickness, distribution of porosity in the CPC, ...) and the electrical properties of the layer, we obtain either a stable deposit that could potentially lead to a decrease of the corrosion rate, or an unstable deposit exposing the metal surface and resulting in a high corrosion rate.In a second time, the transient step i.e. the formation and growth process of a CPL, is also studied numerically considering the displacement of the metal-CPC interface corresponding to the creation of voids caused by the dissolution of the metal. Two approaches, the first one called "implicit" and the second "explicit", of the movement of this interface are presented. All these numerical models are compared with different experimental feedbacks. Thus, a kinetics law of precipitation of siderite, discussed and compared with different laws proposed in the literature, is implemented in these models. The results obtained by simulating the growth of a conductive CPL are consistent with some experimental feedbacks, showing firstly a period of active corrosion followed by a pseudo-passive period during which the corrosion rate is significantly decreased resulting from the coverage of the metal surface by the CPL.
124

Efficient acceleration techniques for non-linear analysis of structures with frictional contact / Techniques d'accélération efficaces pour l'analyse non-linéaire des structures en présence de contact frottant

Giacoma, Anthony 02 October 2014 (has links)
La mécanique computationnelle est un outil incontournable pour le monde de l’ingénierie mécanique. Motivé par un désir de réalisme et soumis à un perpétuel gigantisme, les modèles numériques doivent aujourd’hui inclure des phénomènes physiques de plus en plus complexes. Par conséquence, d’importantes capacités calculatoires sont requises afin de traiter des problèmes à la fois non-linéaires mais aussi de grande taille. Pour atteindre cet objectif, il convient de développer les stations de calculs mais aussi les méthodes algorithmiques utilisées afin de résoudre efficacement ces types de problèmes. Récemment, les méthodes de réduction de modèle se révèlent comme d’excellentes options au développement d’algorithmes de résolution performants. Le problème du contact frottant entre solides élastiques est particulièrement bien connu pour sa complexité et dont les temps de calcul peuvent devenir prohibitifs. En effet, les lois qui le régissent sont très hautement non-linéaires (non différentiables). Dans ce mémoire, nous nous proposons d’appliquer différentes méthodes de réduction de modèle (a posteriori et a priori) à ce type de problème afin de développer des méthodes de calculs accélérées dans le cadre de la méthode des éléments finis. Tout d’abord, en se plaçant dans le cadre des petites perturbations en évolution quasistatique, la réductibilité de diverses solutions impliquant du contact frottant est mise en évidence via leur décomposition en valeur singulière. De plus, leur contenu à échelle séparée est exhibé. La méthode non-incrémentale et non-linéaire à large incrément de temps (LATIN) est par la suite présentée. Dans un second temps et à partir des observations faites précédemment, une méthode LATIN accélérée est proposée en s’inspirant des méthodes multigrilles non-linéaires de type “full approximation scheme” (FAS). Cette méthode s’apparente en partie aux méthodes de réduction de modèle de type a posteriori. De plus, une stratégie de calcul de modes à partir d’un modèle de substitution est proposée. Par la suite, la décomposition propre généralisée (PGD) est utilisée afin de développer une méthode de résolution non-linéaire efficace reposant fondamentalement sur une approche de réduction de modèle de type a priori. Enfin, quelques extensions sont proposées telle que la résolution de problème faisant intervenir des études paramétriques, ou encore la prise en charge de non-linéarités supplémentaires telle que la plasticité. / Computational mechanics is an essential tool for mechanical engineering purposes. Nowadays, numerical models have to take into account complex physical phenomenons to be even more realistic and become larger and larger. As a consequence, more and more computing capacities are required in order to tackle not only non-linear problems but also large scale problems. For that purpose, both computers and numerical methods have to be developed in order to solve them efficiently. In the last decades, model reduction methods show great abilities to assign such challenges. The frictional contact problem between elastic solids is particularly well-known for its difficulty. Because its governing laws are highly non-linear (non-smooth), prohibitive computational time can occur. In this dissertation, model reduction methods (both a posteriori and a priori approaches) are deployed in order to implement efficient numerical methods to solve frictional contact problem in the finite element framework. First, small perturbations hypothesis with a quasi-static evolution are assumed. Then, reducibility of some frictional solutions is emphasized and discussed using the singular value decomposition. In addition, a scale separability phenomenon is enlightened. Then, the non-linear large time increment method (LATIN) is introduced. Secondly, an accelerated LATIN method is suggested by drawing an analogy between previous scale separability observations and the non-linear multigrid full approximation scheme (FAS). This accelerated non-linear solver relies essentially on the a posteriori model reduction approach. A precomputation strategy for modes relying on surrogate models is also suggested. Next, the proper generalized decomposition (PGD) is used to implement a non-linear solver relying fundamentally on an a priori model reduction method. Finally, some extensions are given to assign parametric studies and to take into account an additional non-linearity such as elastoplastic constitutive laws.
125

Étude mathématique et numérique des méthodes de réduction dimensionnelle de type POD et PGD / Mathematical and numerical study of POD and PGD dimensional reduction methods

Saleh, Marwan 07 May 2015 (has links)
Ce mémoire de thèse est formé de quatre chapitres. Un premier chapitre présente les différentes notions et outils mathématiques utilisés dans le corps de la thèse ainsi qu’une description des résultats principaux que nous avons obtenus. Le second chapitre présente une généralisation d’un résultat obtenu par Rousselet-Chénais en 1990 qui décrit la sensibilité des sous-espaces propres d’opérateurs compacts auto-adjoints. Rousselet-Chénais se sont limités aux sous-espaces propres de dimension 1 et nous avons étendu leur résultat aux dimensions supérieures. Nous avons appliqué nos résultats à la Décomposition par Projection Orthogonale (POD) dans le cas de variation paramétrique, temporelle ou spatiale (Gappy-POD). Le troisième chapitre traite de l’estimation du flot optique avec des énergies quadratiques ou linéaires à l’infini. On montre des résultats mathématiques de convergence de la méthode de Décomposition Progressive Généralisée (PGD) dans le cas des énergies quadratiques. Notre démonstration est basée sur la décomposition de Brézis-Lieb via la convergence presque-partout de la suite gradient PGD. Une étude numérique détaillée est faite sur différents type d’images : sur les équations de transport de scalaire passif, dont le champ de déplacement est solution des équations de Navier-Stokes. Ces équations présentent un défi pour l’estimation du flot optique à cause du faible gradient dans plusieurs régions de l’image. Nous avons appliqué notre méthode aux séquences d’images IRM pour l’estimation du mouvement des organes abdominaux. La PGD a présenté une supériorité à la fois au niveau du temps de calcul (même en 2D) et au niveau de la représentation correcte des mouvements estimés. La diffusion locale des méthodes classiques (Horn & Schunck, par exemple) ralentit leur convergence contrairement à la PGD qui est une méthode plus globale par nature. Le dernier chapitre traite de l’application de la méthode PGD dans le cas d’équations elliptiques variationnelles dont l’énergie présente tous les défis aux méthodes variationnelles classiques : manque de convexité, manque de coercivité et manque du caractère borné de l’énergie. Nous démontrons des résultats de convergence, pour la topologie faible, des suites PGD (lorsqu’elles sont bien définies) vers deux solutions extrémales sur la variété de Nehari. Plusieurs questions mathématiques concernant la PGD restent ouvertes dans ce chapitre. Ces questions font partie de nos perspectives de recherche. / This thesis is formed of four chapters. The first one presents the mathematical notions and tools used in this thesis and gives a description of the main results obtained within. The second chapter presents our generalization of a result obtained by Rousselet-Chenais in 1990 which describes the sensitivity of eigensubspaces for self-adjoint compact operators. Rousselet-Chenais were limited to sensitivity for specific subspaces of dimension 1, we have extended their result to higher dimensions. We applied our results to the Proper Orthogonal Decomposition (POD) in the case of parametric, temporal and spatial variations (Gappy- POD). The third chapter discusses the optical flow estimate with quadratic or linear energies at infinity. Mathematical results of convergence are shown for the method Progressive Generalized Decomposition (PGD) in the case of quadratic energies. Our proof is based on the decomposition of Brézis-lieb via the convergence almost everywhere of the PGD sequence gradients. A detailed numerical study is made on different types of images : on the passive scalar transport equations, whose displacement fields are solutions of the Navier-Stokes equations. These equations present a challenge for optical flow estimates because of the presence of low gradient regions in the image. We applied our method to the MRI image sequences to estimate the movement of the abdominal organs. PGD presented a superiority in both computing time level (even in 2D) and accuracy representation of the estimated motion. The local diffusion of standard methods (Horn Schunck, for example) limits the convergence rate, in contrast to the PGD which is a more global approach by construction. The last chapter deals with the application of PGD method in the case of variational elliptic equations whose energy present all challenges to classical variational methods : lack of convexity, lack of coercivity and lack of boundedness. We prove convergence results for the weak topology, the PGD sequences converge (when they are well defined) to two extremal solutions on the Nehari manifold. Several mathematical questions about PGD remain open in this chapter. These questions are part of our research perspectives.
126

Modélisation statistique et probabiliste du temps inter-véhiculaire aux différents niveaux de trafic / Statistic and probabilistic modeling of time headway variable in different traffic levels

Ha, Duy Hung 11 May 2011 (has links)
Temps Inter-véhiculaire (TIV) est une variable microscopique fondamentale dans la théorie du trafic, et a été étudié depuis le début du développement de cette théorie, vers 1930. La distribution de probabilité du TIV décrit la répartition des arrivées des véhicules en un point donné et reflète dans une certaine mesure le comportement de conduite. Beaucoup d'applications en ingénierie du trafic viennent de la connaissance fine de cette variable. La thèse a pour but d'approfondir cette connaissance en modélisant la distribution du TIV dans différents contextes selon différents points de vue. Tout d'abord, deux méthodes d'échantillonnage, la méthode de groupement et la méthode de raffinement sont considérées. L'application numérique concerne deux bases de données, celle de la route nationale RN118 et celle de l'autoroute A6. Ensuite, trois types de modèles probabilistes sont analysés et classifiés. Une comparaison exhaustive des modèles et des méthodes d'estimation est réalisée ce qui conduit à considérer que le modèle gamma-GQM est supérieur aux autres modèles en matière de performance statistique et en efficacité de calcul. Différentes procédures d'estimation sont testées, celle qui est proposée et retenue favorise la stabilité des paramètres estimés. Six nouveaux modèles de TIV sont proposés, calibrés, analysés. Mis à part deux modèles de performance inférieure aux autres et au modèle gamma-GQM, quatre modèles sont équivalents voire meilleurs que le modèle gamma-GQM. Pour une raison pratique, le modèle Double Gamma est choisi à côté du modèle gamma-GQM, comme modèle de comparaison, dans toute la modélisation des TIV. Le calibrage des modèles et l'analyse des paramètres des modèles sont menés, à partir des données réelles, en considérant trois dimensions d'étude du trafic: les échelles macroscopique, mésoscopique et microscopique. Une quatrième dimension d'étude des TIV est constituée des facteurs exogènes au trafic. La prise en compte de ces facteurs exogènes, à chaque échelle macroscopique entraîne la distinction de deux types de facteur exogène : « empêchant » et « impulsant». Finalement, différentes approches de validation sont testées. L'approche proposée par « enveloppe des distributions » semble prometteuse pour le futur / Time Headway (TH) is a microscopic variable in traffic flow theories that has been studied since the 1930s. Distribution of this fundamental variable describes the arrival pattern of vehicles in traffic flow, so probabilistic modeling is the main approach to study TH and represent driving behaviour. The applications of the variable in traffic engineering are varied; include capacity calculation, microscopic simulation, traffic safety analysis, etc. This dissertation aims at modeling the TH distribution in different contexts. Firstly, the short-time sampling method and long-time sampling method are applied to obtain TH samples from the two data bases (the RN118 national roadway and the A6 motorway). Then, three probabilistic TH model types are analyzed and classified. An exhaustive comparison between the existing models and between the corresponding estimation methods lead to consider that the gamma-GQM is the best TH model in the literature. An estimation process is also proposed in order to obtain good and stable estimated results of the parameters. After that, the TH probabilistic modeling is developed by six new models. Except for the two ones which are worse, the four other models are statistically equivalent and/or better than the gamma-GQM. For practical reason, the Double Gamma model is selected, as a comparison model, with the gamma-GQM to calibrate all TH samples. Three traffic levels are considered: macroscopic, mesoscopic and microscopic. The effects of exogenous factors are also examined. Examining this factor in each macroscopic variable level leads to distinguish two following factor types: impeding factor and propulsive factor. Finally, different approaches for TH validation are tested. The proposed approach of “envelope of distributions” seems to be promising for future applications
127

Augmentation de l'effet de la psychothérapie par Amorçage Préconscient dans la phobie sociale et l’anxiété généralisée

Zidani, Melha 08 1900 (has links)
Deux articles ont été publiés suite à ce mémoire de maîtrise. Un prix pour la meilleure affiche faite par un étudiant du département de psychiatrie de l'Universtité de Montréal a été obtenu suite à la présentation de résultats préliminaires à la Journée annuelle du Centre de recherche de l’Institut Universitaire en santé mentale de Montréal. Un support financier et des bourses ont été également accordés. Par exemple: Bourse d’excellence pour la recherche en psychiatrie, bourse du Cinquantenaire, Faculté de médecine, Département de psychiatrie, Université de Montréal; Bourse d’excellence du directeur de recherche, Centre d’études sur les troubles obsessionnels compulsifs et les tics- CETOCT; Centre recherche de l’Institut universitaire en santé mentale de Montréal; Bourse de Dépannage de la Faculté de médecine ainsi qu'une bourse de rédaction, Faculté de médecine de l’Université de Montréal, Montréal (QC). / Les troubles anxieux représentent les problèmes de santé mentale les plus répandus. Ils affectent 12% de la population, causent un handicap léger à grave et peuvent représenter un lourd fardeau pour les patients et leurs proches. Ils entrainent un impact économique majeur pour la société en termes d’utilisation accrue des services de santé tant psychiatriques que non psychiatriques, de diminution de productivité au travail, d’absentéisme et du chômage. Cette étude de type série de cas, décrit une stratégie d’augmentation ou de facilitation du changement en psychothérapie basée sur l’amorçage (priming) préconscient et son utilisation dans le traitement de huit patients souffrant de troubles anxieux. Les patients avaient manifesté une réponse symptomatique partielle à la thérapie cognitive-comportementale (TCC) malgré une bonne adhésion au traitement. La démarche d’augmentation de la psychothérapie par amorçage préconscient (APAP) comporte six étapes permettant d’établir des formulations cognitives adaptées à la problématique résiduelle personnelle du patient. Ces formulations sont enregistrées et masquées par une musique relaxante. Les patients ont écouté cet enregistrement dans un état d’inattention pendant 20 minutes deux fois par jour durant huit semaines. L’effet de cette stratégie a été évalué par des mesures de type quantitatif et qualitatif, des mesures auto rapportées par les patients par rapport aux changements cognitifs idiosyncratiques ainsi que par un questionnaire sur la qualité de vie. Les résultats élaborés par une analyse descriptive incluant une exploration de la signification statistique et clinique des effets observés montrent, que la stratégie d’amorçage préconscient est associée à des changements cognitifs favorables, à une diminution du discours intérieur négatif et problématique chez sept patients sur huit. Ces bienfaits ont été également maintenus à la 24ème semaine. Une nette amélioration clinique des symptômes anxieux et du fonctionnement global a été observée chez deux patients qui souffraient uniquement d’un trouble anxieux versus les six autres qui présentent une comorbidité additionnelle à leur diagnostic primaire. Ces derniers ont quand même vu une amélioration de leur qualité de vie comparativement à leur état avant de recevoir la stratégie APAP. L’émergence de pensées et d’attitudes positives et la diminution des pensées dysfonctionnelles observées chez la majorité des patients à la suite du traitement par APAP, suggère un impact favorable de l’intervention. La démarche APAP qui est accessible par Internet pourrait constituer un ajout au traitement par TCC en facilitant ou en augmentant le changement cognitif et symptomatique. / Anxiety disorders represent some of the most common mental health problems. These disorders affect up to 12% of the population causing mild to severe impairment and a potentially heavy burden for patients and their families. In addition, these disorders have a major economic impact on society in terms of increased use of health services both psychiatric and non- psychiatric, lower work productivity, absenteeism and unemployment. The current paper is a case series describing a new method for facilitating change based on Psychotherapy Augmentation through Preconscious Priming (APAP) and its use in the treatment of eight patients suffering from an anxiety disorder. Previously, the patients had shown only a partial response to CBT despite good adherence to treatment. Following this treatment, the patients completed the APAP process, which consisted of six steps during which alternative, more functional thoughts and beliefs were formulated, relevant to the idiosyncratic difficulties experienced by the patients. Subsequently, these formulations were recorded and mixed with masking relaxing music, following which the patient listened to the recordings in a passive state twice daily for 20 minutes for a period of 8 weeks. The effect of this strategy was evaluated by quantitative and qualitative measures administered before treatment with the APAP program, at 8 weeks, 16 weeks and 24 weeks. In addition, idiosyncratic ratings of dysfunctional thoughts, symptoms of anxiety, global functioning and quality of life were assessed at baseline and at 24 weeks. Results showed a significant reduction in dysfunctional thoughts reported by most patients treated with this method. There was substantial clinical improvement in anxiety symptoms both for patients who presented with and without co-morbid psychological disorders. Those with co-morbid psychological disorders who did not have a good quality of life at the start of treatment reported an increase in quality of life following treatment with APAP. In addition, a descriptive analysis of the results supported the notion that a preconscious priming strategy is associated with positive cognitive change with a reduction in negative thoughts in 7 out of 8 patients, which were maintained in the longer term. Further, this descriptive analysis suggested that patients who suffered from an anxiety disorder without co-morbidity showed more clinically significant improvement in anxiety symptoms and improved global functioning in comparison to those who presented with a co-morbid disorder. Overall, results suggested that the APAP intervention had a positive impact on the patients. Results showed that APAP led to positive cognitive changes in all patients and clinically significant improvement in anxiety symptoms and global functioning in patients without additional comorbidities. APAP could be a valuable addition to CBT by facilitating or enhancing cognitive and symptom change.
128

Affine and generalized affine models : Theory and applications

Feunou Kamkui, Bruno January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
129

Cadre de travail généralisé de compensation non-linéaire robuste : application à la rentrée atmosphérique / A generalized framework for robust nonlinear compensation : application to an atmospheric reentry control problem

Hernandez Lopezomoza, Mario Andres 21 September 2012 (has links)
Ce travail de thèse est consacré à l'extension de l'Inversion Dynamique non-linéaire (NDI-Nonlinear Dynamic Inversion) pour un ensemble plus grand de systèmes non-linéaires, tout en garantissant des conditions de stabilité suffisantes. La NDI a été étudiée dans le cas de diverses applications, y compris en aéronautique et en aérospatiale. Elle permet de calculer des lois de contrôle capables de linéariser et de découpler un modèle non-linéaire à tout point de fonctionnement de son enveloppe d'état. Cependant cette méthode est intrinsèquement non-robuste aux erreurs de modélisation et aux saturations en entrée. En outre, dans un contexte non-linéaire, l'obtention d'une garantie quantifiable du domaine de stabilité atteint reste à l'heure actuelle complexe. Contrairement aux approches classiques de la NDI, notre méthodologie peut être considérée comme un cadre de compensation non-linéaire généralisé qui permet d'intégrer les incertitudes et les saturations en entrée dans le processus de conception. En utilisant des stratégies de contrôle antiwindup, la loi de pilotage peut être calculée grâce à un simple processus en deux phases. Dans ce cadre de travail généralisé des transformations linéaires fractionnaires (LFT - Linear Fractional Transformations) de la boucle fermée non-linéaire peuvent être facilement déduites pour l'analyse de la stabilité robuste en utilisant des outils standards pour de systèmes linéaires. La méthode proposée est testée pour le pilotage d'un véhicule de rentrée atmosphérique de type aile delta lors de ses phases hypersonique, transsonique et subsonique. Pour cette thèse, un simulateur du vol incluant divers facteurs externes ainsi que des erreurs de modélisation a été développé dans Simulink. / This thesis work is devoted to extending Nonlinear Dynamic Inversion (NDI) for a large scale of nonlinear systems while guaranteeing sufficient stability conditions. NDI has been studied in a wide range of applications, including aeronautics and aerospace. It allows to compute nonlinear control laws able to decouple and linearize a model at any operating point of its state envelope. However, this method is inherently non-robust to modelling errors and input saturations. Moreover, obtaining a quantifiable guarantee of the attained stability domain in a nonlinear control context is not a very straightforward task. Unlike standard NDI approaches, our methodology can be viewed as a generalized nonlinear compensation framework which allows to incorporate uncertainties and input saturations in the design process. Paralleling anti-windup strategies, the controller can be computed through a single multichannel optimization problem or through a simple two-step process. Within this framework, linear fractional transformations of the nonlinear closed-loop can be easily derived for robust stability analysis using standard tools for linear systems. The proposed method is tested for the flight control of a delta wing type reentry vehicle at hypersonic, transonic and subsonic phases of the atmospheric reentry. For this thesis work, a Flight Mechanics simulator including diverse external factors and modelling errors was developed in Simulink.
130

Contribution de la Théorie des Valeurs Extrêmes à la gestion et à la santé des systèmes / Contribution of extreme value theory to systems management and health

Diamoutene, Abdoulaye 26 November 2018 (has links)
Le fonctionnement d'un système, de façon générale, peut être affecté par un incident imprévu. Lorsque cet incident a de lourdes conséquences tant sur l'intégrité du système que sur la qualité de ses produits, on dit alors qu'il se situe dans le cadre des événements dits extrêmes. Ainsi, de plus en plus les chercheurs portent un intérêt particulier à la modélisation des événements extrêmes pour diverses études telles que la fiabilité des systèmes et la prédiction des différents risques pouvant entraver le bon fonctionnement d'un système en général. C'est dans cette optique que s'inscrit la présente thèse. Nous utilisons la Théorie des Valeurs Extrêmes (TVE) et les statistiques d'ordre extrême comme outil d'aide à la décision dans la modélisation et la gestion des risques dans l'usinage et l'aviation. Plus précisément, nous modélisons la surface de rugosité de pièces usinées et la fiabilité de l'outil de coupe associé par les statistiques d'ordre extrême. Nous avons aussi fait une modélisation à l'aide de l'approche dite du "Peaks-Over Threshold, POT" permettant de faire des prédictions sur les éventuelles victimes dans l'Aviation Générale Américaine (AGA) à la suite d'accidents extrêmes. Par ailleurs, la modélisation des systèmes soumis à des facteurs d'environnement ou covariables passent le plus souvent par les modèles à risque proportionnel basés sur la fonction de risque. Dans les modèles à risque proportionnel, la fonction de risque de base est généralement de type Weibull, qui est une fonction monotone; l'analyse du fonctionnement de certains systèmes comme l'outil de coupe dans l'industrie a montré qu'un système peut avoir un mauvais fonctionnement sur une phase et s'améliorer sur la phase suivante. De ce fait, des modifications ont été apportées à la distribution de Weibull afin d'avoir des fonctions de risque de base non monotones, plus particulièrement les fonctions de risque croissantes puis décroissantes. En dépit de ces modifications, la prise en compte des conditions d'opérations extrêmes et la surestimation des risques s'avèrent problématiques. Nous avons donc, à partir de la loi standard de Gumbel, proposé une fonction de risque de base croissante puis décroissante permettant de prendre en compte les conditions extrêmes d'opérations, puis établi les preuves mathématiques y afférant. En outre, un exemple d'application dans le domaine de l'industrie a été proposé. Cette thèse est divisée en quatre chapitres auxquels s'ajoutent une introduction et une conclusion générales. Dans le premier chapitre, nous rappelons quelques notions de base sur la théorie des valeurs extrêmes. Le deuxième chapitre s'intéresse aux concepts de base de l'analyse de survie, particulièrement à ceux relatifs à l'analyse de fiabilité, en proposant une fonction de risque croissante-décroissante dans le modèle à risques proportionnels. En ce qui concerne le troisième chapitre, il porte sur l'utilisation des statistiques d'ordre extrême dans l'usinage, notamment dans la détection de pièces défectueuses par lots, la fiabilité de l'outil de coupe et la modélisation des meilleures surfaces de rugosité. Le dernier chapitre porte sur la prédiction d'éventuelles victimes dans l'Aviation Générale Américaine à partir des données historiques en utilisant l'approche "Peaks-Over Threshold" / The operation of a system in general may at any time be affected by an unforeseen incident. When this incident has major consequences on the system integrity and the quality of system products, then it is said to be in the context of extreme events. Thus, increasingly researchers have a particular interest in modeling such events with studies on the reliability of systems and the prediction of the different risks that can hinder the proper functioning of a system. This thesis takes place in this very perspective. We use Extreme Value Theory (EVT) and extreme order statistics as a decision support tool in modeling and risk management in industry and aviation. Specifically, we model the surface roughness of machined parts and the reliability of the associated cutting tool with the extreme order statistics. We also did a modeling using the "Peaks-Over Threshold, POT" approach to make predictions about the potential victims in the American General Aviation (AGA) following extreme accidents. In addition, the modeling of systems subjected to environmental factors or covariates is most often carried out by proportional hazard models based on the hazard function. In proportional hazard models, the baseline risk function is typically Weibull distribution, which is a monotonic function. The analysis of the operation of some systems like the cutting tool in the industry has shown that a system can deteriorated on one phase and improving on the next phase. Hence, some modifications have been made in the Weibull distribution in order to have non-monotonic basic risk functions, more specifically, the increasing-decreasing risk function. Despite these changes, taking into account extreme operating conditions and overestimating risks are problematics. We have therefore proposed from Gumbel's standard distribution, an increasingdecreasing risk function to take into account extreme conditions, and established mathematical proofs. Furthermore, an example of the application in the field of industry was proposed. This thesis is organized in four chapters and to this must be added a general introduction and a general conclusion. In the first chapter, we recall some basic notions about the Extreme Values Theory. The second chapter focuses on the basic concepts of survival analysis, particularly those relating to reliability analysis by proposing a function of increasing-decreasing hazard function in the proportional hazard model. Regarding the third chapter, it deals with the use of extreme order statistics in industry, particularly in the detection of defective parts, the reliability of the cutting tool and the modeling of the best roughness surfaces. The last chapter focuses on the prediction of potential victims in AGA from historical data using the Peaks-Over Threshold approach.

Page generated in 0.0668 seconds