• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 55
  • 8
  • 6
  • Tagged with
  • 69
  • 30
  • 30
  • 24
  • 22
  • 21
  • 17
  • 17
  • 14
  • 10
  • 10
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Contribution à l'étude des perturbations électromagnétiques générées par des convertisseurs

Lardellier, Maurice 21 May 1996 (has links) (PDF)
Ce travail présente une nouvelle méthode de détermination des perturbations conduites générées par les convertisseurs statiques à plusieurs cellules de commutation. Cette méthode permet de faciliter la prise en compte des contraintes de Compatibilité Electromagnétique le plus tôt possible lors de la conception. La méthode proposée consiste en une étude conjointe des perturbations conduites en mode commun et en mode différentiel, en décomposant les circuits en blocs élémentaires, puis en superposant les perturbations dues aux différentes sources de pollution. Les performances CEM des circuits sont alors déterminées directement dans le domaine fréquentiel. Cette méthode vient en complément des méthodes de simulation des perturbations dans le domaine temporel qui sont plus précises, mais plus coûteuses en temps de calcul. Notre démarche a été rendue possible par l'utilisation d'un nouveau type de condensateurs dont les performances en découplage des hautes fréquences ne sont pas limitées par l'inductance série de leurs connexions, ceci grâce à une structure originale de réalisation des connexions en forme de quadripôles. Les cellules de commutation découplées au moyen de ces condensateurs forment des sources de perturbations indépendantes qui permettent l'étude des circuits complexes en effectuant une décomposition en "cellules CEM élémentaires".
22

L'intérêt sexuel et l'évaluation du risque de récidive chez trois types d'abuseurs sexuels d'enfants

Tétreault, Sylvain January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
23

Étude et mise au point d'un procédé d'élaboration de mélanges à base de polyamides combinant un pilote de polycondensation et des mélangeurs statiques / Study and design of a process for the elaboration of polyamide blends coupling a polycondensation pilot plant with static mixers

Leblanc, Jonathan 16 October 2008 (has links)
Ces travaux de recherche portent sur le développement d’un procédé permettant de mélanger, directement en sortie de polycondensation, du polyamide fondu avec d’autres polymères immiscibles en tant qu’additifs. Ce procédé se distingue ainsi des méthodes d’élaboration conventionnelles pour lesquelles une fusion préalable des polymères est nécessaire. L’étude concerne le mélange de polymères de viscosités très différentes (polyamide 66 et polyéthylène glycol) et le mélange de polymères de viscosités similaires (polyamide 66 et copolymère d’éthylène propylène, en présence ou non d’un agent d’interface : polypropylène greffé par de l’anhydride maléique).Une première partie de ce travail a consisté à caractériser la dispersion de ces mélanges élaborés selon des procédés conventionnels. Ce travail a conduit à développer un modèle reliant la taille de la phase dispersée aux principaux paramètres opératoires de chaque procédé, pour le cas rarement recensé dans la littérature, des mélanges de polymères de viscosités très différentes.La seconde partie a été consacrée à la conception et à la réalisation d’une installation constituée d’un pilote de polycondensation équipé, en sortie de réacteurs, d’un dispositif de mélange reposant sur la technologie des mélangeurs statiques. Son fonctionnement a ensuite été éprouvé pour les deux mélanges considérés, grâce des expériences qui ont permis d’analyser l’influence de différentes conditions opératoires sur la morphologie des mélanges générés. La comparaison des résultats obtenus à ceux issus des procédés conventionnels, a alors permis de préciser les performances et les limites du procédé développé dans cette étude / The aim of this work is to develop a process, which enables to blend polyamide in molten state with others polymers, directly at the outlet of a polycondensation reactor. Contrary to currently industrial processes, no remelting stage is needed in this one. The study has been carried out with polyamide 66 / polyethylene glycol blends (products with very different viscosities) and with polyamide 66 / ethylene propylene blends (products with similar viscosities), with or without polypropylene-graft-maleic-anhydride as interfacial agent. The first part of this work deals with the characterization of the dispersions obtained for these blends when their elaborations are carried out using conventional processes. Only few studies are available on blends, which exhibit a large difference between components viscosity. This work led us to develop a model to correlate, in this case, the dispersed phase size to the main operating conditions of each processes.The second part is dedicated to the design and the realization of an experimental installation, which is composed of polycondensation plant equipped, at the outlet of reactors, with a blending device based on static mixers technology. Its operation has been tested and experiments have been carried out in order to study the influence of the different processing parameters on blends morphology. The comparison of the results with those previously obtained using conventional processes allowed then to precise the performances and the limits of the process developed in this study
24

Optimisation énergétique de l'étage d'adaptation électronique dédié à la conversion photovoltaïque

Cabal, Cedric 15 December 2008 (has links) (PDF)
Une chaîne de conversion photovoltaïque signifie aujourd'hui un générateur photovoltaïque (GPV) connecté à une charge par l'intermédiaire d'un convertisseur. Selon l'application visée, l'énergie photovoltaïque est soit utilisée telle quelle par la charge, soit stockée ou bien injectée directement au réseau électrique. L'optimisation de la production de cette énergie reste encore du domaine de la recherche et beaucoup d'innovations sont encore nécessaires pour en faire une énergie fiable. De nos jours, les axes de recherche pour augmenter la production de cette énergie sont principalement focalisés sur l'extraction de la puissance maximale, mais très peu de solutions sont proposées pour améliorer l'efficacité énergétique de la chaîne de conversion dans son ensemble. Cette thèse est focalisée sur l'optimisation des performances des étages d'adaptation. Ainsi, des améliorations sont proposées sur les différentes parties constituant la chaîne de conversion. Le haut degré d'intégration et la flexibilité apportés par le domaine digital nous ont poussés vers la numérisation de commandes MPPT élaborées sur le principe de commande extrémale. L'amélioration de l'étage de conversion est illustrée au travers de deux structures, inspirées de méthodes couramment utilisées dans les applications de fortes puissances comme la mise en parallèle de convertisseurs DC-DC fonctionnant en mode interleaving. De nouvelles propriétés, intrinsèques à des structures semigiratrices de puissance, renforcent l'étude. Une nouvelle architecture basée sur la discrétisation de chaque générateur photovoltaïque est ainsi proposée comme pouvant être le meilleur compromis en termes de transfert d'énergie solaire.
25

Modèle de Cellule de Commutation pour les Etudes de Pertes et de Performances CEM

Akhbari, Mahdi 15 February 2000 (has links) (PDF)
Dans le contexte de la prédétermination des pertes ,par commutation et des perforrnanc CEM (Comptabilité ElectroMagnétique) des convertisseurs statiques d'Electronique de Puissance lors de la phase de conception technologique, cette thèse est consacrée à l'élaboration d'un modèle précis de la cellule de commutation MOSFET-Diode pin. Dans ce~e étude trois aspects ayant d'importantes influences sur les formes d'ondes temporelles des commutations aussi biencle la partie puissance que celle de cornritande sont traitées: 1 i) Les interconnexions et des éléments parasites li~es à rimplantation géométrique et au choix de la technologie de réalisation des convertisseurs statiques ii) La dynamique des charges dans la base large des composants bipolaires semiconducteurs (ici la diode pin) qui est de nature distribuée Hi) Les capacités non-linéaires parasites de MOSFET et en particulier la capacité d'entrée et Miller intervenant lors de commutation Le modèle de cellule de commutation est validé en comparant les simulations effectuées avec les mesures sur le prototype réalisé à cette fin. Il a été montré que le domaine de validité du modèle est beaucoup plus large par rapport aux modèles existants:. le modèle est relativement robuste devant les changements des conditions de circuit environnant des composants semiconducteurs et les variations du point de fonctionnement. Des applications réelles présentées au dernier chapitre ont pour but de montrer d'une part l'importance de l'environnement parasite des semiconducteurs dans la modélisation, fme des convertisseurs statiques et d'autre part la possibilité de rendre compatible le modèle aux cas plus complexes (plusieurs interrupteurs en parallèle).
26

Contribution aux relations entre les grammaires attribuées et la programmation fonctionnelle

Duris, Étienne 05 October 1998 (has links) (PDF)
L'ingénierie du logiciel doit concilier, d'une part, la modularité requise par les phases de développement et de maintenance et, d'autre part, l'efficacité indispensable dans la mise en oeuvre des applications. Ce dilemme nécessite des méthodes et des techniques de transformation permettant d'accroître l'efficacité des programmes modulaires. La déforestation, qui consiste à éliminer les structures intermédiaires apparaissant lors de la composition des différentes parties d'un programme, a suscité beaucoup d'intérêt, notamment en grammaires attribuées et en programmation fonctionnelle. En dépit de la diversité des formalismes utilisés, cette thèse compare les différentes techniques existantes et s'inspire de leurs atouts pour développer une nouvelle méthode de déforestation plus générale. Tout d'abord, une extension naturelle des grammaires attribuées est introduite pour permettre de représenter une plus large classe de programmes fonctionnels. Les grammaires attribuées dynamiques peuvent se passer de la présence physique d'un arbre pour guider les calculs et les transformations, mais bénéficient des méthodes classiques d'évaluation des grammaires attribuées. Ensuite, les principales méthodes fonctionnelles de déforestation (algorithme de Wadler, règle d'élimination foldr/build, normalisation des folds, fusion d'hylomorphismes) sont étudiées et comparées avec la composition descriptionnelle des grammaires attribuées. Les limitations de chaque méthode sont établies et permettent de déterminer les atouts nécessaires pour ces transformations de programmes. Finalement, une nouvelle méthode de déforestation est proposée. La composition symbolique utilise la puissance du formalisme des grammaires attribuées et incorpore un mécanisme d'évaluation partielle. Cette technique générale peut être appliquée sur des grammaires attribuées ou sur des programmes fonctionnels et permet de déforester des programmes pour lesquelles les méthodes existantes restaient impuissantes.
27

Conception et optimisation de convertisseurs statiques pour l'électronique de puissance Application aux structures à absorption sinusoïdale

Larouci, Chérif 13 May 2002 (has links) (PDF)
L'objectif de ces travaux de thèse est de réaliser une démarche d'optimisation des convertisseurs statiques la plus gênérale possible en s'appuyant sur des modèles analytiques et un environnement d'optimisation adéquat. Pour ce faire, nous avons choisi une structure flyback en absorption sinusoïdale comme un support significatif d'étude car elle regroupe la plupart des aspects qui intéressent le concepteur des convertisseurs statiques actuels (volume, pertes, compatibilité électromagnétique CEM, thermique ...). Ce processus d'optimisation réclame la mise en point de modèles capables de réaliser le compromis indispensable précision-rapidité de calcul. Ainsi, des modèles analytiques et des outils dédiés à I'optimisation ont été développés et intégrés dans une démarche d'optimisation sous contraintes. Les résultats de I'optimisation ont montré que I'optimum de la fonction objectif dépend à la fois des paramètres du convertisseur et des contraintes imposées. Les résultats de mesure viennent valider cette procédure d'optimisation.
28

Optimisation d'une chaîne de traction pour véhicule électrique

Sarrazin, Benoît 27 November 2012 (has links) (PDF)
Les éléments constituant la chaîne de traction sont le plus souvent dissociés et indépendants entre eux (pack de batteries, convertisseur de traction et moteur). L'utilisation des convertisseurs en cascade en tant que convertisseurs de traction a été le coeur de ces travaux de thèse. Les performances énergétiques des convertisseurs en cascade et de l'onduleur de tension classique ont été comparées sur un cycle de conduite normalisé pour différentes configurations sur les convertisseurs de puissance (niveaux de tension mis en jeu dans la chaîne de traction, variation du nombre d'onduleurs connectés en série pour les convertisseurs en cascade et variation du nombre de semi-conducteurs en parallèle pour réaliser la fonction des interrupteurs de puissance dans les convertisseurs). D'autres convertisseurs d'électronique de puissance sont nécessaires pour le bon fonctionnement d'un véhicule électrique. L'un de ces convertisseurs est le chargeur de batteries qui puise l'énergie du réseau électrique pour venir recharger les batteries du véhicule. Un autre est le système de monitoring des batteries qui permet d'assurer un équilibrage et un état de charge uniforme entre les différentes cellules qui composent le pack de batteries du véhicule. Dans une optique de mutualisation de fonction du convertisseur de puissance, les convertisseurs en cascade ont été étudiés pour assurer les fonctions de charge et d'équilibrage lorsque la traction du véhicule n'est pas utilisée.
29

Batch to continuous vinyl chloride suspension polymerization process : a feasibility study / Etude du passage en continu de la réaction de polymérisation en suspension du chlorure de vinyle

Lobry, Emeline 14 September 2012 (has links)
Les procédés continus par rapport aux procédés batch sont réputés être plus surs, plus économiques et plus sélectifs. Au regard de ces avantages, de plus en plus d'industries opérant traditionnellement en batch s'orientent vers des procédés continus. Si beaucoup de recherches ont été menées dans ce domaine en chimie fine, il n'en est pas de même pour les procédés de polymérisation et plus particulièrement pour le procédé de polymérisation en suspension du chlorure de vinyle. Ce procédé est à l'heure actuelle un des procédés batch les plus aboutis tant il a subi d'améliorations au cours des dernières décennies sur les plan chimiques (recette) et technologiques. Cependant, l'exposition au chlorure de vinyle est extrêmement toxique et le procédé présente notamment toujours des limitations en transfert thermique inhérentes à la technologie batch. De plus, l'étape réactionnelle constitue la seule étape batch du procédé total de production. Eu égard a la formation des grains de PVC au cours de la réaction, le procédé peut-être divise en trois principales étapes : une étape de dispersion liquide-liquide dans laquelle les gouttelettes de monomères (diamètre moyen 30-50μm) sont formées et stabilisées, une étape de réaction qui s'accompagne d'un phénomène d'agglomération contrôlée des gouttelettes de monomères et au cours duquel les particules polymérisant s’avèrent collantes et une pure étape réactionnelle au cours de laquelle la polymérisation est menée jusqu'à la conversion désirée. La présente étude se propose d'identifier les technologies adaptées pour chacune des étapes identifiées. Compte tenu des connaissances actuelles sur le comportement et l'évolution des grains avec la conversion et après une étude bibliographique sur les procédés continus de polymérisation, les technologies choisies dans ce travail sont les mélangeurs statiques et différents design de colonnes pulsées utilisées à co-courant. L'étape de dispersion liquide-liquide a été étudiée a l’aide de trois technologies différentes pour des systèmes de phases modèles. Concernant les mélangeurs statiques, les études ont démontré leur capacité à obtenir des gouttelettes de taille contrôlée et de la taille désirée. Dans la gamme étudiée, aucun effet de la concentration en phase dispersée n'a été démontre sur la taille des gouttes. Le paramètre physico-chimique le plus influent est la tension interfaciale. Celle-ci a d'ailleurs été estimée aux temps courts, correspondant aux temps de séjour (40-100 ms) dans les mélangeurs statiques, en modifiant la technique de la goutte pendante. Les résultats en termes de diamètre de goutte ont été corrélés via les nombres adimensionnels caractéristiques du système et de l'écoulement, à savoir les nombres de Reynolds et de Weber. A la lueur de ces résultats, les mélangeurs statiques ont été installes au pilote industriel pour effectuer des chargements de réacteurs batch de polymérisation. En plus de réduire considérablement les temps de chargement, leur utilisation a montré une meilleure répartition des agents de suspension et de l'initiateur au sein du grain. Ensuite, deux design de colonnes pulsées ont été utilises : la colonne pulsée a disques et couronnes a co-courant ascendant vertical et le COBR (continuous oscillatory baffled reactor, Nitech). Pour le premier design, les influence du matériau de garnissage et de son agencement (type et hauteur), des paramètres physicochimiques (concentration en phase dispersée, tensioactifs) et des paramètres hydrodynamiques (débit total, amplitude et fréquence d'oscillation) sur la taille des gouttes obtenues ont été examinées. Avec le second design, seuls les paramètres hydrodynamiques ont été étudiés. Une corrélation sur la taille des gouttes est proposée en fonction de nombres adimensionnels caractéristiques de ces appareils. Les trois technologies génératrices de la dispersion sont alors comparées en termes d'énergie dissipée et de puissance dissipée. [...] / Continuous processes present the benefit to be safer and more cost saving than batch processes. Many researches have been carried out in fine chemistry but few contributions refer to polymerization. We focus on the vinyl chloride suspension polymerization. This process has been extensively studied in batch with lots of improvement regarding the formulation and the technologies. This polymerization process is highly complex due to the toxic nature of the monomer, the good manage of heat transfer and stirring. Moreover the reaction step remains the only batch step of the PVC production. According to the PVC grain formation, the process can be divided into three steps (i) a liquid-liquid dispersion step in which the monomer droplet (30-50 µm) are generated and stabilized, (ii) a controlled agglomeration step of the reacting droplets exhibiting a sticky behaviour, (iii) a reaction step until the conversion rate is around 80-90% and the particles size is stable. In this study, the different technologies suitable for the different steps are pointed out. Based on the state of the art of the grain behaviour depending on the reaction conversion and on the literature concerning polymerization continuous process, static mixers and different co-current pulsed columns are proposed. Three technologies with different model system were chosen to study the liquid-liquid dispersion step. Static mixers allow the control of the droplet size under turbulent flow. In the range of the operating conditions, the dispersed phase concentration does not have a significant effect on the droplet size. The interfacial tension appears to be the most significant physico-chemical parameters. Correlation to predict the mean droplet size is proposed depending on different dimensionless numbers based on the hydrodynamics and on the systems: the Reynolds and Weber numbers. Given the promising results, static mixers are implemented at pilot scale to load the batch prior to polymerization. Their use demonstrates a noticeable reduction of the loading time and a better homogenisation of the different suspending agents and initiator inside the PVC grain. The two co-current pulsed columns design studied are the discs and doughnuts pulsed column and the COBR (continuous oscillatory baffled reactor, Nitech). For the first one, the effect of the packing materials (type and height), of the physico-chemical parameters (dispersed phase concentration, surfactant) and of hydrodynamic parameters (flowrate and oscillation conditions) on the droplet size are investigated where as for the second one the study is limited to the hydrodynamic parameters. A mean droplet size correlation is proposed based on the characteristic dimensionless numbers. The three continuous contactors used for liquid-liquid dispersion are compared in term of energy dissipation rate. The reaction is carried out in a continuous tubular reactor (the pulsed column). The column is suitable to transport solid-liquid suspension. Vinyl acetate suspension polymerization is performed to demonstrate the feasibility and particularly to study the encrusting and fouling problem. The first results are very promising.
30

Une méthodologie de conception de modèles analytiques de surface et de puissance de réseaux sur puce hautement paramétriques basée sur une méthode d’apprentissage automatique / A machine-learning based methodology to design analytical area and power models of highly parametric networks-on-chip

Dubois, Florentine 04 July 2013 (has links)
Les réseaux sur puces (SoCs - Networks-on-chip) sont apparus durant la dernière décennie en tant que solution flexible et efficace pour interconnecter le nombre toujours croissant d'éléments inclus dans les systèmes sur puces (SoCs - Systems-on-chip). Les réseaux sur puces sont en mesure de répondre aux besoins grandissants en bande-passante et en scalabilité tout en respectant des contraintes fortes de performances. Cependant, ils sont habituellement caractérisés par un grand nombre de paramètres architecturaux et d'implémentation qui forment un vaste espace de conception. Dans ces conditions, trouver une architecture de NoC adaptée aux besoins d'une plateforme précise est un problème difficile. De plus, la plupart des grands choix architecturaux (topologie, routage, qualité de service) sont généralement faits au niveau architectural durant les premières étapes du flot de conception, mais mesurer les effets de ces décisions majeures sur les performances finales du système est complexe à un tel niveau d'abstraction. Les analyses statiques (méthodes non basées sur des simulations) sont apparues pour répondre à ce besoin en méthodes d'estimations des performances des SoCs fiables et disponibles rapidement dans le flot de conception. Au vu du haut niveau d'abstraction utilisé, il est irréaliste de s'attendre à une estimation précise des performances et coûts de la puce finale. L'objectif principal est alors la fidélité (caractérisation des grandes tendances d'une métrique permettant une comparaison équitable des alternatives) plutôt que la précision. Cette thèse propose une méthodologie de modélisation pour concevoir des analyses statiques des coûts des composants des NoCs. La méthode proposée est principalement orientée vers la généralité. En particulier, aucune hypothèse n'est faite ni sur le nombre de paramètres des composants ni sur la nature des dépendances de la métrique considérée sur ces mêmes paramètres. Nous sommes alors en mesure de modéliser des composants proposant des millions de possibilités de configurations (ordre de 1e+30 possibilités de configurations) et d'estimer le coût de réseaux sur puce composés d'un grand nombre de ces composants au niveau architectural. Il est complexe de modéliser ce type de composants avec des modèles analytiques expérimentaux à cause du trop grand nombre de possibilités de configurations. Nous proposons donc un flot entièrement automatisé qui peut être appliqué tel quel à n'importe quelles architectures et technologies. Le flot produit des prédicteurs de coûts des composants des réseaux sur puce capables d'estimer les différentes métriques pour n'importe quelles configurations de l'espace de conception en quelques secondes. Le flot conçoit des modèles analytiques à grains fins sur la base de résultats obtenus au niveau porte et d'une méthode d'apprentissage automatique. Il est alors capable de concevoir des modèles présentant une meilleure fidélité que les méthodes basées uniquement sur des théories mathématiques tout en conservant leurs qualités principales (basse complexité, disponibilité précoce). Nous proposons d'utiliser une méthode d'interpolation basée sur la théorie de Kriging. La théorie de Kriging permet de minimiser le nombre d'exécutions du flot d'implémentation nécessaires à la modélisation tout en caractérisant le comportement des métriques à la fois localement et globalement dans l'espace. La méthode est appliquée pour modéliser la surface logique des composants clés des réseaux sur puces. L'inclusion du trafic dans la méthode est ensuite traitée et un modèle de puissance statique et dynamique moyenne des routeurs est conçu sur cette base. / In the last decade, Networks-on-chip (NoCs) have emerged as an efficient and flexible interconnect solution to handle the increasing number of processing elements included in Systems-on-chip (SoCs). NoCs are able to handle high-bandwidth and scalability needs under tight performance constraints. However, they are usually characterized by a large number of architectural and implementation parameters, resulting in a vast design space. In these conditions, finding a suitable NoC architecture for specific platform needs is a challenging issue. Moreover, most of main design decisions (e.g. topology, routing scheme, quality of service) are usually made at architectural-level during the first steps of the design flow, but measuring the effects of these decisions on the final implementation at such high level of abstraction is complex. Static analysis (i.e. non-simulation-based methods) has emerged to fulfill this need of reliable performance and cost estimation methods available early in the design flow. As the level of abstraction of static analysis is high, it is unrealistic to expect an accurate estimation of the performance or cost of the chip. Fidelity (i.e. characterization of the main tendencies of a metric) is thus the main objective rather than accuracy. This thesis proposes a modeling methodology to design static cost analysis of NoC components. The proposed method is mainly oriented towards generality. In particular, no assumption is made neither on the number of parameters of the components nor on the dependences of the modeled metric on these parameters. We are then able to address components with millions of configurations possibilities (order of 1e+30 configuration possibilities) and to estimate cost of complex NoCs composed of a large number of these components at architectural-level. It is difficult to model that kind of components with experimental analytical models due to the huge number of configuration possibilities. We thus propose a fully-automated modeling flow which can be applied directly to any architecture and technology. The output of the flow is a NoC component cost predictor able to estimate a metric of interest for any configuration of the design space in few seconds. The flow builds fine-grained analytical models on the basis of gate-level results and a machine-learning method. It is then able to design models with a better fidelity than purely-mathematical methods while preserving their main qualities (i.e. low complexity, early availability). Moreover, it is also able to take into account the effects of the technology on the performance. We propose to use an interpolation method based on Kriging theory. By using Kriging methodology, the number of implementation flow runs required in the modeling process is minimized and the main characteristics of the metrics in space are modeled both globally and locally. The method is applied to model logic area of key NoC components. The inclusion of traffic is then addressed and a NoC router leakage and average dynamic power model is designed on this basis.

Page generated in 0.088 seconds