Spelling suggestions: "subject:"pénale"" "subject:"pénales""
1 |
Variantes de la méthode du Recuit Simulé pour la coloration des graphesAbdul Nabi, Samih January 1993 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
2 |
Variantes de la méthode Tabou pour la coloration de graphesGhamlouche, Ilfat January 1993 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
3 |
LASERS MONOMODES A FAIBLE SENSIBILITE A LA RETROACTION OPTIQUE POUR LES TRANSMISSIONS A 2,5GBit/s SANS ISOLATEURGRILLOT, Frédéric 22 April 2003 (has links) (PDF)
Alors que les télécommunications optiques se sont imposées dans les liaisons point à point de très haut débit, leur extension au réseau métropolitain, caractérisé par une grande densité de connexions, est aujourd'hui freinée par le prix élevé des composants. Un des principaux facteurs de coût dans la fabrication des modules optique est lié au besoin de coupler le laser à un isolateur afin de le protéger des réflexions externes. Le but de cette thèse a consisté à développer des lasers monomodes faiblement sensibles à la réalimentation optique afin de pouvoir réaliser des transmissions à 2,5 GBit/s sans isolateur optique. L'étude de structures DFB (Distributed Feedback Lasers) conventionnelles a permis de relier les effets physiques induits sur les composants par la contre-réaction optique aux dégradations observées dans les courbes de taux d'erreurs. Bien qu'un tri de ces composants soit nécessaire à l'échelle industrielle, des transmissions à 2,5 GBit/s et à 85°C ont été réalisées sans plancher et avec de faibles pénalités après optimisation de la structure laser. Afin de s'affranchir de l'opération de tri, de nouvelles structures DFB à pas variable et fondées sur l'utilisation d'un réseau de Bragg asymétrique (chirped grating) ont ensuite été réalisées. Les résultats montrent des performances statiques et dynamiques homogènes sur plaque et au-delà de l'état de l'art. Outre la réduction du prix lié à l'absence d'isolateur, de telles performances permettent surtout de s'affranchir de l'opération de tri et sont donc particulièrement prometteuses pour le développement futur des réseaux de télécommunications tout optique.
|
4 |
Calibration d'algorithmes de type Lasso et analyse statistique de données métallurgiques en aéronautique / Calibration of Lasso-type algorithms & statistical analysis of metallurgical data in aeronauticsConnault, Pierre 06 April 2011 (has links)
Notre thèse comprend deux parties : l’une méthodologique, l’autre appliquée.La partie méthodologique porte sur le Lasso et une variante de cet algorithme, le Lasso projeté, en vue de leur calibration par pente. Notre méthode tire parti des propriétés de parcimonie du Lasso, en envisageant le problème de sa calibration comme un problème de sélection de modèles, permettant l’emploi de critères pénalisés nécessitant le réglage d’une constante. Pour déterminer la forme de la pénalité et la valeur de la constante, nous adaptons les approches classiques de Birgé et Massart. Ceci permet de dégager la notion de pénalité canonique. Pente et validation croisée sont ensuite comparées. La proximité des résultats suggère qu’en pratique on utilise les deux conjointement, avec des corrections visuelles concernant la pente. Des améliorations sur le temps de calcul des pénalités canoniques sont ensuite proposées, mais sans succès patent. La partie appliquée analyse certaines questions métallurgiques en aéronautique. En fiabilité, le grand nombre de variables présentes, relativement au nombre limité de données, mène à une instabilité des solutions par modèles linéaires et à des temps de calculs trop élevés ; c’est pourquoi le Lasso constitue une solution intéressante. Notre méthode de réglage permet souvent de retenir les variables conformes à l’expérience métier. La question de la qualité du procédé de fabrication, par contre, ne peut se traiter au moyen du Lasso. Quatre aspects sont alors envisagés : la détermination des facteurs du procédé, la mise en évidence de recettes, l’étude de la stabilité du procédé dans le temps et la détection de pièces hors-normes. Un schéma général d’étude procédé est ainsi dégagé,en qualité comme en fiabilité. / Our work contains a methodological and an applied part.In the methodological part we study Lasso and a variant of this algorithm : the projectedLasso. We develop slope heuristics to calibrate them.Our approach uses sparsity properties of the Lasso, showing how to remain to a modelselection framework. This both involves a penalized criterion and the tuning of a constant.To this aim, we adopt the classical approaches of Birgé and Massart about slope heuristics.This leads to the notion of canonical penalty.Slope and (tenfold) crossvalidation are then compared through simulations studies.Results suggest the user to consider both of them. In order to increase calculation speed,simplified penalties are (unsuccessfully) tried.The applied part is about aeronautics. The results of the methodological part doapply in reliability : in classical approaches (without Lasso) the large number of variables/number of data ratio leads to an instability of linear models, and to huge calculustimes. Lasso provides a helpful solution.In aeronautics, dealing with reliability questions first needs to study quality of theelaboration and forging processes. Four major axis have to be considered : analysing thefactor of the process, discrimining recipes, studying the impact of time on quality anddetecting outliers. This provides a global statistical strategy of impowerment for processes.
|
5 |
Captage du CO2 en post combustion par procédé de perméation gazeuse / Gas permeation process for post combustion CO2 capturePfister, Marc 05 April 2017 (has links)
La technologie de Captage et Stockage du CO2 (CSC) est considérée comme une des principales solutions pour limiter les rejets de gaz à effet de serre (CO2) et lutter contre le réchauffement climatique. L’étape de captage fait appel à un procédé de séparation des fumées de post combustion qui a pour fonction l’extraction sélective du CO2 des autres composés. Les principales performances visées sont un taux de capture et une pureté du CO2 supérieurs à 90%, ainsi qu’une consommation énergétique minimale afin de ne pas générer un niveau trop élevé d’émissions secondaires de CO2. La perméation gazeuse par membrane dense est une technologie de séparation potentiellement applicable au captage du CO2 en post combustion. Sur la base de différents types de matériaux et mécanisme de transport associés (processus physique ou chimique) une large plage de valeurs de perméabilité et de sélectivité peut être atteinte. Une des dernières familles de membrane ayant démontrée des performances de séparation pouvant être intéressantes pour le captage du CO2 sont les membranes à transport facilité dites ‘’réactives ‘’. Une analyse systématique des performances de séparation de modules membranaires basés sur des membranes physiques (polymères denses) et sur des membranes réactives (transport facilité) pour le traitement de fumées de post combustion a été réalisée. La simulation d’un procédé de captage complet, incluant un ou deux étages de séparation membranaire, une étape de séchage et une étape de compression a ensuite été effectuée. L’ensemble des résultats, en particulier la pénalité énergétique globale du système et l’estimation des surfaces membranaires nécessaires, permet de positionner la technologie de perméation gazeuse comparativement aux autres procédés de captage / CO2 Capture and Storage (CCS) is a promising solution to separate CO2 from flue gas, to reduce the CO2 emissions in the atmosphere, and hence to reduce global warming. In CCS, one important constraint is the high additional energy requirement of the different capture processes. That statement is partly explained by the low CO2 fraction in the inlet flue gas and the high output targets in terms of CO2 capture and purity (>90%).Gas permeation across dense membrane can be used in post combustion CO2 capture. Gas permeation in a dense membrane is ruled by a mass transfer mechanism and separation performance in a dense membrane are characterized by component’s effective permeability and selectivity. One of the newest and encouraging type of membrane in terms of separation performance is the facilitated transport membrane. Each particular type of membrane is defined by a specific mass transfer law. The most important difference to the mass transfer behavior in a dense membrane is related to the facilitated transport mechanism and the solution diffusion mechanism and its restrictions and limitations.Permeation flux modelling across a dense membrane is required to perform a post combustion CO2 capture process simulation. A CO2 gas permeation separation process is composed of a two-steps membrane process, one drying step and a compression unit. Simulation on the energy requirement and surface area of the different membrane modules in the global system are useful to determine the benefits of using dense membranes in a post combustion CO2 capture technology
|
6 |
Identification et commande des systèmes non linéaires : Utilisation des modèles de type NARMATlili, Brahim 29 July 2008 (has links) (PDF)
Dans ce travail, nous nous sommes intéressés à l'identification et la commande prédictive des systèmes non linéaires monovariables et multivariables en exploitant les modèles NARMA. Pour l'identification des modèles de type NARMA, nous avons proposé deux nouvelles méthodes heuristiques. La première méthode est basée sur les algorithmes génétiques binaires et la deuxième méthode constitue une combinaison entre le réseau de neurones artificiels à fonction d'activation polynomiale et l'algorithme génétique sous sa représentation réelle. Cette dernière méthode a été également développée pour la modélisation des systèmes multivariables. Les résultats trouvés, pratiques ou en simulations, ont confirmé l'efficacité et la robustesse des méthodes proposées. En effet, les modèles NARMA déterminés caractérisent avec une précision acceptable et avec une complexité raisonnable le comportement des systèmes étudiés. Par la suite nous avons proposé un contrôleur prédictif des systèmes non linéaires sous contraintes, qui exploite les modèles de type NARMA. La loi de commande est obtenue en minimisant un critère quadratique non convexe. Le problème d'optimisation est résolu par deux méthodes utilisant les algorithmes de Nelder-Mead et de Rosenbrock qui ne nécessitent pas le calcul de la dérivée du critère. Ces méthodes, combinées avec la fonction de pénalité, l'approche CFON ainsi que l'utilisation de la notion de multi initialisation, permettent une meilleure convergence vers le minimum global.
|
7 |
Analyse micro-économique du coût du chômage en Belgique : Réflexions en matière de perspectives sur le marché du travail et de pauvretéGangji, Amynah 09 September 2008 (has links)
L’objectif général de la thèse consistait à mieux comprendre les difficultés vécues par les chômeurs et les locataires en Belgique ainsi qu’à déterminer les moyens à mettre en œuvre pour les aider à les surmonter. Pour pouvoir répondre de manière adéquate à cette problématique relativement vaste, la thèse a été scindée en deux parties.
La première partie avait pour objectif d’analyser les entraves rencontrées par les chômeurs en Belgique lors de leur réinsertion, qu’elle soit professionnelle et sociale.
A partir du Panel Démographie Familiale, on peut observer qu’il n’y a pas réellement de rotation dans le phénomène du chômage en Belgique. Au contraire, ce sont souvent les mêmes individus qui y retournent régulièrement. Le premier chapitre de cette thèse a donc eu pour objectif d’étudier les causes de cette récurrence du chômage. A partir d’un modèle probit à effets aléatoires, on a montré que le phénomène est expliqué à hauteur de 57-82% par les caractéristiques des individus (observables ou non). La différence serait issue de la présence d’une dépendance d’état. Ainsi, par rapport à une personne identique en emploi, un individu qui aurait connu une expérience de chômage fera face à un risque accru (compris entre 11 et 33 points de pourcentage) de revivre cette expérience un an plus tard. Ces résultats montrent l’importance qu’il y a à concentrer les efforts sur la prévention du chômage.
Le deuxième chapitre a, quant à lui, plutôt étudié les conditions salariales auxquelles était confrontés le chômeur une fois réemployé. Pour ce faire, on a estimé une équation de salaires sur laquelle on a appliqué un modèle à effets fixes. Cette analyse s’est faite sur base du PSBH pour une période courant de 1994 à 2002. Les résultats démontrent qu’une expérience de chômage engendre une pénalité salariale de l’ordre de 6%. En outre, cette dernière s’accroît de manière linéaire à mesure que la période de chômage s’allonge dans le temps. Enfin, on a démontré que le chômeur peut recouvrir partiellement le différentiel de salaire si tant est qu’il reste suffisamment longtemps dans son nouvel emploi. Néanmoins, la présence de dépendance d’état dans le chômage implique qu’il y a un risque que certains individus n’arrivent jamais à créer une relation d’emploi durable dans le temps. Dans ce cas, la pénalité perdurera.
Si une expérience de chômage mène effectivement à des emplois moins bien payés ou plus instables, cela aura des implications en termes de conditions de vie. L'objectif du troisième chapitre a donc consisté à mesurer l’impact d’évènements dit « déclencheurs » (transitions sur le marché du travail des différents membres du ménage, bouleversement dans la structure familiale) sur les probabilités d’entrée dans et de sortie de la pauvreté en Belgique. La notion de pauvreté est approchée à l’aide de trois concepts recouvrant des réalités différentes : la pauvreté monétaire, la pauvreté subjective et la pauvreté des conditions de vie. L’étude montre qu’il n’y a pas de trajectoire unique qui mène ou qui permet de sortir de la pauvreté, tous les évènements déclencheurs ayant un rôle à jouer. Cependant l’ampleur et le sens des effets peuvent varier en fonction de l’approche considérée. Ainsi, les flux d’entrée et de sortie à partir des indicateurs subjectif et d’existence sont influencés plus fortement par les changements dans la situation conjugale des individus. Les pauvretés monétaires sont, quant à elles, plutôt affectées par l’arrivée ou le départ de personnes à charge. Enfin, les transitions sur le marché du travail affecteront de manière plus importante les flux d’entrée et de sortie de la pauvreté lorsque celle-ci est approchée par l’indicateur de privation relative. Dès lors, l’utilisation de l’approche subjective et de l’indicateur des conditions de vie nous ont apporté un éclairage nouveau quant à l’impact de certains évènements déclencheurs sur la situation de précarité vécue par les individus.
La deuxième partie s’est concentrée sur les solutions existantes qui permettraient d’améliorer les conditions de vie des locataires aux revenus les plus bas pour la Région spécifique que constitue Bruxelles.
Plus spécifiquement, le quatrième chapitre de la thèse a analysé les effets de la mise en place du Plan pour l’avenir du logement (construction de 5000 logements publics endéans les cinq ans) sur le cycle immobilier à Bruxelles. Pour ce faire, un modèle économétrique déterminant l’investissement privé et l’indice du prix immobilier pour les appartements et les maisons individuelles a été estimé. A partir des résultats obtenus, nous avons été à même d’effectuer des simulations de l’effet attendu de la construction de 5.000 à 10.000 logements publics sur les prix immobiliers ainsi que sur l’investissement privé sur une période courant de 20 à 30 ans. Les résultats indiquent que l’investissement public dans la construction de logements sociaux a des effets positifs en termes d’encouragement de l’investissement résidentiel privé (9.000 logements supplémentaires dans l’hypothèse de 5.000 logements publics construits) et de baisse du prix immobilier (de l’ordre de 1 à 2% après une dizaine d’années). A Bruxelles, l’explication résiderait dans un assainissement de la concurrence dans le « bas de gamme » du marché immobilier et un ralentissement du « filtering down ». A très long terme, le différentiel de prix se résorberait (dissipation du choc) mais l’effet multiplicateur de l’investissement public initial sur l’investissement résidentiel privé cumulé serait de l’ordre de 1,8.
Le reproche fait au Plan pour l’avenir du logement est que la construction de 5.000 logements sociaux ne suffira pas à aider la totalité des ménages en difficulté à accéder à un logement décent. Or, à côté de cette politique d’offre, il existe, à disposition du gouvernement, un deuxième outil pour améliorer les conditions d’habitation des ménages devant se loger sur le marché locatif privé, qui cette fois agit du côté de la demande: l’attribution d’allocations-loyers, qui existe actuellement dans une grande majorité de pays européens.
Le cinquième chapitre de la thèse a donc étudié la faisabilité de l’implémentation d’un programme d’allocation en RBC et les conséquences qu’il engendrerait sur le marché immobilier bruxellois. Face au double constat d’un déficit excessif de l’offre de logements décents dans le segment « faibles revenus » à Bruxelles et de danger d’inflation des loyers, nous ne recommandons pas la mise en œuvre d’un programme d’allocations-loyers dans cette ville. Avant d’y envisager une telle politique de stimulation de la demande, il faudrait d’abord accroître l’offre de logements sociaux et/ou subventionner la construction en général. L’idée est d’assainir d’abord la concurrence dans ce segment de marché pour y stabiliser les prix.
|
8 |
Résolution d’un problème quadratique non convexe avec contraintes mixtes par les techniques de l’optimisation D.C. / Solving a binary quadratic problem with mixed constraints by D.C. optimization techniquesAl Kharboutly, Mira 04 April 2018 (has links)
Notre objectif dans cette thèse est de résoudre un problème quadratique binaire sous contraintes mixtes par les techniques d'optimisation DC. Puisque l'optimisation DC a prouvé son efficacité pour résoudre des problèmes de grandes tailles dans différents domaines, nous avons décidé d'appliquer cette approche d'optimisation pour résoudre ce problème. La partie la plus importante de l'optimisation DC est le choix d'une décomposition adéquate qui facilite la détermination et accélère la convergence de deux suites construites. La première suite converge vers la solution optimale du problème primal et la seconde converge vers la solution optimale du problème dual. Dans cette thèse, nous proposons deux décompositions DC efficaces et simples à manipuler. L'application de l'algorithme DC (DCA) nous conduit à résoudre à chaque itération un problème quadratique convexe avec des contraintes mixtes, linéaires et quadratiques. Pour cela, il faut trouver une méthode efficace et rapide pour résoudre ce dernier problème à chaque itération. Pour cela, nous appliquons trois méthodes différentes: la méthode de Newton, la programmation semi-définie positive et la méthode de points intérieurs. Nous présentons les résultats numériques comparatifs sur les mêmes repères de ces trois approches pour justifier notre choix de la méthode la plus rapide pour résoudre efficacement ce problème. / Our objective in this work is to solve a binary quadratic problem under mixed constraints by the techniques of DC optimization. As DC optimization has proved its efficiency to solve large-scale problems in different domains, we decided to apply this optimization approach to solve this problem. The most important part of D.C. optimization is the choice of an adequate decomposition that facilitates determination and speeds convergence of two constructed suites where the first converges to the optimal solution of the primal problem and the second converges to the optimal solution of the dual problem. In this work, we propose two efficient decompositions and simple to manipulate. The application of the DC Algorithm (DCA) leads us to solve at each iteration a convex quadratic problem with mixed, linear and quadratic constraints. For it, we must find an efficient and fast method to solve this last problem at each iteration. To do this, we apply three different methods: the Newton method, the semidefinite programing and interior point method. We present the comparative numerical results on the same benchmarks of these three approaches to justify our choice of the fastest method to effectively solve this problem.
|
9 |
Une modélisation du contact par l'approche mortier : application à la mise en forme / Mortar approach contact modeling : application formattingKallel, Achraf 10 December 2014 (has links)
Cette thèse est située dans le cadre du projet FUI OASIS ayant comme objectif la modélisation d'un processus d'emboutissage optimisé. Le travail consiste essentiellement au développement des algorithmes de contact plus appropriés à ce type de mise en forme. Dans la littérature et pour plusieurs codes de calcul industriels, l'approche NTS (nœud à segment) demeure la plus utilisée pour la résolution d'un problème de contact. Dans certaine configuration, cette méthode présente des insuffisances et un manque de précision. On la remplaçant par l'approche mortier, on arrive à résoudre une gamme assez large de problèmes de contact. La méthode mortier, utilisée au initialement pour un calcul avec décomposition de domaine, a été le centre d'intérêt de plusieurs travaux de recherche pour la modélisation du contact. Dans ce travail, on va regrouper plusieurs méthodes de gestion du contact en les combinant avec l'approche mortier. L'algorithme de résolution, les éléments d'implémentation ainsi quelques exemples de validation présentant une critique des avantages et les limites de chaque techniques sont détaillés dans ce travail afin d'obtenir un support technique pour tous travail ultérieurs avec la méthode mortier. Le principal avantage de la méthode mortier se manifeste dans l'application des conditions de contact sous forme d'intégrale dans l'interface. Bien que cette méthode permette de réduire la différence des contraintes dans l'interface de contact d'un élément à un autre pour obtenir une meilleure continuité de la pression de contact, elle demeure insuffisante dans certaines applications en particulier pour les problèmes en grande déformation. Le lissage des surfaces de contact, qu'on peut appliquer par différentes techniques, présente une solution classique à ce genre de problème en mécanique de contact. L'originalité de ce travail, c'est la combinaison de l'utilisation des courbes B-Spline cubiques pour la description presque exacte de la surface de contact d'un côté avec une formulation avec l'approche mortier pour l'application des conditions de contact d'un autre côté. Cette combinaison forme un duo gagnant permettant de résoudre un problème de contact en grandes déformation. Les termes permettant l'implémentation des différentes techniques de lissage pour la résolution d'un problème de contact sont détaillés. Une attention particulière est accordée au lissage avec les B-Spline Cubiques.Tous les algorithmes détaillés dans ce travail sont implémentés dans un code maison FiEStA. C'est un code de calcul par éléments finis libre en langage C++. Certains développements concernant la loi de comportement hyper-élastique et l'intégralité du module du contact sont développés dans ce travail de thèse. / This thesis is situated in the FUI OASIS project which the objective is the modeling of an optimized stamping process. The work mainly involves the development of the most appropriate contact algorithms such formatting. In the literature and several industrial computing codes, the NTS approach (node to segment) remains the most used for the resolution of a contact problem. In certain configuration, this method has shortcomings and a lack of precision. We replacing it with mortar approach, we manage to solve a broad range of contact problems. The mortar method, used for the initial for calculation using domain decomposition, was the focus of several research projects for the modeling of the contact. In this work, we will consolidate multiple contact formulation methods in combination with mortar approach. The resolution algorithm, the elements of implementation and some examples of validation with a review of the advantages and limitations of each technique are detailed in this work in order to get technical support for subsequent work with the mortar method. The main advantage of the mortar method is in the application of the contact conditions in integral form in the interface. Although this method reduces the difference of the stresses in the contact interface of a component to another to obtain a better continuity of the contact pressure, it is still insufficient in some applications, particularly for large deformation problems. The smoothing of contact surfaces, which can be applied by various techniques, presents a classic solution to this problem in mechanical contact. The originality of this work is the combination of using cubic B-Spline curves for the almost exact description of the contact surface on one side with the use of the mortar approach to the application of the contact conditions on the other hand. This combination forms a winning combination for solving a contact problem in large deformation. The terms allowing the implementation of the different smoothing techniques for solving a problem of contact are detailed. Particular attention is paid to smoothing with Cu bic B-Spline. All algorithms detailed in this work are implemented in a house code 'Fiesta'. This is a free finite elements computer code in C ++. Some developments in the law of hyper-elastic behavior and completeness of the contact module are developed in this thesis.
|
10 |
Bilevel programming problems: analysis, algorithms and applicationsChen, Yang January 1993 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
Page generated in 0.0594 seconds