171 |
Les engagements internationaux et les défaillances de la protection constitutionnelle des droits fondamentaux : l'exemple des paradoxes des mécanismes de contrôle nigériens au regard des expériences française et internationaleMalam Oumarou, Zara 27 May 2013 (has links)
Les États semblent ériger les Cours constitutionnelles en meilleur garant de la protection des droits fondamentaux. Cette étude propose une délimitation des compétences, voire des responsabilités constitutionnelles. Elle démontre que si l'inneffectivité de la protection des droits a été mise en évidence en dépit de l'existence des mécanismes de justice constitutionnelle et des ratifications massives des conventions internationales, c'est la recherche des défaillances de la protection constitutionnelle qui s'impose. La confrontation « des engagements internationaux aux défaillances de la protection des droits fondamentaux » pose la question du contrôle qui est censé être exercé par le juge constitutionnel. Au regard des expériences française et internationale, le Niger offre un exemple parfait des paradoxes de ces mécanismes de contrôle tant a priori qu'a posteriori. Ces défaillances apparaissent à travers les limites constitutionnelles de l'intervention du juge constitutionnel, voire du juge international. Cette étude à la fois micro et macrocomparative, révèle le décalage entre la justice constitutionnelle nigérienne et française. Bien plus, elle illustre le déficit de la protection constitutionnelle, y compris de la France, par rapport aux véritables exigences internationales de la protection. Au-delà, cette thèse propose des pistes d'une protection conventionnelle efficace, voire effective des droits fondamentaux conventionnels. / States seem to assign a more important role to Constitutional courts to protect fundamental rights. This study proposes a delimitation of powers and constitutional responsibilities. It shows that if the ineffectiveness of human rights has been highlighted despite the fact that there are mechanisms of constitutional justice and massive ratifications of international conventions, research focusing on constitutional protection deficiencies remains crucial. Comparing “international commitments and deficiencies in the protection of fundamental rights” raises the issue of control which is supposed to be exercised by the Constitutional court. In the light of the French and international experiences, Niger provides a perfect example of paradoxes of the pre-control and post-control mechanisms. Such deficiencies appear through constitutional limits of the intervention of the Constitutional judge and the international judge. This micro and macro comparative study reveals the difference between the Nigeren and the French constitutional justice. It also illustrates the shortfall of the constitutional protection including France in the face of the real international requirements of the protection. Furthermore, this doctoral thesis proposes courses of action for effective and efficient protection under the convention.
|
172 |
Maîtrise du procédé hybride de projection thermique avec refusion laser in-situ : approches numérique et expérimentale / Investigation of hybrid plasma spraying process with in situ laser remelting : numerical and experimental methodsLiu, Jiangwei 20 January 2016 (has links)
La projection hybride combinant la projection plasma et la refusion laser est une solution alternative permettant de diminuer ou même d'éliminer la présence de pores et de fissures au sein d'un dépôt brut de projection. Lors d'un procédé de projection plasma ou de refusion laser, le système substrat/dépôt subissant l'élévation de température,la fusion, la solidification et le refroidissement rapide est ainsi soumis à des gradients de température élevés, un niveau de contraintes élevé, et même un risque de formation de fissures. Il est alors important de pouvoir maîtriserles variations de température et la distribution des contraintes résiduelles au sein même du système. Concernantles travaux effectués dans cette thèse, des modèles thermiques et mécaniques ont été développés à l'aide dulogiciel ANSYS, de sorte à améliorer notre compréhension des comportements thermique et mécanique des revêtements élaborés par projection plasma avec refusion laser.Tout d'abord, la simulation du procédé de projection plasma a été développée afin de prédire les champs transitoires de température, la déformation finale de l'échantillon et les contraintes résiduelles dans des dépôts céramiques (alumine) et métalliques (NiCrBSi). Les contraintes résiduelles résultent de l'équilibre entre contraintes de trempe (toujours en tension) et contraintes thermiques lors du refroidissement final (en compression ou en tension suivant le cas). En raison de la faible limite d'élasticité du dépôt, les contraintes thermiques dominent les contraintes résiduelles dans le cas du dépôt d'alumine. En revanche, les contraintes de trempe dans le dépôt de NiCrBSi sont plus importantes. Par ailleurs, l'augmentation de l'efficacité du système de refroidissement mis en oeuvre permet de diminuer le niveau des contraintes résiduelles dans le dépôt d'alumine. Inversement les contraintes résiduelles au sein du dépôt de NiCrBSi augmentent lorsque le refroidissement en cours de projection est accru. L'analyse thermique permettant de simuler le procédé de refusion laser à posteriori d'un revêtement de NiCrBSi a été effectuée de sorte à évaluer les effets des paramètres du laser sur le champ de température engendré et laforme du bain refondu. Un coefficient d'absorption de 0.5 a été estimé par comparaison de l'épaisseur du bain refondu obtenue par les méthodes numérique et expérimentale. De plus, les morphologies de revêtements refondus ont été caractérisées par méthodes expérimentales. Selon l'analyse mécanique de la refusion laser à posteriori, les contraintes résiduelles sont en tension dans le dépôt refondu, mais en compression vers la zone non-refondue.Concernant le modèle portant sur l'élaboration de couches multiples, permettant de simuler le procédé de refusion laser in-situ, une diminution des contraintes transitoires au sein des couches préalablement élaborées est induite par l'accumulation progressive de chaleur au cours du processus d'élaboration. Après refroidissement final, les contraintes résiduelles suivant la direction de déplacement présentent une amplitude plus importante que suivant les autres directions. De plus, des solutions permettant de diminuer le niveau des contraintes dans le dépôt après refusion ont été recherchées, en faisant notamment varier l'efficacité du système de refroidissement ou le préchauffage du substrat. Il s'avère que l'amplitude des contraintes résiduelles dans le dépôt après refusion est plus sensible à la variation du préchauffage du substrat qu'à la modification de l'efficacité du système de refroidissement. / The hybrid spraying process consisting in plasma spraying and laser remelting is an alternative method to minimize or even eliminate the potential defects within the as-sprayed coatings.During the treatment of plasma spraying or laser remelting, the substrate/coating system undergoing heating, melting, solidification and fast cooling processes is submitted to high temperature gradients, high stress levels and even risks of crack formation. It is therefore important to control the temperature variation and stress level within the substrate/coating system. In this study, thermal and mechanical models established with ANSYS were developed to provide a fundamental understanding of thermal and mechanical behaviors of deposited coatings during plasma spraying and laser remelting processes.3D simulation models were first developed to predict the temperature field, the final deformation of the specimen, and the residual stresses within ceramic (alumina) and metallic (NiCrBSi) coatings. The final residual stresses result from the balance between quenching stresses (tensile) and thermal stresses (compressive or tensile). Due to the low value of the yield stress, the thermal stresses (compressive for that case) dominate the final stress level in the case of the ceramic coating (alumina). On the contrary, the final residual stresses within the NiCrBSi coating are tensile. It is also predicted that an increase of the cooling efficiency induces a lower stress level for the alumina coating, while improving the cooling efficiency slightly increases the residual stresses for the case of the metallic coating (NiCrBSi).Thermal analysis to predict laser post-remelting of a NiCrBSi coating was then carried out to investigate the effects of the laser parameters on the temperature field as well as on the remelted pool shape. An absorption coefficient of 0.5 was estimated by comparison of the remelted pool depths obtained by experimental and numerical methods. In addition, the morphologies of theremelted coating were characterized by experimental methods. According to the mechanical analysis for laser post-remelting of NiCrBSi coatings, the predicted residual stresses were tensile within the remelted coating, whereas those within the non- emelted zone were reversed from tensile before remelting to compressive after laser post-remelting. According to the numerical analysis of in situ laser remelting by a multi-layer model, transient stresses in the former deposited layers were decreased progressively due to the heat accumulation during the following deposition process. For the residual stresses after final cooling, the stress component along the displacement direction presents a higher level in comparison with the transverse andthrough thickness components. Solutions allowing decreasing the stress level within the remelted coating were studied by changing the cooling efficiency and the initial temperature of the substrate. It was noted that the generated residual stress (tensile) was more sensitive to the initial temperature of the substrate, than to the efficiency of the cooling system. In particular, increasing the initial temperature of the substrate could significantly decrease the stress magnitude within the remelted coating, and even reverse the residual stresses within the nonremelted part of the coating to compressive values.
|
173 |
Modélisation, analyse et simulation de problèmes de contact en mécanique des solides et des fluides.Lleras, Vanessa 20 November 2009 (has links) (PDF)
La modélisation des problèmes de contact pose de sérieuses difficultés qu'elles soient conceptuelles, mathématiques ou informatiques. Motivés par le rôle fondamental que jouent les phénomènes de contact, nous nous intéressons à la modélisation, l'analyse et la simulation de problèmes de contact intervenant en mécanique des solides et des fluides. Dans une première partie théorique, on étudie le comportement asymptotique de solutions de problèmes variationnels dépendant du temps issus de la mécanique du contact frottant. La deuxième partie est consacrée au contrôle de la qualité des calculs en mécanique des solides. Guidés par la recherche de la formulation et l'étude du contact dans la méthode des éléments finis étendus (XFEM), nous étudions notamment les estimateurs d'erreur par résidu pour la méthode XFEM dans le cas linéaire, ceux pour le problème de contact unilatéral avec frottement de Coulomb approchés par une méthode d'éléments finis standard et l'extension au cas de méthodes mixtes stabilisées (i.e., ne nécessitant pas de condition inf-sup). Cette partie s'achève par la définition du problème de contact avec XFEM suivie d'une estimation a priori de l'erreur. La troisième partie concerne la simulation numérique en mécanique des fluides, plus précisément du problème de contact de la dynamique des globules rouges évoluant dans un fluide régi par les équations de Navier-Stokes en dimension deux.
|
174 |
Analyse de méthodes mixtes d'éléments finis en mécaniqueCapatina, Daniela 02 November 2011 (has links) (PDF)
Les travaux de recherche de cette habilitation se situent dans le domaine de l'Analyse Numérique des Equations aux Dérivées Partielles et portent sur la modélisation, la discrétisation, l'analyse a priori et a posteriori de schémas et la simulation numérique de différents problèmes issus de la mécanique. Un fil conducteur de ces travaux est l'utilisation et l'étude des méthodes d'éléments finis (conformes, non-conformes, mixtes, de Galerkin discontinus, stabilisés) et des formulations mixtes. Les domaines d'application abordés sont la mécanique des solides élastiques, l'ingénierie pétrolière et la mécanique des fluides, newtoniens et non-newtoniens. Ainsi, des problèmes d'élasticité linéaire, comme la discrétisation de deux modèles de plaque mince en flexion munie de conditions aux limites physiques, ont été considérés. Des écoulements anisothermes dans les milieux poreux, décrits par les équations de Darcy-Forchheimer avec un bilan d'énergie exhaustif dans les cas mono et multi-phasique, ainsi qu'un couplage thermo-mécanique puits - réservoir pétrolier ont aussi été étudiés, dans le cadre d'une collaboration industrielle avec Total. Enfin, plusieurs questions en mécanique des fluides ont été abordées, comme la discrétisation robuste des équations de Stokes par une méthode de Galerkin discontinue en lien avec les éléments finis non-conformes, le traitement des conditions aux limites non-standard pour les équations de Navier-Stokes, la modélisation hiérarchique multi-dimensionnelle des écoulements fluviaux à surface libre, la simulation réaliste des écoulements de liquides polymères et la stabilité des schémas numériques par rapport aux paramètres physiques, en particulier pour le modèle de Giesekus.
|
175 |
Déconvolution Aveugle en Imagerie de Microscopie Confocale À Balayage LaserPankajakshan, Praveen 15 December 2009 (has links) (PDF)
La microscopie confocale à balayage laser, est une technique puissante pour étudier les spécimens biologiques en trois dimensions (3D) par sectionnement optique. Elle permet d'avoir des images de spécimen vivants à une résolution de l'ordre de quelques centaines de nanomètres. Bien que très utilisée, il persiste des incertitudes dans le procédé d'observation. Comme la réponse du système à une impulsion, ou fonction de flou (PSF), est dépendante à la fois du spécimen et des conditions d'acquisition, elle devrait être estimée à partir des images observées du spécimen. Ce problème est mal posé et sous déterminé. Pour obtenir une solution, il faut injecter des connaisances, c'est à dire, a priori dans le problème. Pour cela, nous adoptons une approche bayésienne. L'état de l'art des algorithmes concernant la déconvolution et la déconvolution aveugle est exposé dans le cadre d'un travail bayésien. Dans la première partie, nous constatons que la diffraction due à l'objectif et au bruit intrinsèque à l'acquisition, sont les distorsions principales qui affectent les images d'un spécimen. Une approche de minimisation alternée (AM), restaure les fréquences manquantes au-delà de la limite de diffraction, en utilisant une régularisation par la variation totale sur l'objet, et une contrainte de forme sur la PSF. En outre, des méthodes sont proposées pour assurer la positivité des intensités estimées, conserver le flux de l'objet, et bien estimer le paramètre de la régularisation. Quand il s'agit d'imager des spécimens épais, la phase de la fonction pupille, due aux aberrations sphériques (SA) ne peut être ignorée. Dans la seconde partie, il est montré qu'elle dépend de la difference à l'index de réfraction entre l'objet et le milieu d'immersion de l'objectif, et de la profondeur sous la lamelle. Les paramètres d'imagerie et la distribution de l'intensité originelle de l'objet sont calculés en modifiant l'algorithme AM. Due à la nature de la lumière incohérente en microscopie à fluorescence, il est possible d'estimer la phase à partir des intensités observées en utilisant un modèle d'optique géométrique. Ceci a été mis en évidence sur des données simulées. Cette méthode pourrait être étendue pour restituer des spécimens affectés par les aberrations sphériques. Comme la PSF varie dans l'espace, un modèle de convolution par morceau est proposé, et la PSF est approchée. Ainsi, en plus de l'objet, il suffit d'estimer un seul paramétre libre.
|
176 |
Numerical Complexity Analysis of Weak Approximation of Stochastic Differential EquationsTempone Olariaga, Raul January 2002 (has links)
The thesis consists of four papers on numerical complexityanalysis of weak approximation of ordinary and partialstochastic differential equations, including illustrativenumerical examples. Here by numerical complexity we mean thecomputational work needed by a numerical method to solve aproblem with a given accuracy. This notion offers a way tounderstand the efficiency of different numerical methods. The first paper develops new expansions of the weakcomputational error for Ito stochastic differentialequations using Malliavin calculus. These expansions have acomputable leading order term in a posteriori form, and arebased on stochastic flows and discrete dual backward problems.Beside this, these expansions lead to efficient and accuratecomputation of error estimates and give the basis for adaptivealgorithms with either deterministic or stochastic time steps.The second paper proves convergence rates of adaptivealgorithms for Ito stochastic differential equations. Twoalgorithms based either on stochastic or deterministic timesteps are studied. The analysis of their numerical complexitycombines the error expansions from the first paper and anextension of the convergence results for adaptive algorithmsapproximating deterministic ordinary differential equations.Both adaptive algorithms are proven to stop with an optimalnumber of time steps up to a problem independent factor definedin the algorithm. The third paper extends the techniques to theframework of Ito stochastic differential equations ininfinite dimensional spaces, arising in the Heath Jarrow Mortonterm structure model for financial applications in bondmarkets. Error expansions are derived to identify differenterror contributions arising from time and maturitydiscretization, as well as the classical statistical error dueto finite sampling. The last paper studies the approximation of linear ellipticstochastic partial differential equations, describing andanalyzing two numerical methods. The first method generates iidMonte Carlo approximations of the solution by sampling thecoefficients of the equation and using a standard Galerkinfinite elements variational formulation. The second method isbased on a finite dimensional Karhunen- Lo`eve approximation ofthe stochastic coefficients, turning the original stochasticproblem into a high dimensional deterministic parametricelliptic problem. Then, adeterministic Galerkin finite elementmethod, of either h or p version, approximates the stochasticpartial differential equation. The paper concludes by comparingthe numerical complexity of the Monte Carlo method with theparametric finite element method, suggesting intuitiveconditions for an optimal selection of these methods. 2000Mathematics Subject Classification. Primary 65C05, 60H10,60H35, 65C30, 65C20; Secondary 91B28, 91B70. / QC 20100825
|
177 |
Estimation et détection en imagerie hyperspectrale : application aux environnements côtiers.Jay, Sylvain 31 October 2012 (has links) (PDF)
Cette thèse aborde des problématiques d'estimation et de détection supervisée en imagerie hyperspectrale, appliquées ici aux environnements côtiers. Des modèles bathymétriques de réflectance sont utilisés afin de représenter l'influence de la colonne d'eau sur la lumière incidente. Différents paramètres sont dits optiquement actifs et agissent sur le spectre de réflectance (phytoplancton, matière organique dissoute colorée...). Nous proposons d'adopter une nouvelle approche statistique pour estimer ces paramètres, traditionnellement retrouvés par inversion des modèles physiques. Différentes méthodes telles que l'estimation du maximum de vraisemblance et du maximum a posteriori, ainsi que le calcul des bornes de Cramér-Rao, sont implémentées avec succès sur les données synthétiques et réelles. Par ailleurs, nous adaptons les filtres supervisés couramment utilisés au contexte de la détection de cibles immergées. Dans le cas où les paramètres caractéristiques de la colonne d'eau sont inconnus, nous développons un nouveau filtre issu du test du rapport de vraisemblance généralisé permettant la détection sans aucune connaissance a priori sur ces paramètres.
|
178 |
Adaptivity in anisotropic finite element calculationsGrosman, Sergey 09 May 2006 (has links) (PDF)
When the finite element method is used to solve boundary value problems, the
corresponding finite element mesh is appropriate if it is reflects the behavior of the true solution. A posteriori error estimators are suited to construct adequate meshes. They are useful to measure the quality of an approximate solution and to design adaptive solution algorithms. Singularly perturbed problems yield in general solutions with anisotropic features, e.g. strong boundary or interior layers. For such problems it is useful to use anisotropic meshes in order to reach maximal order of convergence. Moreover, the quality of the numerical solution rests on the robustness of the a posteriori error estimation with respect to both the anisotropy of the mesh and the perturbation parameters.
There exist different possibilities to measure the a posteriori error in the energy norm for the singularly perturbed reaction-diffusion equation. One of them is the equilibrated residual method which is known to be robust as long as one solves auxiliary local Neumann problems exactly on each element. We provide a basis for an approximate solution of the aforementioned auxiliary problem and show that this approximation does not affect the quality of the error estimation.
Another approach that we develope for the a posteriori error estimation is the hierarchical error estimator. The robustness proof for this estimator involves some stages including the strengthened Cauchy-Schwarz inequality and the error reduction property for the chosen space enrichment.
In the rest of the work we deal with adaptive algorithms. We provide an overview of the existing methods for the isotropic meshes and then generalize the ideas for the anisotropic case. For the resulting algorithm the error reduction estimates are proven for the Poisson equation and for the singularly perturbed reaction-difussion equation. The convergence for the Poisson equation is also shown.
Numerical experiments for the equilibrated residual method, for the hierarchical
error estimator and for the adaptive algorithm confirm the theory. The adaptive
algorithm shows its potential by creating the anisotropic mesh for the problem
with the boundary layer starting with a very coarse isotropic mesh.
|
179 |
Επαναληπτική αποκωδικοποίηση χωροχρονικών κωδικών (space-time codes) σε συστήματα ορθογώνιας πολυπλεξίας φερουσών: αναπαράσταση δεδομένων και πολυπλοκότηταΑγγελόπουλος, Aπόστολος 06 August 2007 (has links)
Η χρήση πολλαπλών κεραιών παίζει πλέον ένα πολύ σημαντικό ρόλο στη βελτίωση των ραδιοτηλεπικοινωνιών. Για το λόγο αυτό, ο τομέας των τηλεπικοινωνιακών συστημάτων πολλαπλών κεραιών μετάδοσης – λήψης (συστήματα ΜΙΜΟ) βρίσκεται στο προσκήνιο της ασύρματης έρευνας. Πρόσφατα, αποτελέσματα ερευνών έδειξαν ότι υπάρχει δυνατότητα αύξησης της χωρητικότητας στα ασύρματα τηλεπικοινωνιακά συστήματα χρησιμοποιώντας τεχνικές διαφοροποίησης μεταξύ πομπού – δέκτη (antenna diversity), δηλαδή δημιουργίας πολλαπλών ανεξάρτητων καναλιών ανάμεσα τους.
Στην παρούσα εργασία μελετούνται τεχνικές κωδικοποίησης που εκμεταλλεύονται τη χωρική διαφοροποίηση κάνοντας χρήση χωροχρονικών κωδικών (space – time coding). Η μελέτη εστιάζεται στη χρήση χωροχρονικών κωδικών ανά μπλοκ από την πλευρά του πομπού, εξαιτίας της απλότητας υλοποίησης τους καθώς και της ικανότητας υποστήριξης πολλαπλών κεραιών από τη πλευρά του σταθμού βάσης. Η ανάλυσή τους γίνεται με βάση την εφαρμογή τους σε συστήματα που χρησιμοποιούν διαμόρφωση με πολυπλεξία ορθογώνιων φερουσών (OFDM). Η διαμόρφωση αυτή επιλέχθηκε γιατί υποστηρίζει υψηλούς ρυθμούς δεδομένων στα ασύρματα συστήματα και δείχνει άριστη συμπεριφορά σε κανάλια με επιλεκτική παραμόρφωση στη συχνότητα.
Στη συνέχεια μελετώνται αλγόριθμοι επαναληπτικής αποκωδικοποίησης, δίνοντας έμφαση σε ένα ευρέως διαδεδομένο αλγόριθμο, τον Μέγιστο εκ των Υστέρων (MAP). Αναλύονται διεξοδικά τα βήματα του, καθώς και διάφορες τροποποιήσεις – βελτιστοποιήσεις του. Οι επαναληπτικοί αλγόριθμοι αποκωδικοποίησης αποτελούν πλέον ένα πολύ ισχυρό εργαλείο για την αποκωδικοποίηση Forward Error Correction κωδικοποιήσεων με χρήση συνελικτικών κωδικών, προσδίδοντας στα συστήματα αποδόσεις κοντά στο όριο του Shannon.
Τέλος, πραγματοποιούνται κατάλληλες υλοποιήσεις που προέκυψαν από το συνδυασμό των εν λόγω αλγορίθμων επαναληπτικής αποκωδικοποίησης με τους χωροχρονικούς κώδικες ανά μπλοκ πάνω σε ένα σύστημα κεραιών με χρήση OFDM. Γίνεται σύγκριση της απόδοσης των συστημάτων αυτών με βάση την αντίστοιχη υλοποίηση του εκάστοτε αλγορίθμου επαναληπτικής αποκωδικοποίησης και μελετούνται σε βάθος διάφορες τροποποιήσεις που μπορούν δεχθούν με κριτήριο τη χαμηλή πολυπλοκότητα υλοποίησης. Για την αξιολόγηση της απόδοσης, γίνεται μία περαιτέρω σύγκριση με χρήση αναπαράστασης σταθερής υποδιαστολής και εξάγονται σειρά συμπερασμάτων από τις πειραματικές μετρήσεις που προέκυψαν. / The use of multiple antennas is an essential issue in telecommunications, nowadays. So, multiple input – multiple output systems (MIMO) has attracted a lot of attention in wireless research. Lately, it has been shown that it can be an improvement in the capacity of wireless communication systems by using antenna diversity, that’s different independent channels between transmitter and receiver.
In this thesis, we study coding techniques that exploit space diversity by using space – time codes. Particularly, we focus on space – time block coding (STBC) from the transmitter’s point of view, because of the simplicity of its implementation and the ability to support multiple antennas at the base stations. The analysis is based on the systems that use Orthogonal Frequency Division Multiplexing Systems (OFDM). This technique was chosen because it can support high data rates and it behaves very well in a frequency selective fading channel.
Moreover, we study iterative decoding algorithms and we focus on a very well known algorithm, the Maximum A Posteriori (MAP). There, we analyze its steps and its modifications and improvements. The iterative decoding algorithms are a cornerstone on decoding Forward Error Correction codes, such as Convolutional codes, almost reaching the Shannon limit.
Finally, there are different kinds of implementations using suitable iterative decoding algorithms in concatenation with space – time block coding with antennas and ODFM. We compare the performance of the corresponding systems and investigate the complexity trying to maintain it in a low level. For a thorough investigation, we also use fixed point arithmetic in these implementations.
|
180 |
TAARAC : test d'anglais adaptatif par raisonnement à base de casLakhlili, Zakia January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
|
Page generated in 0.0537 seconds