• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 80
  • 61
  • 12
  • 9
  • 4
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 202
  • 73
  • 60
  • 46
  • 32
  • 32
  • 31
  • 29
  • 27
  • 26
  • 26
  • 25
  • 24
  • 24
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Le fondement du recours à la force à la lumière des conflits impliquant l'Irak en 1991 et 2003 : entre autorisation et légitime défense / The basis for the use of force in light for conflicts involving Iraq in 1991 and 2003 : between authorization and legitimate defense

Ketari, Leïla 28 September 2011 (has links)
Les conflits récents qui ont impliqué l’Irak en 1990 et2003 sont deux conflits menés essentiellement par les Etats-Unis contre l’Irak. Si le premier se fonde, en dépit du droit de légitime défense collective, sur une autorisation du Conseil de sécurité, conformément à une interprétation évolutive de la Charte, le second repose sur des interprétations extensives de la Charte : l’autorisation implicite et la légitime défensepréventive et anticipatoire destinées à éradiquer une menace. Cette recherche tente d’analyserles arguments invoqués en allant jusqu’au bout du raisonnement américain qui s’appuie sur lastratégie de sécurité nationale pour agir dans l’ordre international. Au-delà de la confrontationdu conflit de 2003 aux nouvelles théories tendant à élargir l’autorisation et la légitime défenseet à réhabiliter de vieux concepts de "guerre juste" ou d’"autoprotection" en vigueur auXIXème siècle, c’est leur impact sur le principe de l’interdiction du recours à la force qui aété analysé. Ces nouvelles théories ne sont ni acceptées de lege lata, ni acceptables de legeferanda. Le principe de l’interdiction du recours à la force n’a donc subi aucune brèche. Aulieu d’accepter ces théories, c’est à travers le renforcement de l’action de l’ONU (ses organespolitiques et judiciaires) qu’il faudrait rechercher un moyen d’agir en cas de menace. / The recent conflicts that involved Iraq in 1990 and 2003 are both conflicts fought primarily by the United States of America against Iraq. If the first is based, despite theright of collective self-defense, on an authorization of the Security Council, in accordancewith an evolutionary interpretation of the Charter, the second is based on a liberal interpretation of the Charter: the implied authorization and preventive and anticipatory self defense to eradicate a threat This research attempts to analyze the arguments put forward bythoroughly vetting the United States of America’s rationale based on its national securitystrategy to act in the international order. Beyond exploring the relationship of the 2003conflict to the new theories which attempt to extend the authorization and self-defense and therehabilitation of old concepts of "just war" or "auto-protection" in force in the NineteenthCentury, the impact of these new theories on the principle of the prohibition of the use offorce was also analyzed. These same theories are neither accepted as lege lata nor acceptableas lege ferenda. Accordingly, the principle of the prohibition of the use of force has in no waybeen breached. Instead of accepting these theories, a way to deal with threats should besought through the strengthening of the role of the UN (both its political and judiciaryorgans).
132

On a posteriori probability decoding of linear block codes over discrete channels

Griffiths, Wayne Bradley January 2008 (has links)
One of the facets of the mobile or wireless environment is that errors quite often occur in bursts. Thus, strong codes are required to provide protection against such errors. This in turn motivates the employment of decoding algorithms which are simple to implement, yet are still able to attempt to take the dependence or memory of the channel model into account in order to give optimal decoding estimates. Furthermore, such algorithms should be able to be applied for a variety of channel models and signalling alphabets. The research presented within this thesis describes a number of algorithms which can be used with linear block codes. Given the received word, these algorithms determine the symbol which was most likely transmitted, on a symbol-by-symbol basis. Due to their relative simplicity, a collection of algorithms for memoryless channels is reported first. This is done to establish the general style and principles of the overall collection. The concept of matrix diagonalisation may or may not be applied, resulting in two different types of procedure. Ultimately, it is shown that the choice between them should be motivated by whether storage space or computational complexity has the higher priority. As with all other procedures explained herein, the derivation is first performed for a binary signalling alphabet and then extended to fields of prime order. These procedures form the paradigm for algorithms used in conjunction with finite state channel models, where errors generally occur in bursts. In such cases, the necessary information is stored in matrices rather than as scalars. Finally, by analogy with the weight polynomials of a code and its dual as characterised by the MacWilliams identities, new procedures are developed for particular types of Gilbert-Elliott channel models. Here, the calculations are derived from three parameters which profile the occurrence of errors in those models. The decoding is then carried out using polynomial evaluation rather than matrix multiplication. Complementing this theory are several examples detailing the steps required to perform the decoding, as well as a collection of simulation results demonstrating the practical value of these algorithms.
133

Application de la méthode des éléments finis pour la modélisation de configurations de contrôle non destructif par courants de Foucault

Choua, Yahya 01 October 2009 (has links) (PDF)
Les travaux présentés dans cette thèse traitent de la modélisation par la méthode des éléments finis de configurations de contrôle non destructif par courants de Foucault. Un code de calcul programmé en langage C++, s'appuyant sur la discrétisation en trois dimensions des équations de Maxwell en régime harmonique a été développé. Deux formulations magnétodynamiques duales en potentiels combinés "a − psi" et "t −phi " ont été mises en oeuvre. Des éléments de Whitney étraédriques du premier ordre ont été utilisés. Les potentiels scalaires sont discrétisés aux noeuds des éléments et les potentiels vecteurs à leurs arêtes. Le travail présenté dans ce mémoire aborde un cas précis mais de grande importance parmi les applications du CND par CF. Il s'agit des défauts de faible ouverture (fissures), qui sont fréquemment rencontrés en CND. Leur détection permet de prévenir la destruction des pièces en fonctionnement et d'augmenter la fiabilité des produits industriels. Leur prise en compte par la MEF peut être délicate car leur maillage conduit à une forte densité d'éléments ou à des éléments déformés. C'est dans ce contexte qu'un modèle a été développé pour faciliter la modélisation de ce type de défauts. L'idée consiste à considérer la fissure comme une surface non conductrice imperméable au courant. Pour assurer le bon comportement des différentes grandeurs électromagnétiques, des conditions aux limites appropriées sont appliquées sur la surface de la fissure. Ces conditions sont prises en compte par la formulation électrique a− psi en dédoublant les degrés de liberté (potentiel scalaire électrique) attachés aux noeuds de la surface de la fissure de part et d'autre de celle-ci. Par la formulation magnétique t− phi en annulant la circulation du potentiel vecteur électrique t sur les arêtes appartenant à la surface de celle-ci. La résolution simultanée des deux formulations a−psi et t−phi par la MEF permet de vérifier au sens fort toutes les équations de Maxwell. Les résultats obtenus se complètent et les erreurs numériques dues aux discrétisations se traduisent sous forme d'une non-vérification des lois de comportement. Cela a permis, en utilisant cette propriété de complémentarité de deux formulations, de définir des indicateurs d'erreur afin de développer une procédure d'adaptation automatique de maillage. Plusieurs types d'estimateurs d'erreur ont été définis et étudiés sur différents cas test.
134

Evaluation des risques écotoxicologiques liés au déversement de Rejets Urbains par Temps de Pluie (RUTP) dans les cours d'eau : Application à une ville française et à une ville haïtienne

Angerville, Ruth 18 May 2009 (has links) (PDF)
Les Rejets Urbains par Temps de Pluie (RUTP) contiennent des polluants sous forme soluble ou particulaires, issus du lessivage des bassins-versants qu'ils drainent. Ces rejets sont le plus souvent déversés dans les milieux récepteurs, en particulier les cours d'eau péri-urbains, sans traitement préalable. Il en résulte, dans certaines configurations, un risque de toxicité pour les écosystèmes des milieux concernés. Cette thèse propose deux démarches méthodologiques pour évaluer les risques écotoxicologiques (EDREcotox) liés à un tel scénario: une démarche a priori et une démarche a posteriori. La démarche a priori a été développée selon 3 approches complémentaires de caractérisation des effets écotoxicologiques: i) une «approche substances», ii) une «approche substances avec effets combinés» et iii) une «approche matrice». Cette démarche a priori a été par la suite appliquée à un scénario d'une ville française et à un scénario d'une ville haïtienne. Pour une optimisation de la méthodologie proposée dans le cadre de la démarche a priori, nous avons procédé, dans un premier temps, à une étude de l'écotoxicité et des effets combinés des principaux polluants généralement présents dans les RUTP, vis-à-vis de Daphnia magna puis de Pseudokirchneriella subcapitata. En ce qui concerne l'«approche matrice», nous avons procédé à une caractérisation écotoxicologique d'échantillons de RUTP provenant des 2 sites étudiés. La démarche a posteriori a été développée sur la base d'une comparaison entre un «état amont» et un «état aval», par rapport au point de déversement des RUTP dans la rivière du site français, pour 3 horizons (eau de surface, zone benthique et zone hyporhéique). L'application de ces 2 démarches méthodologiques a conduit à des résultats cohérents qui mettent en évidence un risque important pour les organismes du cours d'eau récepteur, avec une accentuation de ce risque pour les organismes des zones benthique et hyporhéique. Au titre des perspectives, la poursuite du développement de ces premières méthodologies pourra prendre en compte certains aspects additionnels comme la biodisponibilité des polluants, leur bioaccumulation, etc.
135

Stratégies de contrôle d'erreur en calcul de structures industrielles. Mise en oeuvre d'estimation d'erreur en quantité d'intérêt et d'adaptation de maillage.

Delmas, Josselin 17 April 2008 (has links) (PDF)
Pour les problèmes linéaires, différentes démarches existent pour estimer la qualité de la solution éléments finis. Elles conduisent généralement à l'estimation d'une norme de l'erreur globale. Mais le choix d'une précision globale fondée sur une norme du déplacement est souvent délicat car il n'y a pas de lien direct quantitatif avec une erreur sur des quantités mécaniques locales (appelées quantités d'intérêt) ayant un intérêt pour l'ingénieur. L'objectif de ce travail est de développer et de mettre en oeuvre dans Code_Aster une méthode d'estimation d'erreur en quantité d'intérêt pour le calcul de structures industrielles.<br /><br />Une étude bibliographique a permis de situer l'état de l'art et de faire le point sur les méthodes d'estimation d'erreur globale et locale et sur les techniques d'adaptation de maillages afin de déterminer celles qui sont les plus adaptées pour le calcul de structures en milieu industriel.<br /><br />Ensuite, une comparaison a été faite afin de déterminer la pertinence de l'utilisation de l'erreur en quantité d'intérêt dans un processus adaptatif par rapport à l'utilisation de l'erreur en norme de l'énergie, d'un raffinement uniforme ou d'un raffinement local dans la zone d'intérêt. L'étude a montré que l'utilisation de l'erreur en quantités d'intérêt est la stratégie qui permet toujours d'obtenir la meilleure précision pour un nombre d'éléments donné : cette stratégie est la plus pertinente dans un contexte de calcul de structures industrielles.<br /><br />Compte tenu des résultats précédents, une méthode d'estimation d'erreur en quantité d'intérêt a été développée et implémentée dans Code_Aster. Elle est basée sur la relation fondamentale de l'erreur en quantité d'intérêt et sur un estimateur d'erreur globale en norme de l'énergie de type résidus explicites. Cet estimateur ne permettant pas d'accéder à des bornes de l'erreur mais à une valeur approchée, il s'apparente donc à un indicateur d'erreur. Pour réaliser cette estimation, la résolution d'un problème dual est nécessaire. Les chargements de ce problème, particulier pour chaque quantité d'intérêt considérée, sont fournis pour de nombreuses quantités d'intérêt (notamment pour la contrainte de Von Mises). Le calcul final de l'erreur en quantité d'intérêt, à partir du calcul primal et du calcul dual est automatique. Une quantité d'intérêt pour l'estimation de l'erreur sur les facteurs d'intensité des contraintes a également été développée en 2D et 3D. Des exemples numériques ont montré le bon comportement de cet indicateur pour guider un processus d'adaptation de maillage pour les différentes quantités d'intérêt.<br /><br />Enfin, la stratégie de contrôle d'erreur développée a été utilisée, avec Code_Aster, dans le cadre d'études de structures industrielles. Deux études effectuées au département AMA, à EDF R&D sont présentées. La première consiste à étudier la contrainte de Von Mises dans un rotor HP, la seconde s'intéresse à la contrainte verticale dans les goujons d'un assemblage boulonné.
136

Analyse d'erreur a priori et a posteriori pour des méthodes d'éléments finis mixtes non-conformes

El Alaoui Lakhnati, Linda 01 1900 (has links) (PDF)
Dans cette thèse nous nous intéressons à l'analyse d'erreur a priori et a posteriori de méthodes d'éléments finis mixtes et non-conformes. Nous considérons en particulier les équations de Darcy à perméabilité fortement variable et les équations de convection-diffusion-réaction en régime de convection dominante. Nous discrétisons les équations de Darcy par une méthode d'éléments finis mixtes non-conformes de type Petrov-Galerkin appelée schéma boîte. Les techniques d'estimations d'erreur a posteriori par résidu et hiérarchique conduisent à des estimateurs d'erreur a posteriori fiables et optimaux indépendamment des fluctuations de la perméabilité. Les résultats théoriques sont validés numériquement sur différents cas tests présentant de forts contrastes de perméabilité. Enfin, nous montrons comment les indicateurs d'erreur obtenus permettent de générer des maillages adaptatifs. Nous discrétisons les équations de convection-diffusion-réaction par des éléments finis nonconformes. Deux méthodes de stabilisation sont étudiées: la stabilisation par viscosité de sous-maille, conduisant à un schéma boîte et la méthode de pénalisation sur les faces. Nous montrons que les deux schémas ainsi obtenus ont les mêmes propriétés de convergence que les approximations par éléments finis conformes. Grâce aux techniques d'estimations d'erreur par résidu nous obtenons des estimateurs d'erreur a posteriori fiables et optimaux. Certains des indicateurs d'erreur sont robustes au sens de Verfürth, c'est à dire que le rapport des constantes intervenant dans les inégalités de fiabilité et d'optimalité explose en au plus l'inverse du nombre de Péclet. Les résultats théoriques sont validés numériquement et les indicateurs d'erreur a posteriori obtenus permettent de générer des maillages adaptatifs sur des problèmes présentant des couches intérieures.
137

Nouvelles méthodes en filtrage particulaire-Application au recalage de navigation inertielle par mesures altimétriques

DAHIA, Karim 04 January 2005 (has links) (PDF)
L'objectif de ce mémoire est de développer et d'étudier un nouveau type de filtre particulaire appelé le filtre de Kalman-particulaire à noyaux (KPKF). Le KPKF modélise la densité conditionnelle de l'état comme un mélange de gaussiennes centrées sur les particules et ayant des matrices de covariance de norme petite. L'algorithme du KPKF utilise une correction de l'état de type Kalman et une correction de type particulaire modifiant les poids des particules. Un nouveau type de ré-échantillonnage permet de préserver la structure de cette mixture. Le KPKF combine les avantages du filtre particulaire régularisé en terme de robustesse et du filtre de Kalman étendu en terme de précision. Cette nouvelle méthode de filtrage a été appliquée au recalage de navigation inertielle d'un aéronef disposant d'un radio altimètre. Les résultats obtenus montrent que le KPKF fonctionne pour de grandes zones d'incertitude initiale de position.
138

Analyse mathématique de la supraconductivité dans un domaine à coins: méthodes semi-classiques et numériques

BONNAILLIE, Virginie 11 December 2003 (has links) (PDF)
La théorie de la supraconductivité, modélisée par Ginzburg et Landau, motive les travaux relatifs à l'opérateur de Schrödinger avec champ magnétique. L'objet de cette thèse est d'analyser l'influence de la géométrie du domaine sur l'apparition de la supraconductivité en étendant les résultats existant pour des domaines réguliers à des domaines à coins. L'analyse semi-classique conduit à étudier trois opérateurs modèles : la réalisation de Neumann de l'opérateur de Schrödinger avec champ magnétique constant sur le plan, le demi-plan et les secteurs angulaires. L'étude des deux premiers est bien connue et nous nous concentrons sur le dernier. Après avoir déterminé le bas du spectre essentiel, nous montrons que le bas du spectre est une valeur propre pour un secteur d'angle aigu. Nous explicitons le développement limité de la plus petite valeur propre quand l'angle du secteur tend vers 0 et précisons la localisation de l'état fondamental grâce aux techniques d'Agmon. Nous illustrons et estimons ensuite le comportement des vecteurs et valeurs propres à l'aide d'outils numériques basés sur la méthode des éléments finis. La localisation de l'état fondamental rend le problème discret très mal conditionné mais l'analyse des propriétés de l'opérateur et des défauts des méthodes classiques permet malgré tout de mettre en oeuvre un algorithme robuste et efficace calculant l'état fondamental. Afin d'améliorer les résultats numériques, nous construisons des estimateurs a posteriori pour ce problème aux valeurs propres et utilisons les techniques de raffinement de maillages pour localiser l'état propre dans des domaines généraux et étudier la variation du bas du spectre en fonction de l'angle du secteur.
139

Schémas numériques instationnaires pour des écoulements multiphasiques multiconstituants dans des bassins sédimentaires

Nadau, Lionel 22 September 2003 (has links) (PDF)
Un bassin sédimentaire est un milieu poreux de grande dimension (plusieurs dizaines de kilomètres de long et de large pour une profondeur d'environ cinq kilomètres) qui évolue au cours du temps par les effets de compaction et de sédimentation. Au cours de cette évolution, des hydrocarbures vont se former et s'écouler dans le bassin. On établit alors un modèle permettant de simuler cette évolution de bassin ainsi que la création, la migration et le piégeage des hydrocarbures dans des roches appelées roches magasins. Ces phénomènes se déroulant sur des centaines de millions d'années, on s'est attaché à étudier principalement une discrétisation temporelle de ces équations. On a ainsi mis en avant un raffinement local du pas de temps dont le principe est de recalculer la solution sur une zone jugée "mauvaise". A l'extérieure de cette zone, la solution est admissible. La difficulté vient de la détermination de la zone qui doit - être suffisamment "grande" pour avoir une bonne qualité de la solution, mais suffisamment "petite" pour obtenir un gain calcul. Les estimateurs a posteriori permettent de contourner cette difficulté. On a donc entrepris une étude théorique de ces estimateurs a posteriori dans le cas des équations linéaires elliptique et parabolique. Des simulations numériques montrent l'efficacité de ces estimateurs dans des cas académiques.
140

Compensation du mouvement respiratoire en TEP/TDM à l'aide de la super-résolution.

Wallach, Daphné 14 October 2011 (has links) (PDF)
La tomographie par émission de positons (TEP) est une modalité d'imagerie fonctionnelle incontournable pour le diagnostic et le suivi thérapeutique en oncologie. De nouvelles applications telles que la radiothérapie guidée par l'imagerie fonctionnelle sont en cours d'investigation. Les images TEP souffrent toutefois d'une faible résolution spatiale, encore dégradée par les effets du mouvement respiratoire du patient dans le thorax et l'abdomen. La grande majorité des solutions proposées pour la correction de ce mouvement respiratoire reposent sur l'enregistrement du signal respiratoire pendant l'acquisition TEP et de la synchronisation de l'acquisition avec ce signal respiratoire. Les données peuvent ainsi être séparées selon la partie du cycle respiratoire pendant laquelle elles ont été acquises. Les données correspondant à une même position peuvent ensuite être sommées et reconstruites. Les images résultantes sont cependant de qualité réduite, car elles ne contiennent qu'une portion de l'information. Il est donc nécessaire de les combiner. Les solutions disponibles actuellement proposent de recaler et sommer les données synchronisées, avant, pendant, ou après leur reconstruction, ce qui produit une image sans mouvement de qualité proche de celle qui aurait pu être obtenue en l'absence de mouvement respiratoire. La super-résolution vise à améliorer la résolution d'une image appartenant à une séquence d'images représentant différentes vues de la même scène. Elle exploite le mouvement présent dans cette séquence afin d'obtenir une image d'une résolution supérieure à celle permise par le système d'imagerie et ne contenant pas de recouvrement de spectre. Le but de cette thèse est d'appliquer une telle technique pour compenser le mouvement respiratoire. Nous avons d'abord appliqué un algorithme de super-résolution déjà existant à une séquence d'images TEP synchronisées avec la respiration, ce qui représente une application inédite. Cette technique permet de corriger efficacement les effets du mouvement respiratoire. Les méthodes de correction du mouvement respiratoire sont souvent plus performantes lorsqu'elles sont incorporées à la reconstruction plutôt qu'appliquées aux images reconstruites. C'est pourquoi nous avons ensuite développé de nouveaux algorithmes de reconstruction TEP incorporant la super-résolution. Les images ainsi reconstruites sont de meilleure qualité que celles corrigées par super-résolution après reconstruction. Enfin, nous avons montré que la correction du mouvement respiratoire par super-résolution permet une précision accrue dans la planification du traitement par radiothérapie.

Page generated in 0.1114 seconds