• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 478
  • 148
  • 59
  • 5
  • 1
  • Tagged with
  • 685
  • 299
  • 238
  • 176
  • 153
  • 98
  • 77
  • 74
  • 73
  • 71
  • 58
  • 50
  • 50
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Cavités de haute finesse pour la spectroscopie d'absorption haute sensibilité et haute précision : Application à l'étude de molécules d'intérêt atmosphérique.

Motto-Ros, Vincent 12 December 2005 (has links) (PDF)
La haute sensibilité permise par l'emploi des cavités optiques est exploitée pour caractériser la signature spectrale de molécules d'intérêt atmosphérique. Deux méthodologies différentes sont abordées.<br />Tout d'abord, la technique CW-CRDS (Continuous Wave – Cavity Ring Down Spectroscopie) est utilisée pour étudier l'évolution avec la pression et la température des spectres atmosphériques de la vapeur d'eau dans le proche infrarouge. Cette étude, destinée à calibrer des mesures d'absorption différentielle par Lidar, entre dans le cadre de la mission WALES (Water Vapour Lidar Experiment in Space) proposée par l'Agence Spatiale Européenne. Une attention particulière est portée pour décrire et caractériser le système expérimental.<br />Ensuite, la technique OF-CEAS (Optical Feedback Cavity Enhanced Absorption Spectroscopy) et ses performances pour la spectroscopie sont mises en évidence avec l'étude de la bande B de l'oxygène dans le rouge. Cette technique repose sur un schéma d'injection avec rétroaction optique (de la cavité vers le laser) qui permet d'augmenter la cohérence de son émission pour mesurer les maxima de transmission des modes même avec des cavités de haute finesse. Une configuration nouvelle permettant ces effets est proposée (la cavité Brewster). Une gamme dynamique sur la mesure d'absorption d'environ cinq ordres de grandeurs est démontrée (1e-5 à 1e-10 /cm) ainsi qu'une sensibilité < 1e-10 /cm/Hz^(1/2). Un schéma d'acquisition mode par mode est employé et permet d'exploiter la linéarité du peigne de mode pour atteindre des hautes précisions sur la fréquence. La pertinence de cette approche est mise en évidence par la mesure de « pressure shifts » de l'oxygène obtenus avec une précision absolue record inférieure à 5*1e-5 cm^(-1)/atm.
332

Représentation économique du comportement écologique des consommateurs. Le cas des déchets ménagers

Jolivet, Patrick 17 December 2001 (has links) (PDF)
Cette thèse pose la question de la représentation économique du comportement des consommateurs, lorsque ces derniers affichent un certain degré de sensibilité vis-à-vis de l'environnement. Nous nous intéressons en particulier à la production de déchets des ménages, que nous proposons d'aborder d'un double point de vue : comme conséquence de l'activité de consommation, d'une part, comme activité économique à part entière, dans laquelle les individus doivent effectuer des choix, d'autre part.<br />La problématique centrale de cette thèse est donc la suivante : peut-on représenter économiquement le phénomène ‘déchet' dans l'acte individuel de consommation ? Dans la première partie de ce travail, nous proposons de représenter la sensibilité des consommateurs vis-à-vis de l'environnement, en général, et des déchets en particulier. Le postulat est que les individus peuvent intégrer la variable ‘environnement' dans leurs choix de consommation, dès l'achat de produits sur le marché : ceci définit ce que nous proposons d'appeler la rationalité environnementale continue des agents économiques.<br />Dans une seconde partie, nous caractérisons le comportement d'un individu qui choisit de trier ses déchets. A partir d'une enquête qualitative que nous avons réalisée, nous recherchons dans les discours et les pratiques des agents à définir ce qu'est le comportement du consommateur-producteur (-trieur) de déchets. Il apparaît, lors de cette enquête, que la sensibilité écologique des agents économiques, lorsqu'elle existe, ne se traduit pas prioritairement dans leurs choix de consommation. Les préoccupations vis-à-vis des déchets ménagers, postérieures aux décisions d'achat de biens, définissent une rationalité environnementale discontinue et nous conduisent à élargir le cadre d'analyse traditionnel du consommateur.
333

Spatialisation d'un modèle d'équilibre général calculable pour l'étude de la localisation des activités agricoles à une échelle infra-nationale

PIET, Laurent 08 July 2002 (has links) (PDF)
L'objectif principal de cette thèse est l'introduction de la dimension spatiale dans un modèle d'équilibre général calculable afin de représenter au mieux les processus de localisation des activités agricoles à une échelle locale grâce aux apports de l'économie spatiale. Nous présentons ainsi un modèle d'équilibre général calculable dont la dimension spatiale est conduite sous forme multirégionale, le système économique étudié étant divisé en un ensemble de mailles susceptibles d'échanger des biens entre elles. Renonçant à l'hypothèse d'Armington classiquement utilisée pour représenter importations et exportations, nous postulons une parfaite homogénéité d'un bien produit dans des mailles différentes, mais introduisons explicitement des coûts de transport. Au gré des simulations, abandon ou adoption de certaines productions et de certaines relations d'échange sont ainsi possibles. A partir d'une matrice de comptabilité sociale nationale, une méthodologie originale de calibrage en deux étapes permet de déterminer l'équilibre multirégional de référence de façon endogène. Trois facteurs de production, 7 activités produisant 10 biens, 1 consommateur représentatif et une institution publique sont identifiés. Le modèle est implémenté grâce au logiciel GAMS dans un format de complémentarité mixte. Les simulations sont conduites sur un ensemble de 8 mailles, le modèle ayant été testé avec succès jusqu'à 35 mailles. Une analyse systématique inconditionnelle de la sensibilité vis à vis des paramètres d'élasticité permet de conclure à une robustesse satisfaisante du modèle. Nous étudions ensuite successivement l'impact d'une modification de la contiguïté entre mailles, du référentiel de définition des distances et de la mesure de celles-ci ; contiguïté et accessibilité des mailles se révèlent être des paramètres déterminants. Enfin, nous démontrons l'intérêt de la prise en compte de la dimension spatiale grâce à l'étude de deux politiques agricoles stylisées. En particulier, l'approche multirégionale permet de comparer l'impact spatial de politiques supposées équivalentes mais définies sur des ensembles de mailles différents.
334

Developpement d'une horloge à atomes de strontium piégés : Réalisation d'un laser ultra-stable et stabilité de fréquence

Quessada-Vial, Audrey 30 May 2005 (has links) (PDF)
Ce mémoire présente le développement d'une nouvelle génération d'étalons de fréquence optique utilisant des atomes piégés. La stabilité de fréquence d'une telle horloge sera limitée dans un premier temps par le bruit de l'oscillateur local. Nous discutons dans la première partie du mémoire de différents paramètres, comme le rapport cyclique ou la méthode d'interrogation, pouvant réduire les effets de ce bruit: la séquence temporelle du cycle d'horloge doit être optimisée. Avec l'oscillateur local que nous avons réalisé, un laser ultra-stable, la stabilité attendue est de quelques 10^-16 tau^-1/2 soit près de deux ordres de grandeurs mieux que les fontaines atomiques actuelles. La deuxième partie du mémoire décrit une source d'atomes froids de strontium performante, étape essentielle pour réduire le temps de préparation des atomes dans le cycle. Enfin, nous rapportons la mesure de la transition d'horloge 1S0-3P0 du ^87 Sr avec une résolution de 15 kHz.
335

Assimilation de données et identification de paramètres : une application en hydrologie

Ngnepieba, Pierre Désiré 13 December 2001 (has links) (PDF)
La détermination de certains paramètres hydrodynamiques dans les modèles d'écoulement en zone non-saturée (et plus généralement dans certains modèles géophysiques) requiert l'utilisation d'un modèle et de données d'observations. Le but de ce travail est de proposer une méthode d'assimilation variationnelle de données permettant de reconstituer ces paramètres en tenant compte des observations et le modèle. La méthode proposée est fondée sur les techniques de contrôle optimal. Le travail mené dans cette étude porte sur l'identification de paramètres sur le modèle de Richards monodimensionnel ainsi que sa mise en oeuvre numérique. Au préalable, une investigation de la physique liée à notre problématique est explorée. Les données à assimiler sont les mesures d'infiltration cumulée et le vecteur de contrôle choisi est constitué de la condition initiale, des conditions aux limites et des paramètres hydrodynamiques. C'est ainsi que suivant certaines distributions des observations (infiltration cumulée observée), le paramètre de contrôle est reconstitué. Cette phase est suivie par une étude a posteriori basée sur les études au second ordre qui permettent d'estimer l'erreur de l'identification, l'influence de la configuration temporelle des observations sur la qualité de l'identification ainsi qu'une bonne compréhension du processus de minimisation. La dérivation automatique à l'aide du logiciel de différentiation automatique ODYSSEE est utilisée pour déduire les informations du premier et du second ordre. Enfin, en se servant des études au second ordre réalisées, nous appliquons l'algorithme de Newton au système d'optimalité.
336

Contributions à la simulation et à l'analyse de discrétisation de processus, et applications.

GOBET, Emmanuel 24 November 2003 (has links) (PDF)
Nous présentons quelques contributions à la simulation et à l'analyse de discrétisation de processus, avec leurs applications notamment en finance. Nous avons regroupé nos travaux selon 4 thèmes: 1. statistique des processus avec observations discrètes; 2. couverture en temps discret en finance; 3. sensibilités d'espérances; 4. analyses d'erreurs de discrétisation. Le premier chapitre sur la statistique des processus est assez indépendant du reste. En revanche, les trois autres chapitres correspondent à une cohérence et une progression dans les questions soulevées. Néanmoins au fil de la lecture, on remarquera des liens entre les quatre parties: différentiation par rapport à des domaines et amélioration de simulation de temps de sortie, sensibilités d'espérances et statistique asymptotique avec le calcul de Malliavin, sensibilités d'espérances et analyse d'erreur etc... Les preuves des résultats s'appuient notamment sur les outils du calcul de Malliavin, des martingales, des Équations aux Dérivées Partielles et de leurs liens avec les Équations Différentielles Stochastiques.
337

Contribution à l'étude et la simulation du procédé l'hydroformage

Ben tahar, Mehdi 23 September 2005 (has links) (PDF)
Le procédé d'hydroformage repose sur la déformation plastique d'une forme première (tôle, tube) sous l'action combinée d'un fluide sous pression et d'un outil rigide. L'objet de ces travaux est de contribuer à la modélisation de ce procédé. Cette contribution s'articule autour de trois problématiques essentielles: la caractérisation rhéologique, la prédiction des défauts de striction et le développement d'algorithmes adaptés à la simulation de l'hydroformage. - L'identification expérimentale des courbes d'écrouissage en grandes déformations est nécessaire afin d'éviter toute extrapolation intempestive au cours d'une simulation numérique. A cet effet, un essai de gonflage circulaire, analysé selon un modèle homogène, a été mis en place. Des résultats très satisfaisants ont pu ainsi être obtenus grâce notamment à la mesure locale du rayon de courbure de la tôle. - La prédiction de la striction au cours de l'opération d'hydroformage est essentielle pour la maîtrise de ce procédé. Dans cette optique, le Critère de Force Maximum Modifié a fait l'objet d'une étude détaillée. Il a été démontré que la forme locale de la surface de charge constitue le facteur le plus influant sur les prédictions du modèle. Le problème de la dépendance de la CLF au trajet a été également abordé, nous avons pu mettre l'accent sur l'utilité d'une représentation des CLF dans l'espace des déformations équivalentes afin de s'affranchir de cette dépendance. Enfin, nous avons proposé un modèle intégrant l'effet de la sensibilité à la vitesse de déformation. La confrontation avec les résultats expérimentaux de tôles en acier a montré une amélioration des prédictions mais le modèle reste relativement conservatif. - Le troisième volet a concerné la modélisation numérique. D'une part, un schéma d'intégration implicite reposant sur une actualisation itérative du maillage et tenant compte des dérivées du domaine a pu être testé. Les résultats ont montré la faible influence des dérivées du domaine. En revanche, l'actualisation itérative semble améliorer la conservation du volume. D'autre part, il est bien établi que certains matériaux peuvent présenter un potentiel de déformation au-delà du pic de pression. Pour une simulation correcte de ce potentiel de déformation, nous avons développé plusieurs variantes de la méthode de continuation. Reposant sur une technique de prédiction-correction, ces méthodes ont permis de dépasser le pic qui reste un point infranchissables pour la méthode conventionnelle de contrôle de pression.
338

Etude de micropoutres sérigraphiées pour des applications capteurs

Lakhmi, Riadh 18 November 2011 (has links) (PDF)
Dans cette thèse, des structures MEMS de type micropoutre ont été conçues pour des applications capteurs. Un procédé de fabrication alternatif au silicium, associant la technique de sérigraphie à l'utilisation d'une couche sacrificielle (SrCO3), a été utilisé pour la réalisation de micropoutres piezoélectriques (PZT, matériau servant à la fois d'actionneur et de transducteur) dans un premier temps. Des tests de détection en phase gazeuse ont été réalisés avec et sans couche sensible avec succès à l'aide du mode de vibration non conventionnel 31-longitudinal. Le toluène a notamment pu être détecté à des concentrations voisines de 20ppm avec une couche sensible PEUT. D'autres espèces telles que l'eau, l'éthanol ou l'hydrogène ont été détectés sans couches sensibles afin de s'affranchir des contraintes liées à celle-ci (vieillissement notamment). Des tests préliminaires de caractérisation en milieu liquide ont également été réalisés avec dans l'optique la détection d'espèces en phase liquide. Par ailleurs, un capteur de force a été conçu et réalisé avec le même procédé de fabrication. Ce dernier est composé d'une micropoutre en matériau diélectrique sur laquelle est intégrée une piezorésistance servant à la transduction du signal associé à la déformation subie par la micropoutre. Des détections de force en mode statique (sans actionneurs) ont permis de caractériser les capteurs, notamment en termes de sensibilité, de gamme de force et de force minimale détectable ou encore de linéarité.
339

RMN d'émulsions fluorées : développements méthodologiques et application à l'évaluation de l'oxymétrie et de la biodistribution dans le foie et la rate, et à la détection de l'angiogenèse tumorale dans le cerveau du rongeur

Giraudeau, Céline 23 January 2012 (has links) (PDF)
L'objectif ici était de développer une méthode de détection des tumeurs cérébrales via des agents de contraste pour l'IRM du 19F à 7 teslas. Nous évaluons en particulier le potentiel de cette méthode à mettre en évidence l'angiogenèse tumorale à l'aide d'agents de contraste fonctionnalisés avec le peptide RGD et ciblant l'intégrine ανβ3, biomarqueur surexprimé à la surface des néo-vaisseaux irriguant la tumeur. Du fait des basses concentrations locales en agent de contraste, les efforts portent dans un premier temps sur l'optimisation d'une séquence multi échos de spin dédiée à l'imagerie du PFOB (perfluorooctyl bromure), perfluorocarbure biocompatible choisi pour constituer la base de nos agents de contraste. Nous montrons qu'un paramétrage minutieux de cette séquence permet la suppression de la J-modulation et un rehaussement du T2, conduisant à une excellente sensibilité in vitro. La séquence est ensuite testée pour des mesures d'oxygénation dans le foie et la rate chez la souris, après injection d'une émulsion de PFOB. Les résultats indiquent une très bonne précision des mesures après injection d'une seule dose d'émulsion. Notre séquence est également utilisée pour réaliser une étude de biodistribution dynamique, permettant de suivre l'accumulation des nanoparticules d'émulsion dans le foie et la rate juste après injection. Nous montrons par ailleurs qu'il est possible d'évaluer la furtivité d'émulsions contenant différentes quantités de PEG (Poly Ethylène Glycol) en ajustant les données expérimentales sur un modèle pharmacocinétique empirique. La séquence est enfin utilisée pour détecter des nanoparticules d'émulsions fonctionnalisées pour cibler l'intégrine ανβ3 dans un modèle souris U87 de glioblastome. Nous comparons les concentrations en agent de contraste obtenues dans la tumeur avec une émulsion contenant le peptide RGD, et une émulsion contrôle. Les résultats indiquent des concentrations significativement plus élevées avec l'émulsion RGD qu'avec l'émulsion contrôle, supposant un ciblage spécifique d'ανβ3 par les nanoparticules fonctionnalisées. Un dernier chapitre est dédié à une nouvelle méthode de spectroscopie de diffusion en 19F, dont le but est d'éliminer le signal vasculaire provenant des nanoparticules de PFOB circulantes afin d'évaluer le signal ne provenant que des particules liées.
340

Contribution au développement d'une stratégie de diagnostic global en fonction des diagnostiqueurs locaux : Application à une mission spatiale

Issury, Irwin 26 July 2011 (has links) (PDF)
Les travaux présentés dans ce mémoire traitent de la synthèse d'algorithmes de diagnostic de défauts simples et multiples. L'objectif vise à proposer une stratégie de diagnostic à minimum de redondance analytique en exploitant au mieux les informations de redondance matérielle éventuellement disponibles sur le système. Les développements proposés s'inscrivent dans une démarche de coopération et d'agrégation des méthodes de diagnostic et la construction optimale d'un diagnostic global en fonction des diagnostiqueurs locaux. Les travaux réalisés se veulent génériques dans le sens où ils mêlent à la fois les concepts et outils de deux communautés : ceux de la communauté FDI (Fault Detection and Isolation) et ceux de la communauté DX (Diagnosis) dont les bases méthodologiques sont issues des domaines informatiques et intelligence artificielle. Ainsi, le problème de détection (ainsi que le problème de localisation lorsque les contraintes structurelles le permettent) est résolu à l'aide des outils de la communauté FDI tandis que le problème de localisation est résolu à l'aide des concepts de la communauté DX, offrant ainsi une démarche méthodologique agrégée. La démarche méthodologique se décline en deux étapes principales. La première phase consiste en la construction d'une matrice de signatures mutuellement exclusive. Ainsi, le problème du nombre minimal de relations de redondance analytique (RRA), nécessaires pour établir un diagnostic sans ambiguïté, est abordé. Ce problème est formalisé comme un problème d'optimisation sous contraintes qui est efficacement résolu à l'aide d'un algorithme génétique. La deuxième étape concerne la génération des diagnostics. Ainsi, pour une situation observée, identifier les conflits revient à définir les RRAs non satisfaites par l'observation. Les diagnostics sont obtenus à l'aide d'un algorithme basé sur le concept de formules sous forme MNF (Maximal Normal Form). L'intérêt majeur dans cette approche est sa capacité à traiter le diagnostic des défauts simples et multiples ainsi que le diagnostic des plusieurs modes de fautes (i.e., le diagnostic des différents types de défauts) associés à chaque composant du système surveillé. De plus, il existe des preuves d'optimalité tant au niveau local (preuve de robustesse/sensibilité) qu'au niveau global (preuve de diagnostics minimaux). La méthodologie proposée est appliquée à la mission spatiale Mars Sample Return (MSR). Cette mission, entreprise conjointement entre l'administration nationale de l'aéronautique et de l'espace (NASA) et l'agence spatiale européenne (ESA), vise à ramener des échantillons martiens sur Terre pour des analyses. La phase critique de cette mission est la phase rendez-vous entre le conteneur d'échantillons et l'orbiteur. Les travaux de recherche traitent le problème de diagnostic des défauts capteurs présents sur la chaîne de mesure de l'orbiteur pendant la phase de rendez-vous de la mission. Les résultats, obtenus à l'aide du simulateur haute fidélité de Thalès Alenia Space, montrent la faisabilité et l'efficacité de la méthode.

Page generated in 0.0716 seconds