• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 481
  • 149
  • 60
  • 5
  • 1
  • Tagged with
  • 690
  • 299
  • 238
  • 176
  • 153
  • 98
  • 77
  • 75
  • 73
  • 72
  • 59
  • 51
  • 50
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Etude de micropoutres sérigraphiées pour des applications capteurs

Lakhmi, Riadh 18 November 2011 (has links) (PDF)
Dans cette thèse, des structures MEMS de type micropoutre ont été conçues pour des applications capteurs. Un procédé de fabrication alternatif au silicium, associant la technique de sérigraphie à l'utilisation d'une couche sacrificielle (SrCO3), a été utilisé pour la réalisation de micropoutres piezoélectriques (PZT, matériau servant à la fois d'actionneur et de transducteur) dans un premier temps. Des tests de détection en phase gazeuse ont été réalisés avec et sans couche sensible avec succès à l'aide du mode de vibration non conventionnel 31-longitudinal. Le toluène a notamment pu être détecté à des concentrations voisines de 20ppm avec une couche sensible PEUT. D'autres espèces telles que l'eau, l'éthanol ou l'hydrogène ont été détectés sans couches sensibles afin de s'affranchir des contraintes liées à celle-ci (vieillissement notamment). Des tests préliminaires de caractérisation en milieu liquide ont également été réalisés avec dans l'optique la détection d'espèces en phase liquide. Par ailleurs, un capteur de force a été conçu et réalisé avec le même procédé de fabrication. Ce dernier est composé d'une micropoutre en matériau diélectrique sur laquelle est intégrée une piezorésistance servant à la transduction du signal associé à la déformation subie par la micropoutre. Des détections de force en mode statique (sans actionneurs) ont permis de caractériser les capteurs, notamment en termes de sensibilité, de gamme de force et de force minimale détectable ou encore de linéarité.
342

RMN d'émulsions fluorées : développements méthodologiques et application à l'évaluation de l'oxymétrie et de la biodistribution dans le foie et la rate, et à la détection de l'angiogenèse tumorale dans le cerveau du rongeur

Giraudeau, Céline 23 January 2012 (has links) (PDF)
L'objectif ici était de développer une méthode de détection des tumeurs cérébrales via des agents de contraste pour l'IRM du 19F à 7 teslas. Nous évaluons en particulier le potentiel de cette méthode à mettre en évidence l'angiogenèse tumorale à l'aide d'agents de contraste fonctionnalisés avec le peptide RGD et ciblant l'intégrine ανβ3, biomarqueur surexprimé à la surface des néo-vaisseaux irriguant la tumeur. Du fait des basses concentrations locales en agent de contraste, les efforts portent dans un premier temps sur l'optimisation d'une séquence multi échos de spin dédiée à l'imagerie du PFOB (perfluorooctyl bromure), perfluorocarbure biocompatible choisi pour constituer la base de nos agents de contraste. Nous montrons qu'un paramétrage minutieux de cette séquence permet la suppression de la J-modulation et un rehaussement du T2, conduisant à une excellente sensibilité in vitro. La séquence est ensuite testée pour des mesures d'oxygénation dans le foie et la rate chez la souris, après injection d'une émulsion de PFOB. Les résultats indiquent une très bonne précision des mesures après injection d'une seule dose d'émulsion. Notre séquence est également utilisée pour réaliser une étude de biodistribution dynamique, permettant de suivre l'accumulation des nanoparticules d'émulsion dans le foie et la rate juste après injection. Nous montrons par ailleurs qu'il est possible d'évaluer la furtivité d'émulsions contenant différentes quantités de PEG (Poly Ethylène Glycol) en ajustant les données expérimentales sur un modèle pharmacocinétique empirique. La séquence est enfin utilisée pour détecter des nanoparticules d'émulsions fonctionnalisées pour cibler l'intégrine ανβ3 dans un modèle souris U87 de glioblastome. Nous comparons les concentrations en agent de contraste obtenues dans la tumeur avec une émulsion contenant le peptide RGD, et une émulsion contrôle. Les résultats indiquent des concentrations significativement plus élevées avec l'émulsion RGD qu'avec l'émulsion contrôle, supposant un ciblage spécifique d'ανβ3 par les nanoparticules fonctionnalisées. Un dernier chapitre est dédié à une nouvelle méthode de spectroscopie de diffusion en 19F, dont le but est d'éliminer le signal vasculaire provenant des nanoparticules de PFOB circulantes afin d'évaluer le signal ne provenant que des particules liées.
343

Contribution au développement d'une stratégie de diagnostic global en fonction des diagnostiqueurs locaux : Application à une mission spatiale

Issury, Irwin 26 July 2011 (has links) (PDF)
Les travaux présentés dans ce mémoire traitent de la synthèse d'algorithmes de diagnostic de défauts simples et multiples. L'objectif vise à proposer une stratégie de diagnostic à minimum de redondance analytique en exploitant au mieux les informations de redondance matérielle éventuellement disponibles sur le système. Les développements proposés s'inscrivent dans une démarche de coopération et d'agrégation des méthodes de diagnostic et la construction optimale d'un diagnostic global en fonction des diagnostiqueurs locaux. Les travaux réalisés se veulent génériques dans le sens où ils mêlent à la fois les concepts et outils de deux communautés : ceux de la communauté FDI (Fault Detection and Isolation) et ceux de la communauté DX (Diagnosis) dont les bases méthodologiques sont issues des domaines informatiques et intelligence artificielle. Ainsi, le problème de détection (ainsi que le problème de localisation lorsque les contraintes structurelles le permettent) est résolu à l'aide des outils de la communauté FDI tandis que le problème de localisation est résolu à l'aide des concepts de la communauté DX, offrant ainsi une démarche méthodologique agrégée. La démarche méthodologique se décline en deux étapes principales. La première phase consiste en la construction d'une matrice de signatures mutuellement exclusive. Ainsi, le problème du nombre minimal de relations de redondance analytique (RRA), nécessaires pour établir un diagnostic sans ambiguïté, est abordé. Ce problème est formalisé comme un problème d'optimisation sous contraintes qui est efficacement résolu à l'aide d'un algorithme génétique. La deuxième étape concerne la génération des diagnostics. Ainsi, pour une situation observée, identifier les conflits revient à définir les RRAs non satisfaites par l'observation. Les diagnostics sont obtenus à l'aide d'un algorithme basé sur le concept de formules sous forme MNF (Maximal Normal Form). L'intérêt majeur dans cette approche est sa capacité à traiter le diagnostic des défauts simples et multiples ainsi que le diagnostic des plusieurs modes de fautes (i.e., le diagnostic des différents types de défauts) associés à chaque composant du système surveillé. De plus, il existe des preuves d'optimalité tant au niveau local (preuve de robustesse/sensibilité) qu'au niveau global (preuve de diagnostics minimaux). La méthodologie proposée est appliquée à la mission spatiale Mars Sample Return (MSR). Cette mission, entreprise conjointement entre l'administration nationale de l'aéronautique et de l'espace (NASA) et l'agence spatiale européenne (ESA), vise à ramener des échantillons martiens sur Terre pour des analyses. La phase critique de cette mission est la phase rendez-vous entre le conteneur d'échantillons et l'orbiteur. Les travaux de recherche traitent le problème de diagnostic des défauts capteurs présents sur la chaîne de mesure de l'orbiteur pendant la phase de rendez-vous de la mission. Les résultats, obtenus à l'aide du simulateur haute fidélité de Thalès Alenia Space, montrent la faisabilité et l'efficacité de la méthode.
344

Inversion d'un modèle de culture pour estimer spatialement les propriétés des sols et améliorer la prédiction de variables agro-environnementales

Varella, Hubert-Vincent 15 December 2009 (has links) (PDF)
Les modèles de culture constituent des outils indispensables pour comprendre l'influence des conditions agropédoclimatiques sur le système sol-plante à différentes échelles spatiales et temporelles. A l'échelle locale de la parcelle agricole, le modèle peut être utilisé dans le cadre de l'agriculture de précision pour optimiser les pratiques de fertilisation azotée de façon à maximiser le rendement ou le revenu tout en minimisant le lessivage des nitrates vers la nappe. Cependant, la pertinence de l'utilisation du modèle repose sur la qualité des prédictions réalisées, basée entre autres sur une bonne détermination des paramètres d'entrée du modèle. Dans le cadre de l'agriculture de précision, les paramètres concernant les propriétés des sols sont les plus délicates à connaître en tout point de la parcelle et il existe très peu de cartes de sols permettant de les déterminer de manière précise. Néanmoins, dans ce contexte, on peut disposer d'observations acquises automatiquement sur l'état du système sol-plante, telles que des images de télédétection, les cartes de rendement ou les mesures de résistivité électrique du sol. Il existe alors une alternative intéressante pour estimer les propriétés des sols à l'échelle de la parcelle qui consiste à inverser le modèle de culture à partir de ces observations pour retrouver les valeurs des propriétés des sols. L'objectif de cette thèse consiste (i) dans un premier temps à analyser les performances d'estimation des propriétés des sols par inversion du modèle STICS à partir de différents jeux d'observations sur des cultures de blé et de betterave sucrière, en mettant en oeuvre une méthode bayésienne de type Importance Sampling, (ii) dans un second temps à mesurer l'amélioration des prédictions de variables agro-environnementales réalisées par le modèle à partir des valeurs estimées des paramètres. Nous montrons que l'analyse de sensibilité globale permet de quantifier la quantité d'information contenue dans les jeux d'observations et les performances réalisées en matière d'estimation des paramètres. Ce sont les propriétés liées au fonctionnement hydrique du sol (humidité à la capacité au champ, profondeur de sol, conditions initiales) qui bénéficient globalement de la meilleure performance d'estimation par inversion. La performance d'estimation, évaluée par comparaison avec l'estimation fournie par l'information a priori, dépend fortement du jeu d'observation et est significativement améliorée lorsque les observations sont faites sur une culture de betterave, les conditions climatiques sont sèches ou la profondeur de sol est faible. Les prédictions agro-environnementales, notamment la quantité et la qualité du rendement, peuvent être grandement améliorées lorsque les propriétés du sol sont estimées par inversion, car les variables prédites par le modèle sont également sensibles aux propriétés liées à l'état hydrique du sol. Pour finir, nous montrons dans un travail exploratoire que la prise en compte d'une information sur la structure spatiale des propriétés du sol fournie par les mesures de résistivité électrique, peut permettre d'améliorer l'estimation spatialisée des propriétés du sol. Les observations acquises automatiquement sur le couvert végétal et la résistivité électrique du sol se révèlent être pertinentes pour estimer les propriétés du sol par inversion du modèle et améliorer les prédictions des variables agro-environnementales sur lesquelles reposent les règles de choix des pratiques agricoles
345

Simulation des impacts des actions de Maîtrise de la Demande en Électricité : amélioration de la résolution des paramètres d'entrée à l'échelle locale

Imbert, Pierre 21 January 2011 (has links) (PDF)
Suite au paradigme de la planification énergétique intégrée des années 90 et le récent regain d'intérêt de la planification énergétique décentralisée, la Maîtrise de la Demande en Electricité (MDE) tend à tenir une place importante dans les futures activités de planification. En effet, la MDE représente une alternative intéressante pour atteindre les objectifs environnementaux et énergétiques fixés au système énergétique ou encore pour contrecarrer les problèmes d'approvisionnement en électricité, spécifiques à certaines régions. A partir de nos observations, nous avons constaté la présence d'actions de MDE à l'échelle locale, au moins dans le contexte français. Par conséquent, il y a un besoin de méthodes et d'outils d'évaluation d'impact d'action de MDE applicables à l'échelle locale. Autrement dit, ces méthodes et ces outils doivent être en mesure de prendre en compte les spécificités des territoires (physiques, sociales, géographiques, économiques, institutionnelles, etc.) Ces travaux visent à améliorer la finesse de la résolution spatiale des paramètres d'entrée d'un modèle d'évaluation des impacts de la MDE. En se basant sur un cas d'étude français (le projet PREMIO : architecture système de communication appliquée à l'échelle d'un quartier) et un modèle de simulation existant, nous avons étudié les impacts de cette expérience locale sur plusieurs communes.
346

Commande prédictive et identification optimale en boucle fermée

Dufour, Pascal 29 April 2011 (has links) (PDF)
Pascal Dufour est maître de conférences en section 61 du CNU, à l'Université Claude Bernard Lyon 1 (UCBL1), affecté au département Génie Electrique et des Procédés (GEP) de la Faculté des Sciences et Technologies (FST) et au Laboratoire d'Automatique et de Génie des Procédés (LAGEP), qui est l'UMR 5007 CNRS-UCBL1. Il y est membre de l'équipe "Systèmes Non Linéaires et Procédés" (SNLEP). Pascal Dufour travaille sur des projets de recherche en automatique dans le génie des procédés. Fondamentalement, il s'intéresse aux développements et aux applications d'outils théoriques de commande de procédé : commande prédictive, design en ligne d'expériences optimales couplé à l'identification en ligne de paramètres du modèle, et développement de logiciels (MPC@CB et ODOE4OPE par exemple). Ceci est fortement lié à des problèmes réels issus du génie des procédés. Il développe et applique des outils théoriques de commande sur des cas réels en génie des procédés, à travers des projets nécessitant une approche pluridisciplinaire : séchage de peinture, cuisson de polymère, dépollution de gaz par réaction catalytique, digesteur de pulpe à papier, cuisson de peinture, réacteur de polymérisation, lyophilisation de produit pharmaceutique, séchage de pâtes alimentaires ... Ceci en partant de théories variées, pour aller à l'étude en simulation puis à l'implantation de la loi de commande sur le procédé réel. A partir des problèmes réels traités en génie des procédés, sa stratégie de recherche est de contribuer à travailler à l'amélioration et à l'optimisation des performances de ces procédés vus comme des systèmes continus, via des approches automatique en boucle fermée. Il a 2 axes de recherche : Historiquement, son premier axe de recherche soutient l'idée de formuler un problème de conduite d'un procédé, où l'on cherche à obtenir un produit final avec certaines propriétés souhaitées, en un problème de conduite en ligne à résoudre pendant l'exploitation. Cela se traduit alors en problème d'optimisation (poursuite de trajectoire, optimisation de vitesse, ...) avec prise en compte de diverses contraintes (sur l'entrée, la sortie, voir l'état). La stratégie de commande prédictive basée sur un modèle est utilisée dans ses travaux. La méthode personnelle de Pascal Dufour a été développée pour des problèmes où le temps nécessaire pour calculer la solution du modèle peut être important (par rapport à la relativement courte durée du prélèvement) et où quelques itérations sont donc autorisées pour l'optimiseur de donner une solution. Par conséquent, l'idée principale de cette méthode est que le modèle soit résolu rapidement et que les contraintes dures soient satisfaites à tout moment, afin que la commande soit physiquement applicable. Par ailleurs, pour les contraintes molles, si elles ne peuvent pas toutes être satisfaites à tout moment, la solution amenant aux moindres violations de contrainte peut être trouvée. Ce dernier point à son utilité, par exemple si, du fait des perturbations ayant un fort impact sur une sortie contrainte, celle-ci ne peut pas être satisfaite. Plus récemment, il a créée son second axe de recherche se situant à la frontière entre le design d'expériences optimales et l'identification en ligne de paramètres, le tout basé sur des outils de l'automatique (notamment commande prédictive et observateur). En effet, on peut se retrouver avec des phénomènes dont la modélisation (continue) est soit assez incomplète, soit trop détaillée pour pouvoir identifier tous les paramètres correctement. Dans ce cas, ces incertitudes paramétriques peuvent avoir par la suite un impact non négligeable sur les performances de la conduite en ligne. Depuis quelques années, Pascal Dufour s'intéresse donc aussi au problème d'identification en ligne de paramètres pour la modélisation. L'idée est la suivante : pour une structure de modèle dynamique choisi, l'approche permet de fournir, conjointement l'expérience optimale à réaliser et les estimations des paramètres initialement inconnus du modèle. Bien entendu, cette approche est soumise à des hypothèses, mais qui peuvent être vérifiées. Cette approche de commande (conduite) en boucle fermée utilise divers outils de l'automatique avancée étudiés dans l'équipe SNLEP au LAGEP : la modélisation de systèmes continus (du temps), l'observateur (capteur logiciel) et la commande prédictive. Les perspectives sont là assez vastes, et c'est principalement dans cet axe (assez original semble t'il) que ses principales activités à court et moyen termes se situent. En termes d'encadrement de jeunes chercheurs : il a participé à divers projets de recherche académiques et industriels, ce qui lui a permis de participer à l'encadrement de : 5 thèses de doctorat (4 soutenues et 1 en cours), dont 3 officiellement encadrées 1 stagiaire postdoctoral, et en moyenne d'1 stagiaire M2R/DEA par an. En termes de valorisation : Les résultats de ces travaux ont fait l'objet de publications : 12 articles de revues internationales avec comité de lecture, 2 articles de revues nationales avec comité de lecture, 18 congrès internationaux avec comité de sélection et avec actes 3 congrès nationaux avec comité de sélection et avec actes. Elles sont toutes en archives ouvertes : hal.archives-ouvertes.fr/DUFOUR-PASCAL-C-3926-2008 2 logiciels (en cours de dépôt) sont issus de ces recherches : Décembre 2010 : demande de dépôt d'un logiciel d'aide automatisée à l'identification optimale en boucle fermée (ODOE4OPE), via LST le 9 décembre 2010 (L829), à l'Agence de Protection des Programmes. Plus d'informations sur ce logiciel sur http://ODEO4OPE.univ-lyon1.fr Janvier 2007 : dépôt d'un logiciel de commande prédictive MPC@CB, déposé auprès d'EZUS Lyon 1 (enveloppe SOLEAU), et demandé à être redéposé, via LST le 26 octobre 2010 (L603), à l'Agence de Protection des Programmes. Ce logiciel fait l'objet en 2010 et 2011 d'un financement de l'ordre de 50kE par LST pour passer les codes sources Matlab dans un logiciel exploitable commercialement (1 projet retenu sur 3). Plus d'informations sur ce logiciel sur http://MPC-AT-CB.univ-lyon1.fr
347

Dynamiques de pauvreté, inégalité et croissance économique en Afrique Subsaharienne: une investigation appliquée au cas du Niger

Hamadou Daouda, Youssoufou 19 November 2010 (has links) (PDF)
Au Niger, les bonnes performances macroéconomiques enregistrées, consécutivement à la mise en œuvre du document stratégique de réduction de la pauvreté, suscitent la question de leur impact par rapport à l'évolution de l'inégalité et de la pauvreté. La présente recherche se propose d'analyser les spécificités des dynamiques d'inégalité et de pauvreté inhérentes au nouveau processus de développement, à partir de données d'enquêtes auprès des ménages entre 2005 et 2007/2008. Dans un premier temps, l'analyse, en statique comparative, indique une légère baisse des privations monétaires au Niger. Toutefois, des disparités semblent prévaloir entre les zones rurales et urbaines du pays. Globalement, la distribution des dépenses n'est pas inégalitaire, et le processus de croissance économique se révèle pro-pauvres au Niger, sauf dans la capitale où la croissance semble être pro-riches. Dans un second temps, la prise en compte de l'hétérogénéité de la pauvreté à travers la distinction entre la pauvreté chronique et transitoire, en relation avec la vulnérabilité, précise davantage l'appréhension des privations. D'une part, si la pauvreté chronique a sensiblement baissé, on note une progression de la pauvreté transitoire. D'autre part, l'étude souligne la forte vulnérabilité des ménages nigériens, notamment les ménages non pauvres qui ont une probabilité élevée d'exposition au risque de pauvreté à court terme. Finalement, l'analyse des privations au Niger est approfondie en intégrant une approche non monétaire. Les résultats obtenus confirment la complémentarité des approches mesurant les privations dans le cas du Niger.
348

Stabilité des structures minces et sensibilité aux imperfections par la Méthode Asymptotique Numérique

Baguet, Sébastien 29 October 2001 (has links) (PDF)
Ce travail est une contribution à l'analyse de stabilité et de sensibilité aux imperfections des structures minces, ainsi qu'au développement de méthodes numériques performantes pour le non-linéaire. La courbe de réduction de charge critique, qui permet d'estimer le degré de sensibilité d'une structure à un défaut donné, est obtenue grâce à un suivi numérique des courbes de points limites. L'algorithme sous-jacent repose sur la résolution d'un système non-linéaire augmenté. Ce système est composé des équations d'équilibre de la structure et d'une équation qui caractérise les points critiques, dans lesquelles l'amplitude de l'imperfection est un paramètre additionnel. Le modèle utilisé s'appuie sur un élément de coque moderne et performant, basé sur le concept EAS. Il autorise les grandes rotations et la dilatation suivant l'épaisseur, prend en compte de manière exacte les non-linéarités géométriques, et intègre les non-linéarités matérielles par le biais de relations de comportement 3D en chaque point de Gauss. Au terme de ce travail, on dispose d'un outil complet d'analyse de sensibilité aux imperfections, entièrement basé sur la Méthode Asymptotique Numérique, dont les principales fonctionnalités sont : (1) le calcul de branches d'équilibres non-linéaires au moyen d'une méthode de continuation, (2) la détection des points singuliers le long d'une branche d'équilibre, (3) le suivi de points limites, qui permet de mener des études de sensibilité sur des structures 3D, pour des imperfections d'ensemble ou localisées et des défauts de forme ou d'épaisseur.
349

Etude des effets de pression de radiation et des limites quantiques du couplage optomécanique

Verlot, P. 24 September 2010 (has links) (PDF)
En mécanique quantique, toute mesure est responsable d'une action en retour sur le système mesuré, qui limite en général la sensibilité de la mesure. Il en est ainsi dans les mesures interférométriques, où les miroirs de l'interféromètre sont susceptibles de se déplacer sous l'effet de la pression de radiation exercée par la lumière. Nous présentons une expérience visant à mettre en évidence ces limites, basée sur la détection ultra-sensible des déplacements d'un miroir mobile inséré dans une cavité Fabry-Perot de très grande finesse. Grâce aux améliorations que nous avons apportées à ce dispositif, nous avons observé des corrélations entre un bruit classique d'intensité et la phase de faisceaux lumineux, induites par couplage optomécanique avec le miroir mobile. Nous décrivons les conditions expérimentales nécessaires pour prolonger ces expériences au niveau quantique, afin d'observer les corrélations optomécaniques produites par les fluctuations quantiques de la pression de radiation, mais aussi pour réaliser une mesure quantique non destructive de la lumière par des moyens purement mécaniques. Nous présentons également plusieurs conséquences de la pression de radiation que notre montage nous a permis de mettre en évidence : annulation de l'action en retour dans les mesures de longueur ou de force, refroidissement laser du miroir dans une cavité désaccordée, et enfin un effet dynamique de l'action en retour qui conduit à l'amplification d'un signal par la mise en mouvement du miroir. Cet effet, prédit dans le cadre de la détection interférométrique des ondes gravitationnelles, devrait permettre d'améliorer la sensibilité au-delà de la limite quantique standard, qui devrait être atteinte dans les antennes gravitationnelles de seconde génération.
350

Méthodologie de prédiction des effets destructifs dus à l'environnement radiatif naturel sur les MOSFETs et IGBTs de puissance

Luu, Aurore 12 November 2009 (has links) (PDF)
Ces travaux contribuent à définir une nouvelle méthodologie de caractérisation et de prévision de la sensibilité des composants de puissance de type VDMOS vis à vis de l'environnement radiatif naturel. Cette méthodologie est basée sur le test laser d'une part et sur le développement d'un logiciel de prédiction nommé MC DASIE d'autre part. La méthode de caractérisation par laser de MOS de puissance est validée à partir de la comparaison des résultats obtenus avec des accélérateurs de particules. En outre, des cartographies laser de sensibilités sont présentées et l'intérêt du laser comme outil complémentaire des accélérateurs est mis en lumière. Le développement d'une extension du logiciel de prédiction MC DASIE aux MOS de puissance permet de prédire leur sensibilité dans un environnement atmosphérique. A cette fin, des simulations TCAD sont réalisées ; elles permettent une meilleure compréhension du phénomène de Burnout ainsi que la définition de critères de déclenchement et du volume d'interaction.

Page generated in 0.1293 seconds