• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 478
  • 147
  • 59
  • 5
  • 1
  • Tagged with
  • 684
  • 298
  • 238
  • 176
  • 153
  • 98
  • 77
  • 74
  • 73
  • 70
  • 58
  • 50
  • 50
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Contribution à la commande des systèmes complexes

Riedinger, Pierre 04 June 2010 (has links) (PDF)
Les contributions que nous avons choisi de présenter dans ce mémoire ont trait en général à la commande, à la stabilité et à l'observation des systèmes dynamiques hybrides. Ce mémoire retrace le cheminement de mes recherches sur les dix dernières années au CRAN au sein du projet systèmes dynamiques hybrides et complexes mais également aux travers de projets et collaborations locales (CPER : projet SC2), nationales (GdR SDH, AS 192, ANR ArHyCo) et européennes (Hycon). L'extension du principe du minimum et l'établissement de conditions nécessaires pour la résolution d'un problème de commande optimale pour les SDH ont permis de soulever et de mettre en évidence des difficultés liées à la résolution de ce type de problème. Deux freins principaux à la mise en oeuvre d'algorithmes généraux efficaces ont été identifiés et proviennent d'une part, de l'explosion combinatoire engendrée par la dynamique discrète couplée aux dynamiques continues et d'autre part, de l'existence de trajectoires singulières conduisant nécessairement à des solutions sous optimales. Une discussion sur les méthodes de résolution directes et indirectes montre que même dans des situations simplifiées, l'existence de trajectoires singulières pose un réel problème et les algorithmes utilisant le principe du minimum sont inadaptés sans traitement particulier pour gérer ces situations. Nous montrons sur un exemple qu'il peut être préférable d'utiliser des méthodes directes sous une formulation de tirs multiples. Pour la classe des systèmes affines commutés qui représente une classe de systèmes technologiques très répandus, les points de fonctionnement rendent particulièrement évident le rôle joué par les trajectoires singulières. On constate qu'elles correspondent aux solutions optimales au sens de Fillipov du système commuté. Nous avons proposé une méthode permettant d'effectuer la synthèse de ces trajectoires optimales pour des critères de type temps optimal ou quadratique en temps infini applicable sur des systèmes de dimension faible et en général inférieure ou égale à 3. Une seconde méthode de synthèse à base de commande prédictive utilise les degrés de liberté sur la commande autour du point de fonctionnement pour poursuivre un cycle particulier défini par un critère. L' algorithme rapide d'optimisation des solutions tient compte des discontinuités issues des instants de commutations et utilise les fonctions de sensibilité vis à vis de ces instants. La généralisation aux SDH du calcul des fonctions de sensibilité lorsque le système hybride est le siège de discontinuités de champs et de saut sur l'état, est un résultat utile qui permet d'utiliser des outils nécessitant une différentiation. Le calcul rapide des cycles limites et l'étude de leur stabilité est une première application possible, l'optimisation est très clairement la cible principale. L'étude et l'analyse du comportement asymptotique des systèmes linéaires commutés via la formulation d'un principe d'invariance de Lasalle nous amène à un constat similaire à celui fait sur la commande optimale : Le comportement asymptotique est identique à celui que l'on obtient en considérant les solutions de Fillipov du système commuté. Nous avons montré en considérant plusieurs hypothèses sur les lois de commutation que la séparation est opérée si on restreint la loi de commutation en considérant par exemple des hypothèses fortes de temps d'activation minimum sur les modes. Ces résultats d'analyse sont primordiaux dans la compréhension de la complexité de la dynamique issue de la commutation. La synthèse d'observateurs commutés pour la classe des systèmes linéaires commutés que nous avons proposée, et l'identification algébrique des lois ne permettant pas d'observer le système ont été déduites du principe d'invariance mentionné à l'item précédent. La mise en évidence de la décroissance de la vitesse de convergence de l'erreur d'observation en fonction de la vitesse de commutation est une conséquence de cette caractérisation algébrique. Les travaux réalisés ont permis de soulever de très nombreux problèmes spécifiques à la classe des systèmes commutés (Robustesse vis à vis d'incertitudes paramétriques, extension au cas discret et échantillonné, synthèse de lois préservant l'observabilité, vitesse de convergence de l'observateur, ...) et de dégager des pistes de recherche concernant leur résolution.
82

Développement de méthodes statistiques pour la prédiction d'un gabarit de signature infrarouge

Varet, Suzanne 08 April 2010 (has links) (PDF)
Dans le but de fournir un outil pour le dimensionnement de capteurs optroniques, nous souhaitons estimer la probabilité que, pour un scénario fixé, la signature infrarouge (SIR) d'un aéronef dans son environnement soit inférieure à un certain seuil. Cette estimation se ramène à l'estimation de l'intégrale d'une fonction h en grande dimension, dont la forme n'est pas précisément connue. La solution envisagée consiste à utiliser la méthode quasi-Monte Carlo (QMC). Toutefois, la précision de cet estimateur se dégrade lorsque la dimension augmente. L'objectif de la thèse est de développer une méthode pour réduire la dimension qui soit adaptée aux caractéristiques des variables d'entrée du code de calcul de SIR, puis d'utiliser l'information obtenue lors de la réduction de dimension pour améliorer la qualité de l'estimateur QMC. Les approches usuelles de réduction de dimension nécessitent des hypothèses qui sont irréalistes dans le cas de la SIR. Nous avons donc proposé une nouvelle méthode, dont les hypothèses de validité sont moins contraignantes. Après avoir réduit la dimension, il est possible d'appliquer la méthode QMC en fixant les variables non influentes à une valeur quelconque. Cependant, les suites de points utilisées dans le cadre de la méthode QMC, quoique bien réparties dans l'espace, présentent des irrégularités de répartition sur les projections. Nous avons donc adapté la discrépance L2*-pondérée de manière à pouvoir juger l'adéquation d'une suite à la fonction d'intérêt h. Par la suite nous avons mis au point un algorithme visant à construire une suite de points optimisant au mieux ce critère, dans le but de minimiser l'erreur d'intégration.
83

Nouvelles solutions de capteurs à effet de magnétoimpédance géante : principe, modélisation et performances

Moutoussamy, Joel 09 December 2009 (has links) (PDF)
Parmi les principes de la mesure du champ magnétique haute sensibilité, éligibles pour l'investigation des ondes plasmas des environnements terrestre et planétaire, les capteurs à effet de magnétoimpédance géante (GMI) suscitent un intérêt certain, qui dépasse les applications spatiales. Connue comme la variation de l'impédance de micro-fils, de films ou de sandwichs ferromagnétiques provoquée par l'amplitude du champ magnétique, ils sont excités directement par un courant, de fréquence de quelques mégahertz à plusieurs dizaines de mégahertz. La modification de la profondeur de peau à travers la variation de la perméabilité provoque une atténuation géante de l'impédance. Héritant du même principe, les nouvelles solutions de GMI utilisent soit un ruban ferromagnétique sur lequel est enroulé un bobinage de N spires à la manière d'inductances planaires soit deux rubans enserrant un bobinage à la manière de sandwichs bobinés. Le bobinage isolé électriquement, réalise à la fois l'excitation magnétique et la prise de mesure et son comportement inductif permet de transposer dans les très basses fréquences (5kHz- 1MHz) la détection du champ magnétique statique ou lentement variable (F<1kHz). La structure bobinée simplifie le procédé de fabrication et améliore l'excitation magnétique qui peut être dirigée dans les deux directions du plan du ruban ferromagnétique permettant ainsi d'accéder à toutes les composantes du tenseur anisotrope des perméabilités associées aux différentes directions relatives entre l'anisotropie magnétique et le champ magnétique statique tout en bénéficiant du champ démagnétisant le plus favorable. Le début des travaux concerne une étude expérimentale des GMI classiques puis des GMI bobinées utilisant différents matériaux magnétiques tels que les rubans nanocristallins recuit sous champ transverse ou longitudinal, les rubans mumetal ou encore les noyaux ferrite. Cette étude montre également l'influence principale de l'effet de la forme géométrique du ruban ferromagnétique sur la sensibilité intrinsèque et le champ de polarisation. La caractérisation des performances repose sur la mesure de l'impédance et de la sensibilité intrinsèque en lieu et place du MI ratio. Concluant sur le rôle majeur de la perméabilité différentielle, la suite des travaux concerne le calcul du tenseur des perméabilités à partir de l'équation de Landau-Lifshitz-Gilbert couplé à un modèle de perméabilité de décroissance monotone corrélée avec l'expérience. Le modèle proposé repose sur la combinaison d'une perméabilité transversale et longitudinale de rotation de l'aimantation d'une part et d'une perméabilité longitudinale de déplacement de parois magnétiques d'autre part. A partir d'un modèle électromagnétique tenant compte de l'effet de peau et de la parité du champ magnétique inhérente à ces structures bobinées, le concept de GMI bobiné est généralisé aux deux positions possibles du bobinage qui permet d'exploiter en plus des composantes diagonales du tenseur des perméabilités, les perméabilités croisées. Les modèles des impédances et des sensibilités intrinsèques sont comparés aux résultats associés au ruban à anisotropie transversale associé au bobinage transverse puis longitudinal.
84

Mobilité et sensibilité au contexte pour la gestion de documments multimédias personnels : CoMMediA

Viana De Carvalho, Windson 02 February 2010 (has links) (PDF)
La sensibilité au contexte est une propriété qui identifie les systèmes dont le comportement repose sur l'exploitation d'un ensemble d'informations, appelé contexte d'utilisation. Malgré leur hétérogénéité, l'évolution rapide et soutenue des dispositifs mobiles (DM) vers des terminaux multifonctionnels, multi-capteurs et connectables sur le Web, a transformé ces DM en des environnements d'accueil idéaux pour l'exécution d'applications sensibles au contexte. Les DM deviennent également, par leur popularité, les principaux outils de création de documents multimédias personnels (DMP). Dans ce nouveau cadre d'usage, l'information qualifiée de contexte joue un rôle déterminant. En effet, le contexte capté lors de la création d'un DMP peut offrir des informations, appelées métadonnées, suffisamment riches pour le décrire, et, par la suite, l'identifier. Ce travail de thèse se situe ainsi à l'intersection de deux thématiques de recherche : l'Informatique Sensible au Contexte et la Gestion de Documents Multimédias. La prise en compte du contexte de création dans la gestion de DMP est une thématique nouvelle pour laquelle l'adoption d'un modèle sémantique de représentation pour les informations contextuelles, et l'élaboration de mécanismes d'acquisition et d'exploitation de ces informations, sont encore des problèmes non résolus. Nous proposons une architecture sensible au contexte, appelée CoMMediA (Context-aware Mobile Multimedia Architecture), pour la gestion de DMP, inspirée des architectures d'adaptation de Systèmes d'Information (SI) mobiles. Notre contribution s'articule autour : i) d'un modèle sémantique de représentation des métadonnées (ContextMultimedia), décrit en OWL et reposant sur une nouvelle notion de contexte, ii) d'un intergiciel adaptatif de capture du contexte de création de DMP (appelé DevAC), qui prend en compte l'hétérogénéité et les limitations intrinsèques des DM lors du déploiement d'applications mobiles, et iii) d'une plate-forme d'enrichissement de métadonnées contextuelles (ContextAnnotator). Notre objectif est de promouvoir la découverte automatique de métadonnées et d'illustrer également l'exploitation de la richesse sémantique des métadonnées pour l'organisation, l'annotation, le partage et la recherche de DMP. De plus, DevAC et nos applications mobiles de gestion de DMP s'appuient sur une infrastructure à composants, et sur une description sémantique des services offerts par une application. Le but ultime est d'aider le concepteur à développer et à déployer des applications multimédias et sensibles au contexte qui puissent s'adapter aux modèles des dispositifs mobiles des utilisateurs, sans qu'il soit besoin de réécrire le code d'une même application.
85

Identification des lois de comportemement élastoplastiques par essais inhomogènes et simulations numériques

Khalfallah, ali 14 February 2004 (has links) (PDF)
Le sujet de thèse que nous abordons concerne l'identification des lois de comportement élastoplastiques anisotropes en vue de leur utilisation pour la simulation numérique des procédés de mise en forme par déformation plastique de tôles minces métalliques d'emboutissage. Nous avons essentiellement contribué à la définition et à la mise en oeuvre de stratégies et techniques d'identification des lois de comportement à partir d'essais expérimentaux. Les essais classiquement utilisés pour l'identification des modèles : la traction simple dans les axes et hors axes, la traction plane et le gonfelement hydraulique sont présentés et analysés du point de vue homogénéité des déformations pour aboutir à la relation contrainte-déformation à partir des mesures globales force-déplacement. L'identification des modèles de comportement à partir des essais inhomogènes nécessite une simulation numérique couplée avec une méthode d'optimisation (méthode du Simplexe) pour minimiser l'écart entre les résultats expérimentaux et la réponse du modèle calculée par une méthode d'élements finis. Nous avons identifié des lois de comportement élastoplastiques anisotropes avec écrouissage isotrope. Ces lois sont basées en particulier sur le choix d'une ou deux fonctions "contrainte équivalente" définissant le critère de plasticité et le potentiel plastique (cadre de la normalité non associée) ayant la même structure que la fonction seuil. Plusieurs critères quadratiques et non quadratiques sont alors utilisés. Nous avons développé une technique spécifique d'analyse de sensibilité des essais par rapport aux differents paramètres à identifier de la loi de comportement. Cette technique est mise en oeuvre sur des exemples pratiques.
86

Contribution au management de l’infection à Helicobacter pylori en Belgique.

MIENDJE DEYI, Véronique Yvette 10 June 2011 (has links)
Peu étudiée et méconnue, initialement décrite au début du XXème siècle, Helicobacter pylori fut redécouverte en 1982 par deux chercheurs australiens, JR Warren et BJ Marshall. Ils soutinrent que la plupart des ulcères gastro-duodénaux étaient causés par cette bactérie, et non par le stress ou la nourriture épicée, comme pensé auparavant. Cette découverte révolutionna le monde de la gastroentérologie et leur valut le prix Nobel de physiologie et de médecine 2005. Environ la moitié de la population mondiale est colonisée par H. pylori au niveau de l'estomac. Dans 10 à 20% des cas, l'infection peut évoluer vers un ulcère gastro-duodénal et dans certains cas vers une transformation maligne. Cette infection se soigne classiquement à l'aide d'une trithérapie associant 2 antibiotiques à un inhibiteur de la pompe à protons pour neutraliser l'acidité gastrique. Notre travail de recherche a consisté à analyser la proportion de patients infectés par H. pylori dans une cohorte de plus de 22.000 patients, issus de divers groupes ethniques, vivant en Belgique. Ces souches de H. pylori, isolées dans notre laboratoire, à partir des biopsies gastriques, ont aussi servi à une étude pour suivre l'évolution de la résistance aux antibiotiques ces 20 dernières années afin de proposer des améliorations de la prise en charge thérapeutique de l'infection à H. pylori en Belgique.
87

Etudes sur le lancer de rayons spectral

Lehl, Jean Claude 16 November 2000 (has links) (PDF)
Le sujet de la thèse concerne la prise en compte de la sensibilité spectrale de l'œil dans la simulation physiquement plausible de la propagation de la lumière et de ses interactions avec la matière. Le contrôle perceptuel exercé sur chaque interaction de la lumière permet d'imposer une erreur maximale dans le plan image et de déduire une représentation de l'énergie adaptée. L'objectif principal est de déterminer une précision de simulation adaptée à celle de l'œil. En effet, il est inutile d'utiliser une simulation précise et coûteuse lorsque l'œil n'est pas capable de percevoir tous les détails du résultat. L'introduction d'une représentation adaptative de l'énergie autorise ce contrôle. Un atout de cette représentation est de permettre de calculer l'erreur introduite sur chaque intervalle de longueur d'ondes du domaine visible. Un autre avantage est de pouvoir définir les opérations nécessaires à la simulation des interactions de la lumière. Ainsi, il devient possible de construire des expressions symboliques représentant la totalité des interactions de la lumière incidente à chaque pixel de l'image et de calculer une représentation adaptée de la distribution d'énergie associée. Ces expressions sont appelées expressions de rendu et constituent la contribution principale de cette thèse. L'évaluation progressive des expressions de rendu déterminent une représentation adaptative dont l'erreur est inférieure à un seuil fixe à priori dans un espace colorimétrique uniforme : c'est le contrôle perceptuel du rendu. Les expressions de rendu sont appliquées en particulier aux caustiques dispersives ainsi qu'aux interreflexions diffuses. Les méthodes développées sont basées sur des distributions de particules émises depuis les sources de lumière. Ici aussi, l'utilisation des expressions de rendu permet une construction progressive et paresseuse des distributions de particules autorisant des gains particulièrement intéressants.
88

Un intergiciel multi-agent pour la composition flexible d'applications en intelligence ambiante

Vallee, Mathieu 21 January 2009 (has links) (PDF)
La conception d'applications pour un environnement attentif (applications attentives) soulève de nombreux défis, en particulier liés à l'hétérogénéité des objets communicants, à l'instabilité de l'environnement et à la variabilité des besoins. Afin de faciliter cette conception, on s'intéresse à la notion d'application composite flexible : des applications qui fonctionnent en continu, en arrière plan de l'attention, et agrègent des fonctionnalités fournies par les objets communicants, afin d'accompagner l'interaction des utilisateurs. FCAP est un intergiciel pour la composition flexible d'applications, qui fournit un support générique pour intégrer les fonctionnalités, s'adapter à un environnement instable et ajuster l'équilibre entre l'automatisation et le contrôle par les utilisateurs. Cet intergiciel développe des principes issus de l'architecture orientée-service, du Web sémantique et des systèmes multi-agents, particulièrement pertinentes pour les environnements considérés.
89

Propagation d'incertitudes et analyse de sensibilité pour la modélisation de l'infiltration et de l'érosion

Rousseau, Marie 17 December 2012 (has links) (PDF)
Nous étudions la propagation et la quantification d'incertitudes paramétriques au travers de modèles hydrologiques pour la simulation des processus d'infiltration et d'érosion en présence de pluie et/ou de ruissellement. Les paramètres incertains sont décrits dans un cadre probabiliste comme des variables aléatoires indépendantes dont la fonction de densité de probabilité est connue. Cette modélisation probabiliste s'appuie sur une revue bibliographique permettant de cerner les plages de variations des paramètres. L'analyse statistique se fait par échantillonage Monte Carlo et par développements en polynômes de chaos. Nos travaux ont pour but de quantifier les incertitudes sur les principales sorties du modèle et de hiérarchiser l'influence des paramètres d'entrée sur la variabilité de ces sorties par une analyse de sensibilité globale. La première application concerne les effets de la variabilité et de la spatialisation de la conductivité hydraulique à saturation du sol dans le modèle d'infiltration de Green--Ampt pour diverses échelles spatiales et temporelles. Notre principale conclusion concerne l'importance de l'état de saturation du sol. La deuxième application porte sur le modèle d'érosion de Hairsine--Rose. Une des conclusions est que les interactions paramétriques sont peu significatives dans le modèle de détachement par la pluie mais s'avèrent importantes dans le modèle de détachement par le ruissellement
90

Diagnostic du colmatage des générateurs de vapeur à l'aide de modèles physiques et statistiques

Girard, Sylvain 17 December 2012 (has links) (PDF)
Les générateurs de vapeur sont d'imposants échangeurs de chaleur qui alimentent les turbines des centrales nucléaires à eau pressurisée. Au cours de leur exploitation, des dépôts d'oxydes s'y accumulent et obstruent progressivement des trous prévus pour le passage du fluide. Ce phénomène, appelé colmatage, pose des problèmes de sûreté. Une méthode de diagnostic est nécessaire pour optimiser la stratégie de maintenance permettant de s'en prémunir. La piste explorée dans cette thèse est l'analyse de la réponse dynamique des générateurs de vapeur lors de transitoire de puissance, à l'aide d'un modèle physique monodimensionnel. Deux améliorations ont été apportées au modèle existant au cours de la thèse : la prise en compte des débits perpendiculaires à l'axe du générateur de vapeur et la modélisation du déséquilibre cinématique entre la phase liquide et la phase vapeur. Ces éléments ont ajouté des degrés de liberté permettant de mieux reproduire le comportement réel des générateurs de vapeur. Une nouvelle méthodologie de calage et de validation a alors été proposée afin de garantir la robustesse du modèle.Le problème inverse initial était mal posé car plusieurs configurations spatiales de colmatage peuvent donner des réponses identiques. La magnitude relative de l'effet des dépôts suivant leur localisation a été évaluée par analyse de sensibilité avec la méthode de Sobol'. La dimension de la sortie fonctionnelle du modèle a au préalable été réduite par une analyse en composantes principales.Enfin, une méthode de réduction de dimension appelée régression inverse par tranches a été mise en œuvre pour déterminer dessous-espaces de projection optimaux pour le diagnostic. Une méthode de diagnostic plus robuste et mieux maitrisée que celle existante a pu être proposée grâce à cette nouvelle formulation.

Page generated in 0.1167 seconds