• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 481
  • 149
  • 60
  • 5
  • 1
  • Tagged with
  • 690
  • 299
  • 238
  • 176
  • 153
  • 98
  • 77
  • 75
  • 73
  • 72
  • 59
  • 51
  • 50
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Découverte et fourniture de services adaptatifs dans les environnements mobiles

Fouial, Ouahiba 05 1900 (has links) (PDF)
Avec l'avènement de la troisième génération, les réseaux de télécommunications mobiles entrent dans une nouvelle phase de leur évolution, d'un réseau omniprésent axé sur la téléphonie mobile, vers des systèmes de fourniture de services à grande échelle. Ces systèmes doivent permettre à des usagers (éventuellement mobiles) d'accéder à leurs services et leur environnement personnalisés quels que soient le réseau et le terminal qu'ils utilisent. Le constat actuel est que la mise en place de la fourniture de services pour ces systèmes nécessite la conception d'une plate-forme distribuée complexe faisant intervenir des éléments hétérogènes (grand choix de réseaux, plusieurs types de terminaux de capacités différentes, multiples opérateurs réseau et fournisseurs de services, contenus de services hétérogènes, etc.). Par ailleurs, l'évolution des terminaux mobiles (ordinateurs portables, assistants personnels, téléphones portables, etc.) et des réseaux mobiles (émergence des réseaux sans fil) permet le développement d'applications fondées sur la mobilité. L'environnement d'exécution de ces applications doit prendre en compte la variété des équipements et des ressources (ex: bande passante) ainsi que la mobilité de l'utilisateur. De plus, les usagers mobiles veulent pouvoir personnaliser les services et les utiliser de la même manière qu'en environnement fixe et ce, quel que soit le service à traiter et quelles que soient les capacités du terminal utilisé. L'objectif de cette thèse est de donner des éléments de solution à ces problèmes. Elle traite de la découverte et la fourniture de services adaptables dans les environnements mobiles. Elle a pour but de proposer une architecture permettant aux usagers mobiles de découvrir et d'exécuter des services sensibles au contexte de leur exécution. Les services proposés sont adaptés aux préférences de l'usager, aux capacités de son terminal, à sa localisation, et enfin, aux ressources réseau disponibles. Dans un premier temps, nous nous intéressons à l'utilisation des agents mobiles pour la fourniture de services dans les environnements mobiles. Ce modèle, bien adapté aux contraintes des environnements mobiles, s'avère intéressant, principalement, dans les applications qui entraînent la consultation de plusieurs services successifs sur le réseau (ex: visite de plusieurs prestataires de services dans le cadre d'une découverte de services). Par la suite, nous proposons une plate-forme de fourniture de services sensibles au contexte appelée CASP (Context Aware Service Provision). Dans cette plate-forme, la sensibilité au contexte est prise en compte dans les deux phases de fourniture de services suivantes: la découverte de services et l'exécution du service sur le terminal mobile. CASP utilise un mécanisme de découverte de services qui permet à l'usager mobile de personnaliser la fourniture de services et de l'adapter à ses exigences. Ce mécanisme, mis en oeuvre par un élément médiateur entre l'usager mobile et les fournisseurs de services, permet de ne proposer à l'usager que les services qui sont adaptés à ses préférences, aux capacités de son terminal et à sa localisation. L'implémentation de ce mécanisme de découverte de services est basée sur des concepts tels que VHE (Virtual Home Environment) et les profils, et utilise des outils standard tels que XML et CC/PP (Composite Capabilities/ Preference Profiles). La sensibilité au contexte dans la plate-forme CASP est également utilisée pour adapter les services, une fois découverts par l'usager, à leur environnement d'exécution. Cette adaptation est réalisée au moment de l'exécution du service sur le terminal mobile. La solution proposée est basée sur l'utilisation de serveurs intermédiaires (Serveur Proxy) entre le terminal mobile et le fournisseur du service. Un service multimédia a été développé pour valider les concepts proposés dans cette thèse. Enfin, nous terminons par une ouverture sur l'utilisation d'une approche de conception de services à base de composants.
82

Analyses de sensibilité et d'identifiabilité globales. Application à l'estimation de paramètres photophysiques en thérapie photodynamique

Dobre, Simona 22 June 2010 (has links) (PDF)
La thérapie photodynamique (PDT) est un traitement médical destiné à certains types de cancer. Elle utilise un agent photosensibilisant qui se concentre dans les tissus pathologiques est qui sera. Cet agent est ensuite activé par une lumière d'une longueur d'onde précise produisant, après une cascade de réactions, des espèces réactives de l'oxygène qui endommagent les cellules cancéreuses. Cette thèse aborde les analyses d'identifiabilité et de sensibilité des paramètres du modèle dynamique non linéaire retenu. Après avoir précisé différents cadres d'analyse d'identifiabilité, nous nous intéressons plus particulièrement à l'identifiabilité a posteriori, pour des conditions expérimentales fixées, puis à l'identifiabilité pratique, prenant en plus en compte les bruits de mesure. Pour ce dernier cadre, nous proposons une méthodologie d'analyse locale autour de valeurs particulières des paramètres. En ce qui concerne l'identifiabilité des paramètres du modèle dynamique de la phase photocytotoxique de la PDT, nous montrons que parmi les dix paramètres localement identifiables a posteriori, seulement l'un d'entre eux l'est en pratique. Néanmoins, ces résultats locaux demeurent insuffisants en raison des larges plages de variation possibles des paramètres du modèle et nécessitent d'être complétés par une analyse globale. Le manque de méthode visant à tester l'identifiabilité globale a posteriori ou pratique, nous a orientés vers l'analyse de sensibilité globale de la sortie du modèle par rapport à ses paramètres. Une méthode d'analyse de sensibilité globale fondée sur l'étude de la variance a permis de mettre en évidence trois paramètres sensibilisants. Nous abordons ensuite les liens entre les analyses globales d'identifiabilité et de sensibilité des paramètres, en employant une décomposition de Sobol'. Nous montrons alors que les liens suivants existent : une fonction de sensibilité totale nulle implique un paramètre non-identifiable; deux fonctions de sensibilité colinéaires impliquent la non-identifiabilité mutuelle des paramètres en question ; la non-injectivité de la sortie par rapport à un de ses paramètres peut aussi entrainer la non-identifiabilité du paramètre en question mais ce dernier point ne peut être détecté en analysant les fonctions de sensibilité uniquement. En somme, la détection des paramètres non globalement identifiables dans un cadre expérimental donné à partir de résultats d'analyse de sensibilité globale ne peut être que partielle. Elle permet d'observer deux (sensibilité nulle ou négligeable et sensibilités corrélées) des trois causes de la non-identifiabilité.
83

Contribution à la commande des systèmes complexes

Riedinger, Pierre 04 June 2010 (has links) (PDF)
Les contributions que nous avons choisi de présenter dans ce mémoire ont trait en général à la commande, à la stabilité et à l'observation des systèmes dynamiques hybrides. Ce mémoire retrace le cheminement de mes recherches sur les dix dernières années au CRAN au sein du projet systèmes dynamiques hybrides et complexes mais également aux travers de projets et collaborations locales (CPER : projet SC2), nationales (GdR SDH, AS 192, ANR ArHyCo) et européennes (Hycon). L'extension du principe du minimum et l'établissement de conditions nécessaires pour la résolution d'un problème de commande optimale pour les SDH ont permis de soulever et de mettre en évidence des difficultés liées à la résolution de ce type de problème. Deux freins principaux à la mise en oeuvre d'algorithmes généraux efficaces ont été identifiés et proviennent d'une part, de l'explosion combinatoire engendrée par la dynamique discrète couplée aux dynamiques continues et d'autre part, de l'existence de trajectoires singulières conduisant nécessairement à des solutions sous optimales. Une discussion sur les méthodes de résolution directes et indirectes montre que même dans des situations simplifiées, l'existence de trajectoires singulières pose un réel problème et les algorithmes utilisant le principe du minimum sont inadaptés sans traitement particulier pour gérer ces situations. Nous montrons sur un exemple qu'il peut être préférable d'utiliser des méthodes directes sous une formulation de tirs multiples. Pour la classe des systèmes affines commutés qui représente une classe de systèmes technologiques très répandus, les points de fonctionnement rendent particulièrement évident le rôle joué par les trajectoires singulières. On constate qu'elles correspondent aux solutions optimales au sens de Fillipov du système commuté. Nous avons proposé une méthode permettant d'effectuer la synthèse de ces trajectoires optimales pour des critères de type temps optimal ou quadratique en temps infini applicable sur des systèmes de dimension faible et en général inférieure ou égale à 3. Une seconde méthode de synthèse à base de commande prédictive utilise les degrés de liberté sur la commande autour du point de fonctionnement pour poursuivre un cycle particulier défini par un critère. L' algorithme rapide d'optimisation des solutions tient compte des discontinuités issues des instants de commutations et utilise les fonctions de sensibilité vis à vis de ces instants. La généralisation aux SDH du calcul des fonctions de sensibilité lorsque le système hybride est le siège de discontinuités de champs et de saut sur l'état, est un résultat utile qui permet d'utiliser des outils nécessitant une différentiation. Le calcul rapide des cycles limites et l'étude de leur stabilité est une première application possible, l'optimisation est très clairement la cible principale. L'étude et l'analyse du comportement asymptotique des systèmes linéaires commutés via la formulation d'un principe d'invariance de Lasalle nous amène à un constat similaire à celui fait sur la commande optimale : Le comportement asymptotique est identique à celui que l'on obtient en considérant les solutions de Fillipov du système commuté. Nous avons montré en considérant plusieurs hypothèses sur les lois de commutation que la séparation est opérée si on restreint la loi de commutation en considérant par exemple des hypothèses fortes de temps d'activation minimum sur les modes. Ces résultats d'analyse sont primordiaux dans la compréhension de la complexité de la dynamique issue de la commutation. La synthèse d'observateurs commutés pour la classe des systèmes linéaires commutés que nous avons proposée, et l'identification algébrique des lois ne permettant pas d'observer le système ont été déduites du principe d'invariance mentionné à l'item précédent. La mise en évidence de la décroissance de la vitesse de convergence de l'erreur d'observation en fonction de la vitesse de commutation est une conséquence de cette caractérisation algébrique. Les travaux réalisés ont permis de soulever de très nombreux problèmes spécifiques à la classe des systèmes commutés (Robustesse vis à vis d'incertitudes paramétriques, extension au cas discret et échantillonné, synthèse de lois préservant l'observabilité, vitesse de convergence de l'observateur, ...) et de dégager des pistes de recherche concernant leur résolution.
84

Développement de méthodes statistiques pour la prédiction d'un gabarit de signature infrarouge

Varet, Suzanne 08 April 2010 (has links) (PDF)
Dans le but de fournir un outil pour le dimensionnement de capteurs optroniques, nous souhaitons estimer la probabilité que, pour un scénario fixé, la signature infrarouge (SIR) d'un aéronef dans son environnement soit inférieure à un certain seuil. Cette estimation se ramène à l'estimation de l'intégrale d'une fonction h en grande dimension, dont la forme n'est pas précisément connue. La solution envisagée consiste à utiliser la méthode quasi-Monte Carlo (QMC). Toutefois, la précision de cet estimateur se dégrade lorsque la dimension augmente. L'objectif de la thèse est de développer une méthode pour réduire la dimension qui soit adaptée aux caractéristiques des variables d'entrée du code de calcul de SIR, puis d'utiliser l'information obtenue lors de la réduction de dimension pour améliorer la qualité de l'estimateur QMC. Les approches usuelles de réduction de dimension nécessitent des hypothèses qui sont irréalistes dans le cas de la SIR. Nous avons donc proposé une nouvelle méthode, dont les hypothèses de validité sont moins contraignantes. Après avoir réduit la dimension, il est possible d'appliquer la méthode QMC en fixant les variables non influentes à une valeur quelconque. Cependant, les suites de points utilisées dans le cadre de la méthode QMC, quoique bien réparties dans l'espace, présentent des irrégularités de répartition sur les projections. Nous avons donc adapté la discrépance L2*-pondérée de manière à pouvoir juger l'adéquation d'une suite à la fonction d'intérêt h. Par la suite nous avons mis au point un algorithme visant à construire une suite de points optimisant au mieux ce critère, dans le but de minimiser l'erreur d'intégration.
85

Nouvelles solutions de capteurs à effet de magnétoimpédance géante : principe, modélisation et performances

Moutoussamy, Joel 09 December 2009 (has links) (PDF)
Parmi les principes de la mesure du champ magnétique haute sensibilité, éligibles pour l'investigation des ondes plasmas des environnements terrestre et planétaire, les capteurs à effet de magnétoimpédance géante (GMI) suscitent un intérêt certain, qui dépasse les applications spatiales. Connue comme la variation de l'impédance de micro-fils, de films ou de sandwichs ferromagnétiques provoquée par l'amplitude du champ magnétique, ils sont excités directement par un courant, de fréquence de quelques mégahertz à plusieurs dizaines de mégahertz. La modification de la profondeur de peau à travers la variation de la perméabilité provoque une atténuation géante de l'impédance. Héritant du même principe, les nouvelles solutions de GMI utilisent soit un ruban ferromagnétique sur lequel est enroulé un bobinage de N spires à la manière d'inductances planaires soit deux rubans enserrant un bobinage à la manière de sandwichs bobinés. Le bobinage isolé électriquement, réalise à la fois l'excitation magnétique et la prise de mesure et son comportement inductif permet de transposer dans les très basses fréquences (5kHz- 1MHz) la détection du champ magnétique statique ou lentement variable (F<1kHz). La structure bobinée simplifie le procédé de fabrication et améliore l'excitation magnétique qui peut être dirigée dans les deux directions du plan du ruban ferromagnétique permettant ainsi d'accéder à toutes les composantes du tenseur anisotrope des perméabilités associées aux différentes directions relatives entre l'anisotropie magnétique et le champ magnétique statique tout en bénéficiant du champ démagnétisant le plus favorable. Le début des travaux concerne une étude expérimentale des GMI classiques puis des GMI bobinées utilisant différents matériaux magnétiques tels que les rubans nanocristallins recuit sous champ transverse ou longitudinal, les rubans mumetal ou encore les noyaux ferrite. Cette étude montre également l'influence principale de l'effet de la forme géométrique du ruban ferromagnétique sur la sensibilité intrinsèque et le champ de polarisation. La caractérisation des performances repose sur la mesure de l'impédance et de la sensibilité intrinsèque en lieu et place du MI ratio. Concluant sur le rôle majeur de la perméabilité différentielle, la suite des travaux concerne le calcul du tenseur des perméabilités à partir de l'équation de Landau-Lifshitz-Gilbert couplé à un modèle de perméabilité de décroissance monotone corrélée avec l'expérience. Le modèle proposé repose sur la combinaison d'une perméabilité transversale et longitudinale de rotation de l'aimantation d'une part et d'une perméabilité longitudinale de déplacement de parois magnétiques d'autre part. A partir d'un modèle électromagnétique tenant compte de l'effet de peau et de la parité du champ magnétique inhérente à ces structures bobinées, le concept de GMI bobiné est généralisé aux deux positions possibles du bobinage qui permet d'exploiter en plus des composantes diagonales du tenseur des perméabilités, les perméabilités croisées. Les modèles des impédances et des sensibilités intrinsèques sont comparés aux résultats associés au ruban à anisotropie transversale associé au bobinage transverse puis longitudinal.
86

Mobilité et sensibilité au contexte pour la gestion de documments multimédias personnels : CoMMediA

Viana De Carvalho, Windson 02 February 2010 (has links) (PDF)
La sensibilité au contexte est une propriété qui identifie les systèmes dont le comportement repose sur l'exploitation d'un ensemble d'informations, appelé contexte d'utilisation. Malgré leur hétérogénéité, l'évolution rapide et soutenue des dispositifs mobiles (DM) vers des terminaux multifonctionnels, multi-capteurs et connectables sur le Web, a transformé ces DM en des environnements d'accueil idéaux pour l'exécution d'applications sensibles au contexte. Les DM deviennent également, par leur popularité, les principaux outils de création de documents multimédias personnels (DMP). Dans ce nouveau cadre d'usage, l'information qualifiée de contexte joue un rôle déterminant. En effet, le contexte capté lors de la création d'un DMP peut offrir des informations, appelées métadonnées, suffisamment riches pour le décrire, et, par la suite, l'identifier. Ce travail de thèse se situe ainsi à l'intersection de deux thématiques de recherche : l'Informatique Sensible au Contexte et la Gestion de Documents Multimédias. La prise en compte du contexte de création dans la gestion de DMP est une thématique nouvelle pour laquelle l'adoption d'un modèle sémantique de représentation pour les informations contextuelles, et l'élaboration de mécanismes d'acquisition et d'exploitation de ces informations, sont encore des problèmes non résolus. Nous proposons une architecture sensible au contexte, appelée CoMMediA (Context-aware Mobile Multimedia Architecture), pour la gestion de DMP, inspirée des architectures d'adaptation de Systèmes d'Information (SI) mobiles. Notre contribution s'articule autour : i) d'un modèle sémantique de représentation des métadonnées (ContextMultimedia), décrit en OWL et reposant sur une nouvelle notion de contexte, ii) d'un intergiciel adaptatif de capture du contexte de création de DMP (appelé DevAC), qui prend en compte l'hétérogénéité et les limitations intrinsèques des DM lors du déploiement d'applications mobiles, et iii) d'une plate-forme d'enrichissement de métadonnées contextuelles (ContextAnnotator). Notre objectif est de promouvoir la découverte automatique de métadonnées et d'illustrer également l'exploitation de la richesse sémantique des métadonnées pour l'organisation, l'annotation, le partage et la recherche de DMP. De plus, DevAC et nos applications mobiles de gestion de DMP s'appuient sur une infrastructure à composants, et sur une description sémantique des services offerts par une application. Le but ultime est d'aider le concepteur à développer et à déployer des applications multimédias et sensibles au contexte qui puissent s'adapter aux modèles des dispositifs mobiles des utilisateurs, sans qu'il soit besoin de réécrire le code d'une même application.
87

Identification des lois de comportemement élastoplastiques par essais inhomogènes et simulations numériques

Khalfallah, ali 14 February 2004 (has links) (PDF)
Le sujet de thèse que nous abordons concerne l'identification des lois de comportement élastoplastiques anisotropes en vue de leur utilisation pour la simulation numérique des procédés de mise en forme par déformation plastique de tôles minces métalliques d'emboutissage. Nous avons essentiellement contribué à la définition et à la mise en oeuvre de stratégies et techniques d'identification des lois de comportement à partir d'essais expérimentaux. Les essais classiquement utilisés pour l'identification des modèles : la traction simple dans les axes et hors axes, la traction plane et le gonfelement hydraulique sont présentés et analysés du point de vue homogénéité des déformations pour aboutir à la relation contrainte-déformation à partir des mesures globales force-déplacement. L'identification des modèles de comportement à partir des essais inhomogènes nécessite une simulation numérique couplée avec une méthode d'optimisation (méthode du Simplexe) pour minimiser l'écart entre les résultats expérimentaux et la réponse du modèle calculée par une méthode d'élements finis. Nous avons identifié des lois de comportement élastoplastiques anisotropes avec écrouissage isotrope. Ces lois sont basées en particulier sur le choix d'une ou deux fonctions "contrainte équivalente" définissant le critère de plasticité et le potentiel plastique (cadre de la normalité non associée) ayant la même structure que la fonction seuil. Plusieurs critères quadratiques et non quadratiques sont alors utilisés. Nous avons développé une technique spécifique d'analyse de sensibilité des essais par rapport aux differents paramètres à identifier de la loi de comportement. Cette technique est mise en oeuvre sur des exemples pratiques.
88

Contribution au management de l’infection à Helicobacter pylori en Belgique.

MIENDJE DEYI, Véronique Yvette 10 June 2011 (has links)
Peu étudiée et méconnue, initialement décrite au début du XXème siècle, Helicobacter pylori fut redécouverte en 1982 par deux chercheurs australiens, JR Warren et BJ Marshall. Ils soutinrent que la plupart des ulcères gastro-duodénaux étaient causés par cette bactérie, et non par le stress ou la nourriture épicée, comme pensé auparavant. Cette découverte révolutionna le monde de la gastroentérologie et leur valut le prix Nobel de physiologie et de médecine 2005. Environ la moitié de la population mondiale est colonisée par H. pylori au niveau de l'estomac. Dans 10 à 20% des cas, l'infection peut évoluer vers un ulcère gastro-duodénal et dans certains cas vers une transformation maligne. Cette infection se soigne classiquement à l'aide d'une trithérapie associant 2 antibiotiques à un inhibiteur de la pompe à protons pour neutraliser l'acidité gastrique. Notre travail de recherche a consisté à analyser la proportion de patients infectés par H. pylori dans une cohorte de plus de 22.000 patients, issus de divers groupes ethniques, vivant en Belgique. Ces souches de H. pylori, isolées dans notre laboratoire, à partir des biopsies gastriques, ont aussi servi à une étude pour suivre l'évolution de la résistance aux antibiotiques ces 20 dernières années afin de proposer des améliorations de la prise en charge thérapeutique de l'infection à H. pylori en Belgique.
89

Etudes sur le lancer de rayons spectral

Lehl, Jean Claude 16 November 2000 (has links) (PDF)
Le sujet de la thèse concerne la prise en compte de la sensibilité spectrale de l'œil dans la simulation physiquement plausible de la propagation de la lumière et de ses interactions avec la matière. Le contrôle perceptuel exercé sur chaque interaction de la lumière permet d'imposer une erreur maximale dans le plan image et de déduire une représentation de l'énergie adaptée. L'objectif principal est de déterminer une précision de simulation adaptée à celle de l'œil. En effet, il est inutile d'utiliser une simulation précise et coûteuse lorsque l'œil n'est pas capable de percevoir tous les détails du résultat. L'introduction d'une représentation adaptative de l'énergie autorise ce contrôle. Un atout de cette représentation est de permettre de calculer l'erreur introduite sur chaque intervalle de longueur d'ondes du domaine visible. Un autre avantage est de pouvoir définir les opérations nécessaires à la simulation des interactions de la lumière. Ainsi, il devient possible de construire des expressions symboliques représentant la totalité des interactions de la lumière incidente à chaque pixel de l'image et de calculer une représentation adaptée de la distribution d'énergie associée. Ces expressions sont appelées expressions de rendu et constituent la contribution principale de cette thèse. L'évaluation progressive des expressions de rendu déterminent une représentation adaptative dont l'erreur est inférieure à un seuil fixe à priori dans un espace colorimétrique uniforme : c'est le contrôle perceptuel du rendu. Les expressions de rendu sont appliquées en particulier aux caustiques dispersives ainsi qu'aux interreflexions diffuses. Les méthodes développées sont basées sur des distributions de particules émises depuis les sources de lumière. Ici aussi, l'utilisation des expressions de rendu permet une construction progressive et paresseuse des distributions de particules autorisant des gains particulièrement intéressants.
90

Un intergiciel multi-agent pour la composition flexible d'applications en intelligence ambiante

Vallee, Mathieu 21 January 2009 (has links) (PDF)
La conception d'applications pour un environnement attentif (applications attentives) soulève de nombreux défis, en particulier liés à l'hétérogénéité des objets communicants, à l'instabilité de l'environnement et à la variabilité des besoins. Afin de faciliter cette conception, on s'intéresse à la notion d'application composite flexible : des applications qui fonctionnent en continu, en arrière plan de l'attention, et agrègent des fonctionnalités fournies par les objets communicants, afin d'accompagner l'interaction des utilisateurs. FCAP est un intergiciel pour la composition flexible d'applications, qui fournit un support générique pour intégrer les fonctionnalités, s'adapter à un environnement instable et ajuster l'équilibre entre l'automatisation et le contrôle par les utilisateurs. Cet intergiciel développe des principes issus de l'architecture orientée-service, du Web sémantique et des systèmes multi-agents, particulièrement pertinentes pour les environnements considérés.

Page generated in 0.0462 seconds