• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2002
  • 592
  • 221
  • 54
  • 8
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2890
  • 947
  • 506
  • 485
  • 300
  • 266
  • 262
  • 255
  • 230
  • 227
  • 218
  • 205
  • 205
  • 185
  • 181
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
541

Etude de diffusions à valeurs dans des variétés lorentziennes.

Angst, Jürgen 25 September 2009 (has links) (PDF)
L'objet de ce mémoire est l'étude de processus stochastiques à valeurs dans des variétés lorentziennes. En particulier, on s'intéresse au comportement asymptotique en temps long de ces processus et on souhaite voir en quoi celui-ci reflète la géométrie des variétés sous-jacentes. Nous limitons notre étude à celle de diffusions, c'est-à-dire de processus markoviens continus, à valeurs dans le fibré tangent unitaire de variétés lorentziennes fortement symétriques. L'introduction et l'étude de tels processus ont des motivations purement mathématiques mais aussi physiques. <br /><br />Ce mémoire est composé de deux parties. La première est consacrée à la preuve d'un théorème limite central pour une classe de diffusions minkowskiennes. Elle est motivée par des questions ouvertes de la littérature physique. La seconde partie du manuscrit est consacrée à l'étude détaillée d'une diffusion relativiste à valeurs dans les espaces de Robertson-Walker. En fonction de la courbure et de la vitesse d'expansion de ces espaces, nous déterminons précisément le comportement asymptotique de la diffusion relativiste et montrons que ses trajectoires approchent asymptotiquement des géodésiques de lumière aléatoires. Pour une classe d'espaces de Robertson-Walker, nous explicitons en outre la frontière de Poisson de la diffusion relativiste.
542

Elagage d'un arbre de Lévy - Diffusion aléatoire en milieu Lévy

Voisin, Guillaume 02 December 2009 (has links) (PDF)
Se donnant un mécanisme de branchement critique ou sous-critique, on définit une procédure d'élagage de l'arbre aléatoire continu de Lévy associé. Cette procédure d'élagage est définie en plaçant des marques sur l'arbre grâce à des techniques de serpent de Lévy. On démontre alors que le sous-arbre obtenu après élagage est encore un arbre aléatoire continu de Lévy. Ce résultat est démontré en utilisant une propriété de Markov spéciale et un problème de martingale pour les processus d'exploration. On construit ensuite, par couplage, une autre procédure d'élagage qui définit un processus de fragmentation sur l'arbre. On calcule la famille de mesures de dislocation associée à cette fragmentation. Dans un deuxième travail, on considère une diffusion aléatoire dans un milieu Lévy stable. On montre que le processus des temps locaux renormalisé et recentré au minimum de la vallée standard de hauteur log t, converge en loi vers une fonctionnelle de deux processus de Lévy conditionnés à rester positifs indépendants. Pour démontrer ce résultat, on montre que la loi de la vallée standard est proche de celle de deux processus de Lévy conditionnés à rester positifs concaténés en 0. On obtient également la loi limite du supremum du temps local renormalisé.
543

Intégration et collaboration dans l'entreprise en réseau

Neubert, Gilles 08 December 2009 (has links) (PDF)
La façon d'organiser le travail, d'une part au sein des entreprises, et d'autre part entre les différentes entreprises, est un enjeu central dans la recherche de l'efficacité et de la performance. Dans les années 90 l'arrivée des progiciels de gestion intégrés a favorisé l'émergence d'une rationalité globale de l'entreprise, mais leur valeur ajoutée s'appuie en grande partie sur un alignement organisationnel de l'entreprise. Cette transformation s'est accompagnée d'un mouvement de spécialisation des entreprises et de recentrage sur leur coeur de métier. L'entreprise est devenue très interdépendante de ses partenaires directs, elle s'insère désormais dans un réseau d'entreprises qui impose de maîtriser un ensemble croissant de flux inter organisationnels. La recherche en Génie Industriel a accompagné ces nouvelles préoccupations des entreprises en déplaçant le champ de la recherche suivant deux axes : celui de l'ingénierie des systèmes de production intra-entreprise, vers l'ingénierie des entreprises en réseau, et celui de la rationalisation du système physique, vers une rationalisation du système d'information, puis vers une rationalisation des processus décisionnels et cognitifs. Le travail présenté dans ce mémoire d'Habilitation à Diriger les Recherches s'intègre dans cette mouvance du génie industriel. Mes travaux de doctorat m'ont permis d'aborder le pilotage proactif qui s'appuie sur un rapprochement entre le processus décisionnel et l'activité. L'organisation n'est pas alors seulement décrite de manière fonctionnelle, comme une structure de division des tâches, mais aussi à travers le maillage des activités qui engendrent de la valeur. Par la suite, le décloisonnement fonctionnel lié en partie à l'implantation des ERP (Enterprise Resource Planning), et la montée en puissance du Supply Chain Mangement ont mis en avant le passage d'une logique de découplage et d'optimisation locale à une logique d'intégration et de coordination. En nous intéressant à la fois aux périmètres intra et inter entreprises, nous mettons en évidence dans ce travail trois leviers d'intégration des organisations : les processus, le Système d'Information (SI) et la collaboration. Pour cette raison, ce mémoire est articulé autour de trois parties : 1) Les processus comme levier de l'intégration organisationnelle Les outils de modélisation sont utiles à la (re) conception des organisations productives. Des référentiels standards de processus ont été élaborés. Porteur d'indicateurs de performance et de best practices, ils permettent un déploiement accéléré des approches transverses. • La première problématique que nous traitons concerne les méthodes de classification pour l'élaboration d'une typologie de chaînes logistiques intra entreprise. Dans les grands groupes industriels, se pose la question de la position du curseur entre d'un coté des processus complètement standardisés pour l'ensemble des entreprises concernées et de l'autre une personnalisation totale des processus pour chacune des entreprises. Le SCOR model est utilisé pour réaliser le codage. • La deuxième problématique concerne la définition de tableaux de bord permettant d'évaluer la performance logistique. L'approche est multi facettes, le référentiel SCOR, le rapport CEN TC273 (Communauté Européenne de Normalisation) et leBalanced Scorecard ont été utilisés pour définir un cadre de l'évaluation des processus. Plusieurs applications sont présentées. • La troisième problématique concerne l'intégration des processus inter organisationnels dans le cadre de l'externalisation. La reconfiguration des processus s'appuie ici sur des outils de Business Process Réengineering et des modèles de simulation. 2) Le Système d'Information comme levier de l'intégration informationnelle. Les technologies de l'information (TI) sont reconnues comme un facteur clé de la performance des entreprises, mais seul un bon alignement entre business model et système d'information permet d'atteindre le niveau de performance souhaité. Certains outils, comme les ERP sont en soit porteurs d'intégration, si bien que leur installation nécessite un remodelage de l'organisation permettant un ajustement entre intégration informationnelle et intégration organisationnelle. Pour les Systèmes d'Information non intégrés, la question de la qualité du couplage organisationnel et informationnel repose sur les principes de l'interopérabilité des systèmes (des données aux métiers). Nous développons deux chapitres dans cette partie : • Le management des projets ERP. A partir des outils et méthodes de modélisation d'entreprise, nous avons proposé une méthodologie de déploiement des projets ERP. Une approche par les facteurs clés de succès nous a permis de mettre en évidence l'impact des spécificités des entreprises sur le déploiement de ces projets. • Intégration et interopérabilité. En nous appuyant sur les concepts de MDA (Model Driven Architecture) et de MDI (Model Driven Interoperability), nous avons proposé une architecture permettant de suivre la qualité des données de production dans le secteur pharmaceutique. L'intégration n'est pas ici vue du point de vue transactionnel, comme le ferait un ERP, mais du point de vue produit, permettant le long de son cycle de vie, de garantir un déroulement des processus de production (données de l'ERP) en conformité avec les données issues du processus de développement (Réglementaires). 3) La collaboration comme levier de l'intégration relationnelle Si les approches processus permettent une représentation de ce qui est réalisé (les activités), elles intègrent difficilement le pilotage (comment c'est réalisé), là où réside une grande part de la valeur ajoutée. Les relations collaboratives sont devenues un vrai enjeu dans le pilotage des échanges inter entreprises, car d'elles dépend une partie de la performance des organisations. Cette troisième partie est divisée en 2 chapitres : • Le premier chapitre propose un ensemble d'outils et méthodes permettant de caractériser et d'analyser les relations dans les chaînes logistiques. L'étude de l'impact des pratiques collaboratives sur la performance a permis de développer un modèle de caractérisation du comportement collaboratif d'une entreprise, en vue de dégager des pistes d'amélioration. • Le deuxième chapitre nous permet d'étendre le champ des relations dans les chaînes logistiques à celui des relations dans les clusters d'entreprises. La collaboration n'est plus ici d'ordre Client/Fournisseur, mais elles s'intéressent à la construction d'un cadre d'interaction permettant la gestion et la capitalisation des connaissances. Ce travail s'est appuyé sur une adaptation de la méthodologie de CommonKADS et a été appliqué au cas de l'industrie artisanale de la céramique en Thaïlande.
544

Conception et usage des composants métier processus pour les systèmes d'information

Saidi, Rajaa 26 September 2009 (has links) (PDF)
Les Systèmes d'Information (SI) de même domaine d'activité gèrent de nombreux concepts similaires. Ces concepts peuvent être analysés et généralisés dans des abstractions informatiques qui seront réutilisées lors de nouveaux développements. De telles abstractions sont appelées Composants Métier (CM). Cependant, il est souvent difficile d'expliciter des critères clairs de réutilisation, en particulier la manière dont on peut identifier, spécifier, organiser et en grande partie automatiser la réutilisation de ces CM. Les contributions de cette thèse adressent cette problématique et s'articulent autour de trois principaux résultats. La première contribution concerne un modèle de CM de nature processus appelé « CMP ». Ce modèle est centré sur les propriétés fonctionnelles des composants. L'accent est mis sur la complétude et la variabilité de la solution exprimée sous la forme de quatre vues complémentaires intégrant des points de variation. Le travail réalisé sur les mécanismes de spécification de la variabilité a abouti à un profil UML pouvant être utilisé pour modéliser non seulement des processus réutilisables mais aussi des processus flexibles. Une deuxième contribution s'inscrit dans le cadre de la proposition d'un processus permettant la spécification d'un CMP selon le modèle proposé. Dans ce processus, nous définissons un ensemble de règles de construction, de traduction et de cohérence qui assurent la traçabilité des artefacts produits tout au long du cycle de développement. Une troisième contribution concerne la proposition de directives qui assistent l'ingénieur de SI lors de la réutilisation de CMP. L'accent est particulièrement mis sur la proposition d'un formalisme de documentation et de classification de CMP validé dans le cadre d'un environnement de stockage de composants. Nous proposons également un processus d'imitation intégré à la méthode de développement Symphony et permettant de tirer partie de la spécification d'un CMP lors de la conception d'un SI. L'ensemble des propositions est accompagné d'outils et d'expérimentations utilisateurs servant de supports de validation et de mise en œuvre des travaux réalisés.
545

Contrôle d'un Système Multi-Agents Réactif par Modélisation et Apprentissage de sa Dynamique Globale

Klein, François 04 December 2009 (has links) (PDF)
Dans un système multi-agent (SMA) réactif, le lien entre le comportement collectif et celui des individus qui composent ce système est difficile à établir. Obtenir un comportement particulier est donc également difficile. Nous défendons le principe de maîtriser le comportement d'un SMA par une approche de contrôle. Pour cela, nous agissons sur le SMA à partir d'informations relatives à ses comportements globaux. Pour y parvenir, nous proposons tout d'abord de modéliser la dynamique globale du SMA sous forme d'un graphe d'états. Des outils d'apprentissage par renforcement permettent de construire ce graphe et de calculer une politique qui indique quelle action effectuer en fonction de l'état courant et d'un comportement cible à atteindre. Ensuite, cette politique est exploitée pour contrôler le SMA. L'originalité de notre proposition est de s'appuyer sur la dynamique du SMA décrite à son niveau global. Ainsi, les différents comportements du SMA sont exprimés dans notre proposition au même niveau de description que celui du comportement à atteindre. La proposition est appliquée au contrôle d'un SMA inspiré du déplacement de piétons dans un couloir. Nous la comparons à d'autres approches destinées à maîtriser le comportement d'un SMA. Nous vérifions que le principe du contrôle au niveau global fonctionne. Nous montrons que notre proposition fournit de bonnes performances de contrôle et permet d'atteindre un comportement cible plus fréquemment que les autres approches testées. Nous posons ainsi les premières pierres d'un cadre paradigmatique pour le contrôle au niveau global des systèmes multi-agents.
546

Méthode, modèles et outil pour la méta-modélisation des processus d'ingénierie de systèmes d'information

Hug, Charlotte 20 October 2009 (has links) (PDF)
L'ingénierie des systèmes d'information propose de nombreuses méthodes et modèles produit et processus pour concevoir efficacement des systèmes d'information. Cependant, les modèles de processus définis ne correspondent pas forcément aux contraintes et spécificités des organisations. De plus, différents points de vue (activité, produit, décision, contexte, stratégie) sont pris en compte dans la modélisation et la méta-modélisation des processus d'ingénierie de systèmes d'information, mais ceux-ci sont définis indépendamment les uns des autres. De par leur nombre et leur manque de flexibilité, les modèles de processus existants sont difficilement adaptables par les ingénieurs des méthodes pour prendre en compte les spécificités des organisations. Cette thèse propose une méthode permettant aux ingénieurs des méthodes de définir leurs propres méta-modèles de processus en tenant compte des contraintes et spécificités des organisations. Cette méthode est guidée par un graphe conceptuel comprenant l'ensemble des concepts pour la méta-modélisation des processus. Les méta-modèles créés prennent en compte les différents points de vue. De plus, la construction des méta-modèles de processus est basée sur l'imitation de patrons génériques et de patrons de domaine. La méthode a été outillée et expérimentée auprès d'experts en ingénierie des systèmes d'information.
547

L'influence des circulations hydrologiques sur la structure des communautés bactériennes à l'interface sol-nappe

Bougon, Nolwenn 19 December 2007 (has links) (PDF)
La composition des eaux pour les éléments biologiquement actifs comme les nitrates est contrôlée par les processus microbiens, qui dépendent eux-mêmes des conditions physico-chimiques du milieu. Les conditions chimiques et la structure des communautés bactériennes sont étroitement liées et l'influence des circulations hydrologiques sur la diversité microbienne est relativement mal contrainte. Or ces circulations hydrologiques issues de la structure physique du paysage sont déterminantes dans les processus biogéochimiques. Les relations entre les flux hydrologiques et le fonctionnement de l'écosystème sont abordées par 3 axes: (i) l'influence des flux verticaux sur l'activité et la structure des communautés bactériennes réduisant les nitrates (gène narG) ; (ii) l'influence des flux verticaux sur la structure des communautés bactériennes intégratives (gène de l'ARNr 16S) et fonctionnelles (gène narG); et (iii) l'influence des modifications des paramètres de forçage sur l'expression protéique par une approche Métaprotéomique. <br />Le premier axe a été analysé en utilisant des bio-réacteurs stimulants différents états redox et disponibilité en nutriment. Le second a consisté à suivre les changements de structure de communautés dans le temps (suivant les périodes de hautes et de basses eaux) et suivant la profondeur. Le troisième axe est abordé sous des conditions expérimentales à partir d'eau échantillonnée en profondeur, en contrôlant les paramètres de forçages (quantité et nature du carbone, quantité d'azote). Pour chaque bio-réacteur, une analyse du Métaprotéome par des empreintes peptidiques a été réalisée pour modéliser le fonctionnement de l'écosystème. <br />L'importance des circulations hydrologiques sur les communautés bactériennes a été confirmée en agissant directement sur la structure des communautés ou indirectement sur la disponibilité de ressources. Le manque de connaissance actuel dans les bases de données ne nous a pas permis d'aller aussi loin que nous l'aurions souhaité dans les expériences de protéomique. Il nous est impossible à l'heure actuelle de proposer un modèle de fonctionnement de niche écologique. Cependant, le protéome des cellules exposées aux deux sources de carbones a été montré comme significativement différent, laissant suggérer une réponse différentielle du système suivant la nature de la pollution induite.
548

L'écriture expressive et ses effets :<br />Approche cognitivo-émotionnelle

Rachid, Bannour 10 July 2009 (has links) (PDF)
L'écriture expressive consiste à évoquer un événement agréable, désagréable et même traumatisant en faisant état des émotions associées à cet événement. Réitérée trois à quatre fois de suite, pendant des sessions de quinze à vingt minutes, cette confession émotionnelle s'avère efficace pour entraîner une régulation émotionnelle importante de la personne qui écrit. Cette thèse a été l'occasion de faire une revue de questions sur les différentes conditions d'application de cette écriture, ses effets sur la santé psychologique et physique des rédacteurs ainsi que sur les modèles qui expliquent fonctionnellement comment opère cette pratique écrite. Ce bilan rend compte aussi des études critiques qui en contestent l'efficacité. Les recherches réalisées dans cette thèse ont montré que, selon leurs prédispositions émotionnelles (anxiété, appréhension à écrire et à communiquer, procrastination, perfectionnisme et alexithymie), les rédacteurs évoquent différemment un événement positif ou négatif. Ils n'exploitent pas les mêmes quantités de lexique émotionnel de valence positive et négative, ni les mêmes émotions. Pour analyser le contenu de leurs écrits, un logiciel de comptage automatique du lexique émotionnel a été élaboré (EMOTAIX-Tropes). Cet outil permet d'identifier près de 5000 termes dénotant ou connotant diverses catégories d'émotions, d'humeurs, d'affects. Les recherches ont aussi permis de montrer qu'après une unique session d'écriture expressive, les rédacteurs changent de niveau d'anxiété-état. Selon la nature positive ou négative de l'expérience, leur anxiété croît ou décroît. Ce phénomène est plus saillant chez les rédacteurs qui présentent une appréhension à écrire.
549

Contribution à l'étude des processus nucléaires intervenant en hadronthérapie et de leur impact sur la délocalisation du dépôt de dose

Ricol, M.-C. 28 November 2008 (has links) (PDF)
L'hadronthérapie consiste en l'utilisation des particules lourdes dans le but de soigner certains cancers inopérables et/ou résistants aux radiothérapies conventionnelles.. L'objectif est de déposer la dose nécessaire dans la tumeur afin de la stériliser, tout en limitant le dépôt de dose dans les tissus sains environnants. Le dépôt de dose est dû en grande partie à l'ionisation de la cible directement par le faisceau incident, mais aussi dans une moindre mesure aux fragments produits par les interactions nucléaires entre les noyaux des projectiles et les noyaux des atomes de la cible. Ces processus nucléaires et leur contribution à la délocalisation de la distribution volumique du dépôt de dose sont difficilement quantifiables du fait de la mauvaise connaissance de leurs sections efficaces aux énergies utilisées en hadronthérapie. Le sujet principal de la thèse est de développer une méthodologie pour la quantification des incertitudes sur la dose effectivement délivrée, étant données les conditions d'irradiation. Ce travail s'est articulé autour de deux axes : une approche phénoménologique et une approche expérimentale. L'approche phénoménologique a consisté en une étude bibliographique et une compilation des données expérimentales existantes, suite auxquelles le modèle empirique développé par Sihver et al. a été amélioré, permettant ainsi une meilleure description des sections efficaces de réaction totales et différentielles noyau-noyau pour un nombre de masse inférieur à 26. L'approche expérimentale a consisté en deux prises de données: tout d'abord la mesure du profil des émetteurs β+ dans une cible d'eau irradiée par des ions carbone en utilisant la technique de tomographie à émission de positons au GANIL , puis la mesure de profils transversaux et longitudinaux de dépôt de dose dans des cible de graphite et de PMMA irradiées par des protons au PSI. Une méthode d'analyse de données consistant à comparer les prédictions des simulations Monte Carlo aux mesures physiques a été ensuite développée.
550

Solutions efficaces pour la métrologie de l'Internet

Barakat, Chadi 22 January 2009 (has links) (PDF)
Cette thèse présente un ensemble de solutions pour une métrologie efficace de l'Internet. La métrologie de l'Internet est un domaine en pleine évolution étant donnée la croissance exponentielle du réseau en termes de machines, réseaux, et applications, couplée à l'absence de solutions standard pouvant répondre à tous les besoins des utilisateurs et des opérateurs. Notre objectif le long de cette recherche a été le développement des solutions qui passent à l'échelle et qui réduisent la charge sur le réseau sans pour autant compromettre la précision des résultats obtenus. Nous avons agi pour cela sur deux fronts. Sur le front des mesures passives, nous avons proposé une solution pour la capture du trafic à travers un réseau d'opérateur. Au lieu de collecter tout le trafic et de l'analyser ultérieurement, notre solution permet aux opérateurs de définir une tâche de mesure et de programmer les routeurs de telle sorte que chacun d'eux collecte la quantité de trafic nécessaire sans que le volume total du trafic collecté dépasse un certain seuil. Cette réduction du volume du trafic collecté s'effectue par le biais de l'échantillonnage spatiale et temporelle. L'échantillonnage a un impact négatif sur la précision de la mesure, un impact qui peut être réduit par des techniques de filtrage et des solutions protocolaires. Nous avons illustré ceci sur deux exemples concrets, le premier celui de la détection des gros flots utilisateurs et le deuxième celui de la métrologie des grandes populations variant au cours du temps. Pour les deux exemples nous avons mené une étude pour évaluer l'impact de l'échantillonnage suivi par des solutions réduisant l'erreur lors de l'inversion des informations échantillonnées. Ensuite nous avons abordé l'approche active dans la métrologie et avons présenté une solution appelée TICP qui permet de contrôler le débit des paquets sondes à injecter dans le réseau et d'assurer la fiabilité quand il s'agit d'une application sondant un grand nombre de machines distribuées à travers le réseau. TICP peut être vu comme un multiplexage d'un grand de connexions TCP partant d'une même machine et destinées à des machines différentes en une seule connexion. Toutes nos solutions ont été validées par des simulations et des traces réelles.

Page generated in 0.0639 seconds