• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 48
  • 8
  • 3
  • 1
  • Tagged with
  • 136
  • 63
  • 31
  • 28
  • 23
  • 22
  • 17
  • 16
  • 16
  • 15
  • 15
  • 15
  • 14
  • 14
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Home SOA : Composition contextuelle de Services dans les Réseaux d'Equipements pervasifs

Bottaro, André 12 December 2008 (has links) (PDF)
Les équipements électroniques envahissent progressivement l'univers quotidien. D'aucuns souhaiteraient que ces équipements puissent intelligemment réagir à l'activité de l'utilisateur afin de l'assister dans ces activités de tous les jours. Le domaine de l'Informatique Pervasive adresse la vision de ce monde naturellement numérique assistant les individus sans être intrusif.<br /><br />Face aux défis de l'Informatique Pervasive dans les réseaux locaux, notamment la distribution, l'hétérogénéité et la dynamique des équipements, cette thèse répond par une ligne de conduite et l'approche logicielle Home SOA. Cette ligne de conduite distingue les situations où les solutions protocolaires sont pertinentes et ramène les autres situations à des problèmes de génie logiciel. Parmi les solutions protocolaires, la proposition d'une interface uniforme de gestion de cycle de vie logiciel dans le Comité de Travail UPnP Device Management est une des contributions importantes. <br /><br />Le Home SOA est l'association de technologies de développement modulaire et d'un ensemble de patrons de conception orientés objets. Au-delà de l'orientation objet, le Home SOA exploite les modèles récents de composants à services et le concept de plateforme de services. Les pilotes orientés service masquent les aspects distribués tout en réifiant la dynamique des entités pervasives sur la plateforme. Les pilotes raffinés adaptent les objets mandataires dans des interfaces à la sémantique du domaine d'application visé. La contextualisation des services de la plateforme alliée à une automatisation de la sélection de service achève de simplifier le développement d'applications pervasives. Le cadriciel est implémenté au-dessus de la plateforme OSGi et est validé par la réalisation d'applications conscientes du contexte et mixant des domaines d'applications distincts dans le réseau domestique.
42

Prospectives de recherche du quark de quatrième génération u4 avec le détecteur ATLAS auprès du LHC

Defay, P.-O. 04 July 2008 (has links) (PDF)
Le Modèle Standard, qui régit la physique des particules, a été jusqu'à présent confirmé par l'expérience. Cependant, les questions qu'il laisse en suspens ont conduit à proposer plusieurs modèles permettant son extension. L'un de ces modèles postulant l'existence d'une quatrième famille de fermions permet de résoudre certaines des lacunes du Modèle Standard. Ce travail, effectué dans le cadre de l'expérience ATLAS au LHC, présente des méthodes permetttant de découvrir le quark up de quatrième génératition u4 produit par paire qui se désintègre de manière semi-leptonique. Une méthode de calibration de l'énergie des jets ainsi qu'une méthode d'évaluation de la résolution de cette énergie sont d'abord présentées car essentielles pour des mesures précises. Nous décrivons ensuite une méthode pour découvrir le quark u4 tout en évaluant le potentiel de découverte. Enfin une mesure de la masse de ce quark est alors réalisée dans l'hypothèse où une découverte a été effectuée.
43

Intergiciel pour l'exécution efficace et fiable d'applications distribuées dans des grilles dynamiques de très grande taille

Jeanvoine, Emmanuel 27 November 2007 (has links) (PDF)
L'émergence des grilles de calcul permet à la communauté scientifique d'envisager l'accès à une puissance de calcul jusqu'à présent inégalée. Toutefois, les caractéristiques d'une grille telles que la grande échelle, la volatilité des nœuds qui la composent ou encore leur hétérogénéité rendent son utilisation complexe. Cette thèse étudie la conception de services de niveau système pour l'exécution d'applications distribuées dans des grilles de très grande taille. Grâce à une approche complètement distribuée et générique, notre système peut fédérer les ressources de n'importe quel type de grille, même ceux composés de ressources volatiles et hétérogènes. Afin de simplifier l'utilisation d'une grille, nous proposons d'offrir aux utilisateurs une vue de type système à image unique qui permet d'occulter la distribution des ressources. Nous proposons également des services permettant d'exécuter une large gamme d'applications distribuées de façon efficace et fiable.
44

Peer-to-Peer Prefix Tree for Large Scale Service Discovery

Tedeschi, Cédric 02 October 2008 (has links) (PDF)
Cette thèse étudie la découverte de services (composants logiciels, exécutables, librairies scientifiques) sur des plates-formes distribuées à grande échelle. Les approches traditionnelles, proposées pour des environnements stables et relativement petits, s'appuient sur des techniques centralisées impropres au passage à l'échelle dans des environnements géographiquement distribués et instables. Notre contribution s'articule autour de trois axes. 1) Nous proposons une nouvelle approche appelée DLPT (Distributed Lexicographic Placement Table), qui s'inspire des systèmes pair-à-pair et s'appuie sur un réseau de recouvrement structuré en arbre de préfixes. Cette structure permet des recherches multi-attributs sur des plages de valeurs. 2) Nous étudions la distribution des noeuds de l'arbre sur les processeurs de la plate-forme sous-jacente, distribuée, dynamique et hétérogène. Nous proposons et adaptons des heuristiques de répartition de la charge pour ce type d'architectures. 3) Notre plate-forme cible, par nature instable, nécessite des mécanismes robustes pour la tolérance aux pannes. La réplication traditionnellement utilisée s'y avère coûteuse et incapable de gérer des fautes transitoires. Nous proposons des techniques de tolérance aux pannes best-effort fondées sur la théorie de l'auto-stabilisation pour la construction d'arbres de préfixes dans des environnements pair-à-pair. Nous présentons deux approches. La première, écrite dans un modèle théorique à gros grain, permet de maintenir des arbres de préfixes instantanément stabilisants, c'est-à-dire reconstruits en un temps optimal après un nombre arbitraire de fautes. La deuxième, écrite dans le modèle à passage de messages, permet l'implantation d'une telle architecture dans des réseaux très dynamiques. Enfin, nous présentons un prototype logiciel mettant en oeuvre cette architecture et présentons ses premières expérimentations sur la plate-forme Grid'5000.
45

Etude des sensibilité et bruits de fond de l'expérience Double Chooz pour la recherche du paramètre de mélange leptonique Theta 13

Mention, Guillaume 23 June 2005 (has links) (PDF)
L'expérience Double Chooz étudiera les oscillations des antineutrinos électroniques produits par la centrale nucléaire de Chooz pour mesurer l'angle de mélange θ<sub>13</sub>. La connaissance actuelle sur ce paramètre, apportée par CHOOZ, peut être améliorée en réduisant les erreurs statistiques et systématiques. Afin de réduire la première de ces deux incertitudes, Double Chooz observera un échantillon de données conséquent. Cette expérience utilisera deux détecteurs identiques pour s'affranchir de la plupart des incertitudes expérimentales intervenant dans les processus de production et de détection. Une attention particulière sera portée sur les bruits de fond engendrés par la radioactivité naturelle et les interactions des rayons cosmiques. <br><br> Nous présentons, dans cette thèse, la simulation que nous avons mise en place pour calculer la sensibilité sur la mesure de θ<sub>13</sub> et le potentiel de découverte de l'expérience. Nous nous sommes intéressé en particulier à quantifier les incertitudes liées aux détecteurs limitant la sensibilité sur θ<sub>13</sub>. Nous avons également pris en compte certains bruits de fond tels que les événements accidentels engendrés par la radioactivité des PM, les événements corrélés produits par les neutrons de spallation ainsi qu'un bruit de fond hypothétique (celui ayant la forme du signal d'oscillation recherché). <br><br> Après trois années de prise de données, Double Chooz permettra d'observer un signal d'oscillation pour sin<sup>2</sup>(2θ<sub>13</sub>)>0,05 (à 3σ) ou bien, si aucune oscillation n'est découverte, de mettre une limite de sin<sup>2</sup>(2θ<sub>13</sub>)<0,03 à 90 % de confiance.
46

Contributions pour une découverte de services avancée dans les réseaux ad hoc

Leclerc, Tom 24 November 2011 (has links) (PDF)
Lors de la dernière décennie, le nombre d'appareils possédant des capacités sans fil a très fortement augmenté, attirant ainsi le grand public vers les réseaux mobiles sans fil. Nous considérons le cas des réseaux mobiles ad hoc aussi connu sous le nom de MANET (Mobile Ad hoc NETworks). La caractéristique principale des MANETs est la grande dynamicité des nœuds (induite pas le mouvement des utilisateurs), la propriété volatile des transmissions sans fil, le comportement des utilisateurs, les services et leurs utilisations. Cette thèse propose une solution complète pour la découverte de service dans les réseaux ad hoc, de la couche réseau sous-jacente à la découverte de service à proprement dite. La première contribution est le protocole Stable Linked Structure Flooding (SLSF) qui établi une structure basée sur des clusters stable et permet d'obtenir une dissémination efficace qui passe à l'échelle. La seconde contribution est SLSR (Stable Linked Structure Routing) qui utilise la structure de dissémination de SLSF et permet de faire du routage à travers le réseau. En utilisant ces protocoles comme base, nous proposons d'améliorer la découverte de service en prenant en compte le contexte. De plus, nous avons contribué à la simulation réseau en couplant des modèles et des simulateurs de domaines différents qui une fois couplés permettent d'élaborer et la simuler des scénarios riches et variés adaptés aux MANETs. Cette thèse à été réalisé au sein du projet ANR SARAH qui avait pour but le déploiement de service multimédia dans une architecture ad hoc hybride.
47

Recherche du boson de Higgs dans le canal WW* dans l'expérience ATLAS et mesure du temps de dérive du calorimètre à argon liquide dans l'expérience ATLAS

Ruan, Xifeng 19 October 2012 (has links) (PDF)
Une recherche du boson de Higgs est effectuée dans le canal WW → lνlν en utilisant l'ensemble des données de 2011 à une énergie dans le centre de masse de √s = 7 TeV et une partie des données de 2012 à 8 TeV prises par l'expérience ATLAS auprès du LHC. Les luminosités intégrées correspondantes sont 4.7 fb−1 et 5.8 fb−1, respectivement. L'analyse est effectuée avec des coupures. Plusieurs méthodes sont introduites pour estimer à partir des données la contribution de bruits de fond des différents processus afin de minimiser l'utilisation de simulation. Pour la contribution du bruit de fond top dans le canal dominant avec zéro jet, elle est estimée avec une méthode que nous avons proposée. Une autre méthode pour corriger la forme de la distribution de l'énergie transverse manquante dans les événements Drell-Yan à partir des événements W +jets est également présentée. En 2011, le boson de Higgs du modèle standard avec la masse du Higgs de 133 à 261 GeV est exclue à 95% de niveau de confiance, tandis que la plage d'exclusion prévue est de 127 à 234 GeV. En 2012, un excès d'événements au-dessus du bruit de fond attendu est observé dans une plage de masse autour de 125GeV. En combinant les deux échantillons, la probabilité minimale ("p-value") pour que l'hypothèse bruit de fond seul fournisse autant ou plus d'événements qu'observé dans les données est de 3 × 10−3, ce qui correspond à une signifiance statistique de 2,8 écarts types. Le taux de production mesuré du signal par rapport au taux prédit pour le boson de Higgs du modèle standard à mH = 125GeV est de 1,4 ± 0,5. La probabilité attendue pour un Higgs avec mH = 125GeV est de 0,01, soit de 2,3 écarts types. La limite d'exclusion d'un Higgs dans un modèle avec une quatrième génération est également présentée en utilisant une partie de l'échantillon de données 2011, la gamme de masse entre 120 GeV et 600 GeV a été exclue à 95% de niveau de confiance. Enfin, l'étude sur le temps de dérive dans le calorimètre à argon liquide du détecteur ATLAS est effectuée en utilisant tous les échantillons de données du rayonnement cosmique, du faisceau splash et de collision. Les résultats ne montrent aucune non-uniformité significative sur la largeur de l'espace cellulaire mis à part un effet de "sagging" dans les régions de transition dû au poids du calorimètre.
48

Intégration des systèmes d'information industriels : une approche flexible basée sur les services sémantiques

Izza, Saïd 20 October 2006 (has links) (PDF)
Nos travaux proposent une approche flexible d'intégration des applications industrielles qui s'intitule ODSOI (Ontology-Driven Service-Oriented Integration). Elle se focalise principalement sur trois sous-problématiques complémentaires qui sont respectivement la problématique de construction d'une architecture de services, la problématique d'enrichissement sémantique des services, et la problématique de construction de l'architecture d'intégration permettant d'offrir des mécanismes d'intégration basés sur la sémantique. Notre approche repose sur trois principes majeurs qui sont l'ouverture, l'unification et l'urbanisation. Le principe d'ouverture impose de s'inscrire dans le cadre d'utilisation de standards industriels. Le principe d'unification permet d'uniformiser les composants du système d'information. Et en dernier lieu, le principe d'urbanisation permet de mieux structurer l'architecture des services, l'architecture sémantique et aussi l'architecture d'intégration. Nous basant sur les trois architectures de notre approche, nous proposons alors une implémentation d'un prototype ainsi que diverses expérimentations que nous avons réalisées sur le terrain.
49

Exploitation de la diversité des réseaux

CASTIGNANI, German 07 November 2012 (has links) (PDF)
Aujourd'hui, les utilisateurs mobiles intègrent plusieurs interfaces sans fil dans leurs dispositifs mobiles, tels que IEEE 802.11, des technologies cellulaires 2G/3G/4G, WiMAX ou Bluetooth, car ces technologies hétérogènes peuvent fournir un accès Internet dans les zones urbaines. Dans ce contexte, il existe un potentiel pour les utilisateurs mobiles d'exploiter la diversité des interfaces sans fil, afin d'être connectés aux réseaux de la meilleure manière possible, à tout moment et partout. Cependant, afin de profiter de cette diversité des réseaux il est nécessaire d'avoir une gestion efficace de la mobilité et de la multi-domiciliation. En ce qui concerne la mobilité, les utilisateurs mobiles ont besoin de découvrir les réseaux sans fil et basculer entre des points d'accès d'une façon transparente et sans coupures. Afin de supporter la multi-domiciliation et de permettre l'utilisation de plusieurs réseaux sans fil simultanément, il est nécessaire de définir des mécanismes de sélection des réseaux visant à attribuer les flux d'applications aux différentes inter- faces sans fil d'une manière optimale. Dans cette thèse, nous avons d'abord caractérisé la diversité des réseaux en explorant et en analysant les performances des déploiements sans fil actuelles dans les zones urbaines, en particulier les réseaux cellulaires et les réseaux communautaires basés sur IEEE 802.11. Ensuite, nous avons étudié la mobilité dans les réseaux IEEE 802.11, particulièrement le processus de découverte des points d'accès, en fournissant deux algorithmes adaptatifs qui visent à utiliser les paramètres de découverte les plus appropriés dans chaque scénario. Nous évaluons ces algorithmes par l'expérimentation et nous comparons leurs performances par rapport aux stratégies utilisant des paramètres par défaut. Enfin, nous étudions la sélection des réseaux dans un scénario multi-domicilié et nous proposons un algorithme de prise de décision pour trouver l'attribution optimale des flux aux différentes interfaces, en prenant en compte des critères de qualité de service et de consommation d'énergie. Cet algorithme de décision est modélisé par un problème d'optimisation multi-objectif et est résolu avec des algorithmes génétiques. Nous évaluons, par le biais de simulations, les performances de notre approche contre des algorithmes de décision basés sur des préférences.
50

Découverte interactive de connaissances à partir de traces d'activité : Synthèse d'automates pour l'analyse et la modélisation de l'activité de conduite automobile

Mathern, Benoît 12 March 2012 (has links) (PDF)
Comprendre la genèse d'une situation de conduite requiert d'analyser les choixfaits par le conducteur au volant de son véhicule pendant l'activité de conduite, dans sacomplexité naturelle et dans sa dynamique située. Le LESCOT a développé le modèleCOSMODRIVE, fournissant un cadre conceptuel pour la simulation cognitive de l'activitéde conduite automobile. Pour exploiter ce modèle en simulation, il est nécessairede produire les connaissances liées à la situation de conduite sous forme d'un automatepar exemple. La conception d'un tel automate nécessite d'une part de disposer de donnéesissues de la conduite réelle, enregistrées sur un véhicule instrumenté et d'autrepart d'une expertise humaine pour les interpréter.Pour accompagner ce processus d'ingénierie des connaissances issues de l'analysed'activité, ce travail de thèse propose une méthode de découverte interactive deconnaissances à partir de traces d'activité. Les données de conduite automobile sontconsidérées comme des M-Traces, associant une sémantique explicite aux données,exploitées en tant que connaissances dans un Système à Base de Traces (SBT). Le SBTpermet de filtrer, transformer, reformuler et abstraire les séquences qui serviront à alimenterla synthèse de modèles automates de l'activité de conduite. Nous reprenons destechniques de fouille de workflow permettant de construire des automates (réseaux dePetri) à partir de logs. Ces techniques nécessitent des données complètes ou statistiquementreprésentatives. Or les données collectées à bord d'un véhicule en situationde conduite sont par nature des cas uniques, puisqu'aucune situation ne sera jamaisreproductible à l'identique, certaines situations particulièrement intéressantes pouvanten outre être très rarement observées. La gageure est alors de procéder à une forme degénéralisation sous la forme de modèle, à partir d'un nombre de cas limités, mais jugéspertinents, représentatifs, ou particulièrement révélateurs par des experts du domaine.Pour compléter la modélisation de telles situations, nous proposons donc de rendreinteractifs les algorithmes de synthèse de réseau de Petri à partir de traces, afin depermettre à des experts-analystes de guider ces algorithmes et de favoriser ainsi la découvertede connaissances pertinentes pour leur domaine d'expertise. Nous montreronscomment rendre interactifs l'algorithme α et l'algorithme α+ et comment généralisercette approche à d'autres algorithmes.Nous montrons comment l'utilisation d'un SBT et de la découverte interactived'automates impacte le cycle général de découverte de connaissances. Une méthodologieest proposée pour construire des modèles automates de l'activité de conduiteautomobile.Une étude de cas illustre la méthodologie en partant de données réelles de conduiteet en allant jusqu'à la construction de modèles avec un prototype logiciel développédans le cadre de cette thèse

Page generated in 0.0634 seconds