• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3585
  • 1008
  • 357
  • 29
  • 7
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 5057
  • 2300
  • 1112
  • 637
  • 624
  • 586
  • 466
  • 414
  • 389
  • 371
  • 371
  • 331
  • 318
  • 309
  • 295
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Impact des caractéristiques de l'information délivrée par un système virtuel dans une tâche de recherche de cibles : perspectives en rééducation cognitive

Cherni, Heni 03 October 2012 (has links) (PDF)
Nos travaux s'inscrivent dans le cadre de la prise en charge des dysfonctionnements cognitifs par les technologies de la réalité virtuelle. Les technologies de la réalité virtuelle ont montré leurs potentiels dans la proposition de stratégies d'intervention rééducative innovantes. Elles permettent de simuler des activités de vie quotidienne (AVQ), de les répéter autant que nécessaire, de les graduer, et de contrôler la situation. Les environnements virtuels utilisés permettent de délivrer aux patients des informations variées et multimodales aux finalités diverses : affichage de l'environnement 3D et des objets le constituant, compréhension de la tâche, augmentation de la saillance de certains objets, ou encore délivrance d'instructions liées à l'interaction avec l'environnement. Alors se pose la question de la prise en considération effective par le patient de ces informations délivrées par le système virtuel. Dans cette thèse, nous nous intéressons à l'amélioration de la performance des sujets dans une tâche de vie quotidienne simulée. Il s'agit d'étudier l'impact des caractéristiques de l'information délivrée par le système virtuel sur la performance des participants dans le processus de rééducation cognitive par les technologies de la réalité virtuelle. Les travaux abordant cette question dans la littérature évoquent l'effet des caractéristiques de l'information virtuelle sur la performance des sujets sains principalement dans des tâches d'orientation spatiale et de navigation dans des environnements virtuels simples et pauvres en information. Pour répondre à cette question nous avons étudié l'échange d'informations entre l'utilisateur et le système virtuel puis nous avons proposé une taxonomie de l'information virtuelle. Ensuite, une étude théorique sur notre dispositif expérimental le Virtual Action Planning Supermarket (le VAP-S) a été proposée. Sur la base des études précédentes, l'étape suivante a été de mettre en place de nouvelles fonctionnalités dans le VAP-S permettant d'augmenter de façon paramétrable l'information présente dans l'environnement avec des stimuli additionnels. Pour ce faire, nous avons défini un " Stimulus Logiciel Ajouté " par toute information, additionnelle, délivrée par le système virtuel, qui vient augmenter l'information présente dans l'environnement virtuel et dont l'absence de l'environnement virtuel n'interdit pas l'accomplissement de la tâche. Nous nous sommes intéressés aux SLA visuels et sonores. Grâce à trois études expérimentales nous avons étudié le lien qui existe entre les caractéristiques de l'information délivrée par le système virtuel et la performance des sujets dans la tâche. La première étude concerne l'effet de l'augmentation du champ visuel physique sur la performance. Elle a permis de montrer que chez les sujets sains et chez les sujets cérébrolésés, une meilleure visibilité des objets virtuels et un moins grand nombre d'erreurs de sélection peuvent être obtenus en utilisant un grand écran et un champ visuel physique large. La seconde étude concerne l'effet des SLA non contextuels sur la performance. Elle a permis de montrer que la performance des sujets sains et des patients cérébrolésés diminue en présence de SLA non contextuels dans l'environnement. La troisième étude, sur les SLA contextuels, a permis de montrer que la délivrance de stimuli liés à l'interaction permet d'améliorer la performance des sujets sains et des patients cérébrolésés dans la tâche, même s'ils ne sont pas informés du lien sémantique qui existe entre les stimuli délivrés et la tâche. En perspective, il serait souhaitable de pouvoir confirmer les résultats trouvés dans nos études en testant l'effet des autres SLA intégrés dans le VAP-S. Il serait également intéressant de mettre en place des études sur l'effet de la combinaison de SLA (auditif et visuel) sur la performance dans la tâche.
292

Analyse et observation des systèmes singuliers

Koenig, Damien 13 December 2002 (has links) (PDF)
to complete
293

Contribution à l'étude de redondance dans les ponts : analyses des mécanismes de défaillance par surfaces de réponse

Mohammadkhani-Shali, Soheil 05 October 2007 (has links) (PDF)
Dans ce mémoire, une approche cohérente pour apprécier la redondance des ponts en béton armé, vis-à-vis de critères de service, a été présentée. La redondance est définie comme la capacité d'un pont à redistribuer les efforts dus aux charges extérieures, sur l'ensemble de ses éléments constitutifs. Afin d'étudier au mieux la redondance dans les ponts, nous avons envisagé d'intégrer un processus de dégradation et d'évaluer son impact sur la redondance dans les ponts en béton armé. Afin de prendre en compte les incertitudes liées aux variables dans l'évaluation des ponts endommagés, une approche probabiliste a été considérée. Les techniques classiques de la théorie de la fiabilité permettent aujourd'hui de calculer de diverses manières la probabilité de défaillance d'un élément particulier, sous réserve de disposer d'une caractérisation probabiliste des variables et d'un état limite explicite. Cependant, pour des ouvrages complexes, il est presque impossible de se procurer des états limites explicites ; la fonction d'état limite ne peut être évaluée que par calculs, notamment aux éléments finis. Les méthodes combinant les techniques de fiabilité avec le calcul aux éléments finis sont aussi appelées méthodes de fiabilité aux éléments finis (MFEF). Une approche consiste à construire « artificiellement » la fonction d'état limite en utilisant un polynôme ajusté aux résultats d'un nombre limité de calculs aux éléments finis. Cette fonction peut alors être utilisée pour évaluer la probabilité de défaillance au moyen de techniques classiques de fiabilité. Ce type d'approche est appelé méthode de surfaces de réponse (MSR). L'algorithme de construction de cette méthode a été mis en oeuvre au sein de la boîte à outils ReliabTbx, développée sous l'environnement Matlab©. Cette dernière fait appel soit au code de calcul aux éléments finis CESAR-LCPC© soit au code de calcul de structures à barres, SETRA-ST1© selon les cas, pour la réalisation des expériences numériques. Une étude originale sur la fiabilité des systèmes au niveau de l'ensemble de l'ouvrage, a été également abordée par la méthode de surfaces de réponse. L'analyse de la redondance d'un pont passe donc par l'ajustement d'une fonctionnelle décrivant son comportement global ; c'est ce que nous avons réalisé avec l'utilisation de surfaces de réponse. Il s'agit d'étudier la redondance, d'une part, d'un point de vue de la performance du système global et d'autre part, d'un point de vue de la réserve entre la performance des éléments individuels et celle du pont dans sa globalité. Cela exprime l'importance des éléments individuels sur la réserve d'un ouvrage, notamment endommagé.
294

Vers une nouvelle approche de la modernisation des systèmes légataires à travers la migration vers un environnement dirigé par les modèles

Chénard, Gino 11 1900 (has links) (PDF)
Les organisations sont fortement dépendantes de leurs logiciels dans l'exercice de leurs activités quotidiennes. Malheureusement, les changements répétés qui sont appliqués à ces systèmes rendent leur évolution difficile. Cette évolution peut être rendue nécessaire afin de maintenir le logiciel, de le remplacer ou de le moderniser. Dans le cas de systèmes légataires complexes et mal documentés, la modernisation est la seule solution réalisable afin d'atteindre les objectifs d'évolution, le but de la modernisation étant de faire évoluer un système lorsque les pratiques conventionnelles ne le permettent plus. Mais, il s'agit d'une tâche complexe. Notamment, la prévision des risques et des coûts est difficile. Afin de faire face aux difficultés de la modernisation, l'OMG a créé l'initiative « Architecture-Driven Modernization » ADM qui propose entre autres de réaliser la modernisation par l'ingénierie dirigée par les modèles (IDM). Dans ce contexte, la modernisation d'un système légataire, non développé dans un environnement IDM, débute par sa migration vers ce type d'environnement. Ce qui pose la problématique de la découverte des modèles nécessaires à l'utilisation d'IDM représentant ce système. Une seconde problématique est que le processus IDM manque de précision au sujet des modèles à employer et de l'application des transformations pour passer d'un à l'autre. Dans cette thèse, nous présentons une nouvelle approche de modernisation ADM afin d'utiliser l'IDM pour moderniser un système légataire non IDM. Nous y définissons les modèles nécessaires et les transformations à réaliser pour passer d'un à l'autre. La plate-forme d'implémentation y est représentée par deux modèles. Le premier est un profil UML décrivant ses concepts et le second est un ensemble de modèles de transformations paramétrés capturant son code d'infrastructure. Le modèle représentant les éléments du domaine du problème prend la forme d'un diagramme de classes UML. Aussi, nous proposons des algorithmes pour la découverte de ces modèles en analysant le code source du système légataire. Notre approche a été validée sur plusieurs systèmes écrits en Java et a donné de bons résultats pour les systèmes bien structurés avec un bon style de programmation. ______________________________________________________________________________
295

Rôle potentiel de la céruloplasmine dans le développement du cerveau

Ducharme, Philippe 09 1900 (has links) (PDF)
Le fonctionnement du cerveau nécessite une organisation finement régulée des neurones. Cette organisation s'établit durant le développement et dépend de mécanismes tels que la neurogénèse, la neuromigration et la synaptogénèse. Ces mécanismes mettent à contribution plusieurs molécules, dont des facteurs de croissance, des protéases, des molécules d'adhésion cellulaire et de guidage ainsi que des composantes de la matrice extracellulaire. Une défaillance de ces mécanismes peut entraîner le développement de désordres neurologiques tels que la schizophrénie, l'épilepsie et le retard mental. La céruloplasmine (CP) pourrait être comptée parmi les molécules susceptibles de contribuer au développement du cerveau. La CP, une protéine à cuivre de 132 kDa (K), possède une activité ferroxydasique qui en fait un régulateur majeur du métabolisme du fer dans l'organisme. Elle est sécrétée dans la circulation par le foie. On la retrouve aussi dans le cerveau, sous une forme ancrée à la surface de cellules gliales par un groupement glycosylphosphatidylinositol. Des travaux publiés par les équipes des Drs Paquin et Mateescu ont montré que la CP peut induire l'agrégation de neurones nouvellement différenciés de cellules souches embryonnaires murines P19. Cette nouvelle action de la CP soulève l'hypothèse d'un rôle de cette protéine dans le développement du système nerveux, possiblement dans l'organisation spatiale des neurones. Les objectifs de cette thèse étaient d'investiguer les mécanismes de l'action agrégative de la CP sur les neurones P19 et une pertinence physiologique de la CP dans le développement. Pour guider notre travail, nous avons envisagé que la neuroagrégation pouvait avoir des mécanismes communs avec la migration neuronale qui se produit lors du développement et nous avons ainsi considéré deux types de protéines ayant un rôle dans ce processus : les protéases à sérine extracellulaires et la reeline. Des protéases à sérine ont en effet été rapportées comme modulateurs de la migration neuronale et la reeline a un rôle essentiel dans cette migration ainsi que dans le bon positionnement final des neurones. La reeline existe sous la forme du polypeptide pleine longueur de 400K et sous la forme de fragments de 300K et de 180K portant la terminaison NH2 native. Le profil d'expression et le rôle de ces fragments durant le développement ainsi que les mécanismes responsables de leur formation sont peu connus. La reeline se lie à ses récepteurs ApoER2 et VLDLr, ce qui stimule la phosphorylation de la protéine intracellulaire Dab-1 et, plus distalement, la phosphorylation de la cofiline, une protéine régulatrice de l'assemblage des filaments d'actine. D'autre part, l'AMPc et les kinases ERK.1/2 activées par des mitogènes sont des molécules signalisatrices capables de moduler la morphologie et la motilité cellulaires. Les résultats du premier volet de la recherche montrent que le traitement des neurones avec la CP non seulement induit leur agrégation mais stimule aussi la formation du fragment 300K de la reeline. La formation de ce fragment est postérieure à l'agrégation. L'ajout des inhibiteurs de protéases SBTI et aprotinine abolit l'agrégation des neurones et la formation de la reeline 300K, indiquant qu'une ou des protéases à sérine extracellulaires sont impliquées dans ces actions de la CP. Globalement, les résultats suggèrent deux modèles de relation entre la neuroagrégation et la génération de la reeline 300K : un modèle dans lequel la génération de la reeline 300K est une conséquence de la neuroagrégation et un modèle dans lequel les deux phénomènes sont indépendants l'un de l'autre. Comme indiqué plus bas, les études du troisième volet de la recherche favorisent le dernier modèle. Dans le deuxième volet, nous avons voulu déterminer si l'action de la CP sur la reeline dans des cultures de neurones naissants P19 pouvait exister in vivo. Nous avons comparé, par immunobuvardage, les profils d'expression ontogéniques de la CP, la reeline et la cofiline et ce, dans des cerveaux de souris de type sauvage et de souris déficientes en CP (CP-/-). Chez les souris de type sauvage, la CP est détectée dès le jour embryonnaire 12.5, ses niveaux augmentent jusqu'à la naissance et demeurent soutenus jusqu'à l'âge adulte. L'expression globale de la reeline suit à peu près celle de la CP mais les niveaux du fragment 300K sont plus élevés durant la période embryonnaire qu'après la naissance. La cofiline est fortement phosphorylée au cours de la première semaine postnatale. Par comparaison, chez les souris CP-/-, la reeline 300K est peu détectée avant la naissance et la déphosphorylation postnatale de la cofiline survient plus tôt. La CP a donc un impact sur l'expression de la reeline et de la cofiline durant le développement du cerveau. L'expression accrue de la reeline 300K dans les cerveaux embryonnaires de type sauvage par rapport aux cerveaux déficients en CP valide les résultats obtenus avec les neurones P19. Enfin, les études du troisième volet de la recherche, basées sur l'utilisation d'agents pharmacologiques, ont montré que l'action agrégative de la CP et l'influence de la protéine sur la reeline peuvent se produire indépendamment l'une de l'autre. Ainsi, l'AMPc a inhibé l'action neuroagrégative de la CP sans empêcher la génération de la reeline 300K et des inhibiteurs de la signalisation d'ERK1/2 ont diminué le taux de formation de la reeline 300K sans affecter la neuroagrégation. En conclusion, l'ensemble des résultats obtenus ex vivo et in vivo appuie l'hypothèse d'un rôle possible de la CP dans le développement du système nerveux. La définition de ce rôle demande des investigations supplémentaires. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Céruloplasmine, Reeline, Protéases à sérine, Cofiline, AMPc, PKA, ERK, Neurones P19, Développement du système nerveux, Immunobuvardage
296

Quantification des paramètres biomécaniques qui affectent le système main-bras lors de la simulation de la tenue d'outils exerçant différentes vibrations et moments de force

Mandeville-Gauthier, Vincent 11 1900 (has links) (PDF)
Les vibrations main-bras sont spécifiquement reconnues pour être la cause du syndrome des vibrations, une maladie atteignant les doigts et la main à des niveaux vasculaires, musculo-squelettiques et neurosensoriels. De longues durées et de fortes intensités de vibration peuvent accélérer l'apparition des symptômes. De plus, des muscles soumis à la vibration ont tendance se contracter involontairement de façon plus intense que sans vibration : c'est le réflexe tonique vibratoire. Or, une plus grande rigidité musculaire est associée à une plus grande transmission de vibration aux structures corporelles. Le but de cette étude était de mesurer la transmission de vibration et mesurer le taux de contraction des muscles par électromyographie en fonction de différents paramètres de force de poussée, de moment de force, de fréquence et d'amplitude de vibration. De plus, les somatotypes ectomorphes et mésomorphes ont été comparés afin de déterminer si des gens de avec plus ou moins de masse musculaire obtenaient des résultats différents. Douze participants (six ectomorphes et six mésomorphes) ont participé à cette expérimentation. Cette expérimentation durait environ 3h et comportait 81 essais en fonction d'une combinaison des trois niveaux de chacune des quatre variables (poussée, moment de force, amplitude de vibration et fréquence de vibration). Le somatotype n'a pas eu d'effet notable ni sur la vibration et peu sur le réflexe tonique vibratoire. Les variables biomécaniques (moment de force, force de poussée) ont généralement eu pour effet d'augmenter la transmission de vibration ainsi que les scores d'EMG. Les variables de vibration ont permis de déceler la présence d'un réflexe tonique vibratoire significatif mais de faible importance. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Électromyographie, outils vibrants, réflexe tonique vibratoire, somatotype, moment de force.
297

Approche multimodale de la mobilité urbaine : développement d'un outil d'aide à la prise de décision

Glaus, Mathias January 2007 (has links) (PDF)
La voiture individuelle a permis d'agir directement sur les contraintes associées aux temps de déplacements en facilitant la mobilité individuelle et a engendré une évolution des villes qui se caractérise par des processus qui s'autoalimentent : une dispersion urbaine, une spécialisation fonctionnelle des zones et une croissance du trafic automobile. Le transport de masse conventionnel (métro, tramway, train léger), comme seule alternative à la dépendance automobile, s'adapte difficilement à cette nouvelle réalité pour répondre à une mobilité qui s'exprime variablement dans le temps et dans l'espace. Dans ce contexte, les Systèmes de Transport Cybernétiques (STC) se présentent comme une alternative technologique propice à répondre à cette mobilité collective individualisée en offrant, en tout temps, un service sur demande par le partage de véhicules automatisés fonctionnant en réseau. Si la voiture est synonyme de liberté individuelle, en revanche son utilisation privilégiée mène à un déséquilibre du système de mobilité qui se traduit par les phénomènes d'engorgements du réseau routier. À l'inverse, le transport de masse est stable à l'extrême en assujettissant les usagers à son mode opératoire rigide (corridors et cadences des véhicules préétablis). En rupture avec ces deux modes de fonctionnement, la dynamique du système de mobilité par STC repose sur la capacité à anticiper le besoin ainsi que sur la configuration des véhicules dans le réseau pour desservir adéquatement la demande individuelle formulée aux différents lieux du périmètre urbain desservi. Les résultats de la recherche ont montré que le besoin individuel en déplacements peut être appréhendé comme un phénomène chaotique. La reconstruction de l'espace d'encastrement à sept dimensions associées à la série chronologique du besoin en déplacements pour un édifice au centre-ville de Montréal permet de reconstruire le profil du besoin par pas de temps de deux minutes, à partir des événements préalablement enregistrés. Basée sur la capacité des véhicules d'un STC d'emprunter l'ensemble des voies de guidages et l'identification des stations de départ et d'arrivée de chaque demande préalablement aux déplacements, l'application du principe du maximum d'entropie permet d'identifier les itinéraires individuels des véhicules. L'application du principe, développé à partir des relations de l'entropie statistique et de la théorie de l'information, permet de diffuser les véhicules dans le réseau sous contrainte du respect des demandes des usagers et ainsi de minimiser le phénomène d'engorgement. Dans une approche dynamique de l'évolution du système, la configuration des véhicules dans un réseau STC se modifie en fonction des demandes et doit s'organiser pour répondre aux besoins à venir. Par analogie avec les systèmes naturels, l'application des principes thermodynamiques de l'enthalpie et de l'entropie permettent d'expliciter la relation entre le besoin en déplacement et l'état du système. Par raisonnement déductif, les résultats explicitent le principe d'une configuration des véhicules dans le réseau basée sur des critères caractérisant l'état du système dans sa globalité plutôt que sur des critères de proximité et de distances à parcourir. Les résultats obtenus sur la base de l'application des lois comportementales des systèmes naturels (phénomènes chaotiques et principes thermodynamiques) sont intégrables dans un modèle. Ce dernier, en tant qu'outil de représentation, permet de mettre en évidence les fonctionnalités dynamiques qui d'une part animent le système et, d'autre part en assurent la cohérence pour satisfaire les besoins individuels dans le temps et dans l'espace. Cette capacité de s'adapter aux caractéristiques du milieu dans lequel un STC est implanté, permet de générer une synergie avec les transports conventionnels pour une diversification de l'offre en transport collectif apte à s'adapter aux multiples dimensions de la demande individualisée en mobilité. Finalement, la démarche développée initie un changement de paradigme dans le domaine du transport collectif en privilégiant la variété des moyens (multiples modes et multiples itinéraires) pour rejoindre les différents lieux plutôt que la singularité d'un transport de masse. Ce changement de paradigme trouve également un écho en urbanisme où une organisation multifonctionnelle des zones urbaines favorise une accessibilité de proximité diversifiée.
298

Etudes comparatives basées sur les modèles en phase de conception d'architectures de systèmes

Albarello, Nicolas 17 December 2012 (has links) (PDF)
La conception d'architectures de systèmes est une tâche complexe qui implique des enjeux majeurs. Au cours de cette activité, les concepteurs du système doivent créer des alternatives de conception et doivent les comparer entre elles afin de sélectionner l'architecture la plus appropriée suivant un ensemble de critères. Dans le but d'étudier différentes alternatives, les concepteurs doivent généralement limiter leur étude comparative à une petite partie de l'espace de conception qui peut être composé d'un nombre immense de solutions. Traditionnellement, le processus de conception d'architecture est principalement dirigé par le jugement et l'expérience des concepteurs, et les alternatives sélectionnées sont des versions adaptées de solutions connues. Le risque est donc de sélectionner une solution pertinente mais sous-optimale. Pour gagner en confiance sur l'optimalité de la solution retenue, la couverture de l'espace de conception doit être augmentée. L'utilisation de méthodes de synthèse calculatoire d'architecture a prouvé qu'elle était un moyen efficace pour supporter les concepteurs dans la conception d'artefacts d'ingénierie (structures, circuits électriques...). Pour assister les concepteurs de systèmes durant le processus de conception d'architecture, une méthode calculatoire pour les systèmes complexes est définie. Cette méthode emploie une approche évolutionnaire (algorithmes génétiques) pour guider le processus d'exploration de l'espace de conception vers les zones optimales. La population initiale de l'algorithme génétique est créée grâce à une technique de synthèse calculatoire d'architecture qui permet de créer différentes architectures physiques et tables d'allocations pour une architecture fonctionnelle donnée. La méthode permet d'obtenir les solutions optimales du problème de conception posé. Ces solutions peuvent être ensuite utilisées par les concepteurs pour des études comparatives plus détaillées ou pour des négociations avec les fournisseurs de systèmes.
299

Routage inter-domaine

Sarakbi, Bakr 10 February 2011 (has links) (PDF)
Internet est le réseau le plus gigantesque que l'humanité ne se soit pourvu. Il fournit un nombre important de services à plus de deux milliards d'utilisateurs. Cette topologie grandissante et complexe pêche en stabilité, ce qui peut notamment être constaté quand un appel voix est interrompu, quand une page web à besoin d'être rafraîchie, etc. L'initiateur de cette instabilité est l'ensemble des événements constatés dans l'Internet. Ceci nous motive à une Étude profonde de la stabilité d'Internet afin de suggère des solutions à cette problématique. Internet est divisé en deux niveaux de base: le niveau AS (Autonomous System) et le niveau de routage. Cette distinction se répercute dans les protocoles de routage qui contrôlent le trafic Internet à travers deux types de protocoles: extérieur (inter-AS) et intérieur (intra-AS). L'unique protocole de routage extérieur utilité est le mode externe de BGP (External Border Gateway Protocol) tandis qu'il en existe plusieurs de type intérieur. De fait, la stabilisation de l'Internet est corrélée à la stabilité des protocoles de routage. Cela pousse les efforts de traitement de l'instabilité de l'Internet à Étudier le comportement du protocole de routage (BGP). Analyser les résultats des comportements de BGP dans son mode externe (eBGP) souffre d'un temps de convergence important menant notamment à des réponses lentes des évènements de topologie et, à terme, à la perte du trafic. Les études établissent également que le mode interne de BGP (iBGP) souffre de plusieurs types d'anomalies de routage causant la divergence. Afin d'illustrer la stabilité de BGP, nous avons besoin d'un modèle de routage qui formule la procédure de décision et le flot de signalisation. De plus, les améliorations de BGP ne peuvent pas être aisément validées dans l'Internet, rendant ainsi les modèles de BGP indispensables à une validation formelle. De fait, la première étape dans l'étude du routage inter-domaine est de définir un modèle approprié permettant la formulation de ses opérations et de prouver sa correction. Nous avons proposé deux modèles complémentaires: topologique et fonctionnel, avec lesquels nous avons formulé le processus de convergence du routage et démontré la sécurité et la robustesse de nos solutions d'inter/intra-AS. Notre proposition d'inter-AS élimine les déconnections transitoires causées par une faible convergence d'eBGP en suggérant une stratégie de backup lors d'une panne. Notre proposition d'intra-AS (skeleton) donne une alternative aux configurations internes existantes, pour laquelle nous avons montré l'absence d'anomalies.
300

ROMIE, une approche d'alignement d'ontologies à base d'instances

Elbyed, Abdeltif 16 October 2009 (has links) (PDF)
L'interoperabilite semantique est une question importante, largement identifiee dans les technologies d'organisation et de l'information et dans la communaute de recherche en systemes d'information. L'adoption large du Web afin d'acceder a des informations distribuees necessite l'interoperabilite des systemes qui gerent ces informations. Des solutions et reflexions comme le Web Semantique facilitent la localisation et l'integration des donnees d'une maniere plus intelligente par l'intermediaire des ontologies. Il offre une vision plus semantique et comprehensible du web. Pourtant, il souleve un certain nombre de defis de recherche. Un des principaux defis est de comparer et aligner les differentes ontologies qui apparaissent dans des taches d'integration. Le principal objectif de cette these est de proposer une approche d'alignement pour identifier les liens de correspondance entre des ontologies. Notre approche combine les techniques et les methodes d'appariement linguistiques, syntaxiques, structurelles ou encore semantiques (basees sur les instances). Elle se compose de deux phases principales : la phase d'enrichissement semantique des ontologies a comparer et la phase d'alignement ou de mapping. La phase d'enrichissement est basee sur l'analyse des informations que les ontologies developpent (des ressources web, des donnees, des documents, etc.) et qui sont associes aux concepts de l'ontologie. Notre intuition est que ces informations ainsi que les relations qui peuvent exister entre elles participent a l'enrichissement semantique entre les concepts. A l'issue de la phase d'enrichissement, une ontologie contient plus de relations semantiques entre les concepts qui seront exploitees dans la deuxieme phase. La phase de mapping prend deux ontologies enrichies et calcule la similarite entre les couples de concepts. Un processus de filtrage nous permet de reduire automatiquement le nombre de fausses relations. La validation des correspondances est un processus interactif direct (avec un expert) ou indirect (en mesurant le degre de satisfaction de l'utilisateur). Notre approche a donne lieu a un systeme de mapping appele ROMIE (Resource based Ontology Mapping within an Interactive and Extensible environment). Il a ete experimente et evalue dans deux differentes applications : une application biomedicale et une application dans le domaine de l'apprentissage enrichi par les technologies (ou e-learning).

Page generated in 0.0654 seconds