• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 6
  • 2
  • Tagged with
  • 23
  • 23
  • 12
  • 9
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Mise en contexte des traces pour une analyse en niveaux d'abstraction / Exploiting context for an structuration of execution traces in abstraction layers

Fopa, Léon Constantin 23 June 2015 (has links)
Les techniques d'analyse et de débogage d'applications sont de plus en plus mises à mal dans les systèmes modernes. En particulier dans les systèmes basés sur des composants embarqués multiprocesseurs (ou MPSoc) qui composent aujourd'hui la plupart de nos dispositifs quotidiens. Le recours à des traces d'exécution devient incontournable pour appliquer une analyse fine de tels systèmes et d'en identifier les comportements divergents. Même si la trace représente une source d'information riche mise à disposition du développeur pour travailler, les informations pertinentes à l'analyse se retrouvent noyées dans la masse et sont difficilement utilisables sans une expertise de haut niveau. Des outils dédiés à l'exploitation des traces deviennent nécessaires. Cependant les outils existants prennent rarement en compte les aspects métiers spécifiques à l'application afin d'optimiser le travail d'analyse. Dans cette thèse, nous proposons une approche qui permet au développeur de représenter, manipuler et interroger une trace d'exécution en se basant sur des concepts liés à ses propres connaissances métier. Notre approche consiste en l'utilisation d'une ontologie pour modéliser et interroger les concepts métier dans une trace, et l'utilisation d'un moteur d'inférence pour raisonner sur ces concepts métier. Concrètement, nous proposons VIDECOM l'ontologie du domaine de l'analyse des traces d'exécution des applications embarquées multimédia sur MPSoC. Nous nous intéressons ensuite au passage à l'échelle de l'exploitation de cette ontologie pour l'analyse des traces de grandes tailles. Ainsi, nous faisons une étude comparative des différents systèmes de gestion des ontologies pour déterminer l'architecture la plus adaptée aux traces de très grande taille au sein de notre ontologie VIDECOM. Nous proposons également un moteur d'inférence qui adresse les défis que pose le raisonnement sur les concepts métier, à savoir l'inférence de l'ordre temporel entre les concepts métier dans la trace et la terminaison du processus de génération de nouvelles connaissances métier. Enfin, nous illustrons la mise en pratique de l'utilisation de l'ontologie VIDECOM dans le cadre du projet SoC-Trace pour l'analyse des traces d'exécution réelles sur MPSoC. / Applications analysis and debugging techniques are increasingly challenging task in modern systems. Especially in systems based on embedded multiprocessor components (or MPSoC) that make up the majority of our daily devices today. The use of execution traces is unavoidable to apply a detailed analysis of such systems and identify unexpected behaviors. Even if the trace offers a rich corpus of information to the developer for her work, information relevant to the analysis are hidden in the trace and is unusable without a high level of expertise. Tools dedicated to trace analysis become necessary. However existing tools take little or no account of the specific business aspects to an application or the developer's business knowledge to optimize the analysis task. In this thesis, we propose an approach that allows the developer to represent, manipulate and query an execution trace based on concepts related to her own business knowledge. Our approach is the use of an ontology to model and query business concepts in a trace, and the use of an inference engine to reason about these business concepts. Specifically, we propose VIDECOM, the domain ontology for the analysis of execution traces of multimedia applications embedded on MPSoC. We then focus on scaling the operation of this ontology for the analysis of huge traces. Thus, we make a comparative study of different ontologies management systems (or triplestores) to determine the most appropriate architecture for very large traces in our VIDECOM ontology.We also propose an inference engine that addresses the challenges of reasoning about business concepts, namely the inference of the temporal order between business concepts in the trace and the termination of the process of generating new knowledge from business knowledge. Finally, we illustrate the practical use of VIDECOM in the SoC-Trace project for the analysis of real execution traces on MPSoC.
2

Quantification des ecdystéroïdes et acides rétinoïques chez la puce d’eau (D.magna) par chromatographie liquide couplée à la spectrométrie de masse en tandem

Venne, Philippe January 2015 (has links)
L’introduction de composé d’origine anthropogénique (produits pharmaceutiques, et de soin personnel, retardateur de flammes, plastifiants, etc.) par les stations de traitement des eaux usées municipales ainsi que le devenir de ses composés dans l’environnement est une problématique d’intérêt mondial. L’élimination de ses contaminants d’intérêt émergent des eaux usées s’effectue au niveau des stations de traitement des eaux usées qui, pour la plupart, ne sont pas conçues pour réaliser cette tâche. En effet, celles-ci présentent des niveaux très variables d’efficacité de dégradation/transformation de la plupart des contaminants émergents ce qui laisse dans l’effluent de ces stations des concentrations habituellement inférieures à quelques microgrammes par litres d’au moins plusieurs centaines de contaminants. Quelques études ont démontrés que l’exposition chronique à ces concentrations environnementales de différents CIE donne lieu à des effets toxiques chez le méné à tête de boule (effondrement de la population) et le gammare (diminution de l’activité). Cependant, les méthodes classiques utilisées pour l’évaluation de la toxicité ne sont pas suffisamment sensibles pour déceler des effets sublétaux aux concentrations environnementales observées dans les milieux recevant ces rejets de station d’épuration. Bien entendu, il est impossible de concevoir un procédé unique capable d’éliminer la totalité des contaminants d’intérêt émergent (présents ou futurs) des eaux usées. Il est donc nécessaire de créer des approches capables de prioriser et de cibler les composés qui doivent être éliminés. Ce projet de recherche met de l’avant l’hypothèse qu’une étude métabolomique ciblé serait capable de répondre à cette problématique. L’approche utilisée vise à ajouter un ou plusieurs points de terminaison (fluctuation des métabolites) au test de toxicité aiguë des effluents déjà effectué sur la puce d’eau (Daphnia magna) en quantifiant des molécules essentielles à la survie de cette espèce (ecdystéroïdes et acides rétinoïques). Les daphnies sont des modèles idéaux pour ce type d’étude puisqu’il s’agit d’organismes essentiels du zooplancton dans le monde entier. L’espèce D. magna est retrouvée dans l’hémisphère nord dans les lacs, rivières et étangs temporaires, elle se reproduit rapidement, est facile à cultiver et se reproduit par parthénogénèse. La quantification des ecdystéroïdes et acides rétinoïques aux concentrations observées chez la puce d’eau (picogramme par individus) est typiquement atteinte par dosage radio-immunologique (radioimmunoassay). Cependant, ce type de méthode ne permet pas d’identifier spécifiquement l’analyte ciblé, mais plutôt la somme de toutes molécules produisant une réaction immunologique similaire à celui-ci appelée "équivalent immunologique" et les résultats obtenus dépendent de l’anticorps, de la préparation effectuée et du lot de l’anticorps utilisé. Ce manque de sélectivité et variabilité des données obtenues pose problème pour la comparaison inter-laboratoires de résultats et a donc forcé le développement d’une nouvelle méthode analytique. Le présent document décrit le développement et la validation d’une méthode de quantification par chromatographie liquide couplée à un spectromètre de masse permettant d’atteindre des limites de quantification allant de 210 à 380 pg mL-1 pour trois ecdystéroïdes (20-hydroxyecdysone, ecdysone et ponasterone A) et de 5 ng mL-1 pour la somme des isomères de l’acide rétinoïque. La quantification de ces analytes aux faibles concentrations observées chez la puce d’eau a nécessité l’optimisation des paramètres instrumentaux, de la préparation d’échantillon et l’optimisation des conditions chromatographiques. Au final, la 20-hydroxyecdysone a pu être quantifiée à 19 ± 8 pg ind-1 pour les adultes (475 ± 200 pg mL-1, n=3) et à 3.6 ± 1.0 pg ind-1 pour les juvéniles (360 ± 10 pg mL-1, n=3), mais seulement détectée chez les néonates à 0.19 pg ind-1 (19 pg mL-1, n=3). L’ecdysone a également pu être détectée à 1.8 pg ind-1 chez les spécimens de taille adulte (180 pg mL-1, n=3). Le projet suivant vise à augmenter les connaissances sur l’effet de contaminants d’intérêt émergents sur l’environnement et sur le métabolisme de la puce d’eau D.magna ainsi que fournir une méthode potentiellement capable d’évaluer le risque d’exposition à des concentrations environnementales et permettre de prioriser les composés à être évaluer.
3

ParTraP : un langage pour la spécification et vérification à l'exécution de propriétés paramétriques / ParTraP : A Language for the Specification and Runtime Verification of Parametric Properties

Blein, Yoann 15 April 2019 (has links)
La vérification à l'exécution est une technique prometteuse pour améliorer la sûreté des systèmes complexes. Ces systèmes peuvent être instrumentés afin qu'ils produisent des traces d'exécution permettant d'observer leur utilisation dans des conditions réelles. Un défi important est de fournir aux ingénieurs logiciel un langage formel simple adapté à l'expression des exigences les plus importantes. Dans cette thèse, nous nous intéressons à la vérification de dispositifs médicaux. Nous avons effectué l'analyse approfondie d'un dispositif médical utilisé mondialement afin d'identifier les exigences les plus importantes, ainsi que la nature précise des traces d'exécution qu'il produit. À partir de cette analyse, nous proposons ParTraP, un langage défini formellement et dédié à la spécification de propriétés sur des traces finies. Il a été conçu pour être accessible à des ingénieurs logiciels non qualifiés en méthodes formelles grâce à sa simplicité et son style déclaratif. Le langage étend les patrons de spécification initialement proposé par Dwyer et. al. avec des opérateurs paramétriques et temps-réel, des portées emboîtable, et des quantificateurs de premier ordre. Nous proposons également une technique de mesure de couverture pour ParTraP, et que le niveau de couverture d'une propriété temporelle permet de mieux la comprendre, ainsi que le jeu de traces sur lequel elle est évaluée. Finalement, nous décrivons l'implémentation d'un environnement de développement intégré pour ParTraP, qui est disponible sous une licence libre. / Runtime verification is a promising technique to improve the safety of complex systems. These systems can be instrumented to produce execution traces enabling us to observe their usage in the field. A significant challenge is to provide software engineers with a simple formal language adapted to the expression of their most important requirements. In this thesis, we focus on the verification of medical devices. We performed a thorough analysis of a worldwide-used medical device in order to identify those requirements, as well as the precise nature of its execution traces. In the light of this study, we propose ParTraP, a formally defined language dedicated to property specification for finite traces. It is designed to be accessible to software engineers with no training in formal methods thanks to its simplicity and declarative style. The language extends the specification patterns originally proposed by Dwyer et al. with parametrized constructs, nested scopes, real-time and first-order quantification. We also propose a coverage measurement technique for ParTraP, and we show that coverage information provides insights on a corpus of traces as well as a deeper understanding of temporal properties. Finally, we describe the implementation of an Integrated Development Environment for ParTraP, which is available under a free and open-source license.
4

Une approche de fouille de données pour le débogage temporel des applications embarquées de streaming / Data Mining Approach to Temporal Debugging of Embedded Streaming Applications

Iegorov, Oleg 08 April 2016 (has links)
Le déboggage des applications de streaming qui s'exécutent sur les systèmes embarqués multimédia est l'un des domaines les plus exigeants dans le développement de logiciel embarqué. Les nouvelles générations de materiel embarqué introduisent de nouvelles systèmes sur une puce, qui fait que les développeurs du logiciel doivent adapter leurs logiciels aux nouvelles platformes. Le logiciel embarqué doit non seulement fournir des résultats corrects mais aussi le faire en temps réel afin de respecter les propriétés de qualité de service (Quality-of-Service, QoS) du système. Lorsque les propriétés QoS ne sont pas respectées, des bugs temporels font leur apparition. Ces bugs se manifestent comme, par exemple, des glitches dans le flux vidéo ou des craquements dans le flux audio. Le déboggage temporel est en général difficile à effectuer car les bugs temporels n'ont pas souvent de rapport avec l'exactitude fonctionnelle du code des applications, ce qui rend les outils de débogage traditionels, comme GDB, peu utiles. Le non-respect des propriétés QoS peut provenir des interactions entre les applications, ou entre les applications et les processus systèmes. Par conséquent, le contexte d'exécution entier doit être pris en compte pour le déboggage temporel. Les avancements récents en collecte des traces d'exécution permettent aux développeurs de recueillir des traces et de les analyser après la fin d'exécution pour comprendre quelle activité système est responsable des bugs temporels. Cependant, les traces d'exécution ont une taille conséquente, ce qui demande aux devéloppeurs des connaissainces en analyse de données qu'ils n’ont souvent pas.Dans cette thèse, nous proposons SATM - une approche novatrice pour le déboggage temporel des applications de streaming. SATM repose sur la prémisse que les applications sont conçues avec le modèle dataflow, i.e. peuvent être représentées comme un graphe orienté où les données sont transmises entre des unités de calcul (fontions, modules, etc.) appelées "acteurs". Les acteurs doivent être exécutés de manière périodique afin de respecter les propriétés QoS représentées par les contraintes de temps-réél. Nous montrons qu'un acteur qui ne respecte pas de façon répétée sa période pendant l'exécution de l'application cause la violation des contraintes temps-reel de l'application. En pratique, SATM est un workflow d'analyse de données venant des traces d'exécution qui combine des mesures statistiques avec des algorithmes de fouille de données. SATM fournit une méthode automatique du débogage temporel des applications de streaming. Notre approche prend en entrée une trace d'exécution d'une application ayant une QoS basse ainsi qu'une liste de ses acteurs, et tout d'abord détecte des invocations des acteurs dans la trace. SATM découvre ensuite les périodes des acteurs ainsi que les séctions de la trace où la période n'a pas été respectée. Enfin, ces séctions sont analysées afin d'extraire des motifs de l'activité système qui différencient ces sections des autres séctions de la trace. De tels motifs peuvent donner des indices sur l'origine du problème temporel dans le systeme et sont rendus au devéloppeur. Plus précisément, nous représentons ces motifs comme des séquences contrastes minimales et nous étudions des différentes solutions pour fouiller ce type de motifs à partir des traces d'exécution.Enfin, nous montrons la capacité de SATM de détecter une perturbation temporelle injectée artificiellement dans un framework multimedia GStreamer, ainsi que des bugs temporels dans deux cas d'utilisation des applications de streaming industrielles provenant de la société STMicroelectronics. Nous fournissons également une analyse détaillée des algorithmes de fouille de motifs séquentiels appliqués sur les données venant des traces d'exécution, et nous expliquons pour quelle est la raison les algorithmes de pointe n'arrivent pas à fouiller les motifs séquentiels à partir des traces d'exécution de façon efficace. / Debugging streaming applications run on multimedia embedded systems found in modern consumer electronics (e.g. in set-top boxes, smartphones, etc) is one of the most challenging areas of embedded software development. With each generation of hardware, more powerful and complex Systems-on-Chip (SoC) are released, and developers constantly strive to adapt their applications to these new platforms. Embedded software must not only return correct results but also deliver these results on time in order to respect the Quality-of-Service (QoS) properties of the entire system. The non-respect of QoS properties lead to the appearance of temporal bugs which manifest themselves in multimedia embedded systems as, for example, glitches in the video or cracks in the sound. Temporal debugging proves to be tricky as temporal bugs are not related to the functional correctness of the code, thus making traditional GDB-like debuggers essentially useless. Violations of QoS properties can stem from complex interactions between a particular application and the system or other applications; the complete execution context must be, therefore, taken into account in order to perform temporal debugging. Recent advances in tracing technology allow software developers to capture a trace of the system's execution and to analyze it afterwards to understand which particular system activity is responsible for the violations of QoS properties. However, such traces have a large volume, and understanding them requires data analysis skills that are currently out of the scope of the developers' education.In this thesis, we propose SATM (Streaming Application Trace Miner) - a novel temporal debugging approach for embedded streaming applications. SATM is based on the premise that such applications are designed under the dataflow model of computation, i.e. as a directed graph where data flows between computational units called actors. In such setting, actors must be scheduled in a periodic way in order to meet QoS properties expressed as real-time constraints, e.g. displaying 30 video frames per second. We show that an actor which does not eventually respect its period at runtime causes the violation of the application’s real-time constraints. In practice, SATM is a data analysis workflow combining statistical measures and data mining algorithms. It provides an automatic solution to the problem of temporal debugging of streaming applications. Given an execution trace of a streaming application exhibiting low QoS as well as a list of its actors, SATM firstly determines exact actors’ invocations found in the trace. It then discovers the actors’ periods, as well as parts of the trace in which the periods are not respected. Those parts are further analyzed to extract patterns of system activity that differentiate them from other parts of the trace. Such patterns can give strong hints on the origin of the problem and are returned to the developer. More specifically, we represent those patterns as minimal contrast sequences and investigate various solutions to mine such sequences from execution trace data.Finally, we demonstrate SATM’s ability to detect both an artificial perturbation injected in an open source multimedia framework, as well as temporal bugs from two industrial use cases coming from STMicroelectronics. We also provide an extensive analysis of sequential pattern mining algorithms applied on execution trace data and explain why state-of-the-art algorithms fail to efficiently mine sequential patterns from real-world traces.
5

Spécification et conception de services d'analyse de l'utilisation d'un environnement informatique pour l'apprentissage humain

Pham Thi Ngoc, Diem 25 November 2011 (has links) (PDF)
Notre travail de recherche s'inscrit dans le cadre du projet de recherche REDiM (Réingénierie des EIAH Dirigée par les Modèles) qui porte sur la réingénierie d'un scénario pédagogique. Il se focalise plus précisément sur l'analyse de traces collectées en session par un EIAH pour fournir à l'enseignant des indicateurs calculés.Dans notre contexte de travail, UTL (Usage Tracking Language) permet de définir des indicateurs sous une forme proche des patrons de conception. Il a été conçu pour répondre aux questions de capitalisation et de réutilisation. Par contre, UTL ne disposait initialement pas de moyens pour spécifier formellement la façon de calculer l'indicateur à partir des traces collectées. De plus, les approches par développement ad hoc d'indicateurs ne permettent pas de modéliser de façon formelle la méthode de calcul. En général, les patrons de conception se limitent à la description, ils ne peuvent donc pas être automatisés. Des descriptions textuelles dans UTL pour produire un indicateur à partir des traces ne permettent pas de générer automatiquement les valeurs d'un indicateur.Notre principal objectif de recherche a donc été de définir des modèles, des méthodes et des outils pour la formalisation et l'automatisation du calcul d'indicateurs. Pour cela, nous avons élaboré une nouvelle version d'UTL qui intègre un langage de combinaison de données nommé DCL4UTL, qui permet de modéliser des indicateurs sous une forme capitalisable, automatisable et réutilisable afin de fournir des indicateurs signifiants à l'enseignant/concepteur. Ces indicateurs peuvent être calculés en temps réel ou après une session, respectivement dans un contexte de tutorat ou de réingénierie du scénario pédagogique.L'originalité de notre approche réside dans le fait que cette version permet non seulement de capitaliser des savoir-faire sur les techniques d'analyse d'usage d'un EIAH, mais aussi, avec le langage DCL4UTL (1) de décrire formellement dans une forme générique des méthodes de modélisation et de calcul d'indicateurs à partir des traces collectées par un EIAH, (2) d'intégrer des fonctions externes (qui proviennent d'autres outils d'analyse), et (3) de créer des données intermédiaires paramétrées facilitant la modélisation et la réutilisation de la méthode de calcul d'indicateurs. Nous avons également développé un outil d'analyse pour calculer les indicateurs modélisés.Cette version est le résultat d'une étude théorique et d'une analyse de l'état de l'art, mais aussi de travaux exploratoires sur la modélisation d'indicateurs et l'analyse de traces. L'approche et le langage ont été validés par plusieurs expérimentations avec plusieurs EIAH existants.
6

Développement de nouvelles méthodologies de préconcentration électrocinétique in-situ en électrophorèse capillaire pour l'analyse de traces

Anrès, Philippe 20 September 2012 (has links) (PDF)
L'électrophorèse capillaire, quoiqu'étant une technique analytique très puissante, souffre d'un manque en sensibilité avec les détecteurs spectrophotométriques. Pour palier ce problème il est possible d'utiliser des méthodes de préconcentration électrocinétiques in-situ. Les travaux menés au cours de cette thèse se sont attachés à développer de nouvelles méthodologies de préconcentration électrocinétique. Tout d'abord, il a été montré que le greffage des capillaires de silice avec du polyacrylamide linéaire permet en milieu acide complexe de réduire fortement l'écoulement électroosmotique ce qui favorise la mise en œuvre des techniques de préconcentration. Ensuite, le couplage de deux méthodes de préconcentration, l'amplification de champ électrique avec une injection électrocinétique et du sweeping a été examiné. En étudiant le mécanisme grâce à des plans d'expérience et de la simulation, l'influence des paramètres expérimentaux ainsi que leurs rôles ont été éclaircis et la procédure d'optimisation simplifiée. A la suite de ces résultats, une procédure d'analyse d'herbicides présents dans des eaux de distribution a été développée, permettant leur détection à un niveau proche de celui spécifié par l'Union Européenne sans étape préalable d'extraction. Ensuite, l'utilisation de liquides ioniques à longue chaîne pour améliorer la sensibilité d'une méthode appelée " Micelle to Solvent Stacking " a été étudiée et des améliorations d'un facteur 10 ont été obtenues par rapport aux gains obtenus avec des surfactants classiques (application à des herbicides et des anti-inflammatoires). Enfin, pour améliorer les gains en sensibilité avec de plus une spécificité élevée, une preuve de concept a été développée en utilisant un aptamère pour l'analyse sélective d'Ochratoxine A à l'état de trace dans le vin, ce qui ouvre de nouvelles perspectives pour l'utilisation de cet outil biologique en électrophorèse capillaire.
7

Enseigner et apprendre en ligne : vers un modèle de la navigation sur des sites Web de formation universitaire

Meza Fernandez, Sandra 29 April 2013 (has links) (PDF)
Cette thèse propose de cartographier le parcours de navigation des usagers des EIAH pour le visualiser, visualiser pour interpréter et interpréter pour anticiper. Les profils d'apprentissage ont une influence sur les modes de navigation dans un environnement d'apprentissage en ligne. S'appuyant sur une méthodologie capable de modéliser le parcours de navigation d'un usager et d'anticiper son prochain clic sur une plateforme, notre étude cherche à élargir le champ des connaissances de l'efficacité/performance des styles d'apprentissage. La méthodologie utilisée repose sur l'analyse des traces d'utilisation élaborée à partir de 63 archives logs Web, incluant 4637 lignes de registre et 13 206 possibilités de choix de module. Le travail de recherche s'inscrit dans le cadre d'approches associant sémiologie, des sciences de l'information, psychologie cognitive et sciences de l'éducation. Trois observations ont été menées, générant des informations sur le profil de l'usager, la représentation des parcours et l'impact du style d'apprentissage dans le choix des fonctionnalités de travail offertes disponibles sur la plateforme. Les principaux résultats sont de deux types : d'une part, l'élaboration d'un outil convertissant les traces des fichiers log en parcours de navigation, et d'autre part, la confirmation d'un lien entre style d'apprentissage et mode de navigation. Ce deuxième résultat permet d'élaborer une méthode d'anticipation du nouveau choix de module sur une plateforme numérique de travail. Les applications pratiques visant à rendre exploitables ces traces dans les formations universitaires sont l'élaboration de bilans de qualité (ressources préférées, fonctionnalités moins utilisées) et l'identification des besoins de médiation pédagogique pour la compréhension de la tâche ou du processus (identifié par exemple dans l'insistance sur le module de consignes, le temps investi par un groupe ou par des trajets répétés). Cette thèse s'adresse principalement aux responsables pédagogiques universitaires décideurs de l'intégration des TIC, et par extension, aux étudiants universitaires et aux concepteurs d'outils d'apprentissage.
8

Méthodologie de test de systèmes mobiles : Une approche basée sur les sénarios

Nguyen, Minh Duc 19 November 2009 (has links) (PDF)
Les avancées technologiques du monde du " sans fil " ont conduit au développement d'applications dédiées à l'informatique mobile. Leurs caractéristiques propres posent de nouveaux défis pour leur vérification. Ce mémoire traite de la technologie de test pour les systèmes mobiles. Nous avons débuté notre travail par un état de l'art sur le test des applications mobiles conjointement avec une analyse d'une étude de cas, un protocole d'appartenance de groupe (GMP) dans le domaine des réseaux ad hoc, pour nous permettre de mieux comprendre les problèmes liés au test de ces applications. En conséquence, nous avons décidé d'avoir une approche de test qui se base sur les descriptions de scénarios. Nous avons constaté que les scénarios d'interactions doivent tenir compte des configurations spatiales des nœuds comme un concept majeur. Afin de couvrir les nouvelles spécificités des systèmes mobiles dans les langages de descriptions, nous avons introduit des extensions qui portent essentiellement sur les relations spatio-temporelles entre nœuds et sur la communication par diffusion. Le traitement de l'aspect spatial a conduit au développement de l'outil GraphSeq. GraphSeq a pour but d'analyser des traces de test afin d'y identifier des occurrences de configurations spatiales successives décrites à partir d'un scénario abstrait. L'application de GraphSeq (support à l'implémentation des cas de test, vérification de la couverture des traces) est présentée avec les analyses des sorties d'un simulateur de mobilité et des traces d'exécution de l'étude de cas GMP.
9

Analyse fonctionnelle des grattoirs du Témiscouata : tracéologie, morphologie et expérimentation

Hottin, Frédéric January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
10

La mobilité sociale : Modèles et traces

Costantini, Hervé 18 October 2012 (has links) (PDF)
L'avenir de la communication est perçu comme étant quasiment exclusivement constitué de nœuds mobiles évoluant dans un réseau mobile. Dans ce contexte, différentes approches contribuent continuellement à l'amélioration directe ou indirecte des délais d'acheminement des informations échangées entre les utilisateurs, dont :- l'analyse des traces;- l'évaluation des performances ;- les services de localisation;- le routage. Nous décrivons chacun de ses thèmes et proposons des solutions faisant évoluer l'état de l'art. Celles-ci prennent appui sur des méthodes et outils tels que :- les Réseaux de Petri, pour l'analyse des traces ;- les modèles de mobilité, pour l'évaluation des performances;- l'introduction du social dans les services de localisation;- la mise en place d'une nouvelle métrique pour le routage. Nous montrons comment ces solutions concourent de façon complémentaire les unes avec les autres, à améliorer l'expérience de l'utilisateur.

Page generated in 0.1617 seconds