Spelling suggestions: "subject:"3analyse dde traces"" "subject:"3analyse dee traces""
1 |
Quantification des ecdystéroïdes et acides rétinoïques chez la puce d’eau (D.magna) par chromatographie liquide couplée à la spectrométrie de masse en tandemVenne, Philippe January 2015 (has links)
L’introduction de composé d’origine anthropogénique (produits pharmaceutiques, et de soin personnel, retardateur de flammes, plastifiants, etc.) par les stations de traitement des eaux usées municipales ainsi que le devenir de ses composés dans l’environnement est une problématique d’intérêt mondial. L’élimination de ses contaminants d’intérêt émergent des eaux usées s’effectue au niveau des stations de traitement des eaux usées qui, pour la plupart, ne sont pas conçues pour réaliser cette tâche. En effet, celles-ci présentent des niveaux très variables d’efficacité de dégradation/transformation de la plupart des contaminants émergents ce qui laisse dans l’effluent de ces stations des concentrations habituellement inférieures à quelques microgrammes par litres d’au moins plusieurs centaines de contaminants. Quelques études ont démontrés que l’exposition chronique à ces concentrations environnementales de différents CIE donne lieu à des effets toxiques chez le méné à tête de boule (effondrement de la population) et le gammare (diminution de l’activité). Cependant, les méthodes classiques utilisées pour l’évaluation de la toxicité ne sont pas suffisamment sensibles pour déceler des effets sublétaux aux concentrations environnementales observées dans les milieux recevant ces rejets de station d’épuration. Bien entendu, il est impossible de concevoir un procédé unique capable d’éliminer la totalité des contaminants d’intérêt émergent (présents ou futurs) des eaux usées. Il est donc nécessaire de créer des approches capables de prioriser et de cibler les composés qui doivent être éliminés. Ce projet de recherche met de l’avant l’hypothèse qu’une étude métabolomique ciblé serait capable de répondre à cette problématique. L’approche utilisée vise à ajouter un ou plusieurs points de terminaison (fluctuation des métabolites) au test de toxicité aiguë des effluents déjà effectué sur la puce d’eau (Daphnia magna) en quantifiant des molécules essentielles à la survie de cette espèce (ecdystéroïdes et acides rétinoïques). Les daphnies sont des modèles idéaux pour ce type d’étude puisqu’il s’agit d’organismes essentiels du zooplancton dans le monde entier. L’espèce D. magna est retrouvée dans l’hémisphère nord dans les lacs, rivières et étangs temporaires, elle se reproduit rapidement, est facile à cultiver et se reproduit par parthénogénèse.
La quantification des ecdystéroïdes et acides rétinoïques aux concentrations observées chez la puce d’eau (picogramme par individus) est typiquement atteinte par dosage radio-immunologique (radioimmunoassay). Cependant, ce type de méthode ne permet pas d’identifier spécifiquement l’analyte ciblé, mais plutôt la somme de toutes molécules produisant une réaction immunologique similaire à celui-ci appelée "équivalent immunologique" et les résultats obtenus dépendent de l’anticorps, de la préparation effectuée et du lot de l’anticorps utilisé. Ce manque de sélectivité et variabilité des données obtenues pose problème pour la comparaison inter-laboratoires de résultats et a donc forcé le développement d’une nouvelle méthode analytique.
Le présent document décrit le développement et la validation d’une méthode de quantification par chromatographie liquide couplée à un spectromètre de masse permettant d’atteindre des limites de quantification allant de 210 à 380 pg mL-1 pour trois ecdystéroïdes (20-hydroxyecdysone, ecdysone et ponasterone A) et de 5 ng mL-1 pour la somme des isomères de l’acide rétinoïque.
La quantification de ces analytes aux faibles concentrations observées chez la puce d’eau a nécessité l’optimisation des paramètres instrumentaux, de la préparation d’échantillon et l’optimisation des conditions chromatographiques. Au final, la 20-hydroxyecdysone a pu être quantifiée à 19 ± 8 pg ind-1 pour les adultes (475 ± 200 pg mL-1, n=3) et à 3.6 ± 1.0 pg ind-1 pour les juvéniles (360 ± 10 pg mL-1, n=3), mais seulement détectée chez les néonates à 0.19 pg ind-1 (19 pg mL-1, n=3). L’ecdysone a également pu être détectée à 1.8 pg ind-1 chez les spécimens de taille adulte (180 pg mL-1, n=3).
Le projet suivant vise à augmenter les connaissances sur l’effet de contaminants d’intérêt émergents sur l’environnement et sur le métabolisme de la puce d’eau D.magna ainsi que fournir une méthode potentiellement capable d’évaluer le risque d’exposition à des concentrations environnementales et permettre de prioriser les composés à être évaluer.
|
2 |
ParTraP : un langage pour la spécification et vérification à l'exécution de propriétés paramétriques / ParTraP : A Language for the Specification and Runtime Verification of Parametric PropertiesBlein, Yoann 15 April 2019 (has links)
La vérification à l'exécution est une technique prometteuse pour améliorer la sûreté des systèmes complexes. Ces systèmes peuvent être instrumentés afin qu'ils produisent des traces d'exécution permettant d'observer leur utilisation dans des conditions réelles. Un défi important est de fournir aux ingénieurs logiciel un langage formel simple adapté à l'expression des exigences les plus importantes. Dans cette thèse, nous nous intéressons à la vérification de dispositifs médicaux. Nous avons effectué l'analyse approfondie d'un dispositif médical utilisé mondialement afin d'identifier les exigences les plus importantes, ainsi que la nature précise des traces d'exécution qu'il produit. À partir de cette analyse, nous proposons ParTraP, un langage défini formellement et dédié à la spécification de propriétés sur des traces finies. Il a été conçu pour être accessible à des ingénieurs logiciels non qualifiés en méthodes formelles grâce à sa simplicité et son style déclaratif. Le langage étend les patrons de spécification initialement proposé par Dwyer et. al. avec des opérateurs paramétriques et temps-réel, des portées emboîtable, et des quantificateurs de premier ordre. Nous proposons également une technique de mesure de couverture pour ParTraP, et que le niveau de couverture d'une propriété temporelle permet de mieux la comprendre, ainsi que le jeu de traces sur lequel elle est évaluée. Finalement, nous décrivons l'implémentation d'un environnement de développement intégré pour ParTraP, qui est disponible sous une licence libre. / Runtime verification is a promising technique to improve the safety of complex systems. These systems can be instrumented to produce execution traces enabling us to observe their usage in the field. A significant challenge is to provide software engineers with a simple formal language adapted to the expression of their most important requirements. In this thesis, we focus on the verification of medical devices. We performed a thorough analysis of a worldwide-used medical device in order to identify those requirements, as well as the precise nature of its execution traces. In the light of this study, we propose ParTraP, a formally defined language dedicated to property specification for finite traces. It is designed to be accessible to software engineers with no training in formal methods thanks to its simplicity and declarative style. The language extends the specification patterns originally proposed by Dwyer et al. with parametrized constructs, nested scopes, real-time and first-order quantification. We also propose a coverage measurement technique for ParTraP, and we show that coverage information provides insights on a corpus of traces as well as a deeper understanding of temporal properties. Finally, we describe the implementation of an Integrated Development Environment for ParTraP, which is available under a free and open-source license.
|
3 |
Mise en contexte des traces pour une analyse en niveaux d'abstraction / Exploiting context for an structuration of execution traces in abstraction layersFopa, Léon Constantin 23 June 2015 (has links)
Les techniques d'analyse et de débogage d'applications sont de plus en plus mises à mal dans les systèmes modernes. En particulier dans les systèmes basés sur des composants embarqués multiprocesseurs (ou MPSoc) qui composent aujourd'hui la plupart de nos dispositifs quotidiens. Le recours à des traces d'exécution devient incontournable pour appliquer une analyse fine de tels systèmes et d'en identifier les comportements divergents. Même si la trace représente une source d'information riche mise à disposition du développeur pour travailler, les informations pertinentes à l'analyse se retrouvent noyées dans la masse et sont difficilement utilisables sans une expertise de haut niveau. Des outils dédiés à l'exploitation des traces deviennent nécessaires. Cependant les outils existants prennent rarement en compte les aspects métiers spécifiques à l'application afin d'optimiser le travail d'analyse. Dans cette thèse, nous proposons une approche qui permet au développeur de représenter, manipuler et interroger une trace d'exécution en se basant sur des concepts liés à ses propres connaissances métier. Notre approche consiste en l'utilisation d'une ontologie pour modéliser et interroger les concepts métier dans une trace, et l'utilisation d'un moteur d'inférence pour raisonner sur ces concepts métier. Concrètement, nous proposons VIDECOM l'ontologie du domaine de l'analyse des traces d'exécution des applications embarquées multimédia sur MPSoC. Nous nous intéressons ensuite au passage à l'échelle de l'exploitation de cette ontologie pour l'analyse des traces de grandes tailles. Ainsi, nous faisons une étude comparative des différents systèmes de gestion des ontologies pour déterminer l'architecture la plus adaptée aux traces de très grande taille au sein de notre ontologie VIDECOM. Nous proposons également un moteur d'inférence qui adresse les défis que pose le raisonnement sur les concepts métier, à savoir l'inférence de l'ordre temporel entre les concepts métier dans la trace et la terminaison du processus de génération de nouvelles connaissances métier. Enfin, nous illustrons la mise en pratique de l'utilisation de l'ontologie VIDECOM dans le cadre du projet SoC-Trace pour l'analyse des traces d'exécution réelles sur MPSoC. / Applications analysis and debugging techniques are increasingly challenging task in modern systems. Especially in systems based on embedded multiprocessor components (or MPSoC) that make up the majority of our daily devices today. The use of execution traces is unavoidable to apply a detailed analysis of such systems and identify unexpected behaviors. Even if the trace offers a rich corpus of information to the developer for her work, information relevant to the analysis are hidden in the trace and is unusable without a high level of expertise. Tools dedicated to trace analysis become necessary. However existing tools take little or no account of the specific business aspects to an application or the developer's business knowledge to optimize the analysis task. In this thesis, we propose an approach that allows the developer to represent, manipulate and query an execution trace based on concepts related to her own business knowledge. Our approach is the use of an ontology to model and query business concepts in a trace, and the use of an inference engine to reason about these business concepts. Specifically, we propose VIDECOM, the domain ontology for the analysis of execution traces of multimedia applications embedded on MPSoC. We then focus on scaling the operation of this ontology for the analysis of huge traces. Thus, we make a comparative study of different ontologies management systems (or triplestores) to determine the most appropriate architecture for very large traces in our VIDECOM ontology.We also propose an inference engine that addresses the challenges of reasoning about business concepts, namely the inference of the temporal order between business concepts in the trace and the termination of the process of generating new knowledge from business knowledge. Finally, we illustrate the practical use of VIDECOM in the SoC-Trace project for the analysis of real execution traces on MPSoC.
|
4 |
Une approche de fouille de données pour le débogage temporel des applications embarquées de streaming / Data Mining Approach to Temporal Debugging of Embedded Streaming ApplicationsIegorov, Oleg 08 April 2016 (has links)
Le déboggage des applications de streaming qui s'exécutent sur les systèmes embarqués multimédia est l'un des domaines les plus exigeants dans le développement de logiciel embarqué. Les nouvelles générations de materiel embarqué introduisent de nouvelles systèmes sur une puce, qui fait que les développeurs du logiciel doivent adapter leurs logiciels aux nouvelles platformes. Le logiciel embarqué doit non seulement fournir des résultats corrects mais aussi le faire en temps réel afin de respecter les propriétés de qualité de service (Quality-of-Service, QoS) du système. Lorsque les propriétés QoS ne sont pas respectées, des bugs temporels font leur apparition. Ces bugs se manifestent comme, par exemple, des glitches dans le flux vidéo ou des craquements dans le flux audio. Le déboggage temporel est en général difficile à effectuer car les bugs temporels n'ont pas souvent de rapport avec l'exactitude fonctionnelle du code des applications, ce qui rend les outils de débogage traditionels, comme GDB, peu utiles. Le non-respect des propriétés QoS peut provenir des interactions entre les applications, ou entre les applications et les processus systèmes. Par conséquent, le contexte d'exécution entier doit être pris en compte pour le déboggage temporel. Les avancements récents en collecte des traces d'exécution permettent aux développeurs de recueillir des traces et de les analyser après la fin d'exécution pour comprendre quelle activité système est responsable des bugs temporels. Cependant, les traces d'exécution ont une taille conséquente, ce qui demande aux devéloppeurs des connaissainces en analyse de données qu'ils n’ont souvent pas.Dans cette thèse, nous proposons SATM - une approche novatrice pour le déboggage temporel des applications de streaming. SATM repose sur la prémisse que les applications sont conçues avec le modèle dataflow, i.e. peuvent être représentées comme un graphe orienté où les données sont transmises entre des unités de calcul (fontions, modules, etc.) appelées "acteurs". Les acteurs doivent être exécutés de manière périodique afin de respecter les propriétés QoS représentées par les contraintes de temps-réél. Nous montrons qu'un acteur qui ne respecte pas de façon répétée sa période pendant l'exécution de l'application cause la violation des contraintes temps-reel de l'application. En pratique, SATM est un workflow d'analyse de données venant des traces d'exécution qui combine des mesures statistiques avec des algorithmes de fouille de données. SATM fournit une méthode automatique du débogage temporel des applications de streaming. Notre approche prend en entrée une trace d'exécution d'une application ayant une QoS basse ainsi qu'une liste de ses acteurs, et tout d'abord détecte des invocations des acteurs dans la trace. SATM découvre ensuite les périodes des acteurs ainsi que les séctions de la trace où la période n'a pas été respectée. Enfin, ces séctions sont analysées afin d'extraire des motifs de l'activité système qui différencient ces sections des autres séctions de la trace. De tels motifs peuvent donner des indices sur l'origine du problème temporel dans le systeme et sont rendus au devéloppeur. Plus précisément, nous représentons ces motifs comme des séquences contrastes minimales et nous étudions des différentes solutions pour fouiller ce type de motifs à partir des traces d'exécution.Enfin, nous montrons la capacité de SATM de détecter une perturbation temporelle injectée artificiellement dans un framework multimedia GStreamer, ainsi que des bugs temporels dans deux cas d'utilisation des applications de streaming industrielles provenant de la société STMicroelectronics. Nous fournissons également une analyse détaillée des algorithmes de fouille de motifs séquentiels appliqués sur les données venant des traces d'exécution, et nous expliquons pour quelle est la raison les algorithmes de pointe n'arrivent pas à fouiller les motifs séquentiels à partir des traces d'exécution de façon efficace. / Debugging streaming applications run on multimedia embedded systems found in modern consumer electronics (e.g. in set-top boxes, smartphones, etc) is one of the most challenging areas of embedded software development. With each generation of hardware, more powerful and complex Systems-on-Chip (SoC) are released, and developers constantly strive to adapt their applications to these new platforms. Embedded software must not only return correct results but also deliver these results on time in order to respect the Quality-of-Service (QoS) properties of the entire system. The non-respect of QoS properties lead to the appearance of temporal bugs which manifest themselves in multimedia embedded systems as, for example, glitches in the video or cracks in the sound. Temporal debugging proves to be tricky as temporal bugs are not related to the functional correctness of the code, thus making traditional GDB-like debuggers essentially useless. Violations of QoS properties can stem from complex interactions between a particular application and the system or other applications; the complete execution context must be, therefore, taken into account in order to perform temporal debugging. Recent advances in tracing technology allow software developers to capture a trace of the system's execution and to analyze it afterwards to understand which particular system activity is responsible for the violations of QoS properties. However, such traces have a large volume, and understanding them requires data analysis skills that are currently out of the scope of the developers' education.In this thesis, we propose SATM (Streaming Application Trace Miner) - a novel temporal debugging approach for embedded streaming applications. SATM is based on the premise that such applications are designed under the dataflow model of computation, i.e. as a directed graph where data flows between computational units called actors. In such setting, actors must be scheduled in a periodic way in order to meet QoS properties expressed as real-time constraints, e.g. displaying 30 video frames per second. We show that an actor which does not eventually respect its period at runtime causes the violation of the application’s real-time constraints. In practice, SATM is a data analysis workflow combining statistical measures and data mining algorithms. It provides an automatic solution to the problem of temporal debugging of streaming applications. Given an execution trace of a streaming application exhibiting low QoS as well as a list of its actors, SATM firstly determines exact actors’ invocations found in the trace. It then discovers the actors’ periods, as well as parts of the trace in which the periods are not respected. Those parts are further analyzed to extract patterns of system activity that differentiate them from other parts of the trace. Such patterns can give strong hints on the origin of the problem and are returned to the developer. More specifically, we represent those patterns as minimal contrast sequences and investigate various solutions to mine such sequences from execution trace data.Finally, we demonstrate SATM’s ability to detect both an artificial perturbation injected in an open source multimedia framework, as well as temporal bugs from two industrial use cases coming from STMicroelectronics. We also provide an extensive analysis of sequential pattern mining algorithms applied on execution trace data and explain why state-of-the-art algorithms fail to efficiently mine sequential patterns from real-world traces.
|
5 |
Spécification et conception de services d'analyse de l'utilisation d'un environnement informatique pour l'apprentissage humainPham Thi Ngoc, Diem 25 November 2011 (has links) (PDF)
Notre travail de recherche s'inscrit dans le cadre du projet de recherche REDiM (Réingénierie des EIAH Dirigée par les Modèles) qui porte sur la réingénierie d'un scénario pédagogique. Il se focalise plus précisément sur l'analyse de traces collectées en session par un EIAH pour fournir à l'enseignant des indicateurs calculés.Dans notre contexte de travail, UTL (Usage Tracking Language) permet de définir des indicateurs sous une forme proche des patrons de conception. Il a été conçu pour répondre aux questions de capitalisation et de réutilisation. Par contre, UTL ne disposait initialement pas de moyens pour spécifier formellement la façon de calculer l'indicateur à partir des traces collectées. De plus, les approches par développement ad hoc d'indicateurs ne permettent pas de modéliser de façon formelle la méthode de calcul. En général, les patrons de conception se limitent à la description, ils ne peuvent donc pas être automatisés. Des descriptions textuelles dans UTL pour produire un indicateur à partir des traces ne permettent pas de générer automatiquement les valeurs d'un indicateur.Notre principal objectif de recherche a donc été de définir des modèles, des méthodes et des outils pour la formalisation et l'automatisation du calcul d'indicateurs. Pour cela, nous avons élaboré une nouvelle version d'UTL qui intègre un langage de combinaison de données nommé DCL4UTL, qui permet de modéliser des indicateurs sous une forme capitalisable, automatisable et réutilisable afin de fournir des indicateurs signifiants à l'enseignant/concepteur. Ces indicateurs peuvent être calculés en temps réel ou après une session, respectivement dans un contexte de tutorat ou de réingénierie du scénario pédagogique.L'originalité de notre approche réside dans le fait que cette version permet non seulement de capitaliser des savoir-faire sur les techniques d'analyse d'usage d'un EIAH, mais aussi, avec le langage DCL4UTL (1) de décrire formellement dans une forme générique des méthodes de modélisation et de calcul d'indicateurs à partir des traces collectées par un EIAH, (2) d'intégrer des fonctions externes (qui proviennent d'autres outils d'analyse), et (3) de créer des données intermédiaires paramétrées facilitant la modélisation et la réutilisation de la méthode de calcul d'indicateurs. Nous avons également développé un outil d'analyse pour calculer les indicateurs modélisés.Cette version est le résultat d'une étude théorique et d'une analyse de l'état de l'art, mais aussi de travaux exploratoires sur la modélisation d'indicateurs et l'analyse de traces. L'approche et le langage ont été validés par plusieurs expérimentations avec plusieurs EIAH existants.
|
6 |
Développement de nouvelles méthodologies de préconcentration électrocinétique in-situ en électrophorèse capillaire pour l'analyse de tracesAnrès, Philippe 20 September 2012 (has links) (PDF)
L'électrophorèse capillaire, quoiqu'étant une technique analytique très puissante, souffre d'un manque en sensibilité avec les détecteurs spectrophotométriques. Pour palier ce problème il est possible d'utiliser des méthodes de préconcentration électrocinétiques in-situ. Les travaux menés au cours de cette thèse se sont attachés à développer de nouvelles méthodologies de préconcentration électrocinétique. Tout d'abord, il a été montré que le greffage des capillaires de silice avec du polyacrylamide linéaire permet en milieu acide complexe de réduire fortement l'écoulement électroosmotique ce qui favorise la mise en œuvre des techniques de préconcentration. Ensuite, le couplage de deux méthodes de préconcentration, l'amplification de champ électrique avec une injection électrocinétique et du sweeping a été examiné. En étudiant le mécanisme grâce à des plans d'expérience et de la simulation, l'influence des paramètres expérimentaux ainsi que leurs rôles ont été éclaircis et la procédure d'optimisation simplifiée. A la suite de ces résultats, une procédure d'analyse d'herbicides présents dans des eaux de distribution a été développée, permettant leur détection à un niveau proche de celui spécifié par l'Union Européenne sans étape préalable d'extraction. Ensuite, l'utilisation de liquides ioniques à longue chaîne pour améliorer la sensibilité d'une méthode appelée " Micelle to Solvent Stacking " a été étudiée et des améliorations d'un facteur 10 ont été obtenues par rapport aux gains obtenus avec des surfactants classiques (application à des herbicides et des anti-inflammatoires). Enfin, pour améliorer les gains en sensibilité avec de plus une spécificité élevée, une preuve de concept a été développée en utilisant un aptamère pour l'analyse sélective d'Ochratoxine A à l'état de trace dans le vin, ce qui ouvre de nouvelles perspectives pour l'utilisation de cet outil biologique en électrophorèse capillaire.
|
7 |
Réactions élastiques et inélastiques résonantes pour la caractérisation expérimentale de la cible active ACTAR TPC / Resonant elastic and inelastic scattering for the experimental characterization of the active target ACTAR TPCMauss, Benoit 05 October 2018 (has links)
ACTAR TPC (ACtive TARget and Time Projection Chamber) est une cible active de nouvelle génération construite au GANIL (Grand Accélérateur d'Ions Lourds). Les cibles actives sont des cibles gazeuses où le gaz permet de détecter le passage de particules chargées selon le principe des chambres à projection temporelle (TPC). La TPC d'ACTAR est formée d'une anode segmentée de 16384 pixels carrés de 2 mm de côté. La haute densité de voies est gérée par le système électronique GET (General Electronics for TPCs). Ce système digitalise également les signaux sur un intervalle de temps donné, pour une reconstruction 3D complète des évènements. Un démonstrateur huit fois plus petit a d'abord été construit pour vérifier le fonctionnement de l’électronique et la conception mécanique. La finalisation d’ACTAR TPC s’est basée sur les résultats du démonstrateur, qui a été testé avec des faisceaux de 6Li, de 24Mg et de 58Ni. Le commissioning d'ACTAR TPC a été effectué dans le cas de la diffusion résonante sur cible de protons avec des faisceaux de 18O et de 20Ne.Un algorithme de reconstruction des traces mesurées dans la TPC permet d'en extraire les angles et les énergies des ions impliqués dans les réactions. Les résultats sont comparés à des données connues pour déterminer les performances du système de détection. Les résolutions obtenues sur le commissioning à partir de calculs en matrice R valident l'utilisation d'ACTAR TPC pour de futures expériences. Par ailleurs, la diffusion résonante 6Li + 4He réalisée avec le démonstrateur a permis d'étudier les états d’agrégat alpha dans le 10B. Deux résonances à 8.58 MeV et 9.52 MeV sont observées pour la première fois en diffusion élastique dans cette voie de réaction. / ACTAR TPC (ACtive TARget and Time Projection Chamber) is a next generation active target that was designed and built at GANIL (Grand Accélérateur d'Ions Lourds). Active targets are gaseous targets in which the gas is also used to track charged particles following the principles of time projection chambers (TPC). The TPC of ACTAR has a segmented anode of 16384 2 mm side square pixels. The high density of pixels is processed using the GET (General Electronics for TPCs) electronic system. This system also digitizes the signals over a time interval, enabling a full 3D event reconstruction. An eight time smaller demonstrator was first built to verify the electronics operation and the mechanical design. ACTAR TPC's final design was based on results obtained with the demonstrator which was tested using 6Li, 24Mg and 58Ni beams. The commissioning of ACTAR TPC was then carried out for the case of resonant scattering on a proton target using 18O and 20Ne beams. A track reconstruction algorithm is used to extract the angles and energies of the ions involved in the reactions. Results are compared to previous data to determine the detection system performances. Comparing the commissioning data with R matrix calculations, excitation functions resolutions in different cases are obtained. The use of ACTAR TPC is validated for future experiments. Furthermore, alpha clustering was studied in 10B through the resonant scattering 6Li + 4He, carried out with the demonstrator. Two resonances at 8.58 MeV and 9.52 MeV are observed for the first time in elastic scattering with this reaction channel.
|
8 |
Analyse fonctionnelle des grattoirs du Témiscouata : tracéologie, morphologie et expérimentationHottin, Frédéric January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
9 |
A trust framework for multi-organization environments / Un système de confiance pour les environnements multi-organisationnelsToumi, Khalifa 01 April 2014 (has links)
De nos jours, la propagation rapide des technologies de communication, de stockage de données et des web services encouragent les entreprises à collaborer entre elles formant ainsi un environnement multi-organisationnels. Ces entreprises participent à cet environnement afin de profiter des opportunités offertes tels que: (1) la possibilité d'utilisation des ressources et des services externes et professionnels (2) la réduction du temps de production et (3) les bénéfices résultant des effets de synergie. Toutefois, cette collaboration n'est pas parfaite. Des nombreux problèmes peuvent apparaître tels que l'utilisation malveillante des ressources, la divulgation des données ou des services inadéquats. Par conséquent, la sécurité est une préoccupation importante des participants. Les principaux défis de sécurité pour un participant sont la gestion de la confiance et le contrôle d'accès. Dans cette thèse, nous avons abordé en particulier ces deux domaines et nous proposons une nouvelle approche de gestion de la confiance pour les systèmes mutli-organisationnels. Notre approche est divisée en quatre parties. Tout d'abord, nous avons défini un modèle de confiance basé sur la notion des vecteurs. Ces derniers sont composés d'un ensemble de paramètres qui permettent de fournir un degré de confiance sous certaines conditions. Dans notre approche, nous envisageons deux types de vecteurs. D'une part, un vecteur lié à une relation entre un utilisateur et une organisation et d'autre part un vecteur qui relie deux organisations. De plus, nous avons montré comment évaluer et partager ces vecteurs entre les organisations, et comment utiliser les informations évaluées pour améliorer la sécurité. Concernant notre deuxième contribution, nous avons intégré ce nouveau modèle de confiance dans le modèle de contrôle d'accès OrBAC (Organization Based Access Control). Cette intégration a donné naissance à notre modèle TRUST-OrBAC. En outre, nous avons appliqué cette solution à un cas d'étude de collaboration entre des entreprises. Troisièmement, nous avons proposé une nouvelle ontologie de confiance basée sur des concepts de contrôle d'accès. Cette ontologie sera utilisée pour partager les degrés de confiance entre les participants et pour définir l'équivalence entre leurs objectifs. Ainsi, comment définir cette relation de confiance, comment comprendre l'objectif de la confiance d'un demandeur, et comment évaluer la valeur de la recommandation sont toutes des problématiques auxquelles nous avons essayé de répondre dans le cadre de ce travail. Quatrièmement, nous avons amélioré notre travail par la conception d'une approche de test passif afin d'évaluer le comportement d'un utilisateur. Cette contribution a été basée sur l'outil de test MMT (Montimage Monitoring Tool). Finalement, nous avons conçu une architecture sécurisée d'un système distribué en se basant sur nos contributions / The widespread of inexpensive communication technologies, distributed data storage and web services mechanisms currently urge the collaboration among organizations. Partners are participating in this environment motivated by several advantages such as: (1) the ability to use external and professional resources, services and knowledge, (2) the reduction of time-consuming requirements and (3) the benefaction of experts experience. However, this collaboration is not perfect since several problems can arise such as the misuse of resources, disclosure of data or inadequate services. Therefore, security is an important concern of the participants. In particular trust management and access control are one of the major security issues for an organization. This thesis addresses these two areas in particular. It proposes a novel and comprehensive trust framework for Multi-Organization Environments. Our approach is organized in four parts. First, we propose a vector based model approach for defining trust vectors. These vectors evaluate a set of requirements, under conditions, and provide a degree of confidence. In our approach, we consider two different types of vectors. On the one hand, a vector that links a user to an organization and, on the other hand, a vector that links two organizations. We also show how these vectors are evaluated and shared among the different organizations, and how we combine the provided trust information in order to enhance the security. Second, the TRUST-OrBAC model was designed to add the previous trust approach to the ORBAC model. Moreover, this solution was applied with a real collaboration network between companies. Third, we present a trust ontology methodology based on access control concepts. This ontology will be used to share the trust beliefs between participants and to make equivalence between their trust objectives. How to define this trust relationship, how to understand the trust objective of a requester, and how to evaluate the recommendation value is addressed in this thesis. Fourth, we improve our work by designing a passive testing approach in order to evaluate the behavior of a user. This contribution is based on the monitoring tool MMT. Finally the entire architecture of our system is proposed
|
10 |
La mobilité sociale : Modèles et tracesCostantini, Hervé 18 October 2012 (has links) (PDF)
L'avenir de la communication est perçu comme étant quasiment exclusivement constitué de nœuds mobiles évoluant dans un réseau mobile. Dans ce contexte, différentes approches contribuent continuellement à l'amélioration directe ou indirecte des délais d'acheminement des informations échangées entre les utilisateurs, dont :- l'analyse des traces;- l'évaluation des performances ;- les services de localisation;- le routage. Nous décrivons chacun de ses thèmes et proposons des solutions faisant évoluer l'état de l'art. Celles-ci prennent appui sur des méthodes et outils tels que :- les Réseaux de Petri, pour l'analyse des traces ;- les modèles de mobilité, pour l'évaluation des performances;- l'introduction du social dans les services de localisation;- la mise en place d'une nouvelle métrique pour le routage. Nous montrons comment ces solutions concourent de façon complémentaire les unes avec les autres, à améliorer l'expérience de l'utilisateur.
|
Page generated in 0.0681 seconds