• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 150
  • 69
  • 17
  • 6
  • 2
  • 1
  • Tagged with
  • 244
  • 108
  • 49
  • 41
  • 20
  • 20
  • 20
  • 20
  • 18
  • 17
  • 16
  • 15
  • 15
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Développement d'un cadre méthodologique pour l'évaluation de l'équivalence écologique : Application dans le contexte de la séquence "Éviter, Réduire, Compenser" en France / Development of a methodological framework to assess ecological equivalence : application in the context of the mitigation hierarchy in France

Bezombes, Lucie 07 December 2017 (has links)
Face à l’érosion mondiale de la biodiversité causée par les activités humaines, la compensation écologique, et plus largement la séquence « Eviter Réduire Compenser » (ERC), s’est développée depuis les années 1970, avec l’ambition de concilier développement au niveau des projets d’aménagement et préservation de la biodiversité. L’objectif de cette séquence est d’atteindre « zéro perte nette » (No net Loss, NNL) de biodiversité. Un des enjeux clé pour y arriver consiste à démontrer l’équivalence écologique entre les gains apportés par la compensation et les pertes occasionnées par les impacts. Malgré les avancées règlementaires, le cadre français n’inclut pas de méthode à suivre pour déterminer l’équivalence et aucune n’est unanimement reconnue. Cela amène à des pratiques hétérogènes et une difficulté d’atteindre le NNL. Dans ce contexte, ces travaux de thèse visent à développer un cadre méthodologique standardisé (CMS) d’évaluation de l’équivalence, combinant à la fois opérationnalité, bases scientifiques et exhaustivité (prise en compte des quatre dimensions de l’équivalence : écologique, spatiale, temporelle et les incertitudes). Dans un premier temps, 13 méthodes utilisées à l’étranger sont analysées afin d’identifier des éléments structurant pour le développement du CMS adapté au contexte français. La construction du CMS est décomposée en trois étapes. La première consiste à sélectionner un lot organisé d’indicateurs sur lesquels baser l’évaluation de l’équivalence, permettant de répondre aux exigences règlementaires et reflétant la complexité de la biodiversité : évaluation à deux échelles spatiales (sur le site et dans un périmètre élargi) et à trois niveaux d’enjeu (général, habitat ou espèce). La deuxième étape porte sur la prédiction de l’évolution dans le temps des valeurs initiales des indicateurs, sous l’effet des impacts et de la compensation, en prenant en compte les incertitudes associées. La troisième étape conduit à la détermination de règles de calcul des pertes et des gains aboutissant à l’évaluation globale de l’équivalence. Le CMS ainsi construit est ensuite testé sur deux sites d’étude afin d’en démontrer la plus-value et d’en éprouver les limites. Des perspectives d’amélioration du CMS, et plus largement de l’évaluation de l’équivalence sont dégagées. En dernier lieu, l’ensemble de ces éléments nous permettent de questionner l’efficacité de la compensation écologique pour lutter contre l’érosion de la biodiversité. / In light of the global erosion of biodiversity caused by human activities, biodiversity offsets and, more broadly the Mitigation Hierarchy, are increasingly used since the 1970s, with the ambition of reconciling economic development and biodiversity conservation. Its objective is to achieve "No Net Loss" (NNL) of biodiversity. One of the key issues to achieve this goal is to demonstrate ecological equivalence between the gains from offsets and the losses caused by impacts. Despite regulatory improvements, the French law does not include a method for assessing equivalence, and no method is unanimously recognized. This leads to heterogeneous practices and difficulties in reaching the NNL objective. In this context, this thesis aims to develop a standardized methodological framework (SMF) for assessing equivalence, which combines operationality, scientific basis and comprehensiveness (taking into account the four dimensions of equivalence: ecological, spatial, temporal and uncertainties). First, 13 methods used abroad are analysed in order to identify structural elements for the development of a SMF adapted to the French context. The construction is decomposed into three steps. The first consists in selecting an organized set of indicators, on which equivalence assessment should be based in order to meet legislative requirements and reflect the complexity of biodiversity. The assessment is to be done at two spatial scales (on-site and within an expanded perimeter) and at three levels reflecting general or specific issues (habitat or species). The second step regards the prediction of the values of the indicators over time, consequently to the impacts and offsets, taking into account the implied uncertainties. The third step leads us to establish rules for calculating losses and gains, as well as for the overall assessment of equivalence. Finally, this SMF is tested on two study sites in order to demonstrate the added value and to identify its limits. Prospects for improving the SMF, and more broadly the evaluation of equivalence, are then suggested. Finally, all these elements make it possible to question the effectiveness of offsets in order to tackle biodiversity erosion.
102

Study of circular code motifs in nucleic acid sequences / Étude des motifs de code circulaire dans les séquences d'acides nucléiques

El Soufi, Karim 24 January 2017 (has links)
Le travail effectué dans cette thèse présente une nouvelle approche de la théorie du code circulaire dans les gènes qui a été initiée en 1996. Cette approche consiste à analyser les motifs construits à partir de ce code circulaire, ces motifs particuliers sont appelés motifs de code circulaire. Ainsi, nous avons développé des algorithmes de recherche pour localiser les motifs de code circulaire dans les séquences d'acides nucléiques afin de leur trouver une signification bioinformatique. En effet, le code circulaire X identifie dans les gènes est un ensemble de trinucleotides qui a la propriété de retrouver, synchroniser et maintenir la phase de lecture. Nous avons commencé notre analyse avec le centre de décodage du ribosome (ARNr) qui est une région majeure dans le processus de traduction des gènes aux protéines. Puis, nous avons étendu les résultats obtenus avec le ribosome aux ARN de transfert (ARNt) pour étudier les interactions ARNr-ARNt. Enfin, nous avons généralisé la recherche de motifs de code circulaire X dans l'ADN aux chromosomes d'eucaryotes complets. / The work done in this thesis presents a new direction for circular code identified in 1996 by analysing the motifs constructed from circular code. These particular motifs are called circular code motifs. We applied search algorithms to locate circular code motifs in nucleic acid sequences in order to find biological significance. In fact, the circular code X, which was found in gene sequences, is a set of trinucleotides that have the property of reading frame retrieval, synchronization and maintenance. We started our study in the ribosomal decoding centre (rRNA), an important region involved in the process of translating genes into proteins. Afterwards, we expanded our scope to study the interaction of rRNA through the X circular code. Finally, we search for the X circular code motifs in the complete DNA sequences of chromosomes of the eukaryotic genomes. This study introduced new properties to the circular code theory.
103

Approche expérimentale et numérique de la rupture des assemblages collés de composites stratifiés / Experimental and numerical study of the strength of adhesively bonded composite laminates

Satthumnuwong, Purimpat 12 December 2011 (has links)
L’assemblage des matériaux composites par collage présente des avantages incontestés par rapport à d’autres méthodes telles que le boulonnage ou le rivetage. Cependant, la principale difficulté que rencontrent les concepteurs est celle de la prévision du niveau et du mode de rupture de ces collages. Dans le cas des composites stratifiés, un des facteurs influents sur le comportement des joints collés est la séquence d'empilement, mais les travaux présentés dans la littérature ne séparent pas les effets globaux (modification des rigidités de membrane et de flexion) et les effets locaux (orientation des plis au contact de la colle). La présente étude s'intéresse à la caractérisation de ces effets dans le cas de joints de type simple recouvrement de stratifiés carbone/epoxy. Pour isoler les effets locaux, des séquences d'empilement spécifiques quasi isotropes quasi homogènes sont utilisées. A propriétés de raideur globale égales, des différences de résistance de plus de 30% sont observées selon les séquences considérées. Les essais réalisés avec un stratifié symétrique anisotrope en flexion montrent également que la raideur en flexion joue un rôle important dans le comportement des joints. Les modèles analytiques utilisés prédisent les effets globaux avec une bonne précision mais sont inappropriés lorsque des phénomènes locaux se produisent. Une approche par éléments finis permet de prendre en compte ces phénomènes, en modélisant explicitement les plis au contact de la colle et en rendant possible le décollement interlaminaire de ces plis à l'aide d'un modèle de zone cohésive. Cette modélisation est mise en œuvre pour réaliser une étude paramétrique de la géométrie du joint et pour produire une enveloppe de rupture en fonction de la direction de sollicitation. / Adhesive bonding of composite materials has undeniable advantages over other methods such as bolting or riveting. However, one of the difficulties encountered by designers is the prediction of the failure level and failure mode of these adhesively bonded assemblies. In the case of composite laminates, one of the factors acting on the bonded joint behaviour is the stacking sequence, but works presented in the literature do not separate global effects (membrane and bending stiffness modification) and local effect (ply orientation near the adhesive layer). This study deals with the characterization of such effects in the case of single lap joints of carbon/epoxy laminates. In order to isolate the local effects, specific quasi isotropic quasi homogeneous stacking sequences are used. When stiffness properties are maintained constant, strength variations of more than 30 % are observed. Tests performed with a symmetric laminate with bending anisotropy show that the bending stiffness plays also an important role in the joint behaviour. Closed form models are able to predict global effects with a good accuracy but are inappropriate when local effects occur. The use of finite element models can account for these phenomena, by explicitly modelling the laminate plies near the adhesive layer and introducing delamination between these plies with a cohesive zone model. This model is used to perform a parametric study of the joint geometry and to produce a failure envelope according to the orientation of the loading.
104

De l'intérêt des modèles grammaticaux pour la reconnaissance de motifs dans les séquences génomiques / Interest of grammatical models for pattern matching in genomic sequences

Antoine-Lorquin, Aymeric 01 December 2016 (has links)
Cette thèse en bioinformatique étudie l'intérêt de rechercher des motifs dans des séquences génomiques à l'aide de grammaires. Depuis les années 80, à l'initiative notamment de David Searls, des travaux ont montré qu'en théorie, des grammaires de haut niveau offrent suffisamment d'expressivité pour permettre la description de motifs biologiques complexes, notamment par le biais d'une nouvelle classe de grammaire dédiée à la biologie : les grammaires à variables de chaîne (SVG, String Variable Grammar). Ce formalisme a donné lieu à Logol, qui est un langage grammatical et un outil d'analyse développé dans l'équipe Dyliss où a lieu cette thèse. Logol est un langage conçu pour être suffisamment flexible pour se plier à une large gamme de motifs qu'il est possible de rencontrer en biologie. Le fait que les grammaires restent inutilisée pour la reconnaissance de motifs pose question. Le formalisme grammatical est-il vraiment pertinent pour modéliser des motifs biologiques ? Cette thèse tente de répondre à cette question à travers une démarche exploratoire. Ainsi, nous étudions la pertinence d'utiliser les modèles grammaticaux, via Logol, sur six applications différentes de reconnaissance de motifs sur des génomes. Au travers de la résolution concrète de problématiques biologiques, nous avons mis en évidence certaines caractéristiques des modèles grammaticaux. Une de leurs limites est que leur utilisation présente un coût en termes de performance. Un de leurs atouts est que leur expressivité couvre un large spectre des motifs biologiques, contrairement aux méthodes alternatives, et d'ailleurs certains motifs modélisés par les grammaires n'ont pas d'autres alternatives existantes. Il s'avère en particulier que pour certains motifs complexes, tels que ceux alliant séquence et structure, l'approche grammaticale est la plus adaptée. Pour finir, l'une des conclusions de cette thèse est qu'il n'y a pas réellement de compétition entre les différentes approches, mais plutôt qu'il y a tout à gagner d'une coopération fructueuse. / This thesis studies the interest to look for patterns in genomic sequences using grammars. Since the 80s, work has shown that, in theory, high level grammars offer enough expressivity to allow the description of complex biological patterns. In particular David Searls has proposed a new grammar dedicated to biology: string variable grammar (SVG). This formalism has resulted in Logol, a grammatical language and an analysis tool developed by Dyliss team where this thesis is taking place. Logol is a language designed to be flexible enough to express a wide range of biological patterns. The fact that the grammars remain unknown to model biological patterns raises questions. Is the grammatical formalism really relevant to the recognition of biological patterns? This thesis attempts to answer this question through an exploratory approach. We study the relevance of using the grammatical patterns, by using Logol on six different applications of genomic pattern matching. Through the practical resolution of biological problems, we have highlighted some features of grammatical patterns. First, the use of grammatical models presents a cost in terms of performance. Second the expressiveness of grammatical models covers a broad spectrum of biological patterns, unlike the others alternatives, and some patterns modeled by grammars have no other alternative solutions. It also turns out that for some complex patterns, such as those combining sequence and structure, the grammatical approach is the most suitable. Finally, a thesis conclusion is that there was no real competition between different approaches, but rather everything to gain from successful cooperation.
105

Vérification de réseaux de Pétri avec états sous une sémantique d'ordres partiels / Checking Petri nets with states with a partial order semantics

Avellaneda, Florent 10 December 2013 (has links)
Les MSG (pour « Message Sequence Graphs ») sont un formalisme bien connu et souvent utilisé pour décrire des ensembles de scénarios de manière visuelle dans le domaine des protocoles de communication. Nous nous intéressons dans la première partie de la thèse à la détection de la divergence, la vérification de la coopération globale ainsi que la vérification de propriétés d’accessibilité et de couverture. Notre première contribution consiste à utiliser des solveurs SAT afin de résoudre ces problèmes efficacement. Afin de munir le formalisme des MSG de compteurs, de timers et d’autres aspects, nous introduisons le modèle des PNS (pour « réseaux de Petri avec états ») et une sémantique de processus non-branchants. Ce modèle est non seulement plus expressif que les MSG, mais il permet également des spécifications plus concises. Nous nous intéressons à trois problèmes de vérification classiques sur l’ensemble des marquages accessibles par les préfixes des processus : le caractère borné, la couverture et l’accessibilité. Afin de considérer des systèmes paramétrés, nous introduisons également la notion de borne semi-structurelle. Cela consiste à fixer le marquage initial d’un sous-ensemble approprié de places, puis à vérifier que le système est borné, quelles que soient les valeurs des paramètres. Nous montrons comment un dépliage conduit à un problème plus simple à vérifier. Une caractéristique particulièrement attrayante des MSG et des PNS réside dans leur représentation graphique similaire à un automate. Il est donc intéressant de décrire les bugs de manière visuelle. Nous montrons comment calculer en temps polynomial une représentation simple et concise d’un bug. / Message Sequence Charts (MSCs) are a popular model often used for the docu- mentation of telecommunication protocols. In the first part of the thesis, we focus on detecting process divergence, checking global-cooperation and checking reachability properties. Our first contribution is to use SAT solvers to solve these problems effectively. In order to study MSC specifications with counters, timers and other features, we introduce the model of Petri nets with states together with a non-branching non-sequential process seman- tics. We obtain a framework that is more expressive and more concise than MSGs. We consider then three classical verification problems for the set of markings reached by prefixes of processes : boundedness, covering and reachability. We consider also the notion of semi-structural property in order to study parametrized sys- tems. In this way, only part of the places are provided with an initial marking. Unfolding such a system leads to a simpler problem in the form of a linear programme. A particularly attractive feature of MSG and PNS lies in their graphical representation similar to an automaton. So, it is interesting to describe the bugs visually. We show how to compute in polynomial time a simple and concise representation of a bug.
106

Suivi d’objets dans des séquences d’images de scènes déformables : de l’importance des points d’intérêt et du maillage 2D / Objects tracking in video of non rigid scenes : importance of interest points and 2D mesh

Parisot, Pascaline 23 January 2009 (has links)
Nous abordons le suivi d’objets dans des séquences d’images de scènes déformables selon deux axes de recherche. Il s’agit de déterminer les transformations d’un objet, d’une image à l’autre, lorsque celui-ci s’est éventuellement déformé ou déplacé et lorsque le point de vue de la caméra a éventuellement été modifié (déplacement, zoom...). Pour cela, nous nous sommes inspirés de l’algorithme de Jurie et Dhome qui permet de suivre un objet plan indéformable. D’une part, nous en améliorons les performances. D’autre part, nous le généralisons au cas d’objets déformables. Le premier axe de recherche consiste à améliorer les performances de l’algorithme de Jurie et Dhome en termes de précision et robustesse. Le suivi s’appuie sur un ensemble de points d’intérêt, dont dépendent fortement les performances. Ces points d’intérêt sont issus d’une sélection des points obtenus par des détecteurs reconnus, à savoir SIFT, KLT, SUSAN, HARRIS et MORAVEC. Nous avons étudié et mis en oeuvre, sur différentes classes d’images, des heuristiques de sélection fondées sur des approches statistique et algébrique. Nous montrons : – qu’il n’existe pas de détecteur universel, – que l’approche statistique est à privilégier dans tous les cas. Le second axe de recherche est une proposition d’un nouvel algorithme de suivi s’appuyant sur le maillage 2D des images de la séquence. Cet algorithme généralise celui de Jurie et Dhome aux scènes déformables. Il repose sur : – des transformations élémentaires (nodales) du maillage, directes et inverses, que nous avons caractérisées tant d’un point de vue géométrique qu’analytique, – l’utilisation des coordonnées barycentriques généralisées pour approcher la composition de deux transformations d’un maillage. Cet algorithme donne des résultats similaires à celui d’appariement hexagonal de Nakaya et Harashima tout en étant plus rapide. / We deal with object tracking in videos of non-rigid scenes with two main purposes. We aim at determining the transformations of an object, from one frame to the next, when it may be distorted or moved and when the camera focus may change (movement, zoom...). To do this, we were inspired by the Jurie and Dhome algorithm, which enables the tracking of plane rigid objects. On the one hand, we improve its performance. On the other hand, we generalize it to non-rigid objects. The first goal consists in improving the performance of the Jurie and Dhome algorithm, in terms of accuracy and robustness. The tracking is based on a set of interest points, which has a great effect on the algorithm’s performance. These interest points come from a selection among the points extracted with some common detectors: SIFT, KLT, SUSAN, HARRIS, and MORAVEC.With various pictures classes, we have studied and implemented some selection heuristics based on statistical or algebraic approaches. We show that : • there is no universal detector, • the statistical approach is the best in all cases. The second goal is a proposal of a new tracking algorithm based on a 2D mesh of the video frames. This algorithm generalizes the Jurie and Dhome one for non-rigid scenes. It is based on : • elementary (nodal), direct or inverse, mesh transformations that we geometrically and analytically characterize, • generalized barycentric coordinates to approximate the composition of two mesh transformations. This algorithm gives similar results to the hexagonal matching algorithm of Nakaya and Harashima while being faster.
107

Dynamique et stabilité du nucléosome / Nucleosome dynamics and stability

Elbahnsi, Ahmad 10 January 2017 (has links)
Le nucléosome est l’unité élémentaire de la compaction de l’ADN dans les cellules eucaryotes. C’est un complexe composé par un long segment d’ADN enroulé 1.7 fois en super-hélice autour d’un cœur de huit protéines histones. Les nucléosomes contrôlent l’accessibilité de l'ADN en s'associant et se dissociant le long des génomes et, ce faisant, sont directement impliqués dans la plupart des processus nucléaires. Le but principal de ce travail a été de décrire l'interface ADN-histones en solution pour mieux comprendre la stabilité du nucléosome. Nous avons voulu savoir en particulier comment l'ADN est maintenu enroulé autour du cœur d'histone et comment la séquence de l'ADN pourrait éventuellement affecter l'interface ADN-histones. Plusieurs nucléosomes ont été étudiés par dynamique moléculaire en solvant explicite ; ils diffèrent par la taille des queues d'histone et par les séquences d'ADN qui les forment. Pour garantir une analyse objective de la topologie de l’interface ADN-histones, une méthode basée sur les pavages de Delaunay-Laguerre originellement dédiée aux protéines a été adaptée aux acides nucléiques. Nous montrons ainsi que l'interface ADN-histones est constituée d'un réseau d'interaction très dense, caractérisé par des aires de contact électrostatique et hydrophobe équivalentes. Les queues d'histone renforcent significativement l'interface. Le comportement dynamique des arginines des cœurs structurés et des queues d'histone qui interagissent avec les petits sillons de l'ADN a été examiné en détail. Les cations écrantent les répulsions entre les hélices d'ADN juxtaposées l'une au dessus de l'autre du fait de l'enroulement en super-hélice. Enfin, l’interface ADN-histones est globalement retrouvée dans les nucléosomes formés avec des séquences d’ADN défavorables au nucléosome. Ceci suggère qu'une fois le nucléosome formé, il n'y a pas d'effet décisif de la séquence de l'ADN sur l'interface. / The nucleosome is the fundamental unit of DNA compaction in eukaryotic cells. It consists in a long DNA segment (145-147 bp) wrapped in 1.7 left-handed superhelix turns around a histone octamer. Nucleosomes control the DNA accessibility by assembling and disassembling along the genomes and are therefore involved in most nuclear processes.The main aim of the thesis was to describe the DNA-histone interface in solution to better understand the nucleosome stability. We examined in particular how the DNA is maintained wrapped around the histone and how its sequence affects the DNA-histone interface. Several nucleosomes were studied using molecular dynamics in explicit solvent ; they differed by the tail length and the DNA sequences. To ensure an objective analysis of the topology of the DNA-histone interface, a method based on Delaunay-Laguerre tessellations, originally developed for proteins, was adapted to nucleic acids.Our results show that the DNA-histone interface is composed by a dense network of interactions, characterized by equivalent electrostatic and hydrophobic contact area. The histone tails significantly reinforce the interface. The behavior of arginines belonging to the histone structured cores or tails and that interact with the DNA minor groove was scrutinized in detail. Cations shield the repulsive interactions between the two DNA gyres, closely juxtaposed one above the other because of the superhelix wrapping. Finally, the DNA-histone interface is globally not affected in nucleosomes containing DNA sequences known to disfavor nucleosomes. This suggests that, once the nucleosome established, there is no significant effect of the DNA sequence on the interface.
108

Formalization of Neural Network Applications to Secure 3D Mobile Applications / Formalisation et applications des réseaux de neurones à la sécurisation d'applications mobiles 3D

Irolla, Paul 19 December 2018 (has links)
Ce travail de thèse fait partie du projet 3D NeuroSecure. C'est un projet d'investissement d'avenir, qui vise à développer une solution de collaboration sécurisée pour l'innovation thérapeutique appliquant les traitements de haute performance (HPC) au monde biomédical. Cette solution donnera la possibilité pour les experts de différents domaines de naviguer intuitivement dans l'imagerie Big Data avec un accès via des terminaux mobile. La protection des données contre les fuites de données est primordiale. En tant que tel, l'environnement client et les communications avec le serveur doivent être sécurisé. Nous avons concentré notre travail sur le développement d'une solution antivirale sur le système d'exploitation Android. Nous avons promu la création de nouveaux algorithmes, méthodes et outils qui apportent des avantages par rapport à état de l'art, mais plus important encore, qui peuvent être utilisés efficacement dans un contexte de production. C'est pourquoi, ce qui est proposé ici est souvent un compromis entre ce qui peut théoriquement être fait et son applicabilité. Les choix algorithmiques et technologiques sont motivés par une relation entre efficacité et performance. Cette thèse contribue à l'état de l'art dans les domaines suivants:Analyse statique et dynamique d'applications Android, web crawling d'application.Tout d'abord, pour rechercher des fonctions malveillantes et des vulnérabilités, il faut concevoir les outils qui extraient des informations pertinentes des applications Android. C'est la base de toute analyse. En outre, tout algorithme de classification est toujours limité par la qualité discriminative des données sous-jacentes. Une partie importante de cette thèse est la la conception d'outils d'analyse statique et dynamique efficientes, telles qu'un module de reverse engineering, un outil d'analyse de communication, un système Android instrumenté.Algorithme d'initialisation, d'apprentissage et d'anti-saturation pour réseau de neurones.Les réseaux de neurones sont initialisés au hasard. Il est possible de contrôler la distribution aléatoire sous-jacente afin de réduire l'effet de saturation, le temps de l'entrainement et la capacité à atteindre le minimum global. Nous avons développé une procédure d’initialisation qui améliore les résultats par rapport à l'état del'art. Nous avons aussi adapté l'algorithme ADAM pour prendre en compte les interdépendances avec des techniques de régularisation, en particulier le Dropout. Enfin, nous utilisons techniques d'anti-saturation et nous montrons qu'elles sont nécessaires pour entraîner correctement un réseau neuronal.Un algorithme pour représenter les sous-séquences communes à un groupe de séquences.Nous proposons un nouvel algorithme pour construire l'AntichaineEnglobante des sous-séquences communes. Il est capable de traiter et de représenter toutes les sous-séquences d'un ensemble de séquences. C'estun outil qui permet de caractériser de manière systématique un groupe de séquence. Cet algorithme est une nouvelle voie de recherche verscréation automatique de règles de détection de famille de virus. / This thesis work is part of the 3D NeuroSecure project. It is an investment project, that aims to develop a secure collaborative solution for therapeutic innovation using high performance processing(HPC) technology to the biomedical world. This solution will give the opportunity for experts from different fields to navigate intuitivelyin the Big Data imaging with access via 3D light terminals. Biomedicaldata protection against data leaks is of foremost importance. As such,the client environnement and communications with the server must besecured. We focused our work on the development of antimalware solutionon the Android OS. We emphasizes the creation of new algorithms,methods and tools that carry advantages over the current state-of-the-art, but more importantly that can be used effectively ina production context. It is why, what is proposed here is often acompromise between what theoretically can be done and its applicability. Algorithmic and technological choices are motivated by arelation of efficiency and performance results. This thesis contributes to the state of the art in the following areas:Static and dynamic analysis of Android applications, application web crawling.First, to search for malicious activities and vulnerabilities, oneneeds to design the tools that extract pertinent information from Android applications. It is the basis of any analysis. Furthermore,any classifier or detector is always limited by the informative power of underlying data. An important part of this thesis is the designing of efficient static and dynamic analysis tools forapplications, such as an reverse engineering module, a networkcommunication analysis tool, an instrumented Android system, an application web crawlers etc.Neural Network initialization, training and anti-saturation techniques algorithm.Neural Networks are randomly initialized. It is possible to control the underlying random distribution in order to the reduce the saturation effect, the training time and the capacity to reach theglobal minimum. We developed an initialization procedure that enhances the results compared to the state-of-the-art. We also revisited ADAM algorithm to take into account interdependencies with regularization techniques, in particular Dropout. Last, we use anti-saturation techniques and we show that they are required tocorrectly train a neural network.An algorithm for collecting the common sequences in a sequence group.We propose a new algorithm for building the Embedding Antichain fromthe set of common subsequences. It is able to process and represent allcommon subsequences of a sequence set. It is a tool for solving the Systematic Characterization of Sequence Groups. This algorithm is a newpath of research toward the automatic creation of malware familydetection rules.
109

Analyse stratégique du taxage chez les adolescents

Bouvier, François January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
110

Automatisation des étapes informatiques du séquençage d'un génome d'organite et utilisation de l'ordre des gènes pour analyses phylogénétiques

Charlebois, Patrick 13 April 2018 (has links)
"Une très grande quantité de données est présentement générée par le séquençage de génomes et doit être analysée à l'aide d'outils informatiques. Il est donc nécessaire de développer certains programmes permettant de faire les analyses désirées et d'automatiser les tâches informatiques redondantes pour accélérer le processus d'analyse des génomes. Les données de séquençage obtenues se doivent également d'être classées efficacement et d'être facilement accessibles, de même que les outils informatiques nécessaires à leur analyse. Une base de données a donc été développée, ainsi qu'un site Web permettant de la consulter et d'utiliser les divers programmes requis. Finalement, des analyses phylogénétiques sont couramment effectuées sur les génomes séquences. Toutefois, peu d'outils permettent d'utiliser l'ordre de gènes de ces génomes à cette fin. Un programme permettant de déterminer les blocs de gènes conservés entre différents génomes et d'utiliser les paires de gènes communes pour construire des arbres phylogénétiques a donc été développé."

Page generated in 0.0698 seconds