• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 69
  • 25
  • 13
  • 1
  • 1
  • Tagged with
  • 107
  • 56
  • 22
  • 20
  • 15
  • 12
  • 11
  • 11
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Mécanismes de traitement des données dans les réseaux de capteurs sans fils dans les cas d'accès intermittent à la station de base / Data Management in Wireless Sensor Networks with Intermittent Sink Access

Dini, Cosmin 21 December 2010 (has links)
Les réseaux des capteurs sans fil sont considérés comme une alternative aux réseaux câblés afin de permettre l'installation dans des zones peu accessibles. Par conséquent, de nouveaux protocoles ont été conçus pour supporter le manque des ressources qui est spécifique à ce type de réseau. La communication entre les nœuds est réalisée par des protocoles spécifiques pour la gestion efficace de l'énergie. La gestion des données collectées par ces nœuds doit être également prise en compte car la communication entre les nœuds engendre un coût non négligeable en termes d'énergie. De plus, l'installation de ce type de réseau dans des régions lointaines facilite les attaques sur la structure des réseaux ainsi que sur les données collectées. Les mesures de sécurité envisagées amènent des coûts d'énergie supplémentaires. Un aspect souvent négligé concerne le cas où un nœud ne peut pas communiquer avec la station de base (sink node) qui collectionne et traite les données. Cependant, les nœuds continuent à accumuler des informations en suivant les plans de collection. Si la situation continue, l'espace de mémoire (storage) diminue à un point où la collection de nouvelles données n'est plus possible.Nous proposons des mécanismes pour la réduction contrôlée de données en considérant leur priorité relative. Les données sont divisées dans des unités auxquelles un niveau d'importance est alloué, en fonction des considérations d'utilité et de missions qui les utilisent. Nous proposons un ensemble de primitives (opérations) qui permettent la réduction d'espace de stockage nécessaire, tout en préservant un niveau raisonnable de résolution des informations collectées. Pour les larges réseaux à multiple nœuds, nous proposons des mécanismes pour le partage de données (data load sharing) ainsi que la redondance. Des algorithmes ont été proposés pour évaluer l'efficacité de ces techniques de gestion de données vis-à-vis de l'énergie nécessaire pour transférer les données.A travers des simulations, nous avons validé le fait que les résultats sont très utiles dans les cas à mémoire limitée (wireless nades) et pour les communications intermittentes. / Wireless Sensor Networks have evolved as an alternative to wired networks fit for quick deployments in areas with limited access. New protocols have been deviees to deal with the inherent scarcity of resources that characterizes such netvorks. Energy efficient network protocols are used for communication between nades. Data collected by wireless nades is transmitted at an energy cost and therefore carefully managed. The remote deployment of wireless networks opens the possibility of malicious attacks on the data and on the infrastructure itself. Security measures have also been devised, but they come at an energy cost. One item that has received little attention is the situation of the data sink becoming unreachable. The nodes still collect data as instructed and accumulate it. Under prolonged unavailability of the sink node, the storage space on sensor nades is used up and collecting new data is no longer feasible. Our proposal for a prioritized data reduction alleviates this problem. The collected data is divided into data units who are assigned an importance level calculated in agreement with the business case. We have proposed data reduction primitive operations that reduce the needed space while only losing a limited amount of data resolution. A multi-node deployment opens the possibility for data load sharing between the nodes as well as redundancy. Algorithms were proposed to evaluate the potential gain ofthese approaches in relation to the amount of energy spent for data transfer. The proposed approach works well in coping with fixed size data storage by trimming the low interest data in a manner that data is still usable.
52

Détection de Changement en Imagerie Radar

Hochard, Guillaume 10 March 2011 (has links) (PDF)
L'exploitation en série temporelle d'un large volume d'images radar se heurte au problème de la sélection de couples d'images pertinents, permettant une estimation de bonne qualité du signal de déformation. La qualité d'un couple interférométrique et des mesures différentielles associées (recalage, phase interférométrique) peut être déterminée a priori par le modèle de cohérence de [Zebker et Villasenor, 1992]. En pratique, la confrontation de ce modèle à des observations réelles est difficile par variabilité temporelle des scènes. Dans un premier temps, nous qualifions le modèle de cohérence sur 82 images ERS-1/2 acquises entre 1992 et 2002. La confrontation de ce modèle à des mesures expérimentales sur une zone cohérente temporellement stable (barrage de Serre-Ponçon, Hautes-Alpes) met en évidence des pertes de cohérence dues à un recalage imprécis, demandant une méthode d'estimation de la cohérence adaptée. Dans un second temps, nous proposons une stratégie de sélection de couples adaptée au recalage global de cette série temporelle afin d'améliorer l'estimation de la cohérence. Nous exprimons la distance entre images à l'aide d'une conorme triangulaire, utilisée pour sélectionner le meilleur jeu de couples via un arbre de recouvrement minimal, tel que l'ont proposé [Refice et al., 2006]. Nous caractérisons les limites de cette approche et proposons des solutions nouvelles basées sur deux méthodes originales de sélection de couples intégrant de la redondance. L'apport de ces méthodes est démontré par simulation et sur des données ERS, en mettant en évidence le compromis existant entre le nombre de couples traités et la qualité du résultat global obtenu.
53

Diagnostic des systèmes aéronautiques et réglage automatique pour la comparaison de méthodes

Marzat, Julien 04 November 2011 (has links) (PDF)
Les travaux présentés dans ce mémoire contribuent à la définition de méthodes pour la détection et le diagnostic de défauts affectant les systèmes aéronautiques. Un système représentatif sert de support d'étude, constitué du modèle non linéaire à six degrés de liberté d'un missile intercepteur, de ses capteurs et actionneurs ainsi que d'une boucle de guidage-pilotage. La première partie est consacrée au développement de deux méthodes de diagnostic exploitant l'information de commande en boucle fermée et les caractéristiques des modèles aéronautiques. La première méthode utilise les objectifs de commande induits par les lois de guidage-pilotage pour générer des résidus indiquant la présence de défauts. Ceci permet la détection des défauts sur les actionneurs et les capteurs, ainsi que leur localisation pour ces derniers. La deuxième méthode exploite la mesure de dérivées des variables d'état (via une centrale inertielle) pour estimer la valeur de la commande réalisée par les actionneurs, sans intégration du modèle non linéaire du système. Le diagnostic est alors effectué en comparant cette estimée avec la valeur désirée, ce qui permet la détection, la localisation et l'identification de défauts multiples sur les actionneurs.La seconde partie propose une méthodologie de réglage automatique des paramètres internes (les hyperparamètres) de méthodes de diagnostic. Ceci permet une comparaison plus objective entre les méthodes en évaluant la meilleure performance de chacune. Le réglage est vu comme un problème d'optimisation globale, la fonction à optimiser étant calculée via la simulation numérique (potentiellement coûteuse) de cas test. La méthodologie proposée est fondée sur un métamodèle de krigeage et une procédure itérative d'optimisation bayésienne, qui permettent d'aborder ce problème à faible coût de calcul. Un nouvel algorithme est proposé afin d'optimiser les hyperparamètres d'une façon robuste vis à vis de la variabilité des cas test pertinents.Mots clés : détection et diagnostic de défauts, guidage-pilotage, krigeage, minimax continu, optimisation globale, redondance analytique, réglage automatique, systèmes aéronautiques.
54

Décompositions en ondelettes redondantes pour le codage par descriptions multiples des images fixes et des séquences vidéo

Petrisor, Claudia Teodora 28 September 2009 (has links) (PDF)
L'utilisation croissante des réseaux à perte de paquets pour la transmission multimédia est placée sous le signe de la fiabilité des données sous contraintes de débit. L'objectif de cette thèse est de construire des représentations dites par "descriptions multiples", à faible redondance, pour compenser la perte d'information sur les canaux de transmission. Nous avons considéré des schémas basées sur des trames d'ondelettes, implantées en "lifting". Dans un premier temps, nous avons considéré la construction de deux descriptions selon l'axe temporel d'un codeur vidéo "t+2D". La redondance introduite par transformée a été ultérieurement réduite par un sous-échantillonnage supplémentaire appliqué aux sous-bandes de détail. Cela permet d'ajuster la redondance à la taille d'une sous-bande d'approximation en ondelettes classiques. Ceci rajoute en revanche un problème de reconstruction parfaite que nous avons étudié en détail. En outre, nous avons établi des critères de choix entre les plusieurs schémas possibles, basés sur la réduction du bruit de quantification. Ensuite, les méthodes ci-dessus ont été adaptées pour le signal bi-dimensionnel (images). Nous avons aussi proposé un post-traitement aux décodeurs, visant à améliorer la qualité de la reconstruction en situation de pertes. Enfin, nous avons abordé le sujet sous un nouvel angle, inspiré de la nouvelle théorie du "Compressed Sensing", en cherchant d'obtenir le débit optimal qui satisfait une contrainte de distorsion maximum autorisée et en exploitant le caractère creux du signal. Cette approche se distingue par le transfert de complexité à l'encodeur en gardant des décodeurs linéaires.
55

Tolérance active aux fautes des systèmes d'instrumentation

Dumont, Pierre-Emmanuel Bayart, Mireille Aitouche, Abdelwahab. January 2007 (has links)
Reproduction de : Thèse de doctorat : Automatique et Informatique industrielle : Lille 1 : 2006. / N° d'ordre (Lille 1) : 3895. Résumé en français et en anglais. Titre provenant de la page de titre du document numérisé. Bibliogr. p. 133-143.
56

Redundancy gain : manifestations, causes and predictions

Engmann, Sonja 04 1900 (has links)
Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante. / Response times in a visual object recognition task decrease significantly if targets can be distinguished by two redundant attributes. Redundancy gain for two attributes is a common finding, but redundancy gain from three attributes has been found only for stimuli from three different modalities (tactile, auditory, and visual). This study extends those results by showing that redundancy gain from three attributes within the visual modality is possible. It also provides a more detailed investigation of the characteristics of redundancy gain. Apart from a decrease in response times for redundant targets, these include a decrease in minimal response times and an increase in symmetry of the response time distribution. This study further presents evidence that neither race models nor coactivation models can account for all characteristics of redundancy gain. In this context, we discuss the problem of calculating an upper limit for the performance of race models for triple redundant targets, and introduce a new method of evaluating triple redundancy gain based on performance for double redundant targets. In order to explain the results from this study, the cascade race model is introduced. The cascade race model consists of several input channels, which are triggered by a cascade of activations before satisfying a single decision criterion, and is able to provide a unifying approach to previous research on the causes of redundancy gain. The analysis of the characteristics of response time distributions, including their mean, symmetry, onset, and scale, is an essential tool in this study. It was therefore important to find an adequate statistical test capable of reflecting differences in all these characteristics. We discuss the problem and importance of analysing response times without data loss, as well as the inadequacy of common methods of analysis such as the pooling of response times across participants (e.g. Vincentizing) in the present context. We present tests of distributions as an alternative method for comparing distributions, response time distributions in particular, the most common of these being the Kolmogorov-Smirnoff test. We also introduce a test yet unknown in psychology: the two-sample Anderson-Darling test of goodness of fit. We compare both tests, presenting conclusive evidence that the Anderson-Darling test is more accurate and powerful: when comparing two distributions that vary (1) in onset only, (2) in scale only, (3) in symmetry only, or (4) that have the same mean and standard deviation but differ on the tail ends only, the Anderson-Darling test proves to detect differences better than the Kolmogorov-Smirnoff test. Finally, the Anderson-Darling test has a type I error rate corresponding to alpha whereas the Kolmogorov-Smirnoff test is overly conservative. Consequently, the Anderson- Darling test requires less data than the Kolmogorov-Smirnoff test to reach sufficient statistical power.
57

Approches transcriptomiques dans l’étude de la fibrose kystique

Voisin, Gregory 03 1900 (has links)
Les avancées en biotechnologie ont permis l’identification d’un grand nombre de mécanismes moléculaires, soulignant également la complexité de la régulation génique. Néanmoins, avoir une vision globale de l’homéostasie cellulaire, nous est pour l’instant inaccessible et nous ne sommes en mesure que d’en avoir qu’une vue fractionnée. Étant donné l’avancement des connaissances des dysfonctionnements moléculaires observés dans les maladies génétiques telles que la fibrose kystique, il est encore difficile de produire des thérapies efficaces. La fibrose kystique est causée par la mutation de gène CFTR (cystic fibrosis transmembrane conductance regulator), qui code pour un canal chlorique transmembranaire. La mutation la plus fréquente (ΔF508) induit un repliement incorrect de la protéine et sa rétention dans le réticulum endoplasmique. L’absence de CFTR fonctionnel à la membrane a un impact sur l’homéostasie ionique et sur l’hydratation de la muqueuse respiratoire. Ceci a pour conséquence un défaut dans la clairance mucocilliaire, induisant infection chronique et inflammation excessive, deux facteurs fondamentaux de la physiopathologie. L’inflammation joue un rôle très important dans l’évolution de la maladie et malgré le nombre important d’études sur le sujet, la régulation du processus inflammatoire est encore très mal comprise et la place qu’y occupe le CFTR n’est pas établie. Toutefois, plusieurs autres facteurs, tels que le stress oxydatif participent à la physiopathologie de la maladie, et considérer leurs impacts est important pour permettre une vision globale des acteurs impliqués. Dans notre étude, nous exploitons la technologie des puces à ADN, pour évaluer l’état transcriptionnel d’une cellule épithéliale pulmonaire humaine fibro-kystique. Dans un premier temps, l’analyse de notre expérience identifie 128 gènes inflammatoires sur-exprimés dans les cellules FK par rapport aux cellules non FK où apparaissent plusieurs familles de gènes inflammatoires comme les cytokines ou les calgranulines. L’analyse de la littérature et des annotations suggèrent que la modulation de ces transcripts dépend de la cascade de NF-κB et/ou des voies de signalisation associées aux interférons (IFN). En outre, leurs modulations pourraient être associées à des modifications épigénétiques de leurs loci chromosomiques. Dans un second temps, nous étudions l’activité transcriptionnelle d’une cellule épithéliale pulmonaire humaine FK en présence de DMNQ, une molécule cytotoxique. Notre but est d’identifier les processus biologiques perturbés par la mutation du gène CFTR en présence du stress oxydatif. Fondé sur une analyse canonique de redondance, nous identifions 60 gènes associés à la mort cellulaire et leur variance, observée dans notre expérience, s’explique par un effet conjoint de la mutation et du stress oxydatif. La mesure de l’activité des caspases 3/7, des effecteurs de l’apoptose (la mort cellulaire programmée), montre que les cellules porteuses de la mutation ΔF508, dans des conditions de stress oxydatif, seraient moins apoptotiques que les cellules saines. Nos données transcriptomiques suggèrent que la sous-activité de la cascade des MAPK et la sur-expression des gènes anti-apoptotiques pourraient être impliquées dans le déséquilibre de la balance apoptotique. / Biotechnical advances have allowed a large number of molecular mechanisms to be identified, and have also underlined the complexity of gene regulation. Nonetheless, we still only have a partial understanding of cellular homeostasis. Even with our current knowledge, molecular dysfunctionality observed in genetic illnesses such as cystic fibrosis remain largely misunderstood, prohibiting us from developing efficient treatments. Cystic fibrosis is caused by a mutation of the CFTR (cystic fibrosis transmembrane conductance regulator) gene which codes for a chloric transmembrane channel. The most frequent mutation (ΔF508) causes the unfolding of the protein and its retention in the endoplasmic reticulum. This absence of a functional CFTR to the membrane has an impact on the ionic homeostasis and the hydration of the respiratory mucus. Consequently, the mucociliary clearance is disrupted, which leads to chronic infection and excessive inflammation - two fundamental factors of CF’s physiopathology. Inflammation plays a key role in the evolution of the illness and despite many studies on this subject, the regulation of the inflammatory process remains a mystery and CFTR’s role is not well established. Additionally, since the physiopathology cannot be explained by mutation alone, several authors suggest the importance of other factors (genetic and/or environmental) which are factors in the clinical picture of the illness. In our study, we use microarray technology to evaluate the transcriptional state of an epithelial lung cell issued from a human with cystic fibrosis. Initially, our analysis identifies 128 inflammatory genes which are over-expressed in the cystic fibrosis cells versus non-cystic fibrosis cells, showing several inflammatory gene families such as cytokines or calgranulins. An analysis of the publications and annotations of these transcripts suggests that their modulations depend upon the cascade of NF-κB and/or signalling pathways associated with interferons (IFN). In other words, their modulations could be associated with epigenetic modifications of their chromosomal loci. Secondly, we study the transcriptional activity of an epithelial lung cell issued from a human with cystic fibrosis in the presence of DMNQ, a cytotoxic molecule. Our goal is to identify the biological processus which are disturbed by the mutation of the CFTR gene in the presence of oxidative stress. Based on a canonical redundancy analysis, we identify 60 genes associated with cell death and their modulation in our study explained by the combined effect of mutation and oxidative stress. By measuring the activity of caspase 3/7, an effector of apoptosis (programmed cell death), we see that the cells containing the mutation ΔF508 could present a problem with apoptosis. Our transcriptomic data suggest that decreased activity of the MAPK cascade and over-expression of anti-apoptotic genes would be a factor in apoptotic imbalance.
58

Quel est le niveau hiérarchique des premières catégories apprises ? : une analyse des facteurs chevauchement inter catégories et redondance intra catégorie

Girard, Jade January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
59

Sauvegarde des données dans les réseaux P2P

Tout, Rabih 25 June 2010 (has links) (PDF)
Aujourd'hui la sauvegarde des données est une solution indispensable pour éviter de les perdre. Plusieurs méthodes et stratégies de sauvegarde existent et utilisent différents types de support. Les méthodes de sauvegarde les plus efficaces exigent souvent des frais d'abonnement au service liés aux coûts du matériel et de l'administration investis par les fournisseurs. Le grand succès des réseaux P2P et des applications de partage de fichiers a rendu ces réseaux exploitables par un grand nombre d'applications surtout avec la possibilité de partager les ressources des utilisateurs entre eux. Les limites des solutions de sauvegarde classiques qui ne permettent pas le passage à l'échelle ont rendu les réseaux P2P intéressants pour les applications de sauvegarde. L'instabilité dans les réseaux P2P due au taux élevé de mouvement des pairs, rend la communication entre les pairs très difficile. Dans le contexte de la sauvegarde, la communication entre les nœuds est indispensable, ce qui exige une grande organisation dans le réseau. D'autre part, la persistance des données sauvegardées dans le réseau reste un grand défi car la sauvegarde n'a aucun intérêt si les données sauvegardées sont perdues et que la restauration devient impossible. L'objectif de notre thèse est d'améliorer l'organisation des sauvegardes dans les réseaux P2P et de garantir la persistance des données sauvegardées. Nous avons donc élaboré une approche de planification qui permet aux nœuds de s'organiser dans le but de mieux communiquer entre eux. D'autre part, pour garantir la persistance des données sauvegardées, nous avons proposé une approche de calcul probabiliste qui permet de déterminer, selon les variations dans le système, le nombre de répliques nécessaire pour qu'au moins une copie persiste dans le système après un certain temps défini. Nos approches ont été implémentées dans une application de sauvegarde P2P.
60

Optimisation des capacités de franchissement des robots mobiles hybrides "roues-pattes"

Pierre, Jarrault 04 September 2013 (has links) (PDF)
On considère qu'un robot est en mesure de franchir un obstacle s'il est capable, pour chaque configuration géométrique des contacts rencontrée durant le franchissement, d'équilibrer les actions extérieures qu'il subit tout en préservant l'adhérence des contacts. Notre approche consiste à optimiser la répartition des efforts de contact afin de maximiser un critère qualifiant la performance du franchissement. Pour cela, nous mettons à profit deux caractéristiques des robots poly-articulés. D'une part, la redondance d'actionnement permet l'application de forces internes modifiant la répartition des efforts entre les différents points de contact. D'autre part, la redondance cinématique permet de changer la position du point d'application des forces de gravité en déplaçant le centre de masse relativement à la position des contacts, modifiant ainsi l'espace des solutions au problème de distribution des forces. Le critère utilisé qualifie la robustesse du franchissement vis-à-vis des incertitudes de la commande en efforts. Elle est choisie à partir d'une analyse comparative des différents critères utilisés dans le domaine de la préhension dextre. L'algorithme de commande que nous développons permet le contrôle simultané des mouvements du robot et des efforts aux contact. Il est d'abord validé par une série de simulations dynamiques puis vérifié sur le prototype de robot hybride HyLoS 2. Ce robot à 4 "roues-pattes" possède 16 ddl et est en mesure de franchir un obstacle représenté par une pente de 60\char6 ayant une hauteur de 19 cm alors que le rayon de ses roues est de 7 cm.

Page generated in 0.0693 seconds