• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 164
  • 61
  • 13
  • 1
  • Tagged with
  • 238
  • 166
  • 117
  • 83
  • 77
  • 66
  • 58
  • 38
  • 35
  • 33
  • 33
  • 26
  • 26
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

La dignité humaine: limite à la brevetabilité du corps humain

Toledano, Dorith 01 1900 (has links)
Le thème de ce mémoire de Maîtrise en droit est « La dignité humaine: limite à la brevetabilité du corps humain». Dans ce travail, nous avons tenté d'apporter une contribution à un débat des plus importants de ce début du 21 e siècle. Deux parties composent ce mémoire. La première partie vise à présenter la thématique de la brevetabilité du corps humain. Elle fait l'analyse non seulement des normes juridiques interdisant la brevetabilité du corps humain, mais aussi elle se penche sur le corps humain comme source d'inventions brevetables. Dans la première sous-section, notre analyse porte sur l'étude des documents normatifs d'intérêt international, régional et national. Le modèle et les normes de la Communauté européenne ont largement retenu notre attention alors que le cas des États-Unis, du Canada et surtout de la France nous servait de guide de réflexion pour mieux comprendre l'état du droit au Canada. Par une argumentation serrée nous avons conclu cette partie en affirmant que le corps humain n'est pas brevetable. La prohibition de la brevetabilité du corps humain s'impose comme universelle. La dignité humaine a constitué un élément déterminant de cette prohibition. Ce qui nous a permis, dans la deuxième sous-section de considérer le brevetage de l'ADN. Après avoir présenté les trois critères juridiques de la brevetabilité, à savoir la nouveauté, l'utilité et l'inventivité, nous avons appliqué ces critères à l'ADN. Il s'est avéré que c'est à bon droit que la plupart des pays accordent le brevet sur l'ADN. Mais cet état de droit pose des problèmes sur le plan des valeurs éthiques. Il a notamment comme conséquence de relativiser la dignité humaine. Ces dernières considérations éthiques nous ont conduits à étendre à l'ADN les critères juridiques de la brevetabilité vus dans la première partie. Pour nous prononcer adéquatement sur ce sujet combien délicat, il a fallu considérer la question de la brevetabilité de l'ADN chez les vivants, depuis l'affaire Chakrabarty en 1980, aux États-Unis, en passant par la Directive européenne de 1998, l'affaire Harvard College au Canada jusqu'à Myriad Genetics Inc. En droit, la brevetabilité de l'ADN ne fait plus de doute. Mais elle continue de soulever des « gènes» sur le plan éthique. L'inquiétude que suscite la pente glissante nous a amenés, dans la deuxième partie, à nous pencher sur la brevetabilité dans son rapport avec la dignité humaine. La première sous-section se voulait une analyse permettant de montrer que la dignité humaine est une valeur absolue et inconditionnelle. Si nous considérons cette valeur comme absolue, il devient impossible de breveter le corps humain dans son ensemble. Par contre, en brevetant l'ADN humain, nos institutions se trouvent à relativiser la dignité humaine. C'est ce que la deuxième sous-section tendait à montrer. Soulignons que cette deuxième sous-section a été conçue également comme une conclusion. Elle s'articule autour notamment de la dignité humaine comme principe de précaution. / "Patentability of the Human Body and of DNA through a comparative, ethical and legal study" is at the heart of a crucial debate of our time regarding the effect of biotechnology on human nature. Hereby, we have attempted to bring a contribution to the debate. In the first part of our work, we developed the concept and the legal criterion of patentability. We then presented a comparative study based on normative documents from international, regional and national sources. Based on the norms defined by the European community, as well as documents from the US, Canada and France, it is clear that the human body is not patentable. In fact, this prohibition appears to be widely recognized. At the core of such a prohibition lies the concept of human dignity, a concept that we proceed to analyze both legally and ethically. It follows that the idea of patenting a human body violates human dignity as well as the integrity and freedom of the person. However, the same cannot be said about the patentability of the DNA. By applying the legal .criteria prevalent to patentability of "human parts," as they appear in Sections 1 and 4 of our thesis, and after considering the debate raised by Chakrabarty in the US, the European Directive of 1998, the Harvard College case in Canada and that of Myriad Genetics, one sees that patentability of the DNA is accepted legally in spite of its ambivalent statutes and the ethical issues. There is no conclusion as this matter is an ongoing subject of public and individual concern. To avoid sliding down a road leading to the patentability of the human body as a whole, one searches for safeguards, such as the "plastic" concept of human dignity.
112

Imagerie 3D de l'anatomie interne d'une souris par dynamique de fluorescence

Provencher, David January 2012 (has links)
L'imagerie médicale sur petits animaux est d'une grande utilité en recherche préclinique, car elle permet d'imager in vivo et en 3D l'intérieur de l'animal. Ceci sert au développement de nouveaux médicaments et au suivi de l'évolution de certaines pathologies. En effet, les techniques d'imagerie éliminent la nécessité de sacrifier les animaux, ce qui permet le suivi de processus biomoléculaires sur un même individu et l'obtention de données statistiquement plus significatives. Cependant, l'information moléculaire recueillie s'avère généralement de faible résolution spatiale, notamment en imagerie optique à cause de la diffusion de la lumière, et donc difficile à localiser dans le corps de l'animal. Le jumelage de modalités d'imagerie complémentaires permet donc d'obtenir des images anatomiques et moléculaires superposées, mais cela s'avère toutefois relativement coûteux. Le projet présenté vise à améliorer une technique d'imagerie 2D toute optique à faible coût permettant d'obtenir une carte approximative 3D des organes internes d'une souris. Cette technique devrait permettre le recalage spatial automatique d'informations moléculaires obtenues sur le même appareil, bien que cela n'ait pas encore été démontré. L'amélioration apportée par le projet consiste à obtenir des images anatomiques 3D, plutôt que 2D, en utilisant une caméra tournante et des techniques de vision numérique stéréo. Pour ce faire, la technique existante est d'abord reproduite. Celle-ci consiste à injecter de l'ICG , un marqueur fluorescent non spécifique qui demeure confiné au réseau vasculaire une fois injecté, à une souris anesthésiée. De par leurs métabolismes distincts et le temps que met l'ICG à atteindre chacun d'eux, la dynamique de fluorescence varie entre les organes, mais demeure relativement uniforme à l'intérieur d'un même organe. Certains organes peuvent donc être segmentés par des techniques appropriées de traitement de signal, telles l'analyse en composantes principales et la régression par moindres carrés non négative. Un système d'imagerie à caméra rotative comme le QOS® de Quidd permet d'obtenir des images 2D segmentées de l'anatomie. interne de l'animal selon plusieurs plans de vue. Ces plans de vue servent à reconstruire l'information anatomique en 3D par des techniques de vision numérique. La procédure pourrait être répétée avec un ou plusieurs marqueurs fluorescents fonctionnalisés dans le but d'obtenir des images moléculaires 3D du même animal et de les superposer aux images anatomiques 3D. La technique développée devrait ainsi permettre d'obtenir à faible coût et de manière toute optique des images 3D anatomiques et moléculaires recalées spatialement automatiquement.
113

Analyse des données du fond diffus cosmologique : simulation et séparation de composantes

Betoule, Marc 25 September 2009 (has links) (PDF)
La prochaine génération d'expériences dédiées à la mesure des anisotropies de température et de polarisation du fond diffus cosmologique (CMB), inaugurée avec le lancement de Planck, va permettre la détection et l'étude d'effets de plus en plus fins. Toutefois, la superposition d'émissions astrophysiques d'avant-plan contamine le signal cosmologique et constituera, dans ces futures données, la principale source d'incertitude devant le bruit instrumental. L'amélioration de la modélisation des émissions d'avant-plan et le développement de méthodes statistiques pour permettre leur séparation sont donc des étapes cruciales de l'analyse scientifique des mesures à venir. Ce travail s'inscrit dans cette problématique et comprend le développement du Planck Sky Model, un outil de modélisation et de simulation de l'émission du ciel. Ces simulations sont par ailleurs mises à profit pour le développement et l'évaluation de méthode statistiques adaptées au problème des avant-plans. Nous explorons ainsi les possibilités offertes par l'analyse en ondelettes sur la sphère (needlets) pour le problème de l'estimation spectrale sur des mesures incomplètes avec une contamination inhomogène, et proposons une méthode pour traiter la contamination induites aux petites échelles par les sources ponctuelles dans les données Planck et WMAP. Nous étudions également l'impact des avant-plans sur la possibilité de détection des ondes gravitationnelles primordiales (prédites par l'inflation) et proposons une prospective des performances des futures missions dédiées à leur mesure.
114

Combinaisons markoviennes et semi-markoviennes de modèles de régression. Application à la croissance d'arbres forestiers.

Chaubert-Pereira, Florence 05 November 2008 (has links) (PDF)
Ce travail est consacré à l'étude des combinaisons markoviennes et semi-markoviennes de modèles de régression, i.e. des mélanges finis de modèles de régression avec dépendances (semi-)markoviennes. Cette famille de modèles statistiques permet l'analyse de données structurées en phases successives synchrones entre individus, influencées par des covariables pouvant varier dans le temps et présentant une hétérogénéité inter-individuelle. L'algorithme d'inférence proposé pour les combinaisons (semi-)markoviennes de modèles linéaires généralisés est un algorithme du gradient EM. Pour les combinaisons (semi-)markoviennes de modèles linéaires mixtes, nous proposons des algorithmes de type MCEM où l'étape E se décompose en deux étapes de restauration conditionnelle: une pour les séquences d'états sachant les effets aléatoires (et les données observées) et une pour les effets aléatoires sachant les séquences d'états (et les données observées). Différentes méthodes de restauration conditionnelle sont présentées. Nous étudions deux types d'effets aléatoires: des effets aléatoires individuels et des effets aléatoires temporels. L'intérêt de cette famille de modèles est illustré par l'analyse de la croissance d'arbres forestiers en fonctions de facteurs climatiques. Ces modèles nous permettent d'identifier et de caractériser les trois principales composantes de la croissance (la composante ontogénique, la composante environnementale et la composante individuelle). Nous montrons que le poids de chaque composante varie en fonction de l'espèce et des interventions sylvicoles.
115

Scene Analysis and Interpretation by ICA Based Polarimetric Incoherent Target Decomposition for Polarimetric SAR Data / Analyse et interprétation des données Radar à Synthèse d’Ouverture polarimétriques par des outils de type ACP-ICTD

Guimaraes figueroa pralon, Leandro 27 October 2016 (has links)
Cette thèse comprend deux axes de recherche. D´abord, un nouveau cadre méthodologique pour évaluer la conformité des données RSO (Radar à Synthèse d’Ouverture) multivariées à haute résolution spatiale est proposé en termes de statistique asymptotique par rapport au modèle produit. Plus précisément, la symétrie sphérique est étudiée en appliquant un test d'hypothèses sur la structure de la matrice de quadri-covariance. Deux jeux de données, simulées et réelles, sont prises en considération pour étudier la performance du test obtenu par l’analyse qualitative et quantitative des résultats. La conclusion la plus importante, en ce qui concerne la méthodologie employée dans l'analyse des données RSO multivariées, est que, selon les différents cas d’usages, une partie considérable de données hétérogènes peut ne pas s’ajuster asymptotiquement au modèle produit. Par conséquent, les algorithmes de classification et/ou détection conventionnels développés sur la base de celui-ci deviennent sub-optimaux. Cette observation met en évidence la nécessité de développer de modèles plus sophistiqués comme l'Analyse en Composantes Indépendantes, ce qui conduit à la deuxième partie de cette thèse qui consiste en l’étude du biais d’estimation des paramètres TSVM (Target Scattering Vector Model) lorsque l’ACP est utilisée. Enfin, les performances de l'algorithme sont également évaluées sous l'hypothèse du bruit gaussien corrélé spatialement. L’évaluation théorique de l'ACI comme un outil de type ICTD (In Coherent Target Decomposition) polarimétrique permet une analyse plus efficace de l’apport d’information fourni. A ce but, deux espaces de représentation sont utilisé, notamment H /alpha et TSVM / This thesis comprises two research axes. First, a new methodological framework to assess the conformity of multivariate high-resolution Synthetic Aperture Radar (SAR) data with respect to the Spherically Invariant Random Vector model in terms of asymptotic statistics is proposed. More precisely, spherical symmetry is investigated by applying statistical hypotheses testing on the structure of the quadricovariance matrix. Both simulated and real data are taken into consideration to investigate the performance of the derived test by a detailed qualitative and quantitative analysis. The most important conclusion drawn, regarding the methodology employed in analysing SAR data, is that, depending on the scenario under study, a considerable portion of high heterogeneous data may not fit the aforementioned model. Therefore, traditional detection and classification algorithms developed based on the latter become sub-optimal when applied in such kind of regions. This assertion highlights for the need of the development of model independent algorithms, like the Independent Component Analysis, what leads to the second part of the thesis. A Monte Carlo approach is performed in order to investigate the bias in estimating the Touzi's Target Scattering Vector Model (TSVM) parameters when ICA is employed using a sliding window approach under different scenarios. Finally, the performance of the algorithm is also evaluated under Gaussian clutter assumption and when spatial correlation is introduced in the model. These theoretical assessment of ICA based ICTD enables a more efficient analysis of the potential new information provided by the ICA based ICTD. Both Touzi TSVM as well as Cloude and Pottier H/alpha feature space are then taken into consideration for that purpose. The combined use of ICA and Touzi TSVM is straightforward, indicating new, but not groundbreaking information, when compared to the Eigenvector approach. Nevertheless, the analysis of the combined use of ICA and Cloude and Pottier H/alpha feature space revealed a potential aspect of the Independent Component Analysis based ICTD, which can not be matched by the Eigenvector approach. ICA does not introduce any unfeasible region in the H/alpha plane, increasing the range of possible natural phenomenons depicted in the aforementioned feature space.
116

Modeling of linkage disequilibrium in whole genome genetic association studies / Modélisation du déséquilibre de liaison dans les études d’association génome entier

Johnson, Randall 19 December 2014 (has links)
L’approche GWAS est un outil essentiel pour la découverte de gènes associés aux maladies, mais elle pose des problèmes de puissance statistique quand il est impossible d’échantillonner génétiquement des dizaines de milliers de sujets. Les résultats présentés ici—ALDsuite, un programme en utilisant une correction nouvelle et efficace pour le déséquilibre de liaison (DL) ancestrale de la population locale, en permettant l'utilisation de marqueurs denses dans le MALD, et la démonstration que la méthode simpleM fournit une correction optimale pour les comparaisons multiples dans le GWAS—réaffirment la valeur de l'analyse en composantes principales (APC) pour capturer l’essence de la complexité des systèmes de grande dimension. L’APC est déjà la norme pour corriger la structure de la population dans le GWAS; mes résultats indiquent qu’elle est aussi une stratégie générale pour faire face à la forte dimensionnalité des données génomiques d'association. / GWAS is an essential tool for disease gene discovery, but has severe problems of statistical power when it is impractical to genetically sample tens of thousands of subjects. The results presented here—a novel, effective correction for local ancestral population LD allowing use of dense markers in MALD using the ALDsuite and the demonstration that the simpleM method provides an optimum Bonferroni correction for multiple comparisons in GWAS, reiterate the value of PCA for capturing the essential part of the complexity of high- dimensional systems. PCA is already standard for correcting for population substructure in GWAS; my results point to it’s broader applicability as a general strategy for dealing with the high dimensionality of genomic association data.
117

Extraction de sources d'électromyogrammes et évaluation des tensions musculaires / Electromyographical source extraction and estimation of muscular tension

Leouffre, Marc 11 April 2014 (has links)
L'évaluation des tensions musculaires chez l'Homme dans les sciences du mouvement et les études posturales présente un grand intérêt pour le sport, la santé ou encore l'ergonomie. La biomécanique s'intéresse tout particulièrement à ces problèmes utilise la cinématique inverse pour recalculer, à partir de mesures physiques externes, les tensions musculaires internes. Le verrou scientifique principal de cette technique est la redondance musculaire, propre au vivant. En effet les actionneurs (muscles) sont plus nombreux que les degrés de liberté à contrôler. Les problèmes de cinématique inverse sont sous-déterminés, ils présentent plus d'inconnues que d'équations, et nécessitent l'usage de procédures d'optimisation. Dans ce contexte l'usage de l'électromyographie (EMG), signal électro-physiologique mesurable à la surface de la peau et témoin de l'activité musculaire, peut donner une idée de l'activité des muscles sous-jacents. La connaissance de l'activité des muscles permettrait d'introduire de l'information supplémentaire dans cette méthodologie inverse afin d'améliorer l'estimation des tensions musculaires réelles au cours de mouvements ou dans une posture donnée. De plus certaines applications ne permettent pas ou peu l'enregistrement de forces ou positions articulaires externes qui nécessitent un appareillage conséquent et rendent difficile l'étude de situations de la vie courante. L'électromyographie est dans un tel contexte une mesure non-invasive et peu encombrante, facilement réalisable. Elle a cependant elle aussi ses propres verrous scientifiques. L'EMG de surface sur de petits muscles très rapprochés comme les nombreux muscles des avant-bras peut être sujette à ce qui est communément appelé « cross-talk » ; la contamination croisée des voies. Ce cross-talk est le résultat de la propagation des signaux musculaires sur plusieurs voies simultanément, si bien qu'il est compliqué d'associer l'activité d'un muscle à une unique voie EMG. Le traitement numérique du signal dispose d'outils permettant, dans certaines conditions, de retrouver des sources inconnues mélangées sur plusieurs capteurs. Ainsi la séparation de sources peut être utilisée sur des signaux EMG afin de retrouver de meilleures estimations des signaux sources reflétant plus fidèlement l'activité de muscles sans l'effet du cross-talk. Ce travail de thèse montre dans un premier temps l'intérêt de l'EMG dans l'étude de l'utilisation d'un prototype d'interface homme-machine novateur. L'EMG permet en particulier de mettre en évidence la présence forte de cocontraction musculaire permettant de stabiliser les articulations pour permettre un contrôle précis du dispositif. En outre des perspectives d'analyse plus fines seraient envisageables en utilisant des techniques de séparation de sources performantes en électromyographie. Dans un second temps l'accent est mis sur l'étude des conditions expérimentales précises permettant l'utilisation des techniques de séparation de sources en contexte linéaire instantané en électromyographie de surface. L'hypothèse d'instantanéité du mélange des sources en particulier est étudiée et sa validité est vérifiée sur des signaux réels. Enfin une solution d'amélioration de la robustesse de la séparation de sources à l'hypothèse de l'instantanéité est proposée. Celle-ci repose sur la factorisation en matrices non-négatives (NMF) des enveloppes des signaux EMG. / Evaluation of muscle tensions in movement and gait sciences is of great interest in the fields of sports, health or ergonomics. Biomechanics in particular has been looking forward to solving these problems and developed the use of inverse kinematics to compute internal muscle tensions from external physical measures. Muscular redundancy remains however a complex issue, there are more muscles than degrees of freedom and thus more unknown variables which makes inverse kinematics an under-determined problem needing optimization techniques to be solved. In this context using electromyography (EMG), an electro-physiological signal that can be measured on the skin surface, gives an idea of underlying muscle activities. Knowing muscle activities could be additional information to feed the optimization procedures with and could help improving accuracy of estimated muscle tensions during real gestures or gait situation. There are even situations in which measuring external physical variables like forces, positions or accelerations is not feasible because it might require equipment incompatible with the object of the study. It is often the case in ergonomics when equipping the object of the study with sensors is either too expensive or physically too cumbersome. In such cases EMG can become very handy as a non-invasive measure that does not require the environment to be equipped with other sensors. EMG however has its own limits, surface EMG on small and closely located muscles like muscles of the forearm can be subject to “cross-talk”. Cross-talk is the cross contamination of several sensors it is the result of signal propagation of more than one muscle on one sensor. In presence of cross-talk it is not possible to associate an EMG sensor with a given muscle. There are signal processing techniques dealing with this kind of problem. Source separation techniques allow estimation of unknown sources from several sensors recording mixtures of these sources. Applying source separation techniques on EMG can provide EMG source estimations reflecting individual muscle activities without the effect of cross-talk. First the benefits of using surface EMG during an ergonomics study of an innovative human-computer interface are shown. EMG pointed out a relatively high level of muscle co-contraction that can be explained by the need to stabilize the joints for a more accurate control of the device. It seems legitimate to think that using source separation techniques would provide signals that better represent single muscle activities and these would improve the quality of this study. Then the precise experimental conditions for linear instantaneous source separation techniques to work are studied. Validity of the instantaneity hypothesis in particular is tested on real surface EMG signals and its strong dependency on relative sensor locations is shown. Finally a method to improve robustness of linear instantaneous source separation versus instantaneity hypothesis is proposed. This method relies on non-negative matrix factorization of EMG signal envelopes.
118

Connected component tree construction for embedded systems / Contruction d'arbre des composantes connexes pour les systèmes embarqués

Matas, Petr 30 June 2014 (has links)
L'objectif du travail présenté dans cette thèse est de proposer un avancement dans la construction des systèmes embarqués de traitement d'images numériques, flexibles et puissants. La proposition est d'explorer l'utilisation d'une représentation d'image particulière appelée « arbre des composantes connexes » (connected component tree – CCT) en tant que base pour la mise en œuvre de l'ensemble de la chaîne de traitement d'image. Cela est possible parce que la représentation par CCT est à la fois formelle et générale. De plus, les opérateurs déjà existants et basés sur CCT recouvrent tous les domaines de traitement d'image : du filtrage de base, passant par la segmentation jusqu'à la reconnaissance des objets. Une chaîne de traitement basée sur la représentation d'image par CCT est typiquement composée d'une cascade de transformations de CCT où chaque transformation représente un opérateur individuel. A la fin, une restitution d'image pour visualiser les résultats est nécessaire. Dans cette chaîne typique, c'est la construction du CCT qui représente la tâche nécessitant le plus de temps de calcul et de ressources matérielles. C'est pour cette raison que ce travail se concentre sur la problématique de la construction rapide de CCT. Dans ce manuscrit, nous introduisons le CCT et ses représentations possibles dans la mémoire de l'ordinateur. Nous présentons une partie de ses applications et analysons les algorithmes existants de sa construction. Par la suite, nous proposons un nouvel algorithme de construction parallèle de CCT qui produit le « parent point tree » représentation de CCT. L'algorithme est conçu pour les systèmes embarqués, ainsi notre effort vise la minimisation de la mémoire occupée. L'algorithme en lui-même se compose d'un grand nombre de tâches de la « construction » et de la « fusion ». Une tâche de construction construit le CCT d'une seule ligne d'image, donc d'un signal à une dimension. Les tâches de fusion construisent progressivement le CCT de l'ensemble. Pour optimiser la gestion des ressources de calcul, trois différentes stratégies d'ordonnancement des tâches sont développées et évaluées. Également, les performances des implantations de l'algorithme sont évaluées sur plusieurs ordinateurs parallèles. Un débit de 83 Mpx/s pour une accélération de 13,3 est réalisé sur une machine 16-core avec Opteron 885 processeurs. Les résultats obtenus nous ont encouragés pour procéder à une mise en œuvre d'une nouvelle implantation matérielle parallèle de l'algorithme. L'architecture proposée contient 16 blocs de base, chacun dédié à la transformation d'une partie de l'image et comprenant des unités de calcul et la mémoire. Un système spécial d'interconnexions est conçu pour permettre à certaines unités de calcul d'accéder à la mémoire partagée dans d'autres blocs de base. Ceci est nécessaire pour la fusion des CCT partiels. L'architecture a été implantée en VHDL et sa simulation fonctionnelle permet d'estimer une performance de 145 Mpx/s à fréquence d'horloge de 120 MHz / The aim of this work is to enable construction of embedded digital image processing systems, which are both flexible and powerful. The thesis proposal explores the possibility of using an image representation called connected component tree (CCT) as the basis for implementation of the entire image processing chain. This is possible, because the CCT is both simple and general, as CCT-based implementations of operators spanning from filtering to segmentation and recognition exist. A typical CCT-based image processing chain consists of CCT construction from an input image, a cascade of CCT transformations, which implement the individual operators, and image restitution, which generates the output image from the modified CCT. The most time-demanding step is the CCT construction and this work focuses on it. It introduces the CCT and its possible representations in computer memory, shows some of its applications and analyzes existing CCT construction algorithms. A new parallel CCT construction algorithm producing the parent point tree representation of the CCT is proposed. The algorithm is suitable for an embedded system implementation due to its low memory requirements. The algorithm consists of many building and merging tasks. A building task constructs the CCT of a single image line, which is treated as a one-dimensional signal. Merging tasks fuse the CCTs together. Three different task scheduling strategies are developed and evaluated. Performance of the algorithm is evaluated on multiple parallel computers. A throughput 83 Mpx/s at speedup 13.3 is achieved on a 16-core machine with Opteron 885 CPUs. Next, the new algorithm is further adapted for hardware implementation and implemented as a new parallel hardware architecture. The architecture contains 16 basic blocks, each dedicated to processing of an image partition and consisting of execution units and memory. A special interconnection switch is designed to allow some executions units to access memory in other basic blocks. The algorithm requires this for the final merging of the CCTs constructed by different basic blocks together. The architecture is implemented in VHDL and its functional simulation shows performance 145 Mpx/s at clock frequency 120 MHz
119

Fusion de l'information dans les réseaux de capteurs : application à la surveillance de phénomènes physiques / Information aggregation in sensor networks : application to monitoring of physical activities

Ghadban, Nisrine 14 December 2015 (has links)
Cette thèse apporte des solutions clés à deux problèmes omniprésents dans les réseaux de capteurs sans fil, à savoir la précision des mesures acquises dans les régions à faible couverture et la dimensionnalité sans cesse grandissante des données collectées. La première contribution de cette thèse est l’amélioration de la couverture de l'espace à surveiller par le biais de la mobilité des capteurs. Nous avons recours aux méthodes à noyaux en apprentissage statistique pour modéliser un phénomène physique tel que la diffusion d’un gaz. Nous décrivons plusieurs schémas d'optimisation pour améliorer les performances du modèle résultant. Nous proposons plusieurs scénarios de mobilité des capteurs. Ces scénarios définissent d'une part l'ensemble d'apprentissage du modèle et d'autre part le capteur mobile. La seconde contribution de cette thèse se situe dans le contexte de la réduction de la dimensionnalité des données collectées par les capteurs. En se basant sur l'analyse en composantes principales, nous proposons à cet effet des stratégies adaptées au fonctionnement des réseaux de capteurs sans fil. Nous étudions également des problèmes intrinsèques aux réseaux sans fil, dont la désynchronisation entre les nœuds et la présence de bruits de mesures et d’erreurs de communication. Des solutions adéquates avec l'approche Gossip et les mécanismes de lissage sont proposées. L'ensemble des techniques développées dans le cadre de cette thèse est validé sur un réseau de capteurs sans fil qui estime le champ de diffusion d’un gaz / This thesis investigates two major problems that are challenging the wireless sensor networks (WSN): the measurements accuracy in the regions with a low density of sensors and the growing volume of data collected by the sensors. The first contribution of this thesis is to enhance the collected measurements accuracy, and hence to strengthen the monitored space coverage by the WSN, by means of the sensors mobility strategy. To this end, we address the estimation problem in a WSN by kernel-based machine learning methods, in order to model some physical phenomenon, such as a gas diffusion. We propose several optimization schemes to increase the relevance of the model. We take advantage of the sensors mobility to introduce several mobility scenarios. Those scenarios define the training set of the model and the sensor that is selected to perform mobility based on several mobility criteria. The second contribution of this thesis addresses the dimensionality reduction of the set of collected data by the WSN. This dimensionality reduction is based on the principal component analysis techniques. For this purpose, we propose several strategies adapted to the restrictions in WSN. We also study two well-known problems in wireless networks: the non-synchronization problem between nodes of the network, and the noise in measures and communication. We propose appropriate solutions with Gossip-like algorithms and smoothing mechanisms. All the techniques developed in this thesis are validated in a WSN dedicated to the monitoring of a physical species leakage such as the diffusion of a gas
120

Modèles de Néron et groupes formels / Néron models and formal groups

Hertgen, Alan 18 March 2016 (has links)
Dans cette thèse, on aborde plusieurs questions autour des modèles de Néron de variétés abéliennes sur un corps de valuation discrète. On dit qu’une variété abélienne a réduction scindée si la suite exacte définissant le groupe des composantes de la fibre spéciale est scindée. On donne un exemple de variété abélienne modérément ramifiée qui n’a pas réduction scindée. Pour les variétés jacobiennes,on montre que l’on obtient réduction scindée après toute extension modérément ramifiée de degré plus grand qu’une constante ne dépendant que de la dimension.On considère aussi le lien avec le conducteur de Swan. Ensuite, on s’intéresse aux groupes formels des variétés abéliennes. Pour les courbes elliptiques, on détermine le rayon du plus grand voisinage de 0 qui est isomorphe à un polydisque muni de sa structure de groupe usuelle. On s’intéresse aussi aux groupes des composantes de modèles lisses, de type fini et séparés du groupe additif ou multiplicatif ainsi qu’à leurs sous-groupes des points rationnels. Enfin, on montre que le conducteur efficace d’une courbe algébrique ne peut pas s’exprimer uniquement en fonction deson conducteur d’Artin. / In this thesis, we tackle several questions about Néron models of abelian varieties on a discrete valuation field. We say that an abelian variety has split reduction if the exact sequence defining the group of components of the special fiber is split. We give an example of a tamely ramified abelian variety which does not have split reduction. For Jacobian varieties, we show that one gets split reduction after any tamely ramified extension of degree greater than aconstant depending on the dimension only. We also consider the link with theSwan conductor. Then, we deal with formal groups of abelian varieties. For elliptic curves, we compute the radius of the largest neighbourhood of 0 which is isomorphic to a polydisk equipped with its usual group law. We also deal with groups of components of smooth and separated models of finite type of the additive or multiplicative group as well as their subgroups of rational points. Finally, we show that the efficient conductor of an algebraic curve cannot be expressed interms of its Artin conductor only.

Page generated in 0.0779 seconds