791 |
Étude du phénomène des soins psychiques en unité sanitaire de maison d'arrêt : traitement psychique des personnes incarcérées en maison d'arrêt, pertinence, faisabilité, limites et obstacles / Study of the presence of psychic care in the health unit of a detention center : psychic treatment of people imprisoned in detention centers, relevance, feasibility, limits and obstaclesBoissenin, Paul 20 November 2015 (has links)
L’offre psychothérapique aux personnes détenues en maison d’arrêt par le psychologue est importante, d’abord parce que 70 % de ces personnes sont incarcérées dans ce type d'établissement et que la majorité d’entre-elles est détenue pour des faits de violences à la personne, ensuite parce que ce travail psychique est le seul à mettre en contact avec les fondements de la personnalité. Ces soins représentent donc un enjeu de santé et sécurité mais aussi d’économiespubliques.La recherche, dans la perspective de l’analyse existentielle montre la pertinence du traitement psychanalytique pour la transformation du rapport à soi et aux autres. Mais le cadre psychothérapeutique, articulé aux soins somatiques et psychiatriques dans l’espace sanitaire, ne tient qu’en congruence avec les cadres judiciaire et pénitentiaire.Un excès de distance entre les acteurs judiciaires, pénitentiaires et sanitaires-psychothérapeutiques expose le patient à des risques et au non-sens. A l’inverse, un rapprochement excessif présente un risque de confusion.Une alliance interinstitutionnelle entre les acteurs est requise dans une éthique des limites. / The psychotherapeutic proposition made by the psychologist to people imprisoned in detention centers is significant first because 70 % of these people are imprisoned in this type of facility and most of them are detained for violence against other people, secondly because this psychic work is the only one that establishes a link with the personality foundations. This psychotherapeutic care is thus not only a health and safety issue but also a public economy issue.By using the existential analysis as methodology, the research shows the relevance of psychoanalytic treatment for the transformation of the relationship with self and others.But the psychotherapeutic framework linked to somatic and psychiatric care in the health unitcan be efficient only if it works in conjunction with the judicial and penitential frameworks.An excessive distance between judicial, penitential and sanitary-psychotherapeutic playersexposes the patient to risk and to meaninglessness. On the contrary, an excessive closeness may lead to confusion.An interinstitutional alliance between the players is necessary according to an ethics of limits.
|
792 |
Inversion Bayésienne : illustration sur des problèmes tomographiques et astrophysiquesRodet, Thomas 20 November 2012 (has links) (PDF)
Nous nous intéressons ici aux problèmes inverses mal posés ainsi qu'à leur résolution dans un cadre bayésien. Dans un premier temps, nous décrirons la démarche que nous avons suivie lors de la résolution d'un problème inverse mal posé. Elle consiste à déterminer simultanément la paramétrisation de l'objet inconnu, le modèle " simplifié " décrivant le principe de formation des données, le choix du modèle de bruit et le choix de l'information a priori introduite. Ces différents choix sont souvent contraints par le temps de calcul nécessaire pour obtenir l'estimateur. On illustrera la démarche en résolvant des problèmes inverses variés dans le domaine de l'imagerie médicale (réduction des artéfacts métalliques) et de l'astrophysique (reconstruction 3D+T de la couronne solaire et reconstruction sur-résolue du rayonnement infra-rouge de l'univers). Dans deuxième temps, nous développerons un aspect plus méthodologique. En effet, nous avons constaté que les approches entièrement bayésiennes étaient difficilement applicables à des problèmes de grandes dimensions (plus d'un million d'inconnues) pour des raisons de coût calculatoire. Nous avons donc mis au point une nouvelle approche bayésienne variationnelle permettant de s'affranchir de ce problème. Pour obtenir notre algorithme, nous avons résolu un problème d'optimisation fonctionnelle dans l'espace des mesures à densité. Puis, nous avons appliqué notre approche sur l'inversion de problèmes linéaires de grandes tailles.
|
793 |
Apprentissage automatique et compréhension dans le cadre d’un dialogue homme-machine téléphonique à initiative mixte / Corpus-based spoken language understanding for mixed initiative spoken dialog systemsServan, Christophe 10 December 2008 (has links)
Les systèmes de dialogues oraux Homme-Machine sont des interfaces entre un utilisateur et des services. Ces services sont présents sous plusieurs formes : services bancaires, systèmes de réservations (de billets de train, d’avion), etc. Les systèmes de dialogues intègrent de nombreux modules notamment ceux de reconnaissance de la parole, de compréhension, de gestion du dialogue et de synthèse de la parole. Le module qui concerne la problématique de cette thèse est celui de compréhension de la parole. Le processus de compréhension de la parole est généralement séparé du processus de transcription. Il s’agit, d’abord, de trouver la meilleure hypothèse de reconnaissance puis d’appliquer un processus de compréhension. L’approche proposée dans cette thèse est de conserver l’espace de recherche probabiliste tout au long du processus de compréhension en l’enrichissant à chaque étape. Cette approche a été appliquée lors de la campagne d’évaluation MEDIA. Nous montrons l’intérêt de notre approche par rapport à l’approche classique. En utilisant différentes sorties du module de RAP sous forme de graphe de mots, nous montrons que les performances du décodage conceptuel se dégradent linéairement en fonction du taux d’erreurs sur les mots (WER). Cependant nous montrons qu’une approche intégrée, cherchant conjointement la meilleure séquence de mots et de concepts, donne de meilleurs résultats qu’une approche séquentielle. Dans le souci de valider notre approche, nous menons des expériences sur le corpus MEDIA dans les mêmes conditions d’évaluation que lors de la campagne MEDIA. Il s’agit de produire des interprétations sémantiques à partir des transcriptions sans erreur. Les résultats montrent que les performances atteintes par notre modèle sont au niveau des performances des systèmes ayant participé à la campagne d’évaluation. L’étude détaillée des résultats obtenus lors de la campagne MEDIA nous permet de montrer la corrélation entre, d’une part, le taux d’erreur d’interprétation et, d’autre part, le taux d’erreur mots de la reconnaissance de la parole, la taille du corpus d’apprentissage, ainsi que l’ajout de connaissance a priori aux modèles de compréhension. Une analyse d’erreurs montre l’intérêt de modifier les probabilités des treillis de mots avec des triggers, un modèle cache ou d’utiliser des règles arbitraires obligeant le passage dans une partie du graphe et s’appliquant sur la présence d’éléments déclencheurs (mots ou concepts) en fonction de l’historique. On présente les méthodes à base de d’apprentissage automatique comme nécessairement plus gourmandes en terme de corpus d’apprentissage. En modifiant la taille du corpus d’apprentissage, on peut mesurer le nombre minimal ainsi que le nombre optimal de dialogues nécessaires à l’apprentissage des modèles de langages conceptuels du système de compréhension. Des travaux de recherche menés dans cette thèse visent à déterminer quel est la quantité de corpus nécessaire à l’apprentissage des modèles de langages conceptuels à partir de laquelle les scores d’évaluation sémantiques stagnent. Une corrélation est établie entre la taille de corpus nécessaire pour l’apprentissage et la taille de corpus afin de valider le guide d’annotations. En effet, il semble, dans notre cas de l’évaluation MEDIA, qu’il ait fallu sensiblement le même nombre d’exemple pour, d’une part, valider l’annotation sémantique et, d’autre part, obtenir un modèle stochastique « de qualité » appris sur corpus. De plus, en ajoutant des données a priori à nos modèles stochastiques, nous réduisons de manière significative la taille du corpus d’apprentissage nécessaire pour atteindre les même scores du système entièrement stochastique (près de deux fois moins de corpus à score égal). Cela nous permet de confirmer que l’ajout de règles élémentaires et intuitives (chiffres, nombres, codes postaux, dates) donne des résultats très encourageants. Ce constat a mené à la réalisation d’un système hybride mêlant des modèles à base de corpus et des modèles à base de connaissance. Dans un second temps, nous nous appliquons à adapter notre système de compréhension à une application de dialogue simple : un système de routage d’appel. La problématique de cette tâche est le manque de données d’apprentissage spécifiques au domaine. Nous la résolvons en partie en utilisant divers corpus déjà à notre disposition. Lors de ce processus, nous conservons les données génériques acquises lors de la campagne MEDIA et nous y intégrons les données spécifiques au domaine. Nous montrons l’intérêt d’intégrer une tâche de classification d’appel dans un processus de compréhension de la parole spontanée. Malheureusement, nous disposons de très peu de données d’apprentissage relatives au domaine de la tâche. En utilisant notre approche intégrée de décodage conceptuel, conjointement à un processus de filtrage, nous proposons une approche sous forme de sac de mots et de concepts. Cette approche exploitée par un classifieur permet d’obtenir des taux de classification d’appels encourageants sur le corpus de test, alors que le WER est assez élevé. L’application des méthodes développées lors de la campagne MEDIA nous permet d’améliorer la robustesse du processus de routage d’appels. / Spoken dialogues systems are interfaces between users and services. Simple examples of services for which theses dialogue systems can be used include : banking, booking (hotels, trains, flights), etc. Dialogue systems are composed of a number of modules. The main modules include Automatic Speech Recognition (ASR), Spoken Language Understanding (SLU), Dialogue Management and Speech Generation. In this thesis, we concentrate on the Spoken Language Understanding component of dialogue systems. In the past, it has usual to separate the Spoken Language Understanding process from that of Automatic Speech Recognition. First, the Automatic Speech Recognition process finds the best word hypothesis. Given this hypothesis, we then find the best semantic interpretation. This thesis presents a method for the robust extraction of basic conceptual constituents (or concepts) from an audio message. The conceptual decoding model proposed follows a stochastic paradigm and is directly integrated into the Automatic Speech Recognition process. This approach allows us to keep the probabilistic search space on sequences of words produced by the Automatic Speech Recognition module, and to project it to a probabilistic search space of sequences of concepts. The experiments carried out on the French spoken dialogue corpus MEDIA, available through ELDA, show that the performance reached by our new approach is better than the traditional sequential approach. As a starting point for evaluation, the effect that deterioration of word error rate (WER) has on SLU systems is examined though use of different ASR outputs. The SLU performance appears to decrease lineary as a function of ASR word error rate.We show, however, that the proposed integrated method of searching for both words and concets, gives better results to that of a traditionnanl sequential approach. In order to validate our approach, we conduct experiments on the MEDIA corpus in the same assessment conditions used during the MEDIA campaign. The goal is toproduce error-free semantic interpretations from transcripts. The results show that the performance achieved by our model is as good as the systems involved in the evaluation campaign. Studies made on the MEDIA corpus show the concept error rate is related to the word error rate, the size of the training corpus and a priori knwoledge added to conceptual model languages. Error analyses show the interest of modifying the probabilities of word lattice with triggers, a template cache or by using arbitrary rules requiring passage through a portion of the graph and applying the presence of triggers (words or concepts) based on history. Methods based on machine learning are generally quite demanding in terms of amount of training data required. By changing the size of the training corpus, the minimum and the optimal number of dialogues needed for training conceptual language models can be measured. Research conducted in this thesis aims to determine the size of corpus necessary for training conceptual language models from which the semantic evaluation scores stagnated. A correlation is established between the necessary corpus size for learning and the corpus size necessary to validate the manual annotations. In the case of the MEDIA evaluation campaign, it took roughly the same number of examples, first to validate the semantic annotations and, secondly, to obtain a "quality" corpus-trained stochastic model. The addition of a priori knowledge to our stochastic models reduce significantly the size of the training corpus needed to achieve the same scores as a fully stochastic system (nearly half the size for the same score). It allows us to confirm that the addition of basic intuitive rules (numbers, zip codes, dates) gives very encouraging results. It leeds us to create a hybrid system combining corpus-based and knowledge-based models. The second part of the thesis examines the application of the understanding module to another simple dialogue system task, a callrouting system. A problem with this specific task is a lack of data available for training the requiered language models. We attempt to resolve this issue by supplementing he in-domain data with various other generic corpora already available, and data from the MEDIA campaing. We show the benefits of integrating a call classification task in a SLU process. Unfortunately, we have very little training corpus in the field under consideration. By using our integrated approach to decode concepts, along with an integrated process, we propose a bag of words and concepts approach. This approach used by a classifier achieved encouraging call classification rates on the test corpus, while the WER was relativelyhigh. The methods developed are shown to improve the call routing system process robustness.
|
794 |
A Psychophysical Assessment of Multisensory Processing and Multiple Object Tracking in Autism Spectrum DisordersHahler, Eva-Maria 04 1900 (has links)
Les troubles du spectre autistique (TSA) sont actuellement caractérisés par une triade d'altérations, incluant un dysfonctionnement social, des déficits de communication et des comportements répétitifs. L'intégration simultanée de multiples sens est cruciale dans la vie quotidienne puisqu'elle permet la création d'un percept unifié. De façon similaire, l'allocation d'attention à de multiples stimuli simultanés est critique pour le traitement de
l'information environnementale dynamique. Dans l'interaction quotidienne avec l'environnement, le traitement sensoriel et les fonctions attentionnelles sont des composantes de base dans le développement typique (DT). Bien qu'ils ne fassent pas partie des critères diagnostiques actuels, les difficultés dans les fonctions attentionnelles et le traitement sensoriel sont très courants parmi les personnes autistes. Pour cela, la présente thèse évalue ces fonctions dans deux études séparées. La première étude est fondée sur la prémisse que des altérations dans le traitement sensoriel de base pourraient être à l'origine des comportements sensoriels atypiques chez les TSA, tel que proposé par des théories actuelles des TSA. Nous avons conçu une tâche
de discrimination de taille intermodale, afin d'investiguer l'intégrité et la trajectoire développementale de l'information visuo-tactile chez les enfants avec un TSA (N = 21, âgés de 6 à18 ans), en comparaison à des enfants à DT, appariés sur l’âge et le QI de performance. Dans une tâche à choix forcé à deux alternatives simultanées, les participants devaient émettre un jugement sur la taille de deux stimuli, basé sur des inputs unisensoriels (visuels ou tactiles) ou multisensoriels (visuo-tactiles). Des seuils différentiels ont évalué la plus petite différence à laquelle les participants ont été capables de faire la discrimination de taille. Les enfants avec un TSA ont montré une performance diminuée et pas d'effet de maturation aussi bien dans les conditions unisensorielles que multisensorielles, comparativement aux participants à DT. Notre première étude étend donc des résultats précédents d'altérations dans le traitement multisensoriel chez les TSA au domaine visuo-tactile. Dans notre deuxième étude, nous avions évalué les capacités de poursuite
multiple d’objets dans l’espace (3D-Multiple Object Tracking (3D-MOT)) chez des adultes autistes (N = 15, âgés de 18 à 33 ans), comparés à des participants contrôles appariés sur l'âge et le QI, qui devaient suivre une ou trois cibles en mouvement parmi des distracteurs
dans un environnement de réalité virtuelle. Les performances ont été mesurées par des seuils de vitesse, qui évaluent la plus grande vitesse à laquelle des observateurs sont capables de suivre des objets en mouvement. Les individus autistes ont montré des seuils
de vitesse réduits dans l'ensemble, peu importe le nombre d'objets à suivre. Ces résultats étendent des résultats antérieurs d'altérations au niveau des mécanismes d'attention en autisme quant à l'allocation simultanée de l'attention envers des endroits multiples. Pris ensemble, les résultats de nos deux études révèlent donc des
altérations chez les TSA quant au traitement simultané d'événements multiples, que ce soit dans une modalité ou à travers des modalités, ce qui peut avoir des implications
importantes au niveau de la présentation clinique de cette condition. / Autism spectrum disorders (ASD) are currently characterized by a triad of impairments including social dysfunction, communication deficits and perseverative
behaviours. The simultaneous integration of multiple senses is crucial in everyday life as it allows for the creation of a unified percept. Similarly, the allocation of attention to multiple events at the same time is critical in the processing of dynamic environmental information. In daily interactions with the environment, both sensory processing as well as attentional functions are building blocks to typical development (TD). Although not part of the current diagnostic criteria, difficulties with attention functions and sensory processing are very common among autistic persons. The present thesis therefore examined both these functions in two separate studies.
The first study is based on the premise that alterations in basic sensory processing might underlie atypical sensory behaviours in ASD, as proposed by current theories of ASD. We conceived a cross-modal size discrimination task to assess the integrity and developmental course of visuo-tactile information in children with ASD (N = 21, aged 6-18 years), compared to age- and performance IQ-matched children with TD. In a simultaneous two-alternative forced-choice task, participants were asked
to make a judgement on the size of two stimuli, based on unisensory (visual or tactile) or multisensory (visuo-tactile) inputs. Difference thresholds evaluated the smallest difference at which participants were capable to discriminate size. Children with ASD showed diminished performance and no maturational effects in both unisensory and multisensory conditions, compared to TD participants. Our first study therefore extends previous results of alterations in multisensory processing in ASD to the visuo-tactile domain. In our second study, we evaluated 3D-Multiple Object Tracking (3D-MOT)
capacities in autistic adults (N = 15, aged 18-33 years), compared to age- and IQ-matched control participants, who were asked to track one or three moving targets
amongst a set of distracters in a virtual reality environment. Performances were measured based on speed thresholds, which evaluates the greatest speed at which observers are capable of successfully tracking moving objects. Autistic individuals displayed overall reduced speed thresholds, whatever the number of spheres to track. These findings extend previous results of altered attention mechanisms in autism with regards to the simultaneous allocation of attention to multiple areas.
Together, the findings of our two studies reveal alterations in ASD with regards to the processing of multiple events at the same time, be it within one modality or across modalities, which may have important implications for the clinical presentation of this condition.
|
795 |
Analyse de l'hypovigilance au volant par fusion d'informations environnementales et d'indices vidéo / Driver hypovigilance analysis based on environmental information and video evidenceGarcia garcia, Miguel 19 October 2018 (has links)
L'hypovigilance du conducteur (que ce soit provoquée par la distraction ou la somnolence) est une des menaces principales pour la sécurité routière. Cette thèse s'encadre dans le projet Toucango, porté par la start-up Innov+, qui vise à construire un détecteur d'hypovigilance en temps réel basé sur la fusion d'un flux vidéo en proche infra-rouge et d'informations environnementales. L'objectif de cette thèse consiste donc à proposer des techniques d'extraction des indices pertinents ainsi que des algorithmes de fusion multimodale qui puissent être embarqués sur le système pour un fonctionnement en temps réel. Afin de travailler dans des conditions proches du terrain, une base de données en conduite réelle a été créée avec la collaboration de plusieurs sociétés de transports. Dans un premier temps, nous présentons un état de l'art scientifique et une étude des solutions disponibles sur le marché pour la détection de l'hypovigilance. Ensuite, nous proposons diverses méthodes basées sur le traitement d'images (pour la détection des indices pertinents sur la tête, yeux, bouche et visage) et de données (pour les indices environnementaux basés sur la géolocalisation). Nous réalisons une étude sur les facteurs environnementaux liés à l'hypovigilance et développons un système d'estimation du risque contextuel. Enfin, nous proposons des techniques de fusion multimodale de ces indices avec l'objectif de détecter plusieurs comportements d'hypovigilance : distraction visuelle ou cognitive, engagement dans une tâche secondaire, privation de sommeil, micro-sommeil et somnolence. / Driver hypovigilance (whether caused by distraction or drowsiness) is one of the major threats to road safety. This thesis is part of the Toucango project, hold by the start-up Innov+, which aims to build a real-time hypovigilance detector based on the fusion of near infra-red video evidence and environmental information. The objective of this thesis is therefore to propose techniques for extracting relevant indices as well as multimodal fusion algorithms that can be embedded in the system for real-time operation. In order to work near ground truth conditions, a naturalistic driving database has been created with the collaboration of several transport companies. We first present a scientific state of the art and a study of the solutions available on the market for hypovigilance detection. Then, we propose several methods based on image (for the detection of relevant indices on the head, eyes, mouth and face) and data processing (for environmental indices based on geolocation). We carry out a study on the environmental factors related to hypovigilance and develop a contextual risk estimation system. Finally, we propose multimodal fusion techniques of these indices with the objective of detecting several hypovigilance behaviors: visual or cognitive distraction, engagement in a secondary task, sleep deprivation, microsleep and drowsiness.
|
796 |
Approches jointes texte/image pour la compréhension multimodale de documents / Text/image joint approaches for multimodal understanding of documentsDelecraz, Sébastien 10 December 2018 (has links)
Les mécanismes de compréhension chez l'être humain sont par essence multimodaux. Comprendre le monde qui l'entoure revient chez l'être humain à fusionner l'information issue de l'ensemble de ses récepteurs sensoriels. La plupart des documents utilisés en traitement automatique de l'information sont multimodaux. Par exemple, du texte et des images dans des documents textuels ou des images et du son dans des documents vidéo. Cependant, les traitements qui leurs sont appliqués sont le plus souvent monomodaux. Le but de cette thèse est de proposer des traitements joints s'appliquant principalement au texte et à l'image pour le traitement de documents multimodaux à travers deux études : l'une portant sur la fusion multimodale pour la reconnaissance du rôle du locuteur dans des émissions télévisuelles, l'autre portant sur la complémentarité des modalités pour une tâche d'analyse linguistique sur des corpus d'images avec légendes. Pour la première étude nous nous intéressons à l'analyse de documents audiovisuels provenant de chaînes d'information télévisuelle. Nous proposons une approche utilisant des réseaux de neurones profonds pour la création d'une représentation jointe multimodale pour les représentations et la fusion des modalités. Dans la seconde partie de cette thèse nous nous intéressons aux approches permettant d'utiliser plusieurs sources d'informations multimodales pour une tâche monomodale de traitement automatique du langage, afin d'étudier leur complémentarité. Nous proposons un système complet de correction de rattachements prépositionnels utilisant de l'information visuelle, entraîné sur un corpus multimodal d'images avec légendes. / The human faculties of understanding are essentially multimodal. To understand the world around them, human beings fuse the information coming from all of their sensory receptors. Most of the documents used in automatic information processing contain multimodal information, for example text and image in textual documents or image and sound in video documents, however the processings used are most often monomodal. The aim of this thesis is to propose joint processes applying mainly to text and image for the processing of multimodal documents through two studies: one on multimodal fusion for the speaker role recognition in television broadcasts, the other on the complementarity of modalities for a task of linguistic analysis on corpora of images with captions. In the first part of this study, we interested in audiovisual documents analysis from news television channels. We propose an approach that uses in particular deep neural networks for representation and fusion of modalities. In the second part of this thesis, we are interested in approaches allowing to use several sources of multimodal information for a monomodal task of natural language processing in order to study their complementarity. We propose a complete system of correction of prepositional attachments using visual information, trained on a multimodal corpus of images with captions.
|
797 |
Valorisation de la fraction organique de résidus agricoles et autres déchets assimilés à l’aide de traitements biologiques anaérobies / Valorizing the organic fraction of agricultural residues and other similar waste using anaerobic biological treatmentsLacour, Joaneson 19 March 2012 (has links)
Dans les espaces ruraux et périurbains d’Haïti, les déchets et résidus organiques générés principalement par les activités agricoles et agroindustrielles, sont traditionnellement valorisés in situ dans l’alimentation animale comme provende, dans la fertilisation des sols comme amendement organique et/ou à des fins énergétiques comme combustibles. Parallèlement, au niveau des villes, les déchets organiques sont majoritairement éliminés sans aucune forme de ségrégation dans des décharges non contrôlées. Ce travail de recherche a voulu mettre l’accent sur l’opportunité de valoriser ces déchets par la méthanisation approchée comme une voie alternative de traitement biologique des déchets organiques fermentescibles. Le travail d’évaluation des gisements de déchets organiques a mis en évidence que la mauvaise gestion de ces gisements entraine une perte annuelle de matières estimée à près de 2 960 000 tonnes de matière sèche, potentiellement convertibles en 367 500 000 Nm3 de méthane ou 310 000 tep, correspondant à environ 16% de la couverture énergétique finale des ménages à l’échelle nationale. L’approche expérimentale à l’échelle de laboratoire a permis d’évaluer les potentiels biométhanogènes de certaines catégories de déchets d’origine agricole, dont la bagasse, le chou et les déjections de bovins, porcins et poulets, ainsi que les possibilités d’optimisation des cinétiques de digestion anaérobie par des moyens peu onéreux comme la réduction de la taille des particules, l’augmentation du ratio InoculumMV/SubstratMV et les effets de synergie liés à la co-digestion. Des recherches à l'échelle du pilote de terrain ont également été réalisées. Un digesteur a été construit sur le modèle des digesteurs indiens et suivi pendant plusieurs semaines. Malgré les conditions particulières de mise en œuvre du pilote, les essais réalisés ont démontré la faisabilité de la filière avec la technologie rustique sélectionnée. Le temps de retour sur investissement pour un fonctionnement optimal du digesteur pilote a été estimé à 5 ans. / In rural and peri-urban areas of Haiti, organic wastes and residues generated mainly by agricultural activities and agribusiness, are traditionally valued in situ in animal feeding as feed, in the fertilization of the soil as organic conditioner and/or for energy purposes as fuels. In parallel, the organic wastes of the cities are predominantly eliminated without any form of segregation in non-controlled landfills. This research work aimed to place the emphasis on the opportunity of valuing these wastes by biomethanation as an alternative way of biological treatment of organic biodegradable wastes. The exercise of assessment of organic wastes production has highlighted a loss of wastes-resources estimated at about 2 960 000 tons of dry matter per annum, potentially convertible to 367 500 000 Nm3 of methane or 310 000 toe, corresponding to approximately 16% of recovery of the final energy demand of the households of the whole country. The experimental approach at laboratory scale allowed to assess the ultimate biomethane potential different types of agricultural wastes like bagasse, cabbage and cattle, pigs and chickens manures as well as the possibilities of optimizing the kinetics of anaerobic digestion by some inexpensive means as the reduction of the particles size, the increase of ratio IVS/SVS, the nutrient balance and the synergy effects of co-digestion. The special conditions of implementation of the pilot approach have demonstrated the feasibility of the development of biomethanation technology, with a return period of about 5 years.
|
798 |
Parallel algorithms and data structures for interactive applications / Algoritmos Paralelos e Estruturas de Dados para Aplicações Interativas / Algorithmes et Structures de Données Parallèles pour Applications InteractivesToss, Julio January 2017 (has links)
La quête de performance a été une constante à travers l’histoire des systèmes informatiques. Il y a plus d’une décennie maintenant, le modèle de traitement séquentiel montrait ses premiers signes d’épuisement pour satisfaire les exigences de performance. Les barrières du calcul séquentiel ont poussé à un changement de paradigme et ont établi le traitement parallèle comme standard dans les systèmes informatiques modernes. Avec l’adoption généralisée d’ordinateurs parallèles, de nombreux algorithmes et applications ont été développés pour s’adapter à ces nouvelles architectures. Cependant, dans des applications non conventionnelles, avec des exigences d’interactivité et de temps réel, la parallélisation efficace est encore un défi majeur. L’exigence de performance en temps réel apparaît, par exemple, dans les simulations interactives où le système doit prendre en compte l’entrée de l’utilisateur dans une itération de calcul de la boucle de simulation. Le même type de contrainte apparaît dans les applications d’analyse de données en continu. Par exemple, lorsque des donnes issues de capteurs de trafic ou de messages de réseaux sociaux sont produites en flux continu, le système d’analyse doit être capable de traiter ces données à la volée rapidement sur ce flux tout en conservant un budget de mémoire contrôlé La caractéristique dynamique des données soulève plusieurs problèmes de performance tel que la décomposition du problème pour le traitement en parallèle et la maintenance de la localité mémoire pour une utilisation efficace du cache. Les optimisations classiques qui reposent sur des modèles pré-calculés ou sur l’indexation statique des données ne conduisent pas aux performances souhaitées. Dans cette thèse, nous abordons les problèmes dépendants de données sur deux applications différentes : la première dans le domaine de la simulation physique interactive et la seconde sur l’analyse des données en continu. Pour le problème de simulation, nous présentons un algorithme GPU parallèle pour calculer les multiples plus courts chemins et des diagrammes de Voronoi sur un graphe en forme de grille. Pour le problème d’analyse de données en continu, nous présentons une structure de données parallélisable, basée sur des Packed Memory Arrays, pour indexer des données dynamiques géo-référencées tout en conservant une bonne localité de mémoire. / A busca por desempenho tem sido uma constante na história dos sistemas computacionais. Ha mais de uma década, o modelo de processamento sequencial já mostrava seus primeiro sinais de exaustão pare suprir a crescente exigência por performance. Houveram "barreiras"para a computação sequencial que levaram a uma mudança de paradigma e estabeleceram o processamento paralelo como padrão nos sistemas computacionais modernos. Com a adoção generalizada de computadores paralelos, novos algoritmos foram desenvolvidos e aplicações reprojetadas para se adequar às características dessas novas arquiteturas. No entanto, em aplicações menos convencionais, com características de interatividade e tempo real, alcançar paralelizações eficientes ainda representa um grande desafio. O requisito por desempenho de tempo real apresenta-se, por exemplo, em simulações interativas onde o sistema deve ser capaz de reagir às entradas do usuário dentro do tempo de uma iteração da simulação. O mesmo tipo de exigência aparece em aplicações de monitoramento de fluxos contínuos de dados (streams). Por exemplo, quando dados provenientes de sensores de tráfego ou postagens em redes sociais são produzidos em fluxo contínuo, o sistema de análise on-line deve ser capaz de processar essas informações em tempo real e ao mesmo tempo manter um consumo de memória controlada A natureza dinâmica desses dados traz diversos problemas de performance, tais como a decomposição do problema para processamento em paralelo e a manutenção da localidade de dados para uma utilização eficiente da memória cache. As estratégias de otimização tradicionais, que dependem de modelos pré-computados ou de índices estáticos sobre os dados, não atendem às exigências de performance necessárias nesses cenários. Nesta tese, abordamos os problemas dependentes de dados em dois contextos diferentes: um na área de simulações baseada em física e outro em análise de dados em fluxo contínuo. Para o problema de simulação, apresentamos um algoritmo paralelo, em GPU, para computar múltiplos caminhos mínimos e diagramas de Voronoi em um grafo com topologia de grade. Para o problema de análise de fluxos de dados, apresentamos uma estrutura de dados paralelizável, baseada em Packed Memory Arrays, para indexar dados dinâmicos geo-localizados ao passo que mantém uma boa localidade de memória. / The quest for performance has been a constant through the history of computing systems. It has been more than a decade now since the sequential processing model had shown its first signs of exhaustion to keep performance improvements. Walls to the sequential computation pushed a paradigm shift and established the parallel processing as the standard in modern computing systems. With the widespread adoption of parallel computers, many algorithms and applications have been ported to fit these new architectures. However, in unconventional applications, with interactivity and real-time requirements, achieving efficient parallelizations is still a major challenge. Real-time performance requirement shows up, for instance, in user-interactive simulations where the system must be able to react to the user’s input within a computation time-step of the simulation loop. The same kind of constraint appears in streaming data monitoring applications. For instance, when an external source of data, such as traffic sensors or social media posts, provides a continuous flow of information to be consumed by an online analysis system. The consumer system has to keep a controlled memory budget and deliver a fast processed information about the stream Common optimizations relying on pre-computed models or static index of data are not possible in these highly dynamic scenarios. The dynamic nature of the data brings up several performance issues originated from the problem decomposition for parallel processing and from the data locality maintenance for efficient cache utilization. In this thesis we address data-dependent problems on two different applications: one on physically based simulations and another on streaming data analysis. To deal with the simulation problem, we present a parallel GPU algorithm for computing multiple shortest paths and Voronoi diagrams on a grid-like graph. Our contribution to the streaming data analysis problem is a parallelizable data structure, based on packed memory arrays, for indexing dynamic geo-located data while keeping good memory locality.
|
799 |
Valorisation des données altimétriques de SARAL/AltiKa pour l'étude de la calotte Antarctique / Development of SARAL/AltiKa altimetric data over the Antarctic ice sheetMichel, Aurélie 28 June 2016 (has links)
L'Antarctique est encore un continent à explorer pour comprendre le climat terrestre, passé, présent et futur. Grâce à l'analyse des carottages, on peut remonter l'histoire du climat terrestre sur plusieurs centaines de milliers d'années. Grâce à l'étude de sa topographie, on peut remonter à la variabilité de son climat, connaître sa dynamique : écoulement de la glace, vêlages d'icebergs. . . Grâce au suivi de la topographie, c'est-à-dire la variation de la hauteur de glace, on peut estimer les pertes et les gains de masses ainsi que la contribution à la hausse du niveau de la mer, pour déduire l'impact sur les océans et les littoraux. Pour explorer ce continent, nous utilisons dans cette thèse l'instrument embarqué sur satellite qu'est l'altimètre. Une onde radar ou laser est envoyée sur le sol et la réflexion de ce signal est enregistrée permettant d'extraire des paramètres pertinents et la hauteur de glace. Les satellites ont pris le relais des expéditions célèbres du XIXème siècle, notamment depuis le lancement du premier altimètre couvrant jusqu'à 82æ S ce continent, embarqué sur la mission ERS-1. Depuis 2013, SARAL marque un changement dans les caractéristiques instrumentales par rapport aux missions précédentes, car elle émet dans une fréquence appartenant à la bande Ka (36.75 Ghz) au lieu des bandes Ku (13.6 Ghz) et S (3.2 Ghz) ce qui implique une interaction avec la surface différente qu'il faut pouvoir comprendre. Avec près de trois ans d'observations, ce manuscrit regroupe les travaux sur le traitement des données altimétriques dans un but de valorisation de la mission SARAL. Nous présentons le contexte géographique et le contexte technique pour montrer les difficultés du traitement des données . En utilisant la méthode des points de croisement que nous expliciterons, nous présentons l'importance de la comparaison de deux missions concomitantes, ENVISAT et ICESat afin d'estimer la profondeur de pénétration en bande Ku de l'onde radar et corriger de cet effet, étude que l'on pourra répéter avec SARAL une fois la mission ICESat-2 lancée. Nous avons adapté une chaîne de calibration et de validation des données sur glace continentale qui nous permet d'établir des diagnostics, des statistiques et des suivis temporels. La pente de la surface joue un rôle prépondérant dans la dégradation de la précision des données. Nous mettons en place un processus de sélection des données altimétriques afin d'augmenter cette précision. Grâce à cette sélection et l'application de la correction de marée océanique, nous quantifions avec des métriques aux points de croisement la performance de la mesure de SARAL sur glace continentale, et nous réduisons l'imprécision de la mesure de plus de 90%. Enfin, grâce aux sorties de notre chaîne de validation, nous décrivons les observations de SARAL sur près de trois ans afin d'apporter une analyse préliminaire cohérente avec la mission précédente qu'est ENVISAT. Nous soulevons les améliorations à apporter pour aller plus loin dans la physique de la mesure. Que ce soit la comparaison avec d'autres missions, l'utilisation de modèles ou des modifications dans l'algorithme d'extraction des paramètres du signal appelé retracking, SARAL apporte de nouvelles perspectives afin que l'évolution de la calotte Antarctique soit connue avec une précision toujours croissante. / Antarctica still remains a fascinating place to be explored. With ice corings, the past Earth climate can be retraced. Studying its surface, its climate variability and its dynamic are better known : ice velocity, iceberg calvings. . . Through the height variations monitoring, ice gains and losses are estimated, leading to the contribution to the sea-level rise, from which is deduced the impact over coastal areas or the oceans. To explore this continent, we use the sensor called altimeter : a radar or laser wave is sent from the satellite to the surface and the reflected signal is recorded. From this signal we extract relevant parameters and the height. The satellites have observed this area, notably since the altimetric mission ERS-1 launching, until 82æ S in 1991, following the still famous explorations from the beginning of the twentieth century. SARAL, launched in February 2013, innovates because of the major change in the frequency used, the Ka-band (36.75 Ghz) instead of the Ku-band (13.6Ghz) and the S-band (3.2 Ghz) implying a different interaction between the radar wave and the snowpack that needs to be investigated. Using almost three years of observations, we focus on the altimetric signal processing and its validation. The geographic and the technical aspects are introduced and we show the limitations in the altimetric data processing. Using the crossover method (explained in greater detail later), we compare two simultaneous missions, ENVISAT and ICESat in order to better constrain the penetration effect of the radar-wave into the snowpack and correct it. The method that is used will be of great interest to compare SARAL with the future mission ICESat- 2. A new calibration and validation tool has been implemented, allowing a long-term survey of the Antarctic area, providing statistics, diagnostics and temporal series. The slope effect is the major limitation in the precision assessment of the mission. Thanks to a new way of selecting the data and the oceanic tide correction, we quantify with metrics computed at crossover points the accuracy of altimetric data over the Antarctic ice sheet. We describe in the last part the SARAL observations to give a preliminary analysis in agreement with the former mission ENVISAT. Other ways of improvement are presented, like future altimetric missions, modifications in the so-called retracking algorithm that extracts the relevant parameters or even the use of models. SARAL raises perspectives to estimate with a growing precision the evolution of the Antarctic continent, and this thesis is a state of the art about the different possible processings needed to do so.
|
800 |
Formation et restauration d'images en microscopie à rayons X. Application à l'observation d'échantillons biologiquesSibarita, Jean-Baptiste 22 October 1996 (has links) (PDF)
Technique récente, la microscopie à rayons X offre aujourd'hui une résolution spatiale supérieure à celle de la microscopie optique (20 nm contre 200 nm en microscopie optique confocal laser). Elle offre également un meilleur pouvoir de pénétration que la microscopie électronique (jusqu'à 10 μm contre 1 μm en microscopie électronique à moyenne et haute tension). Ainsi, la microscopie à rayons X mous (longueurs d'onde comprises entre 2,4 et 4,3 nanomètres) permet l'analyse à haute résolution en 2 ou 3 dimensions d'échantillons biologiques placés dans des conditions proches de leur milieu naturel (contrairement aux microscopes électroniques classiques qui imposent une préparation des échantillons). Cependant, la réduction de la dose absorbée par l'échantillon nécessite des durées d'expositions aussi courtes que possible. Or, effectuer une acquisition avec peu de photons se fait au détriment du rapport signal sur bruit des images. Un de nos objectifs a été le développement d'outils pour l'amélioration et la restauration de ces images. La première partie de nos travaux a consisté à déterminer la fonction de transfert du microscope à rayons X en transmission et à comparer les résultats obtenus avec le modèle théorique de la formation des images. Dans la seconde partie, nous avons complété les modèles existants liant le nombre de photons et le contraste, en prenant en compte le mode de formation des images dans le microscope. La troisième partie de ces travaux concerne le développement de techniques de traitement numérique des images dans le but d'améliorer et de restaurer des images obtenues par microscopie à rayons X avec de faibles temps d'exposition. Ces processus ont été appliqués à l'étude par microscopie à rayons X de différents types d'échantillons biologiques
|
Page generated in 0.0966 seconds