• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 108
  • 44
  • 17
  • Tagged with
  • 169
  • 169
  • 85
  • 53
  • 46
  • 45
  • 35
  • 34
  • 31
  • 30
  • 24
  • 24
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Analyse en locuteurs de collections de documents multimédia / Speaker analysis of multimedia data collections

Le Lan, Gaël 06 October 2017 (has links)
La segmentation et regroupement en locuteurs (SRL) de collection cherche à répondre à la question « qui parle quand ? » dans une collection de documents multimédia. C’est un prérequis indispensable à l’indexation des contenus audiovisuels. La tâche de SRL consiste d’abord à segmenter chaque document en locuteurs, avant de les regrouper à l'échelle de la collection. Le but est de positionner des labels anonymes identifiant les locuteurs, y compris ceux apparaissant dans plusieurs documents, sans connaître à l'avance ni leur identité ni leur nombre. La difficulté posée par le regroupement en locuteurs à l'échelle d'une collection est le problème de la variabilité intra-locuteur/inter-document : selon les documents, un locuteur peut parler dans des environnements acoustiques variés (en studio, dans la rue...). Cette thèse propose deux méthodes pour pallier le problème. D'une part, une nouvelle méthode de compensation neuronale de variabilité est proposée, utilisant le paradigme de triplet-loss pour son apprentissage. D’autre part, un procédé itératif d'adaptation non supervisée au domaine est présenté, exploitant l'information, même imparfaite, que le système acquiert en traitant des données, pour améliorer ses performances sur le domaine acoustique cible. De plus, de nouvelles méthodes d'analyse en locuteurs des résultats de SRL sont étudiées, pour comprendre le fonctionnement réel des systèmes, au-delà du classique taux d'erreur de SRL (Diarization Error Rate ou DER). Les systèmes et méthodes sont évalués sur deux émissions télévisées d'une quarantaine d'épisodes, pour les architectures de SRL globale ou incrémentale, à l'aide de la modélisation locuteur à l'état de l'art. / The task of speaker diarization and linking aims at answering the question "who speaks and when?" in a collection of multimedia recordings. It is an essential step to index audiovisual contents. The task of speaker diarization and linking firstly consists in segmenting each recording in terms of speakers, before linking them across the collection. Aim is, to identify each speaker with a unique anonymous label, even for speakers appearing in multiple recordings, without any knowledge of their identity or number. The challenge of the cross-recording linking is the modeling of the within-speaker/across-recording variability: depending on the recording, a same speaker can appear in multiple acoustic conditions (in a studio, in the street...). The thesis proposes two methods to overcome this issue. Firstly, a novel neural variability compensation method is proposed, using the triplet-loss paradigm for training. Secondly, an iterative unsupervised domain adaptation process is presented, in which the system exploits the information (even inaccurate) about the data it processes, to enhance its performances on the target acoustic domain. Moreover, novel ways of analyzing the results in terms of speaker are explored, to understand the actual performance of a diarization and linking system, beyond the well-known Diarization Error Rate (DER). Systems and methods are evaluated on two TV shows of about 40 episodes, using either a global, or longitudinal linking architecture, and state of the art speaker modeling (i-vector).
102

Modeling and predicting affect in audio signals : perspectives from acoustics and chaotic dynamics / Modelisation de l'affect dans le son : perspectives de l'acoustique et de la dynamique chaotique

Mouawad, Pauline 28 June 2017 (has links)
La présente thèse décrit un projet de recherche multidisciplinaire qui porte sur la reconnaissance de l’émotion dans les sons, couvrant les théories psychologiques, l’analyse du signal acoustique,l’apprentissage automatique et la dynamique chaotique.Dans nos interactions et nos relations sociales, nous dépendons considérablement de la communication de l’information et de notre perception des messages transmis. En fait, la communication se produit lorsque les signaux transmettent des informations entre une source et une destination. Le signal peut être verbal, et l’information est ensuite portée par des motifs sonores, tels que des mots. Dans la communication vocale non verbale, cependant,l’information peut être des modèles perceptifs qui véhiculent des indices affectifs, que nous percevons et évaluons sous la forme d’intentions, d’attitudes, d’humeurs et d’émotions.La prévalence de la composante affective peut être observée dans les interactions informatiques humaines (HCI) où le développement d’applications automatisées qui comprennent et expriment les émotions est devenu crucial. De tels systèmes doivent être significatifs et faciles à utiliser pour l’utilisateur final, de sorte que notre interaction avec eux devient une expérience positive. Bien que la reconnaissance automatique des émotions dans les sons ait reçu une attention accrue au cours des dernières années, il s’agit encore d’un jeune domaine de recherche.Non seulement cela contribue à l’informatique affective en général, mais il fournit également une compréhension approfondie de la signification des sons dans notre vie quotidienne.Dans cette thèse, le problème de la reconnaissance des affects est abordé à partir d’une double perspective: nous commençons par adopter une approche standard de l’analyse acoustique du signal, où nous examinons et expérimentons les fonctionnalités existantes pour déterminer leur rôle dans la communication émotionnelle. Ensuite, nous nous tournons vers la dynamique chaotique et la symbolisation des séries temporelles, pour comprendre le rôle de la dynamique inhérente des sons dans l’expressivité affective. Nous menons nos études dans le contexte des sons non verbaux, à savoir les sons vocaux, musicaux et environnementaux.D’un point de vue de l’écoute humaine, une tâche d’annotation est menée pour construire un ground-truth de voix de chant non verbales, marquées par des descriptions catégoriques du modèle bidimensionnel d’émotions. Deux types de sons sont inclus dans l’étude: vocal et glottal.D’un point de vue psychologique, la présente recherche porte sur un débat qui existe depuis longtemps parmi les scientifiques et les psychologues, concernant les origines communes de la musique et de la voix. La question est abordée à partir d’une analyse acoustique ainsi que d’une approche dynamique non linéaire.D’un point de vue de la modélisation, ce travail propose une nouvelle approche dynamique non linéaire pour la reconnaissance de l’affect dans le son, basée sur la dynamique chaotique et la symbolisation adaptative des séries temporelles. Tout au long de cette thèse, les contrastes clés dans l’expressivité de l’émotion sont illustrés parmi les différents types de sons, à travers l’analyse des propriétés acoustiques, les métriques de la dynamique non linéaire et les performances des prédictions.Enfin, d’un point de vue progressif, nous suggérons que les travaux futurs étudient des caractéristiques motivées par les études cognitives. Nous suggérons également d’examiner dans quelle mesure nos caractéristiques reflètent les processus cognitifs. En outre, nous recommandons que nos fonctionnalités dynamiques soient testées dans des études à grande échelle de la reconnaissance d’émotions à travers la participation aux défis expérimentaux, dans le but de vérifier s’ils obtiennent un consensus. / The present thesis describes a multidisciplinary research project on emotion recognition in sounds, covering psychological theories, acoustic-based signal analysis, machine learning and chaotic dynamics.In our social interactions and relationships, we rely greatly on the communication of information and on our perception of the messages transmitted. In fact communication happens when signals transmit information between a source and a destination. The signal can be verbal,and the information is then carried by sound patterns, such as words. In non verbal vocal communication however, information can be perceptual patterns that convey affective cues,that we sense and appraise in the form of intentions, attitudes, moods and emotions.The prevalence of the affective component can be seen in human computer interactions(HCI) where the development of automated applications that understand and express emotions has become crucial. Such systems need to be meaningful and friendly to the end user, so thatour interaction with them becomes a positive experience. Although the automatic recognition of emotions in sounds has received increased attention in recent years, it is still a young fieldof research. Not only does it contribute to Affective Computing in general, but it also provides insight into the significance of sounds in our daily life.In this thesis the problem of affect recognition is addressed from a dual perspective: we start by taking a standard approach of acoustic-based signal analysis, where we survey and experiment with existing features to determine their role in emotion communication. Then,we turn to chaotic dynamics and time series symbolization, to understand the role of the inherent dynamics of sounds in affective expressiveness. We conduct our studies in the context of nonverbal sounds, namely voice, music and environmental sounds.From a human listening point of view, an annotation task is conducted to build a ground truth of nonverbal singing voices, labelled with categorical descriptions of the two-dimensional model of affect. Two types of sounds are included in the study: vocal and glottal.From a psychological perspective, the present research addresses a debate that is of long standing among scientists and psychologists, concerning the common origins of music and voice.The question is addressed from an acoustic-based analysis as well as a nonlinear dynamics approach.From a modeling viewpoint, this work proposes a novel nonlinear dynamics approach for the recognition of affect in sound, based on chaotic dynamics and adaptive time series symbolization.Throughout this thesis, key contrasts in the expressiveness of affect are illustrated among the different types of sounds, through the analysis of acoustic properties, nonlinear dynamics metrics and predictions performances. Finally from a progressive perspective, we suggest that future works investigate features that are motivated by cognitive studies. We also suggest to examine to what extent our features reflect cognitive processes. Additionally we recommend that our dynamic features be tested inlarge scale ER studies through the participation in ER challenges, with an aim to verify if they gain consensus.
103

Outils d'aide à l'optimisation des campagnes d'essais non destructifs sur ouvrages en béton armé / Development of new tools for optimizing non-destructive inspection campaigns on reinforced concrete structures

Gomez-Cardenas, Carolina 04 December 2015 (has links)
Les méthodes de contrôle non destructif (CND) sont essentielles pour estimer les propriétés du béton (mécaniques ou physiques) et leur variabilité spatiale. Elles constituent également un outil pertinent pour réduire le budget d'auscultation d'un ouvrage d'art. La démarche proposée est incluse dans un projet ANR (EvaDéOS) dont l'objectif est d'optimiser le suivi des ouvrages de génie civil en mettant en œuvre une maintenance préventive afin de réduire les coûts. Dans le cas du travail de thèse réalisé, pour caractériser au mieux une propriété particulière du béton (ex : résistance mécanique, porosité, degré de Saturation, etc.), avec des méthodes ND sensibles aux mêmes propriétés, il est impératif de développer des outils objectifs permettant de rationaliser une campagne d'essais sur les ouvrages en béton armé. Dans ce but, premièrement, il est proposé un outil d'échantillonnage spatial optimal pour réduire le nombre de points d'auscultation. L'algorithme le plus couramment employé est le recuit simulé spatial (RSS). Cette procédure est régulièrement utilisée dans des applications géostatistiques, et dans d'autres domaines, mais elle est pour l'instant quasiment inexploitée pour des structures de génie civil. Dans le travail de thèse, une optimisation de la méthode d'optimisation de l'échantillonnage spatial (MOES) originale inspirée du RSS et fondée sur la corrélation spatiale a été développée et testée dans le cas d'essais sur site avec deux fonctions objectifs complémentaires : l'erreur de prédiction moyenne et l'erreur sur l'estimation de la variabilité. Cette méthode est décomposée en trois parties. Tout d'abord, la corrélation spatiale des mesures ND est modélisée par un variogramme. Ensuite, la relation entre le nombre de mesures organisées dans une grille régulière et la fonction objectif est déterminée en utilisant une méthode d'interpolation spatiale appelée krigeage. Enfin, on utilise l'algorithme MOES pour minimiser la fonction objectif en changeant les positions d'un nombre réduit de mesures ND et pour obtenir à la fin une grille irrégulière optimale. Des essais destructifs (ED) sont nécessaires pour corroborer les informations obtenues par les mesures ND. En raison du coût ainsi que des dégâts possibles sur la structure, un plan d'échantillonnage optimal afin de prélever un nombre limité de carottes est important. Pour ce faire, une procédure utilisant la fusion des données fondée sur la théorie des possibilités et développée antérieurement, permet d'estimer les propriétés du béton à partir des ND. Par le biais d'un recalage nécessitant des ED réalisés sur carottes, elle est étalonnée. En sachant qu'il y a une incertitude sur le résultat des ED réalisés sur les carottes, il est proposé de prendre en compte cette incertitude et de la propager au travers du recalage sur les résultats des données fusionnées. En propageant ces incertitudes, on obtient des valeurs fusionnées moyennes par point avec un écart-type. On peut donc proposer une méthodologie de positionnement et de minimisation du nombre des carottes nécessaire pour ausculter une structure par deux méthodes : la première, en utilisant le MOES pour les résultats des propriétés sortis de la fusion dans chaque point de mesure et la seconde par la minimisation de l'écart-type moyen sur la totalité des points fusionnés, obtenu après la propagation des incertitudes des ED. Pour finir, afin de proposer une alternative à la théorie des possibilités, les réseaux de neurones sont également testés comme méthodes alternatives pour leur pertinence et leur simplicité d'utilisation. / Non-destructive testing methods (NDT) are essential for estimating concrete properties (mechanical or physical) and their spatial variability. They also constitute an useful tool to reduce the budget auscultation of a structure. The proposed approach is included in an ANR project (EvaDéOS) whose objective is to optimize the monitoring of civil engineering structures by implementing preventive maintenance to reduce diagnosis costs. In this thesis, the objective was to characterize at best a peculiar property of concrete (e.g. mechanical strength, porosity, degree of saturation, etc.), with technical ND sensitive to the same properties. For this aim, it is imperative to develop objective tools that allow to rationalize a test campaign on reinforced concrete structures. For this purpose, first, it is proposed an optimal spatial sampling tool to reduce the number of auscultation points. The most commonly used algorithm is the spatial simulated annealing (SSA). This procedure is regularly used in geostatistical applications, and in other areas, but yet almost unexploited for civil engineering structures. In the thesis work, an original optimizing spatial sampling method (OSSM) inspired in the SSA and based on the spatial correlation was developed and tested in the case of on-site auscultation with two complementary fitness functions: mean prediction error and the error on the estimation of the global variability. This method is divided into three parts. First, the spatial correlation of ND measurements is modeled by a variogram. Then, the relationship between the number of measurements organized in a regular grid and the objective function is determined using a spatial interpolation method called kriging. Finally, the OSSM algorithm is used to minimize the objective function by changing the positions of a smaller number of ND measurements and for obtaining at the end an optimal irregular grid. Destructive testing (DT) are needed to corroborate the information obtained by the ND measurements. Because of the cost and possible damage to the structure, an optimal sampling plan to collect a limited number of cores is important. For this aim, a procedure using data fusion based on the theory of possibilities and previously developed is used to estimate the properties of concrete from the ND. Through a readjustment bias requiring DTs performed on carrots, it is calibrated. Knowing that there is uncertainty about the results of DTs performed on carrots, it is proposed to take into account this uncertainty and propagate it through the calibration on the results of the fused data. By propagating this uncertainty, it is obtained mean fused values with a standard deviation. One can thus provide a methodology for positioning and minimizing the number of cores required to auscultate a structure by two methods: first, using the OSSM for the results of fused properties values in each measuring point and the second by the minimization of the average standard deviation over all of the fused points obtained after the propagation of DTs uncertainties. Finally, in order to propose an alternative to the possibility theory, neural networks are also tested as alternative methods for their relevance and usability.
104

Prévision du rayonnement solaire global par télédétection pour la gestion de la production d’énergie photovoltaïque / Nowcasting and very short term forecasting of the global horizontal irradiance at ground level : application to photovoltaic output forecasting

Dambreville, Romain 16 October 2014 (has links)
L’intégration des énergies intermittentes sur le réseau électrique existant soulèvedes problèmes de stabilité de la balance consommation/production. Afin de limiter les risques,la loi autorise un taux de pénétration maximum de ces énergies de 30% de la puissanceinstallée. Afin de pallier cette limitation, deux pistes sont envisagées, le stockage d’énergie etla prévision de production. Les travaux menés dans cette thèse s’inscrivent dans la secondecatégorie et se concentrent sur la prévision du rayonnement global au sol, ressource principaledes systèmes de production d’énergie photovoltaïque. Dans l’objectif d’une prévision à trèscourt terme (infra-horaire), la problématique développée concerne la fusion d’informationsprovenant d’une part d’observations satellitaires et de l’autre d’observations in-situ telles quedes images hémisphériques. L’approche suivie se veut progressive et s’articule autour de 4grand axes. Le premier chapitre énonce les définitions et les enjeux principaux liés à l’étudedu GHI en décrivant les différents facteurs physiques ayant des interactions sur sa mesure. Lesecond chapitre permet d’évaluer le potentiel des images hémisphériques pour l’estimation durayonnement global. On y développe une méthode d’estimation du GHI basée sur l’utilisationd’un réseau de neurones artificiels permettant d’effectuer une régression non linéaire entre descaractéristiques choisie de l’image et le rayonnement mesuré sur site par un pyranomètre. Letroisième chapitre concerne l’utilisation des images satellitaires pour la prévision à très courtterme du rayonnement global. L’originalité des méthodes proposées provient de l’utilisationen entrées de cartes de rayonnement dérivées des images satellitaires via une méthode externe.L’utilisation de ces cartes de rayonnement permet la construction de modèles linéairessimples (modèles auto-régressifs) grâce à l’homogénéité des données utilisées. Cependant,leur pertinence pour le calcul de champ de vecteurs a également été prouvé et validé dans unsecond modèle. La comparaison des deux modèles ainsi créés à partir d’imagerie satellitairea permis de caractériser les forces et faiblesses de ces modèles. L’intérêt de l’observationsatellitaire réside dans l’anticipation du déplacement des masses nuageuse. Cependant, unbiais non systématique persiste dans la conversion des valeurs des pixels en rayonnement.Ce biais est inhérent à la résolution spatio-temporelle de ces observations. Étant donné cesconsidérations, le chapitre 4 présente alors une méthode d’intégration des données acquisespar l’imagerie hémisphérique, disposant une meilleure résolution spatio-temporelle, dans lesrésultats de prévision satellitaires précédemment évoqués. On joint alors les caractéristiquesretenues au chapitre 2 dans un réseau de neurone avec la prévision pour produire uneprévision dont le biais est largement réduit. L’utilisation de caractéristiques dérivées del’imagerie hémisphérique à la place de simple mesures du pyranomètre est justifiée par l’effetde persistance non souhaité apportées par ces dernières. Ainsi, après avoir étudié chaquesource d’information séparément, on a pu développer un modèle leur permettant de secompléter. / To handle the integration of intermittent energies to the existing grid,managers require more and more acurate tools to forecast the primary resources. This thesisfocuses on the very short term forecast of the global horizontal irradiance (GHI), maininput for most photovoltaic power plant. We chose to use both ground based images fromhemispherical cameras and satellite images to provide a forecating tool. In the first handwe present a novel appraoch to estimate the GHI using ground based images. On secondhand, we propose several satellite based methods to forecast the GHI up to one hour. Finally,we developp a new method allowing us to merge both data in order to benefit from theirrespective advantages. All the methods were tested against real data acquired on the SIRTAsite, Polytechnique campus.
105

Gestion intelligente du réseau électrique réunionnais. Prévision de la ressource solaire en milieu insulaire / Intelligent management of electrical grid from La Reunion. Solar irradiance forecasting in an insular grid

Diagne, Hadja Maïmouna 28 April 2015 (has links)
L'intégration de la production des énergies renouvelables intermittentes dans le mix énergétique est aujourd'hui limitée à un seuil de 30 % de la puissance totale produite. Cette mesure vise à assurer la sécurité de l'alimentation électrique des réseaux insulaires en France. La levée de ce verrou technique ne pourra se faire qu'en apportant des solutions au caractère intermittent des sources d'énergies éolienne et photovoltaïque. Les difficultés énergétiques auxquelles sont confrontés aujourd'hui les milieux insulaires préfigurent celles que rencontreront la planète à plus ou moins long terme. Ces territoires sont des laboratoires uniques pour éprouver les nouvelles technologies de stockage, de gestion et de prévision de l'énergie. La contribution de ce travail de thèse se focalise sur la prévision du rayonnement solaire global à différents horizons de temps car la puissance photovoltaïque produite découle directement de l'intensité du rayonnement solaire global. Dans un premier temps, l'étude bibliographique a permis de classer les modèles de prévision numériques et les modèles de prévision statistiques en fonction de la résolution spatiale et temporelle. Par ailleurs, elle montre que les meilleurs performances sont obtenues avec les modèles hybrides. Dans un deuxième temps, un modèle de prévisions à court terme (J+1) est proposé avec le modèle Weather Research and Forecasting (WRF) et un réseau de neurone bayésien. L'hybridation de ces deux méthodes améliore les performances de prévisions à J+1. Dans un troisième temps, un modèle de prévision à très court terme (t+h) est proposé avec le modèle hybride de Kalman. Cette méthode produit d'une part une prévision énergétique et d'autre part une prévision multi-horizon. La comparaison de la performance de ces modèles avec la méthode de référence dite de persistance montre une amélioration de la qualité de la prévision. Enfin, la combinaison du filtre de Kalman avec le modèle numérique WRF permet une mise en œuvre opérationnelle de la prévision. / The integration of intermittent renewable energy in the energy mix is currently limited to a threshold of 30% of the total power being produced. This restriction aims at ensuring the safety of the power input. The elimination of this technical obstacle will be possible with solutions to energy intermittence of wind and solar energy. The energy issues which islands are facing today prefigure global problems in a more or less long term. These territories constitute unique laboratories for testing new technologies of storage, management and forecasting of energy. The contribution of this thesis focuses on the forecasting of global horizontal irradiance at different time horizons. Indeed, the generated PV power stems directly from the intensity of the global horizontal irradiance. First, the review of solar irradiance forecasting methods allows to classify numerical weather models and statistical forecasting methods depending on spatial and temporal resolution. Moreover, it shows that best performance is obtained with hybrid models. Second, a short-term forecast model (day ahead forecast) is developed with the Weather Research and Forecasting model (WRF) and a Bayesian neural network. The hybridization of these methods improves the day ahead forecast performance. Third, a model for forecasting the very short term is developped with the Kalman hybrid model. This method offers on the one hand an energy forecasting and on the other hand a multi-horizon forecast. Comparing the performance of the aforesaid with the reference method, namely the persistence method, shows an improvement of the quality of the forecasts. Combining the Kalman filter with the WRF numerical model allows an operational implementation of the forecast.
106

Prédire la chute de la personne âgée : apports des modèles mathématiques non-linéaires / Predicting of falls in the elderly : using of non-linear of mathematical models

Kabeshova, Anastasiia 14 October 2015 (has links)
En 2015, la chute de la personne âgée reste toujours un événement majeur, quel que soit l’angle de vue considéré. Elle est toujours associée à une forte morbi-mortalité, nombreuses incapacités, altération la qualité de vie du chuteur, mais aussi, en raison du vieillissement de la population, avec le nombre croissant de chuteurs requérant une prise en charge médicale. Cette situation repose en bonne partie sur notre incapacité à identifier la personne âgée qui est le plus à risque de chute, cette étape étant la première de toute stratégie d’intervention efficace et efficiente. Il est donc nécessaire voir obligatoire aujourd’hui de redoubler nos efforts sur l’amélioration de la prédiction de la chute. En contrepartie de nouvelles opportunités s’ouvrent à nous en raison de l’implantation et de l’informatisation des données médicales. La chute doit être considérée comme un événement chaotique et sa prédiction doit se faire via de nouveaux modèles mathématiques intégrant la particularité de ce comportement. C’est pour cette raison que des méthodes d’analyse basée sur l'intelligence artificielle semblent être une solution appropriée. C’est à partir de ce constat que nous avons émis l’hypothèse que les modèles mathématiques issus de l’intelligence artificielle devaient permettre d’atteindre une qualité de la prédiction meilleure. L’objectif principal de cette thèse est d’étudier la qualité de la prédiction de la chute, récurrente ou non, chez des personnes âgées de 65 ans et plus, en utilisant les réseaux neuronaux et un modèle de logique floue, en les comparant avec des modèles mathématiques linéaires utilisés classiquement dans la littérature. L’ensemble de nos résultats confirme notre hypothèse de départ en montrant que le choix du modèle mathématique influence la qualité de la prédiction de la chute, les modèles non linéaires, et notamment les réseaux neuronaux et les systèmes de logique flous, étant plus performants que les modèles linéaires pour la prédiction des chutes surtout lorsqu’elles sont récurrentes. / Falls in the elderly are still a major issue in 2015 because they are associated with high rate of morbidity, mortality and disability, which affect the quality of life. From the patient’s perspective, it is still associated with high morbidity, mortality and disability, which affect the quality of life. The number of fallers requiring medical and/or social care is growing up due to aging population. This fact seems paradoxical since during the recent years the knowledge about the mechanisms of falls and the quality of interventions to support fallers significantly increased. This is largely based on our inability to predict correctly the risk of falling among the elderly person, knowing that this is the first step of any efficient and effective intervention strategies. Therefore it is necessary today to double our efforts in improving the prediction of falls. Nonetheless, new opportunities and advanced technologies provide to us the possibility of computerizing of medical data and research, and also to improve prediction of falls using new approaches. A fall should be considered as a chaotic event, and its prediction should be done via new mathematical models incorporating the feature of this behaviour. Thus, the methods ofartificial intelligence-based analysis seem to be an appropriate solution to analyse complex medical data. These artificial intelligence techniques have been already used in many medical areas, but rarely in the field of fall prediction. Artificial neural networks are the most commonly used methods while other promising techniques based on fuzzy logic are less often applied.Based on this observation we have formulated the hypothesis that non-linear mathematical models using artificial intelligence are the models, which are the most likely to achieve the bestquality of the prediction. The main objective of this thesis is to study the quality of theprediction of falls, recurrent or not, among the adults aged 65 years and more,applying neuralnetworks and fuzzy logic models, and comparing them either among themselves or with the linear mathematical models conventionally employed in the literature for fall prediction. The first cross-sectional study was conducted by using a decision tree to explore the risk of recurrent falls in various combinations of fall risk factors compared to a logistic regression model. The second study was designed to examine the efficiency of artificial neural networks (Multilayer Perceptron and Neuroevolution of Augmenting Topologies) to classify recurrent and nonrecurrent fallers by using a set of clinical characteristics corresponding to risk factors measured among seniors living in the community. Finally, in the third study we compared the results of different statistical methods (linear and nonlinear) in order to identify the risk of falls using 7 clinical variables, separating the collection mode (retrospective and prospective) of the fall and its recurrence. The results confirm our hypothesis showing that the choice of the mathematical model affects the quality of fall prediction. Nonlinear models, such as neural networks and fuzzy logic systems, are more efficient than linear models for the prediction of falls especially for recurrent falls. However, the results show that the balance between different criteria used to judge the quality of the forecast (sensitivity, specificity, positive and negative predictive value, area under the curve, positive and negative likelihood ratio, and accuracy) has not been always correct, emphasizing the need to continue the development of the models whose intelligence should specifically predict the fall.
107

Contribution à la modélisation et au contrôle de trajectoire de Trackers photovoltaïques à haute concentration (HCPV) / Contribution to the modeling and control of high concentrated Photovoltaic tracker (hcpv)

Sahnoun, Mohamed Aymen 18 December 2015 (has links)
Dans une optique de maximisation de la production et de réduction des coûts d’installation, de maintenance et d’entretien des trackers solaires, qui permettent d’orienter les modules photovoltaïques à haute concentration (HCPV), ces travaux de thèse se focalisent sur l’amélioration de la précision et la réduction du coût de la stratégie de génération de la trajectoire du tracker. Dans un premier temps, un simulateur de tracker HCPV est développé offrant une étude de l’influence de la performance du suivi du soleil sur la production des modules HCPV, permettant ainsi une étude et une comparaison des stratégies de génération de trajectoires. Le simulateur est basé sur un modèle comportemental de module HCPV monté sur tracker permettant de prédire la puissance maximale du module HCPV en fonction de l’erreur de position du tracker face au soleil, de l’ensoleillement direct et de la température. Une première stratégie de commande dite de référence a été implémentée sur ce simulateur. C’est une commande hybride qui repose sur un viseur solaire pour corriger l’erreur de poursuite par un calcul astronomique. Ensuite, afin d’améliorer les performances et de réduire les coûts de cette stratégie, une nouvelle approche sans capteur est développée en se basant sur une méthode d’optimisation du gradient de puissance pour la génération de la trajectoire du tracker. Une étude complémentaire est également exposée afin de mettre en évidence des algorithmes de recherche de la puissance maximale (MPPT) pouvant offrir des temps de réponse suffisamment rapides pour ne pas affecter la qualité de l’évaluation du gradient de puissance. Dans ce contexte, une commande MPPT P&O améliorée par un réseau de neurones à complexité réduite est proposée, assurant un compromis entre précision, simplicité et rapidité / This work focuses on improving the accuracy and on reducing the cost of the tracker generating trajectory strategy, in order to maximize the production and to reduce the installation and the maintenance cost of a solar tracker orienting high concentrated photovoltaic modules (HCPV). Initially, we propose a behavioral modeling of the HCPV module mounted on a dual axis tracker in order to study the influence of the tracking performance on the module power production. Then, this simulator can be used to test control strategies and to compare their performance. Firstly, a classical control strategy is implemented in the simulator. It is based on a hybrid control operating an astronomical calculation to follow the sun path, and a sun sensor to correct the tracking error. A sensorless strategy is proposed in this work to reduce the cost of the HCPV tracker control. This strategy is based on a gradient optimization algorithm to generate the tracker trajectory and to catch the sun path. Tested on the simulator, this strategy presents the same accuracy as the classical strategy while being less costly. The last study proposed in this thesis work concerns maximum power point tracking (MPPT) algorithms, in order to respond to a given problem relating to the practical implementation of gradient algorithm. In this context, we propose an original optimization of the P&O MPPT control with a neural network algorithm leading to a significant reduction of the computational cost required to train it. This approach, which is ensuring a good compromise between accuracy and complexity is sufficiently fast to not affect the quality of the evaluation of the gradient.
108

Conception d’un circuit de lecture à étampes temporelles multiples pour un photodétecteur destiné à la tomographie d’émission par positrons

Lemaire, William January 2018 (has links)
La médecine moderne fait usage de divers appareils pour faciliter le diagnostic et le traitement des maladies. Parmi ceux-ci, l’imagerie par tomographie d’émission par positrons (TEP) se démarque par sa capacité d’imager des processus biologiques spécifiques comme le métabolisme du glucose. Cette caractéristique permet de mettre en évidence des signes distinctifs des maladies comme le cancer à l’aide de radiotraceurs capables de cibler certaines cellules. Dans le but de favoriser de meilleurs diagnostics et de mener des recherches de pointe dans le domaine médical, la qualité des images produites par les appareils TEP doit être améliorée. Les avancées des dernières années ont permis d’améliorer la résolution spatiale des images jusqu’à pratiquement atteindre la limite théorique imposée par le déplacement du positron lors du processus de désintégration. Depuis, les travaux s’orientent plutôt vers l’amélioration du contraste de l’image en intégrant la mesure du temps de vol (TdV) dans l’algorithme de reconstruction. Le défi dans cette mesure réside dans la conception d’un photodétecteur avec une résolution temporelle suffisante pour localiser le lieu d’émission du radiotraceur entre deux détecteurs coïncidents. La plupart des photodétecteurs actuels utilisent un seuil sur le nombre de photons de scintillation observé pour déterminer le temps d’arrivée des photons d’annihilation dans le scintillateur. Cependant, plusieurs travaux ont démontré qu’une meilleure résolution temporelle est atteignable en pondérant adéquatement l’information temporelle numérisée de plusieurs photons de scintillation à la place de n’en considérer qu’un seul. Dans le but d’améliorer la résolution temporelle des photodétecteurs, l’utilisation d’un estimateur statistique combinant l’information de plusieurs photons de scintillation se révèle une méthode prometteuse en considérant les résultats théoriques. Cependant, une implémentation matérielle pouvant être intégrée à un appareil TEP reste à être démontrée. Les travaux de recherche présentés dans ce mémoire portent sur l’intégration d’un tel estimateur statistique à un photodétecteur pour la TEP. Ces travaux ont mené au développement d’une chaine d’acquisition qui comporte 1) un circuit de lecture, 2) une trieuse, 3) un filtre de bruit thermique et 4) un estimateur statistique du temps d’interaction basé sur le Best Linear Unbiased Estimator (BLUE). L’intégration de cette chaine à même le circuit intégré du photodétecteur de 1 x 1 mm2 en CMOS 65 nm permet de réduire la bande passante de 250 Mbit/s à 0,5 Mbit/s et le temps mort de 68,6 μs à 1024 ns. Des simulations démontrent l’atteinte d’une résolution temporelle qui s’approche de la limite inférieure théorique (appelée borne de Cramér-Rao) quant à la résolution temporelle atteignable par ce photodétecteur.
109

Mesures, modélisation, prédiction des propriétés physico-chimiques dans les aliments à l'aide d'un modèle thermodynamique : application aux produits carnés et aux produits laitiers / Measurements, modeling and prediction of physical-chemical properties in foods using a thermodynamic model : applying to meat products and dairy products

Musavu-Ndob, Aïchatou 24 March 2016 (has links)
Le développement de simulateurs de procédés alimentaires est limité par le manque d’outils permettant de prédire les propriétés physicochimiques (pH, aw, Eh) dans les aliments. Les aliments sont généralement des milieux très complexes contenant un nombre élevé de constituants (eau, solvants organiques, solides dissous, gaz dissous, espèces ioniques, macromolécules), et ces propriétés sont essentielles pour caractériser leur qualité technologique, sanitaire et organoleptique. Cependant, elles évoluent au cours d’un procédé de transformation ou de conservation. La prédiction de ces propriétés physicochimiques passe par la détermination de potentiels chimiques. Une approche de modélisation basée sur la thermodynamique est utilisée pour prédire l’évolution du pH et de l’aw de produits carné et produits laitiers dans certaines conditions rencontrées en industrie alimentaire. En s’appuyant sur le modèle ULPDHS développé par Achard en 1992 pour les milieux liquides, ce travail a nécessité la création de molécules fictives à ayant le même comportement que les aliments modélisés. La cohérence entre les données expérimentales et les données prédites est satisfaisante, le modèle thermodynamique permet de prédire correctement le pH et l’aw des différents milieux étudiés. Cependant l’intégration du modèle thermodynamique dans un simulateur de procédé nécessite la création d’un réseau de neurone mimétique du modèle thermodynamique. En conséquent a été développé un réseau de neurones dont les sorties sont identiques aux sortie du modèle thermodynamique. Ainsi il est possible d’intégrer les résultats du modèles thermodynamique dans un simulateur de procédé sans trop rallonger les temps de simulations. Les résultats obtenus dans ce travail peuvent être une aide importante à la formulation de nouveaux produits. Le modèle étant entièrement prédictif, il est possible de déterminer l’effet d’une modification de composition de l’aliment sur le pH et l’aw. / The development of food process simulators is actually limited by absence of tools that can predict de evolution of the physical-chemical properties (pH, aw, Eh) in food. Food are generallymulticomponent medias (including water, organic solvents, dissolved solids, dissolved gases, ionic species, macromolecules), and these properties are essential to characterize technological, sanitary and organoleptic qualities. However, these physical-chemical properties change during transformation or preservation process. The prediction of these properties requires the determination of chemical potentials. Thermodynamic approach is used to predict pH and water activity of meat and dairy products in different condition encountered in the food industry. Based on the model ULPDHS developed by Achard in 1992 for liquid medias, this work required the creation of fictive molecule who have the same behavior as modeled food. Consistency between the experimental data and the predicted data is very satisfactory, the thermodynamic model correctly predict the pH and aw of different products studied. The integration of the thermodynamic model in a process simulator requires the creation of a mimetic neural network. Therefore, was developed a neural network whose outputs are identical to the output of the thermodynamic model. So it is possible to integrate the results of thermodynamic models in a process simulator without too lengthen the time simulations. The results obtained in this work can be an important aid to the formulation of new products. The model is completely predictive and it is possible to determine the effect of a change in the composition of the feed on the pH and aw.
110

Structure des assemblages de diatomées benthiques en rivière : l'environnement explique-t-il tout ? : processus écologiques et développement méthodologiques / Structure of benthic diatom assemblages in rivers : is environment the only explanation ?

Bottin, Marius 28 June 2012 (has links)
Les diatomées sont des algues microscopiques qui sont largement utilisées pour évaluer la qualité écologique des cours d'eau.Les méthodes utilisées se basent sur des modèles simplifiés de biologie des communautés, dans lesquels seules les réponses individuelles des espèces à l'environnement sont prises en compte.Le test de l'importance de processus complémentaires a montré un impact fort des dynamiques de colonisation des espèces, mais un impact négligeable des phénomènes de compétition ou de facilitation.Ces processus impliquent une structure des assemblages bien plus complexe que celle habituellement assumée par les méthodologies de bioindication.L'adaptation et la mise en oeuvre de méthodes de réseaux de neurones et de logique floue nous ont permis de redéfinir des éco-régions françaises et de décrire des relations générales entre les traits biologiques des espèces et l'environnement, tout en prenant mieux en compte cette complexité. / Diatoms are microscopic algae which are widely used to monitor the ecological quality of strems and rivers. The regular methodologies are based on simpllified community models. In these models, only the invidual species responses to environment are accounted for.Testing the importance of complementary processes showed a significant effect of colonization dynamics, but only a slight effect of biotic relationships. These processes led us to considerate a more complex assemblage structure than the one usually assumed by the biomonitoring methodologies.Therefore we implemented both neural networks models and fuzzy logic methodologies, in order to refine French ecoregions and to describe relationships between species traits and environment.

Page generated in 0.0876 seconds