• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 75
  • 20
  • 3
  • 1
  • 1
  • Tagged with
  • 100
  • 100
  • 40
  • 20
  • 20
  • 16
  • 14
  • 14
  • 14
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

La réinsertion sociale et les besoins criminogènes des hommes adultes ayant commis des crimes de nature sexuelle

Togola, Kadidia 13 December 2023 (has links)
Guidée par le modèle théorique du risque du besoin et de la réceptivité (RBR) d'Andrews et Bonta, la présente étude s'est centrée sur les enjeux reliés à la réinsertion sociale des individus ayant commis des délits à caractère sexuel. Les besoins criminogènes, également appelés facteurs dynamiques ont fait l'objet d'une attention particulière puisqu'ils peuvent nous informer sur la réinsertion sociale. Dans le cadre de la recherche, des facteurs dynamiques associés à la récidive criminelle ont été sélectionnés afin d'évaluer s'ils avaient un impact sur la réinsertion sociale. Afin d'avoir un aperçu plus concret de ces enjeux, un échantillon de 300 contrevenants ayant commis des délits à caractère sexuel ont été comparés avec un autre groupe de 300 contrevenants ayant commis un délit qui n'était pas de nature sexuelle. L'outil actuariel de quatrième génération nommé LS/CMI a été utilisé dans le cadre de la recherche puisqu'il permet d'évaluer et de gérer le risque des personnes contrevenantes. Des analyses descriptives et bivariées ont été effectuées afin d'identifier si des similarités et des différences existent entre les deux groupes. Les résultats de l'étude ont mis en évidence que les dimensions en lien avec les fréquentations, les loisirs et les activités récréatives, les attitudes et orientations procriminelles et la famille et le couple étaient des besoins criminogènes à surveiller pour ces individus lors de leur réinsertion sociale. Les résultats de l'étude suggèrent également qu'une attention soit portée sur l'évaluation des besoins criminogènes liés à la réinsertion sociale et non seulement sur les facteurs dynamiques liés à la récidive sexuelle, car les besoins criminogènes informent aussi sur la réinsertion sociale. La réinsertion sociale des personnes ayant commis des délits à caractère sexuel est un sujet essentiel auquel il faut se pencher davantage dans la pratique du travail social. Le développement des connaissances sur cette population et les problématiques reliées pourront amener les travailleurs sociaux à être plus impliqués dans la sphère sociojudiciaire et y apporter leur savoir-faire dans la pratique.
62

Integrated Population Models and Habitat Metrics for Wildlife Management

Nowak, James 23 April 2018 (has links)
La gestion des espèces est entièrement dépendante de notre capacité à évaluer les décisions de gestion et de les corriger si nécessaire. Dans un monde idéal les gestionnaires auraient une connaissance extensive et mécanistique des systèmes qu’ils gèrent et ces connaissances seraient mises à jour de façon continue. Dans la réalité, les gestionnaires doivent gérer les populations et développer des objectifs de populations en dépit de leur connaissance imparfaites et des manques de données chronique. L’émergence de nouveaux outils statistiques ouvrent toutefois la porte à de nouvelles possibilités ce qui permet une gestion plus proactive de la faune. Dans le Chapitre 1, j’ai évalué l’efficacité de modèles intégrés de populations (MIP) à combler des lacunes dans notre connaissance en présence de données limitées et de modèles de populations mal spécifiés. J’ai démontré que les MIP peuvent maintenir une précision élevée et présenter un biais faible, et ce dans une large gamme de conditions. Dans le chapitre 2, j’ai développé une approche de MIP qui inclut des effets aléatoires entre les différentes populations. J’ai constaté que les effets aléatoires permettent améliorer considérablement les performances des algorithmes d'optimisation, produisent des estimations raisonnables et permettent même d'estimer les paramètres pour les populations avec des données très limitées. J’ai par la suite appliqué le modèle à 51 unités de gestion du Wapiti en Idaho, USA afin de démonter son application. La viabilité des populations à long terme est généralement réalisé à grâce à des manipulations d’habitat qui sont identifiées grâces à des méthodes de sélection des ressources. Les méthodes basées sur la sélection des ressources assume cependant que l’utilisation disproportionnée d’une partie du paysage reflète la volonté d’un individu de remplir une partie de son cycle biologique. Toutefois, dans le troisième chapitre j’ai démontré que des simples mesures d’habitat sont à mieux de décrire la variation dans la survie des Wapitis. Selon, mes résultats, la variation individuelle dans la sélection des habitats était le modèle qui expliquait le mieux la corrélation entre les habitats et le succès reproducteur et que les coefficients de sélection des ressources n’étaient pas corrélés à la survie. / Successful management of harvested species critically depends on an ability to predict the consequences of corrective actions. Ideally, managers would have comprehensive, quantitative and continuous knowledge of a managed system upon which to base decisions. In reality, wildlife managers rarely have comprehensive system knowledge. Despite imperfect knowledge and data deficiencies, a desire exists to manipulate populations and achieve objectives. To this end, manipulation of harvest regimes and the habitat upon which species rely have become staples of wildlife management. Contemporary statistical tools have potential to enhance both the estimation of population size and vital rates while making possible more proactive management. In chapter 1 we evaluate the efficacy of integrated population models (IPM) to fill knowledge voids under conditions of limited data and model misspecification. We show that IPMs maintain high accuracy and low bias over a wide range of realistic conditions. In recognition of the fact that many monitoring programs have focal data collection areas we then fit a novel form of the IPM that employs random effects to effectively share information through space and time. We find that random effects dramatically improve performance of optimization algorithms, produce reasonable estimates and make it possible to estimate parameters for populations with very limited data. We applied these random effect models to 51 elk management units in Idaho, USA to demonstrate the abilities of the models and information gains. Many of the estimates are the first of their kind. Short-term forecasting is the focus of population models, but managers assess viability on longer time horizons through habitat. Modern approaches to understanding large ungulate habitat requirements largely depend on resource selection. An implicit assumption of the resource selection approach is that disproportionate use of the landscape directly reflects an individual’s desire to meet life history goals. However, we show that simple metrics of habitat encountered better describe variations in elk survival. Comparing population level variation through time to individual variation we found that individual variation in habitat used was the most supported model relating habitat to a fitness component. Further, resource selection coefficients did not correlate with survival.
63

Analyse de l'exposition aux ondes électromagnétiques des enfants dans le cadre des nouveaux usages et nouveaux réseaux

Ghanmi, Amal 06 March 2013 (has links) (PDF)
Dans un contexte d'évolution incessante des moyens de communications sans fil, les inquiétudes perdurent malgré les législations existantes. L'accroissement d'usages divers et variés des téléphones mobiles impliquent des questionnements sur l'exposition induite par ces nouveaux usages. Ce manuscrit permet d'enrichir les connaissances en dosimétrie numérique en prenant en considération la variabilité des conditions d'utilisation. Pour une évaluation précise de l'exposition, la méthode des Différences Finies dans le Domaine Temporel (FDTD) qui a prouvé son efficacité, est employée. L'objectif est de quantifier précisément le Débit d'Absorption Spécifique (DAS) induit dans des organes comme le cerveau et les organes reproducteurs. Dans cette analyse, une attention particulière sera portée sur les usages potentiels des téléphones portables par les enfants. Le choix des configurations couvre différentes technologies, usages et bandes de fréquences permettant d'étudier la sensibilité du DAS à la variabilité de ces paramètres, pour une meilleure maîtrise de l'exposition réelle, au-delà du problème de la conformité. Le nombre important des variables oblige à simplifier les modèles de simulation par la construction de méta-modèles statistiques afin de réduire les coûts de calcul. La méthode spectrale par Chaos Polynomial (CP) dédiée à la gestion des incertitudes et à l'analyse de sensibilité est adoptée pour la mise en place d'un modèle approché du DAS. Afin d'aboutir à une représentation par CP fiable et peu coûteuse en termes de simulations, l'utilisation par CP creux et adaptatif est appliquée. Seuls les termes les plus significatifs sont retenus dans la décomposition par CP. Cette approche est appliquée aux problèmes en dosimétrie numérique afin de propager les incertitudes portant sur les paramètres d'entrée dans les simulations et de quantifier l'impact de ces incertitudes sur l'exposition (e.g. impact de la localisation du téléphone sur la dispersion du DAS) avec un faible coût de calcul
64

Three Essays in Functional Time Series and Factor Analysis

Nisol, Gilles 20 December 2018 (has links) (PDF)
The thesis is dedicated to time series analysis for functional data and contains three original parts. In the first part, we derive statistical tests for the presence of a periodic component in a time series of functions. We consider both the traditional setting in which the periodic functional signal is contaminated by functional white noise, and a more general setting of a contaminating process which is weakly dependent. Several forms of the periodic component are considered. Our tests are motivated by the likelihood principle and fall into two broad categories, which we term multivariate and fully functional. Overall, for the functional series that motivate this research, the fully functional tests exhibit a superior balance of size and power. Asymptotic null distributions of all tests are derived and their consistency is established. Their finite sample performance is examined and compared by numerical studies and application to pollution data. In the second part, we consider vector autoregressive processes (VARs) with innovations having a singular covariance matrix (in short singular VARs). These objects appear naturally in the context of dynamic factor models. The Yule-Walker estimator of such a VAR is problematic, because the solution of the corresponding equation system tends to be numerically rather unstable. For example, if we overestimate the order of the VAR, then the singularity of the innovations renders the Yule-Walker equation system singular as well. Moreover, even with correctly selected order, the Yule-Walker system tends be close to singular in finite sample. We show that this has a severe impact on predictions. While the asymptotic rate of the mean square prediction error (MSPE) can be just like in the regular (non-singular) case, the finite sample behavior is suffering. This effect turns out to be particularly dramatic in context of dynamic factor models, where we do not directly observe the so-called common components which we aim to predict. Then, when the data are sampled with some additional error, the MSPE often gets severely inflated. We explain the reason for this phenomenon and show how to overcome the problem. Our numerical results underline that it is very important to adapt prediction algorithms accordingly. In the third part, we set up theoretical foundations and a practical method to forecast multiple functional time series (FTS). In order to do so, we generalize the static factor model to the case where cross-section units are FTS. We first derive a representation result. We show that if the first r eigenvalues of the covariance operator of the cross-section of n FTS are unbounded as n diverges and if the (r+1)th eigenvalue is bounded, then we can represent the each FTS as a sum of a common component driven by r factors and an idiosyncratic component. We suggest a method of estimation and prediction of such a model. We assess the performances of the method through a simulation study. Finally, we show that by applying our method to a cross-section of volatility curves of the stocks of S&P100, we have a better prediction accuracy than by limiting the analysis to individual FTS. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
65

Développement d'algorithmes de détection et d'identification gamma : application à la spectrométrie gamma embarquée / Embedded gamma spectrometry : development of gamma detection and identification algorithms

Wilhelm, Emilien 24 November 2016 (has links)
Depuis le début des années 1980, le Commissariat à l’Énergie Atomique développe et met en oeuvre un système de spectrométrie gamma aéroportée, appelé HELINUCTM. Ce système, composé de détecteurs NaI(Tl) d’un volume de 16 L, est utilisé afin d’établir un état des lieux radiologique des sites survolés. Les principales missions du système HELINUC consistent en la réalisation de contrôles environnementaux, l’intervention en situation de crise et la recherche de sources ponctuelles. La réalisation de ces missions nécessite le développement de méthodes d’analyse adaptées. L’approche considérée dans cette thèse repose sur une rupture conceptuelle de l’analyse des spectres par rapport aux méthodes utilisées jusqu’alors au CEA : l’analyse ne repose plus sur une considération individuelle et séquentielle des mesures aéroportées, mais sur une considération globale et simultanée de celles-ci. L’étude et le développement de méthodes statistiques adaptées à la quantification des radionucléides naturels et du 137Cs (de 600 keV à 3 MeV), à l’estimation de la contamination en 241Am (basse énergie, inférieure à100 keV) en cas de crise radiologique et la détection de sources ponctuelles (moyenne énergie, entre 100 keV et600 keV) permettent d’améliorer la précision sur les activités déterminées en vol et la détection de sources de faibles activités. / Since the beginning of 1980’s, the CEA has been developing an airborne gamma spectrometry (AGS) system called HELINUCTM using large volume (16 L) NaI(Tl) detectors. HELINUC is used to produce radioactivity mapping of the soil. The different missions of HELINUC are environmental control of radioactivity, nuclear emergency response and research of orphan sources. The continuous development of analysis methods is then required.The approach considered in this thesis is based on a conceptual break from the analysis of spectra compared to the methods used at the CEA until now: the analysis does not rely on an individual and sequential consideration of airborne measurements, but on an overall and simultaneous consideration of them. The study and development of statistical methods for the quantification of natural radionuclides and 137Cs (from 600 keV to 3 MeV), for the estimation of 241Am contamination (low energy, inferior to 100 keV) in case of radiological emergency and for the detection of orphan sources (medium energy, between 100 keV and 600 keV) improve the accuracy of activities estimation and detection of low activities sources.
66

Apprentissage par renforcement pour la généralisation des approches automatiques dans la conception des systèmes de dialogue oral / Statistical methods for a oral human-machine dialog system

Pinault, Florian 24 November 2011 (has links)
Les systèmes de dialogue homme machine actuellement utilisés dans l’industrie sont fortement limités par une forme de communication très rigide imposant à l’utilisateur de suivre la logique du concepteur du système. Cette limitation est en partie due à leur représentation de l’état de dialogue sous la forme de formulaires préétablis.Pour répondre à cette difficulté, nous proposons d’utiliser une représentation sémantique à structure plus riche et flexible visant à permettre à l’utilisateur de formuler librement sa demande.Une deuxième difficulté qui handicape grandement les systèmes de dialogue est le fort taux d’erreur du système de reconnaissance vocale. Afin de traiter ces erreurs de manière quantitative, la volonté de réaliser une planification de stratégie de dialogue en milieu incertain a conduit à utiliser des méthodes d’apprentissage par renforcement telles que les processus de décision de Markov partiellement observables (POMDP). Mais un inconvénient du paradigme POMDP est sa trop grande complexité algorithmique. Certaines propositions récentes permettent de réduire la complexité du modèle. Mais elles utilisent une représentation en formulaire et ne peuvent être appliqués directement à la représentation sémantique riche que nous proposons d’utiliser.Afin d’appliquer le modèle POMDP dans un système dont le modèle sémantique est complexe, nous proposons une nouvelle façon de contrôler sa complexité en introduisant un nouveau paradigme : le POMDP résumé à double suivi de la croyance. Dans notre proposition, le POMDP maitre, complexe, est transformé en un POMDP résumé, plus simple. Un premier suivi de croyance (belief update) est réalisé dans l’espace maitre (en intégrant des observations probabilistes sous forme de listes nbest). Et un second suivi de croyance est réalisé dans l’espace résumé, les stratégies obtenues sont ainsi optimisées sur un véritable POMDP.Nous proposons deux méthodes pour définir la projection du POMDP maitre en un POMDP résumé : par des règles manuelles et par regroupement automatique par k plus proches voisins. Pour cette dernière, nous proposons d’utiliser la distance d’édition entre graphes, que nous généralisons pour obtenir une distance entre listes nbest.En outre, le couplage entre un système résumé, reposant sur un modèle statistique par POMDP, et un système expert, reposant sur des règles ad hoc, fournit un meilleur contrôle sur la stratégie finale. Ce manque de contrôle est en effet une des faiblesses empêchant l’adoption des POMDP pour le dialogue dans l’industrie.Dans le domaine du renseignement d’informations touristiques et de la réservation de chambres d’hôtel, les résultats sur des dialogues simulés montrent l’efficacité de l’approche par renforcement associée à un système de règles pour s’adapter à un environnement bruité. Les tests réels sur des utilisateurs humains montrent qu’un système optimisé par renforcement obtient cependant de meilleures performances sur le critère pour lequel il a été optimisé. / Dialog managers (DM) in spoken dialogue systems make decisions in highly uncertain conditions, due to errors from the speech recognition and spoken language understanding (SLU) modules. In this work a framework to interface efficient probabilistic modeling for both the SLU and the DM modules is described and investigated. Thorough representation of the user semantics is inferred by the SLU in the form of a graph of frames and, complemented with some contextual information, is mapped to a summary space in which a stochastic POMDP dialogue manager can perform planning of actions taking into account the uncertainty on the current dialogue state. Tractability is ensured by the use of an intermediate summary space. Also to reduce the development cost of SDS an approach based on clustering is proposed to automatically derive the master-summary mapping function. A implementation is presented in the Media corpus domain (touristic information and hotel booking) and tested with a simulated user.
67

Exploration d'approches statistiques pour le résumé automatique de texte

Boudin, Florian 05 December 2008 (has links) (PDF)
Un résumé est un texte reformulé dans un espace plus réduit. Il doit exprimer avec un minimum de mots le contenu essentiel d'un document. Son but est d'aider le lecteur à repérer les informations qui peuvent l'intéresser sans pour autant devoir lire le document en entier. Mais pourquoi avons-nous tant besoin de résumés? Simplement parce que nous ne disposons pas d'assez de temps et d'énergie pour tout lire. La masse d'information textuelle sous forme électronique ne cesse d'augmenter, que ce soit sur Internet ou dans les réseaux des entreprises. Ce volume croissant de textes disponibles rend difficile l'accès à l'information désirée sans l'aide d'outils spécifiques. Produire un résumé est une tâche très complexe car elle nécessite des connaissances linguistiques ainsi que des connaissances du monde qui restent très difficiles à incorporer dans un système automatique. Dans cette thèse de doctorat, nous explorons la problématique du résumé automatique par le biais de trois méthodes statistiques permettant chacune la production de résumés répondant à une tâche différente.<br /><br />Nous proposons une première approche pour la production de résumé dans le domaine spécialisé de la Chimie Organique. Un prototype nommé YACHS a été déve- loppé pour démontrer la viabilité de notre approche. Ce système est composé de deux modules, le premier applique un pré-traitement linguistique particulier afin de tenir compte de la spécificité des documents de Chimie Organique tandis que le second sélectionne et assemble les phrases à partir de critères statistiques dont certains sont spécifiques au domaine. Nous proposons ensuite une approche répondant à la problématique du résumé automatique multi-documents orienté par une thématique. Nous détaillons les adaptations apportées au système de résumé générique Cortex ainsi que les résultats observés sur les données des campagnes d'évaluation DUC. Les résultats obtenus par la soumission du LIA lors des participations aux campagnes d'évaluations DUC 2006 et DUC 2007 sont discutés. Nous proposons finalement deux méthodes pour la génération de résumés mis-à-jour. La première approche dite de maximisation- minimisation a été évaluée par une participation à la tâche pilote de DUC 2007. La seconde méthode est inspirée de Maximal Marginal Relevance (MMR), elle a été évaluée par plusieurs soumissions lors de la campagne TAC 2008.
68

Analyse propabiliste régionale des précipitations : prise en compte de la variabilité et du changement climatique

Sun, Xun 28 October 2013 (has links) (PDF)
Les événements de pluies extrêmes et les inondations qui en résultent constituent une préoccupation majeure en France comme dans le monde. Dans le domaine de l'ingénierie, les méthodes d'analyse probabiliste sont pratiquement utilisées pour prédire les risques, dimensionner des ouvrages hydrauliques et préparer l'atténuation. Ces méthodes sont classiquement basées sur l'hypothèse que les observations sont identiquement distribuées. Il y a aujourd'hui de plus en plus d'éléments montrant que des variabilités climatiques à grande échelle (par exemple les oscillations El Niño - La Niña, cf. indice ENSO) ont une influence significative sur les précipitations dans le monde. Par ailleurs, les effets attendus du changement climatique sur le cycle de l'eau remettent en question l'hypothèse de variables aléatoires "identiquement distribuées" dans le temps. Il est ainsi important de comprendre et de prédire l'impact de la variabilité et du changement climatique sur l'intensité et la fréquence des événements hydrologiques, surtout les extrêmes. Cette thèse propose une étape importante vers cet objectif, en développant un cadre spatio-temporel d'analyse probabiliste régionale qui prend en compte les effets de la variabilité climatique sur les événements hydrologiques. Les données sont supposées suivre une distribution, dont les paramètres sont liés à des variables temporelles et/ou spatiales à l'aide de modèles de régression. Les paramètres sont estimés avec une méthode de Monte-Carlo par Chaînes de Markov dans un cadre Bayésien. La dépendance spatiale des données est modélisée par des copules. Les outils de comparaison de modèles sont aussi intégrés. L'élaboration de ce cadre général de modélisation est complétée par des simulations Monte-Carlo pour évaluer sa fiabilité. Deux études de cas sont effectuées pour confirmer la généralité, la flexibilité et l'utilité du cadre de modélisation pour comprendre et prédire l'impact de la variabilité climatique sur les événements hydrologiques. Ces cas d'études sont réalisés à deux échelles spatiales distinctes: * Echelle régionale: les pluies d'été dans le sud-est du Queensland (Australie). Ce cas d'étude analyse l'impact de l'oscillation ENSO sur la pluie totale et la pluie maximale d'été. En utilisant un modèle régional, l'impact asymétrique de l'ENSO est souligné: une phase La Niña induit une augmentation significative sur la pluie totale et maximale, alors qu'une phase El Niño n'a pas d'influence significative. * Echelle mondiale: une nouvelle base de données mondiale des précipitations extrêmes composée de 11588 stations pluviométriques est utilisée pour analyser l'impact des oscillations ENSO sur les précipitations extrêmes mondiales. Cette analyse permet d'apprécier les secteurs où ENSO a un impact sur les précipitations à l'échelle mondiale et de quantifier son impact sur les estimations de quantiles extrêmes. Par ailleurs, l'asymétrie de l'impact ENSO et son caractère saisonnier sont également évalués.
69

Contrôle de têtes parlantes par inversion acoustico-articulatoire pour l'apprentissage et la réhabilitation du langage

Ben youssef, Atef 26 October 2011 (has links) (PDF)
Les sons de parole peuvent être complétés par l'affichage des articulateurs sur un écran d'ordinateur pour produire de la parole augmentée, un signal potentiellement utile dans tous les cas où le son lui-même peut être difficile à comprendre, pour des raisons physiques ou perceptuelles. Dans cette thèse, nous présentons un système appelé retour articulatoire visuel, dans lequel les articulateurs visibles et non visibles d'une tête parlante sont contrôlés à partir de la voix du locuteur. La motivation de cette thèse était de développer un tel système qui pourrait être appliqué à l'aide à l'apprentissage de la prononciation pour les langues étrangères, ou dans le domaine de l'orthophonie. Nous avons basé notre approche de ce problème d'inversion sur des modèles statistiques construits à partir de données acoustiques et articulatoires enregistrées sur un locuteur français à l'aide d'un articulographe électromagnétique (EMA). Notre approche avec les modèles de Markov cachés (HMMs) combine des techniques de reconnaissance automatique de la parole et de synthèse articulatoire pour estimer les trajectoires articulatoires à partir du signal acoustique. D'un autre côté, les modèles de mélanges gaussiens (GMMs) estiment directement les trajectoires articulatoires à partir du signal acoustique sans faire intervenir d'information phonétique. Nous avons basé notre évaluation des améliorations apportées à ces modèles sur différents critères : l'erreur quadratique moyenne (RMSE) entre les coordonnées EMA originales et reconstruites, le coefficient de corrélation de Pearson, l'affichage des espaces et des trajectoires articulatoires, aussi bien que les taux de reconnaissance acoustique et articulatoire. Les expériences montrent que l'utilisation d'états liés et de multi-gaussiennes pour les états des HMMs acoustiques améliore l'étage de reconnaissance acoustique des phones, et que la minimisation de l'erreur générée (MGE) dans la phase d'apprentissage des HMMs articulatoires donne des résultats plus précis par rapport à l'utilisation du critère plus conventionnel de maximisation de vraisemblance (MLE). En outre, l'utilisation du critère MLE au niveau de mapping direct de l'acoustique vers l'articulatoire par GMMs est plus efficace que le critère de minimisation de l'erreur quadratique moyenne (MMSE). Nous constatons également trouvé que le système d'inversion par HMMs est plus précis celui basé sur les GMMs. Par ailleurs, des expériences utilisant les mêmes méthodes statistiques et les mêmes données ont montré que le problème de reconstruction des mouvements de la langue à partir des mouvements du visage et des lèvres ne peut pas être résolu dans le cas général, et est impossible pour certaines classes phonétiques. Afin de généraliser notre système basé sur un locuteur unique à un système d'inversion de parole multi-locuteur, nous avons implémenté une méthode d'adaptation du locuteur basée sur la maximisation de la vraisemblance par régression linéaire (MLLR). Dans cette méthode MLLR, la transformation basée sur la régression linéaire qui adapte les HMMs acoustiques originaux à ceux du nouveau locuteur est calculée de manière à maximiser la vraisemblance des données d'adaptation. Finalement, cet étage d'adaptation du locuteur a été évalué en utilisant un système de reconnaissance automatique des classes phonétique de l'articulation, dans la mesure où les données articulatoires originales du nouveau locuteur n'existent pas. Finalement, en utilisant cette procédure d'adaptation, nous avons développé un démonstrateur complet de retour articulatoire visuel, qui peut être utilisé par un locuteur quelconque. Ce système devra être évalué de manière perceptive dans des conditions réalistes.
70

Thermographie infrarouge et méthodes d'inférence statistique pour la détermination locale et transitoire de termes-sources et diffusivité thermique / Thermographic measurements and inverse problems for the source-term estimation

Massard da Fonseca, Henrique 11 January 2012 (has links)
Ce travail a pour objectif de développer des techniques théoriques et expérimentales pour la détermination des propriétés thermophysiques et terme source. Deux formes de comportement temporel pour le terme source ont été étudiées : un constant et un qui varie dans le temps. La variation dans le temps a été considérée comme une pulse carrée ou une variation sinusoïdale. Deux formes d’échauffement ont été utilisées : une résistance électrique et un laser diode. Pour l’acquisition des données une caméra de thermographie par infrarouge a été utilisée. La stratégie nodale a été utilisée pour contourner le problème des grosses quantités de données générées par la caméra. Le problème direct a été résolu par différences finies, et deux approches pour la solution du problème inverse ont été utilisées, en fonction du comportement temporel du terme source. Les deux approches sont basées sur des méthodes d’inférence statistiques dans une approche Bayésienne, avec la méthode de Monte Carlo via les Chaînes de Markov pour le terme source constant, et le filtre de Kalman pour le problème dont le terme source varie dans le temps. Des manipulations contrôlées ont été faites dans un échantillon avec des propriétés thermophysiques déterminées par des méthodes classiques dans la littérature. / This work deals with the development of new theoretical and experimental techniques for the efficient estimation of thermophysical properties and source-term in micro and macro-scale. Two kinds of source term were studied: a constant and a time varying source term. The time wise variation of the source term had a sinusoidal and a pulse form. Two devices were used for the sample heating: An electrical resistance and a laser diode. For the data acquisition, an infrared camera was used, providing a full cartography of properties of the medium and also non-contact temperature measurements. The direct problem was solved by the finite differences method, and two approaches were used for the solution of the inverse problem, depending on the time varying behavior of the source term. Both approaches deal with the parameters estimation within the Bayesian framework, using the Markov Chain Monte Carlo (MCMC) method via the Metropolis Hastings (MH) algorithm for the constant source term, and the Kalman filter for the time-varying source term. The nodal strategy is presented as a method to deal with the large number of experimental data problems. Experiments were carried out in a sample with well-known thermophysical properties, determined by classical methods.

Page generated in 0.0651 seconds