• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 166
  • 61
  • 13
  • 1
  • 1
  • Tagged with
  • 233
  • 60
  • 59
  • 41
  • 35
  • 32
  • 31
  • 29
  • 28
  • 19
  • 18
  • 17
  • 16
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Électrofilage de fibres à partir de mélanges polystyrène/poly(vinyl méthyl éther)

Valiquette, Dominic 08 1900 (has links)
L’électrofilage est un procédé permettant de préparer des fibres possédant un diamètre de l’ordre du micromètre ou de quelques centaines de nanomètres. Son utilisation est toutefois limitée par le manque de contrôle sur la structure et les propriétés des fibres ainsi produites. Dans ce travail, des fibres électrofilées à partir de mélanges de polystyrène (PS) et de poly(vinyl méthyl éther) (PVME) ont été caractérisées. La calorimétrie différentielle à balayage (DSC) a montré que les fibres du mélange PS/PVME sont miscibles (une seule transition vitreuse) lorsque préparées dans le benzène, alors qu'une séparation de phases a lieu lorsque le chloroforme est utilisé. Les fibres immiscibles sont néanmoins malléables, contrairement à un film préparé par évaporation du chloroforme qui a des propriétés mécaniques médiocres. Des clichés en microscopies optique et électronique à balayage (MEB) ont permis d’étudier l'effet de la composition et du solvant sur le diamètre et la morphologie des fibres. Des mesures d’angles de contact ont permis d’évaluer l’hydrophobicité des fibres, qui diminue avec l’ajout de PVME (hydrophile); les valeurs sont de 60° supérieures à celles des films de composition équivalente. Un retrait sélectif du PVME a été réalisé par l’immersion des fibres dans l’eau. La spectroscopie infrarouge a montré que la composition passe de 70 à 95% de PS pour une fibre immiscible mais seulement à 75% pour une fibre miscible. Ces résultats indiquent que la phase riche en PVME se situe presque uniquement à la surface des fibres immiscibles, ce qui a été confirmé par microscopie à force atomique (AFM) et MEB. Finalement, l’effet du mélange des deux solvants, lors de l’électrofilage du mélange PS/PVME, a été étudié. La présence du chloroforme, même en quantité réduite, provoque une séparation de phases similaire à celle observée avec ce solvant pur. / Electrospinning is a simple method for the preparation of polymer fibers with diameters of hundreds of nanometers to a few micrometers. Although it is a versatile method, some issues remain in the control of the structure and properties of electrospun fibers. In this study, fibers electrospun from polystyrene (PS)/poly(vinyl methyl ether) (PVME) blends were characterized. Differential scanning calorimetry (DSC) revealed that fibers electrospun from benzene are miscible while a phase separation occurs when the fibers are electrospun from chloroform. While films cast from chloroform show poor mechanical properties, immiscible fibers are ductile. The effects of the blend composition and the solvent on the fiber diameter and morphology were observed by scanning electron microscopy (SEM) and optical microscopy. Afterwards, contact angle measurements were made to evaluate the hydrophobicity of the fibers which decreases as hydrophilic PVME is added to the blend; the values for the fibers were found to be 60° higher than their equivalent in films. PVME was selectively removed from the immiscible fibers by complete immersion into water. Infrared spectroscopy revealed that this process increases the PS content from 70 to 95% for immiscible fibers but only to 75% for miscible fibers. These results show that the PVME-rich phase is almost completely distributed on the fiber surface, which was confirmed by atomic force microscopy (AFM) and SEM. Finally, the electrospinning of PS/PVME blends from chloroform/benzene solutions was studied. The presence of chloroform, even as a residual amount, causes a phase separation just as it does in fibers electrospun from pure chloroform.
192

Analyse bayésienne et classification pour modèles continus modifiés à zéro

Labrecque-Synnott, Félix 08 1900 (has links)
Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique. / Zero-inflated models, both discrete and continuous, have a large variety of applications and fairly well-known properties. Some work has been done on zero-deflated and zero-modified discrete models. The usual formulation of continuous zero-inflated models -- a mixture between a continuous density and a Dirac mass at zero -- precludes their extension to cover the zero-deflated case. We introduce an alternative formulation of zero-inflated continuous models, along with a natural extension to the zero-deflated case. Parameter estimation is first studied within the classical frequentist framework. Several methods for obtaining the maximum likelihood estimators are proposed. The problem of point estimation is considered from a Bayesian point of view. Hypothesis testing, aiming at determining whether data are zero-inflated, zero-deflated or not zero-modified, is also considered under both the classical and Bayesian paradigms. The proposed estimation and testing methods are assessed through simulation studies and applied to aggregated rainfall data. The data is shown to be zero-deflated, demonstrating the relevance of the proposed model. We next consider the clustering of samples of zero-deflated data. Such data present strong non-normality. Therefore, the usual methods for determining the number of clusters are expected to perform poorly. We argue that Bayesian clustering based on the marginal distribution of the observations would take into account the particularities of the model and exhibit better performance. Several clustering methods are compared using a simulation study. The proposed method is applied to aggregated rainfall data sampled from 28 measuring stations in British Columbia.
193

Mise en place et application d'un spectromètre de dichroïsme linéaire infrarouge avec modulation de la polarisation pour l'étude de l'orientation des mélanges polymères

Mauran, Damien January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
194

Etude de matériaux polymères, organiques et organo-minéraux, dopés par des colorants organiques : Application à la réalisation de sources laser intégrées

Goudket, Hélène 02 July 2004 (has links) (PDF)
La première source laser solide à base de polymère dopé par des colorants organiques a été obtenue dans les années 1970, mais jusqu'à la fin du vingtième siècle, peu d'avancées ont été faites. La recherche de sources laser à colorants solides intégrées s'est beaucoup développée ces dernières années grâce à l'avènement de matériaux polymères organiques 'classiques' et hybrides organo-minéraux 'sol-gels' de meilleure qualité.Dans ces travaux, la caractérisation des matériaux est effectuée en termes de propriétés spectrales et de photostabilité des matériaux polymères dopés par des colorants organiques. L'influence sur les propriétés du matériau de l'environnement de la molécule de colorant et du viellissement est discutée.L'application de ces matériaux à la réalisation de sources laser intégrées est faite. Les performances des couples colorant-matrice en terme d'efficacité, de durée de vie en régime de train d'impulsions laser et d'accordabilité en longueur d'onde à l'aide de l'effet de rétroaction distribuée, sont mesurées.Enfin, la comparaison des mesures de caractérisation des matériaux en couches minces et des performances système en régime laser intégré, permet l'identification des paramètres agissant sur ces dernières. Notamment, la présence d'une forte absorption résiduelle dans la bande de fluorescence diminue l'efficacité laser des échantillons, et une bonne conduction thermique dans le matériau permet d'augmenter sa durée de vie en régime laser en limitant la thermodégradation des molécules de colorant. Des compromis sont, de plus, à faire pour la rigidité de la matrice, qui augmente le gain, mais aussi les pertes de propagation dans les matériaux.
195

Contributions en segmentation statistique d'images et reconnaissance de formes 2D

Derrode, Stéphane 29 April 2008 (has links) (PDF)
Ce mémoire retrace les activités de recherche que j'ai développées depuis 9 années dont 7 passées au sein de l'équipe Groupe Signaux Multidimensionnels de l'Institut Fresnel et à l'École Centrale Marseille. Les travaux que je présente explorent certains aspects de la segmentation statistique d'images pour des applications en imagerie spatiale et de la description invariante de formes 2D pour la reconnaissance d'objets en imagerie vidéo. Plus précisément, la première partie de ce document expose plusieurs extensions du modèle des chaînes de Markov cachées (CMC). Ces extensions portent sur des modifications soit de la modélisation des données observées avec le modèle de chaîne de Markov vectorielle et des données cachées avec le modèle de chaîne de Markov floue, soit de la topologie de la chaîne -et donc des hypothèses de dépendance statistique sous-jacentes-, aboutissant aux modèles appelés chaîne de Markov d'ordre supérieur et chaîne de Markov couple. Ces modèles sont évalués dans le cadre de la segmentation d'images radar et de la détection de changements lors de catastrophes naturelles. La seconde partie traite de la reconnaissance de formes 2D, avec pour thème centrale l'invariance géométrique. Dans un premier temps nous avons proposé de nouvelles familles complètes de descripteurs de forme invariants aux similitudes issues de la transformée de Fourier-Mellin et des moments complexes, pour des applications d'indexation de bases d'objets à niveaux de gris. La suite des travaux s'est orientée vers la détection d'objets avec l'intégration d'un a priori de forme invariant aux similitudes dans le modèle des snakes et la poursuite d'objets d'intérêt dans les séquences vidéo par un modèle de mélange de couleurs non gaussien. Le document se conclut avec les perspectives que je compte donner à mes recherches, notamment les projets combinant segmentation d'images et reconnaissance de formes, dans le cadre des images très haute résolution des futurs capteurs optique et radar qui permettent d'accéder à des données sub-métriques.
196

Séparation de Sources Dans des Mélanges non-Lineaires / Blind Source Separation in Nonlinear Mixtures

Ehsandoust, Bahram 30 April 2018 (has links)
La séparation aveugle de sources aveugle (BSS) est une technique d’estimation des différents signaux observés au travers de leurs mélanges à l’aide de plusieurs capteurs, lorsque le mélange et les signaux sont inconnus. Bien qu’il ait été démontré mathématiquement que pour des mélanges linéaires, sous des conditions faibles, des sources mutuellement indépendantes peuvent être estimées, il n’existe dans de résultats théoriques généraux dans le cas de mélanges non-linéaires. La littérature sur ce sujet est limitée à des résultats concernant des mélanges non linéaires spécifiques.Dans la présente étude, le problème est abordé en utilisant une nouvelle approche utilisant l’information temporelle des signaux. L’idée originale conduisant à ce résultat, est d’étudier le problème de mélanges linéaires, mais variant dans le temps, déduit du problème non linéaire initial par dérivation. Il est démontré que les contre-exemples déjà présentés, démontrant l’inefficacité de l’analyse par composants indépendants (ACI) pour les mélanges non-linéaires, perdent leur validité, considérant l’indépendance au sens des processus stochastiques, au lieu de l’indépendance au sens des variables aléatoires. Sur la base de cette approche, de bons résultats théoriques et des développements algorithmiques sont fournis. Bien que ces réalisations ne soient pas considérées comme une preuve mathématique de la séparabilité des mélanges non-linéaires, il est démontré que, compte tenu de quelques hypothèses satisfaites dans la plupart des applications pratiques, elles sont séparables.De plus, les BSS non-linéaires pour deux ensembles utiles de signaux sources sont également traités, lorsque les sources sont (1) spatialement parcimonieuses, ou (2) des processus Gaussiens. Des méthodes BSS particulières sont proposées pour ces deux cas, dont chacun a été largement étudié dans la littérature qui correspond à des propriétés réalistes pour de nombreuses applications pratiques.Dans le cas de processus Gaussiens, il est démontré que toutes les applications non-linéaires ne peuvent pas préserver la gaussianité de l’entrée, cependant, si on restreint l’étude aux fonctions polynomiales, la seule fonction préservant le caractère gaussiens des processus (signaux) est la fonction linéaire. Cette idée est utilisée pour proposer un algorithme de linéarisation qui, en cascade par une méthode BSS linéaire classique, sépare les mélanges polynomiaux de processus Gaussiens.En ce qui concerne les sources parcimonieuses, on montre qu’elles constituent des variétés distinctes dans l’espaces des observations et peuvent être séparées une fois que les variétés sont apprises. À cette fin, plusieurs problèmes d’apprentissage multiple ont été généralement étudiés, dont les résultats ne se limitent pas au cadre proposé du SRS et peuvent être utilisés dans d’autres domaines nécessitant un problème similaire. / Blind Source Separation (BSS) is a technique for estimating individual source components from their mixtures at multiple sensors, where the mixing model is unknown. Although it has been mathematically shown that for linear mixtures, under mild conditions, mutually independent sources can be reconstructed up to accepted ambiguities, there is not such theoretical basis for general nonlinear models. This is why there are relatively few results in the literature in this regard in the recent decades, which are focused on specific structured nonlinearities.In the present study, the problem is tackled using a novel approach utilizing temporal information of the signals. The original idea followed in this purpose is to study a linear time-varying source separation problem deduced from the initial nonlinear problem by derivations. It is shown that already-proposed counter-examples showing inefficiency of Independent Component Analysis (ICA) for nonlinear mixtures, loose their validity, considering independence in the sense of stochastic processes instead of simple random variables. Based on this approach, both nice theoretical results and algorithmic developments are provided. Even though these achievements are not claimed to be a mathematical proof for the separability of nonlinear mixtures, it is shown that given a few assumptions, which are satisfied in most practical applications, they are separable.Moreover, nonlinear BSS for two useful sets of source signals is also addressed: (1) spatially sparse sources and (2) Gaussian processes. Distinct BSS methods are proposed for these two cases, each of which has been widely studied in the literature and has been shown to be quite beneficial in modeling many practical applications.Concerning Gaussian processes, it is demonstrated that not all nonlinear mappings can preserve Gaussianity of the input. For example being restricted to polynomial functions, the only Gaussianity-preserving function is linear. This idea is utilized for proposing a linearizing algorithm which, cascaded by a conventional linear BSS method, separates polynomial mixturesof Gaussian processes.Concerning spatially sparse sources, it is shown that spatially sparsesources make manifolds in the observations space, and can be separated once the manifolds are clustered and learned. For this purpose, multiple manifold learning problem has been generally studied, whose results are not limited to the proposed BSS framework and can be employed in other topics requiring a similar issue.
197

Etude de l'explosion de mélanges diphasiques : hydrogène et poussières / Two-phase mixtures explosion study : hydrogen and dusts

Sabard, Jérémy 06 September 2013 (has links)
Cette étude s’inscrit dans le cadre de la sûreté de l’installation ITER. En effet, des études d’accidentologie concernant cette installation ont permis de mettre à jour un risque d’explosion de mélanges à base d’hydrogène et de poussières. L’objectif de la thèse est d’acquérir les données fondamentales caractérisant l’explosion de ces mélanges diphasiques permettant ainsi d’évaluer les pressions générées par une éventuelle explosion des poussières qu’elle soit concomitante on non à celle de l’hydrogène. Pour se faire, des expériences, en bombe sphérique, ont été réalisées concernant des mélanges gazeux hydrogène - oxygène - azote. Les expériences ont été accomplies pour des températures de 303 et 343 K et des pressions de 50 et 100 kPa pour différentes concentrations en hydrogène et différents rapports N2/O2 dans le mélange. Les paramètres de caractérisation de l’explosion de ces mélanges ont été déterminés tels que la pression maximale de combustion (PMAX), l’indice de déflagration (KG ou KST), le temps de combustion (tC), la vitesse fondamentale de flamme (SL°) et la longueur de Markstein (LB). Une modélisation cinétique de la vitesse de flamme utilisant le code COSILAB a été réalisée, permettant de déduire la vitesse fondamentale de flamme sur la base de trois mécanismes cinétiques détaillés de la littérature. Celle-ci a permis l’évaluation de l’énergie d’activation globale sur la base du modèle cinétique présentant le meilleur accord avec l’expérience. De plus des calculs thermodynamiques à l’équilibre ont été réalisés afin de comparer les pressions maximales de combustion aux valeurs théoriques. Pour les mélanges diphasiques, un nouveau système d’introduction des poussières a été mis en place et des expériences caractérisant les paramètres d’explosion de ces mélanges ont été réalisées dans la bombe sphérique. Celles-ci ont permis de mettre en exergue le fait qu’une explosion de poussières, sous certaines conditions peut-être concomitante à une explosion d’hydrogène. / The context of the study is the safety of the ITER installation. Indeed, studies have shown that it exists a risk for two-phase mixtures of hydrogen and dust can explode and create a safety risk for the ITER installation. This aims to obtain the fundamental data which characterize the explosion of these mixtures and to evaluate the pressure loads they can generate. To do so, experiments in spherical bomb have been carried out for hydrogen - oxygen - nitrogen mixtures at two initial temperatures (303 and 343 K) and pressures (50 and 100 kPa) for different hydrogen concentrations and different N2/O2 ratios. Explosion parameters like maximum combustion pressures (PMAX), deflagration indexes (KG or KST), combustion times (tC), fundamental flame speeds (SL°) and Markstein lengths have been determined. A kinetic modelling of the flame speed, using the COSILAB software was performed based on three detailed kinetic models available in the literature and allowed the calculation of the global activation energy on the basis of the kinetic model which showed the best agreement with the experimental data. Moreover equilibrium calculations were achieved to compare PMAX to the theoretical values. For two-phase mixtures, a new introduction device was tested and set up and experiments characterizing the explosions parameters of the two-phase mixtures have been performed in the spherical bomb. They were able to stress out the fact that, under some circumstances, dust explosion can be concomitant to a hydrogen explosion.
198

Contrôle de têtes parlantes par inversion acoustico-articulatoire pour l’apprentissage et la réhabilitation du langage / Control of talking heads by acoustic-to-articulatory inversion for language learning and rehabilitation

Ben Youssef, Atef 26 October 2011 (has links)
Les sons de parole peuvent être complétés par l'affichage des articulateurs sur un écran d'ordinateur pour produire de la parole augmentée, un signal potentiellement utile dans tous les cas où le son lui-même peut être difficile à comprendre, pour des raisons physiques ou perceptuelles. Dans cette thèse, nous présentons un système appelé retour articulatoire visuel, dans lequel les articulateurs visibles et non visibles d'une tête parlante sont contrôlés à partir de la voix du locuteur. La motivation de cette thèse était de développer un tel système qui pourrait être appliqué à l'aide à l'apprentissage de la prononciation pour les langues étrangères, ou dans le domaine de l'orthophonie. Nous avons basé notre approche de ce problème d'inversion sur des modèles statistiques construits à partir de données acoustiques et articulatoires enregistrées sur un locuteur français à l'aide d'un articulographe électromagnétique (EMA). Notre approche avec les modèles de Markov cachés (HMMs) combine des techniques de reconnaissance automatique de la parole et de synthèse articulatoire pour estimer les trajectoires articulatoires à partir du signal acoustique. D'un autre côté, les modèles de mélanges gaussiens (GMMs) estiment directement les trajectoires articulatoires à partir du signal acoustique sans faire intervenir d'information phonétique. Nous avons basé notre évaluation des améliorations apportées à ces modèles sur différents critères : l'erreur quadratique moyenne (RMSE) entre les coordonnées EMA originales et reconstruites, le coefficient de corrélation de Pearson, l'affichage des espaces et des trajectoires articulatoires, aussi bien que les taux de reconnaissance acoustique et articulatoire. Les expériences montrent que l'utilisation d'états liés et de multi-gaussiennes pour les états des HMMs acoustiques améliore l'étage de reconnaissance acoustique des phones, et que la minimisation de l'erreur générée (MGE) dans la phase d'apprentissage des HMMs articulatoires donne des résultats plus précis par rapport à l'utilisation du critère plus conventionnel de maximisation de vraisemblance (MLE). En outre, l'utilisation du critère MLE au niveau de mapping direct de l'acoustique vers l'articulatoire par GMMs est plus efficace que le critère de minimisation de l'erreur quadratique moyenne (MMSE). Nous constatons également trouvé que le système d'inversion par HMMs est plus précis celui basé sur les GMMs. Par ailleurs, des expériences utilisant les mêmes méthodes statistiques et les mêmes données ont montré que le problème de reconstruction des mouvements de la langue à partir des mouvements du visage et des lèvres ne peut pas être résolu dans le cas général, et est impossible pour certaines classes phonétiques. Afin de généraliser notre système basé sur un locuteur unique à un système d'inversion de parole multi-locuteur, nous avons implémenté une méthode d'adaptation du locuteur basée sur la maximisation de la vraisemblance par régression linéaire (MLLR). Dans cette méthode MLLR, la transformation basée sur la régression linéaire qui adapte les HMMs acoustiques originaux à ceux du nouveau locuteur est calculée de manière à maximiser la vraisemblance des données d'adaptation. Finalement, cet étage d'adaptation du locuteur a été évalué en utilisant un système de reconnaissance automatique des classes phonétique de l'articulation, dans la mesure où les données articulatoires originales du nouveau locuteur n'existent pas. Finalement, en utilisant cette procédure d'adaptation, nous avons développé un démonstrateur complet de retour articulatoire visuel, qui peut être utilisé par un locuteur quelconque. Ce système devra être évalué de manière perceptive dans des conditions réalistes. / Speech sounds may be complemented by displaying speech articulators shapes on a computer screen, hence producing augmented speech, a signal that is potentially useful in all instances where the sound itself might be difficult to understand, for physical or perceptual reasons. In this thesis, we introduce a system called visual articulatory feedback, in which the visible and hidden articulators of a talking head are controlled from the speaker's speech sound. The motivation of this research was to develop such a system that could be applied to Computer Aided Pronunciation Training (CAPT) for learning of foreign languages, or in the domain of speech therapy. We have based our approach to this mapping problem on statistical models build from acoustic and articulatory data. In this thesis we have developed and evaluated two statistical learning methods trained on parallel synchronous acoustic and articulatory data recorded on a French speaker by means of an electromagnetic articulograph. Our Hidden Markov models (HMMs) approach combines HMM-based acoustic recognition and HMM-based articulatory synthesis techniques to estimate the articulatory trajectories from the acoustic signal. Gaussian mixture models (GMMs) estimate articulatory features directly from the acoustic ones. We have based our evaluation of the improvement results brought to these models on several criteria: the Root Mean Square Error between the original and recovered EMA coordinates, the Pearson Product-Moment Correlation Coefficient, displays of the articulatory spaces and articulatory trajectories, as well as some acoustic or articulatory recognition rates. Experiments indicate that the use of states tying and multi-Gaussian per state in the acoustic HMM improves the recognition stage, and that the minimum generation error (MGE) articulatory HMMs parameter updating results in a more accurate inversion than the conventional maximum likelihood estimation (MLE) training. In addition, the GMM mapping using MLE criteria is more efficient than using minimum mean square error (MMSE) criteria. In conclusion, we have found that the HMM inversion system has a greater accuracy compared with the GMM one. Beside, experiments using the same statistical methods and data have shown that the face-to-tongue inversion problem, i.e. predicting tongue shapes from face and lip shapes cannot be solved in a general way, and that it is impossible for some phonetic classes. In order to extend our system based on a single speaker to a multi-speaker speech inversion system, we have implemented a speaker adaptation method based on the maximum likelihood linear regression (MLLR). In MLLR, a linear regression-based transform that adapts the original acoustic HMMs to those of the new speaker was calculated to maximise the likelihood of adaptation data. Finally, this speaker adaptation stage has been evaluated using an articulatory phonetic recognition system, as there are not original articulatory data available for the new speakers. Finally, using this adaptation procedure, we have developed a complete articulatory feedback demonstrator, which can work for any speaker. This system should be assessed by perceptual tests in realistic conditions.
199

Fluctuations thermiques - un outil pour étudier les fluides simples et binaires à l'échelle du micron / Thermal fluctuations – a tool to study simple liquids and binary mixtures at micrometric scale

Devailly, Clémence 16 December 2014 (has links)
Les transitions de phase près d'un point critique - dites du second ordre - sont un sujet toujours d'actualité en raison des nombreux phénomènes critiques intéressants tels que la force de Casimir critique, les problèmes de confinements ou les phénomènes hors d'équilibre suivant une trempe au point critique. Cette thèse vise à étudier expérimentalement certains phénomènes engendrés près d'un point critique. La thèse est divisée en deux axes : le premier consiste à développer plusieurs systèmes expérimentaux qui permettront de mesurer essentiellement la viscosité, par l'intermédiaire des fluctuations thermiques à l'échelle micrométrique. Le deuxième axe consiste à trouver et caractériser des mélanges binaires présentant une transition de phase du second ordre dans lesquelles on souhaite faire des mesures. Les enjeux de ces systèmes expérimentaux sont d'avoir une régulation en température précise, une sonde de mesure sensible aux fluctuations thermiques et/ou à des forces de l'ordre du pN, et un échantillon fiable et reproductible présentant un point critique accessible expérimentalement. Nous avons ainsi monté à partir d'un microscope à force atomique (AFM) déjà présent au laboratoire, un système de mesure de viscosité à sonde AFM fibrée. Malgré sa faible efficacité en terme de sonde de mesure métrologique, nous avons pu décrire et développer un modèle de couplage de modes de vibration permettant de comprendre la mécanique de microleviers AFM fibrés. J'ai également développé au laboratoire la mesure de microscopie dynamique différentielle qui permet de faire des mesures à sondes multiples contrairement au premier montage. J'ai discuté de la précision de la mesure dans le cadre de notre objectif d'étude des fluctuations critiques. En ce qui concerne l'échantillon de mesure, nous avons étudié plusieurs mélanges binaires que nous avons caractérisés par des méthodes classiques de turbidité et diffusion statique de la lumière. Cette caractérisation nous a permis de connaître les mélanges binaires pour les utiliser dans un troisième système de mesure : billes micrométriques piégées dans des pinces optiques déjà monté au laboratoire. Nous y avons rajouté un système de régulation thermique fait maison pour être exploité avec les contraintes de la pince optique. Ces tests ont fait apparaître un phénomène inattendu d'oscillations de transition de phase induites par laser. Nous avons développé un modèle pour les décrire. Enfin, des expériences préliminaires - toujours avec les pinces optiques dans les mélanges binaires - nous ont permis d'observer qualitativement des effets de l'approche au point critique par des mesures de viscosité et d'interaction type force de Casimir critique. / Phase transitions near a critical point, or second order phase transitions, are still a recent object of studies because of the large amount of interesting critical phenomena as the critical Casimir force, confinements problems or out of equilibrium phenomena following a quench at the critical point. This thesis experimentally studies phenomena near a critical point. This manuscript is divided in two parts : the first one consists in building several experimental set-up which measure viscosity through thermal fluctuation at micrometric scale. The second part consists in finding and characterize binary mixtures which show a second order phase transition. Preliminary results have been done in these samples. One of the principal points of these experimental set-up are a well regulated temperature, a probe sensitive to thermal fluctuation and/or pN forces and a reproducible binary mixture which presents a critical point easy to reach experimentally. We mounted from an Atomic Force Microscope (AFM) already built in the laboratory, a hanging-fiber probe to measure viscosity of liquids. Despite its weak efficiency as a metrologic probe, we described and developed a mode coupling model which let us understand mechanics of hanging-fiber probes. I also developed in the lab the dynamic differential microscopy technique (DDM) which do measurements with several probes. I discussed about the measure precision with in mind the aim of studying critical fluctuations. For the choice of the sample, we studied several binary mixtures. We characterized them by classical methods as turbidity measurements and static light scattering. These characterizations let us learn about binary mixtures in order to use them in a third experimental set-up : beads trapped in an optical tweezers already built in the lab. We added to it a home-made thermal regulation which can be used with the constraints of optical tweezers. These tests showed an unexpected phenomenon of oscillating phase transition induce by laser. We developed a model to describe it. At last, preliminary experiments with optical tweezers in binary mixtures showed qualitative effects of an approach near a critical point on the viscosity and on interactions between beads as critical Casimir force.
200

A tensor perspective on weighted automata, low-rank regression and algebraic mixtures

Rabusseau, Guillaume 20 October 2016 (has links)
Ce manuscrit regroupe différents travaux explorant les interactions entre les tenseurs et l'apprentissage automatique. Le premier chapitre est consacré à l'extension des modèles de séries reconnaissables de chaînes et d'arbres aux graphes. Nous y montrons que les modèles d'automates pondérés de chaînes et d'arbres peuvent être interprétés d'une manière simple et unifiée à l'aide de réseaux de tenseurs, et que cette interprétation s'étend naturellement aux graphes ; nous étudions certaines propriétés de ce modèle et présentons des résultats préliminaires sur leur apprentissage. Le second chapitre porte sur la minimisation approximée d'automates pondérés d'arbres et propose une approche théoriquement fondée à la problématique suivante : étant donné un automate pondéré d'arbres à n états, comment trouver un automate à m<n états calculant une fonction proche de l'originale. Le troisième chapitre traite de la régression de faible rang pour sorties à structure tensorielle. Nous y proposons un algorithme d'apprentissage rapide et efficace pour traiter un problème de régression dans lequel les sorties des tenseurs. Nous montrons que l'algorithme proposé est un algorithme d'approximation pour ce problème NP-difficile et nous donnons une analyse théorique de ses propriétés statistiques et de généralisation. Enfin, le quatrième chapitre introduit le modèle de mélanges algébriques de distributions. Ce modèle considère des combinaisons affines de distributions (où les coefficients somment à un mais ne sont pas nécessairement positifs). Nous proposons une approche pour l'apprentissage de mélanges algébriques qui étend la méthode tensorielle des moments introduite récemment. . / This thesis tackles several problems exploring connections between tensors and machine learning. In the first chapter, we propose an extension of the classical notion of recognizable function on strings and trees to graphs. We first show that the computations of weighted automata on strings and trees can be interpreted in a natural and unifying way using tensor networks, which naturally leads us to define a computational model on graphs: graph weighted models; we then study fundamental properties of this model and present preliminary learning results. The second chapter tackles a model reduction problem for weighted tree automata. We propose a principled approach to the following problem: given a weighted tree automaton with n states, how can we find an automaton with m<n states that is a good approximation of the original one? In the third chapter, we consider a problem of low rank regression for tensor structured outputs. We design a fast and efficient algorithm to address a regression task where the outputs are tensors. We show that this algorithm generalizes the reduced rank regression method and that it offers good approximation, statistical and generalization guarantees. Lastly in the fourth chapter, we introduce the algebraic mixture model. This model considers affine combinations of probability distributions (where the weights sum to one but may be negative). We extend the recently proposed tensor method of moments to algebraic mixtures, which allows us in particular to design a learning algorithm for algebraic mixtures of spherical Gaussian distributions.

Page generated in 0.101 seconds