• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 74
  • 39
  • 32
  • 7
  • 6
  • 4
  • 4
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 196
  • 24
  • 21
  • 19
  • 18
  • 17
  • 14
  • 13
  • 13
  • 13
  • 12
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Asteroseismic inferences from red-giant stars

Themeẞl, Nathalie 28 September 2018 (has links)
No description available.
182

Classification automatique des signaux audio-fréquences : reconnaissance des instruments de musique

Essid, Slim 13 December 2005 (has links) (PDF)
L'objet de cette thèse est de contribuer à améliorer l'identification automatique des instruments de musique dans des contextes réalistes, (sur des solos de musique, mais également sur des pièces multi-instrumentales). Nous abordons le problème suivant une approche de classification automatique en nous efforçant de rechercher des réalisations performantes des différents modules constituant le système que nous proposons. Nous adoptons un schéma de classification hiérarchique basé sur des taxonomies des instruments et des mélanges d'instruments. Ces taxonomies sont inférées au moyen d'un algorithme de clustering hiérarchique exploitant des distances probabilistes robustes qui sont calculées en utilisant une méthode à noyau. Le système exploite un nouvel algorithme de sélection automatique des attributs pour produire une description efficace des signaux audio qui, associée à des machines à vecteurs supports, permet d'atteindre des taux de reconnaissance élevés sur des pièces sonores reflétant la diversité de la pratique musicale et des conditions d'enregistrement rencontrées dans le monde réel. Notre architecture parvient ainsi à identifier jusqu'à quatre instruments joués simultanément, à partir d'extraits de jazz incluant des percussions.
183

Análisis Geoestadístico Espacio Tiempo Basado en Distancias y Splines con Aplicaciones

Melo Martínez, Carlos Eduardo 06 September 2012 (has links)
Se propusieron innovaciones en la predicción espacio y espacio-temporal, a partir de métodos geoestadísticos y de funciones de base radial (RBF), considerando métodos basados en distancias. En este sentido, por medio de las distancias entre las variables explicativas, incorporadas específicamente en la regresión basada en distancias, se propusieron modificaciones en: el método kriging universal y en la interpolación con splines espacial y espacio-temporal usando las RBF. El método basado en la distancia se utiliza en un modelo Geoestadístico para estimar la tendencia y la estructura de covarianza. Esta estrategia aprovecha al máximo la información existente, debido a la relación entre las observaciones, mediante el uso de una descomposición espectral de una distancia seleccionada y las coordenadas principales correspondientes. Para el método propuesto kriging universal basado en distancias (DBUK), se realizó un estudio de simulación que permitió comparar la capacidad predictiva del método tradicional kriging universal con respecto a kriging universal basado en distancias; mientras que en la interpolación con Splines espacial y espacio-temporal, los estudios de simulación permitieron comparar el funcionamiento de las funciones de base radial espaciales y espaciotemporales, considerando en la tendencia las coordenadas principales generadas a partir de las variables explicativas mixtas mediante el uso del método basado en distancias. El método propuesto DBUK muestra, tanto en las simulaciones como en las aplicaciones, ventajas en la reducción del error con respecto al método clásico de krigeado universal. Esta reducción de los errores se asocia a una mejor modelización de la tendencia y a un menor error en el ajuste y modelado del variograma, al considerar las coordenadas principales obtenidas a partir de las variables explicativas mixtas. Entre muchas otras posibles causas, el error es generado por omisión de variables y por considerar formas funcionales incorrectas. El estudio de simulación muestra que el método propuesto DBUK es mejor que el método de krigeado universal tradicional ya que se encontró una notoria reducción del error, asociada a un RMSPE más pequeño, esta reducción en general fue superior al 10%. El método DBUK podrá producir una mejor estimación de la variable regionalizada si el número de coordenadas principales se incrementa. Esto es posible, incluyendo las coordenadas principales más significativas tanto en modelo de tendencia como en el variograma; se presenta una aplicación que ilustra este hecho. Los métodos propuestos de interpolación espacial basada en distancias con RBF (DBSIRBF) e interpolación espacio-temporal basada en distancias con RBF (DBSTIRBF) analizados mediante una estructura de krigeado considerando en la tendencia las coordenadas principales, presentan un buen funcionamiento al trabajar con vecindarios grandes, indicando en general que se tendrá un menor error asociado a un RMSPE más pequeño En diversos estudios, la detección de variabilidad entre zonas es una tarea muy difícil, y por lo cual los métodos propuestos DBUK, DBSIRBF y DBSTIRBF son útiles de acuerdo a los resultados obtenidos en la tesis, ya que aprovechan al máximo la información existente asociada a las variables explicativas. Aunque la correlación de las variables explicativas puede ser baja con respecto a la variable respuesta, el punto clave en los métodos propuestos es la correlación entre las coordenadas principales (construida con las variables explicativas) y la variable respuesta. Los métodos propuestos se aplicaron a datos agronómicos (Concentración de calcio medido a una profundidad de 0-20 cm de Brasil) y climatológicos (Temperaturas medias diarias de la Tierra en Croacia en el año 2008). Los resultados de validación cruzada “leave-one-out” mostraron un buen rendimiento de los predictores propuestos, lo cual indica que se pueden utilizar como métodos alternos y validos a los tradicionales para el modelado de variables correlacionadas espacialmente y espacio-temporalmente, considerando siempre covariables en la remoción de la tendencia. / Space-time geostatistical analysis based on distances and splines with applications. Innovations were proposed in the space and space-time prediction, based on geostatistical methods and radial basis function (RBF), considering distance-based methods. In this sense, through the distances between the explanatory variables, specifically incorporated in the regression based on distances, changes were proposed in: the universal kriging and interpolation with space and space-time splines using RBF. The distance-based method is used in a geostatistical model to estimate the trend and the covariance structure. This strategy takes full advantage of existing information, because of the relationship between the observations, using a spectral decomposition of a selected distance and the corresponding principal coordinates. For the universal kriging method proposed based on distances (DBUK), we performed a simulation study, which allowed to compare the predictive capacity of traditional universal kriging over universal kriging based on distances. The simulation study shows that the proposed method DBUK, is better than the traditional universal kriging method and was found a marked reduction of error associated with a smaller RMSPE, this reduction was generally greater than 10%. Spatial and spatio-temporal spline interpolation in simulation studies possible to compare the performance of space and spatio-temporal radial basis functions, considering the trend in the principal coordinates generated from the mixed explanatory variables using the method based distances. The proposed spatial interpolation methods based on distances with RBF (DBSIRBF) and spatio-temporal interpolation based on distances RBF (DBSTIRBF) analyzed through kriging structure whereas in the trend the principal coordinates, show good performance when working with large neighborhoods, indicating that in general will have less error associated with a smaller RMSPE. The key point in the proposed methods is the correlation between the principal coordinates (constructed with the explanatory variables) and the response variable. The proposed methods were applied to agronomic data (concentration of calcium measured at a depth of 0-20 cm from Brazil) and climatological (average daily temperature of the Earth in Croatia in 2008). The results of cross-validation "leave-one-out" showed a good performance of the proposed predictors, indicating that can be used as alternative methods to traditional and valid for the modeling of spatially correlated variables in space and time, always considering covariates in the removal of the trend.
184

Brassica - Wildarten als neue genetische Ressource für die Rapszüchtung / Wild species of Brassica as a new genetic resource for rapeseed breeding

Jesske, Tobias 21 July 2011 (has links)
No description available.
185

Les ontologies comme support à l'interaction et à la personnalisation dans un processus décisionnel. Exploitation de la sémantique pour favoriser l'automatisation cognitive

Ranwez, Sylvie 11 July 2013 (has links) (PDF)
Impliqué dans un processus décisionnel, l'opérateur humain est souvent confronté à un trop grand nombre d'informations, qu'il doit analyser, synthétiser et exploiter parfois dans un contexte de crise où le facteur temps est décisif. Il est alors nécessaire d'automatiser certaines tâches à haute valeur cognitive ajoutée pour optimiser ce processus décisionnel. Les ontologies de domaine peuvent être utilisées lors de différentes phases de celui-ci. Les travaux de recherche décrits dans ce mémoire concernent l'instrumentation de l'automatisation cognitive lors de différents traitements de l'information, en exploitant des ontologies. Ces recherches ont été menées au sein de l'équipe KID (Knowledge and Image analysis for Decision making) du centre de recherche LGI2P de l'école des mines d'Alès (EMA), de 2001 à 2013. Une première partie détaille mes différentes activités sous la forme d'un curriculum vitae étendu. La deuxième partie constitue le cœur de ce mémoire et détaille mes contributions en matière d'indexation, de recherche d'information conceptuelle et de visualisation de cartes de connaissances. Le premier chapitre pose les définitions des ontologies, leur application en particulier pour la recherche d'information et argumente notre positionnement. Le deuxième chapitre détaille notre vision de l'indexation, des qualités que l'on peut en attendre et de la pertinence des applications qui l'utilisent. Plusieurs stratégies d'indexation sont évoquées, dont une, l'indexation par propagation, constitue notre principale contribution et la piste privilégiés de nos perspectives à court terme. Le troisième chapitre présente nos contributions en recherche d'information (RI) conceptuelle. Disposant d'un ensemble de ressources indexées à l'aide de concepts issus d'une ontologie de domaine, des techniques de requêtage performantes en termes de rappel et de précision, peuvent être mises en place. Nos travaux s'intègrent dans un processus décisionnel : il faut non seulement fournir un résultat pertinent par rapport à une requête d'un utilisateur, mais également être à même de lui justifier ce résultat. Pour cela nous avons choisi d'utiliser des opérateurs d'agrégation issus du domaine de l'aide à la décision pour déterminer la pertinence d'un document. La reformulation de requête, quant à elle, est envisagée dans ces travaux comme l'optimisation d'une fonction objectif dans un processus de RI itératif. Nos perspectives dans ce domaine concernent la RI complémentaire, où les ressources sélectionnées doivent non seulement être pertinentes par rapport à la requête, mais encore se compléter les unes les autres vis-à-vis de cette requête. La RI nécessitant des méthodes de calcul de similarité sémantique, une partie de nos contributions concerne ces mesures. Un cadre abstrait unificateur a été proposé et une librairie dédiée développée. Pour favoriser l'automatisation cognitive, les techniques de visualisation et d'interaction jouent un rôle majeur. Le quatrième chapitre synthétise nos contributions dans le domaine, en particulier concernant les cartes de connaissances interactives, où les ontologies de domaine sont utilisées pour structurer la carte. Ainsi, la proximité physique des entités représentées tient compte de leur proximité sémantique. Différentes techniques peuvent être employées pour mettre en relief certaines caractéristiques de ces entités, différentes vues pouvant être proposées en fonction du contexte d'utilisation (indexation, navigation, recherche d'information, etc.) Un dernier chapitre conclut ce manuscrit en synthétisant nos contributions et en présentant nos perspectives concernant les différentes thématiques abordées dans ce manuscrit. Un positionnement de ce travail par rapport à l'EMA et plus globalement au sein de l'Institut Mines-Télécom est également proposé, ainsi que mes perspectives en matière d'enseignement.
186

Evolution von Distanzmaßen für chirurgische Prozesse

Schumann, Sandra 14 May 2014 (has links) (PDF)
Der Operationssaal ist ein hochkomplexes System mit dem Ziel patientenindividuelle Therapien zum Erfolg zu führen. Schwerpunkt dieser Arbeit ist der Arbeitsablauf des Chirurgen. Ein chirurgischer Prozess beinhaltet die durchgeführten Arbeitsschritte des Operateurs während eines Eingriffffs. Der protokollierte chirurgische Prozess ist Ausgangspunkt der Untersuchungen. Es wurde eine Methodik entwickelt, die mit statistischen und standardisierten Verfahren Unterschiede zwischen dem Ablauf verschiedener chirurgischer Prozesse messen kann. Dazu wurden die vier Distanzmaße Jaccard, Levenshtein, Adjazenz und Graphmatching auf chirurgische Prozesse angewandt. Eine Evaluation anhand von Daten einer Trainingsstudie zur Untersuchung laparoskopischer Instrumente in der minimalinvasiven Chirurgie bildet die Grundlage zur Bestimmung von Levenshteindistanz und Adjazenzdistanz als die Maße, die optimal geeignet sind Unterschiede zwischen chirurgen Prozessen zu messen. Die Retrospektivität der Distanzanalyse wird aufgehoben indem folgende Hypothese untersucht wird: Es gibt einen Zusammenhang zwischen der Distanz zur Laufzeit eines chirurgischen Eingriffs mit der Distanz nach kompletten Ablauf des Eingriffs. Die Hypothese konnte bestätigt werden. Der Zusammenhang zwischen Prozessablauf und Qualität des Prozessergebnisses wird mit folgender Hypothese untersucht: Je größer die Distanz eines chirurgischen Prozesses zum Best Practice, desto schlechter ist das Prozessergebnis. In der Chirurgie ist der Best Practice der chirurgische Prozess, der als die beste Prozedur angesehen wird, um das angestrebte Therapieziel zu erreichen. Auch diese Hypothese konnte bestätigt werden. Die Anwendung der Distanzmaße in der klinischen Praxis erfolgte beispielhaft an Eingriffffen aus der Neurochirurgie (zervikale Diskektomie) und der HNO (Neck Dissection). Insgesamt wurde mit der in dieser Arbeit dargelegten grundlegenden Methodik der Distanzmaße bei der Analyse chirurgischer Prozesse ein Grundstein für vielfältige weitere Untersuchungen gelegt.
187

Large scale geometry and isometric affine actions on Banach spaces / Géométrie à grande échelle et actions isométriques affines sur des espaces de Banach

Arnt, Sylvain 04 July 2014 (has links)
Dans le premier chapitre, nous définissons la notion d’espaces à partitions pondérées qui généralise la structure d’espaces à murs mesurés et qui fournit un cadre géométrique à l’étude des actions isométriques affines sur des espaces de Banach pour les groupes localement compacts à base dénombrable. Dans un premier temps, nous caractérisons les actions isométriques affines propres sur des espaces de Banach en termes d’actions propres par automorphismes sur des espaces à partitions pondérées. Puis, nous nous intéressons aux structures de partitions pondérées naturelles pour les actions de certaines constructions de groupes : somme directe ; produit semi-directe ; produit en couronne et produit libre. Nous établissons ainsi des résultats de stabilité de la propriété PLp par ces constructions. Notamment, nous généralisons un résultat de Cornulier, Stalder et Valette de la façon suivante : le produit en couronne d’un groupe ayant la propriété PLp par un groupe ayant la propriété de Haagerup possède la propriété PLp. Dans le deuxième chapitre, nous nous intéressons aux espaces métriques quasi-médians - une généralisation des espaces hyperboliques à la Gromov et des espaces médians - et à leurs propriétés. Après l’étude de quelques exemples, nous démontrons qu’un espace δ-médian est δ′-médian pour tout δ′ ≥ δ. Ce résultat nous permet par la suite d’établir la stabilité par produit directe et par produit libre d’espaces métriques - notion que nous développons par la même occasion. Le troisième chapitre est consacré à la définition et l’étude d’une distance propre, invariante à gauche et qui engendre la topologie explicite sur les groupes localement compacts, compactement engendrés. Après avoir montré les propriétés précédentes, nous prouvons que cette distance est quasi-isométrique à la distance des mots sur le groupe et que la croissance du volume des boules est contrôlée exponentiellement. / In the first chapter, we define the notion of spaces with labelled partitions which generalizes the structure of spaces with measured walls : it provides a geometric setting to study isometric affine actions on Banach spaces of second countable locally compact groups. First, we characterise isometric affine actions on Banach spaces in terms of proper actions by automorphisms on spaces with labelled partitions. Then, we focus on natural structures of labelled partitions for actions of some group constructions : direct sum ; semi-direct product ; wreath product and free product. We establish stability results for property PLp by these constructions. Especially, we generalize a result of Cornulier, Stalder and Valette in the following way : the wreath product of a group having property PLp by a Haagerup group has property PLp. In the second chapter, we focus on the notion of quasi-median metric spaces - a generalization of both Gromov hyperbolic spaces and median spaces - and its properties. After the study of some examples, we show that a δ-median space is δ′-median for all δ′ ≥ δ. This result gives us a way to establish the stability of the quasi-median property by direct product and by free product of metric spaces - notion that we develop at the same time. The third chapter is devoted to the definition and the study of an explicit proper, left-invariant metric which generates the topology on locally compact, compactly generated groups. Having showed these properties, we prove that this metric is quasi-isometric to the word metric and that the volume growth of the balls is exponentially controlled.
188

From Spitzer Mid-InfraRed Observations and Measurements of Peculiar Velocities to Constrained Simulations of the Local Universe / Des observations mi-InfraRouges du Télescope Spitzer et des mesures de vitesses particulières aux simulations contraintes de l'univers local

Sorce, Jenny 12 June 2014 (has links)
Les galaxies sont des sondes observationnelles pour l'étude des structures de l'Univers. Leur mouvement gravitationnel permet de tracer la densité totale de matière. Par ailleurs, l'étude de la formation des structures et galaxies s'appuie sur les simulations numériques cosmologiques. Cependant, un seul univers observable à partir d'une position donnée, en temps et espace, est disponible pour comparaison avec les simulations. La variance cosmique associée affecte notre capacité à interpréter les résultats. Les simulations contraintes par les données observationnelles constituent une solution optimale au problème. Réaliser de telles simulations requiert les projets Cosmicflows et CLUES. Cosmicflows construits des catalogues de mesures de distances précises afin d'obtenir les déviations de l'expansion. Ces mesures sont principalement obtenues avec la corrélation entre la luminosité des galaxies et la vitesse de rotation de leur gaz. La calibration de cette relation est présentée dans le mi-infrarouge avec les observations du télescope spatial Spitzer. Les estimations de distances résultantes seront intégrées au troisième catalogue de données du projet. En attendant, deux catalogues de mesures atteignant 30 et 150 h−1 Mpc ont été publiés. Les améliorations et applications de la méthode du projet CLUES sur les deux catalogues sont présentées. La technique est basée sur l'algorithme de réalisation contrainte. L'approximation de Zel'dovich permet de calculer le champ de déplacement cosmique. Son inversion repositionne les contraintes tridimensionnelles reconstruites à l'emplacement de leur précurseur dans le champ initial. La taille inégalée, 8000 galaxies jusqu'`a une distance de 150 h−1 Mpc, du second catalogue a mis en évidence l'importance de minimiser les biais observationnels. En réalisant des tests sur des catalogues de similis, issus des simulations cosmologiques, une méthode de minimisation des biais peut être dérivée. Finalement, pour la première fois, des simulations cosmologiques sont contraintes uniquement par des vitesses particulières de galaxies. Le procédé est une réussite car les simulations obtenues ressemblent à l'Univers Local. Les principaux attracteurs et vides sont simulés à des positions approchant de quelques mégaparsecs les positions observationnelles, atteignant ainsi la limite fixée par la théorie linéaire / Galaxies are observational probes to study the Large Scale Structure. Their gravitational motions are tracers of the total matter density and therefore of the Large Scale Structure. Besides, studies of structure formation and galaxy evolution rely on numerical cosmological simulations. Still, only one universe observable from a given position, in time and space, is available for comparisons with simulations. The related cosmic variance affects our ability to interpret the results. Simulations constrained by observational data are a perfect remedy to this problem. Achieving such simulations requires the projects Cosmicflows and CLUES. Cosmicflows builds catalogs of accurate distance measurements to map deviations from the expansion. These measures are mainly obtained with the galaxy luminosity-rotation rate correlation. We present the calibration of that relation in the mid-infrared with observational data from Spitzer Space Telescope. Resulting accurate distance estimates will be included in the third catalog of the project. In the meantime, two catalogs up to 30 and 150 h−1 Mpc have been released. We report improvements and applications of the CLUES’ method on these two catalogs. The technique is based on the constrained realization algorithm. The cosmic displacement field is computed with the Zel’dovich approximation. This latter is then reversed to relocate reconstructed three-dimensional constraints to their precursors’ positions in the initial field. The size of the second catalog (8000 galaxies within 150 h−1 Mpc) highlighted the importance of minimizing the observational biases. By carrying out tests on mock catalogs, built from cosmological simulations, a method to minimize observational bias can be derived. Finally, for the first time, cosmological simulations are constrained solely by peculiar velocities. The process is successful as resulting simulations resemble the Local Universe. The major attractors and voids are simulated at positions approaching observational positions by a few megaparsecs, thus reaching the limit imposed by the linear theory / Die Verteilung der Galaxien liefert wertvolle Erkenntnisse über die großräumigen Strukturen im Universum. Ihre durch Gravitation verursachte Bewegung ist ein direkter Tracer für die Dichteverteilung der gesamten Materie. Die Strukturentstehung und die Entwicklung von Galaxien wird mithilfe von numerischen Simulationen untersucht. Es gibt jedoch nur ein einziges beobachtbares Universum, welches mit der Theorie und den Ergebnissen unterschiedlicher Simulationen verglichen werden muß. Die kosmische Varianz erschwert es, das lokale Universum mit Simulationen zu reproduzieren. Simulationen, deren Anfangsbedingungen durch Beobachtungsdaten eingegrenzt sind (“Constrained Simulations”) stellen eine geeignete Lösung dieses Problems dar. Die Durchführung solcher Simulationen ist das Ziel der Projekte Cosmicflows und CLUES. Im Cosmicflows-Projekt werden genaue Entfernungsmessungen von Galaxien erstellt, welche die Abweichung von der allgemeinen Hubble- Expansion abbilden. Diese Messungen werden hauptsächlich aus der Korrelation zwischen Leuchtkraft und Rotationsgeschwindigkeit von Spiralgalaxien gewonnen. In dieser Arbeit wird die Kalibrierung dieser Beziehung im mittleren Infrarot mithilfe von Daten vom Spitzer Space Telescope vorgestellt. Diese neuen Entfernungsbestimmungen werden im dritten Katalog des Cosmicflows Projekts enthalten sein. Bisher wurden zwei Kataloge veröffentlicht, mit Entfernungen bis zu 30 beziehungsweise 150 h−1 Mpc. In dieser Arbeit wird die CLUESMethode auf diese zwei Kataloge angewendet und Verbesserungen warden vorgestellt und diskutiert. Zunächst wird das kosmische Verschiebungsfeld mithilfe der Zeldovich-Näherung bestimmt. In umgekehrter Richtung kann man damit die aus heutigen Beobachtungsdaten rekonstruierten dreidimensionalen Constraints an ihren Ursprungsort im frühen Universum zurückzuversetzen. Durch den großen Datenumfang des cosmicflows-2 Katalogs (8000 Galaxien bis zu einer Entfernung von 150 h−1 Mpc) ist es besonders wichtig, den Einfluss verschiedener Beobachtungsfehler zu minimieren. Eine für das lokale Universum angepasste Korrekturmethode lässt sich durch die Untersuchung von Mock-Katalogen finden, welche aus kosmologischen Simulationen gewonnen werden. Schließlich stellt diese Arbeit erstmals kosmologische Simulationen vor, die ausschließlich durch Pekuliargeschwindigkeiten eingegrenzt sind. Der Erfolg dieser Methode wird dadurch bestätigt, dass die dadurch erzeugten Simulationen dem beobachteten lokalen Universum sehr ähnlich sind. Die relevanten Attraktoren und Voids liegen in den Simulationen an Positionen, welche bis auf wenige Megaparsec mit den beobachteten Positionen übereinstimmen. Die Simulationen erreichen damit die durch die lineare Theorie gegebene Genauigkeitsgrenze
189

Phénoménologie de modèles à symétrie droite-gauche dans le secteur des quarks / Phenomenology of Left-Right Models in the quark sector

Vale Silva, Luiz Henrique 20 September 2016 (has links)
Bien qu'ayant beaucoup de succès pour décrire la grande variété de phénomènes de la physique des particules, le Modèle Standard (MS) laisse certaines propriétés de la nature sans explication. Ici, nous allons mettre l'accent sur le traitement différent des chiralités de type gauche et droite dans le cadre du MS. Une façon naturelle d'expliquer cela est de plonger le MS dans un modèle plus fondamental, capable de traiter les chiralités d'une manière symétrique. Cette classe de modèles, connue sous le nom de "modèles à symétrie droite-gauche" (LR models, en anglais), introduit une nouvelle interaction qui couple préférentiellement aux champs "droitiers". Puis, à une haute échelle d'énergie, la symétrie reliant droite et gauche est brisée spontanément donnant naissance au MS et aux phénomènes de violation de symétrie de parité. La manière spécifique par laquelle le mécanisme Brout-Englert-Higgs (BEH) se produit dans les modèles LR peut être sondée par des observables électrofaibles de précision, ce qui sert de premier test de l'extension du MS dans le secteur électrofaible. Comme conséquence du mécanisme BEH dans les modèles LR, de nouveaux bosons de jauge sont présents. Ce sont W’ et Z’, censés être beaucoup plus lourds que les bosons de jauge W et Z afin d'expliquer pourquoi ils n'ont jamais été vus jusqu'à présent. Ces nouvelles particules sont accompagnées d'une riche phénoménologie, comme de nouvelles sources de violation de CP au-delà de celle du MS. En outre, un nouveau secteur scalaire neutre introduit des courants qui changent la saveur (FCNC, en anglais) au niveau des arbres, un processus fortement restreint dans le MS, où il arrive seulement à l'ordre des boucles. L'existence de FCNCs fournit des contraintes extrêmement puissantes sur les modèles LR, et mérite donc une attention spéciale, en particulier lors du calcul des corrections venant de la QCD. Nous calculons donc les corrections au Next-to-Leading Order des effets à de courtes distances venant de la QCD aux contributions du modèle LR aux observables liées au mélange de mésons neutres et sensibles donc aux FCNC.Ensuite, nous considérons l'étude phénoménologique des modèles LR afin de tester leur viabilité et leur structure. Plus particulièrement, nous considérons le cas où des doublets scalaires sont responsables de la brisure du groupe de jauge des modèles LR. A cet effet, nous menons une étude combinée des observables de précision électrofaible, des bornes directes sur la masse des nouveaux bosons de jauge et des observables qui dérivent de l'oscillation des mésons neutres, dans le cas plus simple où la matrice de mixing dans le secteur droit est égal à la matrice CKM. Ces observables sont combinées dans le cadre du paquet CKMfitter d'analyse statistique. La combinaison de différentes classes d'observables doit prendre en compte la particularité des incertitudes théoriques, qui ne sont pas de nature statistique comme d'autres sources d'incertitude. A ce propos, nous considérons aussi la comparaison de différentes modèles d'incertitude théorique, afin de trouver des méthodes bien adaptées à la situation actuelle de notre connaissance des incertitudes théoriques impliquées dans un fit global en physique de la saveur. / Though very successful in explaining a wide variety of particle physics phenomena, the Standard Model (SM) leaves unexplained some properties of nature. Here we focus on the different behaviours of left- and right-handed chiralities, or in other words the violation of parity symmetry. A possible and somewhat natural avenue to explain this feature is to embed the SM into a more symmetric framework, which treats the chiralities on equal footing. This class of models, the Left-Right (LR) Models, introduces new gauge interactions that couple preferentially to right-handed fields. Then, at an energy scale high enough, LR symmetry is spontaneously broken through the Brout-Englert-Higgs (BEH) mechanism, thus giving origin to the SM and to parity violating phenomena. The specific way in which the BEH mechanism operates in LR Models can be probed by EW Precision Observables, consisting of quantities that have been very accurately measured, serving as a first test of consistency for extensions of the SM in the EW sector. We revisit a simple realization of LR Models containing doublet scalars, and consider the phenomenological study of this doublet scenario in order to test the viability and structure of the LR Models. In particular, there is a rich phenomenology associated to the new gauge bosons W’ et Z’ introduced by LR Models, such as new sources of CP violation beyond the one of the SM. Moreover, the extended neutral scalar sector introduces Flavour Changing Neutral Couplings (FCNC) at tree level, which are strongly suppressed in the SM where they arrive first at one loop. FCNCs typically lead to extremely powerful constraints since they contribute to meson-mixing processes, and therefore deserve close attention. For this reason, we consider the calculation of short-distance QCD effects correcting the LR Model contributions to meson-mixing observables up to the Next-to-Leading Order (NLO), a precision required to set solid lower bounds on the LR Model scales. Finally, we combine in a global fit electroweak precision observables, direct searches for the new gauge bosons and meson oscillation observables in the simple case where the right-handed analogous of the CKM mixing-matrix is equal to the CKM matrix itself (a scenario called CKMfitter symmetry). The full set of the observables is combined by using the CKMfitter statistical framework, based on a frequentist analysis and a particular scheme for modeling theoretical uncertainties. We also discuss other possible modelings of theoretical uncertainties in a prospective study for future global flavour fits made by the CKMfitter Collaboration.
190

Identifikace osob pomocí otisku hlasu / Identification of persons via voice imprint

Mekyska, Jiří January 2010 (has links)
This work deals with the text-dependent speaker recognition in systems, where just a few training samples exist. For the purpose of this recognition, the voice imprint based on different features (e.g. MFCC, PLP, ACW etc.) is proposed. At the beginning, there is described the way, how the speech signal is produced. Some speech characteristics important for speaker recognition are also mentioned. The next part of work deals with the speech signal analysis. There is mentioned the preprocessing and also the feature extraction methods. The following part describes the process of speaker recognition and mentions the evaluation of the used methods: speaker identification and verification. Last theoretically based part of work deals with the classifiers which are suitable for the text-dependent recognition. The classifiers based on fractional distances, dynamic time warping, dispersion matching and vector quantization are mentioned. This work continues by design and realization of system, which evaluates all described classifiers for voice imprint based on different features.

Page generated in 0.0731 seconds