• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 18
  • 18
  • 6
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Reducing development costs of large vocabulary speech recognition systems / Réduction des coûts de développement de systèmes de reconnaissance de la parole à grand vocabulaire

Fraga Da Silva, Thiago 29 September 2014 (has links)
Au long des dernières décennies, des importants avancements ont été réalisés dans le domaine de la reconnaissance de la parole à grand vocabulaire. Un des défis à relever dans le domaine concerne la réduction des coûts de développement nécessaires pour construire un nouveau système ou adapter un système existant à une nouvelle tâche, langue ou dialecte. Les systèmes de reconnaissance de la parole à l’état de l’art sont basés sur les principes de l’apprentissage statistique, utilisant l’information fournie par deux modèles stochastiques, un modèle acoustique (MA) et un modèle de langue (ML). Les méthodes standards utilisées pour construire ces modèles s’appuient sur deux hypothèses de base : les jeux de données d’apprentissage sont suffisamment grands, et les données d’apprentissage correspondent bien à la tâche cible. Il est bien connu qu’une partie importante des coûts de développement est dû à la préparation des corpora qui remplissent ces deux conditions, l’origine principale des coûts étant la transcription manuelle des données audio. De plus, pour certaines applications, notamment la reconnaissance des langues et dialectes dits "peu dotés", la collecte des données est en soi une mission difficile. Cette thèse a pour but d’examiner et de proposer des méthodes visant à réduire le besoin de transcriptions manuelles des données audio pour une tâche donnée. Deux axes de recherche ont été suivis. Dans un premier temps, des méthodes d’apprentissage dits "non-supervisées" sont explorées. Leur point commun est l’utilisation des transcriptions audio obtenues automatiquement à l’aide d’un système de reconnaissance existant. Des méthodes non-supervisées sont explorées pour la construction de trois des principales composantes des systèmes de reconnaissance. D’abord, une nouvelle méthode d’apprentissage non-supervisée des MAs est proposée : l’utilisation de plusieurs hypothèses de décodage (au lieu de la meilleure uniquement) conduit à des gains de performance substantiels par rapport à l’approche standard. L’approche non-supervisée est également étendue à l’estimation des paramètres du réseau de neurones (RN) utilisé pour l’extraction d’attributs acoustiques. Cette approche permet la construction des modèles acoustiques d’une façon totalement non-supervisée et conduit à des résultats compétitifs en comparaison avec des RNs estimés de façon supervisée. Finalement, des méthodes non-supervisées sont explorées pour l’estimation des MLs à repli (back-off ) standards et MLs neuronaux. Il est montré que l’apprentissage non-supervisée des MLs conduit à des gains de performance additifs (bien que petits) à ceux obtenus par l’apprentissage non-supervisée des MAs. Dans un deuxième temps, cette thèse propose l’utilisation de l’interpolation de modèles comme une alternative rapide et flexible pour la construction des MAs pour une tâche cible. Les modèles obtenus à partir d’interpolation se montrent plus performants que les modèles de base, notamment ceux estimés à échantillons regroupés ou ceux adaptés à la tâche cible. Il est montré que l’interpolation de modèles est particulièrement utile pour la reconnaissance des dialectes peu dotés. Quand la quantité de données d’apprentissage acoustiques du dialecte ciblé est petite (2 à 3 heures) ou même nulle, l’interpolation des modèles conduit à des gains de performances considérables par rapport aux méthodes standards. / One of the outstanding challenges in large vocabulary automatic speech recognition (ASR) is the reduction of development costs required to build a new recognition system or adapt an existing one to a new task, language or dialect. The state-of-the-art ASR systems are based on the principles of the statistical learning paradigm, using information provided by two stochastic models, an acoustic (AM) and a language (LM) model. The standard methods used to estimate the parameters of such models are founded on two main assumptions : the training data sets are large enough, and the training data match well the target task. It is well-known that a great part of system development costs is due to the construction of corpora that fulfill these requirements. In particular, manually transcribing the audio data is the most expensive and time-consuming endeavor. For some applications, such as the recognition of low resourced languages or dialects, finding and collecting data is also a hard (and expensive) task. As a means to lower the cost required for ASR system development, this thesis proposes and studies methods that aim to alleviate the need for manually transcribing audio data for a given target task. Two axes of research are explored. First, unsupervised training methods are explored in order to build three of the main components of ASR systems : the acoustic model, the multi-layer perceptron (MLP) used to extract acoustic features and the language model. The unsupervised training methods aim to estimate the model parameters using a large amount of automatically (and inaccurately) transcribed audio data, obtained thanks to an existing recognition system. A novel method for unsupervised AM training that copes well with the automatic audio transcripts is proposed : the use of multiple recognition hypotheses (rather than the best one) leads to consistent gains in performance over the standard approach. Unsupervised MLP training is proposed as an alternative to build efficient acoustic models in a fully unsupervised way. Compared to cross-lingual MLPs trained in a supervised manner, the unsupervised MLP leads to competitive performance levels even if trained on only about half of the data amount. Unsupervised LM training approaches are proposed to estimate standard back-off n-gram and neural network language models. It is shown that unsupervised LM training leads to additive gains in performance on top of unsupervised AM training. Second, this thesis proposes the use of model interpolation as a rapid and flexible way to build task specific acoustic models. In reported experiments, models obtained via interpolation outperform the baseline pooled models and equivalent maximum a posteriori (MAP) adapted models. Interpolation proves to be especially useful for low resourced dialect ASR. When only a few (2 to 3 hours) or no acoustic data truly matching the target dialect are available for AM training, model interpolation leads to substantial performance gains compared to the standard training methods.
12

Méthode et outils de coévolution des profils UML et de leurs modèles : pour une meilleure prise en compte de leurs impacts par les concepteurs / Method and tool for UML profiles and models coevolution : towards a better impact consideration by the designers

Lakhal, Fadoi 22 April 2014 (has links)
Les travaux développés dans cette thèse définissent une approche pour la gestion des impacts des évolutions des profils UML sur les modèles instances. Sur la base d'organisation des diverses connaissances identifiées lors de l'analyse des évolutions d'un profil UML, nous proposons un processus automatisé PEM (Profil Evolution Method) permettant l'identification des évolutions a posteriori sous forme de différences, la reconstruction de ces différences en opérations d'évolution conformes au métamodèle UML, la classification de leur impact et, finalement, l'adaptation des modèles à la nouvelle version du profil UML. L'approche intègre également une activité de formalisation et d'utilisation de patrons d'évolution contenant toutes les informations essentielles employées à chaque étape de notre processus. Ces patrons sont employés dans notre système P²E (Papyrus Profile Evolution) pour guider le concepteur des modèles ou des profils, dans la gestion des évolutions d'un profil UML en évaluant efficacement un sous ensemble suffisant et pertinent d'éléments et de paramètres d'évolution d'un profil UML.Les principales contributions de l'approche résident dans la formalisation d'opérateurs d'évolution à partir du métamodèle UML, la proposition d'une classification des impacts des évolutions sur les modèles instances, la modélisation semi-formelle et explicite d'un catalogue de patron d'évolution contenant les solutions d'adaptation à appliquer sur les modèles instances. / This thesis proposes an approach for the management of UML profiles evolutions and their impacts on instance models. Based on the analysis of standardized UML profiles evolutions, we propose an automated process called PEM (Profile Evolution Method) allowing the evolutions identification a posteriori and their representations as differences; the reconstruction of these differences as evolution operations that are compliant with the UML metamodel; their impacts classification and, finally, the instance models adaptation towards the new UML profile version.The approach includes also an activity of formalization of previous knowledge in the form of evolution patterns. The patterns contain all the essential information used at each step in our P²E system (Papyrus Profile Evolution). They guide the models designer or the profiles designer, in the management of the UML profiles evolution by evaluating efficiently a sufficient subset with pertinent evolving elements and their evolution parameters.In this approach, the major contributions consist in the formalization of evolution operators extracted from the UML metamodel, the proposal of an evolution impacts classification, the specification of a pattern catalog that is semi-formal and explicit for the designers. Finally, the specification of adaptation solutions (to adapt the old model versions to the new UML profile version).
13

Couplage AIG/MEG pour l'analyse de détails structuraux par une approche non intrusive et certifiée / IGA/FEM coupling for the analysis of structural details by a non-intrusive and certified approach

Tirvaudey, Marie 27 September 2019 (has links)
Dans le contexte industriel actuel, où la simulation numérique joue un rôle majeur, de nombreux outils sont développés afin de rendre les calculs les plus performants et exacts possibles en utilisant les ressources numériques de façon optimale. Parmi ces outils, ceux non-intrusifs, c’est-à-dire ne modifiant pas les codes commerciaux disponibles mais permettant d’utiliser des méthodes de résolution avancées telles que l’analyse isogéométrique ou les couplages multi-échelles, apparaissent parmi les plus attirants pour les industriels. L’objectif de cette thèse est ainsi de coupler l’Analyse IsoGéométrique (AIG) et la Méthode des Éléments Finis (MEF) standard pour l’analyse de détails structuraux par une approche non-intrusive et certifiée. Dans un premier temps, on développe un lien global approché entre les fonctions de Lagrange, classiquement utilisées en éléments finis et les fonctions NURBS bases de l’AIG, ce qui permet d’implémenter des analyses isogéométriques dans un code industriel EF vu comme une boîte noire. Au travers d’exemples linéaires et non-linéaires implémentés dans le code industriel Code_Aster de EDF, nous démontrons l’efficacité de ce pont AIG\MEF et les possibilités d’applications industrielles. Il est aussi démontré que ce lien permet de simplifier l’implémentation du couplage non-intrusif entre un problème global isogéométrique et un problème local éléments finis. Ensuite, le concept de couplage non-intrusif entre les méthodes étant ainsi possible, une stratégie d’adaptation est mise en place afin de certifier ce couplage vis-à-vis d’une quantité d’intérêt. Cette stratégie d’adaptation est basée sur des méthodes d’estimation d’erreur a posteriori. Un estimateur global et des indicateurs d’erreur d’itération, de modèle et de discrétisation permettent de piloter la définition du problème couplé. La méthode des résidus est utilisée pour évaluer ces erreurs dans des cas linéaires, et une extension aux problèmes non-linéaires via le concept d’Erreur en Relation de Comportement (ERC) est proposée. / In the current industrial context where the numerical simulation plays a major role, a large amount of tools are developed in order to perform accurate and effective simulations using as less numerical resources as possible. Among all these tools, the non-intrusive ones which do not modify the existing structure of commercial softwares but allowing the use of advanced solving methods, such as isogeometric analysis or multi-scale coupling, are the more attractive to the industry. The goal of these thesis works is thus the coupling of the Isogeometric Analysis (IGA) with the Finite Element Method (FEM) to analyse structural details with a non-intrusive and certified approach. First, we develop an approximate global link between the Lagrange functions, commonly used in the FEM, and the NURBS functions on which the IGA is based. It’s allowed the implementation of isogeometric analysis in an existing finite element industrial software considering as a black-box. Through linear and nonlinear examples implemented in the industrial software Code_Aster of EDF, we show the efficiency of the IGA\FEM bridge and all the industrial applications that can be made. This link is also a key to simplify the non-intrusive coupling between a global isogeometric problem and a local finite element problem. Then, as the non-intrusive coupling between both methods is possible, an adaptive process is introduced in order to certify this coupling regarding a quantity of interest. This adaptive strategy is based on a posteriori error estimation. A global estimator and indicators of iteration, model and discretization error sources are computed to control the definition of the coupled problem. Residual base methods are performed to estimated errors for linear cases, an extension to the concept of constitutive relation errors is also initiated for non-linear problems.
14

On Stranger Tides : An exploratory study on how digital start-ups navigate through business model adaptation in volatile environments

Sensenhauer, Sophie, Elmi, Jasmin January 2020 (has links)
In recent years, new technologies have led to disruption and change within most industries, resulting in the emergence of digitally-born start-ups. The purpose of this thesis is to complement the scarce theory about what the drivers of business model adaptation in start-ups consist of and how the adaptation process is managed to stay competitive. The findings not only provide theoretical contributions, but can also help managers to steer their start-upsthrough the growth phase.The research is set within the realms of business model theory in the strategic management field. An exploratory study with a qualitative, inductive approach was chosen to gain insights into the business model dynamics of nine firms from the fintech and healthtech industries.The results showed that foreign market adaptation, industry dynamics, funding, and legislation are perceived challenges, whereas legislation and exogenous shocks are opportunities that drive business model adaptation in start-ups. The business model elements of strategic decision-making, resources and capabilities, and network and partners were found to be integral to the adaptation process, as their core components not only need to be adapted to the environment but also aligned with each other. Those components should be revised in an iterative trial-and-error process driven by feedback.
15

Multi-wavelength laser line profile sensing for agricultural applications

Strothmann, Wolfram 03 November 2016 (has links)
This dissertation elaborates on the novel sensing approach of multi-wavelength laser line profiling (MWLP). It is a novel sensor concept that expands on the well-known and broadly adopted laser line profile sensing concept for triangulation-based range imaging. Thereby, the MWLP concept does not just use one line laser but multiple line lasers at different wavelengths scanned by a single monochrome imager. Moreover, it collects not only the 3D distance values but also reflection intensity and backscattering of the laser lines are evaluated. The system collects spectrally selective image-based data in an active manner. Thus, it can be geared toward an application-specific wavelength configuration by mounting a set of lasers of the required wavelengths. Consequently, with this system image-based 3D range data can be collected along with reflection intensity and backscattering data at multiple, selectable wavelengths using just a single monochrome image sensor. Starting from a basic draft of the idea, the approach was realized in terms of hardware and software design and implementation. The approach was shown to be feasible and the prototype performed well as compared with other state-of-the-art sensor systems. The sensor raw data can be visualized and accessed as overlayed distance images, point clouds or mesh. Further, for selected example applications it was demonstrated that the sensor data gathered by the system can serve as descriptive input for real world agricultural classification problems. The sensor data was classified in a pixel-based manner. This allows very flexible, quick and easy adaptation of the classification toward new field situations.
16

Multi-View Motion Capture based on Model Adaptation

Fechteler, Philipp 28 November 2019 (has links)
Fotorealistische Modellierung von Menschen ist in der Computer Grafik von besonderer Bedeutung, da diese allgegenwärtig in Film- und Computerspiel-Produktionen benötigt wird. Heutige Modellierungs-Software vereinfacht das Generieren realistischer Modelle. Hingegen ist das Erstellen realitätsgetreuer Abbilder real existierender Personen nach wie vor eine anspruchsvolle Aufgabe. Die vorliegende Arbeit adressiert die automatische Modellierung von realen Menschen und die Verfolgung ihrer Bewegung. Ein Skinning-basierter Ansatz wurde gewählt, um effizientes Generieren von Animationen zu ermöglichen. Für gesteigerte Realitätstreue wurde eine artefaktfreie Skinning-Funktion um den Einfluss mehrerer kinematischer Gelenke erweitert. Dies ermöglicht eine große Vielfalt an real wirkenden komplexen Bewegungen. Zum Erstellen eines Personen-spezifischen Modells wird hier ein automatischer, datenbasierter Ansatz vorgeschlagen. Als Eingabedaten werden registrierte, geschlossene Beispiel-Meshes verschiedener Posen genutzt. Um bestmöglich die Trainingsdaten zu approximieren, werden in einer Schleife alle Komponenten des Modells optimiert: Vertices, Gelenke und Skinning-Gewichte. Zwecks Tracking von Sequenzen verrauschter und nur teilweise erfasster 3D Rekonstruktionen wird ein markerfreier modelladaptiver Ansatz vorgestellt. Durch die nicht-parametrische Formulierung werden die Gelenke des generischen initialien Tracking-Modells uneingeschränkt optimiert, als auch die Oberfläche frei deformiert und somit individuelle Eigenheiten des Subjekts extrahiert. Integriertes a priori Wissen über die menschliche Gestalt, extrahiert aus Trainingsdaten, gewährleistet realistische Modellanpassungen. Das resultierende Modell mit Animationsparametern ist darauf optimiert, bestmöglich die Eingabe-Sequenz wiederzugeben. Zusammengefasst ermöglichen die vorgestellten Ansätze realitätsgetreues und automatisches Modellieren von Menschen und damit akkurates Tracking aus 3D Daten. / Photorealistic modeling of humans in computer graphics is of special interest because it is required for modern movie- and computer game productions. Modeling realistic human models is relatively simple with current modeling software, but modeling an existing real person in detail is still a very cumbersome task. This dissertation focuses on realistic and automatic modeling as well as tracking human body motion. A skinning based approach is chosen to support efficient realistic animation. For increased realism, an artifact-free skinning function is enhanced to support blending the influence of multiple kinematic joints. As a result, natural appearance is supported for a wide range of complex motions. To setup a subject-specific model, an automatic and data-driven optimization framework is introduced. Registered, watertight example meshes of different poses are used as input. Using an efficient loop, all components of the animatable model are optimized to closely resemble the training data: vertices, kinematic joints and skinning weights. For the purpose of tracking sequences of noisy, partial 3D observations, a markerless motion capture method with simultaneous detailed model adaptation is proposed. The non-parametric formulation supports free-form deformation of the model’s shape as well as unconstrained adaptation of the kinematic joints, thereby allowing to extract individual peculiarities of the captured subject. Integrated a-prior knowledge on human shape and pose, extracted from training data, ensures that the adapted models maintain a natural and realistic appearance. The result is an animatable model adapted to the captured subject as well as a sequence of animation parameters, faithfully resembling the input data. Altogether, the presented approaches provide realistic and automatic modeling of human characters accurately resembling sequences of 3D input data.
17

Enhancing supervised learning with complex aggregate features and context sensitivity / Amélioration de l'apprentissage supervisé par l'utilisation d'agrégats complexes et la prise en compte du contexte

Charnay, Clément 30 June 2016 (has links)
Dans cette thèse, nous étudions l'adaptation de modèles en apprentissage supervisé. Nous adaptons des algorithmes d'apprentissage existants à une représentation relationnelle. Puis, nous adaptons des modèles de prédiction aux changements de contexte.En représentation relationnelle, les données sont modélisées par plusieurs entités liées par des relations. Nous tirons parti de ces relations avec des agrégats complexes. Nous proposons des heuristiques d'optimisation stochastique pour inclure des agrégats complexes dans des arbres de décisions relationnels et des forêts, et les évaluons sur des jeux de données réelles.Nous adaptons des modèles de prédiction à deux types de changements de contexte. Nous proposons une optimisation de seuils sur des modèles à scores pour s'adapter à un changement de coûts. Puis, nous utilisons des transformations affines pour adapter les attributs numériques à un changement de distribution. Enfin, nous étendons ces transformations aux agrégats complexes. / In this thesis, we study model adaptation in supervised learning. Firstly, we adapt existing learning algorithms to the relational representation of data. Secondly, we adapt learned prediction models to context change.In the relational setting, data is modeled by multiples entities linked with relationships. We handle these relationships using complex aggregate features. We propose stochastic optimization heuristics to include complex aggregates in relational decision trees and Random Forests, and assess their predictive performance on real-world datasets.We adapt prediction models to two kinds of context change. Firstly, we propose an algorithm to tune thresholds on pairwise scoring models to adapt to a change of misclassification costs. Secondly, we reframe numerical attributes with affine transformations to adapt to a change of attribute distribution between a learning and a deployment context. Finally, we extend these transformations to complex aggregates.
18

Analyse von verkehrs- und klimabezogenen Politikmaßnahmen in einer Stadtökonomie: Erweiterung und Anwendung eines räumlichen allgemeinen Gleichgewichtmodells

Nitzsche, Eric 28 April 2016 (has links)
Die Dissertation befasst sich mit der Erweiterung und Anwendung des allgemeinen räumlichen Gleichgewicht- und Transportmodells RELU-TRAN (Anas und Liu, 2007) und analysiert verschiedene verkehrs- und klimabezogene Politikmaßnahmen (Tempo-30 in Städten, Infrastrukturqualität, Anpassung an den Klimawandel) in einer Stadtökonomie.

Page generated in 0.0922 seconds