• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 669
  • 188
  • 90
  • 90
  • 55
  • 29
  • 18
  • 18
  • 18
  • 16
  • 9
  • 9
  • 9
  • 9
  • 9
  • Tagged with
  • 1421
  • 369
  • 207
  • 166
  • 160
  • 144
  • 130
  • 125
  • 115
  • 105
  • 100
  • 92
  • 88
  • 74
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
871

SUR LA REGULARITE DES MINIMISEURS DE MUMFORD-SHAH EN DIMENSION 3 ET SUPERIEURE

Lemenant, Antoine 02 June 2008 (has links) (PDF)
On étudie dans cette thèse certains aspects de la régularité de l'ensemble singulier d'un minimiseur pour la fonctionnelle de Mumford-Shah. On se place principalement en dimension 3 même si certains résultats fonctionnent encore en dimension supérieure. Dans une première partie on étudie les minimiseurs globaux dans R^N et on montre que si (u;K) est un minimiseur global et que si K est un cône assez régulier, alors u (modulo les constantes) est une fonction homogène de degré 1/2 dans R^N\K. Ceci nous permet de lier l'existence d'un minimiseur global et le spectre du laplacien sphérique dans la sphère unité privée de K. Une conséquence est qu'un secteur angulaire stricte ne peut pas être l'ensemble singulier d'un minimiseur global de Mumford-Shah dans R^3. Dans la deuxième partie on montre un théorème de régularité au voisinage des cônes minimaux P, Y et T. On montre que si K est proche (en distance) d'un Y ou d'un T dans une certaine boule, alors K est l'image C^1,alpha d'un P, Y ou d'un T dans une boule légèrement plus petite, ce qui généralise un théorème de L. Ambrosio, N. Fusco et D. Pallara [AFP07]. Les techniques employées ne sont pas exclusives à la dimension 3 et devraient permettre de démontrer des résultats analogues en toute dimension pour un minimiseur de Mumford-Shah, dès lors qu'un résultat de régularité sur les ensembles presque minimaux existerait.
872

Problèmes spectraux inverses pour des opérateurs AKNS et de Schrödinger singuliers sur [0,1]

Serier, Frédéric 24 June 2005 (has links) (PDF)
Deux opérateurs sont étudiés dans cette thèse: l'opérateur de Schrödinger radial, issu de la mécanique quantique non relativiste; puis le système AKNS singulier, adaptation de l'opérateur de Dirac radial provenant de la mécanique quantique relativiste. La première partie consiste en la résolution du problème direct associé à chacun des deux opérateurs: détermination des valeurs et vecteurs propres, ainsi que leur dépendance vis à vis des potentiels. La présence de fonctions de Bessel due à la singularité explicite induit des difficultés lors de la détermination d'asymptotiques. La seconde partie porte sur la résolution de ces problèmes spectraux inverses. À l'aide d'opérateurs de transformations nous évitons les difficultés induites par la singularité. Ils nous permettent de développer une théorie spectrale inverse pour les opérateurs singuliers considérés. Précisément, nous construisons une application spectrale bien adapté à l'étude de la stabilité du problème inverse ainsi qu'à l'étude des ensembles isospectraux. Un résultat d'injectivité est aussi obtenu pour les opérateurs AKNS et de Dirac singuliers avec potentiels réguliers.
873

Conditionnement opérant de neurones du cortex moteur du rat pour un contrôle gradué de prothèse

Arduin, Pierre-Jean 05 December 2011 (has links) (PDF)
Les traumatismes médullaires, ainsi que les myopathies, les accidents vasculaires cérébraux ou les amputations peuvent entraîner de très lourds handicaps où la commande motrice ne peut plus être exécutée correctement. Les interfaces cerveau-machine ont été développées pour contrecarrer ces déficits. La plupart des groupes de recherche travaillant dans le domaine ont conçu des interfaces qui tentent de reconstruire un mouvement à partir de l'activité neuronale du cerveau. Dans notre cas, nous attaquons le problème différemment en conditionnant un neurone ou un petit nombre d'entre eux dans le cortex moteur de rats éveillés afin qu'ils contrôlent la vitesse d'un actuateur en une dimension en augmentant ou en diminuant leur taux de décharge. Dans ce protocole, connaître l'espace initial de codage des neurones conditionnés n'était pas un prérequis. Nous avons observé que l'activité de la plupart des neurones pouvait être modulée par conditionnement opérant, et pouvaient contrôler en temps réel et pendant plusieurs secondes la position d'une bouteille contenant une récompense liquide située en face de l'animal. De plus, pendant la période d'apprentissage, les neurones conditionnés ont affiché des propriétés spéciales comparées aux autres neurones non conditionnés, en termes de variabilité du taux de décharge, de latence de la réponse et de force de la modulation. Cela constitue la première démonstration d'un outil externe contrôlé en temps réel par des neurones conditionnés devant ajuster leur activité selon des objectifs constamment redéfinis.
874

Jauge conforme des espaces métriques compacts

Carrasco Piaggio, Matias 25 October 2011 (has links) (PDF)
L'objet principal de cette thèse est l'étude de la dimension conforme Ahlfors régulière ($\dim_{AR}X$) d'un espace métrique $X$. C'est un invariant numérique par quasisymétrie, introduit par P.\,Pansu, permettant la classification à quasi-isométrie près des espaces homogénes de courbure négative. Elle joue actuellement un rôle important en théorie géométrique des groupes et en dynamique conforme. A partir d'une suite de recouvrements d'un espace métrique compact $\left(X,d\right)$, on construit des distances de dimension contrôlée appartenant à la jauge conforme (Ahlfors régulière). On peut ainsi caractériser toutes les métriques de la jauge á homéomorphismes bi-Lipschitz prés. On montre comment calculer $\dim_{AR}X$ á partir de modules combinatoires en considérant un exposant critique $Q_N$. Comme conséquence de l'égalité $\dim_{AR}X=Q_N$, on obtient un critère général de dimension $1$. Les conditions sont données en termes de points de coupure locale de $X$. On donne par ailleurs des applications de ces résultats aux bords des groupes hyperboliques et aux ensembles de Julia des fractions rationnelles semihyperboliques.
875

protocoles adiabatiques pour le ralentissement et le stockage de la lumière dans un cristal de Tm:YAG

Lauro, Romain 29 September 2010 (has links) (PDF)
De nombreux laboratoires travaillent à la mise au point de mémoires quantiques, élément clef des systèmes d'information quantique de l'avenir. Les mémoires quantiques pour la lumière devraient en particulier jouer un rôle important dans les réseaux de télécommunications quantiques à grande distance. Constituée d'un ensemble d'atomes sur lequel on transpose l'état du signal lumineux, la mémoire doit être capable de sauvegarder cet état pendant un temps suffisamment long, puis de le restituer avec efficacité et fidélité. A ce jour, l'effort a surtout porté sur des protocoles liés à la Transparence Induite Electromagnétiquement (EIT), mis en oeuvre dans des nuages d'atomes refroidis par laser. Mon travail porte sur un système alternatif, les ions de terres rares en matrice cristalline (TRMC). Ces matériaux offrent une immobilité plus grande que les atomes froids. Par ailleurs, la durée de vie des états de superposition quantique, porteur de l'information stockée, y est très longue à basse température. L'élargissement inhomogène des transitions optiques distingue cependant nettement les TRMC des atomes refroidis par laser. Tirant parti de cette caractéristique, je propose un protocole de stockage original que j'explore sur le plan théorique et expérimental.
876

Supervised Learning for Sequential and Uncertain Decision Making Problems - Application to Short-Term Electric Power Generation Scheduling

Cornélusse, Bertrand 21 December 2010 (has links)
Our work is driven by a class of practical problems of sequential decision making in the context of electric power generation under uncertainties. These problems are usually treated as receding horizon deterministic optimization problems, and/or as scenario-based stochastic programs. Stochastic programming allows to compute a first stage decision that is hedged against the possible futures and -- if a possibility of recourse exists -- this decision can then be particularized to possible future scenarios thanks to the information gathered until the recourse opportunity. Although many decomposition techniques exist, stochastic programming is currently not tractable in the context of day-ahead electric power generation and furthermore does not provide an explicit recourse strategy. The latter observation also makes this approach cumbersome when one wants to evaluate its value on independent scenarios. We propose a supervised learning methodology to learn an explicit recourse strategy for a given generation schedule, from optimal adjustments of the system under simulated perturbed conditions. This methodology may thus be complementary to a stochastic programming based approach. With respect to a receding horizon optimization, it has the advantages of transferring the heavy computation offline, while providing the ability to quickly infer decisions during online exploitation of the generation system. Furthermore the learned strategy can be validated offline on an independent set of scenarios. On a realistic instance of the intra-day electricity generation rescheduling problem, we explain how to generate disturbance scenarios, how to compute adjusted schedules, how to formulate the supervised learning problem to obtain a recourse strategy, how to restore feasibility of the predicted adjustments and how to evaluate the recourse strategy on independent scenarios. We analyze different settings, namely either to predict the detailed adjustment of all the generation units, or to predict more qualitative variables that allow to speed up the adjustment computation procedure by facilitating the ``classical' optimization problem. Our approach is intrinsically scalable to large-scale generation management problems, and may in principle handle all kinds of uncertainties and practical constraints. Our results show the feasibility of the approach and are also promising in terms of economic efficiency of the resulting strategies. The solutions of the optimization problem of generation (re)scheduling must satisfy many constraints. However, a classical learning algorithm that is (by nature) unaware of the constraints the data is subject to may indeed successfully capture the sensitivity of the solution to the model parameters. This has nevertheless raised our attention on one particular aspect of the relation between machine learning algorithms and optimization algorithms. When we apply a supervised learning algorithm to search in a hypothesis space based on data that satisfies a known set of constraints, can we guarantee that the hypothesis that we select will make predictions that satisfy the constraints? Can we at least benefit from our knowledge of the constraints to eliminate some hypotheses while learning and thus hope that the selected hypothesis has a better generalization error? In the second part of this thesis, where we try to answer these questions, we propose a generic extension of tree-based ensemble methods that allows incorporating incomplete data but also prior knowledge about the problem. The framework is based on a convex optimization problem allowing to regularize a tree-based ensemble model by adjusting either (or both) the labels attached to the leaves of an ensemble of regression trees or the outputs of the observations of the training sample. It allows to incorporate weak additional information in the form of partial information about output labels (like in censored data or semi-supervised learning) or -- more generally -- to cope with observations of varying degree of precision, or strong priors in the form of structural knowledge about the sought model. In addition to enhancing the precision by exploiting information that cannot be used by classical supervised learning algorithms, the proposed approach may be used to produce models which naturally comply with feasibility constraints that must be satisfied in many practical decision making problems, especially in contexts where the output space is of high-dimension and/or structured by invariances, symmetries and other kinds of constraints.
877

Couplage thermomécanique lors de la soudure par ultrasons : application pour les thermoplastiques

Ha Minh, Duc 03 November 2009 (has links) (PDF)
Cette thèse présente un couplage thermodynamique pour une modélisation approfondie du processus de soudure par ultrasons, surtout la soudure des thermoplastiques. Il s'agit de bien connaître le mode de fonctionnement des ensembles acoustiques réalisant la soudure ainsi que le comportement des matériaux à souder. En conséquence, les propriétés de ces matériaux, surtout celles nécessaires pour la modélisation par éléments finis, sont identifiées. Les paramètres mécaniques et thermiques sont mesurés en statique et ils sont comparés avec les résultats calcules par homogénéisation. Certains sont déterminés en dynamique, selon la fréquence et aussi en fonction de la température. Ceci est très utile parce que les matériaux travaillent à haute fréquence ultrasonique et que la température lors de la soudure change fortement. La machine de soudage par ultrasons (l'ensemble acoustique) a déjà été conçue et fabriquée. La modélisation EF en 3D avec Abaqus nous montre bien ses comportements modaux et vibratoires. Ensuite, les matériaux à souder sont introduits en modélisants le contact dynamique entre l'ensemble acoustique et la bande à souder. Ce modèle nous permet de déterminer le temps de contact et la compression dans les matériaux en fonction de la force de maintien. La dissipation d'énergie qui est engendrée par viscosité des matériaux à souder est calculée et introduite dans le modèle couplé thermomécanique. Le transfert de chaleur dans tout l'ensemble lors de la soudure est modélisé et il montre le champ de température, surtout la température à l'interface entre deux couches de matériaux. Cette modélisation est complétée en utilisant la méthode ALE (Arbitrary Lagrangian Eulerian) afin de tenir compte du mouvement d'avancement des bandes à souder
878

Optimisation de la programmation d'un cristal dopé aux ions de terres rares, opérant comme processeur analogique d'analyse spectrale RF, ou de stockage d'information quantique

Bonarota, Matthieu 21 September 2012 (has links) (PDF)
La réalisation d'une mémoire quantique pour la lumière met en jeu les aspects les plus fondamentaux de l'interaction matière-rayonnement. Pour capturer l'information quantique portée par la lumière, le matériau doit être capable de se maintenir dans un état de superposition quantique. Le temps de stockage est limité par la durée de vie de cet état, caractérisée par le temps de cohérence. Les premières expériences ont été réalisées dans des vapeurs atomiques froides, bien connues. Plus récemment, les ions de terres rares en matrice cristalline (REIC) ont attiré l'attention par leurs long temps de cohérence, associés à de larges bandes passantes d'interaction. Pour exploiter ces bonnes propriétés, des protocoles spécifiques ont été proposés. Nous nous sommes tournés vers un dérivé prometteur de l'écho de photon, le Peigne Atomique de Fréquences (AFC, proposé en 2008), fondé sur la transmission du champ incident à travers un profil d'absorption spectralement périodique. Les premiers chapitres de ce manuscrit présentent ce protocole et les travaux effectués durant cette thèse pour en améliorer l'efficacité (i.e. la probabilité de capter et de restituer l'information incidente), en augmenter la bande passante et la capacité de multiplexage et en mesurer le bruit. Les chapitres suivants présentent un nouveau protocole, proposé dans notre groupe durant cette thèse, et baptisé ROSE (Revival Of Silenced Echo). Ce protocole, très proche de l'écho de photon, a été démontré et caractérisé expérimentalement. Il semble très prometteur en termes d'efficacité, de bande passante et de bruit.
879

Diversified Ensemble Classifiers for Highly Imbalanced Data Learning and their Application in Bioinformatics

DING, ZEJIN 07 May 2011 (has links)
In this dissertation, the problem of learning from highly imbalanced data is studied. Imbalance data learning is of great importance and challenge in many real applications. Dealing with a minority class normally needs new concepts, observations and solutions in order to fully understand the underlying complicated models. We try to systematically review and solve this special learning task in this dissertation.We propose a new ensemble learning framework—Diversified Ensemble Classifiers for Imbal-anced Data Learning (DECIDL), based on the advantages of existing ensemble imbalanced learning strategies. Our framework combines three learning techniques: a) ensemble learning, b) artificial example generation, and c) diversity construction by reversely data re-labeling. As a meta-learner, DECIDL utilizes general supervised learning algorithms as base learners to build an ensemble committee. We create a standard benchmark data pool, which contains 30 highly skewed sets with diverse characteristics from different domains, in order to facilitate future research on imbalance data learning. We use this benchmark pool to evaluate and compare our DECIDL framework with several ensemble learning methods, namely under-bagging, over-bagging, SMOTE-bagging, and AdaBoost. Extensive experiments suggest that our DECIDL framework is comparable with other methods. The data sets, experiments and results provide a valuable knowledge base for future research on imbalance learning. We develop a simple but effective artificial example generation method for data balancing. Two new methods DBEG-ensemble and DECIDL-DBEG are then designed to improve the power of imbalance learning. Experiments show that these two methods are comparable to the state-of-the-art methods, e.g., GSVM-RU and SMOTE-bagging. Furthermore, we investigate learning on imbalanced data from a new angle—active learning. By combining active learning with the DECIDL framework, we show that the newly designed Active-DECIDL method is very effective for imbalance learning, suggesting the DECIDL framework is very robust and flexible.Lastly, we apply the proposed learning methods to a real-world bioinformatics problem—protein methylation prediction. Extensive computational results show that the DECIDL method does perform very well for the imbalanced data mining task. Importantly, the experimental results have confirmed our new contributions on this particular data learning problem.
880

Ensembles of Artificial Neural Networks: Analysis and Development of Design Methods

Torres Sospedra, Joaquín 30 September 2011 (has links)
This thesis is focused on the analysis and development of Ensembles of Neural Networks. An ensemble is a system in which a set of heterogeneous Artificial Neural Networks are generated in order to outperform the Single network based classifiers. However, this proposed thesis differs from others related to ensembles of neural networks [1, 2, 3, 4, 5, 6, 7] since it is organized as follows. In this thesis, firstly, an ensemble methods comparison has been introduced in order to provide a rank-based list of the best ensemble methods existing in the bibliography. This comparison has been split into two researches which represents two chapters of the thesis. Moreover, there is another important step related to the ensembles of neural networks which is how to combine the information provided by the neural networks in the ensemble. In the bibliography, there are some alternatives to apply in order to get an accurate combination of the information provided by the heterogeneous set of networks. For this reason, a combiner comparison has also been introduced in this thesis. Furthermore, Ensembles of Neural Networks is only a kind of Multiple Classifier System based on neural networks. However, there are other alternatives to generate MCS based on neural networks which are quite different to Ensembles. The most important systems are Stacked Generalization and Mixture of Experts. These two systems will be also analysed in this thesis and new alternatives are proposed. One of the results of the comparative research developed is a deep understanding of the field of ensembles. So new ensemble methods and combiners can be designed after analyzing the results provided by the research performed. Concretely, two new ensemble methods, a new ensemble methodology called Cross-Validated Boosting and two reordering algorithms are proposed in this thesis. The best overall results are obtained by the ensemble methods proposed. Finally, all the experiments done have been carried out on a common experimental setup. The experiments have been repeated ten times on nineteen different datasets from the UCI repository in order to validate the results. Moreover, the procedure applied to set up specific parameters is quite similar in all the experiments performed. It is important to conclude by remarking that the main contributions are: 1) An experimental setup to prepare the experiments which can be applied for further comparisons. 2) A guide to select the most appropriate methods to build and combine ensembles and multiple classifiers systems. 3) New methods proposed to build ensembles and other multiple classifier systems.

Page generated in 0.047 seconds