• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 21
  • Tagged with
  • 255
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

La réutilisation de la musique classique dans le hip-hop à travers le sampling : enjeux musicaux et sociaux d’une pratique de composition

Berthelot, Fabian 04 1900 (has links)
Cette thèse propose d'analyser la pratique d'échantillonnage de musique classique dans la production de musique hip-hop francophone. Elle se concentre sur les enjeux musicaux et sociaux de cette pratique en adoptant une méthodologie basée sur des outils sociologiques. Ainsi elle évaluera l'importance de cette rencontre entre ces deux entités culturelles, que le sont le hip-hop et la musique classique, en mettant en rapport les individus et les objets. / This thesis propose to analyze the reusing of western art music through sampling in french hip-hop music production. It is based on musical and social challenges using very sociological tools. Thereby it evaluate the importance of this meeting between hip-hop music and classical music by putting individuals and objects at the center of the argument.
172

Développement d’une approche quantitative pour l’étude du poumon équin : fixation et échantillonnage pour l’application des principes de la stéréologie

Gélinas-Lymburner, Emilie 03 1900 (has links)
La présente étude visait à développer un protocole de fixation et d'échantillonnage pour le poumon équin suivant les directives publiées sur l’utilisation d’une approche stéréologique de type « design-based ». Les poumons gauches de chevaux contrôles et atteints du souffle ont été fixés avec du formaldéhyde 10% pendant 48h à une pression constante de 25-30 cm d’H2O. Les poumons ont été sectionnés en 20-21 tranches d’une épaisseur d'environ 2,5 cm chacune; de 10-11 tranches ont été sélectionnées de façon aléatoire et systématique pour la mesure du volume de référence avec la méthode de Cavalieri. Un protocole d’échantillonnage systématique, aléatoire et uniforme utilisant le principe du « smooth fractionator » et un poinçon à biopsie de 17 mm ont été utilisés pour échantillonner une fraction représentative de chaque poumon. Les méthodes d’échantillonnage de sections verticales, uniformes et aléatoires (VUR) et d’échantillonnage isotropique, uniforme et aléatoire (IUR) ont toutes deux été effectuées pour comparer le nombre de voies respiratoires en coupe perpendiculaire obtenues à partir de chaque méthode. L'architecture globale et la qualité des tissus fixés ont également été évaluées. Des spécimens pulmonaires équins ont été échantillonnés avec succès selon un protocole visant à produire des données morphométriques valides. Les tissus ont été fixés avec un minimum d'artéfacts et contenaient une quantité suffisante de voies respiratoires en coupe perpendiculaire dans les deux types d’échantillons. En conclusion, un protocole de fixation et d'échantillonnage adapté au poumon équin permettant l'utilisation d'une approche stéréologique de type « design-based » a été élaboré pour l’étude du remodelage des voies respiratoires. / The present study aimed at developing a fixation and sampling protocol for the horse lung in agreement with recent published guidelines for a design-based stereology approach. The left lungs from control and from heaves-affected horses were fixed in 10% formaldehyde for 48hr at a controlled constant pressure of 25-30 cm H2O. Lungs were cut into 20-21 slices of a thickness of approximately 2.5cm each; 10-11 slices were then randomly and systematically selected for the measurement of the reference volume using the Cavalieri method. A systematic, uniform and random sampling (SURS) protocol using a 17 mm punch biopsy and the smooth fractionator principle was used to select a representative fraction of each lung. The vertical uniform random (VUR) and isotropic uniform random (IUR) sampling methods were both performed to compare the number of perpendicular airways obtained with each method. The general architecture and the quality of the fixed tissues were also evaluated. Equine lung tissues were successfully sampled with a protocol designed to yield accurate morphometric data. The tissues were fixed with minimal artifacts and contained an adequate amount of perpendicular airways in both VUR and IUR sections. In conclusion, we developed a fixation and sampling protocol adapted to the equine lung allowing the use of a design-based stereology approach to study airway remodeling.
173

Echantillonnage, interpolation et détection. Applications en imagerie satellitaire.

Almansa, Andrés 09 December 2002 (has links) (PDF)
Cette thèse aborde quelques-uns des problèmes qui surviennent dans la conception d'un système complet de vision par ordinateur : de l'échantillonnage à la détection de structures et leur interprétation. La motivation principale pour traiter ces problèmes a été fournie par le CNES et la conception des satellites d'observation terrestre, ainsi que par les applications de photogrammétrie et vidéo-surveillance chez Cognitech, Inc. pendant les étapes finales de ce travail, mais les techniques développées sont d'une généralité suffisante pour présenter un intérêt dans d'autres systèmes de vision par ordinateur. Dans une première partie nous abordons une étude comparative des différents systèmes d'échantillonnage d'images sur un réseau régulier, soit carré soit hexagonal, à l'aide d'une mesure de résolution effective, qui permet de déterminer la quantité d'information utile fournie par chaque pixel du réseau, une fois que l'on a séparé les effets du bruit et du repliement spectral. Cette mesure de résolution est utilisée à son tour pour améliorer des techniques de zoom et de restauration basées sur la minimisation de la variation totale. Ensuite l'étude comparative est poursuivie en analysant dans quelle mesure chacun des systèmes permet d'éliminer les perturbations du réseau d'échantillonnage dues aux micro-vibrations du satellite pendant l'acquisition. Après une présentation des limites théoriques du problème, nous comparons les performances des méthodes de reconstruction existantes avec un nouvel algorithme, mieux adapté aux conditions d'échantillonnage du CNES. Dans une deuxième partie nous nous intéressons à l'interpolation de modèles d'élévation de terrain, dans deux cas particuliers: l'interpolation de lignes de niveau, et l'étude des zones dans lesquelles une méthode de corrélation à partir de paires stéréo ne fournit pas des informations fiables. Nous étudions les liens entre les méthodes classiques utilisées en sciences de la terre tels que Krigeage ou distances géodésiques, et la méthode AMLE, et nous proposons une extension de la théorie axiomatique de l'interpolation qui conduit à cette dernière. Enfin une évaluation expérimentale permet de conclure qu'une nouvelle combinaison du Krigeage avec l'AMLE fournit les meilleures interpolations pour les modèles de terrain. Enfin nous nous intéressons à la détection d'alignements et de leurs points de fuite dans une image, car ils peuvent être utilisés aussi bien pour la construction de modèles d'élévation urbains, que pour résoudre des problèmes de photogrammétrie et calibration de caméras. Notre approche est basée sur la théorie de la Gestalt, et son implémentation effective récemment proposée par Desolneux-Moisan-Morel à l'aide du principe de Helmholtz. Le résultat est un détecteur de points de fuite sans paramètres, qui n'utilise aucune information a priori sur l'image ou la caméra.
174

SYSTEMES DE NUMERISATION HAUTES PERFORMANCES<br />- Etude des solutions à bancs de filtres hybrides -<br />- Caractérisation et optimisation -

Petrescu, Tudor 24 March 2006 (has links) (PDF)
Ce travail avait pour objectif d'étudier un dispositif qui, pour une cadence d'échantillonnage donnée, permette d'élargir la bande de fréquence de conversion analogique/numérique. L'orientation choisie est celle des structures parallèles et en particulier des bancs de filtres hybrides (BFH). Nous avons proposé certaines méthodes de synthèse des BFH. Leur particularité est qu'elles prennent en compte les contraintes de réalisation des filtres analogiques. Diverses améliorations de ces méthodes en particulier leur optimisation vis-à-vis de certains paramètres ont été proposées. Le bruit de quantification a été étudié et nous avons montré par un calcul théorique mais aussi en simulation l'influence sur la sortie du bruit de quantification du quantificateur de chaque voie. Ensuite, nous avons étudié les effets de la quantification des coefficients des filtres de synthèse. Une formule théorique qui estime le bruit introduit par la quantification de ces coefficients a été déduite. Des simulations qui confirment la validité de cette formule ont été effectuées. Le caractère hybride des bancs de filtres étudiés implique des problèmes spécifiques liés à l'implémentation analogique. Nous avons ainsi montré que de très petites variations des valeurs des composants analogiques par rapport aux valeurs nominales obtenues après la synthèse détériorent gravement les performances du banc de filtres. Nous avons alors proposé une solution originale à ce problème. Il s'agit d'une calibration du banc de filtres après réalisation.
175

Amélioration de l'exactitude de l'inférence phylogénomique

Roure, Béatrice 04 1900 (has links)
L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif. / The explosion of sequence number allows for phylogenomics, the study of species relationships based on large multi-gene alignments, to flourish. Without any doubt, phylogenomics is essentially an efficient way to eliminate the problems of single gene phylogenies due to stochastic errors, but numerous problems remain despite obvious progress realized in modeling evolutionary process. In this PhD-thesis, we are trying to characterize some consequences of a poor model fit and to study their impact on the accuracy of the phylogenetic inference. In contrast to heterotachy, the variation in the amino acid substitution process over time did not attract so far a lot of attention. We demonstrate that this heterogeneity is frequently observed within animals, but also that its existence can interfere with the quality of phylogenomic inference. In absence of an adequate model, the elimination of heterogeneous columns, which are poorly handled by the model, can eliminate an artefactual reconstruction. In a phylogenomic framework, the sequencing strategies often result in a situation where some genes are absent for some species. The issue about the impact of the quantity of empty cells was recently relaunched, but the majority of studies on missing data is performed on small datasets of simulated sequences. Therefore, we were interested on measuring the impact in the case of a large alignment of real data. With a reasonable amount of missing data, it seems that the accuracy of the inference is influenced rather by the choice of the model than the incompleteness of the alignment. For example, the addition of an incomplete sequence that breaks a long branch can at least partially re-establish an artefactual phylogeny. Because, model violations are always representing the major limitation of the accuracy of the phylogenetic inference, the improvement of species and gene sampling remains a useful alternative in the absence of an adequate model. Therefore, we developed a sequence-selection software, which allows the reproducible construction of datasets, based on the quantity of data, their evolutionary speed and their compositional bias. During this study, we did realize that the human expertise still furnishes an indispensable knowledge. The various analyses performed in the course of this PhD thesis agree on the primordial importance of the model of sequence evolution.
176

Apprentissage supervisé de données déséquilibrées par forêt aléatoire / Supervised learning of imbalanced datasets using random forest

Thomas, Julien 12 February 2009 (has links)
La problématique des jeux de données déséquilibrées en apprentissage supervisé est apparue relativement récemment, dès lors que le data mining est devenu une technologie amplement utilisée dans l'industrie. Le but de nos travaux est d'adapter différents éléments de l'apprentissage supervisé à cette problématique. Nous cherchons également à répondre aux exigences spécifiques de performances souvent liées aux problèmes de données déséquilibrées. Ce besoin se retrouve dans notre application principale, la mise au point d'un logiciel d'aide à la détection des cancers du sein.Pour cela, nous proposons de nouvelles méthodes modifiant trois différentes étapes d'un processus d'apprentissage. Tout d'abord au niveau de l'échantillonnage, nous proposons lors de l'utilisation d'un bagging, de remplacer le bootstrap classique par un échantillonnage dirigé. Nos techniques FUNSS et LARSS utilisent des propriétés de voisinage pour la sélection des individus. Ensuite au niveau de l'espace de représentation, notre contribution consiste en une méthode de construction de variables adaptées aux jeux de données déséquilibrées. Cette méthode, l'algorithme FuFeFa, est basée sur la découverte de règles d'association prédictives. Enfin, lors de l'étape d'agrégation des classifieurs de base d'un bagging, nous proposons d'optimiser le vote à la majorité en le pondérant. Pour ce faire nous avons mis en place une nouvelle mesure quantitative d'évaluation des performances d'un modèle, PRAGMA, qui permet la prise en considération de besoins spécifiques de l'utilisateur vis-à-vis des taux de rappel et de précision de chaque classe. / The problem of imbalanced datasets in supervised learning has emerged relatively recently, since the data mining has become a technology widely used in industry. The assisted medical diagnosis, the detection of fraud, abnormal phenomena, or specific elements on satellite imagery, are examples of industrial applications based on supervised learning of imbalanced datasets. The goal of our work is to bring supervised learning process on this issue. We also try to give an answer about the specific requirements of performance often related to the problem of imbalanced datasets, such as a high recall rate for the minority class. This need is reflected in our main application, the development of software to help radiologist in the detection of breast cancer. For this, we propose new methods of amending three different stages of a learning process. First in the sampling stage, we propose in the case of a bagging, to replaced classic bootstrap sampling by a guided sampling. Our techniques, FUNSS and LARSS use neighbourhood properties for the selection of objects. Secondly, for the representation space, our contribution is a method of variables construction adapted to imbalanced datasets. This method, the algorithm FuFeFa, is based on the discovery of predictive association rules. Finally, at the stage of aggregation of base classifiers of a bagging, we propose to optimize the majority vote in using weightings. For this, we have introduced a new quantitative measure of model assessment, PRAGMA, which allows taking into account user specific needs about recall and precision rates of each class.
177

Estimation simplifiée de la variance dans le cas de l’échantillonnage à deux phases

Béliveau, Audrey 08 1900 (has links)
Dans ce mémoire, nous étudions le problème de l'estimation de la variance pour les estimateurs par double dilatation et de calage pour l'échantillonnage à deux phases. Nous proposons d'utiliser une décomposition de la variance différente de celle habituellement utilisée dans l'échantillonnage à deux phases, ce qui mène à un estimateur de la variance simplifié. Nous étudions les conditions sous lesquelles les estimateurs simplifiés de la variance sont valides. Pour ce faire, nous considérons les cas particuliers suivants : (1) plan de Poisson à la deuxième phase, (2) plan à deux degrés, (3) plan aléatoire simple sans remise aux deux phases, (4) plan aléatoire simple sans remise à la deuxième phase. Nous montrons qu'une condition cruciale pour la validité des estimateurs simplifiés sous les plans (1) et (2) consiste à ce que la fraction de sondage utilisée pour la première phase soit négligeable (ou petite). Nous montrons sous les plans (3) et (4) que, pour certains estimateurs de calage, l'estimateur simplifié de la variance est valide lorsque la fraction de sondage à la première phase est petite en autant que la taille échantillonnale soit suffisamment grande. De plus, nous montrons que les estimateurs simplifiés de la variance peuvent être obtenus de manière alternative en utilisant l'approche renversée (Fay, 1991 et Shao et Steel, 1999). Finalement, nous effectuons des études par simulation dans le but d'appuyer les résultats théoriques. / In this thesis we study the problem of variance estimation for the double expansion estimator and the calibration estimators in the case of two-phase designs. We suggest to use a variance decomposition different from the one usually used in two-phase sampling, which leads to a simplified variance estimator. We look for the necessary conditions for the simplified variance estimators to be appropriate. In order to do so, we consider the following particular cases : (1) Poisson design at the second phase, (2) two-stage design, (3) simple random sampling at each phase, (4) simple random sampling at the second phase. We show that a crucial condition for the simplified variance estimator to be valid in cases (1) and (2) is that the first phase sampling fraction must be negligible (or small). We also show in cases (3) and (4) that the simplified variance estimator can be used with some calibration estimators when the first phase sampling fraction is negligible and the population size is large enough. Furthermore, we show that the simplified estimators can be obtained in an alternative way using the reversed approach (Fay, 1991 and Shao and Steel, 1999). Finally, we conduct some simulation studies in order to validate the theoretical results.
178

Phylogéographie et conservation de deux espèces de petits félidés des Andes : le chat des pampas et le chat des Andes

Cossíos Meza, Eduardo Daniel January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
179

Analyse probabiliste des systèmes temps réel / Probabilistic analysis of real-time systems

Maxim, Dorin 10 December 2013 (has links)
Les systèmes embarqués temps réel critiques intègrent des architectures complexes qui évoluent constamment afin d'intégrer des nouvelles fonctionnalités requises par les utilisateurs finaux des systèmes (automobile, avionique, ferroviaire, etc.). Ces nouvelles architectures ont un impact direct sur la variabilité du comportement temporel des systèmes temps réel. Cette variabilité entraîne un sur-approvisionnement important si la conception du système est uniquement basée sur le raisonnement pire cas. Approches probabilistes proposent des solutions basées sur la probabilité d'occurrence des valeurs les plus défavorables afin d'éviter le sur-approvisionnement, tout en satisfaisant les contraintes temps réel. Les principaux objectifs de ce travail sont de proposer des nouvelles techniques d'analyse des systèmes temps réel probabilistes et des moyens de diminuer la complexité de ces analyses, ainsi que de proposer des algorithmes optimaux d'ordonnancement à priorité fixe pour les systèmes avec des temps d'exécution décrits par des variables aléatoires. Les résultats que nous présentons dans ce travail ont été prouvés surs et à utiliser pour les systèmes temps réel durs, qui sont l'objet principal de notre travail. Notre analyse des systèmes avec plusieurs paramètres probabilistes a été démontrée considérablement moins pessimiste que d'autres types d'analyses. Cet analyse combinée avec des algorithmes d'ordonnancement optimaux appropriées pour les systèmes temps réel probabilistes peut aider les concepteurs de systèmes à mieux apprécier la faisabilité d'un système, en particulier de ceux qui sont jugé irréalisable par des analyses/algorithmes d'ordonnancement déterministes / Critical real-time embedded systems integrate complex architectures that evolve constantly in order to provide new functionality required by the end users of the systems (automotive, avionics, railway, etc). These new architectures have a direct impact on the variability of the timing behavior of the real-time system. This variability leads to important over-provisioning if the design of the system is based only on worst case reasoning. Probabilistic approaches propose solutions are based on the probability of occurrence of the worst case values in order to avoid over provisioning while satisfying real-time constraints. The main objectives of this work are new analysis techniques for probabilistic real-time systems and ways of decreasing the complexity of these analyses, as well as to propose optimal fixed priority scheduling algorithms for systems that have variability at the level of execution times. The results that we provide in this work have been proved applicable to hard real-time systems, which are the main focus of our work. Our proposed analysis for systems with multiple probabilistic parameters has been shown to greatly decrease the pessimism introduced by other types of analyses. This type of analysis combined with the proper optimal scheduling algorithms for probabilistic real-time system help the system designers to better appreciate the feasibility of a system, especially of those that are deemed unfeasible by deterministic analyses/scheduling algorithms
180

Discrétisation des systèmes de Lur'e : stabilisation et consistance / Discretization of Lur’e systems : stabilization and consistency

Louis, Julien 27 August 2015 (has links)
De récents résultats sur l’étude des systèmes de Lur’e (commutés) à temps discret mettent en avant une fonction de Lyapunov de type Lur’e avancée, dont les lignes de niveau peuvent être non convexes et non connexes. Celles-ci soulèvent de larges questions pour les systèmes de Lur’e à temps discret obtenus par la discrétisation d’un système continu. Les contributions de cette thèse sont d’apporter des éléments de réponse à ces questions. Tout d’abord, le verrou des lignes de niveau non-connexes est levé en construisant à partir de celles-ci une suite décroissante d’ensembles connexes et bornés qui converge vers l’origine et qui contient le futur de la trajectoire à temps continu. Dans un second temps, le problème de la stabilisation conjointe d’un système de Lur’e à données échantillonnées avec un échantillonnage non-uniforme est traité. Quand la période d’échantillonnage est à choisir parmi un nombre fini de valeurs, il est montré que ce problème se traduit comme la stabilisation conjointe d’un système commuté de Lur’e avec des incertitudes bornées en norme. En associant de plus à chaque mode un critère quadratique, une stratégie de type min-switching permet de résoudre cette question à l’aide d’un problème d’optimisation sous contraintes LMI. Enfin, les propriétés de la stratégie de min-switching pour les systèmes de Lur’e commutés à temps discret sont étudiées. Une extension de la notion de consistance permet de prouver que cette stratégie est consistante vis-à-vis de majorants quadratiques modaux du critère de performance et ainsi de garantir l’intérêt de la stratégie d’échantillonnage non-uniforme développée / Recent studies dealing with discrete-time (switched) Lur’e systems involve an adapted Lur’e type function exhibiting possibly non-convex and disconnected level sets. These properties raise fundamental issues in the case of discrete-time Lur’e system obtained by the sampling of a continuous time one. This PhD thesis aims at answering these questions. The first contribution is to avoid the discrete-time disconnected level sets by a decreasing sequence of bounded and connected sets that converges to the origin and that contain the future of the continuous-time trajectory. The second contribution deals with the joint stabilization of a sampled-data Lur’e system with non-uniform sampling. When the sampling period belongs to a finite set of values, this problem is reformulated as the joint stabilization of a discrete-time Lur’e switched system with norm-bounded uncertain parameters. Futhermore, if a quadratic criterion is associated with each mode, a min-switching strategy combined with LMI constraints allow to provide a solution to this problem. Finally the property of consistency for discrete-time switched Lur’e systems is investigated. It is shown that the min-switching strategy is consistent with respect to quadratic upper bounds of the performances. This result is applied on the stabilization of Lur’e systems with non-uniform sampling.

Page generated in 0.073 seconds