• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 214
  • 135
  • 40
  • 20
  • 20
  • 20
  • 19
  • 11
  • 10
  • 10
  • 10
  • 10
  • 10
  • 10
  • 7
  • Tagged with
  • 521
  • 106
  • 88
  • 79
  • 58
  • 51
  • 47
  • 41
  • 40
  • 38
  • 37
  • 34
  • 31
  • 29
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Dynamique tricomplexe et solides de Platon

Vallières, André January 2021 (has links) (PDF)
No description available.
292

A Comparative Analysis of Rehearsal Techniques for Instrumental Ensembles During Group Playing

O'Connor, Alexander J. January 2020 (has links)
No description available.
293

Proposition de compromis pour le calcul de solutions préférées à l'aide d'un algorithme évolutionnaire multiobjectif en optimisation multidisciplinaire

Guédas, Benoît 25 October 2010 (has links) (PDF)
L'optimisation multidisciplinaire fait référence à la conception et l'optimisation de problèmes d'ingénierie nécessitant l'intervention simultanée d'au moins deux disciplines, chacune pouvant avoir plus d'un objectif à optimiser. Les méthodes usuelles n'abordent pas le cas où chaque discipline a un problème d'optimisation multiobjectif à résoudre. Des méthodes ont été récemment proposées, transformant le problème d'optimisation multidisciplinaire en un problème d'optimisation multiobjectif. Ces méthodes reposent sur des algorithmes évolutionnaires multiobjectifs. Cependant, l'ensemble des solutions obtenues ne reflète pas les préférences disciplinaires : des solutions peuvent être globalement efficaces alors qu'elles sont localement dominées. En nous basant sur les propriétés des relations d'ordre, nous proposons quatre définitions de compromis qui tiennent compte du regroupement des objectifs en disciplines. Les propriétés théoriques de ces compromis sont étudiées, et notamment leur capacité à converger vers l'ensemble de solutions attendues, lorsqu'ils sont utilisés avec des algorithmes évolutionnaires. Ces compromis sont intégrés dans un algorithme évolutionnaire multiobjectif. Des analyses expérimentales de cet algorithme sur les quatre compromis proposés sont effectuées. Elles confirment les prédictions théoriques et montrent la pertinence des solutions obtenues.
294

Principe de réflexion MRP, propriétés d'arbres et grands cardinaux

Strullu, Rémi 21 September 2012 (has links) (PDF)
Dans cette thèse, nous présentons les relations entre le principe de réflexion MRP introduit par Moore, les propriétés d'arbres généralisées ITP et ISP introduites par Weiß, ainsi que les propriétés square introduites par Jensen et développées par Schimmerling. Le résultat principal de cette thèse est que MRP+MA entraine ITP(λ, ω2) pour tout cardinal λ ≥ ω2. Ce résultat implique par conséquent que les méthodes actuelles pour prouver la consistance de MRP+MA nécessitent au moins l'existence d'un cardinal supercompact. Il s'avère que MRP seul ne suffit pas à démontrer ce résultat, et nous donnons la démonstration que MRP n'entraine pas la propriété d'arbre plus faible, à savoir TP(ω2, ω2). De plus MRP+MA n'entraine pas le principe d'arbre plus fort ISP(ω2, ω2). Enfin nous étudions les relations entre MRP et des versions faibles de square. Nous montrons que MRP implique la négation de square(λ, ω) et MRP+MA implique la négation de square(λ, ω1) pour tout λ ≥ ω2.
295

Simulations stochastiques en environnements distribués. Application aux grilles de calcul

Reuillon, Romain 28 November 2008 (has links) (PDF)
Contrairement aux modèles déterministes, le déroulement d'un modèle stochastique est conditionné par la réalisation de variables aléatoires. L'utilisation de hasard permet d'approcher un résultat le plus souvent incalculable de manière déterministe. En contrepartie, il est nécessaire d'estimer les paramètres des distributions associées aux quantités aléatoires en sortie du modèle stochastique. Ce calcul requiert l'exécution de multiples réplications indépendantes de la même expérience et de ce fait, d'une importante quantité de calcul. Toutes les simulations stochastiques comportent par conception un aspect naturellement parallèle. Elles représentent ainsi une des applications phares pour l'utilisation d'environnements de calculs distribués permettant de partager de la puissance de calcul à l'échelle mondiale, appelée grille de calcul. Bien que 50% des cycles des plus gros supercalculateurs de la planète soient consommés par des calculs stochastiques, les techniques de génération parallèle de nombres pseudoaléatoires sont méconnues. Il existe de ce fait un risque bien réel de produire et de publier des résultats de simulations stochastiques erronés. Cette thèse présente l'état de l'art des méthodes pour la distribution des réplications de simulations stochastiques et contribue à leur développement. Elle propose ainsi des méthodes novatrices permettant d'assurer une traçabilité dans le processus complexe de distribution de simulations stochastiques. Elle expose enfin des applications dans les domaines de l'imagerie médicale nucléaire et des simulations environnementales totalisant plus de 70 années de calcul sur un ordinateur séquentiel.
296

The impacts of weather and climate change on the spread of bluetongue into the United Kingdom

Burgin, Laura Elizabeth January 2011 (has links)
A large epizootic of the vector-borne disease bluetongue occurred in northern Europe from 2006-2009, costing the economies of the infected countries several hundreds of millions of euros. During this time, the United Kingdom (UK) was exposed to the risk of bluetongue by windborne incursions of infected Culicoides biting midges from the northern coast of mainland Europe. The first outbreaks which occurred in the UK in 2007 were attributed to this cause. Although bluetongue virus (BTV) no longer appears to be circulating in northern Europe, it is widely suggested that it and other midge-borne diseases may emerge again in the future, particularly under a changing climate. Spread of BTV is strongly influenced by the weather and climate however limited use has been made of meteorologically based models to generate predictions of its spread to the UK. The extent to which windborne BTV spread can be modelled at timescales from days to decades ahead, to inform tactical and strategic decisions taken to limit its transmission, is therefore examined here. An early warning system has been developed to predict possible incursion events on a daily timescale, based on an atmospheric dispersion model adapted to incorporate flight characteristics of the Culicoides vectors. The system’s warning of the first UK outbreak in September 2007 was found to be greatly beneficial to the UK livestock industry. The dispersion model is also shown to be a useful post-outbreak epidemiological analysis tool. A novel approach has been developed to predict BTV spread into the UK on climate-change timescales as dispersion modelling is not practical over extended periods of time. Using a combination of principal component and cluster analyses the synoptic scale atmospheric circulations which control when local weather conditions are suitable for midge incursions were determined. Changes in the frequency and timing of these large scale circulations over the period 2000 to 2050 were then examined using an ensemble of regional climate model simulations. The results suggest areas of UK under the influence of easterly winds may face a slight increase in risk and the length of the season where temperatures are suitable for BTV replication is likely to increase by around 20 days by 2050. However a high level of uncertainty is associated with these predictions so a flexible decision making approach should be adopted to accommodate better information as it becomes available in the future.
297

Obtaining Accurate and Comprehensible Data Mining Models : An Evolutionary Approach

Johansson, Ulf January 2007 (has links)
When performing predictive data mining, the use of ensembles is claimed to virtually guarantee increased accuracy compared to the use of single models. Unfortunately, the problem of how to maximize ensemble accuracy is far from solved. In particular, the relationship between ensemble diversity and accuracy is not completely understood, making it hard to efficiently utilize diversity for ensemble creation. Furthermore, most high-accuracy predictive models are opaque, i.e. it is not possible for a human to follow and understand the logic behind a prediction. For some domains, this is unacceptable, since models need to be comprehensible. To obtain comprehensibility, accuracy is often sacrificed by using simpler but transparent models; a trade-off termed the accuracy vs. comprehensibility trade-off. With this trade-off in mind, several researchers have suggested rule extraction algorithms, where opaque models are transformed into comprehensible models, keeping an acceptable accuracy.In this thesis, two novel algorithms based on Genetic Programming are suggested. The first algorithm (GEMS) is used for ensemble creation, and the second (G-REX) is used for rule extraction from opaque models. The main property of GEMS is the ability to combine smaller ensembles and individual models in an almost arbitrary way. Moreover, GEMS can use base models of any kind and the optimization function is very flexible, easily permitting inclusion of, for instance, diversity measures. In the experimentation, GEMS obtained accuracies higher than both straightforward design choices and published results for Random Forests and AdaBoost. The key quality of G-REX is the inherent ability to explicitly control the accuracy vs. comprehensibility trade-off. Compared to the standard tree inducers C5.0 and CART, and some well-known rule extraction algorithms, rules extracted by G-REX are significantly more accurate and compact. Most importantly, G-REX is thoroughly evaluated and found to meet all relevant evaluation criteria for rule extraction algorithms, thus establishing G-REX as the algorithm to benchmark against. / <p>Avhandling framlagd 2007-06-01 vid Högskolan i Skövde.</p><p>Opponent: Rögnvaldsson, Thorsteinn, Professor, Sektionen för informationsvetenskap, Data- och Elektroteknik, Högskolan i Halmstad.</p>
298

Construction d'ensembles de points basée sur des récurrences linéaires dans un corps fini de caractéristique 2 pour la simulation Monte Carlo et l'intégration quasi-Monte Carlo

Panneton, François January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
299

Sous-groupes boréliens des groupes de Lie / Measurable subgroups of Lie groups

Saxcé, Nicolas de 27 September 2012 (has links)
Dans cette thèse, on étudie les sous-groupes boréliens des groupes de Lie et leur dimension de Hausdorff. Si G est un groupe de Lie nilpotent connexe, on construit dans G des sous-groupes de dimension de Hausdorff arbitraire, tandis que si G est semisimple compact, on démontre que la dimension de Hausdorff d'un sous-groupe borélien strict de G ne peut pas être arbitrairement proche de celle de G. / Given a Lie group G, we investigate the possible Hausdorff dimensions for a measurable subgroup of G. If G is a connected nilpotent Lie group, we construct measurable subgroups of G having arbitrary Hausdorff dimension, whereas if G is compact semisimple, we show that a proper measurable subgroup of G cannot have Hausdorff dimension arbitrarily close to the dimension of G.
300

Méthodologies statistiques pour le recueil et l’analyse de données de caractérisation de grands ensembles de stimuli - Application à la caractérisation sensorielle de produits & à la caractérisation de gestes culinaires / Statistical methodologies for the collection and analysis of data characterizing large sets of stimuli – Application to the sensory characterization of products & to the characterization of culinary techniques

Brard, Margot 21 January 2019 (has links)
Dans le secteur agroalimentaire, la caractérisation des gestes culinaires est considérée de plus en plus comme un levier d’innovation. En observant et en analysant la manière avec laquelle leurs produits sont appréhendés en cuisine par les usagers (consommateurs ou professionnels), les industriels peuvent en effet déceler des pistes d’amélioration ou des idées de nouveaux produits.Dans ce travail de recherche, nous proposons de nouvelles méthodes dédiées à la caractérisation des gestes culinaires. Leur caractère innovant repose sur le fait qu’elles relèvent d’une approche quantitative, et non d’une approche qualitative comme cela est usuellement le cas. Elles s’inspirent en partie de deux méthodes de caractérisation utilisées en analyse sensorielle : le tri libre et la Q-méthodologie binaireNous voyons comment des développements méthodologiques apportés à ces dernières permettent de caractériser des grands ensembles de stimuli. Ces développements sont liés à la fois à la procédure de recueil des données et à la procédure d’analyse statistique des données.En particulier, nous proposons plusieurs procédures statistiques permettant d’aborder des problématiques variées : l’analyse d’un ensemble de partitions contenant des données manquantes, la classification non supervisée de profils d’évaluations binaires basée sur la notion d’accord inter-évaluateurs, etc.Nous voyons ensuite que les deux méthodes de caractérisation quantitatives ‘améliorées’ sont applicables à des gestes culinaires / In the agri-food sector, the characterization of culinary techniques - through their observation and analysis - is increasingly seen as a lever for innovation. By analyzing how their products are used in the kitchen by the users (consumers or professionals), the manufacturers can detect improvement tracks or ideas for new products.In this research, we propose new methods dedicated to the characterization of culinary techniques. Their innovative nature is based on the fact that they are based on a quantitative approach, and not on a qualitative approach as is usually the case. They partially draw their inspiration in two methods of characterization used in sensory analysis: the free sorting and the binary Q-methodologyWe see how methodological developments brought to the latter make it possible to characterize large sets of stimuli. These developments are both related to the procedure of data collection and to the procedure of statistical analysis of the data. In particular, we propose several statistical procedures to address various issues: the statistical analysis of a set of partitions containing missing data, the unsupervised agreement-based clustering of a set of profiles of binary evaluations, etc.Then, we see that these two 'improved' quantitative methods of characterization can be successfully applicable to culinary techniques.

Page generated in 0.3409 seconds