• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 4
  • 3
  • Tagged with
  • 12
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Pilotage de stratégies de calcul par décomposition de domaine par des objectifs de précision sur des quantités d’intérêt / Steering non-overlapping domain decomposition iterative solver by objectives of accuracy on quantities of interest

Rey, Valentine 11 December 2015 (has links)
Ces travaux de recherche ont pour objectif de contribuer au développement et à l'exploitation d'outils de vérification des problèmes de mécanique linéaires dans le cadre des méthodes de décomposition de domaine sans recouvrement. Les apports de cette thèse sont multiples : * Nous proposons d'améliorer la qualité des champs statiquement admissibles nécessaires à l'évaluation de l'estimateur par une nouvelle méthodologie de reconstruction des contraintes en séquentiel et par des optimisations du calcul de l'intereffort en cadre sous-structuré.* Nous démontrons des bornes inférieures et supérieures de l'erreur séparant l'erreur algébrique (due au solveur itératif) de l'erreur de discrétisation (due à la méthode des éléments finis) tant pour une mesure globale que pour une quantité d'intérêt. Cette séparation permet la définition d'un critère d'arrêt objectif pour le solveur itératif.* Nous exploitons les informations fournies par l'estimateur et les espaces de Krylov générés pour mettre en place une stratégie auto-adaptative de calcul consistant en une chaîne de résolution mettant à profit remaillage adaptatif et recyclage des directions de recherche. Nous mettons en application le pilotage du solveur par un objectif de précision sur des exemples mécaniques en deux dimensions. / This research work aims at contributing to the development of verification tools in linear mechanical problems within the framework of non-overlapping domain decomposition methods.* We propose to improve the quality of the statically admissible stress field required for the computation of the error estimator thanks to a new methodology of stress reconstruction in sequential context and thanks to optimizations of the computations of nodal reactions in substructured context.* We prove guaranteed upper and lower bounds of the error that separates the algebraic error (due to the iterative solver) from the discretization error (due to the finite element method) for both global error measure mentand goal-oriented error estimation. It enables the definition of a new stopping criterion for the iterative solver which avoids over-resolution.* We benefit the information provided by the error estimator and the Krylov subspaces built during the resolution to set an auto-adaptive strategy. This strategy consists in sequel of resolutions and takes advantage of adaptive remeshing and recycling of search directions .We apply the steering of the iterative solver by objective of precision on two-dimensional mechanical examples.
2

Calcul précis de l'équation d'état des gaz leptoniques : quelques implications pour la formation et la destruction des étoiles à neutrons

Chatri, Hayat 03 1900 (has links)
Mémoire numérisé par la Direction des bibliothèques de l’Université de Montréal / Les étoiles massives (M≥8M.) deviennent des supernovae de type II à la fin de leur vie. Ce phénomène explosif est caractérisé par l'effondrement du cœur de Fer (56Fe) qui, sous l'influence de sa propre gravité se détache des couches externes qui l'enveloppent. La théorie prédit que le cœur de l'étoile survit à cette explosion sous la forme d'une étoile à neutrons. Cette dernière pourrait subir une collision avec une autre étoiles à neutrons. Comme résultat d'une telle collision, il y aura une expulsion de la matière neutronique. Pour décrire ces deux processus d'effondrement et de décompression, on doit posséder une bonne équation d'état. Or, dans la plupart des études sur la matière nucléaire dans les étoiles massives en implosion, les intégrales se trouvant dans les quantités fondamentales telles que la pression, l'énérgie et l'entropie des électrons ont été représentés par des expressions approchées de Chandrasekhar. Cependant, ces approximations ne sont plus valables à certaines conditions (basse densité et haute température), et il nous est impossible de savoir ce qui se passe dans le milieu stellaire dans de telles conditions; et même dans le cas où ces approximations sont valables, plusieurs questions se posent toujours sur le degré d'erreur dû à ces approximations qui peuvent être, parfois, trompeuses. Dans notre étude on a pris en considération l'effet de création de paires qu'aura lieu dans le milieu stellaire à des basses densités et hautes températures; l'inclusion de ce détail constitue un élément nouveau de cette étude. Le but de ce mémoire consiste à mener un calcul exact pour toutes les quantités physiques de l'équation d'état en évaluant numériquement ces intégrales, et aussi à voir quelles contributions elles peuvent apporter lors de leurs insertion dans des programmes déjà développés au Département de Physique de l'Université de Montréal, mais qui utilisent seulement des approximations. La bonne précision de nos calculs d'intégrales et les différentes méthodes utilisées pour vérifier leurs valeurs numériques nous a permis de faire des corrections importantes à toutes les quantités physiques de l'équation et, surtout, à l'entropie et l'énergie libre de Helmholtz. Ce calcul nous a permis aussi de déterminer les domaines de validité des expressions approchés de Chandrasekhar, souvent utilisées par les astrophysiciens, et celles de la limite "bulle chaude".
3

Etude exploratoire de la discrimination par les quantités de réponses itérées chez l'humain / Exploratory study of discrimination by the quantities of iterated responses in humans

Mekkass, Francis 09 December 2016 (has links)
Cette thèse se propose d’étudier la discrimination des comportements par les quantités de réponses itérées. Ce champ de recherche s’inscrit dans celui, plus large, de la discrimination des comportements par les quantités. Nous avons tout d’abord cherché à explorer la façon dont les comportements peuvent être discriminés par des quantités différentes d’itérations de réponses et de quelle façon l’installation ou non de cette discrimination peut être mise en correspondance avec une évolution de l’entropie du débit des réponses itérées. Ensuite, nous avons exploré la dynamique des réponses itérées en fonction de la quantité des itérations requises. Après cela, nous avons cherché à savoir s’il était possible de mettre en correspondance l’existence de dynamiques de réponses propres à des quantités avec l’installation ou non d’une discrimination des comportements par des couples différents composés de ces mêmes quantités. Enfin, en vue d’explorer en quoi l’installation d’’une dynamique des réponses permettait l’installation d’une discrimination des comportements, nous avons perturbé, en modifiant la topographie des réponses requises, l’installation de cette dynamique de réponses, et en avons mesuré les effets sur l’installation de la discrimination de comportements par ces quantités de réponses itérées. Les résultats montrent que l’évolution de l’entropie des débits de réponses itérées est orientée en fonction de l’installation ou non d’une discrimination des comportements par des quantités différentes d’itérations de réponses requises : l’entropie diminue lorsque la discrimination par des quantités de réponses itérées est installée, et augmente dans le cas contraire. Ce résultat n’est vrai que pour les participants ayant atteint au moins une fois le critère de décision que nous nous étions fixé pour juger de l’installation de la discrimination. L’analyse de la dynamique des réponses itérées en fonction de chaque quantité d’itérations requise montre qu’il existe presque systématiquement une dynamique propre à chaque quantité d’itérations de réponses requise, pour tous les participants, cette dynamique de réponses étant également propre à la topographie de la réponse requise. La perturbation de l’installation de la dynamique des réponses a, en outre, un effet sur l’installation de la discrimination des comportements par les quantités d’itérations de réponses. Au regard de ces résultats, nous pouvons conclure qu’il existe une correspondance entre l’installation ou non de la discrimination par des quantités de réponses itérées et l’évolution de l’entropie des débits de ces réponses itérées. Néanmoins, tandis que nous pouvons conclure à la pertinence d’analyser la dynamique des réponses itérées pour en étudier la complexité, la mise en correspondance entre celle-ci et la façon dont chaque quantité d’itérations de réponses prend ou non le contrôle de comportements spécifiques n’est pas possible à ce stade, bien que des pistes vers de futures études aient été proposées, pour explorer plus avant cette relation / This dissertation focuses on discrimination of behaviors by iterated responses, which falls in the scope of field of discrimination by quantities. First, we investigate how discrimination by several couples of iterated responses quantities could be related with the evolution of instantaneous rates of iterated responses entropy. Then, iterated responses dynamic was analyzed for several iterated responses quantities, and response topographies. The third experiment investigates the correspondence between specific dynamics of responses exhibited in fixed-ratio schedules and discrimination by couples of quantities of iterated responses. At last, effects of the disruption of the installation of the dynamic of responses on discrimination by these quantities of iterated responses have been measured. Results show that discrimination by quantities of iterated responses is possible, and that specific dynamics of responses match specific quantities of iterated responses. Although correspondence between such dynamics and discrimination have not been demonstrated, effects of disruption of dynamic of responses installation have been observed suggesting that a link between dynamic of responses and discrimination exists.
4

Mécanique statistique hors d'équilibre et fluctuations dans les gaz granulaires

Visco, Paolo 12 June 2007 (has links) (PDF)
Cette thèse porte sur un système dissipatif modèle, les gaz granulaires. Au moyen de méthodes issues de la théorie cinétique et des processus stochastiques, nous avons cherché à déterminer les propriétés statistiques d'observables globales, mimant ainsi la démarche qui prévaut l'équilibre. Parmi celles-ci, l'énergie qu'il faut fournir au gaz granulaire pour le maintenir dans un état stationnaire joue un rôle central. Elle est d'intérêt expérimental, mais elle est aussi pertinente comme mesure de la distance à l'équilibre, et c'est à ce titre qu'elle est récemment intervenue dans le contexte des relations de fluctuation. Nous avons complètement caractérisé la distribution de cette énergie injectée dans le système. Nous avons montré qu'elle ne pouvait être invoquée dans les relations de fluctuation, mais aussi que la distribution de cette grandeur macroscopique permettait d'obtenir des informations sur la dynamique microscopique. Plusieurs questions se sont développées autour de ce travail, dont la pertinence de la notion d'entropie dans un système dissipatif ou les limitations intrinsèques des relations de fluctuations.
5

Modification de l'écoulement turbulent au sein de passes à poissons à fentes verticales par l'insertion d'obstacles / Modification of the turbulent flow within master keys with fishes with vertical cracks by the insertion of obstacles

Bourtal, Badreddine 06 July 2012 (has links)
L'étude de l'écoulement turbulent au sein des passes à fentes verticales est nécessaire afin d'améliorer ces dispositifs de franchissement contenant des barrières physiques aux mouvements migratoires des poissons. En effet, les études menées sur les passes existantes ont montré leurs limites pour permettre le franchissement des petites espèces de poissons avec des faibles capacités de nage. L'objectif de notre étude est d'adapter l'écoulement turbulent dans la passe aux capacités de nage des poissons. Des mesures de vitesse bidimensionnelle par Vélocimétrie par Imagerie de Particules (PIV) et les mesures de vitesse tridimensionnelle par Vélocimétrie Acoustique par effet Doppler (ADV) ont montré que les grandeurs cinématiques de l'écoulement au sein des passes existantes sont très importantes et donc affectent les capacités de nages des petites espèces de poissons. Une des stratégies pour répondre à ce problème est d'introduire des obstacles de forme cylindrique au sein des bassins de la passe à poissons. L'insertion de ces cylindres a pour objectif de réduire les quantités cinématiques de l'écoulement turbulent au sein de la passe afin d'adapter cet ouvrage au passage des petites espèces de poissons. Cette stratégie nécessite une méthode d'optimisation afin de trouver l'emplacement idéal des cylindres à partir de simulations numériques de l'écoulement (logiciel Star-CD). / The turbulent flow study in vertical slot fishway is necessary to improve this crossing device containing physical barriers to fish migration. Effectively, studies of existing fishways have shown their limits to ensure the crossing of small fish species with weak swimming abilities. The objective of our study is to adapt the turbulent flow to the fish species swimming abilities. The two-dimensional velocity measurements by Particle Image Velocimetry (PIV) and three-dimensional velocity measurements by Doppler Velocimetry Acoustics (ADV) have shown that the flow kinematic quantities within the existing fishways are very important next to the small fish species capacities. One of strategies to answer at this problem is to introduce obstacles with cylindrical shape in the fishways pools. The adjunction of cylinders is intended to reduce the kinematics quantities of the turbulent flow within the fishways in order to adapt this hydraulic structure to the passage of small fish species. This strategy requires an optimization method to find the ideal location of the cylinders from numerical simulations of the flow (Star-CD code).
6

Solar pyrolysis of biomass at laboratory scale / Pyrolyse solaire de biomasse à une échelle de laboratoire

Zeng, Kuo 01 April 2016 (has links)
L’énergie solaire concentrée est utilisée comme source de chaleur dans le but de mener des réactions de pyrolyse de la biomasse. Cela permet d’améliorer l’énergie contenue dans la matière première en stockant l’énergie solaire sous une forme chimique. Grâce à de hautes températures et à des vitesses de chauffe élevées, d’avantage de gaz pyrolytiques, avec un produit calorifique inférieur (PCI) élevé, peuvent être produit par la pyrolyse solaire directe.Les expériences effectuées dans ce travail montrent l’effet des paramètres de la pyrolyse solaire sur les quantités de produits, leur composition et leurs propriétés. Le PCI total des gaz augmente fortement (il est multiplié par 5) lorsque la température augmente (de 600°C à 1200°C), et lorsque la vitesse de chauffe augmente (de 5°C/s à 50°C/s. L’association de la température et de la vitesse de chauffe amplifie leurs effets lorsqu’ils sont tous deux à de hautes valeurs. Le charbon et le goudron collectés ont été analysés et caractérisés. Le facteur d’augmentation énergétique obtenu est d’environ 1.5 quelle que soit la température. Dans un second temps, un modèle non linéaire, en deux dimensions, et utilisant la CFD pour résoudre les bilans de masse et de chaleur, a été développé pour la pyrolyse solaire. Les coefficients stœchiométriques, déterminant la fraction massique du goudron primaire convertie par la réaction en gaz et en goudron secondaire, ont été déterminés à différentes températures et à différentes vitesses de chauffe. Les évolutions des produits finaux et des pertes de masse de la biomasse sont amplifiées par la température et par la vitesse de chauffe. / Concentrated solar energy provides heat to drive biomass pyrolysis reactions, which upgrades the feedstock energy by storing solar energy in chemical forms (bio-gas, bio-oil and bio-char). Thanks to high temperature and fast heating rate, more pyrolytic gas with high lower heating value (LHV) can be produced by direct solar pyrolysis. Experiments have highlighted the effect of solar pyrolysis parameters on products yields, composition and properties. The total gas LHV dramatically increases (5-fold) with increasing temperature (from 600°C to 1200°C) and sample heating rate (from 5°C/s to 50°C/s), which is mainly due to variations in the CO and H2 yields. The interaction between temperature and heating rate enhances at both high ranges. The maximum gas products LHV (14 589 kJ/kg of beech wood) was obtained at 2000°C and 450°C/s heating rate. The collected char and tar were analyzed and characterized, which emphasizes the temperature and heating rate effects. And the energy upgrade factor is determined as about 1.5 independent of temperature. At the same time, a 2D unsteady CFD particle model (simplified assumption using first-order Arrhenius type reactions) with heat and mass transfers was developed for solar pyrolysis. Numerical model predictions are in good agreement with experimental observations. Stoichiometric coefficients about the mass fraction of primary tar converted by the reaction to gas and secondary tar were determined at different temperatures and heating rates for the first time. The evolution of the final products and mass losses of biomass are enhanced with temperature and heating rate increase.
7

Developments in statistics applied to hydrometeorology : imputation of streamflow data and semiparametric precipitation modeling / Développements en statistiques appliquées à l'hydrométéorologie : imputation de données de débit et modélisation semi-paramétrique de la précipitation

Tencaliec, Patricia 01 February 2017 (has links)
Les précipitations et les débits des cours d'eau constituent les deux variables hydrométéorologiques les plus importantes pour l'analyse des bassins versants. Ils fournissent des informations fondamentales pour la gestion intégrée des ressources en eau, telles que l’approvisionnement en eau potable, l'hydroélectricité, les prévisions d'inondations ou de sécheresses ou les systèmes d'irrigation.Dans cette thèse de doctorat sont abordés deux problèmes distincts. Le premier prend sa source dans l’étude des débits des cours d’eau. Dans le but de bien caractériser le comportement global d'un bassin versant, de longues séries temporelles de débit couvrant plusieurs dizaines d'années sont nécessaires. Cependant les données manquantes constatées dans les séries représentent une perte d'information et de fiabilité, et peuvent entraîner une interprétation erronée des caractéristiques statistiques des données. La méthode que nous proposons pour aborder le problème de l'imputation des débits se base sur des modèles de régression dynamique (DRM), plus spécifiquement, une régression linéaire multiple couplée à une modélisation des résidus de type ARIMA. Contrairement aux études antérieures portant sur l'inclusion de variables explicatives multiples ou la modélisation des résidus à partir d'une régression linéaire simple, l'utilisation des DRMs permet de prendre en compte les deux aspects. Nous appliquons cette méthode pour reconstruire les données journalières de débit à huit stations situées dans le bassin versant de la Durance (France), sur une période de 107 ans. En appliquant la méthode proposée, nous parvenons à reconstituer les débits sans utiliser d'autres variables explicatives. Nous comparons les résultats de notre modèle avec ceux obtenus à partir d'un modèle complexe basé sur les analogues et la modélisation hydrologique et d'une approche basée sur le plus proche voisin. Dans la majorité des cas, les DRMs montrent une meilleure performance lors de la reconstitution de périodes de données manquantes de tailles différentes, dans certains cas pouvant allant jusqu'à 20 ans.Le deuxième problème que nous considérons dans cette thèse concerne la modélisation statistique des quantités de précipitations. La recherche dans ce domaine est actuellement très active car la distribution des précipitations exhibe une queue supérieure lourde et, au début de cette thèse, il n'existait aucune méthode satisfaisante permettant de modéliser toute la gamme des précipitations. Récemment, une nouvelle classe de distribution paramétrique, appelée distribution généralisée de Pareto étendue (EGPD), a été développée dans ce but. Cette distribution exhibe une meilleure performance, mais elle manque de flexibilité pour modéliser la partie centrale de la distribution. Dans le but d’améliorer la flexibilité, nous développons, deux nouveaux modèles reposant sur des méthodes semiparamétriques.Le premier estimateur développé transforme d'abord les données avec la distribution cumulative EGPD puis estime la densité des données transformées en appliquant un estimateur nonparamétrique par noyau. Nous comparons les résultats de la méthode proposée avec ceux obtenus en appliquant la distribution EGPD paramétrique sur plusieurs simulations, ainsi que sur deux séries de précipitations au sud-est de la France. Les résultats montrent que la méthode proposée se comporte mieux que l'EGPD, l’erreur absolue moyenne intégrée (MIAE) de la densité étant dans tous les cas presque deux fois inférieure.Le deuxième modèle considère une distribution EGPD semiparamétrique basée sur les polynômes de Bernstein. Plus précisément, nous utilisons un mélange creuse de densités béta. De même, nous comparons nos résultats avec ceux obtenus par la distribution EGPD paramétrique sur des jeux de données simulés et réels. Comme précédemment, le MIAE de la densité est considérablement réduit, cet effet étant encore plus évident à mesure que la taille de l'échantillon augmente. / Precipitation and streamflow are the two most important meteorological and hydrological variables when analyzing river watersheds. They provide fundamental insights for water resources management, design, or planning, such as urban water supplies, hydropower, forecast of flood or droughts events, or irrigation systems for agriculture.In this PhD thesis we approach two different problems. The first one originates from the study of observed streamflow data. In order to properly characterize the overall behavior of a watershed, long datasets spanning tens of years are needed. However, the quality of the measurement dataset decreases the further we go back in time, and blocks of data of different lengths are missing from the dataset. These missing intervals represent a loss of information and can cause erroneous summary data interpretation or unreliable scientific analysis.The method that we propose for approaching the problem of streamflow imputation is based on dynamic regression models (DRMs), more specifically, a multiple linear regression with ARIMA residual modeling. Unlike previous studies that address either the inclusion of multiple explanatory variables or the modeling of the residuals from a simple linear regression, the use of DRMs allows to take into account both aspects. We apply this method for reconstructing the data of eight stations situated in the Durance watershed in the south-east of France, each containing daily streamflow measurements over a period of 107 years. By applying the proposed method, we manage to reconstruct the data without making use of additional variables, like other models require. We compare the results of our model with the ones obtained from a complex approach based on analogs coupled to a hydrological model and a nearest-neighbor approach, respectively. In the majority of cases, DRMs show an increased performance when reconstructing missing values blocks of various lengths, in some of the cases ranging up to 20 years.The second problem that we approach in this PhD thesis addresses the statistical modeling of precipitation amounts. The research area regarding this topic is currently very active as the distribution of precipitation is a heavy-tailed one, and at the moment, there is no general method for modeling the entire range of data with high performance. Recently, in order to propose a method that models the full-range precipitation amounts, a new class of distribution called extended generalized Pareto distribution (EGPD) was introduced, specifically with focus on the EGPD models based on parametric families. These models provide an improved performance when compared to previously proposed distributions, however, they lack flexibility in modeling the bulk of the distribution. We want to improve, through, this aspect by proposing in the second part of the thesis, two new models relying on semiparametric methods.The first method that we develop is the transformed kernel estimator based on the EGPD transformation. That is, we propose an estimator obtained by, first, transforming the data with the EGPD cdf, and then, estimating the density of the transformed data by applying a nonparametric kernel density estimator. We compare the results of the proposed method with the ones obtained by applying EGPD on several simulated scenarios, as well as on two precipitation datasets from south-east of France. The results show that the proposed method behaves better than parametric EGPD, the MIAE of the density being in all the cases almost twice as small.A second approach consists of a new model from the general EGPD class, i.e., we consider a semiparametric EGPD based on Bernstein polynomials, more specifically, we use a sparse mixture of beta densities. Once again, we compare our results with the ones obtained by EGPD on both simulated and real datasets. As before, the MIAE of the density is considerably reduced, this effect being even more obvious as the sample size increases.
8

The promotion of the production of electricity from renewable energy sources in the European Union through marked-based regulatory policies : a political, economic and legal analysis / La promotion des énergies renouvelables par la régulation économique dans l'Union européenne : une analyse politique, économique et juridique

Rusche, Tim Maxian 09 September 2013 (has links)
La thèse analyse la promotion de l'électricité produite à partir de sources renouvelables par la régulation économique. Elle combine la recherche existante en économie, sciences politiques et droit. Les principaux apports scientifiques nouveaux par rapport à la recherche existante sont les suivants : - L'échec des efforts de la Commission européenne d'harmoniser les systèmes de soutien au niveau de l'UE s'explique par une alliance (de prime abord improbable) des OGN "vertes" et des producteurs d'électricité verte, soucieux de protéger le système des prix garantis par l'État, ainsi que des États membres, soucieux du respect du principe de subsidiarité. - Contrairement à l'avis dominant en sciences économique, des prix minima garantis, arrêté au niveau de 'UE, constituent la politique règlementaire la plus efficient. - La première analyse compréhensive de la pratique décisionnelle de la Commission européenne eu matière d'aide d'État et la jurisprudence de la Court depuis 1990 montre que, contrairement à l'avis dominant dans la recherche juridique, les systèmes de soutien de la plupart des États membres constituent des aides d'État, car l'arrêt PreussenElektra a un champ d'application beaucoup plus restreint que généralement admis. - Les règles de l'OMC, du Traité sur la Charte de l'Énergie, du droit des aides d'État et du marché intérieur interagissent d'une manière qui n'a pas encore été pleinement compris par la littérature juridique. - Des parallélismes surprenants au débat juridique en Europe existent dans le débat juridique aux États-Unis. Cependant, il n'ont pas été mis en exergue par les juristes. Ainsi, la "dormant commerce clause" soumet les régimes de soutien au États-Unis à des contraintes similaires que les règles du marché intérieur; et le contrôle fédéral de la régulation des prix sous le Public Utilities Regulatory Policies Act (PURPA) ressemble au contrôle des aides d'État. / The thesis analyses the promotion of electricity from renewable energy sources by regulatory policies, bringing together the existing research in economics, political science and law. The main new findings compared to the existing research are: The failure of the Commission's attempts to harmonize support schemes al the EU level is due to an (at first sight: unlikely) alliance of green NGO and renewable electricity producers, concerned about protecting fixed purchase prices, and Member States, concerned about subsidiarity; Contrary to the dominating view in the economic literature, fixed purchase prices, set at the EU level, are the most efficient regulatory option; The first comprehensive analysis of the Commission's decision practice and the Court's case law on support schemes under EU State aid rules since 1990 shows that, contrary to the dominating view in legal writing, the support schemes of most Member States do constitute State aid, because PreussenElektra has a much narrower scope than generally thought. WTO rules, the Energy Charter Treaty, and EU State aid and internal market rules interact in ways which have thus far not been analyzed in detail in the legal literature. Surprising parallelisms exist in the legal debate in the US and in the EU, which have thus far been widely overlooked by legal scholars: the "dormant commerce clause" puts very similar constraints on State support schemes as internal market rules; and federal control on price regulation under the Public Utilities Regulatory Policies Act (PURPA) in the US acts similarly to State aid control in the EU.
9

L'effet du "bruit de fond couleur" sur l'estimation de quantités relatives des carrés de différentes couleurs dans des stimuli "damier" à plusieurs couleurs chez les sujets humains : étude psychophysique et computationnelle

Milosz, Julien 08 1900 (has links)
La prise de décision est une capacité générale de choisir entre deux ou plusieurs alternatives compte tenu de l’information courante et des objectifs en jeu. Il est généralement présumé qu’au niveau du système nerveux, le processus décisionnel consiste à accumuler des informations pertinentes, appelées « évidences », de plusieurs alternatives, les comparer entre elles, et finir par commettre à la meilleure alternative compte tenu du contexte de la décision (J. I. Gold & Shadlen, 2007). Ce projet de maîtrise porte sur un sous-type particulier de prise de décisions : les décisions dites perceptuelles. Dans ce projet de recherche, j'examinerai les patrons psychophysiques (temps de réponse et taux de succès) de sujets humains prenant des décisions dans des tâches visuelles contenant des damiers dynamiques composés des carrés de couleurs. Plus précisément, l’objectif de ce projet de mémoire est d’étudier le rôle du « bruit de couleur » sur les dynamiques décisionnelles. Deux nouvelles tâches de prise de décision ont été soigneusement construites à cette fin : la première avec un niveau de bruit binaire et la seconde avec des niveaux de bruit progressifs. Les résultats de la première tâche montrent qu'en l'absence de bruit de couleur, les patrons psychophysiques des sujets sont mieux expliqués comme étant modulés par la quantité d’évidences nettes normalisées. Dans cette même tâche, l'ajout de bruit modifie systématiquement ces patrons pour qu'ils ne semblent sensibles uniquement qu'à l'évidence nette des stimuli, comme si le processus de normalisation a été éliminé. Les résultats de la deuxième tâche favorisent l’explication selon laquelle l'évidence sensorielle est progressivement normalisée en fonction du niveau de bruit présent et que la normalisation n'est pas un phénomène de tout-ou-rien dans le contexte de la prise de décision perceptuelle. Finalement, une hypothèse unificatrice est proposée selon laquelle le cerveau estime l’évidence nette et adapte dynamiquement le contexte décisionnel d’essai en essai avec une quantité estimée d’évidence potentielle totale, apparaissant comme une normalisation. / Decision-making is a general ability to choose between two or more alternatives given current information and the objectives at stake. It is generally assumed that, at the level of the nervous system, the decision-making process consists of accumulating relevant information, called "evidence", from several alternatives, comparing them to each other, and finally committing to the best alternative given the context of the decision (J. I. Gold & Shadlen, 2007). This master's project focuses on a particular subtype of decision-making so-called perceptual decisions. In this research project, I will examine the psychophysical patterns (response times and success rates) of human subjects making decisions in visual tasks containing dynamic checkerboards composed of colored squares. Specifically, the goal of this project is to study the role of "color noise" on decision dynamics. Two new decision-making tasks were carefully constructed for this purpose: the first with a binary noise level and the second with progressive noise levels. Results from the first task show that in the absence of color noise, subjects' psychophysical patterns are best explained as being modulated by the amount of normalized net evidence. In this same task, the addition of noise systematically alters these patterns so that they appear to be sensitive only to the net evidence of the stimuli, as if the normalization process has been eliminated. The results of the second task support the explanation that sensory evidence is progressively normalized as a function of the level of noise present and that normalization is not an all-or-nothing phenomenon in the context of perceptual decision-making. Finally, a unifying hypothesis is proposed that the brain estimates net evidence and dynamically adapts the decisional context from trial to trial with an estimated amount of total potential evidence, appearing as normalization.
10

(Super)symétries des modèles semi-classiques en physique théorique et de la matière condensée.

Ngome Abiaga, Juste Jean-Paul 11 May 2011 (has links) (PDF)
L'algorithme covariant de van Holten, servant à construire des quantités conservées, est présenté avec une attention particulière portée sur les vecteurs de type Runge-Lenz. La dynamique classique des particules portant des charges isospins est passée en revue. Plusieures applications physiques sont considerées. Des champs de type monopôles non-Abéliens, générés par des mouvements nucléaires dans les molécules diatomiques, introduites par Moody, Shapere et Wilczek, sont étudiées. Dans le cas des espaces courbes, le formalisme de van Holten permet de décrire la symétrie dynamique des monopôles Kaluza-Klein généralisés. La procédure est étendue à la supersymétrie et appliquée aux monopôles supersymétriques. Une autre application, concernant l'oscillateur non-commutatif en dimension trois, est également traitée.

Page generated in 0.0447 seconds