• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 403
  • 82
  • 34
  • 32
  • 5
  • 4
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 578
  • 272
  • 125
  • 101
  • 67
  • 65
  • 48
  • 44
  • 43
  • 42
  • 39
  • 37
  • 37
  • 36
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Le penser pacifié et l’agir moral de l’après Auschwitz selon T. W. Adorno

Constantin, Kathia 01 1900 (has links)
Dans Dialectique de la Raison, Adorno et Horkheimer tentent d’esquisser le pourquoi et le comment de ce retour à la barbarie qu’a connu la civilisation européenne, lors du troisième Reich. Quelles sont ces conditions qui ont rendu possibles les massacres administrés sous le régime nazi? La résolution de cette énigme qui se solde sur l’échec de l’Auflkärung nous dévoile une nécessité, celle d’une transformation radicale à la fois de l’éthique et de la métaphysique dans sa conception de la vérité. Celle-ci se présente à nous sous la forme d’une norme morale : « Dans leur état de non-liberté, Hitler a imposé aux hommes un nouvel impératif catégorique; penser et agir en sorte qu’Auschwitz ne se répète pas ». Quelles modalités de penser et d’agir nous exhortent ce nouvel impératif catégorique? La philosophie d’Adorno, critiqué pour n’avoir été que négative dans son entreprise, est-elle en mesure de nous fournir des prescriptions normatives capables de réorienter le penser théorétique et l’éthique? / In Dialectic of Enlightenment, Adorno and Horkheimer try to explain the reasons for why and how, European civilization committed barbaric crimes during the third Reich. What conditions that made possible the massacres administered under the Nazi regime? The failure of the Enlightenment is the answer to this question and requires a radical transformationof ethics and metaphysics. This necessity takes the form of a new categorical imperative: “A new categorical imperative has been imposed by Hitler upon human beings in the state of their unfreedom: to arrange theirs thoughts and actions so that Auschwitz will not repeat itself, so that nothing similar will happen”. Is Adorno’s philosophy, often accused of being too negative, is it able to provide normative prescriptions able to give a new direction to the theoretical thinking and ethics?
222

On the ranking property and underlying dynamics of complex systems / Sur la propriété classement et dynamique sous-jacente des systèmes complexes

Deng, Weibing 21 June 2013 (has links)
Des procédures de classement sont largement utilisées pour décrire les phénomènes observés dans de nombreux domaines des sciences sociales et naturelles, par exemple la sociologie, l’économie, la linguistique, la démographie, la physique, la biologie, etc.Dans cette thèse, nous nous sommes attachés à l’étude des propriétés de classement et des dynamiques sous-jacentes intégrées dans les systèmes complexes. En particulier,nous nous sommes concentrés sur les classements par score ou par prix dans les systèmes sportifs et les classements d’utilisation des mots ou caractères dans les langues humaines. Le but est de comprendre les mécanismes sous-jacents à ces questions en utilisant les méthodes de la physique statistique, de la statistique bayésienne et de la modélisation multi-agents. Les résultats concrets concernent les aspects suivants.Nous avons tout d’abord traité une étude sur les classements par score/prix dans les systèmes sportifs et analysé 40 échantillons de données dans 12 disciplines sportives différentes. Nous avons trouvé des similitudes frappantes dans différents sports, à savoir le fait que la répartition des résultats/prix suit les lois puissance universelles.Nous avons également montré que le principe de Pareto est largement respecté dans de nombreux systèmes sociaux: ainsi 20% des joueurs accumulent 80% des scores et de l’argent. Les données concernant les matchs de tennis en individuels nous ont révélé que lorsque deux joueurs s’affrontent, la probabilité que le joueur de rang supérieur gagne est liée à la différence de rang des deux adversaires. Afin de comprendre les origines de la mise à l’échelle universelle, nous avons proposé un modèle multi-agents,qui peut simuler les matchs de joueurs à travers différentes compétitions. Les résultats de nos simulations sont cohérents avec les résultats empiriques. L’extension du domaine d’étude de la simulation indique que le modèle est assez robuste par rapport aux modifications de certains paramètres. La loi de Zipf est le comportement le plus régulièrement observé dans la linguistique statistique. Elle a dès lors servi de prototype pour les relations entre rang d’apparitions et fréquence d’apparitions (relations rang-fréquence dans la suite du texte) et les lois d’échelle dans les sciences naturelles. Nous avons étudié plusieurs textes, précisé le domaine de validité de la loi de Zipf, et trouvé que la plage de validité augmente lors du mélange de différents textes. Basé sur l’analyse sémantique latente, nous avons proposé un modèle probabiliste, dans lequel nous avons supposé que les mots sont ajoutés au texte avec des probabilités aléatoires, tandis que leur densité a priori est liée, via la statistique bayésienne, aux caractéristiques générales du lexique mental de l’auteur de ce même texte. Notre modèle explique la loi de Zipf ainsi que ses limites de validité, et la généralise aux hautes et basses fréquences et au hapax legomena.Dans une autre étude, nous avons précisé les relations rang-fréquence pour les caractères chinois. Nous avons choisi d’étudier des textes courts en premier, car pour le bien de l’analyse rang fréquence, les longs textes ne sont que des mélanges de textes plus courts, thématiquement homogènes. Nos résultats ont montré que la loi de Zipf appliqués aux caractères chinois tient parfaitement pour des textes assez courts (quelques milliers de caractères différents). Le même domaine de validité est observé pour les textes courts anglais. Nous avons soutenu que les longs textes chinois montrent une structure hiérarchique à deux couches: des caractères dont la fréquence d’apparition suit une loi puissance (première couche) et des caractères dont l’apparition suit une loi exponentielle (deuxième couche)... / Ranking procedures are widely used to describe the phenomena in many differentfields of social and natural sciences, e.g., sociology, economics, linguistics, demography,physics, biology, etc. In this dissertation, we dedicated to study the ranking propertiesand underlying dynamics embedded in complex systems. In particular, we focused onthe scores/prizes ranking in sports systems and the words/characters usage ranking inhuman languages. The aim is to understand the mechanisms behind these issues byusing the methods of statistical physics, Bayesian statistics and agent-based modeling.The concrete results concern the following aspects.We took up an interesting topic on the scores/prizes ranking in sports systems, andanalyzed 40 data samples in 12 different sports fields. We found the striking similaritiesin different sports, i.e., the distributions of scores/prizes follow the universal powerlaws. We also showed that the data yielded the Pareto principle extensively observedin many social systems: 20% of the players accumulate 80% of the scores and money.For the tennis head-to-head data, we revealed that when two players compete, theprobability that the higher-ranked player will win is related to the rank difference ofthe two opponents. In order to understand the origins of the universal scaling, weproposed an agent-based model, which can simulate the competitions of players indifferent matches, and results from our simulations are consistent with the empiricalfindings. Extensive simulation studies indicate that the model is quite robust withrespect to the modifications of some parameters.Zipf’s law is the major regularity of statistical linguistics that served as a prototypefor the rank-frequency relations and scaling laws in natural sciences. We investigatedseveral English texts, clarified the valid range of Zipf’s law, and found this valid rangeincreases upon mixing different texts. Based on the latent semantic analysis, we proposeda probabilistic model, in which we assumed that the words are drawn into thetext with random probabilities, while their apriori density relates, via Bayesian statistics,to the general features of mental lexicon of the author who produced the text. Ourmodel explained the Zipf’s law together with the limits of its validity, its generalizationto high and low frequencies and hapax legomena. In another work, we specified the rank-frequency relations for Chinese characters. We chose to study the short texts first, since for the sake of the rank-frequency analysis,long texts are just mixtures of shorter, thematically homogenous pieces. Our resultsshowed that the Zipf’s law for Chinese characters perfectly holds for sufficiently shorttexts (few thousand different characters), and the scenario of its validity is similar tothat for short English texts. We argued long Chinese texts display a two-layer, hierarchicstructure: power-law rank-frequency characters (first layer) and the exponentialones (second layer). The previous results on the invalidity of the Zipf’s law for longtexts are accounted for by showing that in between of the Zipfian range and the regionof very rare characters (hapax legomena) there emerges a range of ranks, wherethe rank-frequency relation is approximately exponential. From comparative analysisof rank-frequency relations for Chinese and English, we suggested the characters playfor Chinese writers the same role as the words for those writing within alphabeticalsystems.
223

Path probability and an extension of least action principle to random motion / L'étude du principe de moindre action pour systèmes mécaniques dissipatifs, et la probabilité de chemins du mouvement mécanique aléatoire

Lin, Tongling 19 February 2013 (has links)
La présente thèse est consacrée à l’étude de la probabilité du chemin d’un mouvement aléatoire sur la base d’une extension de la mécanique Hamiltonienne/Lagrangienne à la dynamique stochastique. La probabilité d’un chemin est d’abord étudiée par simulation numérique dans le cas du mouvement stochastique Gaussien des systèmes non dissipatifs. Ce modèle dynamique idéal implique que, outre les forces aléatoires Gaussiennes, le système est seulement soumis à des forces conservatrices. Ce modèle peut être appliqué à un mouvement aléatoire réel de régime pseudo-périodique en présence d’une force de frottement lorsque l’énergie dissipée est négligeable par rapport à la variation de l’énergie potentielle. Nous constatons que la probabilité de chemin décroît exponentiellement lorsque le son action augmente, c’est à dire, P(A) ~ eˉγA, où γ est une constante caractérisant la sensibilité de la dépendance de l’action à la probabilité de chemin, l’action est calculée par la formule A = ∫T0 Ldt, intégrale temporelle du Lagrangien. L = K–V sur une période de temps fixe T, K est l’énergie cinétique et V est l’énergie potentielle. Ce résultat est une confirmation de l’existence d’un analogue classique du facteur de Feynman eiA/ħ pour le formalisme intégral de chemin de la mécanique quantique des systèmes Hamiltoniens. Le résultat ci-dessus est ensuite étendu au mouvement aléatoire réel avec dissipation. A cet effet, le principe de moindre action doit être généralisé au mouvement amorti de systèmes mécaniques ayant une fonction unique de Lagrange bien définie qui doit avoir la simple connexion habituelle au Hamiltonien. Cela a été fait avec l’aide du Lagrangien suivant L = K − V − Ed, où Ed est l’énergie dissipée. Par le calcul variationnel et la simulation numérique, nous avons prouvé que l’action A = ∫T0 Ldt est stationnaire pour les chemins optimaux déterminés par l’équation newtonienne. Plus précisément, la stationnarité est un minimum pour les mouvements de régime pseudo-périodique, un maximum pour les mouvements d’amortissement apériodique et une inflexion dans le cas intermédiaire. Sur cette base, nous avons étudié la probabilité du chemin du mouvement stochastique Gaussien des systèmes dissipatifs. On constate que la probabilité du chemin dépend toujours de façon exponentielle de l’action Lagrangien pour les mouvements de régime pseudo-périodique, mais dépend toujours de façon exponentielle de l’action cinétique A = ∫T0 Kdt pour régime apériodique. / The present thesis is devoted to the study of path probability of random motion on the basis of an extension of Hamiltonian/Lagrangian mechanics to stochastic dynamics. The path probability is first investigated by numerical simulation for Gaussian stochastic motion of non dissipative systems. This ideal dynamical model implies that, apart from the Gaussian random forces, the system is only subject to conservative forces. This model can be applied to underdamped real random motion in the presence of friction force when the dissipated energy is negligible with respect to the variation of the potential energy. We find that the path probability decreases exponentially with increasing action, i.e., P(A) ~ eˉγA, where γ is a constant characterizing the sensitivity of the action dependence of the path probability, the action is given by A = ∫T0 Ldt, a time integral of the Lagrangian L = K–V over a fixed time period T, K is the kinetic energy and V is the potential energy. This result is a confirmation of the existence of a classical analogue of the Feynman factor eiA/ħ for the path integral formalism of quantum mechanics of Hamiltonian systems. The above result is then extended to real random motion with dissipation. For this purpose, the least action principle has to be generalized to damped motion of mechanical systems with a unique well defined Lagrangian function which must have the usual simple connection to Hamiltonian. This has been done with the help of the following Lagrangian L = K – V – Ed, where Ed is the dissipated energy. By variational calculus and numerical simulation, we proved that the action A = ∫T0 Ldt is stationary for the optimal paths determined by Newtonian equation. More precisely, the stationarity is a minimum for underdamped motion, a maximum for overdamped motion and an inflexion for the intermediate case. On this basis, we studied the path probability of Gaussian stochastic motion of dissipative systems. It is found that the path probability still depends exponentially on Lagrangian action for the underdamped motion, but depends exponentially on kinetic action A = ∫T0 Kdt for the overdamped motion.
224

Multiscale data assimilation approaches and error characterisation applied to the inverse modelling ofatmospheric constituent emission fields / Assimilation de données multi-échelle et caractérisation des erreurs pour la modélisation inverse des sources de polluants atmosphériques

Koohkan, Mohammad Reza 20 December 2012 (has links)
Dans les études géophysiques, l'assimilation de données a pour but d'estimer l'état d'un système ou les paramètres d'un modèle physique de façon optimale. Pour ce faire, l'assimilation de données a besoin de trois types d'informations : des observations, un modèle physique/numérique et une description statistique de l'incertitude associée aux paramètres du système. Dans ma thèse, de nouvelles méthodes d'assimilation de données sont utilisées pour l'étude de la physico-chimie de l'atmosphère: (i) On y utilise de manière conjointe la méthode 4D-Var avec un modèle sous-maille statistique pour tenir compte des erreurs de représentativité. (ii) Des échelles multiples sont prises en compte dans la méthode d'estimation BLUE. (iii) Enfin, la méthode du maximum de vraisemblance est appliquée pour estimer des hyper-paramètres qui paramètrisent les erreurs à priori. Ces trois approches sont appliquées de manière spécifique à des problèmes de modélisation inverse des sources de polluant atmosphérique. Dans une première partie, la modélisation inverse est utilisée afin d'estimer les émissions de monoxyde de carbone sur un domaine représentant la France. Les stations du réseau d'observation considérées sont impactées par les erreurs de représentativité. Un modèle statistique sous-maille est introduit. Il est couplé au système 4D-Var afin de réduire les erreurs de représentativité. En particulier, les résultats de la modélisation inverse montrent que la méthode 4D-Var seule n'est pas adaptée pour gérer le problème de représentativité. Le système d'assimilation des données couplé conduit à une meilleure représentation de la variabilité de la concentration de CO avec une amélioration très significative des indicateurs statistiques. Dans une deuxième partie, on évalue le potentiel du réseau IMS (International Monitoring System) du CTBTO pour l'inversion d'une source accidentelle de radionucléides. Pour évaluer la performance du réseau, une grille multi-échelle adaptative pour l'espace de contrôle est optimisée selon un critère basé sur les degrés de liberté du signal (DFS). Les résultats montrent que plusieurs régions restent sous-observées par le réseau IMS. Dans la troisième et dernière partie, sont estimés les émissions de Composés Organiques Volatils (COVs) sur l'Europe de l'ouest. Cette étude d'inversion est faite sur la base des observations de 14 COVs extraites du réseau EMEP. L'évaluation des incertitudes des valeurs des inventaires d'émission et des erreurs d'observation sont faites selon le principe du maximum de vraisemblance. La distribution des inventaires d'émission a été supposée tantôt gaussienne et tantôt semi-normale. Ces deux hypothèses sont appliquées pour inverser le champs des inventaires d'émission. Les résultats de ces deux approches sont comparés. Bien que la correction apportée sur les inventaires est plus forte avec l'hypothèse Gaussienne que semi-normale, les indicateurs statistiques montrent que l'hypothèse de la distribution semi-normale donne de meilleurs résultats de concentrations que celle Gaussienne. / Data assimilation in geophysical sciences aims at optimally estimating the state of the system or some parameters of the system's physical model. To do so, data assimilation needs three types of information: observations and background information, a physical/numerical model, and some statistical description that prescribes uncertainties to each componenent of the system.In my dissertation, new methodologies of data assimilation are used in atmospheric chemistry and physics: the joint use of a 4D-Var with a subgrid statistical model to consistently account for representativeness errors, accounting for multiple scale in the BLUE estimation principle, and a better estimation of prior errors using objective estimation of hyperparameters. These three approaches will be specifically applied to inverse modelling problems focussing on the emission fields of tracers or pollutants. First, in order to estimate the emission inventories of carbon monoxide over France, in-situ stations which are impacted by the representativeness errors are used. A subgrid model is introduced and coupled with a 4D-Var to reduce the representativeness error. Indeed, the results of inverse modelling showed that the 4D-Var routine was not fit to handle the representativeness issues. The coupled data assimilation system led to a much better representation of theCO concentration variability, with a significant improvement of statistical indicators, and more consistent estimation of the CO emission inventory. Second, the evaluation of the potential of the IMS (International Monitoring System) radionuclide network is performed for the inversion of an accidental source. In order to assess the performance of the global network, a multiscale adaptive grid is optimised using a criterion based on degrees of freedom for the signal (DFS). The results show that several specific regions remain poorly observed by the IMS network. Finally, the inversion of the surface fluxes of Volatile Organic Compounds (VOC) are carried out over Western Europe using EMEP stations. The uncertainties of the background values of the emissions, as well as the covariance matrix of the observation errors, are estimated according to the maximum likelihood principle. The prior probability density function of the control parameters is chosen to be Gaussian or semi-normal distributed. Grid-size emission inventories are inverted under these two statistical assumptions. The two kinds of approaches are compared. With the Gaussian assumption, the departure between the posterior and the prior emission inventories is higher than when using the semi-normal assumption, but that method does not provide better scores than the semi-normal in a forecast experiment.
225

Analyse de signaux et d'images par bancs de filtres : applications aux géosciences / Signal and image analysis with ?lter banks : applications to geosciences

Gauthier, Jérôme 20 June 2008 (has links)
Afin de réaliser des traitements locaux sur des données de diverses natures (volumes, images ou signaux) contenant des éléments informatifs dans certaines bandes de fréquence, nous nous intéressons dans cette thèse à l’étude de bancs de filtres (BdF). Plus précisément, nous étudions l’existence et la synthèse de BdF de réponses impulsionnelles finies (RIF) inverses d’un BdF d’analyse RIF redondant complexe fixé. Nous proposons en particulier des méthodes testant l’inversibilité de la matrice d’analyse et la construction d’un inverse explicite à l’aide de la formulation polyphase. À partir de ce dernier, nous proposons une paramétrisation réduite de l’ensemble des BdF de synthèse permettant d’optimiser leurs réponses selon différents critères. Cette étude est étendue au cas multidimensionnel notamment par l’utilisation de la notion de résultant. Ces outils permettant de représenter efficacement certaines informations structurées dans des données, il devient possible de les préserver tout en rejetant d’éventuelles perturbations. Le premier cadre considéré est celui du bruit gaussien. Nous avons utilisé le principe de Stein pour proposer deux méthodes de débruitage : FB-SURELET-E et FBSURELET-C. Elles sont comparées à des méthodes récentes de débruitage conduisant à de bons résultats en particulier pour des images texturées. Un autre type d’application est ensuite considéré : la séparation des structures orientées. Afin de traiter ce problème, nous avons développé une méthode de filtrage anisotrope. Les algorithmes réalisés sont finalement testés sur des données issues de différents domaines applicatifs (sismique, microscopie, vibrations) / Our main purpose in this PhD thesis is to perform local frequential (or directional) processing in different kind of data (volumes, images or signals). To this end, filter banks (FBs) are studied. More precisely, we first investigate the existence and the construction of synthesis FBs inverse to a given FIR complex analysis FB. Through the study of the polyphase analysis matrix, we are able to propose methods to test the invertibility and to build one inverse FB. Using this inverse, we provide a parametrization of the set of synthesis FB, with which we optimize filter responses with different criteria. The same study is performed in the multidimensional case. Since FBs provide an efficient representation of structured information in data, it is then possible to preserve them while rejecting unwanted perturbations. By associating Stein’s principle and those FB, we proposed two methods to denoise signals and images corrupted by Gaussian noise. These methods, named FB-SURELET-E and FB-SURELET-C, are compared to recent denoising methods and are found to offer good results, especially for textured images. Another type of application is then investigated : separation of oriented structures. To this end, we have developed an anisotropic filtering method. The different proposed methods are finally applied on images and signals from various fields : seismic images and cubes, transmission electron microscopy (TEM) images of catalysts and vibration signals from car engines
226

Regard juridique sur les documents comptables

Gasbaoui, Julien 07 December 2012 (has links)
Les documents comptables occupent une place centrale dans la vie des affaires. Il est intéressant de porter un regard juridique sur eux pour plusieurs raisons. Tout d'abord, leur élaboration obéit à des règles se plaçant au service d'un objectif qui les dépasse : l'image fidèle. Le préparateur des comptes doit ainsi avoir le souci du lecteur des documents comptables, ce qui peut le conduire, dans certains cas, à déroger à la règle. Cette originalité dans la mise en œuvre de la règle comptable se double d'une originalité des qualifications comptables qui en découlent : les droits et obligations figurant dans les documents comptables sont soumis à une grille de lecture qui dépasse les catégories juridiques traditionnelles, ce qui ouvre de nouvelles perspectives pour le juriste, et conduit à remettre en cause la vision classique de l'activité comptable. Cet intérêt se renforce au moment de la réception juridique des documents comptables, qui invite à s'interroger sur les effets que l'on peut leur accorder. D'une part, quelle est la valeur juridique d'un enregistrement comptable : quelle est sa force probante ? Est-il éligible à la qualification d'acte juridique, voire d'engagement juridique unilatéral ? D'autre part, quelles sont les fonctions classiques des agrégats révélées par les documents comptables ? Doivent-elles être remises en cause par l'avènement des normes IFRS ? Enfin, quelles sont les sanctions attachées aux documents comptables ? Une telle question renvoie à la responsabilité des auteurs principaux, que sont les dirigeants, et à celle des professionnels du chiffre, que sont le commissaire aux comptes et l'expert-comptable / Accounting records hold a central place within the framework of business life. For a variety of reasons, it is interesting to consider these accounting records within the legal scope. First of all, the drafting of these documents is subjected to a special regulation which keystone is to present a true and fair view of the accounts. The person drafting the accounts should always keep in mind this purpose and the necessary readability of thesaid documents. This aim can sometimes lead this person to depart from the accounting rule. This originality of the implementation of the accounting rule has to be coupled with an originality of the subsequent accounting qualifications. The rights and obligations drawn up within the accounting records are subjected to a reading grid which goes beyond the classical legal categories. This specificity is opening new horizons to the legal expert and leads to a reconsideration of the traditional understanding of the accounting activity. This interest is strengthened at the time of the receipt of the accounting documents which suggests questioning ourselves about the effects of the latter. On the one hand, which is the legal force of an accounting record, in other words, what is its probative force? Can an accounting record be qualified as a legal transaction or perhaps even more as a unilateral contract? On the other hand, what are the traditional functions of the aggregates revealed by the accounting documents? Should these traditional functions be challenged by the IFRS standards? Finally, which sanctions are foreseen as to accounting documents?
227

La Réduction des inégalités et politiques éducatives : une analyse comparée de la mise en oeuvre du Principe du Caractère Fédéral au Nigeria / Reduction of inequalities and education policies : a comparative analysis of the implementation of Federal Character Principle in Nigeria

Nkume-Okorie, Ndubueze O. 16 December 2013 (has links)
Pendant près d’un siècle, le problème récurant du Nigeria a été comment protéger et promouvoir les intérêts des communautés qui y sont représentées. Pour cela, plusieurs mécanismes ont été introduits. Cela inclut le Principe du Caractère Fédéral, qui constitue le fondement du système fédéral consociatif du Nigeria. Pourtant, son efficacité a constamment été remise en question par les inégalités régionales et les effets pervers qui découlent de son application. On constate les mêmes contraintes dans d’autres pays pratiquant d’autres variantes du traitement préférentiel. Malgré les différences culturelles, idéologiques ou institutionnelles, il semble que le renforcement de la politique éducative aux niveaux primaire et secondaire en faveur des bénéficiaires potentiels des politiques de traitement préférentiel soit la pièce maitresse pour assurer la réduction des inégalités horizontales. / For close to a century, the perennial problem that has bedeviled Nigeria has been how to ensure the protection and the promotion of the interests of its various communities. Successive governments have introduced several mechanisms to this end. They include the Federal Character Principle, which constitutes the bedrock of the Nigerian consociative federal arrangement. Nevertheless, persistent regional inequalities and the pervasive side effects of the various strategies have constantly cast a doubt on the efficacy the Federal Character Principle. A similar trend is visible in other countries that are practicing other versions of preferential treatment policies. It appears that to achieve a meaningful reduction of horizontal inequalities, irrespective of cultural, ideological or institutional settings, the most viable option remains sound educational policies at the primary and secondary school levels in favour of potential beneficiaries of preferential treatments.
228

Etude comparative du droit de la gestion des risques alimentaires en France et en Corée / A comparative study on the legislative systems of the food risk management in France and Korea

Jung, Kwan-Seon 29 March 2014 (has links)
Les préoccupations de sécurité alimentaire prennent aujourd'hui une place importante, tant à l'échelon national qu'à l'échelon international. Ce phénomène de préoccupation grandissante à l'égard des aspects sécurité de l'alimentation s'est encore davantage renforcé sous l'impulsion des crises alimentaires successives et de l'expansion des risques non avérés. De nos jours, la gestion du risque : anticiper le risque, le prévenir, gérer la crise ou réparer ses conséquences incombe donc à l'autorité publique. Dans ce cadre, le principe de précaution fournit un mécanisme permettant de déterminer des mesures de gestion des risques ou d'autres actions en vue d'assurer le niveau élevé de protection de la santé. Nous considérons le principe de précaution et son contrôle à l'aune de jurisprudences françaises pour aider à mieux comprendre ce principe et à l'introduire activement en Corée. Par ailleurs, nous soulevons des problèmes et suggérons des possibilités d'amélioration afin de mettre en oeuvre une gestion efficace du risque alimentaire à travers une étude comparative sur le système et la législation alimentaires entre la France et la Corée. / The food safety concerns are now an important place, both nationally and internationally. This phenomenon is further strengthening under the leadership of successive food crises and the expansion of uncertain risks. The state accordingly shall undertake responsibility for risk management such as risk assessment, risk prevention, and prompt response to crisis at all stages of production, distribution and sales of food. In this context, the precautionary principle provides a mechanism for determining risk management measures or other actions to ensure the higher standard of health protection. This article, through reviewing the cases and studies in France on the precautionary principle and the control over it, aims to help better understand the principle and actively introduce it to Korea. In addition, this article presents suggestive points through a comparative study of the system and food law between France and Korea, possible improvements to implement an effective food risk management.
229

Effets couplés de la température et de la vitesse de déformation sur le comportement mécanique non-linéaire des polymères amorphes : Caractérisation expérimentale et modélisation de la superposition vitesse de déformation-température / Coupled temperature and strain rate effects on non-linear mechanical behaviour of amorphous polymers : Experimental characterisation and modelling of strain rate-temperature superposition

Federico, Carlos 18 June 2018 (has links)
L’objectif de cette thèse est de proposer une stratégie simplifiée et précise pour caractériser et modéliser le comportement mécanique des polymères amorphes de l'état quasi-fluide à l'état solide.L'étude a été réalisée sur des PMMA de masses molaires et de degré de réticulations différentes.D’abord, le comportement mécanique dans le domaine viscoélastique linéaire est étudié à l'aide de tests DMTA et rhéologiques. Il ressort de l’étude que l'augmentation de la masse molaire et du degré de réticulation augmentait les modules de stockage et de perte en tant que la transition α. En parallèle, l'utilisation du principe de superposition temps-température a permis de déterminer «des vitesses de déformation équivalentes à la température de référence».Ensuite, le comportement mécanique à grande déformation est étudié par essais cycliques en traction uni-axial et de cisaillement à haute température et couplés à la DIC. De plus, les effets de la vitesse de déformation et de la température ont été couplés grâce à "vitesse de déformation équivalent à la température de référence" extrait des observations dans le domaine linéaire. Les résultats ont montré que cibler la même vitesse de déformation équivalente conduira aux mêmes courbes contrainte-déformation, c'est-à-dire la même réponse mécanique. Ceci permet de réduire le nombre de tests expérimentaux nécessaires pour caractériser le comportement mécanique des polymères amorphes.Enfin, un modèle basée dans un cadre thermodynamique a été utilisée pour reproduire la réponse mécanique des PMMAs à grande déformation. Le modèle présentait un bon accord avec les données expérimentales, étant capable de reproduire des comportements visco-élasto-plastiques, viscoélastiques, hyperélastiques et visco-hyperelastiques pour la traction cyclique. / The present PhD thesis proposes a simplified and accurate strategy for characterising and modelling the mechanical behaviour of amorphous polymers from the quasi-fluid state up to the solid state.The study was carried out on PMMAs with different molar masses and crosslinking degree.First, we addressed the mechanical behaviour in the linear viscoelastic domain using DMTA and rheological tests. Results showed that increasing the molar mas and crosslinking degree increased the elastic and loss moduli as the α-transition. In parallel, using the time-temperature superposition principle allowed determining “equivalent strain rates at reference temperature”.Then, we performed uniaxial tensile and shear uploading-unloading tests at high temperature and coupled with DIC, to characterise the mechanical behaviour at large strain. Additionally, strain rate and temperature effects were coupled by means of the “equivalent strain rate at reference temperature” extracted from observations in the linear domain. Results showed that targeting the same equivalent strain rate lead to the same stress-strain curves, i.e. same mechanical response. This allows reducing the number of experimental tests needed to characterise the mechanical behaviour of amorphous polymers.Finally, a constitutive modelling based in a thermodynamics framework, was used to reproduce the mechanical response of the PMMAs at large deformation. The model presented a good agreement with the experimental data, being able to reproduce viscoelastoplastic, viscoelastic, hyperelastic and viscohyperelastic behaviours for cyclic loading tensile.
230

Théorèmes limites dans l'analyse statistique des systèmes dynamiques / Limit theorems in the statistical analysis of dynamical systems

Abdelkader, Mohamed 30 November 2017 (has links)
Dans cette thèse nous étudions les théorèmes limites dans l’analyse statistique dessystèmes dynamiques. Le premier chapitre est consacré aux notions des bases des systèmesdynamiques ainsi que la théorie ergodique. Dans le deuxième chapitre nous introduisonsun cadre fonctionnel abstrait pour lequel la version quenched du théorème de la limitecentrale (TLC) en dimension 1 pour les systèmes dynamiques uniformément dilatantsest satisfaite sous une condition de validité nécessaire et suffisante. Le troisième chapitreest consacré au principe d’invariance presque sûr (PIPS) pour les application aléatoiresdilatantes par morceaux. Nous présentons certaines hypothèses sous lesquelles le (PIPS)est vérifié en utilisant la méthode d’approximation des martingales de Cuny et Merlèvede.Nous étudions aussi le théorème de Sprindzuk et ses conséquences. Nous établissons dansle chapitre quatre la décroissance des corrélations pour les systèmes dynamiques aléatoiresuniformément dilatants par la méthode de couplage en dimension 1. Nous terminons cetravail par une présentation des concepts de base de la théorie des mesures et probabilitéset une présentation de l’espace des fonctions à variation bornée. / In this thesis we study the limit theorems in the statistical analysis of dynamicalsystems. The first chapter is devoted to the basic notions in dynamical systems as well asthe ergodic theory. In the second chapter we introduce an abstract functional frameworkunder which the quenched version of the central limit theorem (CLT) in dimension 1for uniformly expanding dynamic systems is satisfied under a necessary and sufficientcondition validity. The third chapter is devoted to the almost sure invariance principle(ASIP) for random piecewise expanding maps. We present some hypotheses under whichthe (ASIP) is verified using the method of approximation of the martingales of Cuny andMerlèvede. We also study the Sprindzuk theorem and its consequences. In chapter four,we define the decay of correlations for the random dynamical systems uniformly expandingby the coupling method in dimension 1. We finish this work with a presentation of thebasic concepts of the theory of measures and probabilities and a presentation of the spaceof functions with bounded variation.

Page generated in 0.0643 seconds