• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 171
  • 54
  • 50
  • 49
  • 10
  • 8
  • 8
  • 6
  • 5
  • 5
  • 5
  • 3
  • 3
  • 2
  • 2
  • Tagged with
  • 447
  • 95
  • 73
  • 71
  • 66
  • 56
  • 46
  • 43
  • 43
  • 38
  • 37
  • 33
  • 32
  • 32
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Variabilité de la structure de la canopée en forêt tropicale humide : l’apport de la très haute résolution spatiale en Guyane Française / Variability of canopy structure in tropical rain forest : the contribution of the very high spatial resolution in French Guiana.

Goulamoussene, Youven 30 November 2016 (has links)
La Guyane française est une région située sur le Plateau des Guyanes en Amérique du sud. Elle présente à la fois une grande originalité en termes de biodiversité, un bon état de conservation et une forte contribution au stock de carbone Amazonien. Les connaissances sur l’évolution de la structure forestière de la Guyane française restent cependant insuffisantes pour offrir une gestion optimale à l’échelle du territoire. La disponibilité sans précédent de données de télédétection à très haute résolution spatiale telles que le LiDAR , sur de larges couvertures nous offre l'opportunité d’évaluer la ressource forestière de la Guyane Française. Les travaux réalisés dans le cadre de cette thèse visent prioritairement à étudier la structure et les variations de la hauteur de canopée, les facteurs déterminant sa variabilité ainsi que les conséquences des activités d’exploitation forestière. Les données utilisées au cours de la thèse proviennent d’un LiDAR aéroporté et des données de terrains de l'Office National des Forêts (ONF). Ce manuscrit de thèse est divisé en trois grandes parties. La première partie introduit la problématique et fixe les objectifs de la thèse. La seconde partie prend la forme dite « sur article », c'est-à-dire que les différents chapitres qui la compose sont des articles scientifiques publiés ou en cours de publication, elle est composée de trois études. (i) Une étude concernant la détection des trouées et des déterminants environnementaux sur la distribution de tailles des trouées en forêt non exploitée : Comment caractériser la distribution de taille des trouées et est-ce qu’il y a des déterminants environnementaux qui influencent la distribution statistique de taille de trouées? Cet article à été soumis dans Biogeoscience. (ii) Une étude du contrôle de l'environnement sur la structure et les variations de la hauteur de canopée à différentes résolutions spatiales. Quelles échelles spatiales sont pertinentes pour analyser les déterminants environnementaux des variations de hauteur de la canopée en forêt tropicale à partir des données de télédétection ? Comment l’environnement peut aider, ou pas, à cartographier la hauteur de la canopée en forêt tropicale ? Cet article à été accepté pour publication dans Remote Sensing. (iii) Une troisième étude où nous avons quantifié les effets de l’exploitation à faible impact (EFI) sur la structure et la variation de la hauteur de canopée. Quelles sont les effets de l’exploitation forestière sur les variations de hauteur de canopée et sur la distribution de taille des trouées ? Cet article sera soumis pour publication dans une revue scientifique (Forest Ecology and Management). Dans la dernière partie, après une synthèse des principaux résultats, nous proposons des pistes de développement. / French Guiana is a region located on the Guiana Shield in South America. Is presents at the same time a high originality in biodiversity, a good state of conservation and a strong correlation to Amazonian carbon stocks. Knowledge on evolution of the forest structure of French Guiana is however still insufficient to bring an optimal management at territory scale. Availability as never seen before of remote sensing data at high spatial resolution such as LiDAR, on large coverage, offers the opportunity to assess the forest resource in French Guiana. The work done during this thesis aim mostly to study the structure and the variations of the canopy height, the factors determining its variability and the consequences of forest logging activities. The data used during this thesis come from an airborne LiDAR and field data from Office National des Forêts (ONF). This thesis manuscript is divided in three parts. The first part introduces the problem and sets the objectives of the thesis. The second part takes the so-called "article" form, that is, the different chapters that compose it are scientific articles published or in the course of publication, it is composed of three studies (I) A study on the gaps detection and environmental determinants on the gap sizes distribution in natural forest: How to characterize the gap size distribution and are there environmental determinants that influence the statistical distribution of gap size? This article has been submitted in Biogeoscience. (ii) A study of the control of the environment on the canopy height structure and variations at different spatial resolutions. Which spatial scales are relevant for analyzing the environmental determinants of canopy height changes in tropical forests from remote sensing data? How can the environment help or not map the height of the canopy in the rainforest? This article was accepted for publication in Remote Sensing. (iii) a third study where we quantified the effects of Reduced Impact Logging (RIL) on the structure and variation of canopy height. What are the effects of logging on canopy height variations and gap size distribution? This article will be submitted for publication in a Forest Ecology and Management journal. In the last part, after a synthesis of the main results, we propose a conclusion.
92

Analyse post-Pareto en optimisation vectorielle stochastique et déterministe : étude théorique et algorithmes. / Post-Pareto Analysis in Stochastic Multi-Objective Optimization : Theoretical Results and Algorithms

Collonge, Julien 12 November 2014 (has links)
Cette thèse relate certains aspects liés à l'analyse post-Pareto issue de Problèmes d'Optimisation Vectorielle Stochastique. Un problème d'optimisation Vectorielle Stochastique consiste à optimiser l'espérance d'une fonction vectorielle aléatoire définie sur un ensemble arbitraire et à valeurs dans un espace sectoriel ordonné. L'ensemble des solutions de ce problème (appelé ensemble de Pareto) est composé des solutions admissibles qui assurent un certain équilibre entre les objectifs : il est impossible d'améliorer la valeur d'un objectif sans détériorer celle d'un autre. D'un point de vue technique, chaque solution de Pareto est acceptable. Nous nous posons alors le problème de la sélection de l'une d'entre elles : en supposant l'existence d'un décideur qui aurait son propre critère de décision, nous considérons le problème post-Pareto Stochastique qui vise à minimiser cette fonctionnelle sur l'ensemble de Pareto associé à un Problème d'Optimisation Vectorielle Stochastique. / This thesis explore related aspects to post-Pareto analysis arising from Stochastic Vector Optimization Problem. A Stochastic Vector Optimization Problem is to optimize a random vector objective function defined on an arbitrary set, and taking values in a partially ordered set. Its solution set (called Pareto set) consists of the feasible solutions which ensure some sort of equilibrium amongst the objectives. That is to say, Pareto solutions are such that noneof the objectives values can be improved further without deterioring another. Technically speaking, each Pareto solution is acceptable. The natural question that arises is : how to choose one solution ? One possible answer is to optimize an other objective over the Pareto set. Considering the existence of a decision-maker with its own criteria, we deal with the post-Pareto Stochastic Optimization Problem of minimizing its real-valued criteria over the Pareto set.
93

Optimisation multicritère sous incertitudes : un algorithme de descente stochastique / Multiobjective optimization under uncertainty : a stochastic descent algorithm

Mercier, Quentin 10 October 2018 (has links)
Cette thèse s’intéresse à l’optimisation multiobjectif sans contrainte lorsque les objectifs sont exprimés comme des espérances de fonctions aléatoires. L’aléa est modélisé par l’intermédiaire de variables aléatoires et on considère qu’il n’impacte pas les variables d’optimisation du problème. La thèse consiste à proposer un algorithme de descente qui permet l’obtention des solutions de Pareto du problème d’optimisation ainsi écrit. En utilisant des résultats d’analyse convexe, il est possible de construire un vecteur de descente commun à l’ensemble des objectifs du problème d’optimisation pour un tirage des variables aléatoires donné. Une suite itérative consistant à descendre dans la direction du vecteur de descente commun calculé au point courant et pour un tirage aléatoire unique et indépendant des variables aléatoires est alors construite. De cette manière, l’estimation coûteuse des espérances à chaque étape du processus d’optimisation n’est pas nécessaire. Il est possible de prouver les convergences en norme et presque sûre de cette suite vers les solutions de Pareto du problème d’optimisation en espérance et d’obtenir un résultat de vitesse de convergence lorsque la suite de pas de descente est bien choisie. Après avoir proposé diverses méthodes numériques d’amélioration de l’algorithme, un ensemble d’essais numériques est mené et les résultats de l’algorithme proposé sont comparés à ceux obtenus par deux autres algorithmes classiques de la littérature. Les résultats obtenus sont comparés par l’intermédiaire de mesures adaptées à l’optimisation multiobjectif et sont analysés par le biais de profils de performance. Des méthodes sont alors proposées pour prendre en compte deux types de contrainte et sont illustrées sur des problèmes d’optimisation de structures mécaniques. Une première méthode consiste à pénaliser les objectifs par l’intermédiaire de fonctions de pénalisation exacte lorsque la contrainte est décrite par une fonction déterministe. Pour les contraintes probabilistes, on propose de remplacer les contraintes par des objectifs supplémentaires, ces contraintes probabilistes étant alors reformulées comme des espérances de fonctions indicatrices, le problème étant résolu à l’aide de l’algorithme proposé dans la thèse sans avoir à estimer les probabilités des contraintes à chaque itération. / This thesis deals with unconstrained multiobjective optimization when the objectives are written as expectations of random functions. The randomness is modelled through random variables and we consider that this does not impact the problem optimization variables. A descent algorithm is proposed which gives the Pareto solutions without having to estimate the expectancies. Using convex analysis results, it is possible to construct a common descent vector that is a descent vector for all the objectives simultaneously, for a given draw of the random variables. An iterative sequence is then built and consists in descending following this common descent vector calculated at the current point and for a single independent draw of the random variables. This construction avoids the costly estimation of the expectancies at each step of the algorithm. It is then possible to prove the mean square and almost sure convergence of the sequence towards Pareto solutions of the problem and at the same time, it is possible to obtain a speed rate result when the step size sequence is well chosen. After having proposed some numerical enhancements of the algorithm, it is tested on multiple test cases against two classical algorithms of the literature. The results for the three algorithms are then compared using two measures that have been devised for multiobjective optimization and analysed through performance profiles. Methods are then proposed to handle two types of constraint and are illustrated on mechanical structure optimization problems. The first method consists in penalising the objective functions using exact penalty functions when the constraint is deterministic. When the constraint is expressed as a probability, the constraint is replaced by an additional objective. The probability is then reformulated as an expectation of an indicator function and this new problem is solved using the algorithm proposed in the thesis without having to estimate the probability during the optimization process.
94

Or Best Offer: A Privacy Policy Negotiation Protocol

Walker, Daniel David 12 July 2007 (has links) (PDF)
Users today are concerned about how their information is collected, stored and used by Internet sites. Privacy policy languages, such as the Platform for Privacy Preferences (P3P), allow websites to publish their privacy practices and policies in machine readable form. Currently, software agents designed to protect users' privacy follow a "take it or leave it" approach when evaluating these privacy policies. This approach is inflexible and gives the server ultimate control over the privacy of web transactions. Privacy policy negotiation is one approach to leveling the playing field by allowing a client to negotiate with a server to determine how that server collects and uses the client's data. We present a privacy policy negotiation protocol, "Or Best Offer", that includes a formal model for specifying privacy preferences and reasoning about privacy policies. The protocol is guaranteed to terminate within three rounds of negotiation while producing policies that are Pareto-optimal, and thus fair to both parties. That is, it remains fair to both the client and the server.
95

Outliers detection in mixtures of dissymmetric distributions for data sets with spatial constraints / Détection de valeurs aberrantes dans des mélanges de distributions dissymétriques pour des ensembles de données avec contraintes spatiales

Planchon, Viviane 29 May 2007 (has links)
In the case of soil chemical analyses, frequency distributions for some elements show a dissymmetrical aspect, with a very marked spread to the right or to the left. A high frequency of extreme values is also observed and a possible mixture of several distributions, due to the presence of various soil types within a single geographical unit, is encountered. Then, for the outliers detection and the establishment of detection limits, an original outliers detection procedure has been developed; it allows estimating extreme quantiles above and under which observations are considered as outliers. The estimation of these detection limits is based on the right and the left of the distribution tails. A first estimation is realised for each elementary geographical unit to determine an appropriate truncation level. Then, a spatial classification allows creating adjoining homogeneous groups of geographical units to estimate robust limit values based on an optimal number of observations. / Dans le cas des analyses chimiques de sols, les distributions de fréquences des résultats présentent, pour certains éléments étudiés, un caractère très dissymétrique avec un étalement très marqué à droite ou à gauche. Une fréquence importante de valeurs extrêmes est également observée et un mélange éventuel de plusieurs distributions au sein dune même entité géographique, lié à la présence de divers types de sols, peut être rencontré. Dès lors, pour la détection des valeurs aberrantes et la fixation des limites de détection, une méthode originale, permettant destimer des quantiles extrêmes au-dessus et en dessous desquelles les observations sont considérées comme aberrantes, a été élaborée. Lestimation des limites de détection est établie de manière distincte à partir des queues des distributions droite et gauche. Une première estimation par entité géographique élémentaire est réalisée afin de déterminer un niveau de troncature adéquat. Une classification spatiale permet ensuite de créer des groupes dentités homogènes contiguës, de manière à estimer des valeurs limites robustes basées sur un nombre dobservations optimal.
96

Multicriteria optimization for managing tradeoffs in radiation therapy treatment planning

Bokrantz, Rasmus January 2013 (has links)
Treatment planning for radiation therapy inherently involves tradeoffs, such as between tumor control and normal tissue sparing, between time-efficiency and dose quality, and between nominal plan quality and robustness. The purpose of this thesis is to develop methods that can facilitate decision making related to such tradeoffs. The main focus of the thesis is on multicriteria optimization methods where a representative set of treatment plans are first calculated and the most appropriate plan contained in this representation then selected by the treatment planner through continuous interpolation between the precalculated alternatives. These alternatives constitute a subset of the set of Pareto optimal plans, meaning plans such that no criterion can be improved without a sacrifice in another. Approximation of Pareto optimal sets is first studied with respect to fluence map optimization for intensity-modulated radiation therapy. The approximation error of a discrete representation is minimized by calculation of points one at the time at the location where the distance between an inner and outer approximation of the Pareto set currently attains its maximum. A technique for calculating this distance that is orders of magnitude more efficient than the best previous method is presented. A generalization to distributed computational environments is also proposed. Approximation of Pareto optimal sets is also considered with respect to direct machine parameter optimization. Optimization of this form is used to calculate representations where any interpolated treatment plan is directly deliverable. The fact that finite representations of Pareto optimal sets have approximation errors with respect to Pareto optimality is addressed by a technique that removes these errors by a projection onto the exact Pareto set. Projections are also studied subject to constraints that prevent the dose-volume histogram from deteriorating. Multicriteria optimization is extended to treatment planning for volumetric-modulated arc therapy and intensity-modulated proton therapy. Proton therapy plans that are robust against geometric errors are calculated by optimization of the worst case outcome. The theory for multicriteria optimization is extended to accommodate this formulation. Worst case optimization is shown to be preferable to a previous more conservative method that also protects against uncertainties which cannot be realized in practice. / En viktig aspekt av planering av strålterapibehandlingar är avvägningar mellan behandlingsmål vilka står i konflikt med varandra. Exempel på sådana avvägningar är mellan tumörkontroll och dos till omkringliggande frisk vävnad, mellan behandlingstid och doskvalitet, och mellan nominell plankvalitet och robusthet med avseende på geometriska fel. Denna avhandling syftar till att utveckla metoder som kan underlätta beslutsfattande kring motstridiga behandlingsmål. Primärt studeras en metod för flermålsoptimering där behandlingsplanen väljs genom kontinuerlig interpolation över ett representativt urval av förberäknade alternativ. De förberäknade behandlingsplanerna utgör en delmängd av de Paretooptimala planerna, det vill säga de planer sådana att en förbättring enligt ett kriterium inte kan ske annat än genom en försämring enligt ett annat. Beräkning av en approximativ representation av mängden av Paretooptimala planer studeras först med avseende på fluensoptimering för intensitetsmodulerad strålterapi. Felet för den approximativa representationen minimeras genom att innesluta mängden av Paretooptimala planer mellan inre och yttre approximationer. Dessa approximationer förfinas iterativt genom att varje ny plan genereras där avståndet mellan approximationerna för tillfället är som störst. En teknik för att beräkna det maximala avståndet mellan approximationerna föreslås vilken är flera storleksordningar snabbare än den bästa tidigare kända metoden. En generalisering till distribuerade beräkningsmiljöer föreslås även. Approximation av mängden av Paretooptimala planer studeras även för direkt maskinparameteroptimering, som används för att beräkna representationer där varje interpolerad behandlingsplan är direkt levererbar. Det faktum att en ändlig representation av mängden av Paretooptimala lösningar har ett approximationsfel till Paretooptimalitet hanteras via en metod där en interpolerad behandlingsplan projiceras på Paretomängden. Projektioner studeras även under bivillkor som förhindrar att den interpolerade planens dos-volym histogram kan försämras. Flermålsoptimering utökas till planering av rotationsterapi och intensitetsmodulerad protonterapi. Protonplaner som är robusta mot geometriska fel beräknas genom optimering med avseende på det värsta möjliga utfallet av de föreliggande osäkerheterna. Flermålsoptimering utökas även teoretiskt till att innefatta denna formulering. Nyttan av värsta fallet-optimering jämfört med tidigare mer konservativa metoder som även skyddar mot osäkerheter som inte kan realiseras i praktiken demonstreras experimentellt. / <p>QC 20130527</p>
97

Efficience et normativité : examen de la légitimité de l'utilisation de la notion d’efficience économique pour l'évaluation de politiques publiques

Letourneux, François 12 1900 (has links)
Ce texte a pour but de monter que l’efficience telle qu’utilisée par les économistes dans le cadre de recommandations de politiques publiques suppose toujours l’adoption de certains critères moraux. Je voudrai d’abord montrer que les recommandations des économistes en matière de politiques publiques ont déjà été identifiées aux recommandations de l’utilitarisme. Plusieurs économistes ont voulu abstraire leur science de toute discussion morale au XXe siècle. Cette séparation entre faits et valeur s’est soldée par l’apparition de l’efficience de Pareto, grandement utilisée dans le cadre de l’économie du bien-être. Cependant, cette utilisation de l’efficience suppose à la fois qu’il est moralement désirable d’améliorer le bien-être des individus et que ce bien-être peut être évalué en termes de satisfaction des préférences, ce qui constitue un jugement de nature éthique et morale qui ne peut être fait seulement à partir de faits scientifiques. L’efficience ne peut plutôt être utilisée de manière non moralement discutable seulement si l’on examine au préalable les objectifs sociaux que l’utilisation de cette mesure présuppose. D’un point de vue scientifique, l’économiste qui veut utiliser une mesure d’efficience doit donc toujours prendre pour acquis les éléments normatifs qui sont intégrés aux calculs d’efficience. La discussion concernant la pertinence de ces objectifs sociaux ainsi que l’importance relative de chacun des objectifs sociaux est une discussion portant avant tout sur des questions morales qui ne sont pas du domaine des sciences économiques. / This text aims to show that efficiency, as used by economists in the context of public policy recommendations, always implies the acceptance of certain moral criterions. I will aim to show that economical recommendations concerning public policy have been identified to utilitarianism in the past. Many economists have then tried to separate their science from debates concerning morals in the XXth century. This separation has had as one of its results the creation of the concept of Pareto efficiency, which has seen wide usage in welfare economics. However, this particular use of efficiency supposes that it is both morally desirable to seek to improve welfare of individuals and that this welfare can be evaluated in terms of preference satisfaction. Both of these affirmations constitute ethical and moral judgements that cannot be made within the sole scope of scientific claims. Efficiency can rather be used in a non-morally controversial way only if the underlying moral considerations are properly identified. A purely scientific use of efficiency needs to take for granted the normative elements implied in measures of efficiency. The determination of the relevance of various social objectives and the relative importance of each of these objectives remains moral questions that cannot be addressed by economics as such.
98

On the ranking property and underlying dynamics of complex systems / Sur la propriété classement et dynamique sous-jacente des systèmes complexes

Deng, Weibing 21 June 2013 (has links)
Des procédures de classement sont largement utilisées pour décrire les phénomènes observés dans de nombreux domaines des sciences sociales et naturelles, par exemple la sociologie, l’économie, la linguistique, la démographie, la physique, la biologie, etc.Dans cette thèse, nous nous sommes attachés à l’étude des propriétés de classement et des dynamiques sous-jacentes intégrées dans les systèmes complexes. En particulier,nous nous sommes concentrés sur les classements par score ou par prix dans les systèmes sportifs et les classements d’utilisation des mots ou caractères dans les langues humaines. Le but est de comprendre les mécanismes sous-jacents à ces questions en utilisant les méthodes de la physique statistique, de la statistique bayésienne et de la modélisation multi-agents. Les résultats concrets concernent les aspects suivants.Nous avons tout d’abord traité une étude sur les classements par score/prix dans les systèmes sportifs et analysé 40 échantillons de données dans 12 disciplines sportives différentes. Nous avons trouvé des similitudes frappantes dans différents sports, à savoir le fait que la répartition des résultats/prix suit les lois puissance universelles.Nous avons également montré que le principe de Pareto est largement respecté dans de nombreux systèmes sociaux: ainsi 20% des joueurs accumulent 80% des scores et de l’argent. Les données concernant les matchs de tennis en individuels nous ont révélé que lorsque deux joueurs s’affrontent, la probabilité que le joueur de rang supérieur gagne est liée à la différence de rang des deux adversaires. Afin de comprendre les origines de la mise à l’échelle universelle, nous avons proposé un modèle multi-agents,qui peut simuler les matchs de joueurs à travers différentes compétitions. Les résultats de nos simulations sont cohérents avec les résultats empiriques. L’extension du domaine d’étude de la simulation indique que le modèle est assez robuste par rapport aux modifications de certains paramètres. La loi de Zipf est le comportement le plus régulièrement observé dans la linguistique statistique. Elle a dès lors servi de prototype pour les relations entre rang d’apparitions et fréquence d’apparitions (relations rang-fréquence dans la suite du texte) et les lois d’échelle dans les sciences naturelles. Nous avons étudié plusieurs textes, précisé le domaine de validité de la loi de Zipf, et trouvé que la plage de validité augmente lors du mélange de différents textes. Basé sur l’analyse sémantique latente, nous avons proposé un modèle probabiliste, dans lequel nous avons supposé que les mots sont ajoutés au texte avec des probabilités aléatoires, tandis que leur densité a priori est liée, via la statistique bayésienne, aux caractéristiques générales du lexique mental de l’auteur de ce même texte. Notre modèle explique la loi de Zipf ainsi que ses limites de validité, et la généralise aux hautes et basses fréquences et au hapax legomena.Dans une autre étude, nous avons précisé les relations rang-fréquence pour les caractères chinois. Nous avons choisi d’étudier des textes courts en premier, car pour le bien de l’analyse rang fréquence, les longs textes ne sont que des mélanges de textes plus courts, thématiquement homogènes. Nos résultats ont montré que la loi de Zipf appliqués aux caractères chinois tient parfaitement pour des textes assez courts (quelques milliers de caractères différents). Le même domaine de validité est observé pour les textes courts anglais. Nous avons soutenu que les longs textes chinois montrent une structure hiérarchique à deux couches: des caractères dont la fréquence d’apparition suit une loi puissance (première couche) et des caractères dont l’apparition suit une loi exponentielle (deuxième couche)... / Ranking procedures are widely used to describe the phenomena in many differentfields of social and natural sciences, e.g., sociology, economics, linguistics, demography,physics, biology, etc. In this dissertation, we dedicated to study the ranking propertiesand underlying dynamics embedded in complex systems. In particular, we focused onthe scores/prizes ranking in sports systems and the words/characters usage ranking inhuman languages. The aim is to understand the mechanisms behind these issues byusing the methods of statistical physics, Bayesian statistics and agent-based modeling.The concrete results concern the following aspects.We took up an interesting topic on the scores/prizes ranking in sports systems, andanalyzed 40 data samples in 12 different sports fields. We found the striking similaritiesin different sports, i.e., the distributions of scores/prizes follow the universal powerlaws. We also showed that the data yielded the Pareto principle extensively observedin many social systems: 20% of the players accumulate 80% of the scores and money.For the tennis head-to-head data, we revealed that when two players compete, theprobability that the higher-ranked player will win is related to the rank difference ofthe two opponents. In order to understand the origins of the universal scaling, weproposed an agent-based model, which can simulate the competitions of players indifferent matches, and results from our simulations are consistent with the empiricalfindings. Extensive simulation studies indicate that the model is quite robust withrespect to the modifications of some parameters.Zipf’s law is the major regularity of statistical linguistics that served as a prototypefor the rank-frequency relations and scaling laws in natural sciences. We investigatedseveral English texts, clarified the valid range of Zipf’s law, and found this valid rangeincreases upon mixing different texts. Based on the latent semantic analysis, we proposeda probabilistic model, in which we assumed that the words are drawn into thetext with random probabilities, while their apriori density relates, via Bayesian statistics,to the general features of mental lexicon of the author who produced the text. Ourmodel explained the Zipf’s law together with the limits of its validity, its generalizationto high and low frequencies and hapax legomena. In another work, we specified the rank-frequency relations for Chinese characters. We chose to study the short texts first, since for the sake of the rank-frequency analysis,long texts are just mixtures of shorter, thematically homogenous pieces. Our resultsshowed that the Zipf’s law for Chinese characters perfectly holds for sufficiently shorttexts (few thousand different characters), and the scenario of its validity is similar tothat for short English texts. We argued long Chinese texts display a two-layer, hierarchicstructure: power-law rank-frequency characters (first layer) and the exponentialones (second layer). The previous results on the invalidity of the Zipf’s law for longtexts are accounted for by showing that in between of the Zipfian range and the regionof very rare characters (hapax legomena) there emerges a range of ranks, wherethe rank-frequency relation is approximately exponential. From comparative analysisof rank-frequency relations for Chinese and English, we suggested the characters playfor Chinese writers the same role as the words for those writing within alphabeticalsystems.
99

Conception de lignes de fabrication sous incertitudes : analyse de sensibilité et approche robuste. / Production line design under uncertainty : sensitivity analysis and robust approach

Gurevsky, Evgeny 13 December 2011 (has links)
Les travaux présentés dans cette thèse portent sur la conception de systèmes de fabrication en contexte incertain. La conception d’un tel système peut être vue comme un problème d’optimisation qui consiste à trouver une configuration qui permet d’optimiser certains objectifs tout en respectant des contraintes technologiques et économiques connues. Les systèmes de fabrication étudiés dans ce mémoire sont des lignes d’assemblage et d’usinage. La première est une ligne qui se présente comme une chaîne de postes de travail où, dans chaque poste, les opérations d’assemblage s’exécutent de manière séquentielle. La deuxième, quant à elle, est une ligne particulière qui se compose de machines de transfert comportant plusieurs boîtiers multibroches où les opérations s’exécutent simultanément. Dans un premier temps, nous décrivons de différentes approches permettant de modéliser l’incertitude des données en optimisation. Une attention particulière est portée sur les deux approches suivantes : l’approche robuste et l’analyse de sensibilité. Puis, nous présentons trois applications : la conception d’une ligne d’assemblage et d’une ligne d’usinage soumises aux variations de temps opératoires et la conception d’une ligne d’assemblage avec les temps opératoires connus sous la forme d’intervalles des valeurs possibles. Pour chaque application, nous identifions les performances attendues ainsi que la complexité de la prise en compte de l’incertitude. Ensuite, nous proposons de nouveaux critères d’optimisation en adéquation avec la problématique introduite. Enfin des méthodes de résolution sont développées pour appréhender les différents problèmes mis en évidence par ces critères. / The presented work deals with the design of production systems in uncertain context. The design of such systems can be interpreted as an optimization problem that consists to find a configuration optimizing certain objectives and respecting technological and economical constraints. The production systems studied in this thesis are the assembly and transfer lines. The first one is the line that can be represented as a flow-oriented chain of workstations where, at each workstation, the tasks are executed in a sequential manner. The second is a particular line that is composed of transfer machines including several multi-spindle heads where the tasks are executed simultaneously. At first, we describe different approaches that permit to model the uncertainty of data in optimization. A particular attention is attracted to two following approaches: robust approach and sensitivity analysis. Then, we present three applications: the design of assembly and transfer lines under variations of task processing times and the design of an assembly line with interval task processing times. For each application, we identify the expected performances as well as the complexity of taking into account the uncertainty. Thereafter, we propose some new optimization criteria in adequacy with the introduced problematic. Finally, resolution methods are developed to solve different problems engendered by these criteria.
100

Représentations discrètes de l'ensemble des points non dominés pour des problèmes d'optimisation multi-objectifs / Discrete representations of the nondominated set for multi-objective optimization problems

Jamain, Florian 27 June 2014 (has links)
Le but de cette thèse est de proposer des méthodes générales afin de contourner l’intractabilité de problèmes d’optimisation multi-objectifs.Dans un premier temps, nous essayons d’apprécier la portée de cette intractabilité en déterminant une borne supérieure, facilement calculable, sur le nombre de points non dominés, connaissant le nombre de valeurs prises par chaque critère.Nous nous attachons ensuite à produire des représentations discrètes et tractables de l’ensemble des points non dominés de toute instance de problèmes d’optimisation multi-objectifs. Ces représentations doivent satisfaire des conditions de couverture, i.e. fournir une bonne approximation, de cardinalité, i.e. ne pas contenir trop de points, et si possible de stabilité, i.e. ne pas contenir de redondances. En s’inspirant de travaux visant à produire des ensembles ε-Pareto de petite taille, nous proposons tout d’abord une extension directe de ces travaux, puis nous axons notre recherche sur des ensembles ε-Pareto satisfaisant une condition supplémentaire de stabilité. Formellement, nous considérons des ensembles ε-Pareto particuliers, appelés (ε, ε′)-noyaux, qui satisfont une propriété de stabilité liée à ε′. Nous établissons des résultats généraux sur les (ε, ε′)-noyaux puis nous proposons des algorithmes polynomiaux qui produisent des (ε, ε′)-noyaux de petite taille pour le cas bi-objectif et nous donnons des résultats négatifs pour plus de deux objectifs. / The goal of this thesis is to propose new general methods to get around the intractability of multi-objective optimization problems.First, we try to give some insight on this intractability by determining an, easily computable, upper bound on the number of nondominated points, knowing the number of values taken on each criterion. Then, we are interested in producingsome discrete and tractable representations of the set of nondominated points for each instance of multi-objective optimization problems. These representations must satisfy some conditions of coverage, i.e. providing a good approximation, cardinality, i.e. it does not contain too many points, and if possible spacing, i.e. it does not include any redundancies. Starting from works aiming to produce ε-Pareto sets of small size, we first propose a direct extension of these works then we focus our research on ε-Pareto sets satisfying an additional condition of stability. Formally, we consider special ε-Pareto sets, called (ε, ε′)-kernels, which satisfy a property of stability related to ε′. We give some general results on (ε, ε′)-kernels and propose some polynomial time algorithms that produce small (ε, ε′)-kernels for the bicriteria case and we give some negative results for the tricriteria case and beyond.

Page generated in 0.0591 seconds