• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 6
  • 4
  • 2
  • 2
  • Tagged with
  • 49
  • 22
  • 9
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Approches de résolution pour la construction d'horaires de travail avec partage de ressources

Dahmen, Sana 29 June 2018 (has links)
Cette thèse porte sur le problème de construction de quarts de travail personnalisés sur plusieurs jours et dans un contexte multidépartement. Les environnements de travail étudiés divisent l’organisation en un ensemble de départements. Chaque département est spécialisé dans l’accomplissement d’une fonction particulière et dispose de ses propres ressources humaines. La demande de chaque département fluctue au cours de la journée. Les hausses dans certains départements peuvent coïncider avec les baisses dans d’autres. En présence de ces fluctuations de demande, les employés possédant les qualifications requises peuvent être transférés vers les départements les plus sollicités. Dans ce cadre, cette thèse permet de bien définir le contexte multidépartement et recense un ensemble générique de règles de travail et de transfert requises pour la construction des horaires dans un tel contexte. Les environnements d’opération sont hautement flexibles. Le problème étudié implique un haut niveau d’intégration décisionnelle et permet de tenir compte de plusieurs aspects réalistes. Les niveaux décisionnels intégrés concernent : la construction de quarts de travail, la liaison entre les quarts qui composent les cycles de travail, l’affectation des horaires aux employés et le placement des départements de travail dans l’horaire de chaque employé. Le problème de construction d’horaires traité dans cette thèse permet de spécifier, pour chaque employé individuel de l’organisation, les heures de début et les durées de travail durant les jours travaillés de son cycle, et la composition de ces plages horaires en termes de départements. La liaison entre les quarts doit respecter un ensemble de réglementations pour garantir l’admissibilité de l’horaire. La main d’oeuvre est hétérogène et possède des qualifications multiples pour les départements. Pour fournir un outil d’aide à la décision aux organisations évoluant dans le contexte multidépartement, nous proposons différentes approches d’optimisation basées sur la programmation linéaire en nombres entiers. Pour modéliser le problème, une approche classique consiste à énumérer l’ensemble des horaires explicites respectant les règles de travail et de transfert. Un modèle de couverture généralisée permet de sélectionner un ensemble optimisé d’horaires afin de satisfaire à la demande. Cette approche classique ne présente pas une alternative viable pour le problème étudié car le modèle est trop gros et trop long à résoudre. Par conséquent, nous proposons principalement trois approches de modélisation permettant de réduire la taille des formulations obtenues... / This dissertation addresses the personalized multi-day shift scheduling problem in a multidepartment context. In this context, the organisation is divided into a set of departments. Each department specializes in performing a specific function and has its own human resources. The staff demand in each department fluctuates throughout the day. An increase in demand in some departments may be accompanied by a decrease in others. Thus, the employees working in over-covered and possessing the skills required can be transferred to under-covered departments . This dissertation’s first objective is to adequately define the multi-department context and establish a generic set of work and transfer rules that are appropriate for the problem. The operating environments considered are highly flexible. The problem we focus on takes into account multiple aspects of real-life applications and involves a high level of integration of several steps from the decision-making process. These steps are: the shift scheduling, the line of work construction, the staff assignment and the department assignment. The problem consists in specifying, for each employee, daily work start times and durations in each working day as well as the composition of working periods in terms of departments. The sequence of shifts assigned to the same employee during the planning horizon must meet some work regulations. This problem becomes harder when multi-skill employees can work in different departments during the same shift. In order to develop a decision support tool to assist the multi-department organisations, we propose optimisation approaches based on linear integer programming and decomposition techniques. To model the problem, a classical approach consists of generating all feasible explicit schedules. A set covering model is used to select the optimal set of schedules satisfying a given set of regulations and covering the workforce demand. This conventional approach is not a viable alternative to solve the problem because of its large size. Therefore, we develop mainly three modelling approaches to reduce the size of the problem. The first approach enumerates all possible explicit shifts and links implicitly between them. Most of the papers interested in multi-department context impose full-day transfers. We introduce a new option more flexible that uses the concept of working blocks. A block is a set of consecutive periods worked in the same department during the shift. The employee can therefore start or finish the shift with a transfer block...
22

Etude asymptotique et multiplicité pour l'équation de Sobolev Poincaré

Dellinger, Marie 30 March 2007 (has links) (PDF)
Sur une variété riemanienne compacte de dimension supérieure à 3,<br />on considère une edp elliptique non linéaire à exposant critique particulière : l'équation de Sobolev Poincaré. D'une part, nous décrivons le comportement asymptotique d'une suite de solutions de cette équation grâce à une analyse fine de phénomènes de concentration. D'autre part, en imposant des invariances par des groupes d'isométries, nous montrons des résultats de multiplicité de solutions pour cette équation. Notre méthode permet aussi d'obtenir des multiplicités de solutions pour des équations plus classiques provenant du problème deYamabe et de Nirenberg, ainsi que <br /> pour des équations à exposants sur critiques. Notre travail est intimement lié à la description des meilleures constantes dans des inégalités fonctionnelles de Sobolev associées aux équations.
23

Multiplicité et sensation dans l'oeuvre d'Aida Makoto : une approche schizo-analytique

Davre, Amandine 08 1900 (has links)
La question posée dans ce mémoire de recherche concerne l’artiste contemporain japonais Aida Makoto, comme figure provocante et ironique, remettant en question les appareils de répression et d’aliénation de la société capitaliste japonaise. L’objectif de ma réflexion est de montrer l’apport de la schizo-analyse dans l’analyse d’œuvres plastiques comportant des prédispositions à l’utilisation de celle-ci. À travers les œuvres de l’artiste Aida Makoto où une multiplicité de corps emplit l’espace de la toile, et à partir des concepts de multiplicité et de sensation théorisés par Gilles Deleuze et Félix Guattari, la recherche apportera une seconde lecture aux œuvres de cet artiste en mettant en avant les aspects révolutionnaires de sa création artistique. Constitué de deux chapitres, le mémoire porte dans un premier temps sur la picturalité de l’œuvre, d’ordre technique, esthétique et éthique, en mettant en avant les composés de sensation présents sur la toile, ceci afin, dans un second temps, d’appréhender la figuration, de la visagéité à la multiplicité, comme aspect central de l’œuvre. Ainsi, la Figure, au sens deleuzien du terme, permettrait à l’artiste Aida Makoto d’entamer une fuite schizophrénique à l’occasion de laquelle il pourra créer à l’abri de toute répression ou normalisation de ses machines désirantes par la société capitaliste japonaise. / The question posed in the research concerns the contemporary Japanese artist Aida Makoto, as a provocative and ironic figure, challenging the machinery of repression and alienation of the Japanese capitalist society. The purpose of my reflection is to show the contribution of schizoanalysis in the analysis of visual artworks. Through the artworks of the artist Aida Makoto, where a multiplicity of bodies fill the space of the canvas, and from the concepts of multiplicity and sensation, theorized by Gilles Deleuze and Félix Guattari, this research will bring a second reading to Aida’s works highlighting the revolutionary aspects of his artistic creation. Constituted of two chapters, the thesis focuses mainly on the pictoriality of the work from technical, aesthetic and ethics points of view, emphasizing the compounds of sensation present on the canvas, in order to, secondly, understand the figuration of faciality to multiplicity as a central aspect of the work. Thus the Figure, in the deleuzian sense, would allow the artist Makoto Aida to start a schizophrenic escape during which he can create freely from repression and normalization of desiring machines in the Japanese capitalist society.
24

Autour des automates : génération aléatoire et contribution à quelques extensions / On the subject of automata : random generation and contribution to some extensions

Carnino, Vincent 05 December 2014 (has links)
Le sujet de cette thèse se divise en trois parties: les deux premières traitent chacune d'une extension du modèle utilisé en théorie des automates, tandis que la dernière aborde une partie plus concrète qui consiste à générer des automates avec des propriétés particulières. Tout d'abord, nous donnons une extension du concept d'automate universel, défini sur les mots finis, aux omega-langages. Pour cela, nous avons défini une forme normale pour tenir compte de la spécificité du mode d'acceptation des automates de Büchi qui nous permettent de reconnaître les omega-langages. Ensuite nous avons défini deux types d'omega-factorisations, "classiques" et "pures", qui sont des extensions du concept de factorisation d'un langage, ce qui nous a permis de définir l'automate universel d'un omega-langage. Nous avons prouvé que ce dernier dispose bien des différentes propriétés attendues: il est le plus petit automate de Büchi reconnaissant l'omega-langage et qui possède la propriété d'universalité (moyennant la forme normale). Nous présentons également une méthode pour calculer efficacement les omega-factorisations maximales d'un langage à partir d'un automate prophétique reconnaissant le dit langage. Dans la seconde partie, nous traitons le cas des automates bidirectionnels à multiplicité dans un semi-anneau. Dans un premier temps, nous donnons une version légérement différente de la construction permettant de passer d'un automate bidirectionnel à multiplicité à un automate unidirectionnel à multiplicité et nous prouvons qu'elle préserve la non-ambiguïté mais pas le déterminisme. Nous montrons, également à l'aide d'une construction, que les automates bidirectionnels à multiplicité non-ambigus sont équivalents aux automates unidirectionnels à multiplicité déterministes. Dans un second temps, nous nous concentrons sur les semi-anneaux tropicaux (ou min-+). Nous montrons que sur N-min-+, les automates bidirectionnels sont équivalents aux automates unidirectionnels. Nous montrons également que sur Z-min-+, les automates bidirectionnels n'ont pas toujours un comportement défini et que cette propriété est décidable tandis qu'il n'est pas décidable s'il existe un mot pour lequel le comportement est défini. Dans la dernière partie, nous proposons un algorithme de génération aléatoire d'automate acycliques, accessibles et déterministes ainsi que d'automates acycliques minimaux avec une distribution qui est quasiment uniforme, tout cela à l'aide de chaîne de Markov. Nous prouvons l'exactitude de chacun de ces deux algorithmes et nous expliquons comment adapter en tenant compte de contraintes sur l'ensemble des états finals / The subject of this thesis is decided into three parts: two of them are about extensions of the classical model in automata theory, whereas the third one is about a more concrete aspect which consists in randomly generate automata with specific properties. We first give an extension of the universal automaton on finite words to infinite words. To achieve this, we define a normal form in order to take account of the specific acceptance mode of Büchi automata which recognize omega-langages. Then we define two kinds of omega-factorizations, a "regular" one and the "pure" kind, which are both extensions of the classical concept of factorization of a language. This let us define the universal automaton of an omega-language. We prove that it has all the required properties: it is the smallest Buchi automaton, in normal form, that recognizes the omega-language and which has the universal property. We also give an effective way to compute the "regular" omega-factorizations of a language using a prophetic automaton recognizing the language. In the second part, we deal with two-way automata weighted over a semi ring. First, we give a slightly different version of the computation of a weighted one-way automaton from a weighted two-way automaton and we prove that it preserves the non-ambiguity but not the determinism. We prove that non-ambiguous weighted two-way automata are equivalent to deterministic weighted one-way automata. In a later part, we focus on tropical semi rings (or min-+). We prove that two-way automata on N-min-+ are equivalent to one-way automata on N-min-+. We also prove that the behavior of two-way automata on Z-min-+ are not always defined and that this property is decidable whereas it is undecidable whether or not there exists a word on which the behavior is defined. In the last section, we propose an algorithm in order to randomly generate acyclic, accessible and determinist automata and minimal acyclic automata with an almost uniform distribution using Morkov chains. We prove the reliability of both algorithms and we explain how to adapt them in order to fit with constraints on the set of final states
25

Surfaces multi-toriques, obstruction d' Euler et applications / Multitoric surfaces, Euler obstruction and applications

Dalbelo, Thais maria 24 October 2014 (has links)
Dans ce travail, nous étudions les surfaces dont les composantes irréductibles sont des surfaces toriques. En particulier, nous donnons une formule pour calculer l'obstruction d'Euler locale de ces surfaces. Comme application de cette formule, nous calculons l'obstruction d'Euler locale pour certaines familles de surfaces déterminantales. De plus, nous définissons et donnons une formule pour calculer la caractéristique d'Euler évanescente d'une surface torique normale $X_{sigma}$. Nous montrons que ce nombre est relié à la seconde multiplicité polaire de $X_{sigma}$. Nous présentons aussi une formule pour l'obstruction d'Euler d'une fonction $f: X_{sigma} to mathbb{C}$ et pour le nombre de Brasselet d'une telle fonction. Comme application de ce résultat nous calculons l'obstruction d'Euler d'un type de polynôme sur une famille de surfaces déterminantales. / In this work we study surfaces with the property that their irreducible components are toric surfaces. In particular, we present a formula to compute the local Euler obstruction of such surfaces. As an application of this formula we compute the local Euler obstruction for some families of determinantal surfaces. Furthermore, we define the vanishing Euler characteristic of a normal toric surface $X_{sigma}$, we give a formula to compute it, and we relate this number with the second polar multiplicity of $X_{sigma}$. We also present a formula for the Euler obstruction of a function $f: X_{sigma} to mathbb{C}$ and for the Brasselet number of it. As an application of this result we compute the Euler obstruction of a type of polynomial on a family of determinantal surfaces.
26

«Sur la figure des colonnes» de Lagrange revisité

Huot-Chantal, Francis 01 1900 (has links)
No description available.
27

Coulex fission of ²³⁴U, ²³⁵U, ²³⁷Np and ²³⁸Np studied within the SOFIA experimental program / Étude de la fission par excitation coulombienne des noyaux ²³⁴U, ²³⁵U, ²³⁷Np and ²³⁸Np dans le cadre du programme expérimental SOFIA

Martin, Julie-Fiona 28 November 2014 (has links)
SOFIA (Studies On FIssion with Aladin - Études de fission avec ALADIN) est un projet expérimental qui se propose de mesurer systématiquement les rendements isotopiques de fission, ainsi que l'énergie cinétique totale des fragments, pour une large gamme de noyaux fissionnants. Le travail de thèse présenté ici prend part au projet SOFIA, et a pour objet l'étude de la fission de noyaux dans la région des actinides : ²³⁴U, ²³⁵U, ²³⁷Np et ²³⁸Np.L'expérience SOFIA est menée au GSI, un accélérateur d'ions lourds situé à Darmstadt en Allemagne. Cette installation fournit un faisceau relativiste et intense d'uranium-238. Par une réaction de fragmentation de ce faisceau primaire, il est créé un faisceau secondaire contenant une large variété d'ions, dont, pour certains, la fission va être étudiée. Les ions de ce faisceau secondaire sont triés et identifiés dans le séparateur de fragments FRS, un spectromètre de recul de haute résolution qui est réglé pour sélectionner les ions d'intérêt.Ensuite, les ions fissiles sélectionnés continuent leur vol jusqu'à la Cave-C, une aire expérimentale où l'expérience de fission elle-même a lieu. À l'entrée de la cave, l'ion du faisceau secondaire est excité par interaction Coulombienne alors qu'il traverse une cible; les voies de dé-excitation possibles incluent la fission de basse énergie. Lors d'une fission, les deux fragments sont émis dans un cône étroit dans le référentiel du laboratoire, dû à l'impulsion relativiste qui leur est transmise par le système fissionnant. Un spectromètre de recul complet a été développé par la collaboration SOFIA autour du dipôle existant ALADIN. L'identification des fragments est réalisée par des mesures de perte d'énergie, de temps de vol et de déviation dans l'aimant. Les deux fragments de fission sont identifiés simultanément et complètement (en masse et en charge). Ce document présente l'analyse menée pour (1) l'identification du système fissionnant, (2) l'identification des deux fragments de fission - évènements par évènements -, et (3) l'extraction des observables de fission : rendements, énergie cinétique totale, multiplicité total en neutrons prompts. Ces résultats concernant les actinides sont discutés, et l'ensemble des données extraites est fourni. / SOFIA (Studies On FIssion with Aladin) is an experimental project which aims at systematically measuring the fission fragments' isotopic yields as well as their total kinetic energy, for a wide variety of fissioning nuclei. The PhD work presented in this dissertation takes part in the SOFIA project, and covers the fission of nuclei in the region of the actinides : ²³⁴U, ²³⁵U, ²³⁷Np and ²³⁸Np.The experiment is led at the heavy-ion accelerator GSI in Darmstadt, Germany. This facility provides intense relativistic primary beam of 238U. A fragmentation reaction of the primary beam permits to create a secondary beam of radioactive ions, some of which the fission is studied. The ions of the secondary beam are sorted and identified through the FR-S (FRagment Separator), a high resolution recoil spectrometer which is tuned to select the ions of interest.The selected - fissile - ions then fly further to Cave-C, an experimental area where the fission experiment itself takes place. At the entrance of the cave, the secondary beam is excited by Coulomb interaction when flying through an target; the de-excitation process involves low-energy fission. Both fission fragments fly forward in the laboratory frame, due to the relativistic boost inferred from the fissioning nucleus.A complete recoil spectrometer has been designed and built by the SOFIA collaboration in the path of the fission fragments, around the existing ALADIN magnet. The identification of the fragments is performed by means of energy loss, time of flight and deviation in the magnet measurements. Both fission fragments are fully (in mass and charge) and simultaneously identified.This document reports on the analysis performed for (1) the identification of the fissioning system, (2) the identification of both fission fragments, on an event-by-event basis, and (3) the extraction of fission observables: yields, TKE, total prompt neutron multiplicity. These results, concerning the actinides, are discussed, and the set of data extracted is provided.
28

Étude de Quelques Problèmes Quasilinéaires Elliptiques Singuliers

Saoudi, Kamel 26 June 2009 (has links) (PDF)
L'objet de cette thèse concerne l' étude de quelques problèmes elliptiques singuliers. Dans les problémes que nous avons considérés, ce caractère singulier se caractérise par la présence d'une nonlinéarité qui explose au bord du domaine où le problème est posé. Plus précisément, dans le chapitre 2, nous abordons la question de la multiplicité de solutions pour un problème elliptique critique singulier en dimension $N\geq 3$. Dans le chapitre 3, Nous discutons la validité de la propriété $C^1$ versus $W^{1,p}_0 $ minimiseurs de l' énergie pour un problème quasilinéaire elliptique singulier. Enfin, dans le chapitre 4, nous présentons des résultats de bifurcation globale pour un problème semilinéaire elliptique singulier et critique en dimension 2 avec croissance sur-exponentielle.
29

Sélection de modèles semi-paramétriques

Liquet, benoit 11 December 2002 (has links) (PDF)
Cette thèse développe des méthodes de sélection de modèles pour des applications en Biostatistique et plus particulièrement dans le domaine médical. Dans la première partie, nous proposons une méthode et un programme de correction du niveau de signification d'un test lorsque plusieurs codages d'une variable explicative sont essayés. Ce travail est réalisé dans le cadre d'une régression logistique et appliqué à des données sur la relation entre cholestérol et démence. La deuxième partie de la thèse est consacrée au développement d'un critère d'information général permettant de sélectionner un estimateur parmi une famille d'estimateurs semi-paramétriques. Le critère que nous proposons est basé sur l'estimation par bootstrap de l'information de Kullback-Leibler. Nous appliquons ensuite ce critère à la modélisation de l'effet de l'amiante sur le risque de mésothéliome et nous comparons cette approche à la méthode de sélection de Birgé-Massart. Enfin, la troisième partie présente un critère de sélection en présence des données incomplètes. Le critère proposé est une extension du critère developpé dans la deuxième partie. Ce critère, construit sur l'espérance de la log-vraisemblance observée, permet en particulier de sélectionner le paramètre de lissage dans l'estimation lisse de la fonction de risque et de choisir entre des modèles stratifiés et des modèles à risques proportionnels. Nous avons notamment appliqué cette méthode à la modélisation de l'effet du sexe et du niveau d'éducation sur le risque de démence.
30

Étude du taux de production des J/psi et muons simples en collisions proton-proton à l'aide du spectromètre à muons de l'expérience ALICE au LHC

Lenhardt, Matthieu 08 December 2011 (has links) (PDF)
Le plasma de quarks et de gluons est un état de la matière apparaissant à haute température. En laboratoire, il est possible d'atteindre les conditions nécessaires à sa formation grâce aux collisions d'ions lourds aux énergies ultra-relativistes. L'expérience ALICE au LHC est dédiée à l'étude du plasma de quarks et de gluons grâce aux collisions Pb-Pb à 2,76 TeV. Les premiers résultats d'ALICE, presentés en annexe, ont été obtenus grâce aux rayons cosmiques. Une étude de l'évolution de l'efficacité de reconstruction du spectromètre à muons durant ses deux premières années de fonctionnement sera présentée par la suite. L'efficacité totale de reconstruction des chambres de trajectographie ainsi obtenue est de plus de 90% pour les données correspondant à des collisions proton-proton, et de 85% pour les données recueillies avec des collisions plomb-plomb. Une méthode de sélection des traces reposant sur la distribution du produit impulsion - distance d'approche minimale sera également présentée. Cette sélection permet de rejeter les traces de muons produits par des collisions entre les particules du faisceau et le gaz résiduel dans le tube faisceau, et les fausses traces dans les collisions Pb-Pb les plus centrales. Enfin, cette thèse présentera une première analyse sur le taux de production des muons simples et des J/psi en fonction de la multiplicité en particules chargées lors des collisions proton-proton.

Page generated in 0.4395 seconds