• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 9
  • 1
  • Tagged with
  • 37
  • 16
  • 9
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Meta-Learning as a Markov Decision Process / Meta-Learning en tant que processus de décision Markovien

Sun-Hosoya, Lisheng 19 December 2019 (has links)
L'apprentissage automatique (ML) a connu d'énormes succès ces dernières années et repose sur un nombre toujours croissant d'applications réelles. Cependant, la conception d'algorithmes prometteurs pour un problème spécifique nécessite toujours un effort humain considérable. L'apprentissage automatique (AutoML) a pour objectif de sortir l'homme de la boucle. AutoML est généralement traité comme un problème de sélection d’algorithme / hyper-paramètre. Les approches existantes incluent l’optimisation Bayésienne, les algorithmes évolutionnistes et l’apprentissage par renforcement. Parmi eux, auto-sklearn, qui intègre des techniques de meta-learning à l'initialisation de la recherche, occupe toujours une place de choix dans les challenges AutoML. Cette observation a orienté mes recherches vers le domaine du meta-learning. Cette orientation m'a amené à développer un nouveau cadre basé sur les processus de décision Markovien (MDP) et l'apprentissage par renforcement (RL). Après une introduction générale (chapitre 1), mon travail de thèse commence par une analyse approfondie des résultats du Challenge AutoML (chapitre 2). Cette analyse a orienté mon travail vers le meta-learning, menant tout d’abord à proposer une formulation d’AutoML en tant que problème de recommandation, puis à formuler une nouvelle conceptualisation du problème en tant que MDP (chapitre 3). Dans le cadre du MDP, le problème consiste à remplir de manière aussi rapide et efficace que possible une matrice S de meta-learning, dans laquelle les lignes correspondent aux tâches et les colonnes aux algorithmes. Un élément de matrice S (i, j) est la performance de l'algorithme j appliqué à la tâche i. La recherche efficace des meilleures valeurs dans S nous permet d’identifier rapidement les algorithmes les mieux adaptés à des tâches données. Dans le chapitre 4, nous examinons d’abord le cadre classique d’optimisation des hyper-paramètres. Au chapitre 5, une première approche de meta-learning est introduite, qui combine des techniques d'apprentissage actif et de filtrage collaboratif pour prédire les valeurs manquantes dans S. Nos dernières recherches appliquent RL au problème du MDP défini pour apprendre une politique efficace d’exploration de S. Nous appelons cette approche REVEAL et proposons une analogie avec une série de jeux pour permettre de visualiser les stratégies des agents pour révéler progressivement les informations. Cette ligne de recherche est développée au chapitre 6. Les principaux résultats de mon projet de thèse sont : 1) Sélection HP / modèle : j'ai exploré la méthode Freeze-Thaw et optimisé l'algorithme pour entrer dans le premier challenge AutoML, obtenant la 3ème place du tour final (chapitre 3). 2) ActivMetaL : j'ai conçu un nouvel algorithme pour le meta-learning actif (ActivMetaL) et l'ai comparé à d'autres méthodes de base sur des données réelles et artificielles. Cette étude a démontré qu'ActiveMetaL est généralement capable de découvrir le meilleur algorithme plus rapidement que les méthodes de base. 3) REVEAL : j'ai développé une nouvelle conceptualisation du meta-learning en tant que processus de décision Markovien et je l'ai intégrée dans le cadre plus général des jeux REVEAL. Avec un stagiaire en master, j'ai développé des agents qui apprennent (avec l'apprentissage par renforcement) à prédire le meilleur algorithme à essayer. Le travail présenté dans ma thèse est de nature empirique. Plusieurs méta-données du monde réel ont été utilisées dans cette recherche. Des méta-données artificielles et semi-artificielles sont également utilisées dans mon travail. Les résultats indiquent que RL est une approche viable de ce problème, bien qu'il reste encore beaucoup à faire pour optimiser les algorithmes et les faire passer à l’échelle aux problèmes de méta-apprentissage plus vastes. / Machine Learning (ML) has enjoyed huge successes in recent years and an ever- growing number of real-world applications rely on it. However, designing promising algorithms for a specific problem still requires huge human effort. Automated Machine Learning (AutoML) aims at taking the human out of the loop and develop machines that generate / recommend good algorithms for a given ML tasks. AutoML is usually treated as an algorithm / hyper-parameter selection problems, existing approaches include Bayesian optimization, evolutionary algorithms as well as reinforcement learning. Among them, auto-sklearn which incorporates meta-learning techniques in their search initialization, ranks consistently well in AutoML challenges. This observation oriented my research to the Meta-Learning domain. This direction led me to develop a novel framework based on Markov Decision Processes (MDP) and reinforcement learning (RL).After a general introduction (Chapter 1), my thesis work starts with an in-depth analysis of the results of the AutoML challenge (Chapter 2). This analysis oriented my work towards meta-learning, leading me first to propose a formulation of AutoML as a recommendation problem, and ultimately to formulate a novel conceptualisation of the problem as a MDP (Chapter 3). In the MDP setting, the problem is brought back to filling up, as quickly and efficiently as possible, a meta-learning matrix S, in which lines correspond to ML tasks and columns to ML algorithms. A matrix element S(i, j) is the performance of algorithm j applied to task i. Searching efficiently for the best values in S allows us to identify quickly algorithms best suited to given tasks. In Chapter 4 the classical hyper-parameter optimization framework (HyperOpt) is first reviewed. In Chapter 5 a first meta-learning approach is introduced along the lines of our paper ActivMetaL that combines active learning and collaborative filtering techniques to predict the missing values in S. Our latest research applies RL to the MDP problem we defined to learn an efficient policy to explore S. We call this approach REVEAL and propose an analogy with a series of toy games to help visualize agents’ strategies to reveal information progressively, e.g. masked areas of images to be classified, or ship positions in a battleship game. This line of research is developed in Chapter 6. The main results of my PhD project are: 1) HP / model selection: I have explored the Freeze-Thaw method and optimized the algorithm to enter the first AutoML challenge, achieving 3rd place in the final round (Chapter 3). 2) ActivMetaL: I have designed a new algorithm for active meta-learning (ActivMetaL) and compared it with other baseline methods on real-world and artificial data. This study demonstrated that ActiveMetaL is generally able to discover the best algorithm faster than baseline methods. 3) REVEAL: I developed a new conceptualization of meta-learning as a Markov Decision Process and put it into the more general framework of REVEAL games. With a master student intern, I developed agents that learns (with reinforcement learning) to predict the next best algorithm to be tried. To develop this agent, we used surrogate toy tasks of REVEAL games. We then applied our methods to AutoML problems. The work presented in my thesis is empirical in nature. Several real world meta-datasets were used in this research. Artificial and semi-artificial meta-datasets are also used in my work. The results indicate that RL is a viable approach to this problem, although much work remains to be done to optimize algorithms to make them scale to larger meta-learning problems.
12

Stratégies innovantes pour une valorisation d’extraits de plantes en cosmétique : Mise en oeuvre d’un outil de profilage métabolique et recherche de nouvelles activités biologiques / Innovative strategies for a valorization of plant extracts in cosmetic : development of a tool for metabolic profiling and search for new biological activities

Jouravel, Glorianne 11 June 2018 (has links)
La cosmétique valorise des extraits de plantes en les intégrant dans des produits de soin. Ces extraits constituent les ingrédients actifs de la formule cosmétique. Les plantes sont diverses, riches et contiennent de nombreux composés d’intérêt biologique. La phytochimie s’intéresse à décrire le contenu métabolique d’extraits de plantes. Mais la caractérisation moléculaire de ces matrices complexes reste un défi majeur aujourd’hui. En effet, les étapes de traitements de données sont longues et laborieuses. Un outil de profilage métabolique, GAINS, a ainsi été développé afin de traiter de façon automatisée les données issues d’analyses en chromatographie liquide couplée à la spectrométrie de masse haute résolution. Il constitue un support au phytochimiste car le traitement automatisé des données permet de gagner du temps par rapport à un traitement manuel. Cet outil associé à une vaste base de données de produits naturels permet d’attribuer des candidats potentiels aux pics détectés. GAINS fait aussi appel à un module de fragmentation in silico afin d’étayer les propositions de candidats. Cela permet de comparer le spectre de fragmentation modélisé des candidats avec le spectre de fragmentation expérimental.L’ensemble des études phytochimiques réalisées pour identifier ou isoler des composés va de pair avec l’étude du potentiel d’effet biologique des extraits sur la peau, organe ciblé par les cosmétiques. Cela sert à découvrir les actions bénéfiques que peut avoir l’extrait. En connaissant le contenu phytochimique, on peut expliquer et rationaliser les tests d’activités biologiques. Le développement d’un actif anti-âge à partir de la salicaire, une plante de la région Centre-Val de Loire, en est l’exemple. / The cosmetic field valorizes plant extracts by integrating them in care products. These extracts constitute the active ingredients of the cosmetic formulation. Plants are diverse, rich and contain numerous compounds of biological interest. Phytochemistry is a way to describe the metabolic content of plant extracts. But molecular characterization of these complex matrices remains a major challenge nowadays. Indeed,steps of data treatment are time-consuming and laborious. In this way, a tool of metabolic profiling, GAINS, has been developed in order to treat in an automatized way data from analyses performed in liquid chromatography coupled with high-resolution mass spectrometry. It constitutes a real support for phytochemists because automatized data treatment allows gaining time compared to manual treatment. This tool, associated with a large database of natural compounds make possible to assign potential candidates to detected peaks. GAINS appeals a module of in silico fragmentation for holding candidates assignments up.This permits to compare modeled spectrum of fragmentation of candidates with experimental spectrum off ragmentation.The whole set of phytochemical studies realized to identify or isolate compounds goes hand in hand with the study of potential biological effects of extracts to the skin, targeted organ by skin-care products. This allows the discovery of beneficial actions that the extract could have. By knowing the phytochemical content, it is possible to explain and rationalize assays about biological activities. The development of an anti-aging ingredient from purple loosestrife, a plant occurring in the region Centre-Val de Loire, is an example of it.
13

Une étude du rôle des connecteurs dans le discours explicatif en anglais contemporain / Investigating the role of connectives in explanatory discourse in contemporary english

Bourse, Sarah 13 July 2017 (has links)
Cette recherche porte sur la réalisation linguistique de l’explication en anglais contemporain. À la suite d’un travail définitoire de la notion sont identifiés deux types d’explication: la clarification et l’explication causale. L’étude adopte une approche énonciative tout en offrant des considérations d’ordre pragmatique. L’analyse linguistique se fonde sur un corpus de textes didactiques et examine plus particulièrement le rôle des connecteurs dans le discours explicatif. Enfin, ce travail vise également la formalisation de quelques relations discursives à l’œuvre dans l’explication et l’écriture de règles linguistiques en vue de la reconnaissance automatique de ces relations. / This study is concerned with the linguistic realisation of explanation in contemporary English. After a definitional work on the notion, two types of explanation are identified: clarifying explanation and causal explanation. The study adopts an utterer-centered approach while also considering pragmatic aspects. The linguistic analysis is based on a corpus of didactic texts and it focuses on the role played by connectives in explanatory discourse. Finally, the study also aims at formalising some discourse relations involved in explanations and designing linguistic rules in order to automatically identify the discourse relations at stake.
14

Etudes liées à la vitrification sans fracture de solutions cryoprotectrices

Odagescu, Valentina Maria 07 July 2005 (has links) (PDF)
La cryopréservation par vitrification est une technique qui devrait permettre de rallonger considérablement les durées de conservation des greffons en abaissant leur température de stockage jusqu'à – 196°C. Elle nécessite l'utilisation de solutions cryoprotectrices (contenant des antigels biocompatibles) pour empêcher la cristallisation de glace dans les tissus, ainsi que des vitesses de variation de la température relativement rapides. La calorimétrie différentielle à balayage permet de déterminer les vitesses requises pour la vitrification des solutions cryoprotectrices. L'exemple de l'éthylène glycol est présenté, complétant les informations connues sur ce cryoprotecteur dans la plage des concentrations concernant la vitrification. Au niveau de la procédure de vitrification, la méthode du recuit a permis d'éviter l'apparition de fractures dans des volumes importants de solution cryoprotectrice. Le cas particulier de la solution VM3 (21st Century Medicine) est détaillé. Il permet de montrer que la stabilité de l'état amorphe ainsi que la quantité de glace cristallisée au réchauffement sont influencées par la température et la durée du recuit. Une analyse sur l'influence du type et de la forme du container porte-échantillon par rapport à la qualité du verre fabriqué a été commencée en parallèle, mais les limites du dispositif cryogénique utilisé nous ont poussé à développer un nouveau cryostat automatisé, permettant de faire des études systématiques dans des conditions reproductibles. Ce cryostat, entièrement conçu et construit au CRTBT, représente le prototype de ce que nous souhaitons proposer à des médecins pour les aider dans leur étude clinique de la cryopreservation des systèmes biologiques. Sa précision de mesure et sa facilité d'utilisation nous a pour le moment permis de mettre en évidence différents événements ayant lieu pendant la vitrification et le réchauffement de nos échantillons.
15

Analyse quantitative des particules atmosphériques par microscopie électronique à balayage couplée à la spectrométrie d'émission X

Choël, Marie 12 September 2005 (has links) (PDF)
Les aérosols atmosphériques consistent en un mélange hétérogène de particules de différentes natures. La technique MEB-EDS permet de caractériser à la fois morphologiquement et chimiquement la fraction particulaire de l'aérosol à l'échelle de la particule individuelle. Pour rendre l'analyse représentative, un système de pilotage de la platine combiné avec un logiciel d'analyse d'image permet d'examiner en mode automatisé des milliers de particules par échantillon. Le développement de détecteurs X dotés de fenêtres minces, qui limitent l'absorption des éléments de faibles numéros atomiques, permet la détection du carbone, de l'azote et de l'oxygène, éléments très abondants dans les échantillons environnementaux. Pour bénéficier de ce progrès technologique rendant faisable l'analyse qualitative étendue à C, N, O, il convient en premier lieu d'optimiser le choix du substrat de collection des particules, afin que sa contribution spectrale soit différenciable de celle de la particule. A cette fin, une procédure de fabrication de plaquettes de bore a été mise au point. Par ailleurs, la technique MEB-EDS n'est pas standardisée pour l'analyse élémentaire quantitative de particules micrométriques dont le volume est plus petit que le volume d'interaction. Les performances d'un programme de quantification inverse par simulation des trajectoires électroniques au sein des particules par la méthode de Monte Carlo ont été évaluées pour des particules modèles de tailles comprises entre 0,25 et 10 µm. L'ensemble de la procédure analytique a permis d'atteindre des justesses estimées à +/-8,8% d'erreur relative moyenne, C, N et O compris.
16

Transport automatisé dans les systèmes de fabrication de semi-conducteurs : nouvelles approches de gestion tactique et opérationnelle

Montoya Torres, Jairo Rafael 29 November 2005 (has links) (PDF)
La fabrication de plaquettes de silicium (wafers) est l'un des processus de fabrication le plus complexes qui existe aujourd'hui. Étant donné à la fois le niveau très élevé d'investissements en équipement et la forte concurrence sur le marché, les fabricants de semi-conducteurs cherchent à rentabiliser au maximum les unités de fabrication (fabs) afin d'obtenir à la fois le meilleur niveau d'utilisation des équipements, un bas niveau d'encours et des temps de cycle de plus en plus courts. Avec l'arrivée de la nouvelle génération de wafers de 300mm de diamètre, des contraintes ergonomiques et de productivité imposent l'automatisation de toute la manutention et le transport des lots de production. Le système automatique de transport joue donc désormais un rôle essentiel pour l'amélioration de la productivité de la fab et la réduction des coûts de production. Cependant, les stratégies de pilotage du système de transport ont été relativement peu étudiées dans la littérature et les travaux existant le considèrent comme étant une entité isolée, ignorant ainsi les effets sur la gestion de la production et des équipements. Du fait de la complexité du processus de fabrication, les études proposées dans la littérature ont traditionnellement été réalisées avec de la simulation à événements discrets.L'objectif de cette thèse est de proposer une méthodologie d'analyse et d'optimisation de la gestion du système automatisé de transport des lots, afin d'améliorer les indicateurs clés de la production. Nous proposons d'abord une modélisation hybride de la fab et du processus de fabrication. Pour cela, nous utilisons une méthodologie basée sur l'identification des ''process'' et de leurs interactions, ainsi qu'une représentation en réseaux de Petri colorés temporisés. Cette conceptualisation nous permet de mieux intégrer les différents composants dans un modèle de simulation. Ensuite, plusieurs stratégies pour la gestion du système de transport des lots (i.e. stratégies de dispatching et de positionnement des chariots) sont analysées. Cette étude est réalisée en couplant des techniques classiques de la Recherche Opérationnelle (i.e. programmation mathématique, méthodes heuristiques) avec le modèle de simulation de la fab. Ainsi, la problématique de gestion du système de transport est abordée à partir du niveau tactique à l'aide d'une démarche d'optimisation qui permet de trouver les valeurs optimales des paramètres du modèle de simulation. Ce dernier permet d'étudier le comportement dynamique du système et facilite l'implémentation des règles pour la gestion opérationnelle. La mise en oeuvre de la démarche hybride optimisation-simulation proposée est analysée dans la structure complexe d'une unité de fabrication de wafers de la nouvelle génération de 300~mm de diamètre.
17

Exploiting Semantic for the Automatic Reverse Engineering of Communication Protocols. / Exploitation de la sémantique pour la rétro-conception automatisée de protocoles de communication.

Bossert, Georges 17 December 2014 (has links)
Cette thèse propose une approche pratique pour la rétro-conception automatisée de protocoles de communication non-documentés. Les travaux existants dans ce domaine ne permettent qu'un apprentissage incomplet des spécifications ou exigent trop de stimulation de l'implémentation du protocol cible avec le risque d'être vaincu par des techniques de contre-inférence. Cette thèse adresse ces problématiques en s'appuyant sur la sémantique du protocole cible pour améliorer la qualité, la rapidité et la furtivité du processus d'inférence. Nous appliquons cette approche à la rétro-conception des deux principaux aspects de la définition d'un protocole à savoir l'inférence de sa syntaxe et de sa grammaire. Nous proposons un outil open-source, appelé Netzob, qui implémente nos contributions pour aider les experts en sécurité dans leur lutte contre les dernières menaces informatiques. Selons nos recherches, Netzob apparait comme l'outil publié le plus avancé pour la rétro-conception et la simulation de protocoles de communications non-documentés. / This thesis exposes a practical approach for the automatic reverse engineering of undocumented communication protocols. Current work in the field of automated protocol reverse engineering either infer incomplete protocol specifications or require too many stimulation of the targeted implementation with the risk of being defeated by counter-inference techniques. We propose to tackle these issues by leveraging the semantic of the protocol to improve the quality, the speed and the stealthiness of the inference process. This work covers the two main aspects of the protocol reverse engineering, the inference of its syntactical definition and of its grammatical definition. We propose an open-source tool, called Netzob, that implements our work to help security experts in their work against latest cyber-threats. We claim Netzob is the most advanced published tool that tackles issues related to the reverse engineering and the simulation of undocumented protocols.
18

Interopérabilité des données médicales dans le domaine des maladies rares dans un objectif de santé publique / Interoperability of medical data for the rare diseases field in a public health objective

Maaroufi, Meriem 07 November 2016 (has links)
La santé se digitalise et de multiples projets d’e-santé se développent. Dans le contexte des maladies rares (MR), un champ qui est devenu parmi les priorités de la stratégie de santé publique en France, l’e-santé pourrait constituer une solution pour améliorer les connaissances sur l’épidémiologie des MR. La Banque Nationale de Données Maladies Rares (BNDMR) propose de centraliser la conduite de ces études épidémiologiques pour toutes les MR et tous les patients, atteints de ces maladies, suivis dans le système de soin français. La BNDMR doit se développer au sein d’un paysage numérique dense et hétérogène. Développer l’interopérabilité de la BNDMR constitue l’objectif des travaux de cette thèse. Comment identifier les patients, incluant les fœtus ? Comment fédérer les identités des patients? Comment chainer des données pour permettre la conduite des études ? En réponse à ces questions, nous proposons une méthode universelle d’identification des patients qui respecte les contraintes de protection des données de santé. Quelles données recueillir dans la BNDMR ? Comment améliorer l’interopérabilité entre ces données et celles issues du large éventail des systèmes existants ? En réponse à ces questions, nous proposons de standardiser le recueil d’un set minimal de données pour toutes les MR. L’implémentation de standards internationaux assure un premier pas vers l’interopérabilité. Nous proposons aussi d’aller à la découverte de correspondances. Minimiser l’intervention humaine en adoptant des techniques d’alignement automatisé et rendre fiables et exploitables les résultats de ces alignements ont constitué les principales motivations de notre proposition. / The digitalization of healthcare is on and multiple e-health projects are unceasingly coming up. In the rare diseases context, a field that has become a public health policy priority in France, e-health could be a solution to improve rare diseases epidemiology and to propose a better care for patients. The national data bank for rare diseases (BNDMR) offers the centralization of these epidemiological studies conduction for all rare diseases and all affected patients followed in the French healthcare system. The BNDMR must grow in a dense and heterogeneous digital landscape. Developing the BNDMR interoperability is the objective of this thesis’ work. How to identify patients, including fetuses? How to federate patients’ identities to avoid duplicates creation? How to link patients’ data to allow studies’ conduction? In response to these questions, we propose a universal method for patients’ identification that meets the requirements of health data protection. Which data should be collected in the national data bank? How to improve and facilitate the development of interoperability between these data and those from the wide range of the existing systems? In response to these questions, we first propose the collection of a standardized minimum data set for all rare diseases. The implementation of international standards provides a first step toward interoperability. We then propose to move towards the discovery of mappings between heterogeneous data sources. Minimizing human intervention by adopting automated alignment techniques and making these alignments’ results reliable and exploitable were the main motivations of our proposal.
19

Simulation et optimisation du transport automatise dans la fabrication de semi-conducteurs. / Simulating and Optimizing Automated Transportation in Semiconductor Manufacturing

Kiba, Téwendé Jean-Etienne Arthur 10 November 2010 (has links)
Composants essentiels de tout ordinateur, les semi-conducteurs sont utilisés dans de nombreux secteurs. Les percées technologiques dans ce domaine imposent un rythme vertigineux aux industriels. Tous les deux ans environ, la capacité des puces est doublée et leur prix est divisé par deux. Le diamètre des plaquettes de silicium augmente et, regroupées en lots, les plaquettes sont plus lourdes à transporter. Les systèmes automatiques de transport (AMHS) se présentent comme une excellente alternative. Le prix très élevé des équipements de production fait que l’objectif est de saturer les capacités de production. Pour y parvenir, il est important que le système de transport et de stockage garantisse que les machines n’attendent pas des lots disponibles, et aussi que les lots n’attendent pas une machine disponible.Dans la littérature, la complexité du problème (jusqu’à 700 étapes de fabrication, flux réentrants, etc.) fait que les études de modélisation du transport se font avec de fortes hypothèses sur la production ou inversement. Pourtant, le transport est un service pour la production. Cette thèse propose une approche de modélisation permettant d'intégrer le plus fidèlement possible les contraintes de transport, production et stockage, afin d'améliorer les indicateurs clés de la production. Une analyse détaillée du système a permis de construire un modèle de simulation à événements discrets. Enfin, après une validation industrielle, l'étude complète du modèle a permis d'analyser les paramètres critiques de gestion du transport. Les résultats permettent une meilleure compréhension du système et mettent en exergue d'intéressantes perspectives de recherche. / Essential components of all computers, semiconductors are widely used in many sectors. Quick advances in these technologies force a challenging rhythm to manufacturers. Following the Moore’s Law, chip capacity doubles approximately every two years and prices are divided by two. Thus, the increase of the diameter of wafers to 300 mm makes them heavier to transport in lots. Automated Material Handling Systems (AMHS) are an excellent alternative to tackle this problem. Because of the high price of production equipment, the goal is to use production capacity as much as possible while avoiding to keep too much inventory. To reach this goal, it is important that the transportation and storage system ensures that machines do not wait for available lots, and also that lots do not wait for available machines. In the literature, due to the problem complexity (up to 700 steps, re-entrant flows, etc.), the modeling of transportation is made with strong assumptions on the production or vice-versa. However, transport is a service for production. This thesis aims at providing a modeling approach that allows the integration in details transport, production and storage constraints, in order to improve production key indicators. A detailed understanding of the system allows us to build of a discrete event simulation model which is, in our point of view, the best compromise between the necessary level of details and computational times. Finally, through industrial validations, the complete study of the model allows critical parameters of transport management to be analyzed. The results help to get a better understanding of the system and open interesting research perspectives.
20

La preuve numérique dans le procès pénal / The digital evidence in the criminal trial

Hennequin, Shirley 12 December 2011 (has links)
Support de la nouvelle société de l’information et de la communication, outil de travail mais également de loisir, le numérique est « partout ». Devenu la mémoire virtuelle de l’homme, le « numérique », constitue un terrain d’investigation privilégié, une source d’informations intarissable. Le principe de la liberté des preuves en procédure pénale a offert au numérique la possibilité de jouer un rôle majeur : parfois preuve de l’infraction, de son imputabilité à un auteur et/ou de son identité, il est devenu incontournable. Ce constat est toutefois limité, ce principe ne signifiant pas que l’on puisse agir de n’importe quelle manière, à sa guise quels que soient le lieu et l’heure ; la preuve numérique devant être recherchée et recueillie dans les règles de l’administration de la preuve. Soumise à l’intime conviction du juge, la donnée numérique devra également revêtir des garanties d’intégrité et de fiabilité, avant d’être considérée comme une « preuve ». En définitive, ces observations imposent que, les caractères généraux de la preuve numérique et son rôle probatoire attendu soient étudiés afin d’envisager comment cette nouvelle preuve se confronte au régime probatoire pénal / As a medium of the new society of information and communication and as a tool used both for work and play, digital technology has become ubiquitous. It has become man's virtual memory and represents a preferred field for investigation, an inexhaustible source of information. The principle of freedom of evidence in criminal law has allowed digital technology to play a major role : sometimes as evidence of infringement, of its author's imputability and/or identity, it has become inescapable. This general assessment is however limited, as it does not mean that any action can be taken anyhow, whatever the place or time ; digital evidence must indeed be searched for and collected within the rules governing it. Being subjected to the judge's inner conviction, the digital data will also have to offer guarantees of integrity and reliability before being considered as evidence on balance, these observations require that the general characteristics and expected role of digital evidence should be studied in order to examine how this new kind of evidence can be confronted with the system of evidence in criminal law

Page generated in 0.2238 seconds