• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 34
  • 9
  • 1
  • 1
  • Tagged with
  • 101
  • 40
  • 33
  • 24
  • 19
  • 15
  • 14
  • 11
  • 10
  • 10
  • 10
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Logistique inverse et collecte des produits techniques en fin de vie. Tournées de véhicules avec contraintes

Landrieu, Antoine 21 September 2001 (has links) (PDF)
La logistique inverse des déchets techniques encombrants de type blanc ou brun se développe de nos jours afin de répondre aux contraintes législatives fortes qui n'autorisent à partir de juillet 2002 que la mise en décharge des déchets dits « ultimes ». Le recyclage noble apparaît comme une solution prometteuse, économiquement viable et écologique, où la collecte, approvisionneuse exclusive du processus de récupération des déchets, doit être appréhendée et planifiée dans l'objectif de maîtrise des coûts. Après avoir identifié les caractéristiques principales des systèmes de collecte existants, nous nous attardons sur le ramassage à domicile des produits usagés de la population. Afin de pouvoir établir une planification opérationnelle, ce mode de collecte est modélisé comme un problème de routage de véhicules : le problème de chargement et de déchargement avec contraintes de fenêtres temporelles, de précédence et de capacité. Ce problème d'Optimisation Combinatoire est ensuite résolu de manière algorithmique, en considérant successivement le cas d'un véhicule, puis de plusieurs véhicules. La résolution du problème se base sur la recherche tabou et la recherche tabou probabiliste, et fournit des résultats très satisfaisants sur le plan qualitatif et en temps d'exécution. Finalement, nous décrivons, grâce au langage de modélisation unifié orienté objet UML, une manière d'intégrer nos résultats algorithmiques dans un module d'aide à la décision pour la planification opérationnelle de la collecte, où l'opérateur humain est chargé de définir le plan de collecte à exécuter.
72

Des algorithmes presque optimaux pour les problèmes de décision séquentielle à des fins de collecte d'information

Araya-López, Mauricio 04 February 2013 (has links) (PDF)
Le formalisme des MDP, comme ses variantes, sert typiquement à contrôler l'état d'un système par l'intermédiaire d'un agent et de sa politique. Lorsque l'agent fait face à des informations incomplètes, sa politique peut eff ectuer des actions pour acquérir de l'information typiquement (1) dans le cas d'une observabilité partielle, ou (2) dans le cas de l'apprentissage par renforcement. Toutefois cette information ne constitue qu'un moyen pour contrôler au mieux l'état du système, de sorte que la collecte d'informations n'est qu'une conséquence de la maximisation de la performance escomptée. Cette thèse s'intéresse au contraire à des problèmes de prise de décision séquentielle dans lesquels l'acquisition d'information est une fin en soi. Plus précisément, elle cherche d'abord à savoir comment modi fier le formalisme des POMDP pour exprimer des problèmes de collecte d'information et à proposer des algorithmes pour résoudre ces problèmes. Cette approche est alors étendue à des tâches d'apprentissage par renforcement consistant à apprendre activement le modèle d'un système. De plus, cette thèse propose un nouvel algorithme d'apprentissage par renforcement bayésien, lequel utilise des transitions locales optimistes pour recueillir des informations de manière e fficace tout en optimisant la performance escomptée. Grâce à une analyse de l'existant, des résultats théoriques et des études empiriques, cette thèse démontre que ces problèmes peuvent être résolus de façon optimale en théorie, que les méthodes proposées sont presque optimales, et que ces méthodes donnent des résultats comparables ou meilleurs que des approches de référence. Au-delà de ces résultats concrets, cette thèse ouvre la voie (1) à une meilleure compréhension de la relation entre la collecte d'informations et les politiques optimales dans les processus de prise de décision séquentielle, et (2) à une extension des très nombreux travaux traitant du contrôle de l'état d'un système à des problèmes de collecte d'informations.
73

Vers l'intégration de post-éditions d'utilisateurs pour améliorer les systèmes de traduction automatiques probabilistes

Potet, Marion 09 April 2013 (has links) (PDF)
Les technologies de traduction automatique existantes sont à présent vues comme une approche prometteuse pour aider à produire des traductions de façon efficace et à coût réduit. Cependant, l'état de l'art actuel ne permet pas encore une automatisation complète du processus et la coopération homme/machine reste indispensable pour produire des résultats de qualité. Une pratique usuelle consiste à post-éditer les résultats fournis par le système, c'est-à-dire effectuer une vérification manuelle et, si nécessaire, une correction des sorties erronées du système. Ce travail de post-édition effectué par les utilisateurs sur les résultats de traduction automatique constitue une source de données précieuses pour l'analyse et l'adaptation des systèmes. La problématique abordée dans nos travaux s'intéresse à développer une approche capable de tirer avantage de ces retro-actions (ou post-éditions) d'utilisateurs pour améliorer, en retour, les systèmes de traduction automatique. Les expérimentations menées visent à exploiter un corpus d'environ 10 000 hypothèses de traduction d'un système probabiliste de référence, post-éditées par des volontaires, par le biais d'une plateforme en ligne. Les résultats des premières expériences intégrant les post-éditions, dans le modèle de traduction d'une part, et par post-édition automatique statistique d'autre part, nous ont permis d'évaluer la complexité de la tâche. Une étude plus approfondie des systèmes de post-éditions statistique nous a permis d'évaluer l'utilisabilité de tels systèmes ainsi que les apports et limites de l'approche. Nous montrons aussi que les post-éditions collectées peuvent être utilisées avec succès pour estimer la confiance à accorder à un résultat de traduction automatique. Les résultats de nos travaux montrent la difficulté mais aussi le potentiel de l'utilisation de post-éditions d'hypothèses de traduction automatiques comme source d'information pour améliorer la qualité des systèmes probabilistes actuels.
74

Traque-moi si je le veux : à la recherche d'un cadre juridique entourant la publicité comportementale

Jetté, Virginie 08 1900 (has links)
No description available.
75

Collecter, Transcrire, Analyser : quand la machine assiste le linguiste dans son travail de terrain / Collecting, Transcribing, Analyzing : Machine-Assisted Linguistic Fieldwork

Gauthier, Elodie 30 March 2018 (has links)
Depuis quelques décennies, de nombreux scientifiques alertent au sujet de la disparition des langues qui ne cesse de s'accélérer.Face au déclin alarmant du patrimoine linguistique mondial, il est urgent d'agir afin de permettre aux linguistes de terrain, a minima, de documenter les langues en leur fournissant des outils de collecte innovants et, si possible, de leur permettre de décrire ces langues grâce au traitement des données assisté par ordinateur.C'est ce que propose ce travail, en se concentrant sur trois axes majeurs du métier de linguiste de terrain : la collecte, la transcription et l'analyse.Les enregistrements audio sont primordiaux, puisqu'ils constituent le matériau source, le point de départ du travail de description. De plus, tel un instantané, ils représentent un objet précieux pour la documentation de la langue. Cependant, les outils actuels d'enregistrement n'offrent pas au linguiste la possibilité d'être efficace dans son travail et l'ensemble des appareils qu'il doit utiliser (enregistreur, ordinateur, microphone, etc.) peut devenir encombrant.Ainsi, nous avons développé LIG-AIKUMA, une application mobile de collecte de parole innovante, qui permet d'effectuer des enregistrements directement exploitables par les moteurs de reconnaissance automatique de la parole (RAP). Les fonctionnalités implémentées permettent d'enregistrer différents types de discours (parole spontanée, parole élicitée, parole lue) et de partager les enregistrements avec les locuteurs. L'application permet, en outre, la construction de corpus alignés << parole source (peu dotée)-parole cible (bien dotée) >>, << parole-image >>, << parole-vidéo >> qui présentent un intérêt fort pour les technologies de la parole, notamment pour l'apprentissage non supervisé.Bien que la collecte ait été menée de façon efficace, l'exploitation (de la transcription jusqu'à la glose, en passant par la traduction) de la totalité de ces enregistrements est impossible, tant la tâche est fastidieuse et chronophage.Afin de compléter l'aide apportée aux linguistes, nous proposons d'utiliser des techniques de traitement automatique de la langue pour lui permettre de tirer partie de la totalité de ses données collectées. Parmi celles-ci, la RAP peut être utilisée pour produire des transcriptions, d'une qualité satisfaisante, de ses enregistrements.Une fois les transcriptions obtenues, le linguiste peut s'adonner à l'analyse de ses données. Afin qu'il puisse procéder à l'étude de l'ensemble de ses corpus, nous considérons l'usage des méthodes d'alignement forcé. Nous démontrons que de telles techniques peuvent conduire à des analyses linguistiques fines. En retour, nous montrons que la modélisation de ces observations peut mener à des améliorations des systèmes de RAP. / In the last few decades, many scientists were concerned with the fast extinction of languages. Faced with this alarming decline of the world's linguistic heritage, action is urgently needed to enable fieldwork linguists, at least, to document languages by providing them innovative collection tools and to enable them to describe these languages. Machine assistance might be interesting to help them in such a task.This is what we propose in this work, focusing on three pillars of the linguistic fieldwork: collection, transcription and analysis.Recordings are essential, since they are the source material, the starting point of the descriptive work. Speech recording is also a valuable object for the documentation of the language.The growing proliferation of smartphones and other interactive voice mobile devices offer new opportunities for fieldwork linguists and researchers in language documentation. Field recordings should also include ethnolinguistic material which is particularly valuable to document traditions and way of living. However, large data collections require well organized repositories to access the content, with efficient file naming and metadata conventions.Thus, we have developed LIG-AIKUMA, a free Android app running on various mobile phones and tablets. The app aims to record speech for language documentation, over an innovative way.It includes a smart generation and handling of speaker metadata as well as respeaking and parallel audio data mapping.LIG-AIKUMA proposes a range of different speech collection modes (recording, respeaking, translation and elicitation) and offers the possibility to share recordings between users. Through these modes, parallel corpora are built such as "under-resourced speech - well-resourced speech", "speech - image", "speech - video", which are also of a great interest for speech technologies, especially for unsupervised learning.After the data collection step, the fieldwork linguist transcribes these data. Nonetheless, it can not be done -currently- on the whole collection, since the task is tedious and time-consuming.We propose to use automatic techniques to help the fieldwork linguist to take advantage of all his speech collection. Along these lines, automatic speech recognition (ASR) is a way to produce transcripts of the recordings, with a decent quality.Once the transcripts are obtained (and corrected), the linguist can analyze his data. In order to analyze the whole collection collected, we consider the use of forced alignment methods. We demonstrate that such techniques can lead to fine evaluation of linguistic features. In return, we show that modeling specific features may lead to improvements of the ASR systems.
76

Modélisation numérique de l’abattage humide comme procédé d’assainissement de l’air / Numerical modeling of aerosol particles scavenging by drops as a process of air depollution

Cherrier, Gaël 01 December 2017 (has links)
Ce doctorat est consacré à la modélisation de l’abattage humide comme procédé d’assainissement de l’air. Les situations d’abattage humide étudiées concernent des particules d’aérosol de diamètre aérodynamique variant entre 1 nm et 100 µm capturées dans l’air par des gouttes d’eau de diamètre compris entre 80 µm et 600 µm (nombre de Reynolds de goutte dans la gamme [1 ; 100]). La modélisation de l’assainissement de l’air par abattage humide nécessite deux phases complémentaires. La première étape consiste à définir un noyau de capture calculant le débit d’aérosols capturés par une goutte dans une situation qui peut être complexe de par la grande variété de collectes différentes (brownienne, phorétique, électrostatique et inertielle). La deuxième étape repose sur la définition d’une approche de simulation numérique des phénomènes prenant place dans l’abattage humide. À cet effet, l’approche de simulation de l’abattage humide proposée comporte une modélisation RANS pour simuler l’écoulement de l’air, une approche lagrangienne donnant la trajectoire des gouttes d’eau et une méthode eulérienne permettant de suivre l’évolution du champ de concentration en particules d’aérosol. Ainsi, la capture de particules d’aérosol par des gouttes d’eau est modélisée via l’implémentation du noyau de capture précédemment défini dans un terme puits au sein du modèle Diffusion-Inertia de Zaichik et al., (2004) / This PhD-Thesis is dedicated to the numerical modeling of aerosol particles scavenging by drops. Investigated situations are about aerosol particles of aerodynamic diameter ranging from 1 nm to 100 µm captured in the air by water drops of diameter varying between 80 µm and 600 µm, with corresponding droplet Reynolds number ranging between 1 and 100. This air depollution modeling is achieved in two steps. The first step consists in obtaining a scavenging kernel predicting the flow rate of aerosol particles captured by a drop in a situation where several collection mechanisms may take place (Brownian, phoretic, electrostatic and inertial scavenging). The aim of the second step is to propose a numerical simulation modeling the scavenging phenomenon. To do so, the scavenging simulation includes a RANS modeling for the air flow, a Lagrangian approach for the drops and an Eulerian approach for the aerosol particles. Thus, aerosol scavenging by drops is modeled by implementing the collection kernel defined previously into a sink term in the Diffusion-Inertia model of Zaichik et al., (2004)
77

Vers l'intégration de post-éditions d'utilisateurs pour améliorer les systèmes de traduction automatiques probabilistes / Towards the integration of users' post-editions to improve phrase-based machine translation systems

Potet, Marion 09 April 2013 (has links)
Les technologies de traduction automatique existantes sont à présent vues comme une approche prometteuse pour aider à produire des traductions de façon efficace et à coût réduit. Cependant, l'état de l'art actuel ne permet pas encore une automatisation complète du processus et la coopération homme/machine reste indispensable pour produire des résultats de qualité. Une pratique usuelle consiste à post-éditer les résultats fournis par le système, c'est-à-dire effectuer une vérification manuelle et, si nécessaire, une correction des sorties erronées du système. Ce travail de post-édition effectué par les utilisateurs sur les résultats de traduction automatique constitue une source de données précieuses pour l'analyse et l'adaptation des systèmes. La problématique abordée dans nos travaux s'intéresse à développer une approche capable de tirer avantage de ces retro-actions (ou post-éditions) d'utilisateurs pour améliorer, en retour, les systèmes de traduction automatique. Les expérimentations menées visent à exploiter un corpus d'environ 10 000 hypothèses de traduction d'un système probabiliste de référence, post-éditées par des volontaires, par le biais d'une plateforme en ligne. Les résultats des premières expériences intégrant les post-éditions, dans le modèle de traduction d'une part, et par post-édition automatique statistique d'autre part, nous ont permis d'évaluer la complexité de la tâche. Une étude plus approfondie des systèmes de post-éditions statistique nous a permis d'évaluer l'utilisabilité de tels systèmes ainsi que les apports et limites de l'approche. Nous montrons aussi que les post-éditions collectées peuvent être utilisées avec succès pour estimer la confiance à accorder à un résultat de traduction automatique. Les résultats de nos travaux montrent la difficulté mais aussi le potentiel de l'utilisation de post-éditions d'hypothèses de traduction automatiques comme source d'information pour améliorer la qualité des systèmes probabilistes actuels. / Nowadays, machine translation technologies are seen as a promising approach to help produce low cost translations. However, the current state of the art does not allow the full automation of the process and human intervention remains essential to produce high quality results. To ensure translation quality, system's results are commonly post-edited : the outputs are manually checked and, if necessary, corrected by the user. This user's post-editing work can be a valuable source of data for systems analysis and improvement. Our work focuses on developing an approach able to take advantage of these users' feedbacks to improve and update a statistical machine translation (SMT) system. The conducted experiments aim to exploit a corpus of about 10,000 SMT translation hypotheses post-edited by volunteers through a crowdsourcing platform. The first experiments integrated post-editions into the translation model on the one hand, and on the system outputs by automatic post-editing on another hand, and allowed us to evaluate the complexity of the task. Our further detailed study of automatic statistical post-editions systems evaluate the usability, the benefits and limitations of the approach. We also show that the collected post-editions can be successfully used to estimate the confidence of a given result of automatic translation. The obtained results show that the use of automatic translation hypothese post-editions as a source of information is a difficult but promising way to improve the quality of current probabilistic systems.
78

Attitudes, valeurs et pratiques autour du tri sélectif et de la gestion des déchets à Marseille et ses environs : les politiques environnementales à l’épreuve des comportements des usagers / Attitudes, values and practices around the sorting and waste management in Marseille and the surrounding areas : environmental policy tested by the user behavior

Dupeuble, Sandrine 26 November 2013 (has links)
Cette thèse d’anthropologie a pour ambition d’explorer un objet peu étudié par la discipline. Elle porte un regard critique sur les déchets recyclables dans un contexte spécifique, celui d’un dispositif de tri sélectif en France, à Marseille. Moins étudié que d’autres catégories de déchets à l’instar des déchets organiques, industriels ou énergétiques… cette thèse s’intéressera plus particulièrement aux dimensions sociales et culturelles du déchet recyclable en le reliant et le comparant à celui de l’ensemble des autres déchets domestiques (déchets organiques, toxiques, encombrants…). L’objectif étant de révéler les représentations et pratiques rattachées à ces différents types de déchets, les jeux et logiques des acteurs face au dispositif de collecte en place ainsi que les trajectoires et les mises à distance spatio-temporelles suivies par ces déchets en fonction de leur catégorie. / This thesis Anthropology aims to explore a little-studied subject matter in this field. It takes a critical look at the recyclable waste in a specific context: the sorting device system in Marseille, France. Less studied than other waste categories like organic waste, industrial or energy ... this thesis will focus on the social and cultural dimensions of recyclable waste by connecting and comparing it with all other domestic waste (organic waste, toxic, cumbersome ...). The aim is to reveal the representations and practices associated with these different types of waste; the games and actors’ logic facing the collection device in place; the paths and spatiotemporal storing areas followed by the waste according to their category.
79

Power-Aware Protocols for Wireless Sensor Networks / Conception et analyse de protocoles, pour les réseaux de capteurs sans fil, prenant en compte la consommation d'énergie

Xu, Chuan 15 December 2017 (has links)
Ce manuscrit contient d'abord l'étude d'une extension du modèle des protocoles de populations, qui représentent des réseaux de capteurs asynchrones, passivement mobiles, limités en ressources et anonymes. Pour la première fois (à notre connaissance), un modèle formel de consommation d'énergie est proposé pour les protocoles de populations. A titre d'application, nous étudions à la complexité en énergie (dans le pire des cas et en moyenne) pour le problème de collecte de données. Deux protocoles prenant en compte la consommation d'énergie sont proposés. Le premier est déterministe et le second randomisé. Pour déterminer les valeurs optimales des paramètres, nous faisons appel aux techniques d'optimisation. Nous appliquons aussi ces techniques dans un cadre différent, celui des réseaux de capteurs corporels (WBAN). Une formulation de flux est proposée pour acheminer de manière optimale les paquets de données en minimisant la pire consommation d'énergie. Une procédure de recherche à voisinage variable est développée et les résultats numériques montrent son efficacité. Enfin, nous considérons le problème d'optimisation avec des paramètres aléatoires. Précisément, nous étudions un modèle semi-défini positif sous contrainte en probabilité. Un nouvel algorithme basé sur la simulation est proposé et testé sur un problème réel de théorie du contrôle. Nous montrons que notre méthode permet de trouver une solution moins conservatrice que d'autres approches en un temps de calcul raisonnable. / In this thesis, we propose a formal energy model which allows an analytical study of energy consumption, for the first time in the context of population protocols. Population protocols model one special kind of sensor networks where anonymous and uniformly bounded memory sensors move unpredictably and communicate in pairs. To illustrate the power and the usefulness of the proposed energy model, we present formal analyses on time and energy, for the worst and the average cases, for accomplishing the fundamental task of data collection. Two power-aware population protocols, (deterministic) EB-TTFM and (randomized) lazy-TTF, are proposed and studied for two different fairness conditions, respectively. Moreover, to obtain the best parameters in lazy-TTF, we adopt optimization techniques and evaluate the resulting performance by experiments. Then, we continue the study on optimization for the power-aware data collection problem in wireless body area networks. A minmax multi-commodity netflow formulation is proposed to optimally route data packets by minimizing the worst power consumption. Then, a variable neighborhood search approach is developed and the numerical results show its efficiency. At last, a stochastic optimization model, namely the chance constrained semidefinite programs, is considered for the realistic decision making problems with random parameters. A novel simulation-based algorithm is proposed with experiments on a real control theory problem. We show that our method allows a less conservative solution, than other approaches, within reasonable time.
80

Décharges à barrière diélectrique pulsées de volume et de surface appliquées à la précipitation électrostatique et à la régénération de surface / Volume and surface pulsed dielectric barrier discharges applied to electrostatic precipitation and surface regeneration

Aba'a Ndong, Arthur 12 December 2014 (has links)
Dans le cadre de cette thèse, des Décharges à Barrières Diélectrique (DBD) pulsées de volume et de surface ont été étudiées expérimentalement, dans le but de les appliquer respectivement à la précipitation électrostatique de particules submicroniques et à la régénération de surface.La caractérisation des DBD pulsées a consisté à effectuer des mesures électriques (courant, énergie) et optiques (imagerie ICCD), afin d'observer l'influence des paramètres électriques et géométriques, ainsi que des matériaux utilisés, sur les propriétés de la décharge. Il en ressort que pour les deux types de DBD (surface et volume), le courant présente deux pics durant les fronts montant et descendant du pulse de tension, et que les deux décharges ont des aspects différents (filamentaire ou diffus).Concernant la précipitation électrostatique, l'efficacité de collecte des électrofiltres a été déterminée par des mesures granulométriques. Les résultats montrent que celle-ci est influencée par les paramètres électriques et géométriques des électrofiltres. Une caractérisation des phénomènes EHD au sein des électrofiltres par métrologie optique (LDV et PIV) a été effectuée afin de comprendre les mécanismes de charge et de dérive des particules.Ensuite, la régénération de surface a été étudiée en analysant les images de la surface polluée, avant et après le traitement. Les résultats révèlent que les performances de la régénération sont influencées par les paramètres électriques, géométriques et les matériaux des réacteurs DBD. Les mécanismes de la régénération ont été analysés en relevant l'évolution de la taille et la concentration des particules générées lors du processus de régénération. / As part of this thesis, volume and surface pulsed Dielectric Barrier Discharges (DBD) were investigated experimentally for applications in the electrostatic precipitation of submicron particles and surface regeneration, respectively. First, the characterization of pulsed DBDs consisted of performing electrical measurements (current, power) and optical measurements (ICCD imaging) in order to observe the influence of electrical and geometrical parameters as well as materials on the properties of the discharge. It is demonstrated that for both types of DBD (surface and volume), the current has two peaks during the rising and falling times of the voltage pulse, corresponding to distinct streamer and glow discharge regimes, respectively.Next, the collection efficiency of electrostatic precipitation (ESP) was determined by granulometric measurements. The results show that the efficiency is influenced by the electrical and geometrical parameters of the precipitator. A characterization of EFD phenomena was performed inside the precipitator by optical metrology (LDV and PIV) to understand the mechanisms of charge and particle drift. Finally, surface regeneration was investigated by analyzing images of the contaminated surface, before and after treatment. The results reveal that the regeneration process is influenced by electrical and geometrical parameters and DBD reactor materials. The mechanisms of regeneration were analyzed in-situ by measuring changes in the size and concentration of the generated particles during the process of regeneration.

Page generated in 0.0434 seconds