• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 158
  • 43
  • 15
  • 1
  • 1
  • Tagged with
  • 220
  • 152
  • 73
  • 67
  • 60
  • 50
  • 35
  • 34
  • 33
  • 29
  • 27
  • 26
  • 25
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Optimisation multicritère des itinéraires pour transport des marchandises dangereuses en employant une évaluation en logique floue du risque et la simulation du trafic à base d'agents / Multi-criteria route optimization for dangerous goods transport using fuzzy risk assessment and agent-based traffic simulation

Laarabi, Mohamed Haitam 15 December 2014 (has links)
Chaque jour des milliers de camions transportant des centaines de milliers de tonnes de marchandises dangereuses par diverses modalités. Toutefois, le terme “dangereux” indique une adversité intrinsèque qui caractérise ces produits transportés, et qui peuvent se manifester lors d'un accident entraînant la fuite d'une substance dangereuse. Dans une telle situation, les conséquences peuvent nuire à l'environnement et létal pour l'humain.L'importance des marchandises dangereuses revient aux bénéfices économiques considérables générés. En fait, on ne peut nier la contribution du transport des produits dérivés de combustibles fossiles, ce qui représente plus de 60% des marchandises dangereuses transportées en Europe. Eni, la société italienne leader de pétrochimie, gère chaque jour une flotte d'environ 1.500 camions, qui effectuent de nombreuses expéditions. Pourtant la distribution de produits pétroliers est une activité à grande risques, et tout accident lors du transport peut entraîner de graves conséquences.Consciente des enjeux, la division Eni R&M - Logistique Secondaire, historiquement actif au siège de Gênes, collabore depuis 2002 avec le DIBRIS à l'Université de Gênes, et le CRC à Mines ParisTech, dans le but d'étudier les améliorations possibles en matière de sûreté dans le transport de marchandises dangereuses. Au fil des ans, cette collaboration a permis le développement d'un système d'information et décisionnel. Le composant principal de ce système est une plate-forme de surveillance de la flotte Eni appelé TIP (Transport Integrated Platform), pour livrer les produits vers les points de distributions. Ces véhicules sont équipés d'un dispositif capable de transmettre des flux de données en temps réel en utilisant un modem GPRS. Les données transmises peuvent être de nature différente et contenir des informations sur l'état du véhicule, le produit et les événements détectés durant l'expédition. Ces données sont destinées à être reçues par des serveurs centralisés puis traitées et stockées, afin de soutenir diverses applications du TIP.Dans ce contexte, les études menées tout au long de la thèse sont dirigés vers le développement d'une proposition visant à réduire davantage les risques liés au transport de marchandises dangereuses. En d'autres termes, un modèle basé sur le compromis entre les facteurs économiques et sûretés pour le choix de l'itinéraire. L'objectif est motivé par la nécessité de soutenir les règlements et les normes de sécurité existantes, car ils ne garantissent pas totalement contre les accidents entrainant des marchandises dangereuses.L'objectif est effectué en prenant en compte le système existant comme base pour l'élaboration d'un système de transport intelligent (STI) regroupant plusieurs plates-formes logicielles. Ces plates-formes doivent permettre aux planificateurs et aux décideurs de suivre en temps réel leur flotte, à évaluer les risques et tous les itinéraires possibles, de simuler et de créer différents scénarios, et d'aider à trouver des solutions à des problèmes particuliers.Tout au long de cette thèse, je souligne la motivation pour ce travail de recherche, les problématiques, et les défis de transport de marchandises dangereuses. Je présente le TIP comme le noyau de l'architecture proposée du STI. Pour les besoins de la simulation, les véhicules virtuels sont injectés dans le système. La gestion de la collecte des données a été l'objet d'une amélioration technique pour plus de fiabilité, d'efficacité et d'évolutivité dans le cadre de la surveillance en temps réel. Enfin, je présente une explication systématique de la méthode d'optimisation des itinéraires considérant les critères économiques et de risques. Le risque est évalué en fonction de divers facteurs notamment la fréquence d'accidents entrainant des marchandises dangereuses, et ses conséquences. La quantification de l'incertitude dans l'évaluation des risques est modélisée en utilisant la théorie des ensembles flous. / Everyday thousands of trucks transporting hundreds of thousands of tons of dangerous goods by various modalities and both within and across nations. However, the term “dangerous” indicates an intrinsic adversity that characterize these products, which can manifest in an accident leading to release of a hazardous substance (e.g. radioactive, flammable, explosive etc.). In this situation, the consequences can be lethal to human beings, other living organisms and damage the environment and public/private properties.The importance of dangerous goods boils down to the significant economic benefits that generates. In fact, one cannot deny the contribution of the transport of all fossil fuel derived product, which represents more than 60% of dangerous goods transported in Europe. Eni, the Italian leading petrochemical company, every day operates a fleet of about 1,500 trucks, which performs numerous trips from loading terminals to filling stations. Distribution of petroleum products is a risky activity, and an accident during the transportation may lead to serious consequences.Aware of what is at stake, the division Eni R&M - Logistics Secondary, historically active in Genoa headquarters, is collaborating since 2002 with the DIBRIS department at University of Genoa, and the CRC at Mines ParisTech, with the purpose of studying possible improvements regarding safety in transport of dangerous goods, particularly petroleum products. Over years, this collaboration has led to the development of different technologies and mainly to an information and decision support system. The major component of this system is a platform for monitoring Eni fleet, at the national level, to deliver the products to the distribution points, called the Transport Integrated Platform (TIP). These vehicles are equipped with a device capable of transmitting data stream in real-time using a GPRS modem. The data transmitted can be of different nature and contain information about the state of the vehicle and occurred events during the trip. These data are intended to be received by centralized servers then get processed and stored, in order to support various applications within the TIP.With this in mind, the studies undertaken throughout the thesis are directed towards the development of a proposal to further minimize the risk related to the transportation of dangerous goods. In other words, a trade-off based model for route selection taking into consideration economic and safety factors. The objective is prompted by the need to support existent regulations and safety standards, which does not assure a full warranty against accidents involving dangerous goods.The goal is carried out by considering the existent system as basis for developing an Intelligent Transportation System (ITS) aggregating multiple software platforms. These platforms should allow planners and decision makers to monitor in real-time their fleet, to assess risk and evaluate all possible routes, to simulate and create different scenarios, and to assist at finding solutions to particular problems.Throughout this dissertation, I highlight the motivation for such research work, the related problem statements, and the challenges in dangerous goods transport. I introduce the TIP as the core for the proposed ITS architecture. For simulation purposes, virtual vehicles are injected into the system. The management of the data collection was the subject of technical improvement for more reliability, efficiency and scalability in real-time monitoring of dangerous goods shipment. Finally, I present a systematic explanation of the methodology for route optimization considering both economic and risk criteria. The risk is assessed based on various factors mainly the frequency of accident leading to hazardous substance release and its consequences. Uncertainty quantification in risk assessment is modelled using fuzzy sets theory.
212

Contribution à une méthodologie d'évaluation à priori des projets de transport urbain durable / Contribution to a methodology for a priori evaluation of sustainable urban transport projects

Cucu Graindorge, Tatiana 15 February 2012 (has links)
L’objectif de ces travaux de proposer aux autorités locales un outil d’aide à la décision pour formaliser une démarche participative tout au long de la conception d’un projet de transport urbain durable, dans un contexte multicritères et multi acteurs. La méthodologie développée repose sur l’évaluation a priori des impacts d’un projet local, en impliquant les acteurs dès la phase de diagnostic. Cette phase permet d’identifier des groupes d’acteurs selon leur perception des phénomènes urbains, des interactions et des préférences déclarées d’évolution. Elle permet d’établir une liste d’indicateurs communs qui seront évalués. Le choix des alternatives à étudier est le résultat de l’application conjointe de techniques de transférabilité - fondées sur l’étude de projets développés dans d’autres villes - et de l’étude des préférences déclarées des usagers locaux. La probabilité d’utilisation du service s’évalue à l’aide d’un modèle comportemental agrégé qui intègre la perception floue et l’indécision des usagers devant une situation nouvelle. Les changements de comportement des usagers sont pris en compte à l’aide d’un indicateur de robustesse qui teste les effets des paramètres exogènes sur l’évolution de la probabilité d’utilisation du service. Un micro-simulateur de trafic permet d’évaluer les impacts des différents scénarii sur le trafic, l’environnement et le bien-être des citoyens sous la forme monétarisée, afin d’illustrer les coûts et les bénéfices indirects attendus de l’implantation du projet. Une solution de compromis est proposée : elle vise à fournir la solution qui contenterait au mieux l’ensemble des représentants des groupes d’acteurs - et non la solution optimale en termes d’impacts. / The objective of this research is to provide to the local authorities a decision aid tool in order to formalize a participatory approach during the conception of a sustainable urban transport project, in a multi-criteria and multi-actors context. The methodology is based on the a priori evaluation of the impacts of a local project, involving stakeholders as soon as the diagnosis phase. This phase aims at identifying groups of actors according to their perception of urban phenomena, their interactions and their stated preferences of evolution. The diagnosis phase leads to the setting-up of a list of common indicators to be evaluated. The choice of alternatives to be studied is the result of the transferability techniques - based on the projects developed in other cities - and the stated preferences of local users. The probability of using the service is evaluated using an aggregated behavioral model that takes into account the fuzzy perception and the indecision of users in a new situation. Changes in the behaviour of the users are taken into account thanks to an indicator of robustness that tests the impact of exogenous parameters on the evolution of the probability of using a service. A traffic micro--simulator aims at assessing the impacts of the various scenarios on traffic, environment and the welfare of citizens– which is monetized. It illustrates the costs and indirect benefits expected with the implementation of project. A compromise solution is proposed: it aims at identifying an alternative that would best satisfy the representatives of the stakeholder groups – and not necessarily the optimal solution in terms of impacts.
213

Investigation on the control of supercritical centrifugal compressors supported by active magnetic bearings : Toward a new control strategy? / Recherches sur le contrôle des compresseurs centrifuges supercritiques supportés par des paliers magnétiques actifs : Vers une nouvelle stratégie de contrôle ?

Defoy, Benjamin 14 December 2012 (has links)
Le comportement dynamique des turbomachines industrielles doit respecter des critères émis par les normes internationales et les utilisateurs. Les rotors flexibles sont sensibles à la distribution de balourd, et sont soumis aux excitations aérodynamiques de leur environnement. Usuellement, les contrôleurs utilisés peinent à délivrer le niveau d’exigence demandé, par conséquent les propriétés mécaniques des paliers magnétiques sont fortement dépendantes de celles des rotors. L’objectif de ce mémoire est d’analyser le comportement dynamique des compresseurs centrifuges afin de proposer une stratégie de contrôle innovante. D’abord, chaque palier est considéré comme une entité a part entière en couplant ses deux axes d’action. Le comportement dynamique du rotor est exprimé dans le repère polaire. Par ailleurs, la logique floue, qui utilise un modèle de pensée proche du raisonnement humain, applique des actions correctives en fonction du comportement dynamique global du rotor. Ainsi, l’utilisation couplée de ces deux approches créé une synergie permettant d’agir sur le système de manière ciblée. Le contrôleur dissipe l’énergie cinétique du rotor lors du franchissement de vitesses critiques afin d’atténuer la réponse au balourd, ou augmente la raideur du palier lors de vibrations transitoires ou asynchrones afin de réduire la trajectoire du rotor. Le faible amortissement structurel du rotor le rend sensible au phénomène de « spillover » (l’énergie de contrôle affecte les modes de fréquence élevée). Or, la logique floue ne peut pas gérer ce phénomène. Ainsi, un contrôleur PID sous-jacent est utilisé pour maîtriser la stabilité des modes hautes fréquences. Au final, le contrôleur flou polaire permet d’obtenir des marges de performances entre les capacités de cet asservissement et le cahier des charges. Ces marges sont utilisées pour trois objectifs : le respect des spécifications, l’amélioration du comportement subsynchrone, et enfin la simplification et la standardisation du contrôleur sous-jacent nommé ici SPID. Ce contrôleur est tel que ses caractéristiques, dans la plage de fréquence utile, sont indépendantes du rotor pour une application donnée. Enfin, la stratégie développée est évaluée avec des simulations numériques et des essais expérimentaux. D’abord, le modèle numérique est validé, puis le contrôleur est appliqué à un banc d’essais académique. Le comportement est stable et robuste. Il présente des performances supérieures au PID augmenté fourni avec le banc, que ce soit pour la réponse au balourd, ou pour la réponse à des excitations subsynchrones. Finalement, la démarche est appliquée à un compresseur industriel. Les simulations montrent que le comportement est proche de celui exigé pour des machines sur paliers classiques. L’optimisation de l’approche et l’automatisation de la conception pourraient conduire à la standardisation des paliers magnétiques actifs. / The dynamic behaviour of large turbomachinery should satisfy stringent requirements dictated by international standards and final users. Their flexible rotor is sensitive to the unbalance distribution and subjected to particular excitations coming from the industrial process. Usually, the performance margins between the requirements and the classical controller capabilities are small. Consequently, the magnetic bearing characteristics depend on the rotor geometry. Designing such controllers is difficult and time consuming. The objective of this thesis is to investigate the dynamic behaviour of supercritical centrifugal compressors in order to propose a new control strategy. First, each bearing is considered as one entity by coupling its two axes of action. The introduction of polar quantities permits a better observation of the rotor dynamic behaviour. In addition, by using logic close to human being reasoning, the fuzzy logic modulates the action forces as a function of the global dynamic behaviour. The coupling of the two approaches is an efficient way to apply targeted corrective actions. This controller attenuates the unbalance vibration when crossing critical speeds by applying damping forces, or increases the stiffness during transient or asynchronous excitations in order to limit the maximum displacement reached. As their structural damping is low, flexible rotors are very sensitive to spillover effect, which cannot be managed by fuzzy controllers. Consequently, an underlying PID is necessary. This hand-synthesized controller has high frequency characteristics tuned in order to ensure stability and robustness for each rotor. Compared to a classical approach, the polar fuzzy controller enables to increase the performance margins. These margins are used to fulfil three objectives: the achievement of standards requirements, the improvement of the subsynchronous behaviour, and the simplification and the standardization of the PID controller that we called SPID. This SPID is designed for a given application, such that the bearing characteristics on the operating frequency range are always the same. The control strategy is assessed numerically and experimentally. First, the numerical model is validated with experimental tests. Then, the controller developed is applied to an academic test rig. The controller is stable and robust. It exhibits performance superior to the augmented PID supplied with the test rig for both unbalance response and response to subsynchronous excitations. Finally, the control of an industrial compressor is assessed numerically. The results obtained are close to the standards requirements used for classical bearings. The optimization of the approach and the utilization of an automatic tuning algorithm for high frequency characteristics could lead to the standardization of Active Magnetic Bearings.
214

Réduction de dimension de sac de mots visuels grâce à l’analyse formelle de concepts / Dimension reduction on bag of visual words with formal concept analysis

Dao, Ngoc Bich 23 June 2017 (has links)
La réduction des informations redondantes et/ou non-pertinentes dans la description de données est une étape importante dans plusieurs domaines scientifiques comme les statistiques, la vision par ordinateur, la fouille de données ou l’apprentissage automatique. Dans ce manuscrit, nous abordons la réduction de la taille des signatures des images par une méthode issue de l’Analyse Formelle de Concepts (AFC), qui repose sur la structure du treillis des concepts et la théorie des treillis. Les modèles de sac de mots visuels consistent à décrire une image sous forme d’un ensemble de mots visuels obtenus par clustering. La réduction de la taille des signatures des images consiste donc à sélectionner certains de ces mots visuels. Dans cette thèse, nous proposons deux algorithmes de sélection d’attributs (mots visuels) qui sont utilisables pour l’apprentissage supervisé ou non. Le premier algorithme, RedAttSansPerte, ne retient que les attributs qui correspondent aux irréductibles du treillis. En effet, le théorème fondamental de la théorie des treillis garantit que la structure du treillis des concepts est maintenue en ne conservant que les irréductibles. Notre algorithme utilise un graphe d’attributs, le graphe de précédence, où deux attributs sont en relation lorsque les ensembles d’objets à qui ils appartiennent sont inclus l’un dans l’autre. Nous montrons par des expérimentations que la réduction par l’algorithme RedAttsSansPerte permet de diminuer le nombre d’attributs tout en conservant de bonnes performances de classification. Le deuxième algorithme, RedAttsFloue, est une extension de l’algorithme RedAttsSansPerte. Il repose sur une version approximative du graphe de précédence. Il s’agit de supprimer les attributs selon le même principe que l’algorithme précédent, mais en utilisant ce graphe flou. Un seuil de flexibilité élevé du graphe flou entraîne mécaniquement une perte d’information et de ce fait une baisse de performance de la classification. Nous montrons par des expérimentations que la réduction par l’algorithme RedAttsFloue permet de diminuer davantage l’ensemble des attributs sans diminuer de manière significative les performances de classification. / In several scientific fields such as statistics, computer vision and machine learning, redundant and/or irrelevant information reduction in the data description (dimension reduction) is an important step. This process contains two different categories : feature extraction and feature selection, of which feature selection in unsupervised learning is hitherto an open question. In this manuscript, we discussed about feature selection on image datasets using the Formal Concept Analysis (FCA), with focus on lattice structure and lattice theory. The images in a dataset were described as a set of visual words by the bag of visual words model. Two algorithms were proposed in this thesis to select relevant features and they can be used in both unsupervised learning and supervised learning. The first algorithm was the RedAttSansPerte, which based on lattice structure and lattice theory, to ensure its ability to remove redundant features using the precedence graph. The formal definition of precedence graph was given in this thesis. We also demonstrated their properties and the relationship between this graph and the AC-poset. Results from experiments indicated that the RedAttsSansPerte algorithm reduced the size of feature set while maintaining their performance against the evaluation by classification. Secondly, the RedAttsFloue algorithm, an extension of the RedAttsSansPerte algorithm, was also proposed. This extension used the fuzzy precedence graph. The formal definition and the properties of this graph were demonstrated in this manuscript. The RedAttsFloue algorithm removed redundant and irrelevant features while retaining relevant information according to the flexibility threshold of the fuzzy precedence graph. The quality of relevant information was evaluated by the classification. The RedAttsFloue algorithm is suggested to be more robust than the RedAttsSansPerte algorithm in terms of reduction.
215

Agrégation de relations valuées par la méthode de Borda, en vue d'un rangement: considérations axiomatiques

Marchant, Thierry 15 October 1996 (has links)
<p align="justify">Depuis 20 à 30 ans, l'aide multicritère à la décision est apparue. L'expansion de cette nouvelle discipline s'est marquée dans la littérature essentiellement par un foisonnement de nouvelles méthodes multicritères d'aide à la décision et par des applications de celles-ci à des problèmes "réels". Pour la plupart de ces méthodes, il n'y pas ou peu de fondements théoriques. Seul le bon sens a guidé les créateurs de ces méthodes.</p><p><p align="justify">Depuis une dizaine d'années, le besoin de bases théoriques solides se fait de plus en plus sentir. C'est dans cette perspective que nous avons réalisé le présent travail. Ceci étant dit, nous n'allons pas vraiment nous occuper de méthodes multicritères à la décision dans ce travail, mais seulement de fragments de méthodes. En effet, les méthodes multicritères d'aide à la décision peuvent généralement être décomposées en trois parties (outre la définition de l'ensemble des alternatives et le choix des critères):</p><p><p align="justify"><ol><li>Modélisation des préférences: pendant cette étape, les préférences du décideur sont modélisées le long de chaque critère.<p><li>Agrégation des préférences: un modèle global de préférences est construit au départ des modèles obtenus critère par critère à la fin de la phase précédente.<p><li>Exploitation des résultats de l'agrégation: du modèle global de préférences issu de la phase 2, on déduit un choix, un rangement, une partition, selon les besoins.</ol></p><p><p align="justify">Jusqu'à présent, à cause de la difficulté du problème, peu de méthodes ont été axiomatisées de bout en bout; la plupart des travaux ne s'intéressent qu'à une ou deux des trois étapes que nous venons de décrire.</p><p><p align="justify">Nous nous sommes intéressés à une méthode bien connue: la méthode de Borda. Elle accepte comme données de départ des relations binaires. Elle intervient donc après la phase de modélisation des préférences. Le résultat de cette méthode est un rangement. Elle effectue donc les opérations correspondant aux étapes 2 et 3. Dans la suite de ce travail nous appellerons méthode de rangement toute méthode effectuant les étapes 2 et 3 pour aboutir à un rangement. Etant donné que les méthodes de rangement, celle de Borda en particulier, sont utilisées également en choix social, nous puiserons abondamment dans le vocabulaire, les outils et les résultats du choix social. Les résultats présentés seront valides en choix social, mais nous nous sommes efforcés de les rendre aussi pertinents que possible en aide multicritère à la décision.</p><p><p align="justify">Dans le chapitre II, après quelques définitions et notations, nous présentons quelques méthodes de rangement classiques, y compris la méthode de Borda, et quelques résultats majeurs de la littérature. Nous généralisons une caractérisation des méthodes de scorage due à Myerson (1995).</p><p><p align="justify">Nous nous tournons ensuite vers les relations valuées. La raison en est la suivante: elles sont utilisées depuis longtemps dans plusieurs méthodes multicritères et, depuis peu, elles le sont aussi en choix social (p.ex. Banerjec 1994) car elles permettent de modéliser plus finement les préférences des décideurs confrontés à des informations incertaines, imprécises, contradictoires, lacunaires, Nous commençons donc le chapitre III par des notations et définitions relatives aux relations valuées.</p> <p align="justify">Ensuite, nous présentons quelques méthodes de rangement opérant au départ de relations valuées. C'est-à-dire des méthodes de rangement qui agissent non pas sur des relations nettes, mais sur des relations valuées et qui fournissent comme précédemment un rangement des alternatives. N'ayant trouvé dans la littérature aucune méthode de ce type, toutes celles que nous présentons sont neuves ou des généralisations de méthodes existantes; comme par exemple, les méthodes de scorage généralisées, que nous caractérisons en généralisant encore une fois le résultat de Myerson.</p><p><p align="justify">Nous présentons enfin ce que nous appelons la méthode de Borda généralisée, qui est une des généralisations possibles de la méthode de Borda au cas valué. Nous basant sur un article de Farkas et Nitzan (1979), nous montrons que contrairement à ce qui se passait dans le cas particulier envisagé par Farkas et Nitzan (agrégation d'ordres totaux), la méthode de Borda généralisée (et sa particularisation au cas net) n'est pas toujours équivalente à la méthode proximité à l'unanimité. Cette dernière méthode classe chaque alternative en fonction de l'importance des changements qu'il faudrait faire subir à un ensemble de relations pour que l’alternative considérée gagne à l'unanimité. Nous identifions quelques cas où l'équivalence est vraie.</p><p><p align="justify">Ensuite, nous reprenons un résultat de Debord (1987). Il s'agit d'une caractérisation de la méthode de Borda en tant que méthode de choix appliquée à des préordres totaux. Nous la généralisons de deux façons au cas de la méthode de Borda en tant que méthode de rangement appliquée à des relations valuées. Lorsqu'on applique la méthode de Borda, on est amené à calculer une fonction à valeurs réelles sur l'ensemble des alternatives.</p><p><p align="justify">La valeur prise par cette fonction pour une alternative s'appelle le score de Borda de cette alternative. Ensuite, on range les alternatives par ordre décroissant de leur score de Borda. La tentation est grande - et beaucoup y succombent (peut-être avec raison) d'utiliser le score de Borda non seulement pour calculer le rangement mais aussi pour estimer si l'écart entre deux alternatives est important ou non (voir par exemple Brans 1994). Cette approche n'a, à notre connaissance, jamais été étudiée d'un point de vue théorique. Nous présentons deux caractérisations de la méthode de Borda utilisée à cette fin.</p><p><p align="justify">Dans la dernière partie du chapitre III, nous abandonnons la démarche qui visait à caractériser une méthode par un ensemble de propriétés le plus petit possible. Nous comparons 12 méthodes sur base d'une vingtaine de propriétés. Les résultats de cette partie sont résumés dans quelques tableaux.</p><p><p align="justify">Ce travail aborde donc la méthode de Borda et sa généralisation au cas valué sous différents angles. Il livre une série de résultats qui, espérons-le, devraient permettre de mieux comprendre la méthode de Borda et peut-être de l'utiliser à meilleur escient. Toutefois, quoique notre objectif ait été de présenter des résultats pertinents en aide multicritère à la décision (et nous avons fait des progrès dans ce sens), il reste du chemin à faire. Nous sommes probablement encore trop proche du choix social. Ceci constitue donc une voie de recherche intéressante, de même que l'étude d'autres méthodes de rangement et l'étude de méthodes complètes d'aide multicritère à la décision: modélisation du problème (identification du ou des décideur(s), des alternatives et des critères), modélisation des préférences, agrégation des préférences et exploitation des résultats de l'agrégation.</p><p><p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
216

Contributions à l'étude et à la reconnaissance automatique de la parole en Fongbe / Contributions to the study of automatic speech recognitionon Fongbe

Laleye, Frejus Adissa Akintola 10 December 2016 (has links)
L'une des difficultés d'une langue peu dotée est l'inexistence des services liés aux technologies du traitement de l'écrit et de l'oral. Dans cette thèse, nous avons affronté la problématique de l'étude acoustique de la parole isolée et de la parole continue en Fongbe dans le cadre de la reconnaissance automatique de la parole. La complexité tonale de l'oral et la récente convention de l'écriture du Fongbe nous ont conduit à étudier le Fongbe sur toute la chaîne de la reconnaissance automatique de la parole. En plus des ressources linguistiques collectées (vocabulaires, grands corpus de texte, grands corpus de parole, dictionnaires de prononciation) pour permettre la construction des algorithmes, nous avons proposé une recette complète d'algorithmes (incluant des algorithmes de classification et de reconnaissance de phonèmes isolés et de segmentation de la parole continue en syllabe), basés sur une étude acoustique des différents sons, pour le traitement automatique du Fongbe. Dans ce manuscrit, nous avons aussi présenté une méthodologie de développement de modèles accoustiques et de modèles du langage pour faciliter la reconnaissance automatique de la parole en Fongbe. Dans cette étude, il a été proposé et évalué une modélisation acoustique à base de graphèmes (vu que le Fongbe ne dispose pas encore de dictionnaire phonétique) et aussi l'impact de la prononciation tonale sur la performance d'un système RAP en Fongbe. Enfin, les ressources écrites et orales collectées pour le Fongbe ainsi que les résultats expérimentaux obtenus pour chaque aspect de la chaîne de RAP en Fongbe valident le potentiel des méthodes et algorithmes que nous avons proposés. / One of the difficulties of an unresourced language is the lack of technology services in the speech and text processing. In this thesis, we faced the problematic of an acoustical study of the isolated and continous speech in Fongbe as part of the speech recognition. Tonal complexity of the oral and the recent agreement of writing the Fongbe led us to study the Fongbe throughout the chain of an automatic speech recognition. In addition to the collected linguistic resources (vocabularies, large text and speech corpus, pronunciation dictionaries) for building the algorithms, we proposed a complete recipe of algorithms (including algorithms of classification and recognition of isolated phonemes and segmentation of continuous speech into syllable), based on an acoustic study of the different sounds, for Fongbe automatic processing. In this manuscript, we also presented a methodology for developing acoustic models and language models to facilitate speech recognition in Fongbe. In this study, it was proposed and evaluated an acoustic modeling based on grapheme (since the Fongbe don't have phonetic dictionary) and also the impact of tonal pronunciation on the performance of a Fongbe ASR system. Finally, the written and oral resources collected for Fongbe and experimental results obtained for each aspect of an ASR chain in Fongbe validate the potential of the methods and algorithms that we proposed.
217

Locomotives Electriques Hybrides : contribution à leur modélisation et à leur gestion énergétique par logique floue de type 2 / Hybrid Electric Locomotives : contributions to modeling and type-2 fuzzy logic energy management strategy

Baert, Jérome 01 October 2013 (has links)
Dans le cadre du transport de marchandises par voie ferroviaire, un certain nombre de verrous limitent les efforts consentis pour un fret plus "propre". Des améliorations doivent être faites afin de limiter le nombre de locotracteurs assurant les charges/décharges de marchandises en bout de ligne. Dans cette perspective, FEMTO-ST et Alstom Transport ont pour objectif de concevoir et développer un système de gestion d'énergie pour locomotive électrique hybride. Composée d'un groupe électrogène couplé à des accumulateurs électrochimiques et des super-condensateurs, la locomotive électrique hybride permet d'accroître la souplesse et l'efficacité du transport ferroviaire électrique, tout en réduisant encore son impact environnemental. Cette étude a consisté dans un premier temps à développer une modélisation macroscopique de la chaîne de traction électrique hybride et à proposer une structuration de la commande avec l'identification des capteurs matériels et logiciels nécessaires au contrôle optimal de la chaîne de traction. La caractérisation expérimentale des moyens de stockage a permis l'amélioration comportementale et dynamique des modèles correspondant. Dans un second temps, le contrôle de la tension de sortie d'un hacheur dévolteur a permis d'étudier l'application de la logique floue de type-2 (intervalle et générale) dans le cas d'applications industrielles (relativement simples). Enfin, une gestion innovante des flux d'énergie au sein d'un système plus complexe: locomotive électrique hybride, a été développée. Mettant en œuvre la logique floue de type-2 et des algorithmes s'inspirant de la théorie de l'évolution, cette gestion d'énergie optimale opère en temps réel et sans connaissance à priori du cycle de conduite. La gestion fréquentielle ainsi que le contrôle des états de charge des sources secondaires du véhicule contribuent également à leur bon fonctionnement. / To achieve a "greener" freight transport, efforts are still needed to overcome some technological barriers. New improvements must be carried at to limit the shunting locomotives' use intended for the goods' load/unload. Considering this aim, FEMTO-ST and Alstom Transport decided to conceive and develop an energy management strategy system for hybrid electric locomotives. Such locomotives include a diesel driven generator set which is coupled with batteries and ultra-capacitors. The architecture aims at improving the flexibility, the effectiveness of the electrical railway transport and at reducing the environmental impact of these activities again. Firstly, the study consists in implementing a macroscopic modelling of the hybrid electric powertrain. Then, the control is optimally designed by identifying the hardware and software sensors of the powertrain. The dynamics and the behavior of the secondary sources' models are improved thanks to their experimental characterizations. Secondly, the use of Type-2 Fuzzy Logic (interval and general) controllers permits to study their efficiency in the control of a very simple industrial system: the output voltage of a buck converter. Lastly, based on the obtained results, an innovative management of the system's energy flows is developed in the case of the hybrid electrical locomotive. The use of the type-2 fuzzy logic and evolutionary algorithms permit to optimally perform a real time energy management strategy without a priori knowledge of the duty cycle. The frequency approach and the secondary sources' state of charge control contribute to their efficient use.
218

Coopération Homme Machine pour la conduite automatisée : une approche par partage haptique du contrôle / Human-Machine Cooperation for automatic driving : an haptical sharing control approach

Soualmi, Boussaad 16 January 2014 (has links)
Le travail présenté dans la thèse s’inscrit dans le projet de recherche partenarial ANR-ABV 2009 dont l’objet est la conception d’un système de conduite automatisée à basse vitesse. Il décrit et analyse les principes d’un contrôle partagé d’un véhicule automobile entre un conducteur humain et un copilote électronique (E-copilote). L’objectif est de mettre en place une coopération Homme-Machine efficace entre le conducteur et l’E-copilote. Un des enjeux est notamment de permettre au conducteur d’interagir avec l’E-copilote de façon continue pour pouvoir exécuter les manœuvres qu’il souhaite sans nécessiter la désactivation ni être gêné par l’E-copilote. Cet enjeu répond au besoin de prise en compte des actions du conducteur entreprises pour pallier celles du E-copilote dans certaines situations par exemple éviter un obstacle non perçu par le système. L’objectif dans ce cas est de garantir le confort au conducteur ainsi que sa conscience du mode engagé (système actif ou pas). Le conducteur et l’E-copilote agissant simultanément sur le système de direction, chacun doit être conscient des actions de l’autre : une communication bidirectionnelle est essentielle. Pour atteindre cet objectif, nous avons retenu les interactions haptiques à travers le système de direction du véhicule. Le couple appliqué par le conducteur sur volant est utilisé par l’E-copilote pour prendre en compte ces actions de la même façon que le couple produit par l’E-copilote est ressenti par le conducteur et utilisé pour comprendre le comportement du système. D’autres aspects essentiels pour la coopération H-M ont également été abordés : l’´étude des changements de modes de fonctionnement du système ainsi que l’IHM via laquelle le conducteur interagit avec le système. / The work presented in the thesis is part of the research partnership project ANRABV 2009 which aims is to design an automated low-speed driving. It describes and analyzes the principles of shared control of a motor vehicle between a human driver and an electronic copilot (E-copilot). The objective is to establish effective human-machine cooperation between the driver and E-copilot. One issue is particular to allow the driver to interact with the E-copilot continuously in order to perform maneuvers he wants without requiring deactivation neither constrained by E-copilot. This issue addresses the need for consideration of driver actions taken to remedy those of E-copilot for example avoiding undetected obstacle by the system while ensuring operator comfort and the driver situation awareness. The driver and E-co-pilot acting simultaneously on the steering system, everyone must be aware of the actions of the other: twoway communication is essential. To achieve this goal, we used the haptic interactions through the steering system of the vehicle. The torque applied by the driver on the steering wheel is used by the E-copilot to take into account these actions as the torque produced by the E-copilot is felt by the driver and used to understand the system’s behavior. Other key issues for the Human-Machine Cooperation were also discussed: the study of changes in modes of operation of the system and HMI via which the driver interact with the system.
219

Modélisation de comportements dans les systèmes dynamiques : <br />Application à l'organisation et à la régulation de stationnement et de déplacement dans les Systèmes de Trafic Urbain

Boussier, Jean-Marie 03 May 2007 (has links) (PDF)
L'objectif de nos travaux est de développer un cadre méthodique afin de modéliser les préférences, les changements de comportement des individus ainsi que leurs impacts sur l'état d'un système complexe dans un contexte dynamique. L'utilisateur doit simuler les conséquences des politiques de transports et d'urbanisme sur l'offre et demande de stationnement, étape essentielle. Modéliser les préférences hétérogènes des usagers, intégrer des connaissances, selon des logiques comportementales différentes, ont justifié l'approche multi agents. Afin d'avoir des représentations adaptatives et évolutives des comportements des agents individus, les processus décisionnels et d'apprentissage sont modélisés au moyen d'un panier d'outils issus de l'optimisation des procédés industriels, des techniques Data Mining, de marketing. L'emploi personnalisé du simulateur avec l'interactivité utilisateursimulateur a motivé l'adaptation de ce cadre méthodique à la simulation des systèmes complexes sociétaux.
220

Sur des méthodes préservant les structures d'une classe de matrices structurées / On structure-preserving methods of a class of structured matrices

Ben Kahla, Haithem 14 December 2017 (has links)
Les méthodes d'algèbres linéaire classiques, pour le calcul de valeurs et vecteurs propres d'une matrice, ou des approximations de rangs inférieurs (low-rank approximations) d'une solution, etc..., ne tiennent pas compte des structures de matrices. Ces dernières sont généralement détruites durant le procédé du calcul. Des méthodes alternatives préservant ces structures font l'objet d'un intérêt important par la communauté. Cette thèse constitue une contribution dans ce domaine. La décomposition SR peut être calculé via l'algorithme de Gram-Schmidt symplectique. Comme dans le cas classique, une perte d'orthogonalité peut se produire. Pour y remédier, nous avons proposé deux algorithmes RSGSi et RMSGSi qui consistent à ré-orthogonaliser deux fois les vecteurs à calculer. La perte de la J-orthogonalité s'est améliorée de manière très significative. L'étude directe de la propagation des erreurs d'arrondis dans les algorithmes de Gram-Schmidt symplectique est très difficile à effectuer. Nous avons réussi à contourner cette difficulté et donner des majorations pour la perte de la J-orthogonalité et de l'erreur de factorisation. Une autre façon de calculer la décomposition SR est basée sur les transformations de Householder symplectique. Un choix optimal a abouti à l'algorithme SROSH. Cependant, ce dernier peut être sujet à une instabilité numérique. Nous avons proposé une version modifiée nouvelle SRMSH, qui a l'avantage d'être aussi stable que possible. Une étude approfondie a été faite, présentant les différentes versions : SRMSH et SRMSH2. Dans le but de construire un algorithme SR, d'une complexité d'ordre O(n³) où 2n est la taille de la matrice, une réduction (appropriée) de la matrice à une forme condensée (J(Hessenberg forme) via des similarités adéquates, est cruciale. Cette réduction peut être effectuée via l'algorithme JHESS. Nous avons montré qu'il est possible de réduire une matrice sous la forme J-Hessenberg, en se basant exclusivement sur les transformations de Householder symplectiques. Le nouvel algorithme, appelé JHSJ, est basé sur une adaptation de l'algorithme SRSH. Nous avons réussi à proposer deux nouvelles variantes, aussi stables que possible : JHMSH et JHMSH2. Nous avons constaté que ces algorithmes se comportent d'une manière similaire à l'algorithme JHESS. Une caractéristique importante de tous ces algorithmes est qu'ils peuvent rencontrer un breakdown fatal ou un "near breakdown" rendant impossible la suite des calculs, ou débouchant sur une instabilité numérique, privant le résultat final de toute signification. Ce phénomène n'a pas d'équivalent dans le cas Euclidien. Nous avons réussi à élaborer une stratégie très efficace pour "guérir" le breakdown fatal et traîter le near breakdown. Les nouveaux algorithmes intégrant cette stratégie sont désignés par MJHESS, MJHSH, JHM²SH et JHM²SH2. Ces stratégies ont été ensuite intégrées dans la version implicite de l'algorithme SR lui permettant de surmonter les difficultés rencontrées lors du fatal breakdown ou du near breakdown. Rappelons que, sans ces stratégies, l'algorithme SR s'arrête. Finalement, et dans un autre cadre de matrices structurées, nous avons présenté un algorithme robuste via FFT et la matrice de Hankel, basé sur le calcul approché de plus grand diviseur commun (PGCD) de deux polynômes, pour résoudre le problème de la déconvolution d'images. Plus précisément, nous avons conçu un algorithme pour le calcul du PGCD de deux polynômes bivariés. La nouvelle approche est basée sur un algorithme rapide, de complexité quadratique O(n²), pour le calcul du PGCD des polynômes unidimensionnels. La complexité de notre algorithme est O(n²log(n)) où la taille des images floues est n x n. Les résultats expérimentaux avec des images synthétiquement floues illustrent l'efficacité de notre approche. / The classical linear algebra methods, for calculating eigenvalues and eigenvectors of a matrix, or lower-rank approximations of a solution, etc....do not consider the structures of matrices. Such structures are usually destroyed in the numerical process. Alternative structure-preserving methods are the subject of an important interest mattering to the community. This thesis establishes a contribution in this field. The SR decomposition is usually implemented via the symplectic Gram-Schmidt algorithm. As in the classical case, a loss of orthogonality can occur. To remedy this, we have proposed two algorithms RSGSi and RMSGSi, where the reorthogonalization of a current set of vectors against the previously computed set is performed twice. The loss of J-orthogonality has significantly improved. A direct rounding error analysis of symplectic Gram-Schmidt algorithm is very hard to accomplish. We managed to get around this difficulty and give the error bounds on the loss of the J-orthogonality and on the factorization. Another way to implement the SR decomposition is based on symplectic Householder transformations. An optimal choice of free parameters provided an optimal version of the algorithm SROSH. However, the latter may be subject to numerical instability. We have proposed a new modified version SRMSH, which has the advantage of being numerically more stable. By a detailes study, we are led to two new variants numerically more stables : SRMSH and SRMSH2. In order to build a SR algorithm of complexity O(n³), where 2n is the size of the matrix, a reduction to the condensed matrix form (upper J-Hessenberg form) via adequate similarities is crucial. This reduction may be handled via the algorithm JHESS. We have shown that it is possible to perform a reduction of a general matrix, to an upper J-Hessenberg form, based only on the use of symplectic Householder transformations. The new algorithm, which will be called JHSH algorithm, is based on an adaptation of SRSH algorithm. We are led to two news variants algorithms JHMSH and JHMSH2 which are significantly more stable numerically. We found that these algortihms behave quite similarly to JHESS algorithm. The main drawback of all these algorithms (JHESS, JHMSH, JHMSH2) is that they may encounter fatal breakdowns or may suffer from a severe form of near-breakdowns, causing a brutal stop of the computations, the algorithm breaks down, or leading to a serious numerical instability. This phenomenon has no equivalent in the Euclidean case. We sketch out a very efficient strategy for curing fatal breakdowns and treating near breakdowns. Thus, the new algorithms incorporating this modification will be referred to as MJHESS, MJHSH, JHM²SH and JHM²SH2. These strategies were then incorporated into the implicit version of the SR algorithm to overcome the difficulties encountered by the fatal breakdown or near-breakdown. We recall that without these strategies, the SR algorithms breaks. Finally ans in another framework of structured matrices, we presented a robust algorithm via FFT and a Hankel matrix, based on computing approximate greatest common divisors (GCD) of polynomials, for solving the problem pf blind image deconvolution. Specifically, we designe a specialized algorithm for computing the GCD of bivariate polynomials. The new algorithm is based on the fast GCD algorithm for univariate polynomials , of quadratic complexity O(n²) flops. The complexitiy of our algorithm is O(n²log(n)) where the size of blurred images is n x n. The experimental results with synthetically burred images are included to illustrate the effectiveness of our approach

Page generated in 0.0552 seconds