191 |
Formalisation préalable d'un problème de conception, pour l'aide à la décision en conception préliminaireSCARAVETTI, Dominique 12 1900 (has links) (PDF)
La conception architecturale est souvent réalisée grâce aux habitudes professionnelles et à l'expérience des concepteurs, qui leur permettent d'identifier les paramètres de conception pertinents à prendre en compte pour commencer l'étude et de faire les choix qu'impliquent une démarche séquentielle de détermination d'architecture. Ces décisions sont difficiles à prendre car les concepteurs ne disposent pas forcément d'éléments suffisants pour comparer les différentes alternatives. Ainsi, ils procèdent souvent par essai-erreur, jusqu'à l'obtention d'une configuration opérationnelle, mais qui n'est pas nécessairement optimale. Ces itérations sont, de plus, coûteuses en temps. Nous proposons un système d'aide à la décision en conception préliminaire, permettant de partir de plusieurs concepts de solution pertinents, pour arriver à une architecture validée et prédimensionnée en objectivant les choix de conception. Les grandes étapes sont: (i) l'écriture du problème de conception préliminaire sous forme de Problème par Satisfaction de Contraintes (PSC), (ii) la recherche exhaustive des architectures solutions, (iii) l'exploitation et la réduction de l'espace des solutions pour aider à la décision. C'est seulement ensuite qu'un choix est à faire parmi ces solutions, qui n'ont pas été arbitrairement restreintes par des choix initiaux. Les étapes (i) et (iii) nécessitent une analyse préalable du problème de conception. Il faut, d'une part, le limiter aux seules caractéristiques nécessaires et suffisantes pour la conception architecturale, que nous nommons caractéristiques structurantes. D'autre part, il faut exprimer les objectifs de conception et les critères de qualification de la conception, qui permettent de hiérarchiser les architectures-solutions obtenues et ainsi aider au choix final parmi elles. Nous proposons pour cela une démarche systématique d'analyse et structuration du problème de conception, basée sur quatre étapes, depuis l'analyse du besoin jusqu'à une approche physique, en passant par des approches fonctionnelle et organique du produit à concevoir. Des tableaux systématiques sont proposés. Notre approche est confrontée avec la démarche 'classique' d'un groupe de concepteurs, pour une même conception architecturale. L'utilisation du système d'aide à la décision permet une amélioration de la satisfaction des objectifs de conception, le choix du concept de solution le plus performant, l'obtention d'architectures-solutions valides et respectant toutes les contraintes énoncées. On dispose ainsi d'éléments dimensionnels pour poursuivre en conception détaillée sans subir les itérations engendrées par le processus essai-erreur.
|
192 |
Résolution par satisfation de contraintes appliquée à l'aide à la décision en conception architecturaleChenouard, Raphaël 01 December 2007 (has links) (PDF)
La conception architecturale de systèmes mécaniques et énergétiques permet d'étudier la faisabilité de concepts préalablement choisis pendant la phase de recherche de concepts. Elle fait partie de la phase de conception préliminaire et son achèvement vise à définir l'architecture globale qui sera étudiée pendant la phase de conception détaillée d'un produit. Les principales caractéristiques d'un produit (dimensions, choix de composants, de formes, de topologies ou de matériaux) sont alors fondamentales à ce stade de la conception. La conception architecturale nécessite aussi la prise en compte des comportements physiques et des interactions du produit, de ses composants et des milieux extérieurs, de critères économiques, environnementaux, etc. suivant les exigences du cahier des charges fonctionnel. Le concepteur définit un modèle mathématique exprimant cette connaissance liée au produit. Ce modèle peut être traité à l'aide d'un solveur de Problèmes de Satisfaction de Contraintes numériques (CSP). Ce type de solveur traite de manière générique des problèmes formulés à l'aide de contraintes, de variables et de domaines. Nous proposons de nouveaux algorithmes et de nouvelles heuristiques qui prennent en compte des besoins spécifiques au concepteur en conception préliminaire, comme : la classification des variables, les précisions relatives aux valeurs de certaines variables, les contraintes par morceaux. Les études de faisabilité de plusieurs systèmes mécaniques et énergétiques ont été réalisées avec succès. Les nouveaux algorithmes ont permis de diminuer significativement les temps de calculs, mais ils ont aussi permis d'améliorer la qualité des solutions calculées au regard des besoins du concepteur.
|
193 |
Constructing Algorithms for Constraint Satisfaction and Related Problems : Methods and ApplicationsAngelsmark, Ola January 2005 (has links)
In this thesis, we will discuss the construction of algorithms for solving Constraint Satisfaction Problems (CSPs), and describe two new ways of approaching them. Both approaches are based on the idea that it is sometimes faster to solve a large number of restricted problems than a single, large, problem. One of the strong points of these methods is that the intuition behind them is fairly simple, which is a definite advantage over many techniques currently in use. The first method, the covering method, can be described as follows: We want to solve a CSP with n variables, each having a domain with d elements. We have access to an algorithm which solves problems where the domain has size e < d, and we want to cover the original problem using a number of restricted instances, in such a way that the solution set is preserved. There are two ways of doing this, depending on the amount of work we are willing to invest; either we construct an explicit covering and end up with a deterministic algorithm for the problem, or we use a probabilistic reasoning and end up with a probabilistic algorithm. The second method, called the partitioning method, relaxes the demand on the underlying algorithm. Instead of having a single algorithm for solving problems with domain less than d, we allow an arbitrary number of them, each solving the problem for a different domain size. Thus by splitting, or partitioning, the domain of the large problem, we again solve a large number of smaller problems before arriving at a solution. Armed with these new techniques, we study a number of different problems; the decision problems (d, l)-CSP and k-Colourability, together with their counting counterparts, as well as the optimisation problems Max Ind CSP, Max Value CSP, Max CSP, and Max Hamming CSP. Among the results, we find a very fast, polynomial space algorithm for determining k-colourability of graphs.
|
194 |
Heat Transfer and Flow in Solar Energy and Bioenergy SystemsXu, Ben January 2015 (has links)
The demand for clean and environmentally benign energy resources has been a great concern in the last two decades. To alleviate the associated environmental problems, reduction of the use of fossil fuels by developing more cost-effective renewable energy technologies becomes more and more significant. Among various types of renewable energy sources, solar energy and bioenergy take a great proportion. This dissertation focuses on the heat transfer and flow in solar energy and bioenergy systems, specifically for Thermal Energy Storage (TES) systems in Concentrated Solar Power (CSP) plants and open-channel algal culture raceways for biofuel production. The first part of this dissertation is the discussion about mathematical modeling, numerical simulation and experimental investigation of solar TES system. First of all, in order to accurately and efficiently simulate the conjugate heat transfer between Heat Transfer Fluid (HTF) and filler material in four different solid-fluid TES configurations, formulas of an effective heat transfer coefficient were theoretically developed and presented by extending the validity of Lumped Capacitance Method (LCM) to large Biot number, as well as verifications/validations to this simplified model. Secondly, to provide design guidelines for TES system in CSP plant using Phase Change Materials (PCM), a general storage tank volume sizing strategy and an energy storage startup strategy were proposed using the enthalpy-based 1D transient model. Then experimental investigations were conducted to explore a novel thermal storage material. The thermal storage performances were also compared between this novel storage material and concrete at a temperature range from 400 °C to 500 °C. It is recommended to apply this novel thermal storage material to replace concrete at high operating temperatures in sensible heat TES systems. The second part of this dissertation mainly focuses on the numerical and experimental study of an open-channel algae culture raceway for biofuel production. According to the proposed flow field design of ARID-HV algal raceway, experiments and numerical simulation have been conducted to understand the enhancement of flow mixing in the flow field of ARID-HV raceway by cutting slots on top of the dam near the dead zones. A new method was proposed to quantitatively evaluate the flow mixing by using the statistics of temporal and spatial distribution of the massless fluid particles (centered in each cell at the inlet surface) in the raceway collecting the data of path-lines of fluid particles from CFD results. It is hoped that this method can be applied to assist the algal raceway flow field design as well as other engineering applications. The third part introduces the details about the construction work of a high temperature molten salt test loop. Because of the limited operating temperature of conventional synthetic oils, in order to obtain higher energy conversion efficiency, higher operating temperature is always desirable in a CSP plant which leads to the requirement of new generation of HTF. Currently, a halide salt eutectic mixture (NaCl-KCl-ZnCl₂) as a potential HTF for future CSP applications has been proposed by a multi-institute research team, led by University of Arizona. The thermophysical properties of the halide eutectic salt have been measured. However, this new developed halide eutectic salt has not been tested in a circulating loop at a high operating temperature for the measurement of heat transfer coefficient. It is a significant effort to build such a test system due to extremely high operating temperature. As a consequence, in the third part of this dissertation, details about the design of the lab-scale test system and all the equipment items will be introduced. The investigations included in this dissertation for the heat transfer and flow in solar energy and bioenergy systems are of particular interest to the renewable energy engineering community. It is expected that the proposed methods can provide useful information for engineers and researchers.
|
195 |
Méthodes ensemblistes pour une localisation robuste de robots sous-marinsSliwka, Jan 06 December 2011 (has links) (PDF)
Pour qu'un robot autonome puisse interagir proprement avec son milieu, ce dernier doit connaitre d'une part l'environnement dans lequel il évolue et d'autre part son état dans cet environnement. En particulier, un robot doit savoir où il est pour savoir où il doit aller. Depuis l'apparition du GPS, le problème de la localisation a été pratiquement résolu pour les robots terrestres. Le GPS ne fonctionne pas sous l'eau. Toutefois, le nombre d'opérations sous-marines augmente de manière significative chaque année. Dans notre école, nous développons un robot sous-marin pour tester des systèmes de localisation sous-marins. Le capteur principal que nous utilisons est un sonar sectoriel. Un sonar est un capteur acoustique qui positionne les objets acoustiquement réfléchissant. Par exemple, le sonar peut être utilisé pour détecter les parois d'un port. Ce capteur donne souvent des mesures aberrantes. Une telle mesure peut être due à une défaillance électrique du capteur ou d'un phénomène non pris en compte lors de la modélisation de l'environnement. Le nombre de mesures aberrantes est souvent inconnu et varie avec le temps. Le but de la thèse est de résoudre le problème de localisation avec de telles données. Un problème de localisation peut être formulé en tant que problème de satisfaction de contraintes (CSP en anglais). Un CSP est en gros un système d'équations (contraintes). Ici, l'inconnu est la pose du robot. Pour chaque mesure on obtient une contrainte reliant la pose, la mesure et l'environnement. La solution classique d'un CSP est l'ensemble des points (poses) qui satisfont toutes les contraintes. Toutefois, a cause des données aberrantes de tels points peuvent ne pas exister. Le nouveau problème consiste à trouver une solution d'un CSP lorsque une partie seulement de contraintes est satisfaite. Nous appelons ce problème un CSP relaxé. Une des contributions majeures à la thèse était de trouver plusieurs représentations de la solution d'un CSP relaxé ainsi que les algorithmes qui permettent de calculer ces solutions. La première représentation est sous la forme d'un polynôme dont les coefficients sont des ensembles que nous appelons polynômes ensemblistes. Chaque coefficient correspond à l'ensemble des points qui satisfont le nombre de contraintes égal au degré du coefficient dans le polynôme. Une telle représentation permet d'utiliser l'arithmétique des polynômes pour calculer le polynôme solution. Une deuxième représentation est sous la forme d'une fonction, qu'on appelle accumulateur, qui pour chaque élément de l'espace de recherche retourne le nombre de contraintes satisfaites. Un des obstacles à surmonter pour résoudre les problèmes de localisation est la représentation de la carte. En cas d'environnements structurés, il est possible de représenter la carte par un ensemble d'objets paramétrés tels que des segments, polygones ou des courbes. En cas d'environnements non structurées où en partie structurées tels que des cartes marines ou des cartes routières, l'idée est de représenter la carte (qui est en fait un ensemble de points) sous la forme d'une image binaire où les pixels d'intérêt (noir par exemple) représentent l'ensemble des points de la carte. Une des contributions majeures de la thèse était d'incorporer une telle représentation de la carte dans le formalisme d'un CSP ou d'un CSP relaxé sous la forme d'un contracteur appelé le contracteur sur l'image. L'utilité de ces deux contributions est montrée par un exemple de localisation d'un vrai robot dans une marina abandonnée. La thèse contient plusieurs autres contributions aux méthodes ensemblistes et la théorie des contracteurs.
|
196 |
Méthodes ensemblistes pour la localisation en robotique mobileGuyonneau, Rémy 19 November 2013 (has links) (PDF)
Cette thèse s'intéresse aux problèmes de localisation en robotique mobile, et plus particulièrement à l'intérêt d'une approche ensembliste pour ces problèmes. Actuellement les méthodes probabilistes sont les plus utilisées pour localiser un robot dans son environnement, cette thèse propose des approches alternatives basées sur l'analyse par intervalles. Dans un premier temps, une méthode ensembliste s'intéressant au problème de localisation globale est proposée. Le problème de localisation globale correspond à la localisation d'un robot dans son environnement, sans connaissance à priori sur sa posture (position et orientation) initiale. La méthode proposée associe le problème de localisation à un problème de satisfaction de contraintes (CSP). Elle permet de localiser le robot en utilisant la connaissance de l'environnement, ainsi qu'un jeu de mesures LIDAR. Cette méthode est validée à l'aide de différentes expérimentations et est comparée à une approche probabiliste classique : la Localisation Monte Carlo (MCL). Dans un second temps une notion de visibilité est étudiée. Deux points sont supposés visibles, si le segment défini par ces deux points n'intersecte pas d'obstacle, autrement ils sont dit non-visibles. À l'aide de l'analyse par intervalles, des contracteurs associés à cette notion de visibilité sont développés. Après une présentation théorique de la visibilité, deux applications de ces contracteurs à la localisation en robotique mobile sont présentées : le suivi de posture d'une meute de robots à l'aide d'une information booléenne, et la prise en compte d'une contrainte supplémentaire dans le CSP associé à la localisation globale.
|
197 |
Planification d'une chaîne logistique: approche par satisfaction de contraintes dynamiquesTrojet, Mariem 17 April 2014 (has links) (PDF)
Le sujet de thèse porte sur la planification tactique et opérationnelle d'une chaîne logistique dans un contexte dynamique. Nous proposons un modèle de planification basé sur une structure décisionnelle à deux niveaux. Adoptant un processus dynamique permettant d'actualiser les données à chaque étape de planification, le premier niveau planifie la production en recherchant le meilleur compromis entre les leviers décisionnels disponibles liés aux aspects capacité et coût de production. Le deuxième niveau établit un ordonnancement agrégé des opérations de fabrication en minimisant les en-cours. Le recours à une structure décisionnelle intégrée nous a conduit à établir une interaction entre les niveaux supérieur et inférieur de décision, mise en oeuvre par des contraintes dites de conservation d'énergie. Notre approche est modélisée sous la forme d'un problème de satisfaction de contraintes (CSP, Constraint Satisfaction Problem) et évaluée par simulation dans un contexte de données incertaines. Nous avons mené différentes expérimentations portant sur la variation de la demande, la variation de la capacité et la re-planification de la demande. Toutes les expérimentations sont réalisées par deux méthodes de résolution différentes : une méthode basée sur un CSP statique et une méthode basée sur un CSP dynamique. La performance d'une solution de planification/ordonnancement est renseignée par l'ensemble des mesures de la stabilité et de la robustesse. Les expérimentations réalisées offrent une démonstration de la performance de la méthode de résolution basée sur un CSP dynamique par rapport à la méthode statique.
|
198 |
Improving scalability of exploratory model checkingBoulgakov, Alexandre January 2016 (has links)
As software and hardware systems grow more complex and we begin to rely more on their correctness and reliability, it becomes exceedingly important to formally verify certain properties of these systems. If done naïvely, verifying a system can easily require exponentially more work than running it, in order to account for all possible executions. However, there are often symmetries or other properties of a system that can be exploited to reduce the amount of necessary work. In this thesis, we present a number of approaches that do this in the context of the CSP model checker FDR. CSP is named for Communicating Sequential Processes, or parallel combinations of state machines with synchronised communications. In the FDR model, the component processes are typically converted to explicit state machines while their parallel combination is evaluated lazily during model checking. Our contributions are motivated by this model but applicable to other models as well. We first address the scalability of the component machines by proposing a lazy compiler for a subset of CSP<sub>M</sub> selected to model parameterised state machines. This is a typical case where the state space explosion can make model checking impractical, since the size of the state space is exponential in the number and size of the parameters. A lazy approach to evaluating these systems allows only the reachable subset of the state space to be explored. As an example, in studying security protocols, it is common to model an intruder parameterised by knowledge of each of a list of facts; even a relatively small 100 facts results in an intractable 2<sup>100</sup> states, but the rest of the system can ensure that only a small number of these states are reachable. Next, we address the scalability of the overall combination by presenting novel algorithms for bisimulation reduction with respect to strong bisimulation, divergence- respecting delay bisimulation, and divergence-respecting weak bisimulation. Since a parallel composition is related to the Cartesian product of its components, performing a relatively time-consuming bisimulation reduction on the components can reduce its size significantly; an efficient bisimulation algorithm is therefore very desirable. This thesis is motivated by practical implementations, and we discuss an implementation of each of the proposed algorithms in FDR. We thoroughly evaluate their performance and demonstrate their effectiveness.
|
199 |
Pré-processamento, extração de características e classificação offline de sinais eletroencefalográficos para uso em sistemas BCIMachado, Juliano Costa January 2012 (has links)
O uso de sistemas denominados Brain Computer Interface, ou simplesmente BCI, para controle de dispositivos tem gerado cada vez mais trabalhos de análise de sinais de EEG, principalmente devido ao fato do desenvolvimento tecnológico dos sistemas de processamento de dados, trazendo novas perspectiva de desenvolvimento de equipamentos que auxiliem pessoas com debilidades motoras. Neste trabalho é abordado o comportamento dos classificadores LDA (Discriminante Linear de Fisher) e o classificador Naive Bayes para classificação de movimento de mão direita e mão esquerda a partir da aquisição de sinais eletroencefalográficos. Para análise destes classificadores foram utilizadas como características de entrada a energia de trechos do sinal filtrados por um passa banda com frequências dentro dos ritmos sensório-motor e também foram utilizadas componentes de energia espectral através do periodograma modificado de Welch. Como forma de pré-processamento também é apresentado o filtro espacial Common Spatial Pattern (CSP) de forma a aumentar a atividade discriminativa entre as classes de movimento. Foram obtidas taxas de acerto de até 70% para a base de dados geradas neste trabalho e de até 88% utilizando a base de dados do BCI Competition II, taxas de acertos compatíveis com outros trabalhos na área. / Brain Computer Interface (BCI) systems usage for controlling devices has increasingly generated research on EEG signals analysis, mainly because the technological development of data processing systems has been offering a new perspective on developing equipment to assist people with motor disability. This study aims to examine the behavior of both Fisher's Linear Discriminant (LDA) and Naive Bayes classifiers in determining both the right and left hand movement through electroencephalographic signals. To accomplish this, we considered as input feature the energy of the signal trials filtered by a band pass with sensorimotor rhythm frequencies; spectral power components from the Welch modified periodogram were also used. As a preprocessing form, the Common Spatial Pattern (CSP) filter was used to increase the discriminative activity between classes of movement. The database created from this study reached hit rates of up to 70% while the BCI Competition II reached hit rates up to 88%, which is consistent with the literature.
|
200 |
Aufbau und Inbetriebahme eines Teststandes mit bewegtem Reaktionsbett zur thermochemischen WärmespeicherungRamm, Nico 26 May 2015 (has links) (PDF)
Für den ökonomischen Erfolg konzentrierender Solarkraftwerke und für die Effizienz-steigerung der Industrie durch Weiterverwendung von Abwärme sind skalierbare Hochtemperatur-Wärmespeicher zu vertretbaren Kosten unabdingbar. Bisher sind für dieses Anwendungsgebiet nur sensible Speicher kommerziell verfügbar. Denen gegenüber besitzen chemische Speicher zahlreiche Vorteile. Sie bieten höhere Speicherdichten, geringere Wärmeverluste, die Möglichkeit zur Wärmetransformation durch Variation des Reaktionsdrucks und eine Vielzahl von Reaktionssystemen für eine optimale Prozess-integration. Jedoch befinden sie sich noch in der Entwicklungsphase.
Die reversible Gas-/Feststoffreaktion von Calciumoxid und Wasserdampf zu Calcium-hydroxid geschieht bei Temperaturen von 400 – 600 °C und ist damit optimal für solarthermische Anwendungen geeignet. Für die Entwicklung eines Speichers ist neben der thermochemischen Charakterisierung des Speichermaterials ein effizientes, skalierbares Reaktorkonzept nötig. Ein Reaktor mit bewegtem Reaktionsbett ermöglicht die Trennung der zwei charakteristischen Speichergrößen Leistung und Kapazität und stellt damit einen wirtschaftlichen Speicher in Aussicht.
Die vorliegende Arbeit befasst sich mit Aufbau und Inbetriebnahme eines neuen Teststandes, in welchem ein innovatives Reaktordesign erprobt werden soll. Sie beschreibt die Auslegung einer planaren Reaktorgeometrie, die einen Schwerkraftfluss des Bettes und die Modularisierung für größere Anlagen gewährleistet. Bei Vorversuchen stellt sich die homo-gene Bewegung des Reaktionsbettes aufgrund dessen Kompressibilität als schwierig heraus. Der angestrebte homogene Massenfluss des Reaktionsmaterials kann durch die ursprünglich eingesetzten Feindosiereinheiten nicht erzielt werden. Sie zeigen sich jedoch für die Temperierung des Speichermediums und die Gasdichtheit des Reaktionsraumes als geeignet.
Das homogene Ausfließen wird einer separaten Austragshilfe zugeteilt, welche konstruiert und umgesetzt wird. Experimente mit einem Schaureaktor identifizieren eine Zahnwelle als beste Option. Für einen kommerziellen Speicher wird ein Schlitzschieber empfohlen. Ebenso erfolgen Auslegung und Errichtung der peripheren Anlagenteile, wie z.B. die Fertigung eines Druckhalters zur Steuerung der Reaktionstemperatur. Am Teststand werden somit alle Vorbereitungen abgeschlossen, um Heißversuche bei Reaktionstemperatur durchzuführen.
|
Page generated in 0.0294 seconds