• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 413
  • 135
  • 59
  • 5
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 636
  • 230
  • 143
  • 135
  • 69
  • 64
  • 60
  • 53
  • 53
  • 53
  • 48
  • 45
  • 42
  • 38
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Mesure d’impédance acoustique pour la caractérisation des cycles limites de moteurs thermoacoustiques / Acoustic impedance measurement to caracterize thermoacoustic engines limit cycles

Zorgnotti, Valentin 18 January 2019 (has links)
Ce manuscrit de doctorat propose une méthode expérimentale pour la caractérisation du cycle limite acoustique atteint par les auto-oscillations générées dans un moteur thermoacoustique.Pour cela, un capteur d'impédance fort niveau est développé dans le but de mesurer l'impédance d'entrée d'un noyau thermoacoustique en fonction de la puissance de chauffage fournie, de la fréquence et de l'amplitude du forçage acoustique.L'utilisation de ces mesures permet de prédire avec succès la génération spontanée d'auto-oscillations ainsi que leur saturation jusqu'à un régime établi, pour différentes charges attachées au noyau.Les mesures ainsi obtenues sont comparées à un modèle établi sur la base de la théorie linéaire de la thermoacoustique, couplé un modèle thermique simplifié, menant à une meilleure compréhension des processus physiques responsables de la saturation des oscillations acoustiques.La procédure expérimentale décrite dans ce manuscrit permet aussi de proposer une méthode d'optimisation du couplage entre la charge et le noyau de manière à maximiser l'efficacité potentielle de la conversion d'énergie thermoacoustique.Finalement, une méthode expérimentale est décrite et permet l'étude de la stabilité des cycles limites, ou plus généralement de l'évolution lente de l'amplitude des auto-oscillations acoustiques, dans le cas où le moteur thermoacoustique est configuré de manière à donner lieu à un régime de déclenchements et arrêts périodiques. / This manuscript deals with the experimental characterization of the acoustic limit cycle reached by self-sustained oscillations generated in thermoacoustic engines.A specially designed, high amplitude, acoustic impedance sensor was developed to perform measurements of the input impedance of a thermoacoustic core, as a function of the heating power supplied to the device, of the frequency, and of the amplitude of acoustic forcing.Those measurements can then be used to predict the spontaneous generation of acoustic oscillations and their saturation up to a certain steady-state.Those predictions were successful for various acoustic loads connected to the thermoacoustic core.Moreover, the measurements of acoustic impedance as a function of the amplitude of acoustic oscillations are compared to a model based on the linear thermoacoustic theory, and this comparaison provides insights into the processes controlling the saturation of acoustic oscillations.The experimental procedure described in this manuscript also leads to a pratical way of optimizing the coupling between the thermoacoustic core and the load, in the way that the potential efficiency of thermoacoustic energy conversion is maximized.Finally, an experimental method is described and allows to study the stability of limit cycles, i.e. the temporal evolution of the self-oscillation amplitude, in the case of a system that is able to give rise to a spontaneous periodic \textit{trigg and stop} behavior.
382

Numerical and modeling methods for multi-level large eddy simulations of turbulent flows in complex geometries / Modélisation et méthodes numériques pour la simulation aux grandes échelles muti-niveaux des écoulements turbulents dans des géométries complexes

Legrand, Nicolas 13 December 2017 (has links)
La simulation aux grandes échelles est devenue un outil d’analyse incontournable pour l’étude des écoulements turbulents dans des géométries complexes. Cependant, à cause de l’augmentation constante des ressources de calcul, le traitement des grandes quantités de données générées par les simulations hautement résolues est devenu un véritable défi qu’il n’est plus possible de relever avec des outils traditionnels. En mécanique des fluides numérique, cette problématique émergente soulève les mêmes questions que celles communément rencontrées en informatique avec des données massives. A ce sujet, certaines méthodes ont déjà été développées telles que le partitionnement et l’ordonnancement des données ou bien encore le traitement en parallèle mais restent insuffisantes pour les simulations numériques modernes. Ainsi, l’objectif de cette thèse est de proposer de nouveaux formalismes permettant de contourner le problème de volume de données en vue des futurs calculs exaflopiques que l’informatique devrait atteindre en 2020. A cette fin, une méthode massivement parallèle de co-traitement, adaptée au formalisme non-structuré, a été développée afin d’extraire les grandes structures des écoulements turbulents. Son principe consiste à introduire une série de grilles de plus en plus grossières réduisant ainsi la quantité de données à traiter tout en gardant intactes les structures cohérentes d’intérêt. Les données sont transférées d’une grille à une autre grâce à l’utilisation de filtres et de méthodes d’interpolation d’ordre élevé. L’efficacité de cette méthodologie a pu être démontrée en appliquant des techniques de décomposition modale lors de la simulation 3D d’une pale de turbine turbulente sur une grille de plusieurs milliards d’éléments. En outre, cette capacité à pouvoir gérer plusieurs niveaux de grilles au sein d’une simulation a été utilisée par la suite pour la mise en place de calculs basés sur une stratégie multi-niveaux. L’objectif de cette méthode est d’évaluer au cours du calcul les erreurs numériques et celles liées à la modélisation en simulant simultanément la même configuration pour deux résolutions différentes. Cette estimation de l’erreur est précieuse car elle permet de générer des grilles optimisées à travers la construction d’une mesure objective de la qualité des grilles. Ainsi, cette méthodologie de multi-résolution tente de limiter le coût de calcul de la simulation en minimisant les erreurs de modélisation en sous-maille, et a été appliquée avec succès à la simulation d’un écoulement turbulent autour d’un cylindre. / Large-Eddy Simulation (LES) has become a major tool for the analysis of highly turbulent flows in complex geometries. However, due to the steadily increase of computational resources, the amount of data generated by well-resolved numerical simulations is such that it has become very challenging to manage them with traditional data processing tools. In Computational Fluid Dynamics (CFD), this emerging problematic leads to the same "Big Data" challenges as in the computer science field. Some techniques have already been developed such as data partitioning and ordering or parallel processing but still remain insufficient for modern numerical simulations. Hence, the objective of this work is to propose new processing formalisms to circumvent the data volume issue for the future 2020 exa-scale computing objectives. To this aim, a massively parallel co-processing method, suited for complex geometries, was developed in order to extract large-scale features in turbulent flows. The principle of the method is to introduce a series of coarser nested grids to reduce the amount of data while keeping the large scales of interest. Data is transferred from one grid level to another using high-order filters and accurate interpolation techniques. This method enabled to apply modal decomposition techniques to a billion-cell LES of a 3D turbulent turbine blade, thus demonstrating its effectiveness. The capability of performing calculations on several embedded grid levels was then used to devise the multi-resolution LES (MR-LES). The aim of the method is to evaluate the modeling and numerical errors during an LES by conducting the same simulation on two different mesh resolutions, simultaneously. This error estimation is highly valuable as it allows to generate optimal grids through the building of an objective grid quality measure. MR-LES intents to limit the computational cost of the simulation while minimizing the sub-grid scale modeling errors. This novel framework was applied successfully to the simulation of a turbulent flow around a 3D cylinder.
383

Pharmacogénétique de l'Imatinib dans la Leucémie Myéloïde Chronique etDonnées Censurées par Intervalles en présence de Compétition / Pharmacogenetics of Imatinib in Chronic Myeloid Leukemia etInterval Censored Competing Risks Data

Delord, Marc 05 November 2015 (has links)
Le traitement de la leucémie myéloïde chronique (LMC) par imatinib est un succès de thérapie ciblée en oncologie. Le principe de cette thérapie est de bloquer les processus biochimiques à l'origine du développement de la maladie, et de permettre à une majorité de patients de réduire leurs risques de progression mais aussi d'éviter des traitements lourds et risqués comme la greffe de cellules souches hématopoïétiques.Cependant, même si l'efficacité de l'imatinib à été prouvée dans un contexte clinique, il n'en demeure pas moins qu'une proportion non négligeable de patients n'obtient par de niveaux de réponse moléculaire jugés optimale. Le but de cette thèse est de tester l'hypothèse d'un lien entre des polymorphismes de gènes impliqués dans l'absorption des médicaments et de leurs métabolisme, et la réponse moléculaire dans la leucémie myéloïde chronique en phase chronique traitée par imatinib.Dans le but d'évaluer la réponse moléculaire des patients, des prélèvements sanguins sont réalisés tout les 3 mois afin de pratiquer le dosage d'un biomarqueur. Ce type particulier de suivi produit des données censurées par intervalles. Comme par ailleurs, les patients demeurent à risque de progression ou sont susceptible d'interrompre leurs traitements pour cause d'intolérance, il est possible que la réponse d'intérêt ne soit plus observable sous le traitement étudié. Les données ainsi produites sont censurées par intervalles dans un contexte de compétition (risques compétitifs).Afin de tenir compte de la nature particulière des données collectées, une méthode basée sur l'imputation multiple est proposée. L'idée est de transformer les données censurées par intervalles en de multiples jeux de données potentiellement censurées à droite et d'utiliser les méthodes disponibles pour l'analyser de ces données. Finalement les résultats sont assemblés en suivant les règles de l'imputation multiple. / Imatinib in the treatment of chronic myeloid leukemia is a success of targeted therapy in oncology. The aim of this therapy is to block the biochemical processes leading to disease development. This strategy results in a reduction of the risk of disease progression and allows patients to avoid extensive and hazardous treatments such as hematologic stem cell transplantation.However, even if imatinib efficacy has been demonstrated in a clinical setting, a significant part of patients do not achieve suitable levels of molecular response. The objective of this thesis, is to test the hypothesis of a correlation between polymorphisms of genes implied in drug absorption an metabolism and the molecular response in chronic myeloid leukemia in chronic phase treated by imatinib.In order to evaluate patients molecular response, blood biomarker assessments are performed every 3 months. This type of follow up produces interval censored data. As patients remain at risk of disease progression, or may interrupt their treatments due to poor tolerance, the response of interest may not be observable in a given setting. This situation produces interval censored competing risks data.To properly handle such data, we propose a multiple imputation based method.The main idea is to convert interval censored data into multiple sets of potentially right censored data that are then analysed using multiple imputation rules.
384

Circuit-level approaches to mitigate the process variability and soft errors in FinFET logic cells / Approches au niveau du circuit pour atténuer la variabilité de fabrication et les soft errors dans les cellules logiques FinFET

Lackmann-Zimpeck, Alexandra 24 September 2019 (has links)
Les contraintes imposées par la roadmap technologique nanométrique imposent aux fabricants de microélectronique une réduction de la variabilité de fabrication mais également de durcissement vis-à-vis des erreurs logiques induits par l’environnement radiatif naturel afin d’assurer un haut niveau de fiabilité. Certains travaux ont mis en évidence l'influence de la variabilité de fabrication et SET sur les circuits basés sur les technologies FinFET. Cependant jusqu’à lors, aucune approche pour les atténuer n’ont pu être présenté pour les technologies FinFET. Pour ces raisons, du point de vue de la conception, des efforts considérables doivent être déployés pour comprendre et réduire les impacts générés par ces deux problématiques de fiabilité. Dans ce contexte, les contributions principales de cette thèse sont: 1) étudier le comportement des cellules logiques FinFET en fonction des variations de fabrication et des effets de rayonnement; 2) évaluer quatre approches des durcissement au niveau du circuit afin de limiter les effets de variabilité (work-function fluctuation, WFF) de fabrication et des soft errors (SE); 3) fournir une comparaison entre toutes les techniques appliquées dans ce travail; 4) proposer le meilleur compromis entre performance, consommation, surface, et sensibilité aux corruptions de données et erreurs transitoires. Transistor reordering, decoupling cells, Schmitt Trigger, et sleep transistor sont quatre techniques prometteuses d’optimisation au niveau de circuit, explorées dans ce travail. Le potentiel de chacune d'elles pour rendre les cellules logiques plus robustes vis-à-vis variabilité de fabrication et de SE a été évalué. Cette thèse propose également une estimation des tendances comportementales en fonction du niveau de variabilité, des dimensionnements des transistors et des caractéristiques énergétique de particule ionisante comme transfert d'énergie linéaire. Lors de cette thèse, la variabilité de fabrication a été évaluée par des simulations Monte Carlo (MC) avec une WFF modélisé par une fonction Gaussienne utilisant le SPICE. La susceptibilité SE a été estimée à partir de d’outil de génération MC de radiations, MUSCA SEP3. Cet outil est basé sur des calculs MC afin de rendre compte des caractéristiques de l’environnement radiatif du design et des paramètres électriques des composants analysés. Les approches proposées par cette thèse améliorent l'état-de-l'art actuel en fournissant des options d’optimisation au niveau du circuit pour réduire les effets de variabilité de fabrication et la susceptibilité aux SE. La Transistor reordering peut augmenter la robustesse des cellules logiques pour une variabilité allant jusqu’à 8%, cependant cette approche n’est pas idéale pour la mitigation des SE. L’utilisation de decoupling cells permet de meilleurs résultats pour le contrôle de la variabilité de consommation avec des niveaux de variation supérieurs à 4%, et atténuant jusqu'à 10% la variabilité du délai pour la variabilité de fabrication de 3% de la WFF. D’un point de vue SE, cette technique permet une diminution de 10% de la sensibilité des cellules logiques étudiées. L’utilisation de structure Schmitt Triggers en sortie de cellule logique permet une amélioration allant jusqu’à 5% de la sensibilité à la variabilité de fabrication. Enfin, l’utilisation de sleep transistors améliore la variabilité de fabrication d'environ 12% pour 5% de WFF. La variabilité du délai dépend de la manière dont les transistors sont disposés au circuit. Cette méthode permet une immunité totale de la cellule logique y compris en régime near-threshold. En résumé, la meilleure approche de mitigation de la variabilité de fabrication semble être l’utilisation de structure Schmitt Triggers alors que l’utilisation de sleep transistors est le plus adapté pour l’optimisation de SE. Ainsi, selon les applications et contraintes, la méthode de durcissement par sleep transistors semble proposer le meilleur compromis. / Process variability mitigation and radiation hardness are relevant reliability requirements as chip manufacturing advances more in-depth into the nanometer regime. The parameter yield loss and critical failures on system behavior are the major consequences of these issues. Some related works explore the influence of process variability and single event transients (SET) on the circuits based on FinFET technologies, but there is a lack of approaches to mitigate them. For these reasons, from a design standpoint, considerable efforts should be made to understand and reduce the impacts introduced by reliability challenges. In this regard, the main contributions of this PhD thesis are to: 1) investigate the behavior of FinFET logic cells under process variations and radiation effects; 2) evaluate four circuit-level approaches to attenuate the impact caused by work-function fluctuations (WFF) and soft errors (SE); 3) provide an overall comparison between all techniques applied in this work; 4) trace a trade-off between the gains and penalties of each approach regarding performance, power, area, SET cross-section, and SET pulse width. Transistor reordering, decoupling cells, Schmitt Triggers, and sleep transistors are the four circuit-level mitigation techniques explored in this work. The potential of each one to make the logic cells more robust to the process variability and radiation-induced soft errors are assessed comparing the standard version results with the design using each approach. This PhD thesis also establishes the mitigation tendency when different levels of variation, transistor sizing, and radiation particles characteristics such as linear energy transfer (LET) are applied in the design with these techniques.The process variability is evaluated through Monte Carlo (MC) simulations with the WFF modeled as a Gaussian function using SPICE simulation while the SE susceptibility is estimated using the radiation event generator tool MUSCA SEP3 (developed at ONERA) also based on a MC method that deals both with radiation environment characteristics, layout features and the electrical properties of devices. In general, the proposed approaches improve the state-of-the-art by providing circuit-level options to reduce the process variability effects and SE susceptibility, at fewer penalties and design complexity. The transistor reordering technique can increase the robustness of logic cells under process variations up to 8%, but this method is not favorable for SE mitigation. The insertion of decoupling cells shows interesting outcomes for power variability control with levels of variation above 4%, and it can attenuate until 10% the delay variability considering manufacturing process with 3% of WFF. Depending on the LET, the design with decoupling cells can decrease until 10% of SE susceptibility of logic cells. The use of Schmitt Triggers in the output of FinFET cells can improve the variability sensitivity by up to 50%. The sleep transistor approach improves the power variability reaching around 12% for WFF of 5%, but the advantages of this method to delay variability depends how the transistors are arranged with the sleep transistor in the pull-down network. The addition of a sleep transistor become all logic cells studied free of faults even at the near-threshold regime. In this way, the best approach to mitigate the process variability is the use of Schmitt Triggers, as well as the sleep transistor technique is the most efficient for the SE mitigation. However, the Schmitt Trigger technique presents the highest penalties in area, performance, and power. Therefore, depending on the application, the sleep transistor technique can be the most appropriate to mitigate the process variability effects.
385

Architectures parallèles reconfigurables pour le traitement vidéo temps-réel / Parallel reconfigurable hardware architectures for video processing applications

Ali, Karim Mohamed Abedallah 08 February 2018 (has links)
Les applications vidéo embarquées sont de plus en plus intégrées dans des systèmes de transport intelligents tels que les véhicules autonomes. De nombreux défis sont rencontrés par les concepteurs de ces applications, parmi lesquels : le développement des algorithmes complexes, la vérification et le test des différentes contraintes fonctionnelles et non-fonctionnelles, la nécessité d’automatiser le processus de conception pour augmenter la productivité, la conception d’une architecture matérielle adéquate pour exploiter le parallélisme inhérent et pour satisfaire la contrainte temps-réel, réduire la puissance consommée pour prolonger la durée de fonctionnement avant de recharger le véhicule, etc. Dans ce travail de thèse, nous avons utilisé les technologies FPGAs pour relever certains de ces défis et proposer des architectures matérielles reconfigurables dédiées pour des applications embarquées de traitement vidéo temps-réel. Premièrement, nous avons implémenté une architecture parallèle flexible avec deux contributions principales : (1) Nous avons proposé un modèle générique de distribution/collecte de pixels pour résoudre le problème de transfert de données à haut débit à travers le système. Les paramètres du modèle requis sont tout d’abord définis puis la génération de l’architecture a été automatisée pour minimiser le temps de développement. (2) Nous avons appliqué une technique d’ajustement de la fréquence pour réduire la consommation d’énergie. Nous avons dérivé les équations nécessaires pour calculer le niveau maximum de parallélisme ainsi que les équations utilisées pour calculer la taille des FIFO pour le passage d’un domaine de l’horloge à un autre. Au fur et à mesure que le nombre de cellules logiques sur une seule puce FPGAaugmente, passer à des niveaux d’abstraction plus élevés devient inévitable pour réduire la contrainte de « time-to-market » et augmenter la productivité des concepteurs. Pendant la phase de conception, l’espace de solutions architecturales présente un grand nombre d’alternatives avec des performances différentes en termes de temps d’exécution, ressources matérielles, consommation d’énergie, etc. Face à ce défi, nous avons développé l’outil ViPar avec deux contributions principales : (1) Un modèle empirique a été introduit pour estimer la consommation d’énergie basé sur l’utilisation du matériel (Slice et BRAM) et la fréquence de fonctionnement ; en plus de cela, nous avons dérivé les équations pour estimer les ressources matérielles et le temps d’exécution pour chaque alternative au cours de l’exploration de l’espace de conception. (2) En définissant les principales caractéristiques de l’architecture parallèle comme le niveau de parallélisme, le nombre de ports d’entrée/sortie, le modèle de distribution des pixels, ..., l’outil ViPar génère automatiquement l’architecture matérielle pour les solutions les plus pertinentes. Dans le cadre d’une collaboration industrielle avec NAVYA, nous avons utilisé l’outil ViPar pour implémenter une solution matérielle parallèle pour l’algorithme de stéréo matching « Multi-window Sum of Absolute Difference ». Dans cette implémentation, nous avons présenté un ensemble d’étapes pour modifier le code de description de haut niveau afin de l’adapter efficacement à l’implémentation matérielle. Nous avons également exploré l’espace de conception pour différentes alternatives en termes de performance, ressources matérielles, fréquence, et consommation d’énergie. Au cours de notre travail, les architectures matérielles ont été implémentées et testées expérimentalement sur la plateforme d’évaluation Xilinx Zynq ZC706. / Embedded video applications are now involved in sophisticated transportation systems like autonomous vehicles. Many challenges faced the designers to build those applications, among them: complex algorithms should be developed, verified and tested under restricted time-to-market constraints, the necessity for design automation tools to increase the design productivity, high computing rates are required to exploit the inherent parallelism to satisfy the real-time constraints, reducing the consumed power to extend the operating duration before recharging the vehicle, etc. In this thesis work, we used FPGA technologies to tackle some of these challenges to design parallel reconfigurable hardware architectures for embedded video streaming applications. First, we implemented a flexible parallel architecture with two main contributions: (1)We proposed a generic model for pixel distribution/collection to tackle the problem of the huge data transferring through the system. The required model parameters were defined then the architecture generation was automated to minimize the development time. (2) We applied frequency scaling as a technique for reducing power consumption. We derived the required equations for calculating the maximum level of parallelism as well as the ones used for calculating the depth of the inserted FIFOs for clock domain crossing. As the number of logic cells on a single FPGA chip increases, moving to higher abstraction design levels becomes inevitable to shorten the time-to-market constraint and to increase the design productivity. During the design phase, it is common to have a space of design alternatives that are different from each other regarding hardware utilization, power consumption and performance. We developed ViPar tool with two main contributions to tackle this problem: (1) An empirical model was introduced to estimate the power consumption based on the hardware utilization (Slice and BRAM) and the operating frequency. In addition to that, we derived the equations for estimating the hardware resources and the execution time for each point during the design space exploration. (2) By defining the main characteristics of the parallel architecture like parallelism level, the number of input/output ports, the pixel distribution pattern, etc. ViPar tool can automatically generate the parallel architecture for the selected designs for implementation. In the context of an industrial collaboration, we used high-level synthesis tools to implement a parallel hardware architecture for Multi-window Sum of Absolute Difference stereo matching algorithm. In this implementation, we presented a set of guiding steps to modify the high-level description code to fit efficiently for hardware implementation as well as we explored the design space for different alternatives in terms of hardware resources, performance, frequency and power consumption. During the thesis work, our designs were implemented and tested experimentally on Xilinx Zynq ZC706 (XC7Z045- FFG900) evaluation board.
386

Conception et tarification de nouveaux services en énergie dans un environnement compétitif / Design and pricing of new energy services in a competitive environment

Von Niederhäusen, Léonard 04 April 2019 (has links)
L’objectif de cette thèse est de développer et étudier des modèles mathématiques d’échanges économiques, basés sur la flexibilité de la demande, entre fournisseurs et consommateurs d’électricité. D’une part, des fournisseurs d’électricité offrent des prix dépendant de l’heure de consommation. D’autre part, des consommateurs adaptent leur usage, minimisant leur facture et le désagrément lié aux changements de consommation induits. La structure de ces problèmes correspond à des problèmes d’optimisation bi-niveau. Trois types de modèles sont étudiés. Tout d’abord, l’interaction entre un fournisseur et un opérateur de smart grid est modélisée par un problème à un seul meneur et un seul suiveur. Pour cette première approche, le niveau de détails du suiveur est particulièrement élevé, et inclut notamment une gestion stochastique de la production distribuée. La meilleure réponse d’un fournisseur dans un modèle à plusieurs meneurs et plusieurs suiveurs fait l’objet de la seconde partie de la thèse. Celle-ci intègre aussi la possibilité d’avoir des agrégateurs comme suiveurs. Deux nouvelles méthodes de résolution reposant sur la sélection d’équilibres de Nash entre suiveurs sont proposées. Enfin, dans une troisième et dernière partie, on se focalise sur la recherche d’équilibres non coopératifs pour ce modèle à plusieurs meneurs et plusieurs suiveurs.Tous les problèmes abordés dans cette thèse le sont non seulement d’un point de vue théorique, mais également d’un point de vue numérique / The objective of this thesis is to develop and study mathematical models of economical exchanges between energy suppliers and consumers, using demand-side management. On one hand, the suppliers offer time-of-use electricity prices. On the other hand, energy consumers decide on their energy demand schedule, minimizing their electricity bill and the inconvenience due to schedule changes. This problem structure gives rise to bilevel optimization problems.Three kinds of models are studied. First, single-leader single-follower problems modeling the interaction between an energy supplier and a smart grid operator. In this first approach, the level of details is very high on the follower’s side, and notably includes a stochastic treatment of distributed generation. Second, a multi-leader multi-follower problem is studied from the point of view of the best response of one of the suppliers. Aggregators are included in the lower level. Two new resolution methods based on a selection of Nash equilibriums at the lower level are proposed. In the third and final part, the focus is on the evaluation of noncooperative equilibriums for this multi-leader multi-follower problem.All the problems have been studied both from a theoretical and numerical point of view.
387

Modulation du réflexe acoustique de sursaut par la musique stimulante et relaxante

Richard, Marie-Andrée 08 1900 (has links)
La musique a la capacité d’induire et moduler les émotions, décomposées en deux dimensions : le niveau d’activation (relaxant-stimulant) et la valence émotionnelle (déplaisant-plaisant). Une façon de mesurer objectivement la valence musicale est par le réflexe acoustique de sursaut, une réaction de défense qui consiste en un clignement de l’oeil provoqué par un bruit fort et inattendu. Le réflexe est renforcé par la musique déplaisante et inhibée par la musique plaisante. Cependant, l’effet du niveau d’activation émotionnelle lors de l’écoute musicale demeure inconnu. Cette étude a donc pour objectif d’examiner la modulation du réflexe acoustique de sursaut par la musique stimulante et relaxante jugée plaisante. Basée sur les résultats d’études antérieures avec des images, notre hypothèse était que le réflexe serait plus faible dans la condition stimulante que dans la condition relaxante. Dans un devis intrasujet, 47 participants ont écouté de la musique relaxante et stimulante. Des bruits blancs courts et forts ont été rajoutés par-dessus les extraits afin de provoquer le réflexe de sursaut, dont son amplitude et sa latence ont été mesurées par électromyographie. Les résultats ont ensuite été comparés à ceux d’une condition non-musicale, constituée de sons environnementaux plaisants, afin d’explorer si la musique est plus efficace pour inhiber le réflexe. Finalement, des caractéristiques acoustiques, telles que la clarté de la pulsation, la densité acoustique, la dissonance et l’énergie, ont été extraites puis comparées entre les trois conditions pour explorer leur relation avec les paramètres du réflexe. Les résultats rapportent une modulation de la latence du réflexe de sursaut, dans laquelle celle-ci est plus longue dans la condition stimulante comparée à la condition relaxante. Cependant, aucune différence au niveau de l’amplitude n’a été observée. Seule la latence serait donc sensible au niveau d’activation des émotions musicales lorsque la musique est plaisante. Ensuite, la latence dans la condition non-musicale était aussi longue que celle dans la condition stimulante, suggérant que la musique n’est pas plus efficace que les sons non-musicaux pour inhiber le réflexe de sursaut. Finalement, comme l’amplitude et la latence n’ont pas le même patron de réponses, cette étude suggère que le réflexe de sursaut est aussi modulé par le traitement des caractéristiques acoustiques et que ceux-ci ont un effet différent sur ces deux paramètres. En conclusion, la latence du réflexe acoustique de sursaut est une bonne méthode pour mesurer le niveau d’activation des émotions musicales. De futures recherches pourront utiliser le paradigme de la modulation affective du réflexe de sursaut pour mesurer les effets des émotions musicales selon des facteurs individuels tels que l’âge et la dépression. / Music has the capacity to evoke and modulate emotions, divided by two dimensions: arousal (relaxing-stimulating), and valence (unpleasant-pleasant). Musical valence can be objectively measured by the acoustic startle reflex, a defensive reaction consisting of an eye blink provoked by a short and loud noise. This reflex is facilitated by unpleasant music and inhibited by pleasant music. However, the arousal effect while listening to music on the startle reflex remains unknown. This study therefore aims to explore the affective startle modulation by stimulating and relaxing music. In a within-subjects design, 47 participants listened to stimulating music, relaxing music and non-musical sounds. White noises (50 ms, 105 dB(A)) were added over the excerpts to induce startle while eyeblink magnitude and latency were measured by electromyography. Excerpts’ acoustic features were then extracted and compared through experimental conditions to explore their effect on startle modulation. Startle latency was longer in the stimulating condition compared to the relaxing one, but no differences in magnitude were found, partially confirming our predictions. Exploratory analyses suggest that startle modulation is also attributed to bottom-up processes of acoustic features, and that these latter impact differently magnitude and latency. In conclusion, this study highlights startle latency measure efficiently emotional arousal while listening to music, allowing future research to use the paradigm of affective startle reflex modulation to evaluate the effect of music on emotions considering individual factors, such as age and depression. It also paves the way for comparisons of the effect of emotions and acoustic features processes on the startle reflex modulation.
388

An innovative model for developing critical thinking skills throughmathematical education

Aizikovitsh, Einav, Amit, Miriam 11 April 2012 (has links)
In a challenging and constantly changing world, students are required to develop advanced thinking skills such as critical systematic thinking, decision making and problem solving. This challenge requires developing critical thinking abilities which are essential in unfamiliar situations. A central component in current reforms in mathematics and science studies worldwide is the transition from the traditional dominant instruction which focuses on algorithmic cognitive skills towards higher order cognitive skills. The transition includes, a component of scientific inquiry, learning science from the student''s personal, environmental and social contexts and the integration of critical thinking. The planning and implementation of learning strategies that encourage first order thinking among students is not a simple task. In an attempt to put the importance of this transition in mathematical education to a test, we propose a new method for mathematical instruction based on the infusion approach put forward by Swartz in 1992. In fact, the model is derived from two additional theories., that of Ennis (1989) and of Libermann and Tversky (2001). Union of the two latter is suggested by the infusion theory. The model consists of a learning unit (30h hours) that focuses primarily on statistics every day life situations, and implemented in an interactive and supportive environment. It was applied to mathematically gifted youth of the Kidumatica project at Ben Gurion University. Among the instructed subjects were bidimensional charts, Bayes law and conditional probability; Critical thinking skills such as raising questions, seeking for alternatives and doubting were evaluated. We used Cornell tests (Ennis 1985) to confirm that our students developed critical thinking skills.
389

L’implication dans la création normative en milieu de travail : étude d’une entreprise d’installation et de maintenance de matériel électrique et thermique / Commitment in the creation of norms within the workplace : a study of a company specialised in the installation and maintenance of electrical and thermal equipment

Murtada, Dima 19 March 2019 (has links)
La création des normes au sein des organisations est un phénomène assujetti aux influences sociales, aux interactions entre les individus, aux négociations entre acteurs et à la diffusion des innovations. L’individu a une place centrale dans ce phénomène, que ce soit par l’initiation d’une nouvelle norme, son acceptation ou sa diffusion. La contribution des individus à la création normative est pourtant peu étudiée par la littérature. Notre recherche propose d’isoler des cas d’implications individuelles envers la création de normes spécifiques. L’objectif étant de saisir la richesse des apports des individus à cette création et de mieux comprendre les raisons derrière leurs actions en faveur d’une nouvelle norme. La recherche présente la formation de l’implication sous la forme d’un processus comportant trois phases : la remise en cause du statu quo, l’évaluation positive de l’implication et la manifestation de l’implication par des actions et des comportements en faveur de la nouvelle norme. Ce processus est traversé par des déterminants affectifs et cognitifs chez les individus et est favorisé par des facteurs d’ordre personnel, interpersonnel, sociétal et organisationnel. / The creation of norms within organizations is a phenomenon that is subject to social influences, interactions between individuals, negotiations between actors and the diffusion of innovations. The individual has a key role in this phenomenon through the initiation of a new norm, its acceptance or its diffusion. However, the contribution of individuals to normative creation is not fully exploited by the literature. The objective of the current research was to bridge this gap by isolating cases of individual commitments for the creation of specific norms. The purpose is to capture the richness of individuals' contributions to this creation and to better understand the reasons behind their actions in favour of a new norm. The research presents the formation of commitment in the form of a three-phase process : questioning the status quo, evaluating commitment positively and manifesting commitment through actions and behaviours. This process is driven by emotional and cognitive determinants within individuals and is enabled by personal, interpersonal, societal and organizational factors.
390

Faciliter le développement des applications de robotique / Ease the development of robotic applications

Kchir, Selma 26 June 2014 (has links)
L'un des challenges des roboticiens consiste à gérer un grand nombre de variabilités. Ces dernières concernent les concepts liés au matériel et aux logiciels du domaine de la robotique. Par conséquent, le développement des applications de robotique est une tâche complexe. Non seulement, elle requiert la maîtrise des détails de bas niveau du matériel et du logiciel mais aussi le changement du matériel utilisé dans une application entraînerait la réécriture du code de celle-ci. L'utilisation de l'ingénierie dirigée par les modèles dans ce contexte est une voie prometteuse pour (1) gérer les problèmes de dépendance de bas niveau des applications des détails de bas niveau à travers des modèles stables et (2) faciliter le développement des applications à travers une génération automatique de code vers des plateformes cibles. Les langages de modélisation spécifiques aux domaines mettent en oeuvre les techniques de l'ingénierie dirigée par les modèles afin de représenter les concepts du domaine et permettre aux experts de celui-ci de manipuler des concepts qu'ils ont l'habitude d'utiliser. Cependant, ces concepts ne sont pas suffisants pour représenter tous les aspects d'une application car ils très généraux. Il faudrait alors s'appuyer sur une démarche pour extraire des abstractions à partir de cas d'utilisations concrets et ainsi définir des abstractions ayant une sémantique opérationnelle. Le travail de cette thèse s'articule autour de deux axes principaux. Le premier axe concerne la contribution à la conception d'un langage de modélisation spécifique au domaine de la robotique mobile (RobotML). Nous extrayons à partir d'une ontologie du domaine les concepts que les roboticiens ont l'habitude d'utiliser pour la définition de leurs applications. Ces concepts sont ensuite représentés à travers une interface graphique permettant la représentation de modèles afin d'assurer une facilité d'utilisation pour les utilisateurs de RobotML. On offre ainsi la possibilité aux roboticiens de représenter leurs scénarios dans des modèles stables et indépendants des plateformes cibles à travers des concepts qu'ils ont l'habitude de manipuler. Une génération de code automatique à partir de ces modèles est ensuite possible vers une ou plusieurs plateformes cibles. Cette contribution est validée par la mise en oeuvre d'un scénario aérien dans un environnement inconnu proposé par l'ONERA. Le deuxième axe de cette thèse tente de définir une approche pour rendre les algorithmes résistants aux changements des détails de ba niveau. Notre approche prend en entrée la description d'une tâche de robotique et qui produit : un ensemble d'abstractions non algorithmiques représentant des requêtes sur l'environnment y compris le robot ou des actions de haut niveau , un ensemble d'abstractions algorithmiques encapsulant un ensemble d'instructions permettant de réaliser une sous-tâche de la tâche étudiée , algorithme générique configurable défini en fonction de ces abstractions. Ainsi, l'impact du changement du matériel et des stratégies définies dans les sous-tâches n'est pas très important. Il suffit d'adapter l'implantation de ces abstractions sans avoir à modifier l'algorithme générique. Cette approche est validée sur six variantes d'une famille d'algorithmes de navigation appelée Bug. / One of the challenges of robotics is to manage a large number of variability. The latter concerns the concepts related to hardware and software in the field of robotics. Therefore, the development of robotic applications is a complex task. Not only it requires mastery of low-level details of the hardware and software but also if we change the used hardware in an application, this would impact the code. The use of model-driven engineering in this context is a promising way to (1) manage low-level dependency problems through stable models and (2) facilitate the development of applications through automatic code generation to target platforms . Domain Specific Modeling Languages implement the model driven engineering technologies to represent the domain concepts and enable experts to manipulate concepts they are used to use. However, these concepts are not sufficient to represent all aspects of an application because they are very general. We would then use an approach to extract abstractions from concrete use cases and thus define abstractions with an operational semantics. The work of this thesis focuses on two main axes. The first concerns the contribution to the design of a domain specific modeling language for mobile robots (RobotML). We extract from a domain ontology concepts that roboticists have used to use to define their applications. These concepts are then represented through a graphical interface representation model to ensure ease of use for RobotML users. An automatic code generation from these models can then be performed to one or more target platforms. This contribution is enabled by setting implement an air scenario, in an unknown environment, proposed by ONERA. The second focus of this thesis attempts to define an approach to make the algorithms resistant to the change of low-level details. Our approach takes as input a description of a task and produces robotic : a set of non-algorithmic abstractions representing queries on environnment (including robot) or high-level actions, a set of algorithmic abstractions encapsulating a set of instructions to perform a sub-task of the studied task, a generic configurable algorithm defined according to these abstractions. Thus, the impact of changing hardware and strategies defined in the sub-tasks is not very important. Simply adapt the implementation of these abstractions without changing the generic algorithm. This approach is validated on six variants of a navigation algorithms family called Bug.

Page generated in 0.0484 seconds