• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 22
  • 5
  • Tagged with
  • 52
  • 52
  • 27
  • 22
  • 13
  • 13
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Modélisation multivariée de variables météorologiques / Multivariate modelling of weather variables

Touron, Augustin 19 September 2019 (has links)
La production d'énergie renouvelable et la consommation d'électricité dépendent largement des conditions météorologiques : température, précipitations, vent, rayonnement solaire... Ainsi, pour réaliser des études d'impact sur l'équilibre offre-demande, on peut utiliser un générateur de temps, c'est-à-dire un modèle permettant de simuler rapidement de longues séries de variables météorologiques réalistes, au pas de temps journalier. L'une des approches possibles pour atteindre cet objectif utilise les modèles de Markov caché : l'évolution des variables à modéliser est supposée dépendre d'une variable latente que l'on peut interpréter comme un type de temps. En adoptant cette approche, nous proposons dans cette thèse un modèle permettant de simuler simultanément la température, la vitesse du vent et les précipitations, en tenant compte des non-stationnarités qui caractérisent les variables météorologiques. D'autre part, nous nous intéressons à certaines propriétés théoriques des modèles de Markov caché cyclo-stationnaires : nous donnons des conditions simples pour assurer leur identifiabilité et la consistance forte de l'estimateur du maximum de vraisemblance. On montre aussi cette propriété de l'EMV pour des modèles de Markov caché incluant des tendances de long terme sous forme polynomiale. / Renewable energy production and electricity consumption both depend heavily on weather: temperature, precipitations, wind, solar radiation... Thus, making impact studies on the supply/demand equilibrium may require a weather generator, that is a model capable of quickly simulating long, realistic times series of weather variables, at the daily time step. To this aim, one of the possible approaches is using hidden Markov models : we assume that the evolution of the weather variables are governed by a latent variable that can be interpreted as a weather type. Using this approach, we propose a model able to simulate simultaneously temperature, wind speed and precipitations, accounting for the specific non-stationarities of weather variables. Besides, we study some theoretical properties of cyclo-stationary hidden Markov models : we provide simple conditions of identifiability and we show the strong consistency of the maximum likelihood estimator. We also show this property of the MLE for hidden Markov models including long-term polynomial trends.
22

Générateurs de nombres véritablement aléatoires à base d'anneaux asynchrones : conception, caractérisation et sécurisation / Ring oscillator based true random number generators : design, characterization and security

Cherkaoui, Abdelkarim 16 June 2014 (has links)
Les générateurs de nombres véritablement aléatoires (TRNG) sont des composants cruciaux dans certaines applications cryptographiques sensibles (génération de clés de chiffrement, génération de signatures DSA, etc). Comme il s’agit de composants très bas-niveau, une faille dans le TRNG peut remettre en question la sécurité de tout le système cryptographique qui l’exploite. Alors que beaucoup de principes de TRNG existent dans la littérature, peu de travaux analysent rigoureusement ces architectures en termes de sécurité. L’objectif de cette thèse était d’étudier les avantages des techniques de conception asynchrone pour la conception de générateurs de nombres véritablement aléatoires (TRNG) sûrs et robustes. Nous nous sommes en particulier intéressés à des oscillateurs numériques appelés anneaux auto-séquencés. Ceux-ci exploitent un protocole de requêtes et acquittements pour séquencer les données qui y circulent. En exploitant les propriétés uniques de ces anneaux, nous proposons un nouveau principe de TRNG, avec une étude théorique détaillée sur son fonctionnement, et une évaluation du cœur du générateur dans des cibles ASIC et FPGA. Nous montrons que ce nouveau principe permet non seulement de générer des suites aléatoires de très bonne qualité et avec un très haut débit (>100 Mbit/s), mais il permet aussi une modélisation réaliste de l’entropie des bits de sortie (celle-ci peut être réglée grâce aux paramètres de l’extracteur). Ce travail propose également une méthodologie complète pour concevoir ce générateur, pour le dimensionner en fonction du niveau de bruit dans le circuit, et pour le sécuriser face aux attaques et défaillances / True Random Number Generators (TRNG) are ubiquitous in many critical cryptographic applications (key generation, DSA signatures, etc). While many TRNG designs exist in literature, only a few of them deal with security aspects, which is surprising considering that they are low-level primitives in a cryptographic system (a weak TRNG can jeopardize a whole cryptographic system). The objective of this thesis was to study the advantages of asynchronous design techniques in order to build true random number generators that are secure and robust. We especially focused on digital oscillators called self-timed rings (STR), which use a handshake request and acknowledgement protocol to organize the propagation of data. Using some of the unique properties of STRs, we propose a new TRNG principle, with a detailed theoretical study of its behavior, and an evaluation of the TRNG core in ASICs and FPGAs. We demonstrate that this new principle allows to generate high quality random bit sequences with a very high throughput (> 100 Mbit/s). Moreover, it enables a realistic estimation for the entropy per output bit (this entropy level can be tuned using the entropy extractor parameters). We also present a complete methodology to design the TRNG, to properly set up the architecture with regards to the level of noise in the circuit, and to secure it against attacks and failures
23

Intégration des incertitudes liées aux prévisions de consommation et production à la gestion prévisionnelle d'un réseau de distribution / Management of a distribution network considering uncertain consumption and production forecasts

Buire, Jérôme 14 December 2018 (has links)
La gestion prévisionnelle des réseaux de distribution imposée par les codes de réseaux européens nécessite une connaissance approfondie de leur comportement et implique de prendre en compte la volatilité des énergies renouvelables et les capacités de prévision à l’horizon J-1 de la consommation et de la production. En effet, les valeurs déterministes les plus probables des prévisions ne sont plus suffisantes pour pouvoir prédire et gérer à l’avance un réseau. Une modélisation et une optimisation stochastiques permettent un choix, au plus juste, de paramètres de contrôle.La thèse se concentre la prise en compte, dans la modélisation et l’optimisation, des incertitudes des réseaux de distribution. Une modélisation stochastique de réseau est proposée, elle intègre les incertitudes liées au régleur en charge et aux prévisions de consommation et de production. Les contrôleurs des générateurs, le régleur en charge et les gradins de condensateurs permettent de limiter les fluctuations des tensions des nœuds et de la puissance réactive à l’interface et de respecter les exigences contractuelles. Industriellement, les contrôleurs des générateurs sont caractérisés par des lois de commande linéaires ou linéaires par morceaux. En effectuant des hypothèses sur la nature stochastique des données, on peut montrer que les tensions aux nœuds sont des variables gaussiennes ou des sommes de variables gaussiennes par morceaux. Une optimisation stochastique basée sur ces modèles permet de choisir les paramètres des contrôleurs qui minimisent les risques de surtension et des efforts de générateurs, sans avoir à mettre en œuvre des méthodes coûteuses en temps de calcul de type Monte Carlo / The voltage profiles inside the network and power flows at the transport-distribution interface are modified under the massive insertion of renewable sources in distribution grids. The system’s uncertainties cannot be handled by local controllers which parameters are tuned at the actuator installation stage. A solution, widely accepted in the literature, consists of achieving a centralized optimization of the actuators references (distributed generators reactive powers, reference voltage of the On Load Tap Changer, capacitor banks reactive power). Within this framework, a supervisor computes all references at the same time and delivers the references to each actuators, which requires an efficient and reliable communication system.The main contribution of the thesis is to design an alternative approach which keeps the local control structures which settings will be updated on an hourly basis. The optimization relies on a stochastic representation of the grid that accounts for the On Load Tap Changer uncertainties and day ahead forecasts of the productions and consumptions. It is shown that every variable of the system can be represented by Gaussian or sum of truncated Gaussian variables. A stochastic optimization allows to select the controllers settings that minimize overvoltages and control efforts, without using time-consuming algorithms such as Monte-Carlo methods. This work will demonstrate that an appropriate management of uncertainties spares unnecessary and costly oversizing
24

Modélisation stochastique de processus d'agrégation en chimie / Stochastic modeling of aggregation and floculation processes in chemestry

Paredes Moreno, Daniel 27 October 2017 (has links)
Nous concentrons notre intérêt sur l'Équation du Bilan de la Population (PBE). Cette équation décrit l'évolution, au fil du temps, des systèmes de particules en fonction de sa fonction de densité en nombre (NDF) où des processus d'agrégation et de rupture sont impliqués. Dans la première partie, nous avons étudié la formation de groupes de particules et l'importance relative des variables dans la formation des ces groupes en utilisant les données dans (Vlieghe 2014) et des techniques exploratoires comme l'analyse en composantes principales, le partitionnement de données et l'analyse discriminante. Nous avons utilisé ce schéma d'analyse pour la population initiale de particules ainsi que pour les populations résultantes sous différentes conditions hydrodynamiques. La deuxième partie nous avons étudié l'utilisation de la PBE en fonction des moments standard de la NDF, et les méthodes en quadrature des moments (QMOM) et l'Extrapolation Minimale Généralisée (GME), afin de récupérer l'évolution, d'un ensemble fini de moments standard de la NDF. La méthode QMOM utilise une application de l'algorithme Produit- Différence et GME récupère une mesure discrète non-négative, étant donnée un ensemble fini de ses moments standard. Dans la troisième partie, nous avons proposé un schéma de discrétisation afin de trouver une approximation numérique de la solution de la PBE. Nous avons utilisé trois cas où la solution analytique est connue (Silva et al. 2011) afin de comparer la solution théorique à l'approximation trouvée avec le schéma de discrétisation. La dernière partie concerne l'estimation des paramètres impliqués dans la modélisation des processus d'agrégation et de rupture impliqués dans la PBE. Nous avons proposé une méthode pour estimer ces paramètres en utilisant l'approximation numérique trouvée, ainsi que le Filtre Étendu de Kalman. La méthode estime interactivement les paramètres à chaque instant du temps, en utilisant un estimateur de Moindres Carrés non-linéaire. / We center our interest in the Population Balance Equation (PBE). This equation describes the time evolution of systems of colloidal particles in terms of its number density function (NDF) where processes of aggregation and breakage are involved. In the first part, we investigated the formation of groups of particles using the available variables and the relative importance of these variables in the formation of the groups. We use data in (Vlieghe 2014) and exploratory techniques like principal component analysis, cluster analysis and discriminant analysis. We used this scheme of analysis for the initial population of particles as well as in the resulting populations under different hydrodynamics conditions. In the second part we studied the use of the PBE in terms of the moments of the NDF, and the Quadrature Method of Moments (QMOM) and the Generalized Minimal Extrapolation (GME), in order to recover the time evolution of a finite set of standard moments of the NDF. The QMOM methods uses an application of the Product-Difference algorithm and GME recovers a discrete non-negative measure given a finite set of its standard moments. In the third part, we proposed an discretization scheme in order to find a numerical approximation to the solution of the PBE. We used three cases where the analytical solution is known (Silva et al. 2011) in order to compare the theoretical solution to the approximation found with the discretization scheme. In the last part, we proposed a method for estimate the parameters involved in the modelization of aggregation and breakage processes in PBE. The method uses the numerical approximation found, as well as the Extended Kalman Filter. The method estimates iteratively the parameters at each time, using an non- linear Least Square Estimator.
25

Modélisation phénoménologique de pulvérisation de sprays couplée à une approche LES pour la phase gazeuse.

Jouanguy, Julien 05 July 2007 (has links) (PDF)
La pulvérisation du liquide est un mécanisme très important lors de la combustion dans les moteurs de fusée et de type diesel. C'est dans ce cadre que s'inscrivent les travaux réalisés dans cette thèse. L'objectif est de modéliser les mécanismes physiques qui pilotent l'atomisation assistée par air. Dans cette configuration, de nombreux paramètres peuvent influer sur la fragmentation du liquide tels que les vitesses initiales du liquide ou du gaz, les masses volumiques des deux phases ou la tension de surface par exemple ... Ce phénomène est donc particulièrement complexe et la résolution exacte de chaque fragmentation est très difficile. Dans ce travail, une approche stochastique est proposée afin de modéliser les différentes étapes d'atomisation assistée par air. Celle-ci permet de décrire la phase d'atomisation primaire et les statistiques du liquide non fragmenté au voisinage de l'injecteur. A partir de ces résultats, des fragments liquides sont formés et transportés dans l'écoulement de façon à décrire l'intégralité du spray. Le mouvement de la phase gazeuse est résolu par simulation des grandes échelles. Le caractère turbulent et instationnaire de l'écoulement est ainsi pris en compte, ce qui permet le suivi lagrangien des éléments liquides issus de la phase d'atomisation primaire. Leurs collisions ainsi que les fragmentations ou coalescences qui en résultent sont également modélisés par l'intermédiaire d'une approche stochastique. Ces différentes étapes permettent de simuler l'atomisation assistée par air et de déterminer la longueur du cœur liquide, l'angle du spray, le diamètre de Sauter moyen et de comparer ces résultats à des données expérimentales.
26

Étude par simulation numérique directe du comportement et de la dispersion de particules solides en écoulement non homogène isotherme ou anisotherme

Arcen, Boris 10 November 2006 (has links) (PDF)
Le travail présenté dans ce mémoire concerne l'étude du mouvement d'inclusions solides en suspension dans un écoulement turbulent de canal isotherme et anisotherme par simulation numérique directe. Grâce à cet outil de simulation, nous avons pu analyser l'influence de l'inertie et du croisement de trajectoires sur les caractéristiques dynamiques et thermiques de la phase dispersée ainsi que sur celles du fluide vu au sein d'une turbulence non homogène. Cela pourra notamment faciliter le développement futur des modélisations euléro-lagrangienne et euléro-eulérienne dans ce type de turbulence. Nous avons essayé d'examiner au mieux la conséquence de ces effets sur les statistiques de la phase dispersée telles que la concentration, la moyenne et l'écart type de la vitesse, les covariances fluide-particules, les corrélations triples de la vitesse des particules. Parallèlement à cela, les caractéristiques du fluide vu par les particules ont été étudiées, nous nous sommes intéressés à la vitesse de dérive, aux tensions de Reynolds du fluide vu, et la décorrélation temporelle des fluctuations de la vitesse du fluide vu. En ce qui concerne la partie thermique, nous présentons les statistiques thermiques de la phase dispersée et du fluide vu par les particules au sein de l'écoulement anisotherme vertical descendant. Tous ces aspects sont développés en gardant à l'esprit le cadre général de cette étude, c'est-à-dire comprendre le comportement thermique de la phase dispersée et fournir des informations concernant des grandeurs importantes intervenant dans la modélisation de tels écoulements.
27

POLITIQUES DE MAINTENANCE CONDITIONNELLE POUR UN SYSTEME A DEGRADATION CONTINUE SOUMIS A UN ENVIRONNEMENT STRESSANT

Deloux, Estelle 07 October 2008 (has links) (PDF)
L'un des challenges de l'optimisation de la maintenance est la production de modèles décisionnels conjuguant performance au niveau stratégique et au niveau opérationnel. Une hypothèse classique est de considérer que le niveau de dégradation du système peut être modélisé par un processus stochastique particulier caractérisé en régime stationnaire sans tenir compte des effets de l'environnement d'exploitation du système. Cette hypothèse peut être vue comme un des facteurs entraînant des écarts entre les performances attendues et celles mesurées. Par contre, de nombreux travaux sont développés dans le cadre de la fiabilité pour l'intégration de l'impact de l'environnement. L'objectif de ce manuscrit est de développer des outils d'aide à la décision de maintenance pour des systèmes à dégradation graduelle évoluant dans un environnement aléatoire stressant. Nous proposons différentes modélisations de l'environnement et de son impact sachant qu'il peut influencer soit la défaillance du système, soit le processus de dégradation. Nous explicitons les relations mutuelles entre l'environnement et le processus de dégradation et nous construisons différentes politiques de maintenance adaptatives qui se basent sur l'état de dégradation du système mais également sur l'évolution de l'environnement. De plus, les politiques proposées permettent de se baser soit uniquement sur une connaissance a priori du système, soit d'intégrer l'information disponible en ligne concernant l'environnement. Nous chercherons dans ce manuscrit à proposer de nouvelles approches de maintenance combinant performances théoriques attendues d'un côté et réalité et pragmatisme opérationnels d'un autre.
28

Modélisation de comportements et apprentissage stochastique non supervisé de stratégies d'interactions sociales au sein de systèmes temps réel de recherche et d'accès à l'information

Castagnos, Sylvain 05 November 2008 (has links) (PDF)
Internet constitue un environnement évolutif déstructuré et quasi-infini proposant des documents hétérogènes notamment à travers le Web et les intranets d'entreprises. La recherche et l'accès à cette profusion de documents nécessite d'assister l'utilisateur. Cependant, les outils actuels d'accès à l'information atteignent leur limite et ne garantissent plus d'identifier les ressources les plus pertinentes (également appelées "items") dans un temps raisonnable. La problématique consiste à "apprendre l'utilisateur courant". La connaissance de ce dernier permet au système de fournir des items susceptibles de les intéresser ou de répondre à un critère d'utilité. Il s'agit alors de collecter des données brutes pour caractériser une information de haut niveau, à savoir la connaissance de l'utilisateur. L'emploi de l'Intelligence Artificielle permet d'identifier les données nécessaires et suffisantes à l'apprentissage supervisé en situation de l'utilisateur courant.<br /><br />Toutefois, les modèles utilisateurs souffrent d'un grand nombre de données manquantes. Notre approche consiste à exploiter collaborativement les données relatives à une population pour pallier le manque d'information inhérent à chaque utilisateur. L'emploi de techniques de filtrage collaboratif permet ainsi de bénéficier de l'expérience et des interactions au sein d'une population pour améliorer les services et prédire les futurs agissements d'un individu. Nous sommes partis du constat que, dans les approches centralisées, le nombre d'individus pris en compte dans la recherche des plus proches voisins ne peut excéder quelques milliers de candidats. Nos travaux nous ont donc conduit à distribuer le processus de filtrage sous plusieurs formes tant en terme de contenu que de calculs. L'objectif de cette thèse est de montrer comment il est possible d'assurer le passage à l'échelle, et faire face aux problèmes sous-jacents pouvant résulter de cette approche distribuée.
29

Chaînes de Markov et processus de décision markoviens pour le contrôle de congestion et de puissance

Prabhu, Balakrishna J. 04 October 2005 (has links) (PDF)
Cette thèse contient quelques applications des chaînes de Markov et des processus de décision markoviens pour la contrôle de congestion et de puissance. D´abord nous étudions le comportement de la taille de la fenêtre d´une source qui utilise l´algorithme MIMD. Nous montrons que le logarithme de la taille de la fenêtre suit une récurrence stochastique additive, et est une chaîne de Markov. Nous montrons aussi que le débit obtenu par une source est proportionnel à l´inverse de la probabilité de perte d´un paquet. Ensuite, nous analysons le processus de la taille de la fenêtre d´un algorithme de contrôle de congestion en temps continu. Nous pourvoyons des conditions sous lesquelles deux algorithmes ont le même comportement. Puis, nous étudions le processus de rapport de deux sources qui utilisent l´algorithme MIMD et qui partagent la capacité d´un goulot d´étranglement. Pour les sources hétérogènes, nous montrons que l´intensité du processus de perte de paquet doit être supérieure à une constante qui dépend des paramètres des algorithmes pour que l´indice d´équité s´améliore. Ensuite, nous présentons un modèle stochastique pour obtenir la distribution jointe du nombre instantané de paquets et sa moyenne mobile. Ensuite, nous étudions un problème de commande optimale en temps discret. Un appareil mobile veut transmettre des paquets et conserver son énergie en même temps. Nous montrons que la politique optimale est un contrôle à seuil. Enfin, par simulations, nous étudions le délai des flots TCP sur la voie descendante de l´UMTS lorsque deux politiques différentes de commutation de canaux sont utilisées.
30

Analyse morphologique et modélisation en 3D de systèmes aléatoires de fibres

Altendorf, Hellen 07 November 2011 (has links) (PDF)
L'utilisation diversifiée des composites renforcés par des fibres, par exemple dans le corps des avions, des bateaux ou des voitures, génère une demande croissante d'analyse de ces matériaux. Le but final de notre étude réside dans l'optimisation de ces matériaux fibreux à l'aide d'un " schème de conception de matériaux virtuels ". De nouveaux matériaux fibreux sont créés virtuellement en tant que réalisations d'un modèle stochastique, puis évalués par rapport à leurs propriétés physiques. De cette manière, les matériaux peuvent être optimisés pour des cas d'utilisation spécifique, sans réellement construire de coûteux prototypes ou faire des tests mécaniques. La reconstruction virtuelle du matériau réel demande une connaissance précise de la géométrie de sa microstructure. La première partie de cette thèse décrit une méthode de quantification de fibres à l'aide de mesures locales de leurs rayons et de leurs orientations. La combinaison de la transformée " chord length " et des moments d'inertie locaux apporte une méthode efficace et précise pour déterminer ces propriétés. Cette approche surpasse les méthodes existantes par rapport à la possibilité de traiter des fibres de rayons variés, possède une précision accrue, et un temps de calcul rapide. Cette méthode de quantification locale peut être appliquée directement sur des images à niveaux de gris en adaptant la transformée en distances directionnelles dans le cadre des images à niveau de gris. Dans ce travail, plusieurs approches de ce type sont développées et évaluées. Une caractérisation supplémentaire des systèmes de fibres requiert la segmentation de chaque fibres. Ce sujet est traité dans la deuxième partie de cette thèse. Grâce à l'utilisation d'opérateurs morphologiques avec des formes explicites d'élément structurant, il est possible de dériver une probabilité pour chaque pixel, de faire partie du cœur de la fibre dans une région où les fibres ne se croisent pas. En traçant des chemins de probabilité élevée, il est possible de reconstruire des parties non connexes du cœur des fibres. Dans un second temps, ces parties sont reconnectées à travers des zones critiques, sous des contraintes assurant que celles ci font effectivement partie de la même fibre. Dans la troisième partie de ce travail, nous développons un nouveau modèle stochastique de système dense de fibres sans intersection avec un niveau de courbure contrôlable. Les approches existantes de la littérature possèdent au moins une des faiblesses suivantes : la fraction volumique produite n'est pas assez élevée, les fibres peuvent se croiser, la distribution d'orientation ainsi que la courbure des fibres n'est pas contrôlable. Ce manque peut effectivement être comblé avec notre modèle, qui fonctionne en deux étapes. Une première étape utilise une marche aléatoire pour définir des fibres dont la courbure est liée à une distribution de von Mises-fisher. Une deuxième étape utilise un algorithme d'empilement pour produire une configuration sans imbrication. En outre, on propose des estimateurs pour tout les paramètres de notre modèle, afin de l'adapter à une microstructure réelle. Dans la dernière partie du manuscrit, on simule numériquement le comportement macroscopique des différentes microstructures étudiées pour obtenir leurs propriétés mécaniques et thermiques. Cette partie est basée sur des logiciels existants et consiste essentiellement à résumer l'état de l'art de la simulation physique de systèmes de fibres aléatoires. L'application à un polymère renforcé par des fibres de verre démontre la qualité des reconstructions de la microstructure réelle obtenues par notre modèle. Cette thèse inclus toutes les étapes nécessaires pour effectuer la conception de matériaux virtuels. Des algorithmes nouveaux et efficaces ont été développés afin d'enrichir les connaissances et les possibilités d'analyse et de modélisation des matériaux composites renforcés par des fibres.

Page generated in 0.1141 seconds