• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 689
  • 334
  • 67
  • 2
  • Tagged with
  • 1109
  • 510
  • 292
  • 197
  • 166
  • 141
  • 121
  • 110
  • 103
  • 98
  • 97
  • 97
  • 89
  • 81
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1081

Electric Vehicle Routing Problems : models and solution approaches / Problèmes de tournées de véhicules électriques : modèles et méthodes de résolution

Montoya, Jose-Alejandro 09 December 2016 (has links)
Étant donné leur faible impact environnemental, l’utilisation des véhicules électriques dans les activités de service a beaucoup augmenté depuis quelques années. Cependant, leur déploiement est freiné par des contraintes techniques telles qu’une autonomie limitée et de longs temps de charge des batteries. La prise en compte de ces contraintes a mené à l’apparition de nouveaux problèmes de tournées de véhicules pour lesquels, en plus d’organiser les tournées,il faut décider où et de combien charger les batteries. Dans cette thèse nous nous intéressons à ces problèmes au travers de quatre études. La première concerne le développement d’une métaheuristique en deux phases simple mais performante pour résoudre un problème particulier appelé "Green VRP”. Dans la seconde, nous nous concentrons sur la modélisation d’un aspect essentiel dans ces problèmes : le processus de chargement des batteries. Nous étudions différentes stratégies pour modéliser ce processus et montrons l’importance de considérer la nature non linéaire des fonctions de chargement. Dans la troisième étude nous proposons une recherche locale itérative pour résoudre des problèmes avec des fonctions de chargement non linéaires. Nous introduisons un voisinage dédié aux décisions de chargement basé sur un nouveau problème de chargement sur une tournée fixée. Dans la dernière étude, nous traitons un problème réel de tournées de techniciens avec des véhicules classiques et électriques. Ce problème est résolu par une métaheuristique qui décompose le problème en plusieurs sous-problèmes plus simples résolus en parallèle, puis qui assemble des parties des solutions trouvées pour construire la solution finale. / Electric vehicles (evs) are one of the most promising technologies to reduce the greenhouse gas emissions. For this reason, the use of evs in service operations has dramatically increased in recent years. Despite their environmental benefits, evs still face technical constraints such as short autonomy and long charging times. Taking into account these constraints when planning ev operations leads to a new breed of vehicle routing problems (vrps), known as electricVrps (evrps). In addition, to the standard routing decisions, evrps are concerned with charging decisions: where and how much to charge. In this ph. D thesis, we address evrps through 4 different studies. In the first study, we tackle the green vehicle routing problem. To solve the problem, we propose a simple, yet effective, two-phase matheuristic. In the second study, we focus a key modelling aspects in evrps: the battery charging process. We study different strategies to model this process and show the importance of considering the nonlinear nature of the battery charging functions. InThe third study, we propose an iterated local search to tackle evrp with non-linear charging functions. We introduce a particular local search operator for the charging decisions based on a new fixedroute charging problem. The fourth and last study considers a real technician routing problem with conventional and electric vehicles (trp-cev). To tackle this problem, we propose a parallel matheuristic that decomposes the problem into a set of easier-to-solve subproblemsThat are solved in parallel processors. Then the approach uses parts of the solutions found to the subproblems to assemble final solution to the trp-cev.
1082

Reconstruction statistique 3D à partir d’un faible nombre de projections : application : coronarographie RX rotationnelle / 3D statistical reconstruction from a small number of projections. application : XR rotational coronarography

Oukili, Ahmed 16 December 2015 (has links)
La problématique de cette thèse concerne la reconstruction statistique itérative 3D de l'arbre coronaire, à partir d'un nombre très réduit d'angiogrammes coronariens (5 images). Pendant un examen rotationnel d'angiographie RX, seules les projections correspondant à la même phase cardiaque sont sélectionnées afin de vérifier la condition de non variabilité spatio-temporelle de l'objet à reconstruire (reconstruction statique). Le nombre restreint de projections complique cette reconstruction, considérée alors comme un problème inverse mal posé. La résolution d'un tel problème nécessite une procédure de régularisation. Pour ce faire, nous avons opté pour le formalisme bayésien en considérant la reconstruction comme le champ aléatoire maximisant la probabilité a posteriori (MAP), composée d'un terme quadratique de vraisemblance (attache aux données) et un a priori de Gibbs (à priori markovien basé sur une interprétation partielle de l'objet à reconstruire). La maximisation MAP adoptant un algorithme d'optimisation numérique nous a permis d'introduire une contrainte de lissage avec préservation de contours des reconstructions en choisissant adéquatement les fonctions de potentiel associées à l'énergie à priori. Dans ce manuscrit, nous avons discuté en détail des trois principales composantes d'une reconstruction statistique MAP performante, à savoir (1) l'élaboration d'un modèle physique précis du processus d'acquisition, (2) l'adoption d'un modèle à priori approprié et (3) la définition d'un algorithme d'optimisation itératif efficace. Cette discussion nous a conduit à proposer deux algorithmes itératifs MAP, MAP-MNR et MAP-ARTUR-GC, que nous avons testés et évalués sur des données simulées réalistes (données patient issues d'une acquisition CT- 64 multi-barrettes). / The problematic of this thesis concerns the statistical iterative 3D reconstruction of coronary tree from a very few number of coronary angiograms (5 images). During RX rotational angiographic exam, only projections corresponding to the same cardiac phase are selected in order to check the condition of space and time non-variability of the object to reconstruct (static reconstruction). The limited number of projections complicates the reconstruction, considered then as an illness inverse problem. The answer to a similar problem needs a regularization process. To do so, we choose baysian formalism considering the reconstruction as a random field maximizing the posterior probability (MAP), composed by quadratic likelihood terms (attached to data) and Gibbs prior (prior markovian based on a partial interpretation of the object to reconstruct). The MAP maximizing allowed us using a numerical optimization algorithm, to introduce a smoothing constraint and preserve the edges on the reconstruction while choosing wisely the potential functions associated to prior energy. In this paper, we have discussed in details the three components of efficient statistical reconstruction MAP, which are : 1- the construction of precise physical model of acquisition process; 2- the selection of an appropriate prior model; and 3- the definition of an efficient iterative optimization algorithm. This discussion lead us to propose two iterative algorithms MAP, MAP-MNR and MAP-ARTUR-GC, which we have tested and evaluated on realistic simulated data (Patient data from 64-slice CT).
1083

Le dieu incompréhensible du dernier Bayle. Etude sur les notions communes dans les "Entretiens de Maxime et de Thémiste" (1707) / The incomprehensible God of last Bayle. Evidence and common notions in the Entretiens de Maxime et de Thémiste (1707)

Bedoya Ponte, Victor 25 January 2012 (has links)
Nous analysons le dernier ouvrage écrit par Pierre Bayle, les Entretiens de Maxime et de Themiste (1707), où il livre un combat de plume ultime avec deux théologiens réformés, Jean Le Clerc et Isaac Jaquelot. Il s’agit d’une querelle entamée après la publication du Dictionnaire historique et critique (1697) de Bayle, et dont tous les ouvrages directement concernés sont aussi examinés. À partir du problème du mal et du péché, Bayle formule une critique à la théologie chrétienne visant à mettre en évidence la faiblesse des arguments rationnels qui doivent l’affirmer. Les seules forces de la raison ne suffisent pas à éclairer les dogmes qui forment la religion, et il faut avoir recours à la lumière de la foi, à la Bible, pour les accepter. De l’étude de cette argumentation nous concluons que, pour Bayle, la religion est une question privée, qui ne se prête pas vraiment au dialogue philosophique. / We analyze the last work written by Pierre Bayle, the Entretiens de Maxime et de Thémiste (1707), where he opposes for the last time two Arminian Theologians, Jean Le Clerc and Isaac Jaquelot. Their quarrel started with the publication of Bayle’s Dictionnaire historique et critique (1697) and continued until his death in 1706. By pointing to the insoluble problem of evil and sin, he proposes a refutation of rational arguments that attempt to prove Christian Theology. We examine all the writings involved in this controversy and review in great length its arguments. Bayle shows that Christianity is unable to demonstrate its dogmas by reason, and claims that only faith can legitimate them. Therefore it is concluded that religion for Bayle belongs to the private sphere, and cannot be rationalized through a philosophical dialogue.
1084

Towards better understanding and improving optimization in recurrent neural networks

Kanuparthi, Bhargav 07 1900 (has links)
Recurrent neural networks (RNN) are known for their notorious exploding and vanishing gradient problem (EVGP). This problem becomes more evident in tasks where the information needed to correctly solve them exist over long time scales, because it prevents important gradient components from being back-propagated adequately over a large number of steps. The papers written in this work formalizes gradient propagation in parametric and semi-parametric RNNs to gain a better understanding towards the source of this problem. The first paper introduces a simple stochastic algorithm (h-detach) that is specific to LSTM optimization and targeted towards addressing the EVGP problem. Using this we show significant improvements over vanilla LSTM in terms of convergence speed, robustness to seed and learning rate, and generalization on various benchmark datasets. The next paper focuses on semi-parametric RNNs and self-attentive networks. Self-attention provides a way by which a system can dynamically access past states (stored in memory) which helps in mitigating vanishing of gradients. Although useful, it is difficult to scale as the size of the computational graph grows quadratically with the number of time steps involved. In the paper we describe a relevancy screening mechanism, inspired by the cognitive process of memory consolidation, that allows for a scalable use of sparse self-attention with recurrence while ensuring good gradient propagation. / Les réseaux de neurones récurrents (RNN) sont connus pour leur problème de gradient d'explosion et de disparition notoire (EVGP). Ce problème devient plus évident dans les tâches où les informations nécessaires pour les résoudre correctement existent sur de longues échelles de temps, car il empêche les composants de gradient importants de se propager correctement sur un grand nombre d'étapes. Les articles écrits dans ce travail formalise la propagation du gradient dans les RNN paramétriques et semi-paramétriques pour mieux comprendre la source de ce problème. Le premier article présente un algorithme stochastique simple (h-detach) spécifique à l'optimisation LSTM et visant à résoudre le problème EVGP. En utilisant cela, nous montrons des améliorations significatives par rapport au LSTM vanille en termes de vitesse de convergence, de robustesse au taux d'amorçage et d'apprentissage, et de généralisation sur divers ensembles de données de référence. Le prochain article se concentre sur les RNN semi-paramétriques et les réseaux auto-attentifs. L'auto-attention fournit un moyen par lequel un système peut accéder dynamiquement aux états passés (stockés en mémoire), ce qui aide à atténuer la disparition des gradients. Bien qu'utile, il est difficile à mettre à l'échelle car la taille du graphe de calcul augmente de manière quadratique avec le nombre de pas de temps impliqués. Dans l'article, nous décrivons un mécanisme de criblage de pertinence, inspiré par le processus cognitif de consolidation de la mémoire, qui permet une utilisation évolutive de l'auto-attention clairsemée avec récurrence tout en assurant une bonne propagation du gradient.
1085

Assessing the robustness of genetic codes and genomes

Sautié Castellanos, Miguel 06 1900 (has links)
Deux approches principales existent pour évaluer la robustesse des codes génétiques et des séquences de codage. L'approche statistique est basée sur des estimations empiriques de probabilité calculées à partir d'échantillons aléatoires de permutations représentant les affectations d'acides aminés aux codons, alors que l'approche basée sur l'optimisation repose sur le pourcentage d’optimisation, généralement calculé en utilisant des métaheuristiques. Nous proposons une méthode basée sur les deux premiers moments de la distribution des valeurs de robustesse pour tous les codes génétiques possibles. En se basant sur une instance polynomiale du Problème d'Affectation Quadratique, nous proposons un algorithme vorace exact pour trouver la valeur minimale de la robustesse génomique. Pour réduire le nombre d'opérations de calcul des scores et de la borne supérieure de Cantelli, nous avons développé des méthodes basées sur la structure de voisinage du code génétique et sur la comparaison par paires des codes génétiques, entre autres. Pour calculer la robustesse des codes génétiques naturels et des génomes procaryotes, nous avons choisi 23 codes génétiques naturels, 235 propriétés d'acides aminés, ainsi que 324 procaryotes thermophiles et 418 procaryotes non thermophiles. Parmi nos résultats, nous avons constaté que bien que le code génétique standard soit plus robuste que la plupart des codes génétiques, certains codes génétiques mitochondriaux et nucléaires sont plus robustes que le code standard aux troisièmes et premières positions des codons, respectivement. Nous avons observé que l'utilisation des codons synonymes tend à être fortement optimisée pour amortir l'impact des changements d'une seule base, principalement chez les procaryotes thermophiles. / There are two main approaches to assess the robustness of genetic codes and coding sequences. The statistical approach is based on empirical estimates of probabilities computed from random samples of permutations representing assignments of amino acids to codons, whereas, the optimization-based approach relies on the optimization percentage frequently computed by using metaheuristics. We propose a method based on the first two moments of the distribution of robustness values for all possible genetic codes. Based on a polynomially solvable instance of the Quadratic Assignment Problem, we propose also an exact greedy algorithm to find the minimum value of the genome robustness. To reduce the number of operations for computing the scores and Cantelli’s upper bound, we developed methods based on the genetic code neighborhood structure and pairwise comparisons between genetic codes, among others. For assessing the robustness of natural genetic codes and genomes, we have chosen 23 natural genetic codes, 235 amino acid properties, as well as 324 thermophilic and 418 non-thermophilic prokaryotes. Among our results, we found that although the standard genetic code is more robust than most genetic codes, some mitochondrial and nuclear genetic codes are more robust than the standard code at the third and first codon positions, respectively. We also observed that the synonymous codon usage tends to be highly optimized to buffer the impact of single-base changes, mainly, in thermophilic prokaryotes.
1086

Stratégies optimales d'investissement et de consommation pour des marchés financiers de type"spread" / Optimal investment and consumption strategies for spread financial markets

Albosaily, Sahar 07 December 2018 (has links)
Dans cette thèse, on étudie le problème de la consommation et de l’investissement pour le marché financier de "spread" (différence entre deux actifs) défini par le processus Ornstein-Uhlenbeck (OU). Ce manuscrit se compose de sept chapitres. Le chapitre 1 présente une revue générale de la littérature et un bref résumé des principaux résultats obtenus dans cetravail où différentes fonctions d’utilité sont considérées. Dans le chapitre 2, on étudie la stratégie optimale de consommation / investissement pour les fonctions puissances d’utilité pour un intervalle de temps réduit a 0 < t < T < T0. Dans ce chapitre, nous étudions l’équation de Hamilton–Jacobi–Bellman (HJB) par la méthode de Feynman - Kac (FK). L’approximation numérique de la solution de l’équation de HJB est étudiée et le taux de convergence est établi. Il s’avère que dans ce cas, le taux de convergencedu schéma numérique est super–géométrique, c’est-à-dire plus rapide que tous ceux géométriques. Les principaux théorèmes sont énoncés et des preuves de l’existence et de l’unicité de la solution sont données. Un théorème de vérification spécial pour ce cas des fonctions puissances est montré. Le chapitre 3 étend notre approche au chapitre précédent à la stratégie de consommation/investissement optimale pour tout intervalle de temps pour les fonctions puissances d’utilité où l’exposant γ doit être inférieur à 1/4. Dans le chapitre 4, on résout le problème optimal de consommation/investissement pour les fonctions logarithmiques d’utilité dans le cadre du processus OU multidimensionnel en se basant sur la méthode de programmation dynamique stochastique. En outre, on montre un théorème de vérification spécial pour ce cas. Le théorème d’existence et d’unicité pour la solution classique de l’équation de HJB sous forme explicite est également démontré. En conséquence, les stratégies financières optimales sont construites. Quelques exemples sont donnés pour les cas scalaires et pour les cas multivariés à volatilité diagonale. Le modèle de volatilité stochastique est considéré dans le chapitre 5 comme une extension du chapitre précédent des fonctions logarithmiques d’utilité. Le chapitre 6 propose des résultats et des théorèmes auxiliaires nécessaires au travail.Le chapitre 7 fournit des simulations numériques pour les fonctions puissances et logarithmiques d’utilité. La valeur du point fixe h de l’application de FK pour les fonctions puissances d’utilité est présentée. Nous comparons les stratégies optimales pour différents paramètres à travers des simulations numériques. La valeur du portefeuille pour les fonctions logarithmiques d’utilité est également obtenue. Enfin, nous concluons nos travaux et présentons nos perspectives dans le chapitre 8. / This thesis studies the consumption/investment problem for the spread financial market defined by the Ornstein–Uhlenbeck (OU) process. Recently, the OU process has been used as a proper financial model to reflect underlying prices of assets. The thesis consists of 8 Chapters. Chapter 1 presents a general literature review and a short view of the main results obtained in this work where different utility functions have been considered. The optimal consumption/investment strategy are studied in Chapter 2 for the power utility functions for small time interval, that 0 < t < T < T0. Main theorems have been stated and the existence and uniqueness of the solution has been proven. Numeric approximation for the solution of the HJB equation has been studied and the convergence rate has been established. In this case, the convergence rate for the numerical scheme is super geometrical, i.e., more rapid than any geometrical ones. A special verification theorem for this case has been shown. In this chapter, we have studied the Hamilton–Jacobi–Bellman (HJB) equation through the Feynman–Kac (FK) method. The existence and uniqueness theorem for the classical solution for the HJB equation has been shown. Chapter 3 extended our approach from the previous chapter of the optimal consumption/investment strategies for the power utility functions for any time interval where the power utility coefficient γ should be less than 1/4. Chapter 4 addressed the optimal consumption/investment problem for logarithmic utility functions for multivariate OU process in the base of the stochastic dynamical programming method. As well it has been shown a special verification theorem for this case. It has been demonstrated the existence and uniqueness theorem for the classical solution for the HJB equation in explicit form. As a consequence the optimal financial strategies were constructed. Some examples have been stated for a scalar case and for a multivariate case with diagonal volatility. Stochastic volatility markets has been considered in Chapter 5 as an extension for the previous chapter of optimization problem for the logarithmic utility functions. Chapter 6 proposed some auxiliary results and theorems that are necessary for the work. Numerical simulations has been provided in Chapter 7 for power and logarithmic utility functions. The fixed point value h for power utility has been presented. We study the constructed strategies by numerical simulations for different parameters. The value function for the logarithmic utilities has been shown too. Finally, Chapter 8 reflected the results and possible limitations or solutions
1087

Energy efficient underwater acoustic sensor networks / Réseaux de capteurs acoustiques sous-marins écoénergétiques

Zidi, Chaima 08 March 2018 (has links)
Les réseaux de capteurs acoustiques sous-marins (UW-ASN) sont les plus nouveaux achèvements technologiques en termes de communication. Les UW-ASN visent à observer et à explorer les lacs, les rivières, les mers et les océans. Récemment, ils ont été soumis à une attention particulière en raison de leur grand potentiel en termes d'applications prometteuses dans divers domaines (militaires, environnementaux, scientifiques ...) et aux nouvelles questions scientifiques qu'ils suscitent. Un problème majeur dans les UW-ASN est l'épuisement rapide de l'énergie, car une grande puissance est nécessaire pour la communication acoustique, tandis que le budget de la batterie des capteurs est limité. Par conséquent, les protocoles de communication énergétiques revêtent une importance primordiale pour faire usage judiciaire du budget énergétique disponible. Dans ce contexte, cette thèse vise à étudier les principales caractéristiques des capteurs acoustiques sous-marins difficiles afin de concevoir des protocoles de communication énergétiques, plus spécifiquement au niveau routage et MAC. Tout d'abord, nous abordons le problème des trous énergétiques dans UW-ASN. Le problème du « sink-hole » se produit lorsque les capteurs les plus proches du sink épuisent leur énergie plus rapidement en raison de leur charge plus lourde. En effet, ces capteurs, en particulier ceux qui sont à un seul saut du sinkstatique, agissent comme des relais pour tous les autres capteurs, ce qui leur épuise sévèrement l’énergie.A la couche de routage,en particulier, nous proposons de distribuer la charge transmise par chaque capteur parmi plusieurs voisins potentiels, en supposant que les capteurs peuvent ajuster leur gamme de communication entre deux niveaux lorsqu'ils envoient ou transmettent des données. Plus précisément, nous déterminons pour chaque capteur l'ensemble des prochains sauts avec les poids de charge associés qui entraînent un épuisement équitable d'énergie entre tous les capteurs du réseau. Ensuite, nous étendons notre stratégie de routage équilibrée en supposant que chaque capteur n'est pas seulement capable d'ajuster sa puissance d'émission à 2 niveaux mais aussi jusqu'à n niveaux où n> 2. Par conséquent, à la couche de routage, pour chaque valeur possible de n, nous déterminons pour chaque capteur l'ensemble des éventuels sauts avec les poids de charge associés qui mènent à une consommation d'énergie équitable chez tous les capteurs du réseau. En outre, nous obtenons le nombre optimal de puissances de transmission n qui équilibre la consommation d'énergie de tous les capteurs pour chaque configuration de réseau. En plus de cela, il convient de souligner que notre protocole de routage étendu utilise un modèle de canal à variation de temps plus réaliste qui tient compte de la plupart des caractéristiques fondamentales de la propagation acoustique sous-marine. Les résultats analytiques montrent que notre protocole de routage assure une réduction importante de la consommation d’énergie. Deuxièmement, pour atténuer les impacts de collision spectaculaires gaspillant l’énergie, nous concevons un protocole MAC multicanal (MC-UWMAC) évitant les collisions pour les UW-ASNs. MC-UWMAC fonctionne avec un canal de contrôle (décomposé en créneaux de temps) et un ensemble de canaux de données à bande passante égale. Les créneaux du canal de contrôle sont dédiés à l’échange RTS / CTS permettant à une paire de capteurs communicants de s'accorder sur l'heure de début de la communication sur un canal de données pré-alloué. Dans cette thèse, nous proposons deux nouvelles procédures associées d'allocation des créneaux du canal de contrôle et d'attribution des canaux de données sans nécessiter de frais de négociation supplémentaires. En conséquence, chaque capteur peut initier l'échange RTS / CTS uniquement à son créneau assigné, calculé à l'aide d'une procédure d'allocation basée sur une partition virtuelle de grille de la zone de déploiement. (...) / UnderWaterAcoustic Sensor Networks (UW-ASNs) are the newest technological achievement in terms of communication. Composed of a set of communicating underwater sensors, UW-ASNs are intended to observe and explore lakes, rivers, seas and oceans. Recently, they have been subject to a special attention due to their great potential in terms of promising applications in various domains (military, environmental, scientific...) and to the new scientific issues they raise. A great challenging issue in UW-ASNs is the fast energy depletion since high power is needed for acoustic communication while sensors battery budget is limited. Hence, energy-efficient networking protocols are of a paramount importance to make judicious use of the available energy budget while considering the distinguishing underwater environment characteristics. In this context, this thesis aims at studying the main challenging underwater acoustic sensors characteristics to design energy-efficient communication protocols specifically at the routing and MAC layers. First, we address the problem of energy holes in UW-ASNs. The sink-hole problem occurs when the closest nodes to sink drain their energy faster due to their heavier load. Indeed, those sensors especially the ones that are 1-hop away from the static sink act as relays to it on behalf of all other sensors, thus suffering from severe energy depletion. In particular, at the routing layer, we propose to distribute the transmission load at each sensor among several potential neighbors, assuming that sensors can adjust their communication range among two levels when they send or forward data. Specifically, we determine for each sensor the set of next hops with the associated load weights that lead to a fair energy depletion among all sensors in the network. Then, we extend our balanced routing strategy by assuming that each sensor node is not only able to adjust its transmission power to 2 levels but eventually up to n levels where n > 2. Consequently, at the routing layer, for each possible value of n, we determine for each sensor the set of possible next hops with the associated load weights that lead to a fair energy consumption among all sensors in the network. Moreover, we derive the optimal number of transmission powers n that balances the energy consumption among all sensors for each network configuration. In addition to that, it is worth pointing out that our extended routing protocol uses a more realistic time varying channel model that takes into account most of the fundamental characteristics of the underwater acoustic propagation. Analytical results show that further energy saving is achieved by our extended routing scheme. Second, to mitigate the dramatic collision impacts, we design a collision avoidance energy efficient multichannel MAC protocol (MC-UWMAC) for UW-ASNs. MC-UWMAC operates on single slotted control and a set of equal-bandwidth data channels. Control channel slots are dedicated to RTS/CTS handshaking allowing a communicating node pair to agree on the start time of communication on a pre-allocated data channel. In this thesis, we propose two novel coupled slot assignment and data channels allocation procedures without requiring any extra negotiation overhead. Accordingly, each node can initiate RTS/CTS exchange only at its assigned slot calculated using a slot allocation procedure based on a grid virtual partition of the deployment area. Moreover, for each communicating pair of nodes, one data channel is allocated using a channel allocation procedure based on our newly designed concept of singleton- intersecting quorum. Accordingly, each pair of communicating nodes will have at their disposal a unique 2-hop conflict free data channel. Compared with existing MAC protocol, MC-UWMAC reduces experienced collisions and improves network throughput while minimizing energy consumption.
1088

Modélisation des écoulement en milieux poreux fracturés : estimation des paramètres par approche inverse multi-échelle / Flow parameter estimation in fractured porous media : inversion and adaptive multi-scale parameterization

Trottier, Nicolas 16 May 2014 (has links)
Ce travail a pour objectif de développer et d’appliquer une méthode originale permettant de simuler l’écoulement dans un milieu poreux fracturé. Cette méthode repose sur une approche multicouches double continuum permettant de séparer le comportement des différents aquifères présents sur un site. La résolution des écoulements, basée sur la méthode des Eléments Finis de Crouzeix-Raviart, est associée à une méthode inverse (minimisation de type Quasi-Newton combinée à la méthode de l’état adjoint) et à une paramétrisation multi-échelle.La méthode est appliquée dans un premier temps sur l’aquifère fracturé du site expérimental de Poitiers. Les résultats montrent une bonne restitution du comportement de l’aquifère et aboutissent à des champs de transmissivité plus réguliers par rapport à ceux de l’approche simple continuum. L’application finale est réalisée sur le site de Cadarache (taille plus importante et données d’entrée moins denses). Le calage des deux aquifères présents sur le site est satisfaisant et montre que ceux-ci se comportent globalement de façon indépendante. Ce calage pourra être amélioré localement grâce à données de recharge plus fines. / The aim of this study is to develop and validate a new method for the simulation of flow in fractured porous media. This method is based on a multi-layered and dual continuum approach allowing to discriminate the behavior of different aquifers present on a site. The flow equations are solved using a Crouzeix-Raviart Finite Element method, in association with an inverse method (Quasi-Newton minimization combined with the adjoint state method) and a multi-scale parameterization.The method is first applied and validated on the fractured aquifer of the Hydrogeological Experimental Site of Poitiers. The results closely reproduce the flow behavior of the aquifer and lead to a transmissivity field much more homogeneous than the one obtained with a simple continuum approach. The final application is performed on the site of Cadarache (large scale problem with heterogeneously distributed input data). The model calibration of both aquifers is rather satisfactory and shows that their behavior is globally independent. It could locally be improved if more accurate groundwater recharge data is made available.
1089

Algorithmes gloutons orthogonaux sous contrainte de positivité / Orthogonal greedy algorithms for non-negative sparse reconstruction

Nguyen, Thi Thanh 18 November 2019 (has links)
De nombreux domaines applicatifs conduisent à résoudre des problèmes inverses où le signal ou l'image à reconstruire est à la fois parcimonieux et positif. Si la structure de certains algorithmes de reconstruction parcimonieuse s'adapte directement pour traiter les contraintes de positivité, il n'en va pas de même des algorithmes gloutons orthogonaux comme OMP et OLS. Leur extension positive pose des problèmes d'implémentation car les sous-problèmes de moindres carrés positifs à résoudre ne possèdent pas de solution explicite. Dans la littérature, les algorithmes gloutons positifs (NNOG, pour “Non-Negative Orthogonal Greedy algorithms”) sont souvent considérés comme lents, et les implémentations récemment proposées exploitent des schémas récursifs approchés pour compenser cette lenteur. Dans ce manuscrit, les algorithmes NNOG sont vus comme des heuristiques pour résoudre le problème de minimisation L0 sous contrainte de positivité. La première contribution est de montrer que ce problème est NP-difficile. Deuxièmement, nous dressons un panorama unifié des algorithmes NNOG et proposons une implémentation exacte et rapide basée sur la méthode des contraintes actives avec démarrage à chaud pour résoudre les sous-problèmes de moindres carrés positifs. Cette implémentation réduit considérablement le coût des algorithmes NNOG et s'avère avantageuse par rapport aux schémas approximatifs existants. La troisième contribution consiste en une analyse de reconstruction exacte en K étapes du support d'une représentation K-parcimonieuse par les algorithmes NNOG lorsque la cohérence mutuelle du dictionnaire est inférieure à 1/(2K-1). C'est la première analyse de ce type. / Non-negative sparse approximation arises in many applications fields such as biomedical engineering, fluid mechanics, astrophysics, and remote sensing. Some classical sparse algorithms can be straightforwardly adapted to deal with non-negativity constraints. On the contrary, the non-negative extension of orthogonal greedy algorithms is a challenging issue since the unconstrained least square subproblems are replaced by non-negative least squares subproblems which do not have closed-form solutions. In the literature, non-negative orthogonal greedy (NNOG) algorithms are often considered to be slow. Moreover, some recent works exploit approximate schemes to derive efficient recursive implementations. In this thesis, NNOG algorithms are introduced as heuristic solvers dedicated to L0 minimization under non-negativity constraints. It is first shown that the latter L0 minimization problem is NP-hard. The second contribution is to propose a unified framework on NNOG algorithms together with an exact and fast implementation, where the non-negative least-square subproblems are solved using the active-set algorithm with warm start initialisation. The proposed implementation significantly reduces the cost of NNOG algorithms and appears to be more advantageous than existing approximate schemes. The third contribution consists of a unified K-step exact support recovery analysis of NNOG algorithms when the mutual coherence of the dictionary is lower than 1/(2K-1). This is the first analysis of this kind.
1090

Méthodes d'accéleration pour la résolution numérique en électrolocation et en chimie quantique / Acceleration methods for numerical solving in electrolocation and quantum chemistry

Laurent, Philippe 26 October 2015 (has links)
Cette thèse aborde deux thématiques différentes. On s’intéresse d’abord au développement et à l’analyse de méthodes pour le sens électrique appliqué à la robotique. On considère en particulier la méthode des réflexions permettant, à l’image de la méthode de Schwarz, de résoudre des problèmes linéaires à partir de sous-problèmes plus simples. Ces deniers sont obtenus par décomposition des frontières du problème de départ. Nous en présentons des preuves de convergence et des applications. Dans le but d’implémenter un simulateur du problème direct d’électrolocation dans un robot autonome, on s’intéresse également à une méthode de bases réduites pour obtenir des algorithmes peu coûteux en temps et en place mémoire. La seconde thématique traite d’un problème inverse dans le domaine de la chimie quantique. Nous cherchons ici à déterminer les caractéristiques d’un système quantique. Celui-ci est éclairé par un champ laser connu et fixé. Dans ce cadre, les données du problème inverse sont les états avant et après éclairage. Un résultat d’existence locale est présenté, ainsi que des méthodes de résolution numériques. / This thesis tackle two different topics.We first design and analyze algorithms related to the electrical sense for applications in robotics. We consider in particular the method of reflections, which allows, like the Schwartz method, to solve linear problems using simpler sub-problems. These ones are obtained by decomposing the boundaries of the original problem. We give proofs of convergence and applications. In order to implement an electrolocation simulator of the direct problem in an autonomous robot, we build a reduced basis method devoted to electrolocation problems. In this way, we obtain algorithms which satisfy the constraints of limited memory and time resources. The second topic is an inverse problem in quantum chemistry. Here, we want to determine some features of a quantum system. To this aim, the system is ligthed by a known and fixed Laser field. In this framework, the data of the inverse problem are the states before and after the Laser lighting. A local existence result is given, together with numerical methods for the solving.

Page generated in 0.0259 seconds