• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 695
  • 319
  • 99
  • 2
  • 1
  • Tagged with
  • 1129
  • 414
  • 251
  • 244
  • 203
  • 183
  • 183
  • 154
  • 129
  • 126
  • 110
  • 109
  • 109
  • 102
  • 98
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Structures géométriques et adsorption de petits agrégats de cuivre sur une surface de cuivre (111).

Benjalal, Youness 15 December 2006 (has links) (PDF)
La première partie de notre étude, sur les structures optimales des agrégats isolés, a permis de confirmer la validité du potentiel de Sutton-Chen dès que l'agrégat contient plus de six atomes. Nous avons pu également mettre la robustesse de l'algorithme génétique à l'épreuve et constater que nous pouvions augmenter son efficacité en lui combinant une seconde méthode plus locale en fin de recherche : par exemple, celle du gradient conjugué. Dans le cadre de la méthode EHMO nous avons calculé les énergies des OM et les formes de ces dernières pour chaque géométrie. Nous avons également analysé la variation de gap HOMO-LUMO des orbitales frontières avec la taille de l'agrégat. La seconde partie nous a montré que les structures optimales des agrégats sur une surface (111) sont linéaires.
222

Adaptation d'un algorithme génétique pour la reconstruction de réseaux de régulation génétique : COGARE.

Briche, Julien 09 September 2009 (has links) (PDF)
Nous proposons une approche “algorithme génétique” pour la reconstruction génomique. Notre approche introduit le concept d'algorithmie génétique multi-échelle : l'optimisation est conduite simultanément à une échelle locale et à une échelle globale. La fonction d'efficacité est donc hybride. Notre approche prend également en compte plusieurs types de données, dynamiques, statiques, ou imposées. Il en résulte un nouveau logiciel de reconstruction génomique, COGARE. Il est étalonné sur données simulées et comparé aux algorithmes existants. Il est utilisé sur deux cas réels, sur lesquels il révèle des capacités à renvoyer des informations pertinentes au biologiste.
223

Certificats de positivité et minimisation polynomiale dans la base de Bernstein multivariée

Leroy, Richard 05 December 2008 (has links) (PDF)
L'étude des polynômes réels en plusieurs variables est un problème classique en géométrie algébrique réelle et en calcul formel. Plusieurs questions sont naturelles : positivité éventuelle, calcul du minimum...<br /><br />Nous nous proposons, dans cette thèse, d'étudier ces questions dans le cas particulier où l'étude est menée sur un simplexe de $\R^k$.<br /><br />L'outil essentiel dans notre travail est la base de Bernstein, plus adaptée à la situation que la traditionnelle base des monômes. Elle jouit notamment de propriétés de positivité et d'encadrement essentielles à notre étude.<br /><br />Elle permet tout d'abord d'obtenir un algorithme décidant si un polynôme $f$ est positif sur un simplexe $V$, et le cas échéant, fournissant une écriture de $f$ rendant triviale cette positivité : on parle de certificat de positivité.<br /><br />En outre, elle est à l'origine d'un algorithme de minimisation polynomiale sur un simplexe. Ces deux algorithmes sont certifiés, et l'étude de leur complexité est menée dans cette thèse. Ils ont également fait l'objet d'implémentation sur ordinateur.
224

Vers un outil d’aide à la planification et à l’ordonnancement des blocs opératoires

FEI, Hongying 17 March 2006 (has links)
Résumé Dans cette thèse, nous étudions la gestion des blocs opératoires, et plus particulièrement la planification et l’ordonnancement de ces blocs. Le choix d’études de ce secteur hospitalier est lié au fait qu’il est réputé comme un lieu hautement stratégique dans un établissement hospitalier, surtout en terme de coûts. Il est dès lors utile de s’intéresser à l’optimisation de l’utilisation des ressources hospitalières. Etant donné que l’optimisation du fonctionnement des blocs opératoires est un problème vaste et complexe, nous nous focalisons sur deux sous-problèmes déjà réputés difficiles : la planification et l’ordonnancement des interventions chirurgicales. Ce sont des problèmes centrés sur la programmation opératoire et dont l’objectif est d’obtenir un programme opératoire réalisable et efficace du bloc. Les problèmes de planification sont premièrement formalisés comme des modèles mathématiques en nombres entiers et puis résolus par des procédures heuristiques et par un « Branch-and-Price » basés sur la génération de colonnes qui est utilisée pour résoudre les relaxations linéaires des modèles concernés afin de trouver les bornes inférieures. Les modèles d’ordonnancement sont traités comme des variantes de modèles de « flow shop » hybride à deux étages et résolus par des algorithmes génétiques hybrides. Finalement, nos modèles ont été testés et validés sur un cas réel. ABSTRACT This thesis presents our studies on the operating theatre management, especially on the operating theatre planning and scheduling problem in case that this surgical sector is always regarded as the kernel in a hospital in terms of the expenditure. Therefore, it’s necessary to optimize the assignment of hospital resources in the operating theatre. Since this type of problem is extremely complex, we concentrate on just two sub-problems that are also considered difficult ones by researchers: the surgical cases planning and scheduling problem, which aim to make a surgical cases programming with an objective of obtaining a realizable and efficient surgical cases operating schedule. At first the weekly planning problems of surgical cases are formulated as a mathematical integer programming, and then they are solved by heuristic procedures and Branch-and-Price one. All these procedures are based on the column generation procedure, which is used to solve the linear relaxation of each model for a lower bound. The scheduling models are treated as variants of hybrid two-stage flow shop problem and are solved by proposed hybrid genetic algorithms. Finally, our models are tested and validated in a real case.
225

Gestion des stocks dans des chaînes logistiques face aux aléas des délais d'approvisionnements

Hnaien, Faicel 08 December 2008 (has links) (PDF)
La gestion des stocks est un élément très important pour les entreprises. Il faut pouvoir satisfaire les clients à moindre coût. Pour cela, il est nécessaire d'être en possession de tous es composants, pour fabriquer les produits demandés et les livrer à la date voulue. En effet, une mauvaise politique d'approvisionnement en composants conduit soit à des retards de livraison, qui engendrent des frais, soit à des stocks inutiles. Dans cette thèse, nous étudions la planification des réapprovisionnements en composants pour les systèmes de production de différentes structures. Nous travaillons avec les nomenclatures à plusieurs niveaux et nous tenons compte des aléas des délais d'approvisionnement. Nous avons choisi comme variables de décision celles qui correspondaient aux paramètres de la méthode MRP, comme le temps de cycle planifié. L'objectif pratique de notre étude étant également de fournir des techniques pour le paramétrage des logiciels MRP en présence de ce type d'aléas. Nous avons proposé des modèles et avons démontré leurs propriétés théoriques intéressantes ainsi que des approches d'optimisation nouvelles pour ce type de problème.
226

Contre-mesures à bas coût contre les attaques physiques sur algorithmes cryptographiques implémentés sur FPGA Altera

Nassar, Maxime 09 March 2012 (has links) (PDF)
Les attaques en fautes (FA) et par canaux cachés (SCA), permettent de récupérer des données sensibles stockées dans des équipements cryptographiques, en exploitant une fuite d'information provenant de leur implémentation matérielle. Le but de cette thèse est donc de formuler un état de l'art des contre-mesures aux SCA adaptées aux FPGA, ainsi que d'implémenter celles qui seront retenues en minimisant les pertes de performance et de complexité. Le cas des algorithmes symétriques tel AES est spécialement étudié, révélant plusieurs faiblesses des contre-mesures habituelles (DPL et masquage) en terme de résistance et de coût. Trois nouvelles contre-mesures sont donc proposées: 1.Des stratégies de placement/routage équilibrés destinées à amélioré la résistance des DPL sur FPGA. 2.Un nouveau type de DPL appelée BCDL (Balanced Cell-based Dual-rail Logic) dont le but est de supprimer la plupart des vulnérabilités liées aux DPLs. BCDL est également résilient à la majeure partie des FA et optimisé pour les FPGA, ce qui induit des complexité et performance compétitives. 3. RSM (Rotating S-Box Masking), une nouvelle technique de masquage pour AES qui montre un haut niveau de performances et résistance pour une complexité réduite. Finalement, plusieurs nouvelles SCA sont présentées et évaluées. RC (Rank Corrector) est un algorithme permettant d'améliorer les autres SCA. La FPCA introduit un nouveau distingueur basée sur la PCA. Puis plusieurs combinaisons (distingueur et mesures) sont proposées et résultent en une diminution du nombre de trace nécessaire à l'attaque.
227

APPRENTISSAGE SÉQUENTIEL : Bandits, Statistique et Renforcement.

Maillard, Odalric-Ambrym 03 October 2011 (has links) (PDF)
Cette thèse traite des domaines suivant en Apprentissage Automatique: la théorie des Bandits, l'Apprentissage statistique et l'Apprentissage par renforcement. Son fil rouge est l'étude de plusieurs notions d'adaptation, d'un point de vue non asymptotique : à un environnement ou à un adversaire dans la partie I, à la structure d'un signal dans la partie II, à la structure de récompenses ou à un modèle des états du monde dans la partie III. Tout d'abord nous dérivons une analyse non asymptotique d'un algorithme de bandit à plusieurs bras utilisant la divergence de Kullback-Leibler. Celle-ci permet d'atteindre, dans le cas de distributions à support fini, la borne inférieure de performance asymptotique dépendante des distributions de probabilité connue pour ce problème. Puis, pour un bandit avec un adversaire possiblement adaptatif, nous introduisons des modèles dépendants de l'histoire et traduisant une possible faiblesse de l'adversaire et montrons comment en tirer parti pour concevoir des algorithmes adaptatifs à cette faiblesse. Nous contribuons au problème de la régression en montrant l'utilité des projections aléatoires, à la fois sur le plan théorique et pratique, lorsque l'espace d'hypothèses considéré est de dimension grande, voire infinie. Nous utilisons également des opérateurs d'échantillonnage aléatoires dans le cadre de la reconstruction parcimonieuse lorsque la base est loin d'être orthogonale. Enfin, nous combinons la partie I et II : pour fournir une analyse non-asymptotique d'algorithmes d'apprentissage par renforcement; puis, en amont du cadre des Processus Décisionnel de Markov, pour discuter du problème pratique du choix d'un bon modèle d'états.
228

Métaheuristiques hybrides pour la résolution du problème d'ordonnancement de voitures dans une chaîne d'assemblage automobile

Noël, Sébastien January 2007 (has links) (PDF)
La littérature scientifique propose une grande variété de stratégies pour la résolution des problèmes d'optimisation combinatoire (POC). Ces problèmes sont d'une grande complexité et demandent des méthodes évoluées pour les résoudre. Les algorithmes exacts, comme la programmation linéaire en nombres entiers (PLNE) à l'aide de l'algorithme Branch and Bound (B&B), arrivent à trouver une solution optimale pour certaines instances de problèmes. Par contre, plus la taille du problème à résoudre est grande, plus ces algorithmes ont de la difficulté à en venir à bout. Les métaheuristiques représentent alors une alternative intéressante pour trouver une solution de qualité acceptable dans des délais très courts. Toutefois, il est impossible de garantir qu'une métaheuristique trouvera la solution optimale d'un problème. Parmi ces méthodes, on retrouve l'optimisation par colonies de fourmis (OCF), qui a su faire ses preuves pendant les dernières années pour la résolution de différents problèmes d'optimisation combinatoire. Une autre avenue consiste à créer des algorithmes hybrides. L'objectif principal de ce mémoire est de proposer trois algorithmes hybridant un OCF et la PLNE pour résoudre le problème d'ordonnancement de voitures (POV). Le POV est un POC qui consiste à déterminer dans quel ordre placer un ensemble de voitures à produire sur une chaîne d'assemblage en se soumettant à un ensemble de contraintes. On cherche parfois la séquence minimisant le nombre de conflits, où un conflit représente une surcharge de travail occasionnée à un poste particulier de l'atelier de montage par l'arrivée successive de plusieurs voitures similaires, ou encore minimisant le nombre de changements de couleurs à l'atelier de peinture. Pour simplifier le problème, on ne s'attardera qu'aux contraintes liées à l'atelier de montage où sont installées les différentes options des voitures. Cette version théorique du POV que l'on retrouve dans la littérature est une simplification du problème industriel. Différentes méthodes ont été proposées pour solutionner ce problème. Celles qui attirent notre attention sont l'OCF et la PLNE. On cherchera, dans ce mémoire, à concevoir des approches hybrides exploitant les forces de ces deux approches. Il sera également possible de comparer la performance des algorithmes hybrides avec les résultats obtenus avec l'OCF pour établir l'apport de telles hybridations. Le premier algorithme hybride proposé consiste à créer un sous-problème à partir de la meilleure solution de chaque cycle de l'OCF et de résoudre ce sous-problème avec le B&B. Cette méthode ne s'est pas avérée très performante, car aucune intensification n'est effectuée sur une solution. Le second algorithme tente de combler cette lacune en appelant le B&B de manière répétitive à un intervalle régulier de cycles de l'OCF. Cet appel répété du B&B représente, en fait, une recherche locale exacte (RLE). Pour l'ensemble des problèmes utilisés pour tester cette hybridation, des résultats de qualité légèrement supérieure ou égale à l'OCF, intégrant une recherche locale, ont été obtenus pour environ deux problèmes sur trois. On peut en dire autant de la troisième hybridation proposée, qui consiste, dans un premier temps, à exécuter l'OCF et à fournir la meilleure solution trouvée comme solution de départ à la RLE. Les objectifs fixés dans cette recherche ont été atteints en concevant des méthodes de résolution hybrides, adaptées au POV, combinant une métaheuristique et une méthode exacte. On avait aussi pour but d'établir la performance des méthodes hybrides face à leurs contreparties singulières. En règle générale, les hybridations parviennent à donner des résultats de qualité équivalente à celle des résultats de l'OCF avec recherche locale mais avec un coût en temps d'exécution. Il s'agit tout de même d'une conclusion réjouissante puisque des améliorations pourraient être apportées à ces algorithmes pour les rendre encore plus performants. On a aussi exploré quelques façons de créer des sous-problèmes plus faciles à résoudre par un algorithme exact. Ceci ouvre donc une porte à une autre approche de la résolution de POC.
229

Allocation des ressources et ordonnancement dans des systèmes MIMO-CDMA

Driouch, El Mahdi January 2009 (has links) (PDF)
Un système de communication sans fil MIMO-CDMA combine l'utilisation de plusieurs antennes (au niveau de la station de base et/ou des usagers), avec la technique d'accès multiple à répartition par codes. Afin de tirer profit des avantages de cette combinaison, la conception d'un algorithme efficace qui permet l'allocation des ressources devient une tache indispensable. Ce travail propose deux algorithmes d'ordonnancement permettant d'allouer les ressources réseau aux différents usagers dans les systèmes MIMO-CDMA. Vu que le problème d'ordonnancement est dans ce cas NP-difficile, nous avons adopté une approche basée sur la théorie des graphes. Ainsi, nous avons obtenu le bon compromis entre performances et complexité algorithmique. Les simulations présentées démontrent l'efficacité des algorithmes proposés. Ces derniers donnent des résultats très proches de l'optimal tout en réduisant largement la complexité de l'algorithme exacte. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Algorithmes d'ordonnancement, Théorie des graphes, Systèmes de communication sans fil MIMO-CDMA, Simulation des réseaux.
230

Capacité d'une mémoire associative à fonction de sortie chaotique

Cherif, Mounia 12 1900 (has links) (PDF)
Un des thèmes de recherche privilégié pour les sciences cognitives et l'intelligence artificielle est l'étude des capacités d'association du cerveau humain. L'objectif est de développer des modèles de mémoires dotés de caractéristiques similaires, que ce soit en termes d'adaptabilité, d'efficacité, ou de robustesse. Plusieurs modèles de mémoires associatives ont été développés et présentés dans la littérature, parmi eux le modèle de mémoire associative bidirectionnelle BAM de Kosko (Kosko, 1988). Ce modèle utilise une règle d'apprentissage hebbienne qui le rend plausible biologiquement, mais il possède plusieurs limitations cependant. En effet, sa règle d'apprentissage impose des contraintes d'orthogonalité entre les différents motifs appris qui entraine une faible capacité de mémorisation et une faible résilience face au bruit. De plus, le modèle peut apprendre uniquement des patrons encodés en binaire et linéairement séparables. De nombreux efforts ont été, et continuent aujourd'hui à être déployés pour tenter d'améliorer le modèle de Kosko. La plupart visent l'augmentation de la capacité de stockage et l'amélioration de la performance de rappel. Quelques-uns des modèles proposés réussissent à classifier des problèmes non séparables linéairement, mais s'éloignent de l'architecture originale de Kosko ou parfois, utilisent des méthodes d'apprentissage qui s'écartent du principe de Hebb, ce qui les rend moins plausibles biologiquement. Dans le présent mémoire, nous approfondissons l'étude d'un modèle récent de BAM, proposé par Chartier et Boukadoum (2006a) et caractérisé par une fonction de sortie chaotique, une architecture asymétrique, et une règle d'apprentissage hebbienne modifiée. Plus spécifiquement, nous étudions l'impact de modifier la fonction de sortie, en lui ajoutant un paramètre d'asymétrie, sur la capacité du réseau à traiter des tâches de classification non linéairement séparables. Nous nous inspirons de la théorie des catastrophes pour le cadre théorique de notre étude. Nous expérimentons sur le modèle en vue d'améliorer sa performance de classification sans complexifier son architecture ou nous écarter de la plausibilité biologique de la règle d'apprentissage. Pour ce faire, nous utilisons et comparons plusieurs algorithmes de recherche heuristiques, dont certains inspirés de l'évolution naturelle, afin de concevoir des modèles de classification puissants, potentiellement capables de reproduire l'efficacité des processus cognitifs naturels. Les principes exposés dans ce mémoire, se sont montrés efficaces pour le modèle BAM et peuvent faire l'objet de recherches intéressantes, notamment pour l'amélioration du potentiel des modèles connexionnistes récurrents. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : mémoire associative bidirectionnelle, réseaux de neurones artificiels, classification, dynamique chaotique, catastrophe fronce.

Page generated in 0.0487 seconds