• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 5
  • 1
  • Tagged with
  • 36
  • 14
  • 9
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Jeux combinatoires sur les graphes

Duchene, Eric 11 September 2006 (has links) (PDF)
Chacun d'entre nous s'est déjà essayé à un jeu combinatoire, tel que les dames ou les échecs. Les jeux les plus connus présentent le double avantage de mêler plaisir ludique et réflexion. L'intérêt que les mathématiciens leur porte réside souvent autour de la recherche d'une stratégie gagnante pour l'un des deux joueurs. Du jeu de Nim jusqu'aux échecs, la complexité de cette recherche est très variable. Dans cette thèse, nous donnons tout d'abord un aperçu des principales étapes du développement de ce domaine, qui a commencé au début des années 1900, et soulignons son étroite corrélation avec des domaines connexes tels que la théorie des nombres, des codes correcteurs d'erreur ou des graphes. Nous nous intéressons ensuite à des variantes de jeux bien connus : le Wythoff's game et le Dots and Boxes. Nous présentons et expliquons les stratégies et positions de jeu favorables au premier et au second joueur. Enfin, nous regardons une version solitaire d'un jeu récent à deux joueurs : le Clobber. Il s'agit d'un casse-tête qui se joue en posant des pierres sur les sommets d'un graphe, et dont le but est de détruire le plus de pierres possibles. Nous donnons des résultats structurels et algorithmiques sur les grilles, les arbres, ou encore les hypercubes.
2

Optimisation des correcteurs par les métaheuristiques. Application à la stabilisation inertielle de ligne de visée. / Controllers optimization with metaheuristics – Application to the ligne of sight stabilization problem.

Feyel, Philippe 16 June 2015 (has links)
Dans l’industrie, l’automaticien doit concevoir une loi de commande unique qu’il valide sur un prototype unique, ayant un degré de robustesse suffisant pour satisfaire un cahier des charges complexe sur un grand nombre de systèmes. Pour cela, la méthodologie de développement qu’il emploie consiste en un processus itératif expérimental (phase d’essai-erreur), qui fait grandement appel à l’expérience de l’ingénieur. Dans cette thèse, on tente de rendre la méthodologie de synthèse des correcteurs des asservissements plus efficace car plus directe et donc moins couteuse en temps de développement en calculant un correcteur final (structuré) par une attaque directe de la spécification système haut niveau. La complexité des spécifications systèmes haut-niveau nous pousse à l’emploi des métaheuristiques : ces techniques d’optimisation ne nécessitent pas la formulation du gradient, la seule contrainte étant la possibilité d’évaluer la spécification. Ainsi avons-nous proposé dans ce travail de reformuler les problèmes de commande robuste pour l’optimisation stochastique : on montre dans ce travail comment on peut synthétiser des correcteurs structurés à partir de problématiques de type H ou -synthèse et on montre que l’intérêt de l’approche formulée réside dans sa flexibilité et la prise en compte de contraintes « exotiques » complexes ; les algorithmes évolutionnaires s’avérant très performants et compétitifs, nous avons finalement développé sur cette base une méthode originale de synthèse de correcteurs structurés et robustes vis-à-vis de critères d’optimisation de forme quelconque. La validation de ces travaux a été réalisée sur des exemples industriels de viseurs. / In the industrial framework, the control engineer must design a unique control law that valid on a single prototype, with a sufficient degree of robustness to satisfy a complex specification on many systems. For that purpose, his development methodology consists of an experimental iterative process (trial and error phase), which relies heavily on the experience of the engineer. In this thesis, we try to make the methodology for computing controllers more efficient and more direct with a less costly development time by calculating a final structured controller by a direct optimization on the high level specification.The complexity of high-level specifications pushes us to the use of metaheuristics: these optimization techniques do not require the formulation of the gradient, the only constraint being the possibility of evaluating the specification. Thus we proposed in this work to reformulate robust control problems for stochastic optimization: we show in this work how to synthesize structured controllers for control problems such H synthesis or -synthesis and show that the interest of the formulated approach lies in its flexibility and the consideration of exotic complex constraints. Evolutionary algorithms proving very effective and competitive, we finally developed on this basis a new method for synthesizing robust and structured controllers with respect to any form of optimization criteria. The validation of this work was carried out on the industrial example of the line of sight stabilization problem.
3

Etude du décodage des codes de Reed-Muller et application à la cryptographie.

Sakkour, Bassem 06 April 2007 (has links) (PDF)
Dans cette thèse, nous étudions les codes de Reed-Muller qui constituent une des familles de codes correcteurs les plus étudiées, et les plus utilisées dans la transmission des communications numériques. Grâce à leur rapidité d'encodage et de décodage, ils furent notamment utilisés pour les transmissions satellitaires. Ils ont également un lien très fort avec les notions de fonctions booléennes. L'étude de ces dernières constitue le coeur de la réalisation et de la sécurité des systèmes de chiffrement à clé secrète, tant par blocs que par flot. Depuis l'introduction de ces codes, de très nombreux algorithmes de décodage virent le jour, et aujourd'hui encore étudier leur structure afin de construire des algorithmes de décodage constitue un fructueux domaine de recherche. Ces algorithmes de décodage peuvent être utilisés dans l'étude de la structure de systèmes de chiffrement à clé secrète. Nous exposons un point de vue unificateur à l'ensemble des algorithmes de décodage des codes de Reed-Muller, ce point de vue étant celui de la dérivée discrète. Nous exposons un algorithme performant pour le décodage des codes d'ordre deux, que nous analysons ensuite. Nous discutons les résultats de simulations des algorithmes étudiés pour les petites et moyennes longueurs de code. Ces résultats montrent que l'algorithme proposé décode beaucoup plus loin en pratique que les autres algorithmes.
4

Analyse de canaux de communication dans un contexte non coopératif.

Barbier, Johann 28 November 2007 (has links) (PDF)
Dans cette thèse, nous étudions les canaux de communication dans un contexte non coopératif sous l'angle des codes correcteurs d'erreurs, d'une part, et de la stéganographie, d'autre part. Nous prenons la place d'un observateur non légitime qui veut avoir accès à l'information échangée entre deux protagonistes. Nos travaux sur les algorithmes de reconstruction de codes correcteurs, nous ont amenés à proposer un formalisme commun pour l'étude des codes linéaires, des codes convolutifs et des turbo-codes. Nous analysons tout d'abord finement l'algorithme de Sicot-Houcke, puis l'employons ensuite comme brique de base pour concevoir une technique de reconstruction des codes convolutifs totalement automatique et de complexité meilleure que les techniques existantes. Enfin, nous utilisons ces résultats pour retrouver les paramètres des turbo-codeurs. Dans le cadre de l'analyse stéganographique, nous proposons tout d'abord deux nouveaux modèles de sécurité qui mettent en oeuvre des jeux avec des attaquants réels. Nous adaptons ensuite l'analyse RS en un schéma de détection pour l'algorithme Multi Bit Plane Image steganography pour le domaine spatial, proposé par Nguyen et al. à IWDW'06. Enfin, nous développons une approche nouvelle pour analyser les images JPEG. En étudiant les statistiques des coefficients DCT compressés, nous mettons en évidence des détecteurs possédant des performances élevées et indépendantes en pratique de la quantité d'information dissimulée. Nous illustrons ces résultats par un schéma de stéganalyse universelle d'une part, et un schéma de stéganalyse spécifique pour Outguess, F5 et JPHide and JPSeek, d'autre part.
5

Statistical methods for analysis and correction of high-throughput screening data

Dragiev, Plamen 11 1900 (has links) (PDF)
Durant le criblage à haut débit (High-throughput screening, HTS), la première étape dans la découverte de médicaments, le niveau d'activité de milliers de composés chimiques est mesuré afin d'identifier parmi eux les candidats potentiels pour devenir futurs médicaments (i.e., hits). Un grand nombre de facteurs environnementaux et procéduraux peut affecter négativement le processus de criblage en introduisant des erreurs systématiques dans les mesures obtenues. Les erreurs systématiques ont le potentiel de modifier de manière significative les résultats de la sélection des hits, produisant ainsi un grand nombre de faux positifs et de faux négatifs. Des méthodes de correction des données HTS ont été développées afin de modifier les données reçues du criblage et compenser pour l'effet négatif que les erreurs systématiques ont sur ces données (Heyse 2002, Brideau et al. 2003, Heuer et al. 2005, Kevorkov and Makarenkov 2005, Makarenkov et al. 2006, Malo et al. 2006, Makarenkov et al. 2007). Dans cette thèse, nous évaluons d'abord l'applicabilité de plusieurs méthodes statistiques servant à détecter la présence d'erreurs systématiques dans les données HTS expérimentales, incluant le x2 goodness-of-fit test, le t-test et le test de Kolmogorov-Smirnov précédé par la méthode de Transformation de Fourier. Nous montrons premièrement que la détection d'erreurs systématiques dans les données HTS brutes est réalisable, de même qu'il est également possible de déterminer l'emplacement exact (lignes, colonnes et plateau) des erreurs systématiques de l'essai. Nous recommandons d'utiliser une version spécialisée du t-test pour détecter l'erreur systématique avant la sélection de hits afin de déterminer si une correction d'erreur est nécessaire ou non. Typiquement, les erreurs systématiques affectent seulement quelques lignes ou colonnes, sur certains, mais pas sur tous les plateaux de l'essai. Toutes les méthodes de correction d'erreur existantes ont été conçues pour modifier toutes les données du plateau sur lequel elles sont appliquées et, dans certains cas, même toutes les données de l'essai. Ainsi, lorsqu'elles sont appliquées, les méthodes existantes modifient non seulement les mesures expérimentales biaisées par l'erreur systématique, mais aussi de nombreuses données correctes. Dans ce contexte, nous proposons deux nouvelles méthodes de correction d'erreur systématique performantes qui sont conçues pour modifier seulement des lignes et des colonnes sélectionnées d'un plateau donné, i.e., celles où la présence d'une erreur systématique a été confirmée. Après la correction, les mesures corrigées restent comparables avec les valeurs non modifiées du plateau donné et celles de tout l'essai. Les deux nouvelles méthodes s'appuient sur les résultats d'un test de détection d'erreur pour déterminer quelles lignes et colonnes de chaque plateau de l'essai doivent être corrigées. Une procédure générale pour la correction des données de criblage à haut débit a aussi été suggérée. Les méthodes actuelles de sélection des hits en criblage à haut débit ne permettent généralement pas d'évaluer la fiabilité des résultats obtenus. Dans cette thèse, nous décrivons une méthodologie permettant d'estimer la probabilité de chaque composé chimique d'être un hit dans le cas où l'essai contient plus qu'un seul réplicat. En utilisant la nouvelle méthodologie, nous définissons une nouvelle procédure de sélection de hits basée sur la probabilité qui permet d'estimer un niveau de confiance caractérisant chaque hit. En plus, de nouvelles mesures servant à estimer des taux de changement de faux positifs et de faux négatifs, en fonction du nombre de réplications de l'essai, ont été proposées. En outre, nous étudions la possibilité de définir des modèles statistiques précis pour la prédiction informatique des mesures HTS. Remarquons que le processus de criblage expérimental est très coûteux. Un criblage virtuel, in silico, pourrait mener à une baisse importante de coûts. Nous nous sommes concentrés sur la recherche de relations entre les mesures HTS expérimentales et un groupe de descripteurs chimiques caractérisant les composés chimiques considérés. Nous avons effectué l'analyse de redondance polynomiale (Polynomial Redundancy Analysis) pour prouver l'existence de ces relations. En même temps, nous avons appliqué deux méthodes d'apprentissage machine, réseaux de neurones et arbres de décision, pour tester leur capacité de prédiction des résultats de criblage expérimentaux. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : criblage à haut débit (HTS), modélisation statistique, modélisation prédictive, erreur systématique, méthodes de correction d'erreur, méthodes d'apprentissage automatique
6

List decoding of error-correcting codes Winning thesis of the 2002 ACM doctoral dissertation competition /

Guruswami, Venkatesan. January 1900 (has links)
Texte remanié de : PhD : Cambridge, MIT : 2001. / Bibliogr. p. [337]-347. Index.
7

Etudes de récepteurs MIMO-LDPC itératifs

Charaf, Akl 04 April 2012 (has links) (PDF)
L'objectif de cette thèse est l'étude de récepteurs MIMO LDPC itératifs. Les techniques MIMO permettent d'augmenter la capacité des réseaux sans fil sans la nécessité de ressources fréquentielles additives. Associées aux schémas de modulations multiporteuses CP-OFDM, les techniques MIMO sont ainsi devenues la pierre angulaire pour les systèmes sans fil à haute efficacité spectrale. La réception optimale peut être obtenue à l'aide d'une réception conjointe (Egalisation/Décodage). Étant très complexe, la réception conjointe n'est pas envisagée et l'égalisation et le décodage sont réalisés disjointement au coût d'une dégradation significative en performances. Entre ces deux solutions, la réception itérative trouve son intérêt pour sa capacité à s'approcher des performances optimales avec une complexité réduite. La conception de récepteurs itératifs pour certaines applications, de type WiFi à titre d'exemple doit respecter la structure du code imposée par la norme. Ces codes ne sont pas optimisés pour des récepteurs itératifs. En observant l'effet du nombre d' itérations dans le processus itératif, on montre par simulation que l'ordonnancement des itérations décodage LDPC/Turbo-égalisation joue un rôle important dans la complexité et le délai du récepteur. Nous proposons de définir des ordonnancements permettant de réduire la complexité globale du récepteur. Deux approches sont proposées, une approche statique ainsi qu'une autre dynamique. Ensuite nous considérons un système multi-utilisateur avec un accès multiple par répartition spatiale. Nous étudions l'intérêt de la réception itérative dans ce contexte tenant en compte la différence de puissance signale utile/interférence.
8

Optimisation des correcteurs par les métaheuristiques. Application à la stabilisation inertielle de ligne de visée. / Controllers optimization with metaheuristics – Application to the ligne of sight stabilization problem.

Feyel, Philippe 16 June 2015 (has links)
Dans l’industrie, l’automaticien doit concevoir une loi de commande unique qu’il valide sur un prototype unique, ayant un degré de robustesse suffisant pour satisfaire un cahier des charges complexe sur un grand nombre de systèmes. Pour cela, la méthodologie de développement qu’il emploie consiste en un processus itératif expérimental (phase d’essai-erreur), qui fait grandement appel à l’expérience de l’ingénieur. Dans cette thèse, on tente de rendre la méthodologie de synthèse des correcteurs des asservissements plus efficace car plus directe et donc moins couteuse en temps de développement en calculant un correcteur final (structuré) par une attaque directe de la spécification système haut niveau. La complexité des spécifications systèmes haut-niveau nous pousse à l’emploi des métaheuristiques : ces techniques d’optimisation ne nécessitent pas la formulation du gradient, la seule contrainte étant la possibilité d’évaluer la spécification. Ainsi avons-nous proposé dans ce travail de reformuler les problèmes de commande robuste pour l’optimisation stochastique : on montre dans ce travail comment on peut synthétiser des correcteurs structurés à partir de problématiques de type H ou -synthèse et on montre que l’intérêt de l’approche formulée réside dans sa flexibilité et la prise en compte de contraintes « exotiques » complexes ; les algorithmes évolutionnaires s’avérant très performants et compétitifs, nous avons finalement développé sur cette base une méthode originale de synthèse de correcteurs structurés et robustes vis-à-vis de critères d’optimisation de forme quelconque. La validation de ces travaux a été réalisée sur des exemples industriels de viseurs. / In the industrial framework, the control engineer must design a unique control law that valid on a single prototype, with a sufficient degree of robustness to satisfy a complex specification on many systems. For that purpose, his development methodology consists of an experimental iterative process (trial and error phase), which relies heavily on the experience of the engineer. In this thesis, we try to make the methodology for computing controllers more efficient and more direct with a less costly development time by calculating a final structured controller by a direct optimization on the high level specification.The complexity of high-level specifications pushes us to the use of metaheuristics: these optimization techniques do not require the formulation of the gradient, the only constraint being the possibility of evaluating the specification. Thus we proposed in this work to reformulate robust control problems for stochastic optimization: we show in this work how to synthesize structured controllers for control problems such H synthesis or -synthesis and show that the interest of the formulated approach lies in its flexibility and the consideration of exotic complex constraints. Evolutionary algorithms proving very effective and competitive, we finally developed on this basis a new method for synthesizing robust and structured controllers with respect to any form of optimization criteria. The validation of this work was carried out on the industrial example of the line of sight stabilization problem.
9

Etudes de récepteurs MIMO-LDPC itératifs / LDPC coded MIMO iterative receivers

Charaf, Akl 04 April 2012 (has links)
L’objectif de cette thèse est l’étude de récepteurs MIMO LDPC itératifs. Les techniques MIMO permettent d’augmenter la capacité des réseaux sans fil sans la nécessité de ressources fréquentielles additives. Associées aux schémas de modulations multiporteuses CP-OFDM, les techniques MIMO sont ainsi devenues la pierre angulaire pour les systèmes sans fil à haute efficacité spectrale. La réception optimale peut être obtenue à l’aide d’une réception conjointe (Egalisation/Décodage). Étant très complexe, la réception conjointe n’est pas envisagée et l’égalisation et le décodage sont réalisés disjointement au coût d’une dégradation significative en performances. Entre ces deux solutions, la réception itérative trouve son intérêt pour sa capacité à s’approcher des performances optimales avec une complexité réduite. La conception de récepteurs itératifs pour certaines applications, de type WiFi à titre d’exemple doit respecter la structure du code imposée par la norme. Ces codes ne sont pas optimisés pour des récepteurs itératifs. En observant l’effet du nombre d' itérations dans le processus itératif, on montre par simulation que l’ordonnancement des itérations décodage LDPC/Turbo-égalisation joue un rôle important dans la complexité et le délai du récepteur. Nous proposons de définir des ordonnancements permettant de réduire la complexité globale du récepteur. Deux approches sont proposées, une approche statique ainsi qu'une autre dynamique. Ensuite nous considérons un système multi-utilisateur avec un accès multiple par répartition spatiale. Nous étudions l’intérêt de la réception itérative dans ce contexte tenant en compte la différence de puissance signale utile/interférence. / The aim of this thesis is to address the design of iterative MIMO receivers using LDPC Error Correcting codes. MIMO techniques enable capacity increase in wireless networks with no additional frequency ressources. The associationof MIMO with multicarrier modulation techniques OFDM made them the cornerstone of emerging high rate wireless networks. Optimal reception can be achieved using joint detection and decoding at the expense of a huge complexity making it impractical. Disjoint reception is then the most used. The design of iterative receivers for some applications using LDPC codes like Wifi (IEEE 802.11n) is constrained by the standard code structure which is not optimized for such kind of receivers. By observing the effect of the number of iterations on performance and complexity we underline the interest of scheduling LDPC decoding iterations and turboequalization iterations. We propose to define schedules for the iterative receiver in order to reduce its complexity while preserving its performance. Two approaches are used : static and dynamic scheduling. The second part of this work is concerns Multiuser MIMO using Spatial Division Multiple Access. We explore and evaluate the interest of using iterative reception to cancel residual inter-user interference.
10

Vérification de descriptions VHDL par interprétation abstraite.

Hymans, Charles 04 September 2004 (has links) (PDF)
Cette thèse traite de la vérification automatique de composants matériels décrits en VHDL. C'est une étude de faisabilité d'un outil de vérification automatique qui réunit: exhaustivité, efficacité de calcul et simplicité d'utilisation. La méthodologie de l'interprétation abstraite a été adoptée: l'algorithme de simulation de VHDL est d'abord formalisé par une sémantique opérationnelle, de laquelle une analyse statique est dérivée de façon systématique par abstraction. L'analyse calcule un sur-ensemble des états accessibles. Le domaine numérique utilisé pour représenter les valeurs possibles des signaux de la description peut être choisi librement. Une instance possible de l'analyse a été implémenté en OCaml. Le domaine numérique choisi ici est celui des égalités linéaires entre variables booléennes. L'outil a permi de valider un code correcteur d'erreur de type Reed Solomon. Les performances sont excellentes, en particulier meilleures que celles du model checker à base de BDDs VIS.

Page generated in 0.0415 seconds