• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 482
  • 201
  • 43
  • 2
  • Tagged with
  • 723
  • 723
  • 334
  • 329
  • 196
  • 174
  • 144
  • 126
  • 114
  • 113
  • 105
  • 88
  • 83
  • 67
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
591

Commande aléatoire du convertisseur Buck-Boost triphasé à prélèvement sinusoïdal du courant

Touzani, Youssef 10 July 2006 (has links) (PDF)
Ce mémoire traite de la commande aléatoire du convertisseur Buck-Boost triphasé à prélèvement sinusoïdal du courant. Cette famille de convertisseurs est peu maîtrisée, et ce malgré le grand avantage qu'elle apporte par rapport à la structure Boost. L'objectif de ce travail est de développer une commande adaptée à cette structure améliorant la fiabilité et la qualité du convertisseur tout en réduisant le coût de réalisation. L'objectif étant d'aboutir à un convertisseur plus compétitif par rapport au convertisseur Boost. Après une présentation du contexte de l'étude dans le premier chapitre, le second chapitre est consacré au dimensionnement et à la mise en oeuvre de la commande du convertisseur. Le troisième chapitre décrit la modulation à fréquence aléatoire RCFM, permettant d'atténuer la densité spectrale des courants de ligne tout en conservant l'amplitude de la composante fondamentale. Le quatrième chapitre porte sur l'amélioration de la fiabilité et la réduction du coût du convertisseur. Qui consiste en l'élaboration d'une architecture de commande s'affranchissant des capteurs de courant alternatif, et réduisant le nombre des capteurs utilisés ce qui améliore sa fiabilité. Enfin, le dernier chapitre est consacré à l'étude expérimentale et aux simulations. L'étude expérimentale de la modulation a permis de valider les résultats théoriques de l'analyse de la RCFM. De plus, les simulations (intégrant des contraintes expérimentales) ont permis de valider le dimensionnement du convertisseur, sa dynamique ainsi que la reconstruction des différents signaux
592

Coordination des activités réparties dans des situations dynamiques : le cas de la gestion de crise inter-organisationnel

Franke, Jörn 14 October 2011 (has links) (PDF)
De nombreuses catastrophes de diverses envergures frappent régulièrement des populations partout dans le monde. Parmi les exemples marquant on peut citer l'ouragan Katrina en 2005, le tremblement de terre en Haïti en 2010 ou plus récemment le Tsunami au Japon et la catastrophe de Fukujima qui a suivie. Au cours de ces catastrophes, plusieurs centaines d'organisations, comme la police, les pompiers ou les organisations d'aide humanitaire, interviennent pour sauver les gens et aider à revenir à une vie normale. Ces organisations ont besoin de se coordonner pour faire face à une situation dynamique avec des ressources limitées et une vision partielle de la situation. L'évolution de la situation entraîne souvent des changements d'objectif et de plan. Un des problèmes typique est d'obtenir un aperçu sur les relations entre ce qui a été fait, ce qui se passe actuellement et quelles sont les prochaines étapes. Ce problème est particulièrement difficile sur le plan inter-organisationnel : Chaque organisation coordonne la réponse de sa propre perspective et s'appuie sur les informations fournies par d'autres organisations. Notre objectif dans cette thèse est d'étudier comment supporter la coordination des activités par des personnes de différentes organisations dans une situation dynamique par un système d'information. L'idée de base est de tirer profit d'une approche basée sur les processus, où les activités et leurs relations sont rendues explicites. Nous présentons un cadre pour la coordination des activités dans des situations dynamiques. Il permet la modélisation ad hoc des relations entre ce qui a été fait, ce qui se passe actuellement et quelles sont les prochaines étapes. Les écarts par rapport au modèle et comment les activités ont été réalisées sont affichées à l'utilisateur pour mettre en évidence l'impact de l'évolution des objectifs. Nous étendons ce cadre au niveau inter-organisationnel. Certaines activités peuvent être partagées entre différentes organisations. Tout n'est pas partagé entre tout le monde pour tenir compte du respect de la vie privée, de la réglementation, des raisons stratégiques ou autres. Les activités partagées sont reproduites dans les espaces de travail de ces organisations. Nous décrivons comment des vues divergentes sur les activités et leurs relations peuvent etre détectées et traitées afin de revenir éventuellement à une vue convergente. Les concepts sont mis en œuvre comme une extension d'un service de collaboration distribuée ouvert. Ils ont été évalués par des gestionnaires de catastrophes expérimentés. Par ailleurs, nous avons conçu une expérience visant à évaluer l'utilisation d'outils pour aborder ces question. Nous avons effectué plusieurs expériences pour valider cette expérience. D'autres expériences pourront fournir une validation plus complété du modèle proposé dans cette thèse.
593

Placage de Déplacement Tridimensionnel par Pixel pour le Rendu Temps Réel

Halli, Akram 06 June 2009 (has links) (PDF)
De nos jours, les images de synthèse occupent une place de plus en plus importante dans des domaines aussi variés que l'ingénierie ou le divertissement. Le matériel informatique a énormément évolué ces dernières années afin de pouvoir suivre cette tendance. Cependant, le matériel ne peut satisfaire seul aux exigences, en terme de qualité et d'interactivité, que requièrent les nouvelles applications. D'où l'intérêt d'algorithmes permettant d'optimiser le temps d'exécution et l'occupation mémoire de telles applications, et notamment celles qui nécessitent une interactivité avec l'utilisateur. Le placage de déplacement tridimensionnel par pixel est une nouvelle technique qui permet d'enrichir visuellement les scènes 3D, en simulant les mesostructures (microreliefs) présentes sur de nombreux types de surface. Cette amélioration s'effectue sans modification de la définition géométrique des objets 3D, et s'appuie uniquement sur le placage de textures dédiées à cet effet. Cette technique contribue ainsi à éviter la saturation du pipeline graphique que peut provoquer le traitement d'un très grand nombre de primitives graphiques. Dans le même esprit, la technique de modélisation et rendu à base d'images, qui est une extension du placage de déplacement 3D par pixel, permet de créer et d'afficher des objets 3D dans leur intégralité, sans passer par le traditionnel maillage polygonal. Au cours de ce travail, nous nous sommes intéressés à l'une des meilleures techniques pour le placage de déplacement 3D par pixel. Il s'agit de la technique de traçage de cônes, dont nous avons pu faire passer les algorithmes de prétraitement des textures d'une complexité quadratique à une complexité linéaire. Nous avons également proposé un nouvel algorithme permettant la prise en charge des textures rectangulaires, car elles étaient très mal gérées par les méthodes existantes. Nous avons aussi développé une nouvelle approche qui rend possible la synchronisation temps réel entre la modification de l'échelle du microrelief et son ombrage. Cette thèse introduit notamment le placage d'extrusion et de révolution. Il s'agit d'une nouvelle technique de modélisation et rendu à base d'images. L'approche que nous avons adoptée permet de créer des géométries sans maillage, par extrusion ou par révolution d'une forme de base, stockée sous forme d'une image 2D binaire. Ce type de géométrie est très utilisé en modélisation 3D, et particulièrement dans la création d'environnements architecturaux. La technique proposée est très performante, que ce soit en terme d'interactivité, ou en terme de qualité visuelle.
594

ETUDE ET ELABORATION D'UN SYSTEME DE MAINTENANCE PREDICTIVE POUR LES CONDENSATEURS ET LES BATTERIES UTILISES DANS LES ALIMENTATIONS SANS INTERRUPTIONS (ASI)

Abdennadher, Karim 25 June 2010 (has links) (PDF)
Pour assurer une énergie électrique de qualité et de façon permanente, il existe des systèmes électroniques d'alimentation spécifiques. Il s'agit des Alimentations Sans Interruptions (ASI). Une ASI comme tout autre système peut tomber en panne ce qui peut entrainer une perte de redondance. Cette perte induit une maintenance corrective donc une forme d'indisponibilité ce qui représente un coût. Nous proposons dans cette thèse de travailler sur deux composants parmi les plus sensibles dans les ASI à savoir les condensateurs électrolytiques et les batteries au plomb. Dans une première phase, nous présentons, les systèmes de surveillance existants pour ces deux composants en soulignant leurs principaux inconvénients. Ceci nous permet de proposer le cahier des charges à mettre en oeuvre. Pour les condensateurs électrolytiques, nous détaillons les différentes étapes de caractérisation et de vieillissement ainsi que la procédure expérimentale de vieillissement standard accéléré et les résultats associés. D'autre part, nous présentons les résultats de simulation du système de surveillance et de prédiction de pannes retenu. Nous abordons la validation expérimentale en décrivant le système développé. Nous détaillons les cartes électroniques conçues, les algorithmes mis en oeuvre et leurs contraintes d'implémentation respectifs pour une réalisation temps réel. Enfin, pour les batteries au plomb étanches, nous présentons les résultats de simulation du système de surveillance retenu permettant d'obtenir le SOC et le SOH. Nous détaillons la procédure expérimentale de vieillissement en cycles de charge et décharge de la batterie nécessaire pour avoir un modèle électrique simple et précis. Nous expliquons les résultats expérimentaux de vieillissement pour finir avec des propositions d'amélioration de notre système afin d'obtenir un SOH plus précis.
595

Le filtrage des défauts dans l'analyse de la sécurité dynamique en temps réel des grands réseaux électriques

Maginier, Sylvain 16 December 1998 (has links) (PDF)
L'analyse de la sécurité dynamique en temps réel est très difficile à réaliser en raison du nombre important de calculs à réaliser en quelques minutes seulement. Jusqu'à aujourd'hui, aucune méthode ne s'est révélée suffisamment efficace pour remplir cette tâche. Dans ce contexte, le filtrage des contingences représente un enjeu majeur puisqu'il permet d'économiser beaucoup de temps de calculs. Le but de nos travaux de recherche a été de mettre au point une stratégie de filtrage basée sur les méthodes d'analyse de la stabilité transitoire existantes. Dans un premier temps, les principales méthodes d'analyse de la stabilité transitoire ont été étudiées et testées à l'aide de quatre réseaux électriques de tailles différentes. Les méthodes qui sont apparues comme les plus efficaces ont ensuite été développées et modifiées, afin d'améliorer leur rapidité, leur fiabilité et leur précision. Deux nouvelles méthodes ont ainsi été crées. La première méthode permet de déterminer très rapidement et de manière très fiable la stabilité du réseau. La deuxième permet de calculer précisément le TEC avec un minimum de simulations. A partir de ces deux méthodes qui ont des caractéristiques complémentaires, une stratégie de filtrage multi-niveau, réalisant un bon compromis entre la rapidité, la fiabilité et la précision, a été proposée.
596

Traitement et programmation temps-réel des signaux musicaux

Cont, Arshia 30 May 2013 (has links) (PDF)
Mes activités de recherche et d'encadrement, depuis ma soutenance de thèse en octobre 2008, gravitent à la confluence de deux problématiques souvent considérées comme distinctes dont le couplage est plus qu'évident en informatique musicale : l'écoute artificielle et la programmation synchrone des signaux musicaux en temps réel. Le but est d'enrichir chaque domaine respectivement et de fournir des outils nécessaires aux artistes pour étendre leurs capacités de création musicale sur ordinateur (à celui de leurs homologues humains). Le premier aspect de tout système de musique interactive est l'acte de l'écoute ou formellement parlant, l'extraction d'informations musicaux en temps réel. J'ai concentré mes efforts sur les approches axées sur les applications telles que la détection de pitch polyphonique et les techniques d'alignement en temps réel d'une part. Puis, d'autre part, j'ai abordé des problèmes fondamentaux liés à la représentation des signaux. Pour le premier volet, nous avons proposé deux approches reconnues comme l'état de l'art et renommées par leur utilisation par la communauté artistique et leur reconnaissance au sein de la communauté MIR. Le deuxième volet théorique porte sur le problème fondamental de la quantification et la qualification du contenu de l'information arrivant progressivement dans un système en utilisant des méthodes de la géométrie de l'information. Le deuxième et plus récent aspect de mon travail se concentre sur la programmation synchrone réactive de la musique, couplée à des systèmes d'écoute (ou la formalisation de réactions dans les systèmes interactifs aux perceptions artificielles en temps réel). Notre approche est motivée par les pratiques actuelles en art numérique et les exigences d'évaluation en temps réel qu'elles demandent. L'incarnation majeure de cette approche est le système Antescofo doté d'une machine d'écoute et d'un langage dynamique et qui s'est imposé dans le monde entier dans le répertoire de la musique mixte, reconnu du public depuis 2009. L'écriture du temps, l'interaction et la tentative d'assurer leur exécution correcte en temps réel posent des problèmes difficiles pour l'informatique et les concepteurs de systèmes. Ce couplage fort fera l'objet de mon travail dans les années à venir sous la bannière des systèmes de musique Cyber-physique. Le couplage entre la machine d'écoute et des langages temps réel nécessite d'augmenter les approches actuelles avec des modèles formels de temps, dépassant les approches fonctionnelles qui dominent pour développer une formalisation des exigences de réaction et d'exécution. Il faudra en conséquence repenser nos méthodes usuelles de traitement audio multiforme et leurs modèles de calculs sous-jacents en ce qui concerne le temps.
597

Exploration architecturale pour la conception d'un système sur puce de vision robotique, adéquation algorithme-architecture d'un système embarqué temps-réel

Lefebvre, Thomas 02 July 2012 (has links) (PDF)
La problématique de cette thèse se tient à l'interface des domaines scientifiques de l'adéquation algorithme architecture, des systèmes de vision bio-inspirée en robotique mobile et du traitement d'images. Le but est de rendre un robot autonome dans son processus de perception visuelle, en intégrant au sein du robot cette tâche cognitive habituellement déportée sur un serveur de calcul distant. Pour atteindre cet objectif, l’approche de conception employée suit un processus d'adéquation algorithme architecture, où les différentes étapes de traitement d'images sont analysées minutieusement. Les traitements d'image sont modifiés et déployés sur une architecture embarquée de façon à respecter des contraintes d'exécution temps-réel imposées par le contexte robotique. La robotique mobile est un sujet de recherche académique qui s'appuie notamment sur des approches bio-mimétiques. La vision artificielle étudiée dans notre contexte emploie une approche bio-inspirée multirésolution, basée sur l'extraction et la mise en forme de zones caractéristiques de l'image. Du fait de la complexité de ces traitements et des nombreuses contraintes liées à l'autonomie du robot, le déploiement de ce système de vision nécessite une démarche rigoureuse et complète d'exploration architecturale logicielle et matérielle. Ce processus d'exploration de l'espace de conception est présenté dans cette thèse. Les résultats de cette exploration ont mené à la conception d'une architecture principalement composée d'accélérateurs matériels de traitements (IP) paramétrables et modulaires, qui sera déployée sur un circuit reconfigurable de type FPGA. Ces IP et le fonctionnement interne de chacun d'entre eux sont décrits dans le document. L'impact des paramètres architecturaux sur l'utilisation des ressources matérielles est étudié pour les traitements principaux. Le déploiement de la partie logicielle restante est présenté pour plusieurs plate-formes FPGA potentielles. Les performances obtenues pour cette solution architecturale sont enfin présentées. Ces résultats nous permettent aujourd'hui de conclure que la solution proposée permet d'embarquer le système de vision dans des robots mobiles en respectant les contraintes temps-réel qui sont imposées.
598

Formalisation et intégration en vision par ordinateur temps réel

Arias, Soraya 16 December 1999 (has links) (PDF)
Le domaine de la vision par ordinateur a atteint un degré de maturité qui lui permet d'envisager, au delà de la mise en oeuvre d'algorithmes utilisés au coup par coup ou dans un asservissement, la construction d'applications complexes intégrant différents aspects (analyse de scène, décision, traitements temps réel, supervision). Cette complexité se répercute à tous les niveaux du cycle de développement de ces applications (conception, implantation et validation). Ce travail propose donc une méthodologie de conception et des outils effectifs pour la mise en oeuvre d'applications de vision temps réel. La méthodologie de conception proposée exige un découpage fonctionnel des traitements en tâches élémentaires, puis l'organisation de ces tâches de manière logique pour construire l'application. Ces tâches élémentaires sont appelées des Tâches Vision. Elles se présentent sous la forme d'une boucle de calculs temps réel, paramétrée, contrôlée de manière logique et pouvant agir sur un capteur visuel. L'environnement Orccad/MaestRo, dédié initialement à la robotique, offre des caractéristiques intéressantes pour satisfaire aux besoins de cette méthodologie. Il offre en particulier des outils formels de validation de la partie liée au controle logique et permet la gestion rigoureuse des aspects temps réel. Afin de tirer le meilleur parti de cet environnement pour le développement d'applications de vision, nous avons dû ajouter ou enrichir certaines de ses fonctionnalités. Les modifications concernent notamment un mécanisme de paramétrage dynamique des calculs, un mécanisme de communication assurant l'interopérabilité du système et un mécanisme de génération automatique d'interfaces de supervision. L'utilisation de cette méthodologie et de l'environnement Orccad étendu est illustrée à l'aide d'un prototype d'application de suivi de cible, dans un contexte d'assistance aux personnes agées.
599

Partitionnement en ligne d'applications flots de données pour des architectures temps réel auto-adaptatives

Ghaffari, Fakhreddine 30 November 2006 (has links) (PDF)
Les défis actuels du développement des systèmes embarqués<br />complexes tels que les systèmes intégrés de traitement d'image,<br />consistent à réaliser avec succès des produits fiables,<br />performants, efficaces quelles que soient les conditions d'utilisation et peu<br />coûteux. Relever ces défis passe par un bon choix d'architecture, de méthodes<br />et outils adaptés aux applications visées et aux technologies cibles. Pour de<br />nombreuses applications, en particulier en télécommunication et multimédia,<br />des réalisations temps réel souple sont souvent suffisantes, c'est-à-dire des<br />implémentations visant à obtenir une qualité de service adaptée aux besoins.<br />Au lieu de s'appuyer sur des temps d'exécutions pire cas ou des séquences de<br />test souvent peu représentatives pour concevoir ces systèmes, notre approche<br />vise une plate-forme auto-adaptative capable de s'auto-configurer au cours de<br />l'exécution de l'application (donc en ligne). On peut citer comme exemples<br />d'applications le cas d'une caméra fixe de télésurveillance qui adapte ses<br />traitements en fonction de la nature des images acquises ou un terminal mobile<br />multimodal qui change de norme de transmission si la qualité du canal de<br />communication l'exige.<br />Les composants reconfigurables ont des niveaux de performances et une<br />flexibilité qui les rendent très attractifs dans un nombre croissant de<br />développements. La reconfiguration dynamique (partielle ou complète) offre la<br />possibilité de réutiliser les mêmes ressources matérielles pour une succession<br />de traitements, et ce de façon analogue à une réalisation logicielle. Nous<br />proposons une approche permettant d'allouer et d'ordonnancer dynamiquement<br />les tâches d'une application flot de données en fonction d'une estimation de<br />leurs temps d'exécution afin de respecter au mieux les contraintes de temps.<br />Cette reconfiguration en ligne nécessite des recherches de compromis<br />complexité/efficacité de l'allocation et de l'ordonnancement afin d'optimiser la<br />qualité de service et de réduire leurs coûts de réalisation.
600

Traitement des signaux et images en temps réel : "implantation de H.264 sur MPSoC"

Messaoudi, Kamel 19 December 2012 (has links) (PDF)
Cette thèse est élaborée en cotutelle entre l'université Badji Mokhtar (Laboratoire LERICA) et l'université de bourgogne (Laboratoire LE2I, UMR CNRS 5158). Elle constitue une contribution à l'étude et l'implantation de l'encodeur H.264/AVC. Durent l'évolution des normes de compression vidéo, une réalité sure est vérifiée de plus en plus : avoir une bonne performance du processus de compression nécessite l'élaboration d'équipements beaucoup plus performants en termes de puissance de calcul, de flexibilité et de portabilité et ceci afin de répondre aux exigences des différents traitements et satisfaire au critère " Temps Réel ". Pour assurer un temps réel pour ce genre d'applications, une solution reste possible est l'utilisation des systèmes sur puce (SoC) ou bien des systèmes multiprocesseurs sur puce (MPSoC) implantés sur des plateformes reconfigurables à base de circuit FPGA. L'objective de cette thèse consiste à l'étude et l'implantation des algorithmes de traitement des signaux et images et en particulier la norme H.264/AVC, et cela dans le but d'assurer un temps réel pour le cycle codage-décodage. Nous utilisons deux plateformes FPGA de Xilinx (ML501 et XUPV5). Dans la littérature, il existe déjà plusieurs implémentations du décodeur. Pour l'encodeur, malgré les efforts énormes réalisés, il reste toujours du travail pour l'optimisation des algorithmes et l'extraction des parallélismes possibles surtout avec une variété de profils et de niveaux de la norme H.264/AVC.Dans un premier temps de cette thèse, nous proposons une implantation matérielle d'un contrôleur mémoire spécialement pour l'encodeur H.264/AVC. Ce contrôleur est réalisé en ajoutant, au contrôleur mémoire DDR2 des deux plateformes de Xilinx, une couche intelligente capable de calculer les adresses et récupérer les données nécessaires pour les différents modules de traitement de l'encodeur. Ensuite, nous proposons des implantations matérielles (niveau RTL) des modules de traitement de l'encodeur H.264. Sur ces implantations, nous allons exploiter les deux principes de parallélisme et de pipelining autorisé par l'encodeur en vue de la grande dépendance inter-blocs. Nous avons ainsi proposé plusieurs améliorations et nouvelles techniques dans les modules de la chaine Intra et le filtre anti-blocs. A la fin de cette thèse, nous utilisons les modules réalisés en matériels pour la l'implantation Matérielle/logicielle de l'encodeur H.264/AVC. Des résultats de synthèse et de simulation, en utilisant les deux plateformes de Xilinx, sont montrés et comparés avec les autres implémentations existantes

Page generated in 0.0463 seconds