• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 481
  • 201
  • 43
  • 2
  • Tagged with
  • 722
  • 722
  • 334
  • 329
  • 196
  • 174
  • 144
  • 126
  • 114
  • 113
  • 104
  • 88
  • 83
  • 67
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Simulation temps-réel des dispositifs d'Electronique de Puissance dédiés aux réseaux d'énergie électrique

Gombert, Christophe 29 September 2005 (has links) (PDF)
Dans le contexte politique et économique actuel, les dispositifs à base<br />d'électronique de puissance occupent une place grandissante dans les réseaux électriques pour<br />le réglage de tension, la qualité d'énergie et l'interfaçage des producteurs pour ne citer que<br />ces applications. Le système à base d'électronique de puissance vit dans un dispositif plus<br />complexe pouvant être constitué par exemple d'un groupe de production, d'un système de<br />stockage d'énergie, d'une ou plusieurs source primaire énergie et de différents niveaux de<br />contrôle. Tous ces composants interagissent avec le réseau et les perturbations agissent dans<br />les deux sens. Il est donc nécessaire de bien étudier ces systèmes et ce, dans leur<br />environnement réseau. Des simulateurs temps-réel ont été ainsi développés et utilisés pour le<br />prototypage, l'analyse de modes dégradés, la validation d'algorithmes de contrôle...<br />Cependant, si ces simulateurs présentent des avantages indéniables pour le test d'équipements<br />physiques, la simulation en temps-réel des dispositifs à base d'électronique de puissance<br />demeure très problématique. A cet effet, des méthodes novatrices ont été élaborées dans cette<br />thèse et un banc expérimental a été conçu et réalisé pour tester des contrôleurs de systèmes<br />d'électronique de puissance à modulation de largeur d'impulsions. De plus, afin de pouvoir<br />tester des équipements de puissance, des simulations temps-réel hybrides ont été également réalisées.
192

Méthodes et systèmes pour la détection adaptative et temps réel d'activité dans les signaux biologiques

Quotb, Adam 12 October 2012 (has links) (PDF)
L'interaction entre la biologie et l électronique est une discipline en pleine essort. De nombreux systèmes électroniques tentent de s interconnecter avec des tissus ou des cellules vivantes afin de décoder l information biologique. Le Potentiel d action (PA) est au cœur de codage biologique et par conséquent il est nécessaire de pouvoir les repérer sur tout type de signal bio-logique. Par conséquent, nous étudions dans ce manuscrit la possibilité de concevoir un circuit électronique couplé à un système de microélectrodes capable d'effectuer une acquisition, une détection des PAs et un enregistrement des signaux biologiques. Que ce soit en milieu bruité ou non, nous considérons le taux de détection de PA et la contrainte de temps réel comme des notions primordiales et la consommation en silicium comme un prix à payer. Initialement développés pour l étude de signaux neuronaux et pancréatiques, ces systèmes conviennent parfaitement pour d autres type de cellules.
193

Efficient optimal multiprocessor scheduling algorithms for real-time systems

Nelissen, Geoffrey 08 January 2013 (has links)
Real-time systems are composed of a set of tasks that must respect some deadlines. We find them in applications as diversified as the telecommunications, medical devices, cars, planes, satellites, military applications, etc. Missing deadlines in a real-time system may cause various results such as a diminution of the quality of service provided by the system, the complete stop of the application or even the death of people. Being able to prove the correct operation of such systems is therefore primordial. This is the goal of the real-time scheduling theory.<p><p>These last years, we have witnessed a paradigm shift in the computing platform architectures. Uniprocessor platforms have given place to multiprocessor architectures. While the real-time scheduling theory can be considered as being mature for uniprocessor systems, it is still an evolving research field for multiprocessor architectures. One of the main difficulties with multiprocessor platforms, is to provide an optimal scheduling algorithm (i.e. scheduling algorithm that constructs a schedule respecting all the task deadlines for any task set for which a solution exists). Although optimal multiprocessor real-time scheduling algorithms exist, they usually cause an excessive number of task preemptions and migrations during the schedule. These preemptions and migrations cause overheads that must be added to the task execution times. Therefore, task sets that would have been schedulable if preemptions and migrations had no cost, become unschedulable in practice. An efficient scheduling algorithm is therefore an algorithm that either minimize the number of preemptions and migrations, or reduce their cost.<p><p>In this dissertation, we expose the following results:<p>- We show that reducing the "fairness" in the schedule, advantageously impacts the number of preemptions and migrations. Hence, all the scheduling algorithms that will be proposed in this thesis, tend to reduce or even suppress the fairness in the computed schedule.<p><p>- We propose three new online scheduling algorithms. One of them --- namely, BF2 --- is optimal for the scheduling of sporadic tasks in discrete-time environments, and reduces the number of task preemptions and migrations in comparison with the state-of-the-art in discrete-time systems. The second one is optimal for the scheduling of periodic tasks in a continuous-time environment. Because this second algorithm is based on a semi-partitioned scheme, it should favorably impact the preemption overheads. The third algorithm --- named U-EDF --- is optimal for the scheduling of sporadic and dynamic task sets in a continuous-time environment. It is the first real-time scheduling algorithm which is not based on the notion of "fairness" and nevertheless remains optimal for the scheduling of sporadic (and dynamic) systems. This important result was achieved by extending the uniprocessor algorithm EDF to the multiprocessor scheduling problem. <p><p>- Because the coding techniques are also evolving as the degree of parallelism increases in computing platforms, we provide solutions enabling the scheduling of parallel tasks with the currently existing scheduling algorithms, which were initially designed for the scheduling of sequential independent tasks. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
194

Energy-aware real-time scheduling in embedded multiprocessor systems / Ordonnancement temps réel dans les systèmes embarqués multiprocesseurs contraints par l'énergie

Nélis, Vincent 18 October 2010 (has links)
Nowadays, computer systems are everywhere. From simple portable devices such as watches and MP3 players to large stationary installations that control nuclear power plants, computer systems are now present in all aspects of our modern and every-day life. In about only 70 years, they have completely perturbed our way of life and they reached a so high degree of sophistication that they will be soon capable of driving our cars and cleaning our houses without any human intervention. As computer systems gain in responsibilities, it becomes essential that they provide both safety and reliability. Indeed, a failure in systems such as the anti-lock braking system (ABS) in cars could threaten human lives and generate catastrophic and irreversible consequences. Hence, for many years, researchers have addressed these emerging problems of system safety and reliability which come along with this fulgurant evolution. <p><p>This thesis provides a general overview of embedded real-time computer systems, i.e. a particular kind of computer system whose number grows daily. We provide the reader with some preliminary knowledge and a good understanding of the concepts that underlie this emerging technology. We focus especially on the theoretical problems related to the real-time issue and briefly summarizes the main solutions, together with their advantages and drawbacks. This brings the reader through all the conceptual layers constituting a computer system, from the software level---the logical part---that specifies both the system behavior and requirements to the hardware level---the physical part---that actually performs the expected treatments and reacts to the environment. In the meanwhile, we introduce the theoretical models that allow researchers for theoretical analyses which ensure that all the system requirements are fulfilled. Finally, we address the energy consumption problem in embedded systems. We describe the various factors of power dissipation in modern technologies and we introduce different solutions to reduce this consumption./Cette thèse se focalise sur un type de systèmes informatiques bien précis appelés “systèmes embarqués temps réel”. Un système est dit “embarqué” lorsqu’il est développé afin de servir un but bien précis. Un téléphone portable est un parfait exemple de système embarqué étant donné que toutes ses fonctionnalités sont rigoureusement définies avant même sa conception. Au contraire, un ordinateur personnel n’est généralement pas considéré comme un système embarqué, les concepteurs ne sachant pas à l’avance à quelles fins il sera utilisé. Une grande partie de ces systèmes embarqués ont des contraintes temporelles très fortes, ce qui les distingue encore plus des ordinateurs grand public. A titre d’exemple, lorsqu’un conducteur de voiture freine brusquement, l’ordinateur de bord déclenche l’application ABS et il est primordial que cette application soit traitée endéans une courte échéance. Autrement dit, cette fonctionnalité ABS doit être traitée prioritairement par rapport aux autres fonctionnalités du véhicule. Ce type de système embarqué est alors dit “temps réel”, dû à ces notions de temps et de priorités entre les applications. La problèmatique posée par les systèmes temps réel est la suivante. Comment déterminer, à tout moment, un ordre d’exécution des différentes fonctionnalités de telle sorte qu’elles soient toutes exécutées entièrement endéans leur échéance ?De plus, avec l’apparition récente des systèmes multiprocesseurs, cette problématique s’est fortement complexifiée, vu que le système doit à présent déterminer quelle fonctionnalité s’exécute à quel moment sur quel processeur afin que toutes les contraintes temporelles soient respectées. Pour finir, ces systèmes embarqués temp réel multiprocesseurs se sont rapidement retrouvés confrontés à un problème de consommation d’énergie. Leur demande en terme de performance (et donc en terme d’énergie) à évolué beaucoup plus rapidement que la capacité des batteries qui les alimentent. Ce problème est actuellement rencontré par de nombreux systèmes, tels que les téléphones portables par exemple. L’objectif de cette thèse est de parcourir les différents composants de tels système embarqués et de proposer des solutions afin de réduire leur consommation d’énergie. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
195

Les modes de poursuite devant les juridictions pénales / The modes of pursuit in the criminal court

Miansoni, Camille 28 May 2018 (has links)
La justice pénale française connait une diversification des modes de traitement des affaires qui lui sont soumises. Cette diversification résulte de facteurs endogènes et exogènes au système lui-même. Elle est le point de convergence de l'évolution des conceptions des phénomènes criminels, des attentes sociales pour une justice pénale efficace et, d'un nouveau mode de gestion de la justice. Les modes de poursuite traduisent une de logique de politique criminelle et, une logique de rationalisation du mode de management de la justice pénale. La notion de «modes de poursuite» devient une nouvelle catégorie juridique qui structure le traitement des délits. Sa portée théorique modifie l'approche de la poursuite. La diversification des modes de poursuite a des incidences sur la conception et la typologie du procès pénal et sur l'organisation des juridictions. Le procès pénal monolithique hérité du code d'instruction criminelle de 1808 devient un procès pluriel ayant une physionomie renouvelée et des finalités multiples. La poursuite pénale répond à des principes directeurs nouveaux ou renouvelés. La notion de «schéma d'orientation» illustre cette évolution. Une prise en compte législative de cette notion déboucherait sur une meilleure structuration de la réponse pénale. L'organisation de la chaîne pénale est également affectée, ainsi que la place des acteurs du procès. Des mécanismes de concertation et de délégation sont apparus. Le nouveau management judiciaire trouve appui sur cette diversification des modes de poursuite. Le procès pénal doit intégrer la transformation numérique qui devrait aboutir à la construction d'un procès pénal numérique. / The French criminal justice currently goes through a diversification of cases treatment processes. This diversification is the result of many factors, both endogenous and exogenous. It is the focal point of the evolution in theoretical approaches regarding criminal phenomena, social expectations of an effective criminal justice, and of a new process of justice management. Prosecution choices reflect a logic of criminal policy and also a logic of rationalization of the criminal justice management. The idea of «prosecution choices» becomes a new legal category that articulates the response to criminality. Its theoretical range modifies the approach of the prosecution. The diversification of prosecution choices has consequences on both conception and typology of the criminal trial and on courts organisation. The monolithic criminal trial inherited from the 1808 French code of criminal investigation becomes a more plural trial, with a renewed configuration and multiple purposes. The notion of « orientation schematics » illustrates such evolution. A legislative consideration of this notion would lead to a better structuring of the criminal justice response. The criminal justice system's organization is also affected, as well as the parties situation in the trial. Consultation and delegation mechanisms appeared. The new judicial management builds on this diversification in the prosecution choices. The criminal trial must integrate the digital transformation that should lead to the construction of a digital criminal trial.
196

Apport de la mesure en continu pour la gestion de la qualité des effluents de temps de pluie en réseau d'assainissement

Lacour, Céline 03 November 2009 (has links) (PDF)
L'objectif de ce travail de thèse est de démontrer qu'il est possible d'utiliser des mesures en continu de turbidité pour suivre la pollution particulaire dans les réseaux d'assainissement et d'évaluer l'apport de ces mesures pour la gestion des réseaux en temps réel ou en temps différé. Dans une première partie, la mise en oeuvre de la mesure en continu de turbidité est décrite. Les éléments principaux contribuant à l'incertitude sont identifiés et des méthodes de calcul des incertitudes adaptées sont proposées. Les questions de fiabilité et de représentativité de la mesure de turbidité sont traitées et aboutissent à des solutions d'installation des sondes in situ et à des protocoles de suivi et de maintenance. Enfin, les perturbations affectant le signal sont quantifiées et des méthodes de filtrage sont comparées. La deuxième partie est consacrée à l'analyse du comportement de la turbidité à partir des données acquises sur deux sites du réseau unitaire parisien en 2006. 80 événements pluvieux sont décrits par leurs concentrations moyennes et maximales et par leurs courbes de distribution masse/volume. Ces critères ont été intégrés dans des typologies qui ont ensuite été mises en relation avec des paramètres de débit et de durée de temps sec ayant précédé l'événement. Cette analyse permet de caractériser la variabilité de façon détaillée. La variabilité de la décantabilité des particules a été également étudiée à partir de données provenant de bassins de décantation. Enfin, deux applications sont proposées. La première est une évaluation en temps différé de flux de polluants. Deux modes d'exploitation de prélèvements d'échantillons réalisés sur un nombre fixé d'événements pluvieux sont comparés. L'un n'utilise que les résultats d'analyses des échantillons au laboratoire pour établir une concentration moyenne. L'autre utilise les prélèvements pour établir des relations entre turbidité et paramètres polluants, ensuite appliquées à des mesures en continu de turbidité. Une seconde série d'applications porte sur l'utilisation de la turbidité pour la gestion en temps réel des flux. Deux configurations-types génériques ont été étudiées. Pour chacune, une stratégie utilisant seulement le débit est comparée à une stratégie utilisant turbidité et débit. Les simulations sont effectuées pour de larges gammes de paramétrage des configurations et avec des données réelles de débit et de turbidité en entrée du système. Pour les applications d'évaluation de flux comme de gestion en temps réel, le gain apporté par la turbidité est chiffré et s'avère significatif
197

Une architecture de sélection de l'action pour des humains virtuels autonomes dans des mondes persistants

De Sevin, Etienne 24 March 2006 (has links) (PDF)
De nos jours, les humains virtuels ont besoin d'une grande autonomie pour pouvoir vivre leur propre vie dans des mondes virtuels persistants comme les personnages non joueurs dans les jeux vidéo. Lors de la conception d'humains virtuels autonomes, la problématique de la sélection de l'action doit être prise en compte car elle est responsable de leur prise de décision à chaque instant. En effet, les architectures de sélection de l'action pour les humains virtuels autonomes doivent être réactives, dirigées par des buts, et intégrer des motivations et des émotions pour obtenir un haut niveau d'autonomie et d'individualité. Cette thèse peut être divisée en trois parties. Dans la première partie, nous définissons chaque mot de notre titre pour en préciser leur sens et poser la problématique de ce travail. Nous décrivons ensuite les domaines dont nous nous sommes inspirés pour élaborer notre modèle car le sujet de ce travail est très multidisciplinaire. En effet, la prise de décision est essentielle pour toute entité autonome et est étudiée en éthologie, robotique, infographie, informatique, et dans les sciences cognitives. Cependant nous avons choisi certaines techniques spécifiques pour implémenter notre modèle parmi toutes celles possibles : les systèmes de classeurs hiérarchiques et les hiérarchies à libre flux. La seconde partie de cette thèse décrit en détail notre modèle de sélection de l'action pour des humains virtuels. Nous avons utilisé des systèmes de classeurs hiérarchiques, fonctionnant en parallèle, pour générer des plans de comportements cohérents. Ils sont associés avec les fonctionnalités des hiérarchies à libre flux pour la propagation de l'activité car elles donnent une grande flexibilité et réactivité aux systèmes hiérarchiques. Plusieurs fonctionnalités ont été ajoutées pour améliorer et faciliter le choix de l'action la plus appropriée, à chaque instant, par rapport aux influences internes et externes. Finalement, dans la troisième partie de la thèse, un environnement virtuel complexe est créé avec beaucoup de motivations conflictuelles pour tester notre architecture et ses fonctionnalités. Les résultats démontrent que le modèle est suffisamment efficace, robuste, et flexible pour concevoir des humains virtuels motivés et autonomes dans des mondes virtuels persistants. De plus, nous venons de commencer les investigations au niveau des émotions dans notre modèle et nous projetons de continuer dans le futur pour avoir des comportements plus subjectifs et plus adaptés aux différentes situations ainsi que pour gérer les interactions sociales avec d'autres humains virtuels ou des utilisateurs. Appliquée aux jeux vidéo, notre architecture de sélection de l'action pour des humains virtuels autonomes dans des mondes persistants rendrait les personnages non-joueurs plus intéressants et plus réalistes car ils pourraient vivre leur propre vie lorsqu'ils ne sont pas en interaction avec les joueurs.
198

Contributions à la reconnaissance de visages à partir d'une seule image et dans un contexte non-contrôlé

Vu, Ngoc-Son 19 November 2010 (has links) (PDF)
Bien qu'ayant suscité des recherches depuis 30 ans, le problème de la reconnaissance de visages en contexte de vidéosurveillance, sachant qu'une seule image par individu est disponible pour l'enrôlement, n'est pas encore résolu. Dans ce contexte, les deux dés les plus diciles à relever consistent à développer des algorithmes robustes aux variations d'illumination et aux variations de pose. De plus, il y a aussi une contrainte forte sur la complexité en temps et en occupation mémoire des algorithmes à mettre en oeuvre dans de tels systèmes. Le travail développé dans cette thèse apporte plusieurs avancées innovantes dans ce contexte de reconnaissance faciale en vidéosurveillance. Premièrement, une méthode de normalisation des variations d'illumination visant à simuler les performances de la rétine est proposée en tant que pré-traitement des images faciales. Deuxièmement, nous proposons un nouveau descripteur appelé POEM (Patterns of Oriented Edge Magnitudes) destiné à représenter les structures locales d'une image. Ce descripteur est discriminant, robuste aux variations extérieures (variations de pose, d'illumination, d'expression, d'âge que l'on rencontre souvent avec les visages). Troisièmement, un modèle statistique de reconnaissance de visages en conditions de pose variables, centré sur une modélisation de la manière dont l'apparence du visage évolue lorsque le point de vue varie, est proposé. Enn, une nouvelle approche visant à modéliser les relations spatiales entre les composantes du visage est présentée. A l'exception de la dernière approche, tous les algorithmes proposés sont très rapides à calculer et sont donc adaptés à la contrainte de traitement temps réel des systèmes de vidéosurveillance.
199

Analyse pire cas pour processeur multi-cœurs disposant de caches partagés

Hardy, Damien 09 December 2010 (has links) (PDF)
Les systèmes temps-réel strict sont soumis à des contraintes temporelles dont le non respect peut entraîner des conséquences économiques, écologiques, humaines catastrophiques. Le processus de validation, garantissant la sûreté de ces logiciels en assurant le respect de ces contraintes dans toutes les situations possibles y compris le pire cas, se base sur la connaissance à priori du pire temps d'exécution de chacune des tâches du logiciel. Cependant, l'obtention de ce pire temps d'exécution est un problème difficile pour les architectures actuelles, en raison des mécanismes matériels complexes pouvant amener une variabilité importante du temps d'exécution. Ce document se concentre sur l'analyse du comportement temporel pire cas des hiérarchies de mémoires cache, afin de déterminer leur contribution au pire temps d'exécution. Plusieurs approches sont proposées afin de prédire et d'améliorer le pire temps d'exécution des tâches s'exécutant sur des processeurs multi-cœurs disposant d'une hiérarchie de mémoires cache avec des niveaux partagés entre les différents cœurs de calculs.
200

Calcul et représentation de l'information de visibilité pour l'exploration interactive de scènes tridimensionnelles/Representation and computation of the visibility information for the interactive exploration of tridimensional scenes

Haumont, Denis 29 May 2006 (has links)
La synthèse d'images, qui consiste à développer des algorithmes pour générer des images à l'aide d'un ordinateur, est devenue incontournable dans de nombreuses disciplines. Les méthodes d'affichage interactives permettent à l'utilisateur d'explorer des environnements virtuels en réalisant l'affichage des images à une cadence suffisamment élevée pour donner une impression de continuité et d'immersion. Malgré les progrès réalisés par le matériel, de nouveaux besoins supplantent toujours les capacités de traitement, et des techniques d'accélération sont nécessaires pour parvenir à maintenir une cadence d'affichage suffisante. Ce travail s'inscrit précisemment dans ce cadre. Il est consacré à la problématique de l'élimination efficace des objets masqués, en vue d'accélérer l'affichage de scènes complexes. Nous nous sommes plus particulièrement intéressé aux méthodes de précalcul, qui effectuent les calculs coûteux de visibilité durant une phase de prétraitement et les réutilisent lors de la phase de navigation interactive. Les méthodes permettant un précalcul complet et exact sont encore hors de portée à l'heure actuelle, c'est pourquoi des techniques approchées leur sont préférée en pratique. Nous proposons trois méthodes de ce type. La première, présentée dans le chapitre 4, est un algorithme permettant de déterminer de manière exacte si deux polygones convexes sont mutuellement visibles, lorsque des écrans sont placés entre eux. Nos contributions principales ont été de simplifier cette requête, tant du point de vue théorique que du point de vue de l'implémentation, ainsi que d'accélérer son temps moyen d'exécution à l'aide d'un ensemble de techniques d'optimisation. Il en résulte un algorithme considérablement plus simple à mettre en oeuvre que les algorithmes exacts existant dans la littérature. Nous montrons qu'il est également beaucoup plus efficace que ces derniers en termes de temps de calcul. La seconde méthode, présentée dans le chapitre 5, est une approche originale pour encoder l'information de visibilité, qui consiste à stocker l'ombre que générerait chaque objet de la scène s'il était remplacé par une source lumineuse. Nous présentons une analyse des avantages et des inconvénients de cette nouvelle représentation. Finalement, nous proposons dans le chapitre 6 une méthode de calcul de visibilité adaptée aux scènes d'intérieur. Dans ce type d'environnements, les graphes cellules-portails sont très répandus pour l'élimination des objets masqués, en raison de leur faible coût mémoire et de leur grande efficacité. Nous reformulons le problème de la génération de ces graphes en termes de segmentation d'images, et adaptons un algorithme classique, appelé «watershed», pour les obtenir de manière automatique. Nous montrons que la décomposition calculée de la sorte est proche de la décomposition classique, et qu'elle peut être utilisée pour l'élimination des objets masqués.

Page generated in 0.1062 seconds