• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 655
  • 220
  • 55
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 932
  • 729
  • 427
  • 340
  • 200
  • 178
  • 151
  • 145
  • 121
  • 116
  • 107
  • 89
  • 84
  • 72
  • 72
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Les modes de poursuite devant les juridictions pénales / The modes of pursuit in the criminal court

Miansoni, Camille 28 May 2018 (has links)
La justice pénale française connait une diversification des modes de traitement des affaires qui lui sont soumises. Cette diversification résulte de facteurs endogènes et exogènes au système lui-même. Elle est le point de convergence de l'évolution des conceptions des phénomènes criminels, des attentes sociales pour une justice pénale efficace et, d'un nouveau mode de gestion de la justice. Les modes de poursuite traduisent une de logique de politique criminelle et, une logique de rationalisation du mode de management de la justice pénale. La notion de «modes de poursuite» devient une nouvelle catégorie juridique qui structure le traitement des délits. Sa portée théorique modifie l'approche de la poursuite. La diversification des modes de poursuite a des incidences sur la conception et la typologie du procès pénal et sur l'organisation des juridictions. Le procès pénal monolithique hérité du code d'instruction criminelle de 1808 devient un procès pluriel ayant une physionomie renouvelée et des finalités multiples. La poursuite pénale répond à des principes directeurs nouveaux ou renouvelés. La notion de «schéma d'orientation» illustre cette évolution. Une prise en compte législative de cette notion déboucherait sur une meilleure structuration de la réponse pénale. L'organisation de la chaîne pénale est également affectée, ainsi que la place des acteurs du procès. Des mécanismes de concertation et de délégation sont apparus. Le nouveau management judiciaire trouve appui sur cette diversification des modes de poursuite. Le procès pénal doit intégrer la transformation numérique qui devrait aboutir à la construction d'un procès pénal numérique. / The French criminal justice currently goes through a diversification of cases treatment processes. This diversification is the result of many factors, both endogenous and exogenous. It is the focal point of the evolution in theoretical approaches regarding criminal phenomena, social expectations of an effective criminal justice, and of a new process of justice management. Prosecution choices reflect a logic of criminal policy and also a logic of rationalization of the criminal justice management. The idea of «prosecution choices» becomes a new legal category that articulates the response to criminality. Its theoretical range modifies the approach of the prosecution. The diversification of prosecution choices has consequences on both conception and typology of the criminal trial and on courts organisation. The monolithic criminal trial inherited from the 1808 French code of criminal investigation becomes a more plural trial, with a renewed configuration and multiple purposes. The notion of « orientation schematics » illustrates such evolution. A legislative consideration of this notion would lead to a better structuring of the criminal justice response. The criminal justice system's organization is also affected, as well as the parties situation in the trial. Consultation and delegation mechanisms appeared. The new judicial management builds on this diversification in the prosecution choices. The criminal trial must integrate the digital transformation that should lead to the construction of a digital criminal trial.
262

Apport de la mesure en continu pour la gestion de la qualité des effluents de temps de pluie en réseau d'assainissement

Lacour, Céline 03 November 2009 (has links) (PDF)
L'objectif de ce travail de thèse est de démontrer qu'il est possible d'utiliser des mesures en continu de turbidité pour suivre la pollution particulaire dans les réseaux d'assainissement et d'évaluer l'apport de ces mesures pour la gestion des réseaux en temps réel ou en temps différé. Dans une première partie, la mise en oeuvre de la mesure en continu de turbidité est décrite. Les éléments principaux contribuant à l'incertitude sont identifiés et des méthodes de calcul des incertitudes adaptées sont proposées. Les questions de fiabilité et de représentativité de la mesure de turbidité sont traitées et aboutissent à des solutions d'installation des sondes in situ et à des protocoles de suivi et de maintenance. Enfin, les perturbations affectant le signal sont quantifiées et des méthodes de filtrage sont comparées. La deuxième partie est consacrée à l'analyse du comportement de la turbidité à partir des données acquises sur deux sites du réseau unitaire parisien en 2006. 80 événements pluvieux sont décrits par leurs concentrations moyennes et maximales et par leurs courbes de distribution masse/volume. Ces critères ont été intégrés dans des typologies qui ont ensuite été mises en relation avec des paramètres de débit et de durée de temps sec ayant précédé l'événement. Cette analyse permet de caractériser la variabilité de façon détaillée. La variabilité de la décantabilité des particules a été également étudiée à partir de données provenant de bassins de décantation. Enfin, deux applications sont proposées. La première est une évaluation en temps différé de flux de polluants. Deux modes d'exploitation de prélèvements d'échantillons réalisés sur un nombre fixé d'événements pluvieux sont comparés. L'un n'utilise que les résultats d'analyses des échantillons au laboratoire pour établir une concentration moyenne. L'autre utilise les prélèvements pour établir des relations entre turbidité et paramètres polluants, ensuite appliquées à des mesures en continu de turbidité. Une seconde série d'applications porte sur l'utilisation de la turbidité pour la gestion en temps réel des flux. Deux configurations-types génériques ont été étudiées. Pour chacune, une stratégie utilisant seulement le débit est comparée à une stratégie utilisant turbidité et débit. Les simulations sont effectuées pour de larges gammes de paramétrage des configurations et avec des données réelles de débit et de turbidité en entrée du système. Pour les applications d'évaluation de flux comme de gestion en temps réel, le gain apporté par la turbidité est chiffré et s'avère significatif
263

Une architecture de sélection de l'action pour des humains virtuels autonomes dans des mondes persistants

De Sevin, Etienne 24 March 2006 (has links) (PDF)
De nos jours, les humains virtuels ont besoin d'une grande autonomie pour pouvoir vivre leur propre vie dans des mondes virtuels persistants comme les personnages non joueurs dans les jeux vidéo. Lors de la conception d'humains virtuels autonomes, la problématique de la sélection de l'action doit être prise en compte car elle est responsable de leur prise de décision à chaque instant. En effet, les architectures de sélection de l'action pour les humains virtuels autonomes doivent être réactives, dirigées par des buts, et intégrer des motivations et des émotions pour obtenir un haut niveau d'autonomie et d'individualité. Cette thèse peut être divisée en trois parties. Dans la première partie, nous définissons chaque mot de notre titre pour en préciser leur sens et poser la problématique de ce travail. Nous décrivons ensuite les domaines dont nous nous sommes inspirés pour élaborer notre modèle car le sujet de ce travail est très multidisciplinaire. En effet, la prise de décision est essentielle pour toute entité autonome et est étudiée en éthologie, robotique, infographie, informatique, et dans les sciences cognitives. Cependant nous avons choisi certaines techniques spécifiques pour implémenter notre modèle parmi toutes celles possibles : les systèmes de classeurs hiérarchiques et les hiérarchies à libre flux. La seconde partie de cette thèse décrit en détail notre modèle de sélection de l'action pour des humains virtuels. Nous avons utilisé des systèmes de classeurs hiérarchiques, fonctionnant en parallèle, pour générer des plans de comportements cohérents. Ils sont associés avec les fonctionnalités des hiérarchies à libre flux pour la propagation de l'activité car elles donnent une grande flexibilité et réactivité aux systèmes hiérarchiques. Plusieurs fonctionnalités ont été ajoutées pour améliorer et faciliter le choix de l'action la plus appropriée, à chaque instant, par rapport aux influences internes et externes. Finalement, dans la troisième partie de la thèse, un environnement virtuel complexe est créé avec beaucoup de motivations conflictuelles pour tester notre architecture et ses fonctionnalités. Les résultats démontrent que le modèle est suffisamment efficace, robuste, et flexible pour concevoir des humains virtuels motivés et autonomes dans des mondes virtuels persistants. De plus, nous venons de commencer les investigations au niveau des émotions dans notre modèle et nous projetons de continuer dans le futur pour avoir des comportements plus subjectifs et plus adaptés aux différentes situations ainsi que pour gérer les interactions sociales avec d'autres humains virtuels ou des utilisateurs. Appliquée aux jeux vidéo, notre architecture de sélection de l'action pour des humains virtuels autonomes dans des mondes persistants rendrait les personnages non-joueurs plus intéressants et plus réalistes car ils pourraient vivre leur propre vie lorsqu'ils ne sont pas en interaction avec les joueurs.
264

Contributions à la reconnaissance de visages à partir d'une seule image et dans un contexte non-contrôlé

Vu, Ngoc-Son 19 November 2010 (has links) (PDF)
Bien qu'ayant suscité des recherches depuis 30 ans, le problème de la reconnaissance de visages en contexte de vidéosurveillance, sachant qu'une seule image par individu est disponible pour l'enrôlement, n'est pas encore résolu. Dans ce contexte, les deux dés les plus diciles à relever consistent à développer des algorithmes robustes aux variations d'illumination et aux variations de pose. De plus, il y a aussi une contrainte forte sur la complexité en temps et en occupation mémoire des algorithmes à mettre en oeuvre dans de tels systèmes. Le travail développé dans cette thèse apporte plusieurs avancées innovantes dans ce contexte de reconnaissance faciale en vidéosurveillance. Premièrement, une méthode de normalisation des variations d'illumination visant à simuler les performances de la rétine est proposée en tant que pré-traitement des images faciales. Deuxièmement, nous proposons un nouveau descripteur appelé POEM (Patterns of Oriented Edge Magnitudes) destiné à représenter les structures locales d'une image. Ce descripteur est discriminant, robuste aux variations extérieures (variations de pose, d'illumination, d'expression, d'âge que l'on rencontre souvent avec les visages). Troisièmement, un modèle statistique de reconnaissance de visages en conditions de pose variables, centré sur une modélisation de la manière dont l'apparence du visage évolue lorsque le point de vue varie, est proposé. Enn, une nouvelle approche visant à modéliser les relations spatiales entre les composantes du visage est présentée. A l'exception de la dernière approche, tous les algorithmes proposés sont très rapides à calculer et sont donc adaptés à la contrainte de traitement temps réel des systèmes de vidéosurveillance.
265

Analyse pire cas pour processeur multi-cœurs disposant de caches partagés

Hardy, Damien 09 December 2010 (has links) (PDF)
Les systèmes temps-réel strict sont soumis à des contraintes temporelles dont le non respect peut entraîner des conséquences économiques, écologiques, humaines catastrophiques. Le processus de validation, garantissant la sûreté de ces logiciels en assurant le respect de ces contraintes dans toutes les situations possibles y compris le pire cas, se base sur la connaissance à priori du pire temps d'exécution de chacune des tâches du logiciel. Cependant, l'obtention de ce pire temps d'exécution est un problème difficile pour les architectures actuelles, en raison des mécanismes matériels complexes pouvant amener une variabilité importante du temps d'exécution. Ce document se concentre sur l'analyse du comportement temporel pire cas des hiérarchies de mémoires cache, afin de déterminer leur contribution au pire temps d'exécution. Plusieurs approches sont proposées afin de prédire et d'améliorer le pire temps d'exécution des tâches s'exécutant sur des processeurs multi-cœurs disposant d'une hiérarchie de mémoires cache avec des niveaux partagés entre les différents cœurs de calculs.
266

Calcul et représentation de l'information de visibilité pour l'exploration interactive de scènes tridimensionnelles/Representation and computation of the visibility information for the interactive exploration of tridimensional scenes

Haumont, Denis 29 May 2006 (has links)
La synthèse d'images, qui consiste à développer des algorithmes pour générer des images à l'aide d'un ordinateur, est devenue incontournable dans de nombreuses disciplines. Les méthodes d'affichage interactives permettent à l'utilisateur d'explorer des environnements virtuels en réalisant l'affichage des images à une cadence suffisamment élevée pour donner une impression de continuité et d'immersion. Malgré les progrès réalisés par le matériel, de nouveaux besoins supplantent toujours les capacités de traitement, et des techniques d'accélération sont nécessaires pour parvenir à maintenir une cadence d'affichage suffisante. Ce travail s'inscrit précisemment dans ce cadre. Il est consacré à la problématique de l'élimination efficace des objets masqués, en vue d'accélérer l'affichage de scènes complexes. Nous nous sommes plus particulièrement intéressé aux méthodes de précalcul, qui effectuent les calculs coûteux de visibilité durant une phase de prétraitement et les réutilisent lors de la phase de navigation interactive. Les méthodes permettant un précalcul complet et exact sont encore hors de portée à l'heure actuelle, c'est pourquoi des techniques approchées leur sont préférée en pratique. Nous proposons trois méthodes de ce type. La première, présentée dans le chapitre 4, est un algorithme permettant de déterminer de manière exacte si deux polygones convexes sont mutuellement visibles, lorsque des écrans sont placés entre eux. Nos contributions principales ont été de simplifier cette requête, tant du point de vue théorique que du point de vue de l'implémentation, ainsi que d'accélérer son temps moyen d'exécution à l'aide d'un ensemble de techniques d'optimisation. Il en résulte un algorithme considérablement plus simple à mettre en oeuvre que les algorithmes exacts existant dans la littérature. Nous montrons qu'il est également beaucoup plus efficace que ces derniers en termes de temps de calcul. La seconde méthode, présentée dans le chapitre 5, est une approche originale pour encoder l'information de visibilité, qui consiste à stocker l'ombre que générerait chaque objet de la scène s'il était remplacé par une source lumineuse. Nous présentons une analyse des avantages et des inconvénients de cette nouvelle représentation. Finalement, nous proposons dans le chapitre 6 une méthode de calcul de visibilité adaptée aux scènes d'intérieur. Dans ce type d'environnements, les graphes cellules-portails sont très répandus pour l'élimination des objets masqués, en raison de leur faible coût mémoire et de leur grande efficacité. Nous reformulons le problème de la génération de ces graphes en termes de segmentation d'images, et adaptons un algorithme classique, appelé «watershed», pour les obtenir de manière automatique. Nous montrons que la décomposition calculée de la sorte est proche de la décomposition classique, et qu'elle peut être utilisée pour l'élimination des objets masqués.
267

Agrégation de données décentralisées pour la localisation multi-véhicules

Karam, Nadir 14 December 2009 (has links) (PDF)
Les avancées technologiques notables dans le domaine de la communication sans fil ont ouvert de nouvelles perspectives pour améliorer les systèmes d'aide à la conduite existants. En effet il a été prouvé que l'échange de données de positionnement absolu et relatif entre des véhicules d'un même groupe peut améliorer la précision de la localisation de tous ces membres. Le travail présenté dans ce manuscrit s'inscrit dans ce cadre et propose une approche totalement distribuée permettant de combiner les informations provenant des capteurs de tous les véhicules d'un groupe pour obtenir l'estimation la plus précise possible de la pose de ces derniers tout en minimisant les informations transmises sur le réseau de communication. Le principe de l'approche proposée est que chaque véhicule utilise ses propres capteurs pour mettre à jour une estimation de l'état du groupe puis la transmet à ses congénères. La fusion des états reçus et l'état construit dans chaque véhicule donne l'estimation de l'état global du groupe qui intègre les informations provenant de tous ces membres. L'approche proposée a été validée expérimentalement en simulation et dans un environnement réel avec un groupe de deux véhicules urbains.
268

CO.SY.NUS. langage de commande pour le système C.A.R.I.N.E. (Computer Aided Research In Neutron Exeriment) pilotant des expériences de diffraction neutronique

Entressangle, Gabriel 31 January 1973 (has links) (PDF)
.
269

L'Analyse économique des architectures de marché électrique. <br />L'application au market design du temps réel.

Saguan, Marcelo 28 April 2007 (has links) (PDF)
Ce travail s'inscrit dans l'analyse économique des architectures de marché électrique. Il s'appuie sur un cadre d'analyse modulaire permettant de séparer les problèmes du market design en modules distincts. Il se concentre sur le design du temps réel ayant un rôle clé pour l'électricité. Un modèle d'équilibre à deux étapes a permis d'analyser les deux variantes de design du temps réel : le marché et le mécanisme (utilisant de pénalités). Les simulations numériques ont montré que le design du temps réel n'est pas neutre vis-à-vis de la séquence des marchés d'énergie et de la dynamique concurrentielle. Les designs s'écartant du « marché » provoquent des distorsions, des inefficacités et peuvent créer des barrières à l'entrée. L'ampleur des distorsions est déterminée par la fermeture des marchés forward (gate closure). Cette modélisation a permis aussi de montrer le rôle fondamental de l'intégration entre deux zones en temps réel et l'importance d'une harmonisation adéquate des designs.
270

Contribution à l'étude des curriculums.<br />Le cas de l'enseignement de l'électrotechnique dans les classes du second degré des Lycées d'enseignement général et tech­nologique

Calmettes, Bernard 19 January 1996 (has links) (PDF)
Les rapides mutations dans le monde du travail en général, dans celui de l'industrie en particulier nécessi­tent des changements dans les systèmes de formation, notamment au sein de l'Éducation Nationale. Notre étude s'intéresse tout d'abord à l'évolution et à la caractérisation des curriculums prescrits se rapportant à l'enseigne­ment de l'électrotechnique en classe de Terminale. Il est alors possible de d'expliquer sur différents plans plans (matériel, cognitif, social, pédagogique, philosophique) les écarts entre éléments de pratiques sociales de référence et éléments utilisés dans l'enseignement.<br />La didactisation des matériels et des moyens d'enseignement, leur décontextualisation par rapport aux milieux de référence et leur recontextualisation dans l'enseignement opèrent suivant un processus que nous avons assimilé à une objectivation. Leur choix, leur simplification, leur réduction et leur réaména­gement par rapport à des référents industriels sont liés aux finalités propres, aux points de vue des disciplines à un niveau donné. La reconstruction de l'objet ainsi réalisée ne peut être comprise et évaluée qu'à travers la lecture des objectifs visés par la discipline en tenant compte des contextes et des exigences de l'enseigne­ment et des utilisations possibles en classe.<br />L'important est sûrement de trouver le bon équilibre entre les contraintes liées aux conditions d'enseignement, à la cohérence disciplinaire ; les éléments de pratique sociale ; la nécessité de compréhension vis à vis des élèves ; afin d'éviter soit une stricte reproduction réductrice de savoir-faire et d'outils, soit des contenus d'enseignement complètement déconnectés de leur référence ou non pertinents pour les appren­tissages.<br />L'observation et l'analyse de séquences de classe a permis de mettre en évidence différentes pratiques de la part des enseignants comme de la part des élèves amenant des écarts entre curriculums prescrits et curriculums réels mais aussi entre les activités en classe et les pratiques de référence. Nous avons proposé aux fins d'interprétation d'un de ces faits la modélisation du savoir-faire expérimental “construire une caractéristique”.<br />Les résultats auxquels nous avons abouti dans cette recherche ont nécessité des sources de données empi­riques diverses : des documents institutionnels (programmes, référentiels), des documents de ou pour la classe (copies d'élèves, fiches de travaux pratiques d'ensei­gnants, notices pédagogiques, revues professionnelles), des do­cuments techniques, des entretiens et des enquêtes auprès de différents acteurs dans l'enseignement, des observa­tions de classe.

Page generated in 0.0312 seconds