• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 797
  • 252
  • 84
  • 13
  • 4
  • 4
  • 3
  • 2
  • 1
  • Tagged with
  • 1160
  • 252
  • 200
  • 162
  • 123
  • 93
  • 87
  • 84
  • 75
  • 70
  • 66
  • 65
  • 64
  • 62
  • 59
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

L'antidumping en droit Turc : une évaluation critique / Anti-dumping under turkish law : a critical assessment

Yilmaz, Müslüm 09 July 2015 (has links)
Depuis l'adoption de sa première législation antidumping en 1989, la Turquie est entrée dans le groupe des pays qui sont les utilisateurs les plus fréquents des mesures antidumping. Pourtant, le dispositif antidumping du pays a besoin d'une réforme importante. L'Accord antidumping de l'OMC a force de loi en droit turc. De plus, il y a une législation antidumping nationale qui est composée d'une loi, d'un décret et d'un règlement. Toutefois, il n'y a aucune exigence juridique d'avoir une loi ou un décret dans la législation antidumping. Ainsi, nous proposons d'abroger la Loi et le Décret antidumping et de limiter la base juridique des procédures antidumping au Règlement antidumping. Ceci donnera aux autorités une flexibilité par rapport à la réalisation des amendements dont il y aura besoin à l'avenir, et éliminera le grand nombre de chevauchements qu'il y a dans la Législation actuelle. Cette dernière contient des dispositions incompatibles avec l'Accord antidumping, celles-ci doivent être modifiées. Il y a également des aspects où les règles écrites sont compatibles avec l'Accord antidumping, mais où la pratique des autorités ne suit pas ces règles. Ce genre de pratique ne doit pas être répété. Nous estimons que la place et la structure de l'autorité turque en matière d'antidumping sont loin d'être idéales et ne répondent pas aux besoins des industries nationales. A notre avis, il faut soit organiser cette autorité comme un organisme gouvernemental indépendant soit la sortir du Ministère de l'économie et l'attacher à l'Autorité de la concurrence soit l'organiser, avec les autres départements du Ministère s'occupant des mesures correctives commerciales, comme une nouvelle direction générale au Ministère. La révision judiciaire des constatations de l'autorité d'enquête n'est pas efficace en Turquie. Il faut établir un tribunal spécialisé pour cette révision et donner, aux juges fonctionnant dans ce tribunal, la formation nécessaire pour assurer une révision judiciaire efficace. / Since the adoption of its first anti-dumping legislation in 1989, Turkey made its way into the list of countries that are the most active users of anti-dumping measures. However, the country's anti­dumping system needs a comprehensive reform. The WTO Anti-Dumping Agreement has the force of law under Turkish law. Further, there is national anti-dumping legislation consisting of a law, a decree and a regulation. Yet, there is no legal requirement that necessitates the inclusion of a law or decree in the anti-dumping legislation. Therefore, we propose to repeal the Anti-Dumping Law and Decree and to limit the legal basis for anti-dumping proceedings to the Anti-Dumping Regulation. This will provide the authorities with the flexibility to make the amendments that will be needed in future, and will eliminate the man y instances of overlap among the three elements of the current legislation. The current legislation contains certain provisions that are inconsistent with the Anti­Dumping Agreement and they need to be modified. There are also aspects where the written rules are compatible with WTO principles but the authorities' practice does not follow such rules. This type o1 practice should not be repeated. We argue that the place and structure of the Turkish anti-dumping authority is far from ideal and does not respond to the needs of national industries. In our view, the authority should be detached from the Ministry of Economy and organized as an independent government agency, or should be attached to the Competition Authority, or should be reorganized, together with other departments that also deal with trade remedies, as a new directorate general within the Ministry of Economy. Judicial review of the determinations of the investigating authority is not effective. We propose to establish a specialized court for this review and to provide the judges who will serve in this court with the necessary training in order to ensure effective judicial review.
352

La prise en compte de l'intérêt du cocontractant / The taking into consideration of the other party's interest

Mehanna, Myriam 13 December 2014 (has links)
La prise en compte de l’intérêt du cocontractant, ayant une particularité conceptuelle suffisante, n’agit pas au service principal de l’intérêt égoïste ou de l’intérêt commun. Dynamique relationnelle, altruisme, et altérité de base des intérêts, en caractérisent donc une théorie pure. Quant à sa réalité théorique en droit contractuel, elle est fondée sur un principe de fraternité. Il constitue d’abord son support conceptuel, à l’exclusion de la solidarité dont il se distingue, son contenu correspondant à la triple dynamique délimitant la théorie pure de la notion. Il est ensuite son fondement réel, permettant de dépasser les limites de ses fondements concurrents – la bonne foi ou le solidarisme contractuel –, et le principe-axiome rendant compte de celle-ci. Quant à sa réalité matérielle le constat est qu’une partie de l’évolution de la théorie classique des obligations et contrats se matérialise par telle prise en compte. Cette dernière se manifeste d’une part, comme tempérament au principe de liberté contractuelle, tantôt comme norme positive de comportement – dans la bonne foi relationnelle, et l’obligation d’information renforcée –, tantôt comme limite à une prérogative contractuelle – dans le contrôle de l’abus et potentiellement, l’obligation de minimiser le dommage. Elle se manifeste d’autre part, comme aménagement du principe de la force obligatoire, opérant lors de la survenance d’une difficulté d’exécution étrangère au partenaire – dans l’obligation de renégociation du contrat, et potentiellement la théorie de l’imprévision –, ou d’une difficulté inhérente à celui-ci – dans les mesures de grâce, et la législation d’aménagement du surendettement des particuliers. / A sufficient particular concept of “taking into consideration the other party’s interest” cannot intervene principally at the service of the selfish or common interest. Its pure theory is therefore characterized by “relational dynamism”, altruism and a basic distinction between interests. Concerning its theoretical reality in contractual law, it is based on a fraternity principle. Such principle constitutes firstly its conceptual support, to the exclusion of solidarity from which it is distinguished, since its content corresponds to the triple dynamic that characterizes the notion’s pure theory. Secondly, it constitutes its real basis, since it allows overcoming the limits of its concurrent basis – the good faith and the contractual solidarism – and is the principal-axiom where it finds its source. As to its material reality, a part of the evolution of the classical theory of obligations and contracts is materialized by such taking into consideration. It is manifested on the one hand as a temperament to the contractual freedom principle, sometimes as a positive standard of behavior – in the relational good faith and the reinforced obligation of information – and sometimes as a limit to a contractual prerogative – in the control of abuse and potentially the obligation to mitigate damages. It is manifested on the other hand, as an adjustment of the binding effect principle, when occurs a difficulty of execution that is exterior to the other party – in the duty to renegotiate the contract and potentially the “unforseeability” theory –, or inherent to this party – in the grace measures and the legislation on the adjustment of private individuals excessive indebtedness.
353

L'Européanisation du droit pénal des mineurs : l'exemple de la Turquie / Europeanization of juvenile criminal law : the example of Turkey

Cinic Bachelier, Ayca 11 February 2015 (has links)
Le Conseil de l'Europe -créé à la suite de la Seconde Guerre mondiale afin de reconstruire un espace démocratique et juridique commun -dont les travaux sur le droit pénal des mineurs sont issus des évolutions nationales entamées au début du XXe siècle, s'attacha à valoriser l'expérience des juridictions spécialisées existantes dans quelques pays européens et grâce auxquelles les mineurs commençaient à faire l'objet d'un traitement différencié de celui des adultes. Depuis, observant les préoccupations des États membres à l'égard de la délinquance juvénile et les contours changeants de leurs politiques pénales, le Comité des Ministres du Conseil de l'Europe élabore, au moyen de recherches criminologiques et comparatives, de colloques et de conférences, des recommandations et lignes directrices conduisant à l'harmonisation des droits nationaux autour de principes directeurs. Mue par son engagement dans l'européanisation du droit pénal des mineurs, la Cour européenne des droits de l'homme intégra les instruments internationaux et européens pertinents dans sa jurisprudence. Ce qui prend un caractère primordial dans les pays où l'application de la Convention est problématique et les violations des droits de l'homme récurrentes, parmi lesquels la Turquie. En conséquence, et malgré les modifications apportées dans la législation turque depuis 2005, nous ferons apparaître dans cette étude que ce membre du Conseil de l'Europe méconnaît encore l'autonomie de l'enfant, promeut toujours la punition en modèle éducatif, use régulièrement de la détention, et appréhende finalement de manière balbutiante la primauté de l'éducation sur la répression prônée par les principes directeurs. / The work by the Council of Europe -founded following the Second World War to rebuild a common democratic and legal order-in the field of juvenile justice has been influenced by the national developments emerged in the early twentieth century and has been focusing on enhancing the experiences of the existing special judicial bodies in some European countries of which were established for distinguishing the treatment of juvenile delinquent from adults. Since then, the Comrnittee of Ministers of the Council of Europe, which observes the concerns of the member states on juvenile delinquency as well as their changing criminal justice policies, adopts recommendations and guidelines in order to establish guiding principles leading to harmonization of the national systems through organizing meetings, conferences and conducting comparative research on criminology. Similarly, the European Court of Human Rights (ECHR) gives reference to the relevant international and European instruments in its jurisprudence so as to contribute to the Europeanisation of juvenile justice. This becomes especially important in countries like Turkey-where the implementation of the ECHR is problematic and human rights violations are recurring. Consequently, this study shows that despite the legislative changes made since 2005, Turkey, which is a member of the Council of Europe, still ignores the autonomy of the child, promotes punishment like an educational method, resort to detention as a regular measure, and finally displays an reluctant and abstaining attitude in giving priority to education over punishment as established by the guidelines.
354

Optimization of cost-based threat response for Security Information and Event Management (SIEM) systems / Optimisation de la réponse aux menaces basée sur les coûts dans des systèmes pour la Sécurité de l'Information et la Gestion des Evénements (SIEMs)

Gonzalez Granadillo, Gustavo Daniel 12 December 2013 (has links)
Les SIEMs (systèmes pour la Sécurité de l'Information et la Gestion des Evénements) sont le cœur des centres opérationnels de sécurité actuels. Les SIEMs corrèlent les événements en provenance de différents capteurs (anti-virus, pare-feux, systèmes de détection d'intrusion, etc), et offrent des vues synthétiques pour la gestion des menaces ainsi que des rapports de sécurité. La recherche dans les technologies SIEM a toujours mis l'accent sur la fourniture d'une interprétation complète des menaces, en particulier pour évaluer leur importance et hiérarchiser les réponses. Toutefois, dans de nombreux cas, la réponse des menaces a encore besoin de l'homme pour mener l'analyse et aboutir à la prise de décisions, p.ex. compréhension des menaces, définition des contremesures appropriées ainsi que leur déploiement. Il s'agit d'un processus lent et coûteux, nécessitant un haut niveau d'expertise, qui reste néanmoins sujet à erreurs. Ainsi, des recherches récentes sur les SIEMs ont mis l'accent sur l'importance et la capacité d'automatiser le processus de sélection et le déploiement des contremesures. Certains auteurs ont proposé des mécanismes automatiques de réponse, comme l'adaptation des politiques de sécurité pour dépasser les limites de réponses statiques ou manuelles. Bien que ces approches améliorent le processus de réaction (en le rendant plus rapide et/ou plus efficace), ils restent limités car ces solutions n'analysent pas l'impact des contremesures choisies pour atténuer les attaques. Dans cette thèse, nous proposons une nouvelle approche systématique qui sélectionne la contremesure optimale au travers d'un ensemble de candidats, classés sur la base d'une comparaison entre leur efficacité à arrêter l'attaque et leur capacité à préserver, simultanément, le meilleur service aux utilisateurs légitimes. Nous proposons également un modèle pour représenter graphiquement les attaques et les contre-mesures, afin de déterminer le volume de chaque élément dans un scénario de multiples attaques. Les coordonnées de chaque élément sont dérivés d'un URI . Ce dernier est composé principalement de trois axes : l’utilisateur, le canal et le ressource. Nous utilisons la méthodologie CARVER pour donner un poids approprié à chaque élément composant les axes de notre système de coordonnées. Cette approche nous permet de connecter les volumes avec les risques (p.ex. des grands volumes sont équivalents à des risques élevés, tandis que des petits volumes sont équivalents à des risques faibles). Deux concepts sont considérés en comparant deux ou plusieurs volumes de risques: le risque résiduel, qui résulte lorsque le volume du risque est plus élevé que le volume de la contre-mesure, et le dommage collatéral, qui en résulte lorsque le volume de la contre-mesure est supérieur au volume du risque. En conséquence, nous sommes en mesure d'évaluer les contre-mesures pour des scénarios d'attaques individuelles et multiples, ce qui permet de sélectionner la contre-mesure ou groupe de contre-mesures qui fournit le plus grand bénéfice à l'organisation / Current Security Information and Event Management systems (SIEMs) constitute the central platform of modern security operating centers. They gather events from various sensors (intrusion detection systems, anti-virus, firewalls, etc.), correlate these events, and deliver synthetic views for threat handling and security reporting. Research in SIEM technologies has traditionally focused on providing a comprehensive interpretation of threats, in particular to evaluate their importance and prioritize responses accordingly. However, in many cases, threat responses still require humans to carry out the analysis and decision tasks e.g., understanding the threats, defining the appropriate countermeasures and deploying them. This is a slow and costly process, requiring a high level of expertise, and remaining error-prone nonetheless. Thus, recent research in SIEM technology has focused on the ability to automate the process of selecting and deploying countermeasures. Several authors have proposed automatic response mechanisms, such as the adaptation of security policies, to overcome the limitations of static or manual response. Although these approaches improve the reaction process (making it faster and/or more efficient), they remain limited since these solutions do not analyze the impact of the countermeasures selected to mitigate the attacks. In this thesis, we propose a novel and systematic process to select the optimal countermeasure from a pool of candidates, by ranking them based on a trade-off between their efficiency in stopping the attack and their ability to preserve, at the same time, the best service to normal users. In addition, we propose a model to represent graphically attacks and countermeasures, so as to determine the volume of each element in a scenario of multiple attacks. The coordinates of each element are derived from a URI. This latter is mainly composed of three axes: user, channel, and resource. We use the CARVER methodology to give an appropriate weight to each element composing the axes in our coordinate system. This approach allows us to connect the volumes with the risks (i.e. big volumes are equivalent to high risk, whereas small volumes are equivalent to low risk). Two concepts are considered while comparing two or more risk volumes: Residual risk, which results when the risk volume is higher than the countermeasure volume; and Collateral damage, which results when the countermeasure volume is higher than the risk volume. As a result, we are able to evaluate countermeasures for single and multiple attack scenarios, making it possible to select the countermeasure or group of countermeasures that provides the highest benefit to the organization
355

Débruitage, déconvolution et extraction de caractéristiques de signaux dans le domaine temporel pour imagerie biomédicale optique

Bodi, Geoffroy January 2010 (has links)
Un scanner permettant l'imagerie moléculaire est d'un grand intérêt pour l'industrie pharmaceutique dans le développement de nouveaux médicaments, notamment pour visualiser leur efficacité m-vivo (par exemple pour le cancer). Le groupe de recherche TomOptUS développe un scanner par tomographie optique diffuse par fluorescence pour imagerie moléculaire sur petit animal. Le but est de localiser en 3D les centres de fluorescence d'un traceur injecté dans l'animal. À cette fin, nous utilisons des mesures de signaux optiques de fluorescence obtenues par comptage de photons corrélé en temps (mesures dans le domaine temporel). On sait que les mesures contiennent de l'information sur les caractéristiques optiques du milieu, mais à ce jour, cette information n'est pas exploitée à son plein potentiel. Extraire cette information est essentiel en reconstruction tomographique. Le système d'instrumentation, comme tout système de mesure, celle-ci influe sur le signal optique à mesurer. Mathématiquement, les mesures optiques dans un milieu peuvent être décrites comme la convolution entre le signal d'intérêt et la fonction de réponse (ou fonction de transfert) du système de mesures optiques (IRF - instrument response function), le tout perturbé par du bruit. Les causes du bruit proviennent du système de détection, des conditions d'utilisation du système et des facteurs extérieurs. Il est indispensable d'éliminer les différents effets perturbateurs pour permettre l'extraction de caractéristiques de ces signaux. Ces caractéristiques dépendent des paramètres optiques du milieu diffusant. On distingue deux propriétés physiques, le coefficient d'absorption µ[indice inférieur a] et le coefficient de diffusion réduit µ'[indice inférieur s]. Un premier objectif du projet est de débruiter les mesures. À cette fin, un algorithme de débruitage par les ondelettes a été développé. Un second objectif est de concevoir un algorithme de déconvolution pour éliminer l'influence de l'IRF. La déconvolution est le raisonnement inverse de la convolution. Une solution est l'utilisation du filtre optimal de Wiener. Une fois cela réalisé, un troisième objectif consistait à implémenter un algorithme de régression non linéaire pour extraire les caractérisitiques optiques du milieu des courbes temporelles afin de caractériser le milieu. Pour cela, un modèle analytique de propagation de la lumière, le modèle développé par Patterson, Chance et Wilson, est comparé à nos mesures traitées. Par minimisation de l'erreur quadratique moyenne, il est ainsi possible de déterminer la valeur des paramètres optiques recherchés. Pour qualifier au mieux la méthode de déconvolution, la convolution itérative (IC- Itérative Convolution) ou reconvolution a également été implémentée. Actuellement, la reconvolution est la méthode la plus couramment utilisée en imagerie optique pour caractériser un milieu. Elle consiste à convoluer le modèle avec l'IRF du système pour obtenir un modèle représentatif des mesures optiques du système d'instrumentation. Enfin, un quatrième objectif consiste à étudier, à l'aide du même modèle, des changements du comportement du signal, lorsqu'on fait varier les paramètres µ[indice inférieur a], µ'[indice inférieur s]. Ceci permettra d'acquérir de nouvelles connaissances sur les vitesses de propagation dans le milieu et sur les temps d'arrivée des premiers photons.
356

Imagerie de fluorescence et intrinsèque de milieux diffusants par temps d’arrivée des premiers photons

Pichette, Julien January 2014 (has links)
La tomographie optique diffuse (DOT) se caractérise par l’utilisation de la lumière dans un régime de propagation diffusif pour sonder les tissus biologiques. L’utilisation de marqueurs fluorescents permet de cibler des processus biologiques précis (tomographie optique diffuse en fluorescence - FDOT) et d’améliorer le contraste dans les images obtenues. Les applications typiques de la DOT/FDOT sont la mammographie laser, l’imagerie cérébrale de nouveau-nés et les investigations non-invasives sur petits animaux, notamment pour l’imagerie moléculaire. Le présent projet fait partie du programme de recherche TomOptUS dirigé par le professeur Yves Bérubé-Lauzière. Un scanner optique pour petits animaux y est en cours de développement. Ce scanner possède la particularité de fonctionner avec une prise de mesures sans contact dans le domaine temporel. La première partie du projet a pour point de départ l’algorithme développé en FDOT par Vincent Robichaud qui permet la localisation spatiale d’une seule inclusion fluorescente ponctuelle immergée dans un milieu diffusant homogène ayant une géométrie cylindrique. Une nouvelle approche de localisation pour une pluralité d’inclusions discrètes est ici introduite. Cette dernière exploite l’information contenue dans le temps de vol des premiers photons provenant d’une émission de fluorescence. Chaque mesure permet de définir un lieu géométrique où une inclusion peut se trouver : ces lieux prennent la forme d’ovales en 2D ou d’ovoïdes en 3D. À partir de ces lieux, une carte de probabilité de présence des inclusions est construite : les maxima de la carte correspondent à la position des inclusions. Cette approche géométrique est soutenue par des simulations Monte Carlo en fluorescence dans des milieux reproduisant les propriétés optiques des tissus biologiques. Plusieurs expériences sont ensuite effectuées sur une mire optique homogène répliquant les propriétés optiques des tissus dans lequel des inclusions remplies de vert d’indocyanine (ICG) sont placées. L’approche permet la localisation avec une erreur positionnelle de l’ordre du millimètre. Les résultats démontrent que l’approche est précise, rapide et efficace pour localisation des inclusions fluorescentes dans un milieu hautement diffusant mimant les tissus biologiques. Des simulations Monte Carlo sur un modèle réaliste de souris montrent la faisabilité de la technique pour l’imagerie sur petits animaux. Le second volet de la thèse s’intéresse aux mesures intrinsèques par le développement d’une approche de reconstruction d’une carte des vitesses de propagation des ondes lumineuses diffuses dans un milieu diffusant hétérogène. De telles vitesses constituent un nouveau contraste pour de l’imagerie DOT. La méthode utilise une configuration en faisceaux lumineux analogue aux méthodes utilisées en tomographie par rayons X. Ici, toutefois, les temps d’arrivée des premiers photons sont utilisés plutôt que l’amplitude du signal. Des résultats sont présentés en 2D pour différentes configurations d’inclusions démontrant la validité de l’approche. Des simulations Monte Carlo sont utilisées pour simuler la propagation intrinsèque dans des milieux hétérogènes et pour venir appuyer la démarche.
357

Analyse haute fréquence de l'équation de Helmholtz dissipative

Royer, Julien 03 December 2010 (has links) (PDF)
On s'intéresse dans cette thèse à l'analyse haute fréquence de l'équation de Helmholtz dans un cadre dissipatif. On commence par chercher des estimations uniformes pour la résolvante de l'opérateur de Schrödinger dissipatif sur le demi-plan supérieur et près d'une énergie vérifiant une hypothèse d'amortissement sur les trajectoires classiques bornées. On généralise pour cela la méthode des commutateurs de Mourre pour des opérateurs dissipatifs. Dans une deuxième partie, on étudie les mesures semi-classiques pour la solution sortante à l'équation lorsque le terme source se concentre sur une sous-variété bornée de l'espace.
358

Analyse de l'interaction entre un sillage tridimensionnel et une paroi – Détection de structures cohérentes responsables de fluctuations de pression pariétale.

Ruiz, Tony 11 December 2009 (has links) (PDF)
En aérodynamique automobile, les écoulements sont caractérisés par des structures fortement décollées, tridimensionnelles et instationnaires qui sont à l'origine de la trainée du véhicule et de la génération de bruit. Une configuration modèle générique de cette aérodynamique a été proposée. On étudie de manière expérimentale l'interaction du sillage tridimensionnel d'un disque de diamètre D placé à une distance H d'une paroi. Sur la base de cet écoulement, l'objectif est de développer une analyse instationnaire des structures de l'écoulement et de leur couplage avec la pression fluctuante. On a mis en oeuvre pour cela des moyens d'essais modernes tels que la mesure synchronisée pression/vitesse ou la mesure HS-PIV (High Speed - PIV) et développé des moyens d'analyse (analyse corrélatoire, outils lagrangien FTLE, moyenne conditionnelle et estimation stochastique). Pour H/D=0.75, le battement du sillage associé au lâcher tourbillonnaire est mis en évidence. Les moyennes de phase, déterminées à l'aide d'une analyse POD du signal de pression, associent le déplacement vertical du sillage au lâcher de structures cohérentes dans le plan de symétrie. L'utilisation de l'estimation stochastique de type spatio-temporelle, dont la supériorité par rapport à l'approche spatiale a été démontrée, a permis de montrer que les structures cohérentes sont reliées de manière linéaire aux fluctuations de pression. Pour H/D=0.3, l'interaction du sillage du disque avec la paroi a considérablement changé. Dans la zone proche du point de décollement, il a été montré à l'aide de l'outil lagrangien FTLE que la fréquence dominante de 30Hz sur les DSP de pression est associée aux fluctuations du point de décollement.
359

CONTRIBUTION A LA CONNAISSANCE ET A LA MODELISATION DES PARAMETRES INFLUANT SUR LA CAPABILITE DES PROCEDES DE MESURE TRIDIMENSIONNELS

Cloitre, Gabriel 25 January 2000 (has links) (PDF)
L'utilisation de machines à mesure tridimensionnelle s'est généralisée dans les grosses entreprises et chez les sous traitants. Mais la mise en place des normes ISO 9000 et les calculs de capabilité qui découlent de ces normes impliquent une connaissance approfondie des incertitudes de mesures. Dans le domaine de la machine à mesurer, l'incertitude globale et les normes utilisées sont indiquées. Actuellement, les incertitudes de mesure de ces différentes machines sont exprimées sous la forme : ± A+ bL ou A est une incertitude représentative de la fidélité et bL est une incertitude de position en fonction de la longueur. La géométrie et l'environnement de ces machines étant actuellement pris en compte par les logiciels, il reste un grand nombre de paramètres méconnus (relatif au capteur) : longueur, diamètre, vitesse ainsi que le type et nombre de points de l'élément mesuré. Nous proposons de donner une méthode d'obtention rapide de l'incertitude de mesure et de l'indice de capabilité suivant les critères choisis par l'opérateur et d'obtenir rapidement un indice de capabilité plus proche de la réalité. Après un historique sur les mesures et de l'importance de la métrologie dans la mise en place des ISO 9000, le troisième chapitre est une présentation du matériel utilisé. Dans le quatrième, le plus important, on trouvera les méthodes statistiques utilisées et l'analyse des différents paramètres étudiés. Grâce à une analyse systématique des résultats, nous validerons les différents paramètres étudiés et de proposer le tableau récapitulatif permettant d'obtenir instantanément l'indice de capabilité. Dans les chapitres suivants des exemples et une proposition de modification des logiciels actuels afin d'intégrer ces calculs de capabilité. Les annexes comprennent normes, certificats d'étalonnage, valeurs de la pièce test et programmes développés.
360

Etude des transferts d'eau et de nitrate dans les sols ferrallitiques de Maré (Nouvelle-Calédonie) : risques de pollution des lentilles d'eau douce

Duwig, Céline 08 September 1998 (has links) (PDF)
Le but principal de cette thèse est la détermination des risques de pollution de l'eau souterraine dus à des pratiques agricoles intensives sur l'île de Maré (Nouvelle-Calédonie). Maré est un atoll corallien surélevé où la principale ressource en eau douce provient de lentilles situées à l'intérieur du soubassement corallien. Le sol est un sol ferrallitique allitique très pérméable, et possédant une capacité importante d'échange anionique. Le climat est caractérisé par une saison humide, où des événements pluvieux de fortes intensités peuvent survenir. Pour calculer le drainage et la lixiviation du nitrate en-dessous de la zone racinaire, une métrologie non destructive a été mise en oeuvre sur plusieurs parcelles soumises à différentes pratiques culturales. Les caractéristiques hydrauliques du sol ont été obtenues par infiltrométrie et les paramètres de transfert de solutés grâce à des expériences réalisées au laboratoire, sur colonnes de sol. Environ 100 kg N ha-1 ont été apportés sur une parcelle sol nu, de maïs et de graminées. Bien que la saison 1996 fut plus humide qu'en 1995, la quantité de nitrate livixié sous maïs a diminué de 130 % (1995) à 48 % (1996) du nitrate apporté. En 1996, l'engrais a été apporté en deux fois alors qu'en 1995, il a été apporté en totalité le jour du semis. Malgré sa capacité d'échange anionique, la perméabilité du sol ainsi que les fortes intensités de pluie concourent à rendre le nitrate facilement lixiviable. Cependant, le risque de pollution peut être fortement réduit avec des applications fractionnées d'engrais de manière à ce que la consommation du nitrate par les plantes soit améliorée. Les paramètres du sol déterminés sur le terrain et au laboratoire nous ont permis d'utiliser le modèle mécaniste WAVE et d'évaluer sa capacité de reproduction et de prédiction des données. Les mesures lors des trois saisons aux conditions climatiques différentes ont été reproduites avec satisfaction.

Page generated in 0.0387 seconds