To see the other types of publications on this topic, follow the link: Méthodologie basée sur les ondes.

Dissertations / Theses on the topic 'Méthodologie basée sur les ondes'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthodologie basée sur les ondes.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Chatry, Benoit. "Contribution à l'évaluation d'agression électromagnétique. Méthodologie basée sur l'utilisation des éléments finis et des couches PML." Limoges, 1998. http://www.theses.fr/1998LIMO0001.

Full text
Abstract:
La methode des elements finis dans le domaine frequentiel est desormais tres largement utilisee pour l'analyse electromagnetique de dispositifs microondes. Celle-ci est particulierement bien adaptee a l'analyse de structures necessitant une bonne description geometrique. Elle l'est moins lorsque les systemes adoptent de grandes dimensions ou encore lorsque le domaine d'etude est infini, tel que l'analyse d'elements rayonnants ou diffractrants, ou se posent alors des problemes de capacite memoire. Ce travail a pour but de demontrer la faisabilite d'une caracterisation electromagnetique par elements finis, des couplages internes d'une structure soumise a un rayonnement exterieur. L'outil de simulation final qui a rendu possible cette analyse comporte deux developpements specifiques : 1. Une methode de segmentation qui permet de dissocier le domaine global de l'etude en sous dispositifs, analyses independamment, le resultat global s'obtenant ensuite par le raccordement de chaque partie. La liaison entre les plans de segmentation est assuree par une representation modale du champ. 2. L'utilisation des couches pml, inventees par j. P. Berenger, pour permettre l'analyse du domaine ouvert. Leur utilisation sous la forme d'un milieu anisotrope represente par des tenseurs de permittivite et permeabilite, a ete adoptee, et une etude du comportement intrinseque de la couche a permis d'optimiser le nombre de cellules la decrivant.
APA, Harvard, Vancouver, ISO, and other styles
2

Cui, Dongze. "A Contribution to Vibroacoustics of Highly Heterogeneous Metastructures through Wave Finite Element Scheme." Electronic Thesis or Diss., Ecully, Ecole centrale de Lyon, 2024. http://www.theses.fr/2024ECDL0031.

Full text
Abstract:
La recherche vise à étendre les études existantes sur les métastructures hétérogènes présentant des caractéristiques de fort contraste et de forte dissipation. Les dynamiques multi-échelles, les indicateurs vibroacoustiques, l'effet de couplage des ondes et les ondes d'ordre élevé sont étudiés dans le cadre des méthodologies basées sur les ondes. Les modèles pour les structures à forts contrastes (Highly Contrasted Structures, HCS) et haute dissipation (Highly Dissipative Structures, HDS) sont explorés. Diverses méthodes de calcul des indicateurs vibroacoustiques tels que l'espace des nombres d'onde, le facteur de perte par amortissement (Damping Loss Factor, DLF) et la perte de transmission sonore (Sound Transmission Loss, STL) sont passées en revue. L'attention particulière est accordée à la méthode d'homogénéisation asymptotique (Asymptotic Homogenization Method, AHM) exploitant le modèle Zig-Zag et la technique d'homogénéisation pour prédire les dynamiques multi-échelles des HCS par les nombres d'onde de flexion. Parallèlement, la méthode analytique de la matrice de transfert (Transfer Matrix Method, TMM) et sa généralisation pour les structures complexes par le modèle des éléments finis (General Transfer Matrix Method, GTMM), le modèle stratifié général (General Laminate Model, GLM) utilisant la théorie de déplacement de Mindlin, et le schéma d'éléments finis d'ondes (Wave Finite Element, WFE) sont présentés. L'évaluation de la robustesse et de la précision de AHM et GLM est réalisée en comparant l'espace des nombres d'onde et le DLF avec la méthode de référence WFE. Le problème des valeurs propres nonlinéaires (Nonlinear Eigenvalue Problem, NEP) dans le schéma WFE pour les ondes se propageant dans diverses directions est résolu par un solveur d'intégrale de contour (Contour Integral, CI), les nombres d'ondes complexes sont suivis en fonction des critères de continuité de l'énergie dans le domaine fréquentiel. Les limites de validité d'AHM et GLM sont vérifiées. La faisabilité d'appliquer la méthode WFE aux structures sandwich avec des composants non-homogènes est démontrée en utilisant la méthode d'entrée de puissance basée sur les éléments finis (FE-based Power Input Method, PIM-FEM). Le cadre WFE est étendu pour prédire avec précision le DLF global des HDS. Il commence par dériver les réponses forcées d'une cellule unitaire (Unit Cell, UC) représentative de la structure périodique lorsqu'elle est excitée par une onde incidente. Ensuite, il calcule le DLF de l'onde via l'équation de bilan de puissance. En utilisant l'expansion de Bloch, la réponse à une force ponctuelle appliquée à la structure périodique est décomposée dans la zone de Brillouin, permettant la prédiction de la réponse totale par intégration sur l'espace des nombres d'onde. Le DLF global est dérivé sur la base du principe de PIM. Pour les HDS, les résultats du GLM sont exploités pour valider le DLF des ondes, tandis que l'approche PIM-FEM est utilisée comme référence pour le DLF global. L'influence réduite des ondes de flexion sur l'estimation du DLF pour les HDS est discutée, ainsi que l'importance des ordres des modes de Bloch. Les coefficients de transmission du son sont exploités pour représenter la contribution des nombres d'onde à la STL des métastructures hétérogènes. La méthode WFE est appliquée pour étudier les mécanismes de couplage des ondes influençant la performance d'isolation acoustique des HCS et HDS, ainsi que l'importance du mouvement symétrique pour les structures sandwich avec un couche centrale souple très épais. La même approche est utilisée pour les guides d'ondes avec des sections transversales complexes afin d'analyser l'effet de couplage des ondes et des ondes d'ordre élevé sur l'estimation précise de la STL par les approches TMM, WFE et GTMM. Une attention particulière est accordée aux structures courbées. Les mécanismes de couplage entre les ondes de flexion et de membrane influençant la STL sont également étudiés
The research aims to extend existing studies for heterogeneous metastructures with high contrast and high dissipation features. The multi-scale dynamics, vibroacoustic indicators, wave coupling effect, and high-order waves of heterogeneous metastructures are investigated within the wave-based frameworks. The wave-based models for Highly Contrasted Structures (HCS) and Highly Dissipative Structures (HDS) are explored. Various methods for computing the vibroacoustic indicators, such as the wavenumber space, Damping Loss Factor (DLF), and Sound Transmission Loss (STL), are reviewed. Special attention is placed on the Asymptotic Homogenization Method (AHM) exploiting the Zig-Zag model and homogenization technique to predict the multi-scale dynamics of HCS by the bending wavenumbers. Meanwhile, the analytical Transfer Matrix Method (TMM) and its generalization for complex structures by the Finite Element (FE) model (General Transfer Matrix Method, GTMM), the semi-analytical General Laminate Model (GLM) employing Mindlin's displacement theory, the numerical Wave Finite Element (WFE) scheme are presented. Evaluation on the robustness and accuracy of AHM and GLM is made by comparing the wavenumber space and DLF with the reference WFE method. The Nonlinear Eigenvalue Problem (NEP) in the WFE scheme for waves propagating in varying directions is solved by a Contour Integral (CI) solver, the complex wavenumbers are tracked based on the energy continuity criteria in the frequency domain. The validity limits of AHM and GLM are verified. The feasibility of applying the WFE method to sandwich structures with non-homogeneous components is shown using the classical FE-based Power Input Method (PIM-FEM). The WFE framework is extended for accurately predicting the global DLF of HDS. It starts by deriving the forced responses of a Unit Cell (UC) representative of the periodic structure when excited by an impinging wave. Then it computes the DLF of the wave via the power balance equation. By employing the Bloch expansion, the response to a point force applied to the periodic structure is decomposed in the Brillouin zone, allowing the prediction of total response via integration over the wavenumber space. The global DLF is derived based on the principle of PIM. For HDS, results of GLM are exploited for validating the wave DLF, the PIM-FEM approach is provided as reference approach for the global DLF. The shrinking influence of bending waves on the DLF estimation for HDS is discussed, as well as the importance of Bloch mode orders. \newline Sound transmission coefficients can be exploited to depict the contribution from the wavenumber space to the STL of the heterogeneous metastructures. The WFE method is applied to study the wave coupling mechanisms influencing the sound insulation performance of HCS and HDS, as well as the importance of symmetric motion to the sandwich structures with a very thick soft core. The same approach is applied to waveguides with complex cross-sections to investigate the wave coupling effect and high-order waves on the accurate STL estimation by analytical TMM, WFE, and GTMM approaches. Special attention is paid to curved periodic structures, the bending-membrane coupling mechanisms influencing the STL are also investigated
APA, Harvard, Vancouver, ISO, and other styles
3

Nguyen, Minh Duc. "Méthodologie de test de systèmes mobiles : Une approche basée sur les sénarios." Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00459848.

Full text
Abstract:
Les avancées technologiques du monde du " sans fil " ont conduit au développement d'applications dédiées à l'informatique mobile. Leurs caractéristiques propres posent de nouveaux défis pour leur vérification. Ce mémoire traite de la technologie de test pour les systèmes mobiles. Nous avons débuté notre travail par un état de l'art sur le test des applications mobiles conjointement avec une analyse d'une étude de cas, un protocole d'appartenance de groupe (GMP) dans le domaine des réseaux ad hoc, pour nous permettre de mieux comprendre les problèmes liés au test de ces applications. En conséquence, nous avons décidé d'avoir une approche de test qui se base sur les descriptions de scénarios. Nous avons constaté que les scénarios d'interactions doivent tenir compte des configurations spatiales des nœuds comme un concept majeur. Afin de couvrir les nouvelles spécificités des systèmes mobiles dans les langages de descriptions, nous avons introduit des extensions qui portent essentiellement sur les relations spatio-temporelles entre nœuds et sur la communication par diffusion. Le traitement de l'aspect spatial a conduit au développement de l'outil GraphSeq. GraphSeq a pour but d'analyser des traces de test afin d'y identifier des occurrences de configurations spatiales successives décrites à partir d'un scénario abstrait. L'application de GraphSeq (support à l'implémentation des cas de test, vérification de la couverture des traces) est présentée avec les analyses des sorties d'un simulateur de mobilité et des traces d'exécution de l'étude de cas GMP.
APA, Harvard, Vancouver, ISO, and other styles
4

Nguyen, Minh Duc. "Méthodologie de test de systèmes mobiles : une approche basée sur les scénarios." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/775/.

Full text
Abstract:
Les avancées technologiques du monde du " sans fil " ont conduit au développement d'applications dédiées à l'informatique mobile. Leurs caractéristiques propres posent de nouveaux défis pour leur vérification. Ce mémoire traite de la technologie de test pour les systèmes mobiles. Nous avons débuté notre travail par un état de l'art sur le test des applications mobiles conjointement avec une analyse d'une étude de cas, un protocole d'appartenance de groupe (GMP) dans le domaine des réseaux ad hoc, pour nous permettre de mieux comprendre les problèmes liés au test de ces applications. En conséquence, nous avons décidé d'avoir une approche de test qui se base sur les descriptions de scénarios. Nous avons constaté que les scénarios d'interactions doivent tenir compte des configurations spatiales des nœuds comme un concept majeur. Afin de couvrir les nouvelles spécificités des systèmes mobiles dans les langages de descriptions, nous avons introduit des extensions qui portent essentiellement sur les relations spatio-temporelles entre nœuds et sur la communication par diffusion. Le traitement de l'aspect spatial a conduit au développement de l'outil GraphSeq. GraphSeq a pour but d'analyser des traces de test afin d'y identifier des occurrences de configurations spatiales successives décrites à partir d'un scénario abstrait. L'application de GraphSeq (support à l'implémentation des cas de test, vérification de la couverture des traces) est présentée avec les analyses des sorties d'un simulateur de mobilité et des traces d'exécution de l'étude de cas GMP
Advances in wireless networking have yielded the development of mobile computing applications. Their unique characteristics provide new challenges for verification. This dissertation elaborates on the testing technology for mobile systems. As a first step, a review of the state-of-the-art is performed together with a case study - a group membership protocol (GMP) in mobile ad hoc settings - that allowed us to gain insights into testing problems. We present, then, a testing approach which bases on the descriptions of scenarios. We note that the scenario interactions must take into account the spatial configurations of nodes as first class concepts. To cover new specificities of mobile systems in description languages, we introduce some extensions that focus on spatio-temporal relations between nodes and on broadcast communication. The processing of spatial aspect leads to the development of the tool GraphSeq. GraphSeq aims to analyze test traces in order to identify occurrences of successive spatial patterns described in an abstract scenario. The application of GraphSeq (support to implementation of test cases, verification of trace coverage) is shown with the analysis of outputs of a simulator and execution traces of the case study GMP
APA, Harvard, Vancouver, ISO, and other styles
5

Chesné, Lou. "Vers une nouvelle méthodologie de conception des bâtiments, basée sur leurs performances bioclimatiques." Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00825646.

Full text
Abstract:
Les règles et usages actuels de conception des bâtiments sont essentiellement basés sur la minimisation des déperditions thermiques, ce qui se traduit par la prédominance de l'isolation thermique comme solution d'enveloppe. Or cette logique n'est pas nécessairement la plus pertinente car des ressources énergétiques existent dans l'environnement, et leur apport mériterait d'être pris en considération. Certaines technologies bioclimatiques, et surtout solaires, existent déjà mais leur utilisation n'est pas du tout généralisée à cause d'un manque de repère sur leurs performances. Pour considérer la démarche bioclimatique, il est nécessaire de pouvoir évaluer à la fois la "qualité énergétique" de l'environnement, et l'aptitude des bâtiments à exploiter cet environnement. La méthodologie présentée dans cette thèse est basée sur le calcul d'indicateurs de performance bioclimatique issus de simulations numériques de bâtiments dans diverses conditions climatiques. La simulation permet de supprimer facilement une ressource pour pouvoir obtenir les besoins d'un bâtiment non impacté par la ressource. Ces besoins peuvent alors être comparés à chaque instant au potentiel de la ressource afin de déterminer un potentiel utile, valorisable par le bâtiment. Il est également possible de comparer les besoins du bâtiment dans la simulation sans et avec la ressource et d'en déduire la quantité d'énergie provenant de la ressource réellement utilisée par le bâtiment pour couvrir ses besoins. Un jeu d'indicateurs est ainsi défini pour toutes les ressources et tous les besoins d'un bâtiment, et adapté plus particulièrement aux besoins de confort thermique (chauffage et rafraîchissement) et à trois ressources de l'environnement (le soleil, la voûte céleste et l'air extérieur). Un cas d'étude est alors choisi pour appliquer cette méthode et les résultats sont analysés à l'échelle du bâtiment tout entier ainsi qu'à l'échelle de chaque paroi. Une première analyse globale, sur toute l'année, permet de fixer des points de repères sur l'état des ressources et l'exploitation qui en est faite par les bâtiments. Dans un second temps, les résultats instantanés sont analysés de manière dynamique, et montrent que ces nouveaux indicateurs permettent de bien caractériser le comportement d'un bâtiment dans son environnement. Enfin, les indicateurs sont utilisés dans une approche de conception des bâtiments, et plusieurs pistes sont explorées. Une étude paramétrique est tout d'abord menée et permet d'observer l'influence du niveau d'isolation sur les indicateurs de potentiel et de performance. Puis ces indicateurs sont utilisés pour évaluer la performance bioclimatique de solutions d'enveloppe solaires. Dans un troisième temps, une optimisation de l'enveloppe est menée selon deux critères : un critère classique de minimisation du besoin, mais également un critère bioclimatique de maximisation de l'exploitation du potentiel solaire.
APA, Harvard, Vancouver, ISO, and other styles
6

Passama, Robin. "Conception et développement de contrôleurs de robots - Une méthodologie basée sur les composants logiciels." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2006. http://tel.archives-ouvertes.fr/tel-00084351.

Full text
Abstract:
L'un des problèmes majeurs rencontrés par la robotique est celui du développement d'architectures logicielles de contrôle des robots. Ceci s'explique par la complexité sans cesse croissante de ces architectures, qui doivent intégrer toujours plus de fonctionnalités de divers niveaux d'abstraction (de planification, d'asservissement, de perception, de gestion des modes de fonctionnement, etc.) et qui nécessitent la prise en compte du caractère temps-réel du contrôle. Par ailleurs, les fonctionnalités s'appuyant, directement ou non, sur un ensemble d'éléments matériels embarqués sur le robot, une architecture doit pouvoir être adaptée en fonction de l'évolution technologique (nouveaux capteurs et actionneurs, remplacement d'éléments de la partie opérative, etc.). L'enjeu actuel est donc de définir et intégrer des fonctionnalités sous forme de briques logicielles réutilisables au sein d'architectures de contrôle évolutives, de manière à simplifier le développement. Après avoir fait un tour d'horizon des propositions actuelles, le manuel présente CoSARC, une méthodologie originale couvrant l'intégralité du processus de développement d'un contrôleur de robot. La méthodologie est basée sur un modèle d'architecture et sur un langage à composants. Inspré des propositions historiques d'architectures hybrides, le modèle d'architecture constitue la base du processus de développement. Il définit une organisation générique intégrant une vision hiérarchique du contrôle et il s'appuie sur des concepts abstraits indépendants de tout domaine d'application, tel que celui de ressource . La construction d'une architecture est réalisée en fonction du modèle et à l'aide des éléments d'un langage à composants. Ces éléments correspondent à différentes catégories de composants : composants de représentation dédiés à la description des connaissances sur le monde du robot, composants de contrôle dédiés à la description des activités du robot, composants connecteurs dédiés à la description des protocoles régissant les interactions entre composants de contrôle, composants de configuration dédiés à la description d'une architecture et de son déploiement. Un des aspects essentiels de certains de ces composants réside dans le fait que leur comportement est exprimé sous la forme d'un réseau de Petri à Objets. L'expressivité et la pertinence de la méthodologie sont démontrés sur un exemple traitant du développement d'un robot manipulateur mobile.
APA, Harvard, Vancouver, ISO, and other styles
7

Lallier-Daniels, Dominic. "Méthodologie de conception numérique d'un ventilateur hélico-centrifuge basée sur l'emploi du calcul méridien." Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6186.

Full text
Abstract:
La conception de ventilateurs est souvent basée sur une méthodologie " essais/erreurs " d'amélioration de géométries existantes ainsi que sur l'expérience de design et les résultats expérimentaux cumulés par les entreprises. Cependant, cette méthodologie peut se révéler coûteuse en cas d'échec; même en cas de succès, des améliorations significatives en performance sont souvent difficiles, voire impossibles à obtenir. Le projet présent propose le développement et la validation d'une méthodologie de conception basée sur l'emploi du calcul méridien pour la conception préliminaire de turbomachines hélico-centrifuges (ou flux-mixte) et l'utilisation du calcul numérique d'écoulement fluide (CFD) pour la conception détaillée. La méthode de calcul méridien à la base du processus de conception proposé est d'abord présentée. Dans un premier temps, le cadre théorique est développé. Le calcul méridien demeurant fondamentalement un processus itératif, le processus de calcul est également présenté, incluant les méthodes numériques de calcul employées pour la résolution des équations fondamentales. Une validation du code méridien écrit dans le cadre du projet de maitrise face à un algorithme de calcul méridien développé par l'auteur de la méthode ainsi qu'à des résultats de simulation numérique sur un code commercial est également réalisée. La méthodologie de conception de turbomachines développée dans le cadre de l'étude est ensuite présentée sous la forme d'une étude de cas pour un ventilateur hélico-centrifuge basé sur des spécifications fournies par le partenaire industriel Venmar. La méthodologie se divise en trois étapes: le calcul méridien est employé pour le pré-dimensionnement, suivi de simulations 2D de grilles d'aubes pour la conception détaillée des pales et finalement d'une analyse numérique 3D pour la validation et l'optimisation fine de la géométrie. Les résultats de calcul méridien sont en outre comparés aux résultats de simulation pour la géométrie 3D afin de valider l'emploi du calcul méridien comme outil de pré-dimensionnement.
APA, Harvard, Vancouver, ISO, and other styles
8

Paludetto, Mario. "Sur la commande de procédés industriels : une méthodologie basée objets et réseaux de pétri." Toulouse 3, 1991. http://www.theses.fr/1991TOU30219.

Full text
Abstract:
Les travaux publies dans ce mémoire concernent les principales phases du cycle de vie des logiciels de commande en temps réel des procédés industriels. Il traite en particulier les étapes d'analyse, de conception et de codage. Ces dernières constituent la méhodologie HOOD/PNO. Toutes sont basées sur les concepts objets et les réseaux de pétri. Il est trace un panorama historique et critique des méthodes d'analyse et de conception basées objet en particulier la méthode HOOD. Le manque actuel de méthodes d'analyse des besoins orientés objet pour la conception d'applications temps réel est souligné. Dans la méthode d'analyse des besoins orientée objet, il est mis l'accent sur la définition des classes d'objet. La méthode de conception orientée objet autorise fondamentalement les compositions et les décompositions d'objets à l'aide de leurs comportements décrits par réseaux de petri. La validation est abordée par l'aspect analyse des réseaux de comportement des objets au cours même de l'analyse des besoins et de la conception de l'application. A défaut de langage orienté objet temps réel dote de la prise en compte du parallélisme, la mise en œuvre utilise le langage ADA. Elle met l'accent sur la génération semi-automatique de code. Elle propose des règles d'implantation pour les différentes structures de contrôle des réseaux de petri associés aux objets et pour les communications inter-objets.
APA, Harvard, Vancouver, ISO, and other styles
9

Guillou, Anne-Claire. "Synthèse architecturale basée sur le modèle polyédrique : validation et extensions de la méthodologie MMAlpha." Rennes 1, 2003. http://www.theses.fr/2003REN10160.

Full text
Abstract:
La conception de circuits intégrés spécialisées requiert fréquemment des architectures à hautes performances, notamment pour effectuer des algorithmes de traitement du signal. Le logiciel MMAlpha, basé sur le formalisme des équations récurrentes et le modèle polyédrique, est un logiciel permettant la détection et l'exploitation du parallélisme présent dans un nid de boucles afin de réaliser un circuit intégré parallèle. L'objectif des recherches présentées dans ce mémoire est de valider l'utilisation de MMAlpha et du modèle sous-jacent pour la synthèse d'architectures et d'identifier des extensions éventuelles lui permettant de mieux s'intégrer dans le flot de conception. Dans un premier temps, un filtre adaptatif retardé a été conçu et réalisé avec ce logiciel. Certaines extensions ont été réalisées et incorporées au logiciel. Enfin, une extension permettant la synthèse de programmes Alpha ordonnancées avec un temps multidimensionnel a fait l'objet de recherches plus approfondies.
APA, Harvard, Vancouver, ISO, and other styles
10

Kerbrat, Olivier. "Méthodologie de conception d'outillages modulaires hybrides basée sur l'évaluation quantitative de la complexité de fabrication." Phd thesis, Ecole centrale de nantes - ECN, 2009. http://tel.archives-ouvertes.fr/tel-00439589.

Full text
Abstract:
Dans le contexte actuel de concurrence industrielle internationale, la diversité des produits proposés et leur complexité croissante imposent aux industriels de proposer des produits manufacturés innovants, de qualité, à moindre coût et dans des délais de plus en plus contraignants. Le marché de la fabrication d'outillages de mise en forme (moules d'injection, matrices d'emboutissage, etc) a fortement évolué. Les outillages doivent désormais être conçus et mis au point plus rapidement, être adaptables aux différentes variantes de produits et fabriqués à coût maîtrisé.

Ainsi, les outillages peuvent avantageusement être conçus avec une double approche : modulaire et hybride. Les outillages sont vus non plus comme une seule pièce, mais comme un puzzle en trois dimensions, avec différents modules fabriqués séparément puis assemblés. L'approche modulaire permet de prendre en compte les différentes variantes d'une même famille de pièces à produire en facilitant un changement rapide des parties de l'outillage. L'approche hybride permet de choisir le procédé de fabrication le plus adapté pour chacun des modules de l'outillage. Nous nous sommes intéressés aux procédés d‟usinage par enlèvement de matière ainsi qu'aux procédés de fabrication rapide par ajout de matière. Ces technologies additives arrivent à maturité et, bien qu'un haut niveau de qualité soit encore délicat à obtenir, les possibilités de réalisation de formes difficiles, voire impossibles, à usiner par enlèvement de matière rendent ces procédés très attractifs.

Ce travail de thèse consiste donc en l'élaboration d'une méthodologie de conception d'outillages modulaires hybrides. Cette méthode permet, dans un premier temps, d'analyser la complexité de fabrication des outillages lors de leur conception. Dans un deuxième temps, afin de réduire la complexité de fabrication (et par conséquent, diminuer les temps et coûts de réalisation à qualité égale), une nouvelle conception de l'outillage est proposée, en appliquant les points de vue modulaire et hybride. La complexité de fabrication de ce nouvel outillage est ensuite analysée, puis comparée à la première afin de quantifier les gains induits par notre approche modulaire hybride.

Une maquette informatique a donc été développée et implémentée dans un logiciel de CAO pour mettre en évidence les possibilités d'utilisation de la méthodologie lors de la phase de conception d'outillages. Elle est testée sur différentes pièces-test et outillages industriels, en particulier dans le cadre du projet EMOA (Excellence dans la Maîtrise de l'Ouvrant Automobile haut de gamme) piloté par PSA Peugeot-Citroën.
APA, Harvard, Vancouver, ISO, and other styles
11

Alby, Emmanuel. "Élaboration d'une méthodologie de relevé d'objets architecturaux Contribution basée sur la combinaison de techniques d'acquisition." Phd thesis, Université Henri Poincaré - Nancy I, 2006. http://tel.archives-ouvertes.fr/tel-00132784.

Full text
Abstract:
Le relevé extérieur d'ouvrage architectural est le moyen de créer une représentation du bâtiment dans son état de conservation. Deux techniques d'acquisition à distance se distinguent par leur efficacité et la qualité des données produites : la photogrammétrie et le balayage optique. Ces deux techniques sont soumises aux règles de l'optique et ne permettent pas de mesurer les parties invisibles de l'objet. La combinaison des techniques peut améliorer la qualité des données, mais il subsiste toujours des zones non mesurées et de ce fait non représentables. Pour palier ce problème, nous émettons l'hypothèse que l'usage de connaissances architecturales peut permettre de recomposer les parties manquantes lors de la modélisation. Cette thèse propose un processus basé sur la combinaison de ces deux techniques et sur l'intégration des connaissances architecturales accessibles depuis la documentation écrite ou encore par les règles de construction des édifices. La complexité d'un ouvrage architectural et la multitude des données imposent une division de la modélisation en plusieurs étapes identifiables. Nous proposons de découper le processus de modélisation selon le mode de figuration des niveaux de détail utilisé pour la représentation de l'architecture. Les niveaux différents de détail permettent d'obtenir des étapes de modélisation clairement indentifiables, mais aussi un processus progressif où les informations peuvent être utilisées au fur et à mesure. Notre approche intègre ainsi les données dimensionnelles à la documentation architecturale, pour permettre la mise en place d'un processus de modélisation afin d'obtenir un modèle le plus complet possible
APA, Harvard, Vancouver, ISO, and other styles
12

Alby, Emmanuel. "Elaboration d'une méthodologie de relevé d'objets architecturaux : contribution basée sur la combinaison de techniques d'acquisition." Nancy 1, 2006. https://tel.archives-ouvertes.fr/tel-00132784.

Full text
Abstract:
Le relevé extérieur d’ouvrage architectural est le moyen de créer une représentation du bâtiment dans son état de conservation. Deux techniques d’acquisition à distance se distinguent par leur efficacité et la qualité des données produites : la photogrammétrie et le balayage optique. Ces deux techniques sont soumises aux règles de l’optique et ne permettent pas de mesurer les parties invisibles de l’objet. La combinaison des techniques peut améliorer la qualité des données, mais il subsiste toujours des zones non mesurées et de ce fait non représentables. Pour palier ce problème, nous émettons l’hypothèse que l’usage de connaissances architecturales peut permettre de recomposer les parties manquantes lors de la modélisation. Cette thèse propose un processus basé sur la combinaison de ces deux techniques et sur l’intégration des connaissances architecturales accessibles depuis la documentation écrite ou encore par les règles de construction des édifices. La complexité d’un ouvrage architectural et la multitude des données imposent une division de la modélisation en plusieurs étapes identifiables. Nous proposons de découper le processus de modélisation selon le mode de figuration des niveaux de détail utilisé pour la représentation de l’architecture. Les niveaux différents de détail permettent d’obtenir des étapes de modélisation clairement indentifiables, mais aussi un processus progressif où les informations peuvent être utilisées au fur et à mesure. Notre approche intègre ainsi les données dimensionnelles à la documentation architecturale, pour permettre la mise en place d’un processus de modélisation afin d’obtenir un modèle le plus complet possible
The external survey of an architectural work is a way to create a representation of the building in its conservation condition. Two techniques of remote acquisition differ by their effectiveness and the quality of the produced data: photogrammetry and laser scanning. These two techniques depend on optical principles: what cannot be seen cannot be measured. The combination of these techniques can improve the data quality, but unmeasured zones always remain, therefore cannot be represented. In order to solve this problem, we put forward the hypothesis that using architectural knowledge may allow to rebuild these zones during the modeling process. This study suggests a modeling process based on the combination of these two techniques and on the integration of the available architectural knowledge, from paper documentation or from the built works construction rules. An architectural work being complex and the data numerous, a division of the modeling process in several distinct stages appears necessary. We suggest dividing modeling process according to different figuration of level of details frequently used to represent architecture, and define a process using information in a progressive way. Thus our approach consists in integrating dimensional data into architectural documentation, in order to develop a modeling process providing a model as complete as possible
APA, Harvard, Vancouver, ISO, and other styles
13

Kerbrat, Olivier. "Méthodologie de conception d'outillages modulaires hybrides basée sur l'évaluation quantitative de la compléxité de fabrication." Ecole Centrale de Nantes, 2009. http://www.theses.fr/2009ECDN0005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

El, gamoussi Sarah. "Proposition d'une méthodologie d'amélioration du Processus de Développement de Produits basée sur une approche Lean." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC052/document.

Full text
Abstract:
Le monde industriel actuel connaît des changements fréquents et parfois brutaux suite aux progrès que connaissent la science et les technologies et aux besoins des clients, qui sont de plus en plus exigeants. Par conséquent, pour faire face à ces perturbations et assurer leur compétitivité, les industriels développent des méthodes pour maîtriser et améliorer leur processus pour plus de performance. Le Lean management est une de ces méthodes qui a pu faire ses preuves dans le pilotage et l’amélioration des processus (en particulier de production).Néanmoins, le Processus de Développement de Produit (PDP) reste le socle des enjeux industriels car c’est à ce stade que les grandes décisions liées à la stratégie, l’organisation, les délais et les coûts de conception et de fabrication sont prises, d’où l’intérêt de développer des méthodes pour piloter et améliorer ce processus. Or, la complexité du PDP rend difficile l’application directe des méthodes Lean déjà existantes.De ce fait, notre projet de recherche a pour objectif de proposer une méthodologie de pilotage et d’amélioration du PDP, basée sur une approche Lean et visant la gestion de la création et de la transformation de la valeur dans ce processus. Cette méthodologie adapte en particulier les deux premiers principes du Lean, à savoir la définition de la valeur et sa cartographie dans le processus considéré.Nous avons donc pu proposer un cadre de définition de la valeur qui puisse s’adapter au cours du temps à la stratégie d’une entreprise. Cette définition vise à une prise en compte exhaustive des parties prenantes du PDP, pour que la valeur soit partagée par tous. Nous avons aussi proposé un outil de cartographie de cette valeur sur le PDP, qui répond aux spécificités du PDP et de la définition de la valeur. L’ensemble de ces travaux ont pu être testés au sein de notre partenaire industriel, Exxelia Technologies
The current industrial world is facing frequent changes, which are sometimes abrupt. This is due to the scientific and technical progresses and increasingly challenging needs of customers. Therefore, to deal with these disruptions and ensure competitiveness, manufacturers are developing methods to control and improve their processes for greater performance. Lean management is one of such methods that has proven its effectiveness in controlling and improving process (especially in manufacturing process). However, the Product Development Process (PDP) remains one of the most important industrial challenges, since it is where PDP actors take the major decisions related to strategy, organization, delay, development and manufacturing costs. That is why methods to control and improve this process have to be developed. Nevertheless, the PDP complexity makes direct application of existing Lean methods difficult. Thus, this research project aims at proposing a methodology for controlling and improving the PDP based on a Lean approach in order to manage the creation and the transformation of the value in this process. This methodology adapts especially the first two principles of Lean, namely the definition of value and its mapping in the given process. We so propose a framework for defining value that can be adapted to the evolutions of the company’s strategy. This definition tries to exhaustively take into account all the PDP stakeholders, so that the value is shared by everyone. We also propose a value mapping tool for the PDP, which complies with PDP specificities and proposed value definition.All these research works have been tested in the industrial partner, Exxelia Technologies
APA, Harvard, Vancouver, ISO, and other styles
15

Dericquebourg, Thomas. "Méthodologie de conception préliminaire robuste des assemblages vissés basée sur des modèles de pré-dimensionnement." Toulouse, INSA, 2009. http://www.theses.fr/2009ISAT0031.

Full text
Abstract:
Dans un contexte de réduction continue des temps de conception, il est primordial d'effectuer des choix pertinents en amont des projets pour limiter les remises en cause tardives, synonymes de perte de temps, et pour permettre une conception simultanée efficace des différents éléments en jeu. Les phases d'avant-projet étant caractérisées par de nombreuses incertitudes et indéterminations des paramètres principaux, les choix réalisés en amont doivent alors être robustes face aux potentielles variations des données et des paramètres au cours du processus de conception. Concernant les assemblages vissés, éléments largement utilisés dans le domaine automobile pour relier différentes pièces qui nécessitent de pouvoir être démontées, les outils nécessaires pour réaliser leur pré-dimensionnement manquent. En effet, bien que de nombreux modèles existent, ils sont essentiellement mono-vis, dédiés à certaines applications précises ou alors trop lourds pour être utilisés en avant-projet. C'est pourquoi une méthodologie de conception préliminaire robuste des assemblages vissés a été développée. La mise en place de cette méthodologie a nécessité le développement d'un modèle local générique d'une liaison vissée et d'une approche globale permettant de prendre en compte des assemblages multi-vis. Ces développements ont été réalisés avec un souci permanent de limitation des temps de calcul pour qu'ils puissent ensuite être intégrés dans une stratégie de conception préliminaire robuste. La méthodologie de conception préliminaire robuste des assemblages vissés se base alors sur un modèle local de pré-dimensionnement qui permet de décrire le comportement complexe d'une liaison vissée de manière quasi-instantanée. Ce modèle local est suffisamment générique pour traiter plusieurs types de pièces et son domaine d'application a été clairement défini pour connaître ses limites. La méthodologie se base ensuite sur un modèle global qui permet de prendre en compte les assemblages multi-vis et donc les interactions entre les différentes liaisons. Cette approche globale permet de décrire le comportement d'un assemblage constitué de plusieurs vis et a été validée sur une famille d'assemblages vissés spécifiée. Enfin, à partir de ces modèles de pré-dimensionnement développés, une stratégie de pré-conception robuste a été mise en place. Cette stratégie consiste à balayer différentes configurations possibles pour concevoir un assemblage vissé et à estimer les risques de défaillance ainsi que les coûts prévisionnels associés. Elle met en oeuvre des plans d'expériences optimisés ainsi qu'une démarche de regroupement de solutions innovante afin de pouvoir donner des préconisations de forme de l'assemblage et ainsi guider la phase suivante de conception détaillée. Cette méthodologie permet au final de donner, en un temps réduit, un ensemble d'informations pertinentes sur les risques de défaillances des configurations potentielles ainsi que sur leurs coûts prévisionnels afin que le concepteur puisse faire un choix réfléchi de configuration d'un assemblage vissé en phase avant-projet avec une maîtrise du risque et du coût
In the current context, consisting in continually reducing the design process duration, it is fundamental to make relevant choices upstream of the projects so as to avoid late reconsiderations, that are time and resources consuming, and to enable an efficient concurrent engineering. The first steps of the design process are characterized by the uncertainties and the main parameters indeterminations. As a result, the first choices have to be robust against the potential data and parameters variations that may appear all along the design process. In the automotive industries, the bolted joints are widespread since they are practical for setting up removable junctions between subassemblies. However, tools for pre-dimensioning them are lacking. Although numerous models do exist, they essentially handle single-bolt joints or specific applications, or the models are too much time consuming to be used in a preliminary phase. That is why a robust approach to the preliminary design of bolted joints has been developed. This approach is firstly based on the development of pre-dimensioning models, a generic local model dedicated to describe a single bolt joint and a global model in order to take into consideration multi-bolted joints. The reduced time requirement has continually be considered so as to then integrate theses models in a preliminary robust design strategy. The robust approach to the preliminary design of bolted joints uses a local pre-dimensioning model to describe the complex behavior of a bolted-joint in a very short time. This model is generic enough to handle several kinds of parts and its validity field has been clearly defined to know its limits. The methodology is then based on a global model that enables to consider multi-bolted joints and so their mutual interactions. This approach has been validated on a specified bolted joints category. Eventually a robust pre-design strategy has been carried out from the previous models. This strategy consists in scanning different potential configurations in order to design a multi-bolted joint assembly and in estimating the associated risks and the projected costs for each configuration. In this strategy, optimized designs of experiments are used as well as an innovative clustering approach to aggregate solutions and then to give some shape recommendations of the assembly and so to guide the sequel step of detail design. Actually, the overall methodology allows to give a set of relevant information concerning the faulty risks and the projected costs of possible solutions in a reduced time. These data can then help the designer to make the best choices of a configuration for a bolted joints assembly in a preliminary design with a risk and cost control
APA, Harvard, Vancouver, ISO, and other styles
16

Kallel, Asma. "Modélisation et conception d'une antenne plasma à balayage basée sur des ondes de fuite." Phd thesis, Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2514/.

Full text
Abstract:
Nous proposons dans cette thèse l'étude et la conception d'une antenne plasma à onde de fuite reconfigurable, en tirant profit du caractère accordable de la permittivité des décharges plasma par la puissance. La reconfigurabilité de l'antenne fonctionnant à fréquence fixe consiste au contrôle de la direction de rayonnement par la densité électronique du plasma, elle-même commandée par la puissance d'une source plasma radiofréquence externe fonctionnant à 13. 56 MHz. Le travail s'organise en trois parties. Dans un premier temps, nous développons un modèle théorique pour étudier les ondes de fuite dans une configuration canonique 2D. Ce modèle permet de dimensionner les paramètres de l'antenne : permittivité, épaisseur et longueur du plasma. Des simulations avec un logiciel de simulation permettent de valider ce modèle. Nous réalisons dans ce travail le dimensionnement d'une antenne fonctionnant à 10 GHz. Le balayage angulaire du rayonnement d'une soixantaine de degrés obtenu avec cette antenne nécessite une densité électronique du plasma allant jusqu'à. La deuxième partie du travail concerne l'aspect plasma. Nous choisissons tout d'abord une source plasma radiofréquence à couplage inductif pour notre antenne car répond aux critères fixés par le dimensionnement. Nous passons ensuite à la réalisation expérimentale de ce type de plasma ce qui nous permet de vérifier ces critères. Enfin, nous passons aux conditions expérimentales avec des simulations de l'antenne en 3D. Nous réalisons ensuite un prototype de l'antenne
In this work, a beam scanning leaky-wave antenna working at a fixed operating frequency and constructed from a grounded plasma layer is proposed. The radiation angle can be tuned by the plasma electron density which is controlled by the power. A 2D theoretical model based on a canonical structure is proposed to study the leaky waves. The antenna parameters (plasma thickness, length and permittivity) are dimensioned using this theoretical model, at 10 GHz, and a microwave source is chosen to excite the antenna. The scanning range of about 60° needs a plasma reaching an electron density of. In a second step an inductively coupled plasma source is chosen since it meets the dimensioning requirements. The measurements of the plasma parameters confirm the requirements. Finally, the antenna prototype is designed
APA, Harvard, Vancouver, ISO, and other styles
17

Kallel, Asma. "Modélisation et conception d'une antenne plasma à balayage basée sur des ondes de fuite." Phd thesis, Toulouse 3, 2014. http://oatao.univ-toulouse.fr/14142/1/kallel.pdf.

Full text
Abstract:
Nous proposons dans cette thèse l‘étude et la conception d‘une antenne plasma à ondes de fuite reconfigurable, en tirant profit du caractère accordable de la permittivité des décharges plasma par la puissance. La reconfigurabilité de l‘antenne fonctionnant à fréquence fixe consiste au contrôle de la direction de rayonnement par la densité électronique du plasma, elle-même commandée par la puissance d‘une source plasma radiofréquence externe fonctionnant à 13.56 MHz. Le travail s‘organise en trois parties. Dans un premier temps, nous développons un modèle théorique pour étudier les ondes de fuite dans une configuration canonique 2D. Ce modèle permet de dimensionner les paramètres de l‘antenne : permittivité, épaisseur et longueur du plasma. Des simulations avec un logiciel de simulation permettent de valider ce modèle. Nous réalisons dans ce travail le dimensionnement d‘une antenne fonctionnant à 10 GHz. Le balayage angulaire du rayonnement d‘une soixantaine de degrés obtenu avec cette antenne nécessite une densité électronique du plasma allant jusqu‘à . La deuxième partie du travail concerne l‘aspect plasma. Nous choisissons tout d‘abord une source plasma radiofréquence à couplage inductif pour notre antenne car répond aux critères fixés par le dimensionnement. Nous passons ensuite à la réalisation expérimentale de ce type de plasma ce qui nous permet de vérifier ces critères. Enfin, nous passons aux conditions expérimentales avec des simulations de l‘antenne en 3D. Nous réalisons ensuite un prototype de l‘antenne.
APA, Harvard, Vancouver, ISO, and other styles
18

Lecomte, Stéphane. "Méthodologie de conception basée sur les modèles de haut niveau pour les systèmes de radio logicielle." Rennes 1, 2011. http://www.theses.fr/2011REN1S142.

Full text
Abstract:
Dans cette thèse nous proposons une méthodologie de co-conception logicielle/matérielle pour les systèmes de radio logicielle, et plus généralement pour les systèmes électroniques embarqués, permettant de répondre aux défis imposés par la conception de tels systèmes et d'améliorer la productivité. Basée sur une démarche de conception dirigée par les modèles (dérivée de l'ingénierie dirigée par les modèles), notre méthodologie de co-conception permet une modélisation de haut niveau, depuis des modèles UML/MARTE (extension de l'UML dédié à la modélisation matérielle), jusqu'à la mise en oeuvre matérielle (génération de code VHDL) par un jeu de transformations successives et de raffinements itératifs des modèles. Pour cela, nous avons défini le niveau de modélisation intermédiaire, intitulé Execution Modeling Level, qui permet de se focaliser sur le partitionnement logiciel/matériel et sur l'exploration d'architecture afin de dimensionner la plate-forme matérielle. Afin de compléter la génération de code matérielle associée à cette méthodologie, nous mettons en avant l'intérêt de coupler une méthodologie basée sur des modèles de haut niveau avec la synthèse comportementale, ce que nous illustrons au travers de la mise en oeuvre d'un décodeur MIMO. Enfin, dans un contexte de radio-logicielle, nous proposons une extension de la méthodologie afin de prendre en compte le caractère flexible des systèmes embarqués. Pour cela, nous avons intégré à notre méthodologie une architecture de gestion de la reconfiguration proposée par Supélec. Une exécution de modèles de haut niveau sur une plate-forme radio réelle nous a permis de valider notre approche
In this thesis, we suggest a hardware/software co-design methodology for software radio systems, and more generally for flexible embedded electronics systems, allowing to answer the new design challenges it imposes and to improve the productivity. Our co-design methodology is based on a high-level UML/MARTE (extension of UML dedicated to the hardware modeling) modeling approach. Based on model driven architecture (derived from model driven engineering), our methodology allows to start at a highlevel modeling level and go down to the hardware implementation (generation of VHDL code) by successive rules of transformation and iterative refinements of the models. For that, we defined the middle level of modeling, e. G. Execution Modeling Level, which allows focusing on hardware/software partitioning and focusing on the exploration of architecture to design the hardware platform. To complete the generation of the hardware design language, associated with this methodology, we recommend to couple a co-design methodology based on high-level models with the behavioral synthesis concept. This approach is illustrated with a MIMO decoder example. Finally, in the software radio context, we suggest an extension of the methodology in order to take into account the flexibility of the embedded systems. For that, we include into our methodology an architecture defined at Supélec to manage the reconfiguration. An execution of high-level models on a real radio platform allowed to validate our approach
APA, Harvard, Vancouver, ISO, and other styles
19

Pham, Hoang Anh. "Coordination de systèmes sous-marins autonomes basée sur une méthodologie intégrée dans un environnement Open-source." Electronic Thesis or Diss., Toulon, 2021. http://www.theses.fr/2021TOUL0020.

Full text
Abstract:
Cette thèse étudie la coordination de robots sous-marins autonomes dans le contexte d’exploration de fonds marins côtiers ou d’inspections d’installations. En recherche d’une méthodologie intégrée, nous avons créé un framework qui permet de concevoir et simuler des commandes de robots sous-marins low-cost avec différentes hypothèses de modèle de complexité croissante (linéaire, non-linéaire, et enfin non-linéaire avec des incertitudes). Sur la base de ce framework articulant plusieurs outils, nous avons étudié des algorithmes pour résoudre le problème de la mise en formation d’un essaim, puis celui de l’évitement de collisions entre robots et celui du contournement d’obstacle d’un groupe de robots sous-marins. Plus précisément, nous considérons d'abord les modèles de robot sous-marin comme des systèmes linéaires de type simple intégrateur, à partir duquel nous pouvons construire un contrôleur de mise en formation en utilisant des algorithmes de consensus et d’évitement. Nous élargissons ensuite ces algorithmes pour le modèle dynamique non linéaire d’un robot Bluerov dans un processus de conception itératif. Nous intégrons ensuite un réseau de neurones de type RBF (Radial Basis Function), déjà éprouvé en convergence et stabilité, avec le contrôleur algébrique pour pouvoir estimer et compenser des incertitudes du modèle du robot. Enfin, nous décrivons les tests de ces algorithmes sur un essaim de robots sous-marins réels BlueROV en environement Opensource de type ROS et programmés en mode autonome. Ce travail permet également de convertir un ROV téléopéré en un hybride ROV-AUV autonome. Nous présentons des résultats de simulation et des essais réels en bassin validant les concepts proposés
This thesis studies the coordination of autonomous underwater robots in the context of coastal seabed exploration or facility inspections. Investigating an integrated methodology, we have created a framework to design and simulate low-cost underwater robot controls with different model assumptions of increasing complexity (linear, non-linear, and finally non-linear with uncertainties). By using this framework, we have studied algorithms to solve the problem of formation control, collision avoidance between robots and obstacle avoidance of a group of underwater robots. More precisely, we first consider underwater robot models as linear systems of simple integrator type, from which we can build a formation controller using consensus and avoidance algorithms. We then extend these algorithms for the nonlinear dynamic model of a Bluerov robot in an iterative design process. Then we have integrated a Radial Basis Function neural network, already proven in convergence and stability, with the algebraic controller to estimate and compensate for uncertainties in the robot model. Finally, we have presented simulation results and real basin tests to validate the proposed concepts. This work also aims to convert a remotely operated ROV into an autonomous ROV-AUV hybrid
APA, Harvard, Vancouver, ISO, and other styles
20

Gacem, Amina. "Méthodologie d’évaluation de performances basée sur l’identification de modèles de comportements : applications à différentes situations de handicap." Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0053.

Full text
Abstract:
L'évaluation de performance est un processus important pour identifier les capacités d'une personne et ses limites. L'évaluation, à l'heure actuelle, repose sur l'intervention subjective d'une personne experte (médecin, ergothérapeute, etc. ) qui doit effectuer des analyses et des tests différents pour aboutir à une décision. Dans la littérature, plusieurs travaux proposent différentes méthodes d'évaluation plus objectives reposant sur des critères et des indicateurs de performance : il s'agit d'une évaluation quantitative. Ce type d'évaluation est basé généralement sur des analyses statistiques. Le travail effectué dans cette thèse consiste à proposer une nouvelle méthodologie d'évaluation de performance basée sur l'identification de modèles de comportement. La démarche, que nous adoptons, permet de déterminer, à partir d'indicateurs de performance, des comportements de référence généralement issus de l'évaluation fonctionnelle de personnes expérimentées dans le domaine. Ces comportements serviront ensuite de références pour l'évaluation d'autres personnes. L'identification de comportements de référence est donc un élément essentiel de notre travail. Il est basé sur des méthodes de classification. Dans le cadre de ce travail, nous avons testé deux méthodes différentes. La première est la méthode de "Fuzzy C-means" qui permet une recherche approfondie de comportements de référence mais ceux-ci sont représentés par des indicateurs représentatifs. La deuxième est la méthode de "Hidden Markov Models". Celle-ci permet de représenter un comportement par sa variation dans le temps mais elle nécessite une phase d'apprentissage coûteuse permettant de modéliser les comportements de référence. Cette méthodologie d'évaluation a été testée dans le cadre d'applications de différentes fonctions d'interface de commande : la conduite de fauteuil roulant électrique, la conduite d'automobile et l'utilisation des interfaces de pointage bureautiques. Dans chaque application, un protocole et une mise en situation écologique sont définis pour évaluer les participants sur des plateformes fonctionnelles faisant intervenir des interfaces de commande variées (joystick, souris, volant, etc. ). Ensuite, des outils statistiques sont utilisés afin d'analyser les données et de fournir ainsi une première interprétation des comportements. L'application de notre méthodologie dans chacune des situations étudiées permet d'identifier automatiquement différents comportements de référence. Ensuite, l'évaluation fonctionnelle des personnes, effectuée par comparaison aux comportements de références identifiés, a permis d'identifier différents niveaux d'expertise. Le processus d'évaluation permet d'illustrer l'évolution de l'apprentissage durant l'évaluation et de détecter la stabilité de la personne. La méthodologie d'évaluation proposée est un processus itératif permettant d'enrichir la population de personnes d'expérimentées par les personnes devenues stables à l'issue de l'évaluation. Ceci permet donc la recherche de nouveaux comportements de référence
The performance assessment is an important process to identify the abilities and the limits of a person. Currently, the assessment requires the mediation of a specialist (doctor, therapist, etc. ) which must performs analysis and tests to reach a subjective decision. In the literature, several works propose assessment methods based on performance criteria: it is a quantitative evaluation which is objective. This type of evaluation is usually based on statistical analysis. In this work, a new methodology of performance assessment is proposed. It is based on the identification of reference behaviours. Those behaviours are then used as references for the evaluation of other people. The identification of reference behaviours is an essential element of our work. It is based on classification methods. In our work, we have tested two different methods. The first one is the "Fuzzy C-means" which allows a thorough search of reference behaviours. However, behaviours are represented by proxy criteria. The second method is the "Hidden Markov Models". It offers a time series analysis based on the temporal behaviour variation. However, it is not easy to determine the training phase of this method. This assessment methodology has been applied in the context of different applications designed for disabled people: driving electric wheelchair, driving an automobile and the use of pointing devices (mouse, trackball, joystick, etc. ). In each application, a protocol and an ecological situation are defined in order to evaluate participants on different platforms involving functional control interfaces (joystick, mouse, steering wheel, etc. ). Then, statistical tools are used to analyze the data and provide a first interpretation of behaviours. The application of our methodology identifies different reference behaviours and the assessment by comparing behaviours let to identify different levels of expertise. In each of the studied applications, our methodology identifies automatically different reference behaviours. Then, the assessment of people, carried out by comparing to the reference behaviours, let identify different levels of expertise and illustrate the evolution of learning during the assessment. The proposed evaluation methodology is an iterative process. So that, the population of experienced people can be enriched by adding people who become stable after assessment. Therefore, this allows the search for new reference behaviours
APA, Harvard, Vancouver, ISO, and other styles
21

Pierret, Jean-Dominique. "Méthodologie et structuration d'un outil de découverte de connaissances basé sur la littérature biomédicale : une application basée sur l'exploitation du MeSH." Toulon, 2006. http://tel.archives-ouvertes.fr/tel-00011704.

Full text
Abstract:
L´information disponible dans les bases de données bibliographiques est une information datée, validée par un processus long qui la rend peu innovante. Dans leur mode d´exploitation, les bases de données bibliographiques sont classiquement interrogées de manière booléenne. Le résultat d´une requête est donc un ensemble d´informations connues qui n´apporte en lui-même aucune nouveauté. Pourtant, en 1985, Don Swanson propose une méthode originale pour extraire de bases de donnés une information innovante. Son raisonnement est basé sur une exploitation systématique de la littérature biomédicale afin de dégager des connexions latentes entre différentes connaissances bien établies. Ses travaux montrent le potentiel insoupçonné des bases bibliographiques dans la révélation et la découverte de connaissances. Cet intérêt ne tient pas tant à la nature de l´information disponible qu´à la méthodologie utilisée. Cette méthodologie générale s´applique de façon privilégiée dans un environnement d´information validée et structurée ce qui est le cas de l´information bibliographique. Nous proposons de tester la robustesse de la théorie de Swanson en présentant les méthodes qu´elle a inspirées et qui conduisent toutes aux mêmes conclusions. Nous exposons ensuite, comment à partir de sources d´information biomédicales publiques, nous avons développé un système de découverte de connaissances basé sur la littérature
The information available in bibliographic databases is dated and validated by a long process and becomes not very innovative. Usually bibliographic databases are consultated in a boolean way. The result of a request represente is a set of known which do not bring any additional novelty. In 1985 Don Swanson proposed an original method to draw out innovative information from bibliographic databases. His reasoning is based on systematic use of the biomedical literature to draw the latent connections between different well established knowledges. He demonstrated unsuspected potential of bibliographic databases in knowledge discovery. The value of his work did not lie in the nature of the available information but consisted in the methodology he used. This general methodology was mainly applied on validated and structured information that is bibliographic information. We propose to test the robustness of Swanson's theory by setting out the methods inspired by this theory. These methods led to the same conclusions as Don Swanson's ones. Then we explain how we developed a knowledge discovery system based on the literature available from public biomedical information sources
APA, Harvard, Vancouver, ISO, and other styles
22

Hobeika, Christelle. "Méthodologie de vérification automatique basée sur l'utilisation des tests structurels de transition avec insertion de registres à balayage." Mémoire, École de technologie supérieure, 2011. http://espace.etsmtl.ca/931/1/HOBEIKA_Christelle.pdf.

Full text
Abstract:
Au cours des dernières décennies, l’évolution de la technologie n'a cessé d’introduire de nouveaux défis dans la vérification des circuits intégrés (IC). L'industrie estime que la vérification fonctionnelle prend environ 50% à 70% de l'effort total d’un projet. Et, malgré les budgets et les efforts investis dans la vérification, les résultats obtenus ne sont pas satisfaisants. La vérification basée sur la simulation, également appelée vérification dynamique, est la technique la plus utilisée dans la vérification fonctionnelle. Par contre, ce type de vérification a clairement échoué à suivre le rythme de croissance de la complexité. Par conséquent, des solutions innovantes sont requises, avec la concurrence sur les produits et les services ainsi que l’implacable loi du temps de mise sur le marché. Plusieurs techniques ont été développées pour surmonter les défis de la vérification dynamique, allant de techniques entièrement manuelles à des techniques plus avancées. Les techniques manuelles et semi-manuelles ne peuvent être utilisées pour les designs complexes, et les approches les plus avancées qui sont couramment utilisés dans l'industrie ont besoin de compétences particulières et beaucoup d’efforts afin d'atteindre une bonne productivité de vérification. Au niveau du test par contre, l'utilisation d'approches basées sur des modèles de pannes et sur les concepts de conception en vue du test (DFT), a conduit au développement d’outils automatiques de génération de test (ATPG) efficaces. L'infrastructure de test qui en résulte a grandement aidé la communauté du test à résoudre plusieurs problèmes. Dans cette thèse, nous nous intéressons principalement à la productivité du processus de vérification, plus particulièrement la vérification de circuits séquentiels. Nous proposons une nouvelle méthodologie qui explore la combinaison du test et de la vérification, plus précisément l'utilisation des tests structurels de transition dans le processus de vérification RT basée sur la simulation. Cette méthodologie a pour but de réduire le temps et les efforts requis pour vérifier un circuit et d'améliorer la couverture résultante, induisant des améliorations significatives de la qualité de la vérification et de sa productivité. La base de la méthodologie proposée est l'intuition (qui est devenu une observation), selon laquelle ce qui est difficile à tester (« Hard Fault ») est probablement difficile à vérifier (« Dark Corner »). L'objectif est de tirer profit des outils de test efficaces tels que les outils ATPG, et les techniques DFT tels que l’insertion des registres a balayage afin de simuler efficacement la fonctionnalité du design avec un minimum de temps et d'efforts. Sur la base de tous ces concepts, nous avons développé un environnement de vérification RTL automatisé composé de trois outils de base: 1) un extracteur de contraintes qui identifie les contraintes fonctionnelles de conception, 2) un outil générateur de banc d'essai, et 3) un détecteur d’erreurs basé sur une observabilité élevée. Les résultats expérimentaux montrent l'efficacité de la méthode de vérification proposée. Les couvertures de code et d’erreurs obtenues suite à la simulation avec l’environnement proposé sont égales à, et la plupart des fois plus élevé que, celles obtenues avec d'autres approches connues de vérification. En plus des améliorations de couverture, il y a une réduction remarquable de l'effort et du temps nécessaire pour vérifier les designs.
APA, Harvard, Vancouver, ISO, and other styles
23

Leroux-Beaudout, Renan. "Méthodologie de conception de systèmes de simulations en entreprise étendue, basée sur l'ingénierie système dirigée par les modèles." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30089.

Full text
Abstract:
Ce manuscrit présente une méthodologie pour la conception de systèmes de simulation de modèles en entreprise étendue, basée sur l'ingénierie système dirigée par les modèles. Le but est de permettre à l'architecte système d'explorer des solutions alternatives et de vérifier et/ou valider l'architecture du système en cours de conception, en regard des exigences et besoins des parties prenantes. Cette méthodologie se décline suivant deux axes complémentaires : la partie méthode et les moyens d'exécution, sans lesquels il ne peut y avoir de simulation. Cette nouvelle méthode se fonde sur le principe suivant : partir des exigences utilisateur pour créer les modèles d'architecture système, puis en dériver l'architecture de simulation, développer les modèles exécutables et exécuter la simulation en relation avec les objectifs de vérification et/ou validation. En agissant ainsi, les écarts d'interprétations potentiels entre le modèle d'architecture système et les modèles de simulation sont supprimés ou à tout le moins réduits, par rapport à une approche traditionnelle. Cette nouvelle méthode est de type matriciel. Les colonnes représentent les acteurs, tandis que les lignes correspondent aux différentes étapes de la méthode MBSE employée par l'architecte système pour le produit, y compris les étapes de raffinements. Les acteurs sont l'architecte système pour le produit (SyA), un premier nouvel acteur introduit par cette méthode : l'architecte système pour la simulation (SiA), les développeurs des modèles exécutables de simulation (SMD). Un second nouvel acteur est en charge de l'exécution de la simulation (SEM) au sein de chacune des entreprises, en charge de l'analyse et de la production des résultats exploitables par l'architecte système pour le produit. Avec cette méthode matricielle, le SyA peut demander des simulations, soit en profondeur pour préciser un point particulier de son modèle, soit en extension pour vérifier la bonne concordance des fonctions entre elles, tout en réutilisant des fonctions déjà définies durant les étapes amont ou aval de ses décompositions précédentes. Au global, gains de temps, de coûts, et de confiance. Le deuxième axe de cette méthodologie concerne la réalisation d'une plateforme de cosimulation en entreprise étendue (EE), qui est un projet en soi. Le MBSE a permis de définir une architecture fonctionnelle et physique de cette plateforme de cosimulation qui peut être amendée en fonction des besoins exprimés par l'architecte de la simulation. La proposition introduit un troisième nouvel acteur : le Infrastructure Project Manager (IPM) qui est en charge de la coordination pour la réalisation de la plateforme de cosimulation, au sein de son entreprise. Pour une EE de type donneur d'ordres à soustraitants, introduction de deux nouveaux acteurs : le superviseur d'IPM et le responsable de l'exécution des simulations (SEM), dont leurs rôles respectifs sont de faire le lien avec leurs pendants chez les partenaires
This manuscript presents a methodology for the design of "early" simulations in extended enterprise, based on model-driven system engineering. The goal is to allow the system architect to explore alternative solutions, and to verify and/or validate the system architecture being designed, in relation to the user requirements. This methodology is divided into two complementary axes : the method part (new) and the means of execution, without which there can be no simulation. This new method is based on the following principle : starting from the user requirements to create the system architecture model, then derive the simulation architecture, develop the executable models and run the simulation in relation to objectives of verification and/or validation. By doing this, potential differences in interpretations between the system architecture model and simulation models are removed or at least reduced compared to a traditional approach. This method is of matrix type. The columns represent the actors, while the lines correspond to the different steps of the MBSE method used by the system architect for the product, including the refinement steps. The actors are the system architect for the product (SyA), a first new actor introduced by this method : the system architect for the simulation (SiA), the developers of the simulation executable models (SMD), and the second new actor in charge of the execution of the simulation (SEM). The analysis of its qualities and the production of results exploitable by the system architect for the product. As the method relies on a matrix structure, the SyA can request simulations, either in depth to specify a particular point of its model, or more in extension to check the good agreement of the functions between them. With this new matrix approach, the system architect for the product can reuse functions already defined during the upstream or downstream stages of its previous decompositions. Overall, saving time, costs, and confidence. The second axis of this methodology is the realization of an extended enterprise cosimulation (EE) platform, which is a project in itself. Based on a proposal of requirements specifications, the MBSE has defined a functional and physical architecture. The architecture of this platform can be modified according to the simulation needs expressed by the architect of the simulation. This is one of his prerogatives. The proposal introduces a third new player : the Infrastructure Project Manager (IPM) which is in charge of coordinating for the realization of the cosimulation platform, within his company. For an EE of federated type, that is to say from contractor to subcontractor, introduction of two new actors : - the supervisor of IPM, whose rôle is to link IPMs to solve the administrative and interconnection problems, - the person responsible in charge of the execution simulations. He coordinates, with the SEM of each partner, the implementation of simulations, ensures launches, and returns the results to all partners
APA, Harvard, Vancouver, ISO, and other styles
24

Rojas, Jhojan Enrique. "Méthodologie d’analyse de fiabilité basée sur des techniques heuristiques d’optimisation et modèles sans maillage : applications aux systèmes mécaniques." Thesis, Rouen, INSA, 2008. http://www.theses.fr/2008ISAM0003/document.

Full text
Abstract:
Les projets d'Ingénierie Structurale doivent s’adapter aux critères de performance, de sécurité, de fonctionnalité, de durabilité et autres, établis dans la phase d’avant-projet. Traditionnellement, les projets utilisent des informations de nature déterministe comme les dimensions, les propriétés des matériaux et les charges externes. Toutefois, la modélisation des systèmes structuraux complexes implique le traitement des différents types et niveaux d'incertitudes. Dans ce sens, la prévision du comportement doit être préférablement faite en termes de probabilités puisque l'estimation de la probabilité de succès d'un certain critère est une nécessité primaire dans l’Ingénierie Structurale. Ainsi, la fiabilité est la probabilité rapportée à la parfaite opération d'un système structural donné durant un certain temps en des conditions normales d'opération pour trouver le meilleur compromis entre coût et sécurité pour l’élaboration des projets. Visant à pallier les désavantagés des méthodes traditionnelles FORM et SORM (First and Second Order Reliability Method), cette thèse propose une méthode d’analyse de fiabilité basée sur des techniques d’optimisation heuristiques (HBRM, Heuristic-based Reliability Method). Les méthodes heuristiques d’optimisation utilisées par cette méthode sont : Algorithmes Génétiques (Genetic Algorithms), Optimisation par Essaims Particulaires (Particle Swarm Optimisation) et Optimisation par Colonie de Fourmis (Ant Colony Optimization). La méthode HBRM ne requiert aucune estimation initiale de la solution et opère selon le principe de la recherche multi-directionnelle, sans besoin de calculer les dérivées partielles de la fonction d’état limite par rapport aux variables aléatoires. L’évaluation des fonctions d’état limite est réalisée en utilisant modèles analytiques, semi analytiques et numériques. Dans ce but, la mise en oeuvre de la méthode de Ritz (via MATLAB®), la méthode des éléments finis (via MATLAB® et ANSYS®) et la méthode sans maillage de Galerkin (Element-free Galerkin sous MATLAB®) a été nécessaire. La combinaison d’analyse de fiabilité, des méthodes d’optimisation et méthodes de modélisation, ci-dessus mentionnées, configure la méthodologie de conception fiabiliste proposée dans ce mémoire. L’utilisation de différentes méthodes de modélisation et d’optimisation a eu pour objectif de mettre en évidence leurs avantages et désavantages pour des applications spécifiques, ainsi pour démontrer l’applicabilité et la robustesse de la méthodologie de conception fiabiliste en utilisant ces techniques numériques. Ce qui a été possible grâce aux bons résultats trouvés dans la plupart des applications. Dans ce sens, des applications uni, bi et tridimensionnelles en statique, stabilité et dynamique des structures explorent l’évaluation explicite et implicite des fonctions d’état limite de plusieurs variables aléatoires. Procédures de validation déterministe et analyses stochastiques, et la méthode de perturbation de Muscolino, donnent les bases de l’analyse de fiabilité des applications en problèmes d’interaction fluide-structure bi et tridimensionnelles. La méthodologie est particulièrement appliquée à une structure industrielle. Résultats de applications uni et bidimensionnelles aux matériaux composites stratifiés, modélisés par la méthode EFG sont comparés avec les obtenus par éléments finis. A la fin de la thèse, une extension de la méthodologie à l’optimisation fiabiliste est proposée à travers la méthode des facteurs optimaux de sûreté. Pour cela, sont présentes des applications pour la minimisation du poids, en exigent un indice de fiabilité cible, aux systèmes modélisés par la méthode de EF et par la méthode EFG
Structural Engineering designs must be adapted to satisfy performance criteria such as safety, functionality, durability and so on, generally established in pre-design phase. Traditionally, engineering designs use deterministic information about dimensions, material properties and external loads. However, the structural behaviour of the complex models needs to take into account different kinds and levels of uncertainties. In this sense, this analysis has to be made preferably in terms of probabilities since the estimate the probability of failure is crucial in Structural Engineering. Hence, reliability is the probability related to the perfect operation of a structural system throughout its functional lifetime; considering normal operation conditions. A major interest of reliability analysis is to find the best compromise between cost and safety. Aiming to eliminate main difficulties of traditional reliability methods such as First and Second Order Reliability Method (FORM and SORM, respectively) this work proposes the so-called Heuristic-based Reliability Method (HBRM). The heuristic optimization techniques used in this method are: Genetic Algorithms, Particle Swarm Optimization and Ant Colony Optimization. The HBRM does not require initial guess of design solution because it’s based on multidirectional research. Moreover, HBRM doesn’t need to compute the partial derivatives of the limit state function with respect to the random variables. The evaluation of these functions is carried out using analytical, semi analytical and numerical models. To this purpose were carried out the following approaches: Ritz method (using MATLAB®), finite element method (through MATLAB® and ANSYS®) and Element-free Galerkin method (via MATLAB®). The combination of these reliability analyses, optimization procedures and modelling methods configures the design based reliability methodology proposed in this work. The previously cited numerical tools were used to evaluate its advantages and disadvantages for specific applications and to demonstrate the applicability and robustness of this alternative approach. Good agreement was observed between the results of bi and three-dimensional applications in statics, stability and dynamics. These numerical examples explore explicit and implicit multi limit state functions for several random variables. Deterministic validation and stochastic analyses lied to Muscolino perturbation method give the bases for reliability analysis in 2-D and 3-D fluidstructure interaction problems. This methodology is applied to an industrial structure lied to a modal synthesis. The results of laminated composite plates modelled by the EFG method are compared with their counterparts obtained by finite elements. Finally, an extension in reliability based design optimization is proposed using the optimal safety factors method. Therefore, numerical applications that perform weight minimization while taking into account a target reliability index using mesh-based and meshless models are proposed
Os projectos de Engenharia Estrutural devem se adaptar a critérios de desempenho, segurança, funcionalidade, durabilidade e outros, estabelecidos na fase de anteprojeto. Tradicionalmente, os projectos utilizam informações de natureza deterministica nas dimensões, propriedades dos materiais e carregamentos externos. No entanto, a modelagem de sistemas complexos implica o tratamento de diferentes tipos e níveis de incertezas. Neste sentido, a previsão do comportamento deve preferivelmente ser realizada em termos de probabilidades dado que a estimativa da probabilidade de sucesso de um critério é uma necessidade primária na Engenharia Estrutural. Assim, a confiabilidade é a probabilidade relacionada à perfeita operação de um sistema estrutural durante um determinado tempo em condições normais de operação. O principal objetivo desta análise é encontrar o melhor compromisso entre custo e segurança. Visando a paliar as principais desvantagens dos métodos tradicionais FORM e SORM (First and Second Order Reliability Method), esta tese propõe um método de análise de confiabilidade baseado em técnicas de optimização heurísticas denominado HBRM (Heuristic-based Reliability Method). Os métodos heurísticos de otimização utilizados por este método são: Algoritmos Genéticos (Genetic Algorithms), Optimização por Bandos Particulares (Particle Swarm Optimisation) e Optimização por Colónia de Formigas (Ant Colony Optimization). O método HBRM não requer de uma estimativa inicial da solução e opera de acordo com o princípio de busca multidirecional, sem efetuar o cálculo de derivadas parciais da função de estado limite em relação às variáveis aleatórias. A avaliação das funções de estado limite é realizada utilizando modelos analíticos, semi analíticos e numéricos. Com este fim, a implementação do método de Ritz (via MATLAB®), o método dos elementos terminados (via MATLAB® e ANSYS®) e o método sem malha de Galerkin (Element-free Galerkin via MATLAB®) foi necessária. A combinação da análise de confiabilidade, os métodos de optimização e métodos de modelagem, acima mencionados, configura a metodologia de projeto proposta nesta tese. A utilização de diferentes métodos de modelagem e de otimização teve por objetivo destacar as suas vantagens e desvantagens em aplicações específicas, assim como demonstrar a aplicabilidade e a robustez da metodologia de análise de confiabilidade utilizando estas técnicas numéricas. Isto foi possível graças aos bons resultados encontrados na maior parte das aplicações. As aplicações foram uni, bi e tridimensionais em estática, estabilidade e dinâmica de estruturas, as quais exploram a avaliação explícita e implícita de funções de estado limite de várias variáveis aleatórias. Procedimentos de validação déterministica e de análises estocásticas, aplicando o método de perturbação de Muscolino, fornecem as bases da análise de confiabilidade nas aplicações de problemas de iteração fluído-estrutura bi e tridimensionais. A metodologia é testada com uma estrutura industrial. Resultados de aplicações bidimensionais em estratificados compostos, modelados pelo método EFG são comparados com os obtidos por elementos finitos. No fim da tese, uma extensão da metodologia à optimização baseada em confiabilidade é proposta aplicando o método dos factores óptimos de segurança. Finalmente são apresentadas as aplicações para a minimização do peso em sistemas modelados pelo método de EF e o método EFG que exigem um índice de confiabilidade alvo
APA, Harvard, Vancouver, ISO, and other styles
25

Correa, Matthieu. "Développement et validation d'une méthodologie basée sur la mécanomyographie pour analyser les variations d'effort et la fatigue musculaire." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASW005.

Full text
Abstract:
Aujourd'hui, la prévention des troubles musculo-squelettiques constitue un enjeu de santé publique majeur. Parmi les facteurs de risque d'apparition de ces troubles, la fatigue joue un rôle prépondérant. L'utilisation de l'éléctromyographie( EMG) sur le terrain est la méthode de référence pour le détection de la fatigue, mais présente plusieurs limites fonctionnelles pour une utilisation en routine dans le cadre professionnel. La mécanomyographie (MMG), qui mesure les vibrations des fibres musculaires actives, pourrait constituer une alternative pertinente pour mesurer l'activité musculaire et la fatigue associée. Cependant, les données de MMG intègrent les accélérations du mouvement, ce qui constitue sa principale limite.Dans ces travaux de thèse, nous avons tout d'abord comparé les données EMG et MMG en condition sisométriques.Puis nous avons montré que la MMG était plus sensible aux variations d'efforts dynamiques que l'EMG lors de soulevés de charges contrôlés à vitesse constante. Nous avons également proposé une nouvelle méthode de filtrage adaptative des artefacts du mouvement qui a été comparée à une méthode de filtrage traditionnelle. Enfin, nous avons montré que la MMG, comme l'EMG,permettait de détecter la fatigue musculaire des membres supérieurs lors de manutentions de charges répétées. Certaines bandes de fréquence du signal MMG sont à considérer pour une détection optimale de la fatigue musculaire sur le terrain. L'ensemble de ces résultats ont été discutés et confrontés à la littérature, dans le but de défini rle meilleur cadre d'utilisation de la méthode MMG dans le but de mieux prévenir les blessures au travail
Today, the prevention of musculoskeletal disorders is a major public health challenge. Among the risk factors for the development of these disorders, fatigue plays a predominant role. Electromyography (EMG) is the reference method for detecting fatigue in the field, but it has several functional limitations for routine use in professional settings. Mechanomyography (MMG), which measures the vibrations of active muscle fibers, could be a relevant alternative for measuring muscle activity and associated fatigue. However, MMG data incorporate movement accelerations, which is its main limitation.In this thesis research, we first compared EMG and MMG data under isometric conditions. Then, we demonstrated that MMG is more sensitive to variations in dynamic efforts than EMG during controlled, constant-velocity load lifting. We also proposed a new adaptive motion artifact filtering method, which was compared to a traditional filtering method. Finally, we showed that MMG, like EMG, could detect upper limb muscle fatigue during repetitive load handling. Certain frequency bands of the MMG signal should be considered for optimal detection of muscle fatigue in the field. All these results were discussed and compared with the literature to define the best framework for using the MMG method to better prevent workplace injuries
APA, Harvard, Vancouver, ISO, and other styles
26

Marteau, Hubert. "Une méthode d'analyse de données textuelles pour les sciences sociales basée sur l'évolution des textes." Tours, 2005. http://www.theses.fr/2005TOUR4028.

Full text
Abstract:
Le but est d'apporter aux sociologues un outil informatique permettant l'analyse d'entretiens ouverts semi-directifs. Le traitement est en deux étapes : une indexation des entretiens suivi d'une classification. Les méthodes d'indexation habituelles reposent sur une analyse statistiques plus adaptées à des textes de contenu et de structure (textes littéraires, scientifiques,. . . ) marqués qu'à des entretiens limités à l'usage de peu de mots (1000 mots pour des textes de discussion). Partant de l'hypothèse que l'appartenance sociologique induit fortement la forme du discours, nous évaluons la structure et l'évolution des textes en proposant de nouvelles représentations des textes (image, signal) qui conduisent à l'extraction de valeurs indexant le texte, mesures statiques ou liées à l'évolution du texte. La classification choisie est arborée (NJ). Elle repose sur ces caractéristiques par sa faible complexité et son respects des distances, elle fournit une aide à la classification
This PhD Thesis aims at bringing to sociologists a data-processing tool wich allows them to analyse of semi-directing open talks. The proposed tool performs in two steps : an indexation of the talks followed by a classification. Usually, indexing methods rely on a general stastistical analysis. Such methods are suited for texts having contents and structure ( literary texts, scientific texts,. . . ). These texts have more vocabulary and structure than talks (limitation to 1000 words for suche texts). On the basis of the assumption that the sociological membership strongly induces the form of the speech, we propose various methods to evaluate the structure and the evolution of the texts. The methods attempt to find new representations of texts (image, signal) and to extract values from these new representations. Selected classification is a classification by trees (NJ). It has a low complexity and it respects distances, then this method is a good solution to provide a help to classification
APA, Harvard, Vancouver, ISO, and other styles
27

Nguyen, Cong Tin. "Implémentation semi-automatique du protocole ELDA et contribution à une méthodologie de développement des protocoles d'application basée sur ESTELLE." Clermont-Ferrand 2, 1993. http://www.theses.fr/1993CLF21487.

Full text
Abstract:
Le travail de cette these s'insere dans le domaine du developpement de protocoles et en particulier les protocoles de la couche application. Pour ce developpement, nous avons adopte une methode formelle en choisissant les techniques normalisees par l'iso, les formal description techniques (fdts), en l'occurrence estelle. Une experimentation a ete menee sur le cycle de vie du protocole elda. Elda est un protocole de type sans connexion s'appuyant sur le service de transfert de messages (mts) du systeme de messagerie normalise mhs-84. Nous avons utilise et combine plusieurs outils pour permettre le developpement du protocole elda (ews, xesar, isode, pp) qui couvrent les phases specification, validation et implementation. Nous proposons dans le memoire de definir une methodologie de developpement utilisant le langage estelle comme support et une combinaison d'outils. Cette methodologie sert de guide pour les etapes de specification, de validation et d'implementation. L'experimentation a permis de tirer de precieux enseignements sur la specification en estelle, les differents outils supports et sur le protocole elda lui-meme. Ces resultats nous permettent d'une part, de proposer des caracteristiques d'un environnement integre de developpement de protocoles et d'autre part, une migration d'elda vers une nouvelle architecture respectant la structure la plus recente de la couche application
APA, Harvard, Vancouver, ISO, and other styles
28

Dubois, Florentine. "Une méthodologie de conception de modèles analytiques de surface et de puissance de réseaux sur puce hautement paramétriques basée sur une méthode d'apprentissage automatique." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00877956.

Full text
Abstract:
Les réseaux sur puces (SoCs - Networks-on-chip) sont apparus durant la dernière décennie en tant que solution flexible et efficace pour interconnecter le nombre toujours croissant d'éléments inclus dans les systèmes sur puces (SoCs - Systems-on-chip). Les réseaux sur puces sont en mesure de répondre aux besoins grandissants en bande-passante et en scalabilité tout en respectant des contraintes fortes de performances. Cependant, ils sont habituellement caractérisés par un grand nombre de paramètres architecturaux et d'implémentation qui forment un vaste espace de conception. Dans ces conditions, trouver une architecture de NoC adaptée aux besoins d'une plateforme précise est un problème difficile. De plus, la plupart des grands choix architecturaux (topologie, routage, qualité de service) sont généralement faits au niveau architectural durant les premières étapes du flot de conception, mais mesurer les effets de ces décisions majeures sur les performances finales du système est complexe à un tel niveau d'abstraction. Les analyses statiques (méthodes non basées sur des simulations) sont apparues pour répondre à ce besoin en méthodes d'estimations des performances des SoCs fiables et disponibles rapidement dans le flot de conception. Au vu du haut niveau d'abstraction utilisé, il est irréaliste de s'attendre à une estimation précise des performances et coûts de la puce finale. L'objectif principal est alors la fidélité (caractérisation des grandes tendances d'une métrique permettant une comparaison équitable des alternatives) plutôt que la précision. Cette thèse propose une méthodologie de modélisation pour concevoir des analyses statiques des coûts des composants des NoCs. La méthode proposée est principalement orientée vers la généralité. En particulier, aucune hypothèse n'est faite ni sur le nombre de paramètres des composants ni sur la nature des dépendances de la métrique considérée sur ces mêmes paramètres. Nous sommes alors en mesure de modéliser des composants proposant des millions de possibilités de configurations (ordre de 1e+30 possibilités de configurations) et d'estimer le coût de réseaux sur puce composés d'un grand nombre de ces composants au niveau architectural. Il est complexe de modéliser ce type de composants avec des modèles analytiques expérimentaux à cause du trop grand nombre de possibilités de configurations. Nous proposons donc un flot entièrement automatisé qui peut être appliqué tel quel à n'importe quelles architectures et technologies. Le flot produit des prédicteurs de coûts des composants des réseaux sur puce capables d'estimer les différentes métriques pour n'importe quelles configurations de l'espace de conception en quelques secondes. Le flot conçoit des modèles analytiques à grains fins sur la base de résultats obtenus au niveau porte et d'une méthode d'apprentissage automatique. Il est alors capable de concevoir des modèles présentant une meilleure fidélité que les méthodes basées uniquement sur des théories mathématiques tout en conservant leurs qualités principales (basse complexité, disponibilité précoce). Nous proposons d'utiliser une méthode d'interpolation basée sur la théorie de Kriging. La théorie de Kriging permet de minimiser le nombre d'exécutions du flot d'implémentation nécessaires à la modélisation tout en caractérisant le comportement des métriques à la fois localement et globalement dans l'espace. La méthode est appliquée pour modéliser la surface logique des composants clés des réseaux sur puces. L'inclusion du trafic dans la méthode est ensuite traitée et un modèle de puissance statique et dynamique moyenne des routeurs est conçu sur cette base.
APA, Harvard, Vancouver, ISO, and other styles
29

Dubois, Florentine. "Une méthodologie de conception de modèles analytiques de surface et de puissance de réseaux sur puce hautement paramétriques basée sur une méthode d’apprentissage automatique." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM026/document.

Full text
Abstract:
Les réseaux sur puces (SoCs - Networks-on-chip) sont apparus durant la dernière décennie en tant que solution flexible et efficace pour interconnecter le nombre toujours croissant d'éléments inclus dans les systèmes sur puces (SoCs - Systems-on-chip). Les réseaux sur puces sont en mesure de répondre aux besoins grandissants en bande-passante et en scalabilité tout en respectant des contraintes fortes de performances. Cependant, ils sont habituellement caractérisés par un grand nombre de paramètres architecturaux et d'implémentation qui forment un vaste espace de conception. Dans ces conditions, trouver une architecture de NoC adaptée aux besoins d'une plateforme précise est un problème difficile. De plus, la plupart des grands choix architecturaux (topologie, routage, qualité de service) sont généralement faits au niveau architectural durant les premières étapes du flot de conception, mais mesurer les effets de ces décisions majeures sur les performances finales du système est complexe à un tel niveau d'abstraction. Les analyses statiques (méthodes non basées sur des simulations) sont apparues pour répondre à ce besoin en méthodes d'estimations des performances des SoCs fiables et disponibles rapidement dans le flot de conception. Au vu du haut niveau d'abstraction utilisé, il est irréaliste de s'attendre à une estimation précise des performances et coûts de la puce finale. L'objectif principal est alors la fidélité (caractérisation des grandes tendances d'une métrique permettant une comparaison équitable des alternatives) plutôt que la précision. Cette thèse propose une méthodologie de modélisation pour concevoir des analyses statiques des coûts des composants des NoCs. La méthode proposée est principalement orientée vers la généralité. En particulier, aucune hypothèse n'est faite ni sur le nombre de paramètres des composants ni sur la nature des dépendances de la métrique considérée sur ces mêmes paramètres. Nous sommes alors en mesure de modéliser des composants proposant des millions de possibilités de configurations (ordre de 1e+30 possibilités de configurations) et d'estimer le coût de réseaux sur puce composés d'un grand nombre de ces composants au niveau architectural. Il est complexe de modéliser ce type de composants avec des modèles analytiques expérimentaux à cause du trop grand nombre de possibilités de configurations. Nous proposons donc un flot entièrement automatisé qui peut être appliqué tel quel à n'importe quelles architectures et technologies. Le flot produit des prédicteurs de coûts des composants des réseaux sur puce capables d'estimer les différentes métriques pour n'importe quelles configurations de l'espace de conception en quelques secondes. Le flot conçoit des modèles analytiques à grains fins sur la base de résultats obtenus au niveau porte et d'une méthode d'apprentissage automatique. Il est alors capable de concevoir des modèles présentant une meilleure fidélité que les méthodes basées uniquement sur des théories mathématiques tout en conservant leurs qualités principales (basse complexité, disponibilité précoce). Nous proposons d'utiliser une méthode d'interpolation basée sur la théorie de Kriging. La théorie de Kriging permet de minimiser le nombre d'exécutions du flot d'implémentation nécessaires à la modélisation tout en caractérisant le comportement des métriques à la fois localement et globalement dans l'espace. La méthode est appliquée pour modéliser la surface logique des composants clés des réseaux sur puces. L'inclusion du trafic dans la méthode est ensuite traitée et un modèle de puissance statique et dynamique moyenne des routeurs est conçu sur cette base
In the last decade, Networks-on-chip (NoCs) have emerged as an efficient and flexible interconnect solution to handle the increasing number of processing elements included in Systems-on-chip (SoCs). NoCs are able to handle high-bandwidth and scalability needs under tight performance constraints. However, they are usually characterized by a large number of architectural and implementation parameters, resulting in a vast design space. In these conditions, finding a suitable NoC architecture for specific platform needs is a challenging issue. Moreover, most of main design decisions (e.g. topology, routing scheme, quality of service) are usually made at architectural-level during the first steps of the design flow, but measuring the effects of these decisions on the final implementation at such high level of abstraction is complex. Static analysis (i.e. non-simulation-based methods) has emerged to fulfill this need of reliable performance and cost estimation methods available early in the design flow. As the level of abstraction of static analysis is high, it is unrealistic to expect an accurate estimation of the performance or cost of the chip. Fidelity (i.e. characterization of the main tendencies of a metric) is thus the main objective rather than accuracy. This thesis proposes a modeling methodology to design static cost analysis of NoC components. The proposed method is mainly oriented towards generality. In particular, no assumption is made neither on the number of parameters of the components nor on the dependences of the modeled metric on these parameters. We are then able to address components with millions of configurations possibilities (order of 1e+30 configuration possibilities) and to estimate cost of complex NoCs composed of a large number of these components at architectural-level. It is difficult to model that kind of components with experimental analytical models due to the huge number of configuration possibilities. We thus propose a fully-automated modeling flow which can be applied directly to any architecture and technology. The output of the flow is a NoC component cost predictor able to estimate a metric of interest for any configuration of the design space in few seconds. The flow builds fine-grained analytical models on the basis of gate-level results and a machine-learning method. It is then able to design models with a better fidelity than purely-mathematical methods while preserving their main qualities (i.e. low complexity, early availability). Moreover, it is also able to take into account the effects of the technology on the performance. We propose to use an interpolation method based on Kriging theory. By using Kriging methodology, the number of implementation flow runs required in the modeling process is minimized and the main characteristics of the metrics in space are modeled both globally and locally. The method is applied to model logic area of key NoC components. The inclusion of traffic is then addressed and a NoC router leakage and average dynamic power model is designed on this basis
APA, Harvard, Vancouver, ISO, and other styles
30

François, Michaël. "Génération de nombres pseudo-aléatoires basée sur des systèmes multi-physiques exotiques et chiffrement d'images." Troyes, 2012. http://www.theses.fr/2012TROY0023.

Full text
Abstract:
L'utilisation des nombres (pseudo)-aléatoires a pris une dimension importante ces dernières décennies. De nombreuses applications dans le domaine des télécommunications, de la cryptographie, des simulations numériques ou encore des jeux de hasard, ont contribué au développement et à l'usage de ces nombres. Les méthodes utilisées pour la génération des nombres (pseudo)-aléatoires proviennent de deux types de processus : physique et algorithmique. Dans cette thèse, deux classes de générateurs basés sur des principes de mesures physiques et des processus mathématiques sont présentées. Pour chaque classe deux générateurs sont présentés. La première classe de générateurs exploite la réponse d'un système physique qui sert de source pour la génération des séquences aléatoires. Cette classe utilise aussi bien des résultats de simulation que des résultats de mesures interférométriques pour produire des séquences de nombres aléatoires. La seconde classe de générateurs est basée sur deux types de fonctions chaotiques et utilise les sorties de ces fonctions comme indice de permutation sur un vecteur initial. Cette thèse s'intéresse également aux systèmes de chiffrement pour la protection des données. Deux algorithmes de chiffrement d'images utilisant des fonctions chaotiques sont proposés. Ces Algorithmes utilisent un processus de permutation-substitution sur les bits de l'image originale. Une analyse approfondie basée sur des tests statistiques confirme la pertinence des cryptosystèmes développés dans cette thèse
The use of (pseudo)-random numbers has taken an important dimension in recent decades. Many applications in the field of telecommunications, cryptography, numerical simulations or gambling, have contributed to the development and the use of these numbers. The methods used for the generation of (pseudo)- random numbers are based on two types of processes: physical and algorithmic. In this PhD thesis, two classes of generators based on the principles of physical measurements and mathematical processes are presented. For each class two generators are presented. The first class of generators operates the response of a physical system that serves as a source for the generation of random sequences. This class uses both simulation results and the results of interferometric measurements to produce sequences of random numbers. The second class of generators is based on two types of chaotic functions and uses the outputs of these functions as an index permutation on an initial vector. This PhD thesis also focuses on encryption systems for data protection. Two encryption algorithms using chaotic functions are proposed. These algorithms use a permutation-substitution process on the bits of the original image. A thorough analysis based on statistical tests confirms the relevance of the developped cryptosystems in this PhD thesis manuscript
APA, Harvard, Vancouver, ISO, and other styles
31

Tixier, Jérôme. "Méthodologie d'évaluation du niveau de risque d'un site industriel de type Seveso, basée sur la gravité des accidents majeurs et la vulnérabilité de l'environnement." Aix-Marseille 1, 2002. http://www.theses.fr/2002AIX11060.

Full text
Abstract:
Historiquement, les sites industriels étaient localisés à l'extérieur des villes dans des zones de faible densité de population, mais l'urbanisation croissante a provoqué une augmentation du risque technologique. Cette étude, basée sur un état de l'art des méthodes dévaluation du niveau de risque a donc pour but de développer une méthode d'évaluation du niveau de risque d'une installation. Un modèle composé de trois entités est retenu pour l'élaboration des indices, la source de danger (indice de gravité), le flux de danger (indice de propagation des accidents majeurs) et les cibles (indice de vulnérabilité et méthode de décision multicritères). L'application de la méthodologie permet de faire apparaître, par exemple, pour les zones éloignées de la source de danger un niveau de risque élevé. Grâce à cette méthode, une réflexion pourrait être réalisée pour la gestion de l'occupation des sols autour des sites à hauts risques entre les autorités compétentes et les industriels.
APA, Harvard, Vancouver, ISO, and other styles
32

Gordaliza, Pastor Paula. "Fair learning : une approche basée sur le transport optimale." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30084.

Full text
Abstract:
L'objectif de cette thèse est double. D'une part, les méthodes de transport optimal sont étudiées pour l'inférence statistique. D'autre part, le récent problème de l'apprentissage équitable est considéré avec des contributions à travers le prisme de la théorie du transport optimal. L'utilisation généralisée des applications basées sur les modèles d'apprentissage automatique dans la vie quotidienne et le monde professionnel s'est accompagnée de préoccupations quant aux questions éthiques qui peuvent découler de l'adoption de ces technologies. Dans la première partie de cette thèse, nous motivons le problème de l'équité en présentant quelques résultats statistiques complets en étudiant le critère statistical parity par l'analyse de l'indice disparate impact sur l'ensemble de données réel Adult income. Il est important de noter que nous montrons qu'il peut être particulièrement difficile de créer des modèles d'apprentissage machine équitables, surtout lorsque les observations de formation contiennent des biais. Ensuite, une revue des mathématiques pour l'équité dans l'apprentissage machine est donné dans un cadre général, avec également quelques contributions nouvelles dans l'analyse du prix pour l'équité dans la régression et la classification. Dans cette dernière, nous terminons cette première partie en reformulant les liens entre l'équité et la prévisibilité en termes de mesures de probabilité. Nous analysons les méthodes de réparation basées sur le transport de distributions conditionnelles vers le barycentre de Wasserstein. Enfin, nous proposons le random repair qui permet de trouver un compromis entre une perte minimale d'information et un certain degré d'équité. La deuxième partie est dédiée à la théorie asymptotique du coût de transport empirique. Nous fournissons un Théorème de Limite Centrale pour la distance de Monge-Kantorovich entre deux distributions empiriques de tailles différentes n et m, Wp(Pn,Qm), p > = 1, avec observations sur R. Dans le cas de p > 1, nos hypothèses sont nettes en termes de moments et de régularité. Nous prouvons des résultats portant sur le choix des constantes de centrage. Nous fournissons une estimation consistente de la variance asymptotique qui permet de construire tests à deux échantillons et des intervalles de confiance pour certifier la similarité entre deux distributions. Ceux-ci sont ensuite utilisés pour évaluer un nouveau critère d'équité de l'ensemble des données dans la classification. En outre, nous fournissons un principe de déviations modérées pour le coût de transport empirique dans la dimension générale. Enfin, les barycentres de Wasserstein et le critère de variance en termes de la distance de Wasserstein sont utilisés dans de nombreux problèmes pour analyser l'homogénéité des ensembles de distributions et les relations structurelles entre les observations. Nous proposons l'estimation des quantiles du processus empirique de la variation de Wasserstein en utilisant une procédure bootstrap. Ensuite, nous utilisons ces résultats pour l'inférence statistique sur un modèle d'enregistrement de distribution avec des fonctions de déformation générale. Les tests sont basés sur la variance des distributions par rapport à leurs barycentres de Wasserstein pour lesquels nous prouvons les théorèmes de limite centrale, y compris les versions bootstrap
The aim of this thesis is two-fold. On the one hand, optimal transportation methods are studied for statistical inference purposes. On the other hand, the recent problem of fair learning is addressed through the prism of optimal transport theory. The generalization of applications based on machine learning models in the everyday life and the professional world has been accompanied by concerns about the ethical issues that may arise from the adoption of these technologies. In the first part of the thesis, we motivate the fairness problem by presenting some comprehensive results from the study of the statistical parity criterion through the analysis of the disparate impact index on the real and well-known Adult Income dataset. Importantly, we show that trying to make fair machine learning models may be a particularly challenging task, especially when the training observations contain bias. Then a review of Mathematics for fairness in machine learning is given in a general setting, with some novel contributions in the analysis of the price for fairness in regression and classification. In the latter, we finish this first part by recasting the links between fairness and predictability in terms of probability metrics. We analyze repair methods based on mapping conditional distributions to the Wasserstein barycenter. Finally, we propose a random repair which yields a tradeoff between minimal information loss and a certain amount of fairness. The second part is devoted to the asymptotic theory of the empirical transportation cost. We provide a Central Limit Theorem for the Monge-Kantorovich distance between two empirical distributions with different sizes n and m, Wp(Pn,Qm), p > = 1, for observations on R. In the case p > 1 our assumptions are sharp in terms of moments and smoothness. We prove results dealing with the choice of centering constants. We provide a consistent estimate of the asymptotic variance which enables to build two sample tests and confidence intervals to certify the similarity between two distributions. These are then used to assess a new criterion of data set fairness in classification. Additionally, we provide a moderate deviation principle for the empirical transportation cost in general dimension. Finally, Wasserstein barycenters and variance-like criterion using Wasserstein distance are used in many problems to analyze the homogeneity of collections of distributions and structural relationships between the observations. We propose the estimation of the quantiles of the empirical process of the Wasserstein's variation using a bootstrap procedure. Then we use these results for statistical inference on a distribution registration model for general deformation functions. The tests are based on the variance of the distributions with respect to their Wasserstein's barycenters for which we prove central limit theorems, including bootstrap versions
APA, Harvard, Vancouver, ISO, and other styles
33

Tugui, Catalin Adrian. "Mise en place d'une démarche de conception pour circuits hautes performances basée sur des méthodes d'optimisation automatique." Phd thesis, Supélec, 2013. http://tel.archives-ouvertes.fr/tel-00789352.

Full text
Abstract:
Ce travail de thèse porte sur le développement d'une méthodologie efficace pour la conception analogique, des algorithmes et des outils correspondants qui peuvent être utilisés dans la conception dynamique de fonctions linéaires à temps continu. L'objectif principal est d'assurer que les performances pour un système complet peuvent être rapidement investiguées, mais avec une précision comparable aux évaluations au niveau transistor.Une première direction de recherche a impliqué le développement de la méthodologie de conception basée sur le processus d'optimisation automatique de cellules au niveau transistor et la synthèse de macro-modèles analogiques de haut niveau dans certains environnements comme Mathworks - Simulink, VHDL-AMS ou Verilog-A. Le processus d'extraction des macro-modèles se base sur un ensemble complet d'analyses (DC, AC, transitoire, paramétrique, Balance Harmonique) qui sont effectuées sur les schémas analogiques conçues à partir d'une technologie spécifique. Ensuite, l'extraction et le calcul d'une multitude de facteurs de mérite assure que les modèles comprennent les caractéristiques de bas niveau et peuvent être directement régénéré au cours de l'optimisation.L'algorithme d'optimisation utilise une méthode bayésienne, où l'espace d'évaluation est créé à partir d'un modèle de substitution (krigeage dans ce cas), et la sélection est effectuée en utilisant le critère d'amélioration (Expected Improvement - EI) sujet à des contraintes. Un outil de conception a été développé (SIMECT), qui a été intégré comme une boîte à outils Matlab, employant les algorithmes d'extraction des macro-modèles et d'optimisation automatique.
APA, Harvard, Vancouver, ISO, and other styles
34

Cunha, Guilherme. "Optimisation d'une méthodologie de simulation numérique pour l'aéroacoustique basée sur un couplage faible des méthodes d'aérodynamique instationnaire et de propagation acoustique." Thesis, Toulouse, ISAE, 2012. http://www.theses.fr/2012ESAE0028/document.

Full text
Abstract:
Le présent travail a consisté à évaluer, améliorer et valider plus avant une méthode de couplage faible CFD/CAA, notamment relativement à son application à des problèmes réalistes de bruit avion. Entre autres choses, il a été ici montré dans quelle mesure une telle méthode hybride peut effectivement (i) s’accommoder des contraintes inhérentes aux applications réalistes, (ii) sans être menacée par certains de ses inévitables effets de bord (tels que la dégradation du signal auxquelles sont soumises les données CFD, lorsqu’elles sont traitées ou exploitées acoustiquement)
The present work consisted in improving, assessing and validating further the CFD/CAA surface weak coupling methodology, with respect to its application to realistic problems of aircraft noise. In particular, it was here shown how far such hybrid methodology could (i) cope with all stringent constraints that are dictated by real-life applications, (ii) without being jeopardized by some of the unavoidable side-effects (such as the signal degradation to which CFD data are subjected, when processed or being then acoustically exploited)
APA, Harvard, Vancouver, ISO, and other styles
35

Kerbiriou, Corinne. "Développement d'une méthode d'étalonnage d'un radar transhorizon basée sur une analyse fine du fouillis de mer." Rennes 1, 2002. http://www.theses.fr/2002REN1A003.

Full text
Abstract:
Le but de cette thèse était de développer une méthode d'étalonnage dans le cadre du radar transhorizon NOSTRADAMUS afin d'établir sa capacité de détection en s'affranchissant des limitations liées à la propagation dans l'ionosphère. Cette méthode est fondée sur une analyse spectrale du fouillis de mer et permet d'estimer un paramètre étalon : le coefficient de réflectivité de la mer. La connaissance de ce coefficient permet de déterminer la surface équivalente radar d'une cible susceptible d'être détectée par transposition du bilan énergétique de la mer à celui de cette cible. Ce processus permet alors de prédire les performances du radar en terme de détectabilité. Outre l'analyse spectrale de l'écho de mer, l'étude de l'ionosphère a été indissociable des travaux à mener. En effet, l'ionosphère est un milieu instable qui peut dégrader le spectre.
APA, Harvard, Vancouver, ISO, and other styles
36

Mughal, Arshad Saleem. "Valorisation industrielle intégrée d'agro-ressources non alimentaires : contribution au développement d'une méthodologie d'analyse énergétique et environnementale basée sur le génie des procédés." Toulouse, INPT, 1994. http://www.theses.fr/1994INPT042G.

Full text
Abstract:
Les secteurs agro-energie et agro-industrie sont consideres simultanement. Un interface conceptuel permettant de mieux comprendre l'exploitation rationelle de cultures non alimentaires telles que le ble, le sorgho, la canne a sucre etc, en vue de la production simultanee de divers produits et sous produits: papier, sucre, biocarburants, electricite, est propose et ceci dans la perspective de l'adaptation a l'environnement et a sa sauvegarde. Le travail permet de combiner puis de synthetiser des informations disponibles issues de sources diverses, sur l'environnement, l'energie, la technologie et la science relatives a des cultures non alimentaires et de leur valorisation industrielle. L'etude est basee sur le genie des procedes et conduit a des estimations quantitatives utilisables comme aides a la decision. Le systeme considere va de la culture aux produits finis. La mise en uvre de la methodologie utilise la programmation lineaire. Trois niveaux sont consideres. L'integration des procedes repose sur la possibilite de productions agricoles diverses suivies de transformations et raffinages varies. L'integration energetique est basee sur la technologie de la cogeneration, et l'integration environnementale est developpee a partir d'une approche systeme basees sur des bilans entree-sortie. Le systeme global d'analyse est organise en modules, par exemple: analyse meso-energetique, analyse meso-environnementale, strategie de couplage industriel, evaluation pour l'exploitation de terrains en jacheres, etc chacun de ces modules est constitue par divers modeles lies entre eux. La methodologie permet de discerner diverses options de couplage d'unites industrielles en fonction des produits: papier, sucre, biocarburants, electricite, des types de cultures possibles et de la situation geographique
APA, Harvard, Vancouver, ISO, and other styles
37

Beraud, Benoit. "Méthodologie d'optimisation du contrôle/commande des usines de traitement des eaux résiduaires urbaines basée sur la modélisation et les algorithmes génétiques multi-objectifs." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2009. http://tel.archives-ouvertes.fr/tel-00457236.

Full text
Abstract:
Le travail présenté dans cet ouvrage concerne le développement d'une méthodologie d'optimisation des lois de contrôle/commande des stations d'épuration des eaux usées urbaines. Ce travail est basé sur l'utilisation des modèles des procédés de traitement afin de réaliser la simulation de leur fonctionnement. Ces simulations sont utilisées par un algorithme d'optimisation multi-objectifs, NSGA-II. Cet algorithme d'optimisation permet la recherche des solutions optimales en fonction des différents objectifs considérés (qualité de l'effluent, consommation énergétique, etc.). Il permet également la visualisation claire des compromis entre diverses lois de contrôle ainsi que la détermination de leurs domaines d'application respectifs. Dans une première partie de cet ouvrage, la méthodologie est développée autour de quatre axes principaux : la conception d'une méthode de simulation fiable et robuste, le choix des jeux de données d'entrée à utiliser en simulation, le choix des objectifs et contraintes à considérer et enfin l'évaluation des performances et de la robustesse à long terme des lois de contrôles. L'application de cette méthodologie sur le cas d'école du BSM1 est réalisée dans cette première partie. Dans une seconde partie, la méthodologie développée est appliquée sur le cas réel de l'usine de dépollution de Cambrai. Cette application a nécessité le développement de nouveaux aspects que sont la génération de données d'entrée dynamiques à partir des données d'auto-surveillance de la station d'épuration et la simulation des lois de contrôles basées sur une mesure du potentiel redox. Cette application a permis de visualiser les compromis entre la loi de contrôle actuellement utilisée sur site et une nouvelle loi envisagée. Il a ainsi été possible d'évaluer le gain de performances à attendre de ce changement.
APA, Harvard, Vancouver, ISO, and other styles
38

Beraud, Benoît. "Méthodologie d’optimisation du contrôle/commande des usines de traitement des eaux résiduaires urbaines basée sur la modélisation et les algorithmes génétiques multi-objectifs." Montpellier 2, 2009. http://www.theses.fr/2009MON20049.

Full text
Abstract:
Le travail présenté dans cet ouvrage concerne le développement d'une méthodologie d'optimisation des lois de contrôle/commande des stations d'épuration des eaux usées urbaines. Ce travail est basé sur l'utilisation des modèles des procédés de traitement afin de réaliser la simulation de leur fonctionnement. Ces simulations sont utilisées par un algorithme d'optimisation multi-objectifs, NSGA-II. Cet algorithme d'optimisation permet la recherche des solutions optimales en fonction des différents objectifs considérés (qualité de l'effluent, consommation énergétique, etc. ). Il permet également la visualisation claire des compromis entre diverses lois de contrôle ainsi que la détermination de leurs domaines d'application respectifs. Dans une première partie de cet ouvrage, la méthodologie est développée autour de quatre axes principaux : la conception d'une méthode de simulation fiable et robuste, le choix des jeux de données d'entrée à utiliser en simulation, le choix des objectifs et contraintes à considérer et enfin l'évaluation des performances et de la robustesse à long terme des lois de contrôles. L'application de cette méthodologie sur le cas d'école du BSM1 est réalisée dans cette première partie. Dans une seconde partie, la méthodologie développée est appliquée sur le cas réel de l'usine de dépollution de Cambrai. Cette application a nécessité le développement de nouveaux aspects que sont la génération de données d'entrée dynamiques à partir des données d'auto-surveillance de la station d'épuration et la simulation des lois de contrôles basées sur une mesure du potentiel redox. Cette application a permis de visualiser les compromis entre la loi de contrôle actuellement utilisée sur site et une nouvelle loi envisagée. Il a ainsi été possible d'évaluer le gain de performances à attendre de ce changement
The work presented in this thesis concerns the development of an optimization methodology for control laws of wastewater treatment plants. This work is based on the use of WWTP process models in order to simulate their operation. These simulations are used by a multi-objective genetic algorithm, NSGA-II. This optimization algorithm allows the search of optimal solutions when multiple objectives are considered (e. G. The effluent quality, energy consumption, etc. ). It also enables the visualisation of compromises arising between various control laws as well as their respective best domains of application. In a first part of this work, the optimization methodology in developed around four main axes: the conception of a robust simulation procedure, the choice of input datasets for the simulations, the choice of objectives and constraints to consider and the evaluation of long term performances and robustness of control laws. This methodology is then applied on the literature case study of BSM1. In a second part of the work, the methodology is applied on the real case study of Cambrai wastewater treatment plant. This application includes the development of new aspects like the generation of dynamic input datasets out of daily monitoring measurements of the wastewater treatment plant, as well as the simulation of control laws based on oxydo-reduction potential measurements. This application allowed to analyze the compromises between the control law currently tested on the wastewater treatment plant and a new control law foreseen. The benefits of this modification could hence be clearly observed
APA, Harvard, Vancouver, ISO, and other styles
39

Aymard, Emmanuel. "Détermination des efforts aérodynamiques s'exerçant sur une surface portante en rotation par une méthodologie basée sur la vélocimétrie laser : application aux pales d'un rotor d'hélicoptère en vol d'avancement." Aix-Marseille 2, 1998. http://www.theses.fr/1998AIX22113.

Full text
Abstract:
Ce mémoire de thèse se fixe comme objectif d'analyser l'aérodynamique d'un rotor d'hélicoptère en configuration de vol d'avancement, et plus particulièrement de réaliser une nouvelle approche de la mesure des efforts aérodynamiques (trainée, portance) s'exerçant sur la pale du rotor d'hélicoptère. L'écoulement autour des pales en rotation et dans le sillage proche a pu expérimentalement être analyse très finement à partir de différentes techniques de mesure (balance rotative, anémométrie a fil chaud) et en particulier par la mesure du champ de vitesse obtenues par une méthode avancée de vélocimétrie laser à fibre optique et à grande distance focale. Une nouvelle méthode, basée sur l'utilisation de l'équation de quantité de mouvement, a été développée. Elle permet, par l'écriture de tous les termes en fonction du champ de vitesse, d'étudier leur différent ordre de grandeur et de quantifier en particulier le potentiel des vitesses/t qui apparait dans l'équation de Bernoulli. Les résultats tendent à prouver que les effets 3d sont faibles, c'est à dire que les termes volumiques peuvent être négligés. Considérant l'écoulement comme bidimensionnel, la loi de Kutta-Joukowsky a pu être appliquée avec succès pour calculer la portance du profil en rotation.
APA, Harvard, Vancouver, ISO, and other styles
40

Rasovska, Ivana. "Contribution à une méthodologie de capitalisation des connaissances basée sur le raisonnement à partir de cas : Application au diagnostic dans une plateforme d'e-maintenance." Phd thesis, Université de Franche-Comté, 2006. http://tel.archives-ouvertes.fr/tel-00257893.

Full text
Abstract:
Face aux évolutions technologiques, à la complexité croissante des équipements industriels et à la dynamique des processus ainsi qu'aux changements organisationnels et à la mobilité du personnel, les responsables de maintenance cherchent à formaliser et pérenniser le savoir et le savoir-faire des employés. Pour répondre à cette problématique, notre objectif est de fournir un service d'aide à la maintenance qui utilise et capitalise les connaissances. Nos travaux se situent dans le cadre du projet Européen Proteus qui a permis de développer une plateforme distribuée d'e-maintenance intégrant les différents systèmes et applications existants en maintenance. Nous avons déterminé quatre niveaux d'applications associés chacun à un ensemble d'outils d'aide : le niveau d'analyse d'équipement, celui de diagnostic et d'expertise, celui de gestion des ressources et celui de gestion des stratégies de maintenance. Ces outils d'aide nécessitent une expertise capitalisée que nous proposons de préserver dans une mémoire d'entreprise. Afin d'élaborer la mémoire ainsi que notre outil d'aide au diagnostic et à la réparation, nous avons introduit une démarche de capitalisation des connaissances articulée autour d'une méthodologie de raisonnement à partir de cas (RàPC) guidé par les connaissances. La conception de l'outil passe par la modélisation des connaissances qui se décline en un modèle de représentation (une ontologie du domaine) et en un modèle de résolution de problèmes (RàPC). Les modèles proposés utilisent des technologies émergeantes du Web sémantique permettant de faire évoluer le concept d'emaintenance vers un nouveau concept de s-maintenance (maintenance sémantique).
APA, Harvard, Vancouver, ISO, and other styles
41

Rasovska, Ivana. "Contribution à une méthodologie de capitalisation des connaissance basée sur le raisonnement à partir de cas : application au diagnostic dans une plateforme d'e-maintenance." Besançon, 2006. https://tel.archives-ouvertes.fr/tel-00257893.

Full text
Abstract:
Face aux évolutions technologiques, à la complexité croissante des équipements industriels et à la dynamique des processus ainsi qu’aux changements organisationnels et à la mobilité du personnel, les responsables de maintenance cherchent à formaliser et pérenniser le savoir et le savoir-faire des employés. Pour répondre à cette problématique, notre objectif est de fournir un service d’aide à la maintenance qui utilise et capitalise les connaissances. Nos travaux se situent dans le cadre du projet Européen Proteus qui a permis de développer une plateforme distribuée d’e-maintenance intégrant les différents systèmes et applications existants en maintenance. Nous avons déterminé quatre niveaux d’applications associés chacun à un ensemble d’outils d’aide : le niveau d’analyse d’équipement, celui de diagnostic et d’expertise, celui de gestion des ressources et celui de gestion des stratégies de maintenance. Ces outils d’aide nécessitent une expertise capitalisée que nous proposons de préserver dans une mémoire d’entreprise. Afin d’élaborer la mémoire ainsi que notre outil d’aide au diagnostic et à la réparation, nous avons introduit une démarche de capitalisation des connaissances articulée autour d’une méthodologie de raisonnement à partir de cas (RàPC) guidé par les connaissances. La conception de l’outil passe par la modélisation des connaissances qui se décline en un modèle de représentation (une ontologie du domaine) et en un modèle de résolution de problèmes (RàPC). Les modèles proposés utilisent des technologies émergeantes du Web sémantique permettant de faire évoluer le concept d’emaintenance vers un nouveau concept de s-maintenance (maintenance sémantique)
Faced with the technological developments, the increasing complexity of the industrial plants and the processes dynamics as well as with organisational changes and staff mobility, maintenance managers want to formalise and capitalize the know and know-how of maintenance operators and experts. To deal with these factors, our objective is to provide a service of maintenance assistance that uses and capitalizes knowledge. Our work has been part of European project Proteus which goal was to develop a generic distributed platform of e-maintenance to integrate and to provide a set of different maintenance systems and applications. We specified four levels of maintenance applications associated each one with a set of decision help systems: equipment analysis, diagnosis and expertise, resource management and maintenance strategy management. These tools require an expertise which we propose to capitalize and preserve in a corporate enterprise memory. In order to create this memory and to develop our diagnostic and repair help system, we introduced a methodology based on the association of knowledge capitalization and knowledge intensive case based reasoning. The development of our system is based on knowledge modeling that consists of a representation model (domain ontology) and a problem solving model (case based reasoning). The suggested models use emerging technologies from the semantic Web which make possible the evolution of e-maintenance concept in a new concept of s-maintenance (semantic maintenance)
APA, Harvard, Vancouver, ISO, and other styles
42

Lesueur, Chloé. "Relations entre les mesures de mouvements du sol et les observations macrosismiques en France : Etude basée sur les données accélérométriques du RAP et les données macrosismiques du BCSF." Strasbourg, 2011. https://publication-theses.unistra.fr/public/theses_doctorat/2011/LESUEUR_Chloe_2011.pdf.

Full text
Abstract:
Une comparaison entre observations macrosismiques et accélérométriques est effectuée pour trois séismes de magnitude Mw~4. 5 du nord-est de la France et de l’ouest de l’Allemagne, entre 2003 et 2005. Les paramètres scalaires et spectraux (Peak Ground Acceleration /Velocity (PGA et PGV), Cumulate Absolute Velocity (CAV), Arias Intensity (AI), Pseudo Acceleration /Velocity (PSA et PSV)) sont déduits des signaux accélérométriques enregistrés par neuf stations du Réseau Accélérométrique permanent situés entre 29 et 180km des épicentres. Les données macrosismiques sont collectées au travers de témoignages spontanés via le questionnaire internet du Bureau Central Sismologique Français. Les réponses aux questions du formulaire sont par la suite encodées. En plus de l’intensité macrosismique individuelle, l’analyse de la corrélation interne entre les réponses encodées a mis en évidence quatre champs de questions, définis par un sens physique différent : 1) « Mouvements vibratoires des petits objets », 2) « Déplacement et chute d’objets », 3) « Sons entendus », 4) « Ressenti Personnel ». Les plus fortes corrélations entre paramètres macrosismiques et instrumentaux sont observées lorsque les paramètres macrosismiques sont moyennés sur des surfaces circulaires de 10km de rayon autour de chaque station accélérométrique. Les intensités macrosismiques prédites par les relations intensité-PGV publiées s’accordent bien avec les intensités observées, contrairement à celles prédites à partir du PGA. Les corrélations entre les paramètres instrumentaux et macrosismiques pour des intensités comprises entre II et V (EMS-98) montrent que le PGV est le paramètre qui présente les plus fortes corrélations avec tous les paramètres macrosismiques. Les corrélations avec les spectres de réponses (PSA) montrent une claire dépendance en fréquence dans l’intervalle [1-33Hz]. Les composantes horizontales et verticales sont corrélées avec les paramètres macrosismiques entre 1 et 10Hz, gamme correspondant au domaine de fréquences propres de la plupart des bâtiments et au contenu haute énergie du mouvement du sol. Entre 10 et 25Hz une chute de corrélations entre les données macrosismiques et instrumentales est observée jusqu’à 25Hz, fréquence à laquelle les coefficients de corrélation augmentent et approchent le niveau des corrélations obtenues avec le PGA
Comparison between accelerometric and macroseismic observations is made for three Mw~4. 5 earthquakes of eastern France between 2003 and 2005. Scalar and spectral instrumental parameters are processed from the accelerometric data recorded by nine accelerometric stations located between 29km and 180km from the epicentres. Macroseismic data are based on the French Internet reports. In addition to the individual macroseismic intensity, analysis of the internal correlation between the encoded answers highlights four predominant fields of questions, bearing different physical meanings: 1) “Vibratory Motions of small objects”, 2) “Displacement and Fall of Objects”, 3) “Acoustic Noise”, and 4) “Personal Feelings”. Best correlations between macroseismic and instrumental observations are obtained when the macroseismic parameters are averaged over 10km radius circles around each station. Macroseismic intensities predicted by published PGV-intensity relationships quite agree with the observed intensities, contrary to those based on PGA. The correlations between the macroseismic and instrumental data, for intensities between II and V (EMS-98), show that PGV is the instrumental parameter presenting the best correlation with all macroseismic parameters. The correlation with response spectra, exhibits clear frequency dependence over a limited frequency range [0. 5-33Hz]. Horizontal and vertical components are significantly correlated with macroseismic parameters between 1 and 10Hz, a range corresponding to both natural frequencies of most buildings and high energy content in the seismic ground motion. Between 10 and 25Hz, a clear lack of correlation between macroseismic and instrumental data is observed, while beyond 25Hz the correlation coefficient increases, approaching that of the PGA correlation level
APA, Harvard, Vancouver, ISO, and other styles
43

Legendre, Anthony. "Ingénierie système et Sûreté de fonctionnement : Méthodologie de synchronisation des modèles d'architecture et d'analyse de risques." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC083/document.

Full text
Abstract:
L'organisation classique en silos disciplinaires des industries atteint ses limites pour maîtriser la complexité. Les problèmes sont découverts trop tard et le manque de communication entre les experts empêche l'émergence précoce de solutions. C'est pourquoi, il est urgent de fournir de nouvelles approches collaboratives et des moyens d' interactions entre les disciplines d'ingénierie, au début et tout au long du cycle de développement. Dans ce contexte, nous avons étudié l'approche synchronisation de modèles entre deux domaines d'ingénierie : la conception d'architecture de systèmes et la sûreté de fonctionnement. Elle a pour but de construire et maintenir la cohérence entre les modèles.Ces travaux proposent, étudient et analysent une démarche collaborative de synchronisation de modèles. Ils tiennent compte des contextes d’études, des processus, des méthodes appliqués et des points de vue produits par les ingénieurs. Les contributions répondent à des problématiques au niveau des pratiques, des concepts, de la mise en œuvre, des applications et l’implémentation de la synchronisation de modèles
Classical organization in disciplinary silos in the industry reaches its limits to manage and control complexity. Problems are discovered too late and the lack of communication between experts prevents the early emergence of solutions. This is why it is urgent to provide new collaborative approaches and ways to exchange the models contents between various engineering fields, early and all along the development cycle. In this context, we are particularly interested in a synchronization approach of models between two engineering fields: system architecture design and dependability analysis.This work proposes a collaborative approach of synchronization of models. It takes into account the study contexts, applied processes, applied methods and viewpoint produced by engineers. Contributions address issues at levels of practices, concepts, implementation, applications and implementation of model synchronization
APA, Harvard, Vancouver, ISO, and other styles
44

Pecquois, Romain. "Etude et réalisation d’une source de rayonnement large bande de forte puissance basée sur un concept innovant de transformateur résonant impulsionnel." Thesis, Pau, 2012. http://www.theses.fr/2012PAUU3047/document.

Full text
Abstract:
De nos jours, un large éventail d’applications de défense nécessite des générateurs de puissances pulsées pour produire des rayonnements électromagnétiques de fortes puissances. Dans les systèmes conventionnels, le générateur est composé d’une source d’énergie primaire et d’une antenne, séparé par un système d’amplification de la puissance, généralement un générateur de Marx ou un transformateur Tesla, qui transmet l’énergie vers l’antenne. Le système présenté dans ce mémoire, utilise un concept innovant basée sur un transformateur résonant impulsionnel compact pour alimenter l’antenne. La source développée, appelée MOUNA (acronyme de « Module Oscillant Utilisant une Nouvelle Architecture ») est composé d’une batterie, d’un convertisseur DC/DC permettant de charger quatre condensateurs, de quatre éclateurs à gaz synchronisés, d’un transformateur résonant impulsionnel qui génère des impulsions de 600kV en 265ns, d’un éclateur de mise en forme à huile, et d’une antenne dipôle
Nowadays, a broad range of modern defense applications requires compact pulsed power generators to produce high-power electromagnetic waves. In a conventional design, such generators consist of a primary energy source and an antenna, separated by a power-amplification system, such as a Marx generator or a Tesla transformer, which forwards the energy from the source to the antenna. The present system, however, uses a novel and very compact high-voltage resonant pulsed transformer to drive a dipole antenna. The complete pulsed power source, termed MOUNA (French acronym for “Module Oscillant Utilisant une Nouvelle Architecture”), is composed of a set of batteries, a dc/dc converter for charging four capacitors, four synchronized spark gap switches, a resonant pulsed transformer that can generate 600 kV in 265 ns pulses, an oil peaking switch and, a dipole antenna
APA, Harvard, Vancouver, ISO, and other styles
45

Leroy, Yann. "Développement d'une méthodologie de fiabilisation des prises de décisions environnementales dans le cadre d'analyses de cycle de vie basée sur l'analyse et la gestion des incertitudes sur les données d'inventaires." Phd thesis, Paris, ENSAM, 2009. http://pastel.archives-ouvertes.fr/pastel-00005830.

Full text
Abstract:
L'Analyse de Cycle de Vie (ACV) est aujourd'hui définie comme une approche aboutie et reconnue d'évaluation de la performance environnementale des produits, procédés et services. Cependant et malgré la standardisation dont elle a fait l'objet dans les années 1990, certaines limites subsistent et contribuent à fragiliser la fiabilité de ses résultats. La non-prise en compte quasi systématique des incertitudes et de la qualité des données d'inventaire, et son caractère consommateur de ressources en font partie. Ces carences mettent en avant la nécessité de développer une méthodologie de gestion de ces deux paramètres. C'est dans ce contexte que s'inscrivent les travaux de recherche. Nous proposons donc une méthodologie de fiabilisation des décisions environnementales basées sur des ACV, à partir de l'analyse et la gestion des incertitudes sur les données d'inventaire. Cette dernière combine une approche qualitative s'appuyant sur l'utilisation d'une matrice de pedigree et une approche quantitative propageant l'incertitude sur les données d'entrée au moyen de simulations de Monte Carlo. La méthodologie développée nous permet d'une part d'estimer la qualité des inventaires et donc du résultat, et d'autre part d'identifier et de localiser les données les plus influentes sur cet indice de qualité. Cette analyse générée à partir d'informations relativement accessibles permet également une optimisation de la phase de collecte et des ressources allouées. Nous pouvons en effet juger de la pertinence d'une collecte additionnelle en intégrant le potentiel de dégradation d'une donnée sur le degré de fiabilité estimé du résultat. Les conclusions de notre recherche devraient contribuer à crédibiliser les résultats d'ACV et faciliter la mise en œuvre de telles analyses par la gestion raisonnée des efforts de collecte.
APA, Harvard, Vancouver, ISO, and other styles
46

Houhou, Noureddine. "Durabilité des interfaces collées béton/renforts composites : développement d'une méthodologie d'étude basée sur un dispositif de fluage innovant conçu pour être couplé à un vieillissement hygrothermique." Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00765147.

Full text
Abstract:
Le programme de recherche développé dans le cadre de cette thèse a pour principal objectif de concevoir, réaliser et valider une méthodologie d'étude des effets du vieillissement des interfaces collées, basée sur l'utilisation d'un dispositif de fluage innovant pouvant être couplé à un vieillissement hygrothermique. Celui-ci reprend la configuration classique de joint à double recouvrement mais permet de solliciter sous charge constante l'assemblage collé béton/composite. Il présente de plus certaines spécificités (zones de joint non sollicitées, compatibilité avec une machine d'essai à simple recouvrement existante,...) qui permettent de recueillir un grand nombre de résultat expérimentaux complémentaires. En premier lieux, nos travaux présentent une synthèse bibliographique retraçant le contexte du renforcement par composites collés et précisant les principaux mécanismes physico-chimiques susceptibles d'affecter la durabilité des adhésifs. Le manuscrit décrit ensuite les travaux expérimentaux menés pour étudier le comportement mécanique et physico-chimique des deux adhésifs sélectionnés pour la réalisation des joints collés béton/composites. Finalement, une approche prédictive basée sur i) des tests de fluage thermo-stimulés, ii) sur l'application du Principe de Superposition Temps-Température et iii) sur l'utilisation du modèle rhéologique de Burger, a permis de proposer un modèle de fluage non linéaire pour chacun des deux systèmes de colle. La seconde partie des travaux expérimentaux concerne la conception et la validation d'un dispositif innovant destiné à la caractérisation du comportement en fluage des interfaces collées béton/composite. Un élément important du cahier des charges de ce dispositif était d'en limiter l'encombrement, de sorte qu'il soit possible de tester plusieurs corps d'épreuve dans une chambre climatique au volume réduit, en vue d'étudier les effets synergiques du fluage et du vieillissement environnemental sur la durabilité des joints collés. Dans ce contexte, un prototype capable de solliciter en fluage trois corps d'épreuves à double recouvrement réalisés avec le procédé de renforcement Sika®Carbodur®S et connectés sur un unique circuit hydraulique, a été conçu et réalisé. Les résultats issus du prototype ont permis de le valider, en vérifiant notamment le maintient dans le temps de la charge appliquée, et le comportement symétrique des corps d'épreuve à double recouvrement. Le comportement mécanique des interfaces collées s'est révélé répétable, symétrique et conforme aux diverses modélisations réalisées, soit en calculant la réponse instantanée de l'interface au moyen d'un logiciel aux Eléments Finis (E.F.) ou à partir du modèle analytique de Volkersen, soit en calculant la réponse différée de l'interface en intégrant le modèle de fluage non linéaire de l'adhésif identifié précédemment dans le calcul aux E.F.. La dernière partie des travaux présentés dans le manuscrit concerne la réalisation d'un banc complet de fluage impliquant 14 corps d'épreuves à double recouvrement. Ces corps d'épreuve sont réalisés pour moitié avec le système de renforcement Sika®Carbodur®S et pour l'autre moitié avec le système Compodex. Le banc de fluage est installé dans la salle de vieillissement hygrothermique du Département Laboratoire d'Autun (40°C ; 95% H.R.). Tous les corps d'épreuves sont sollicités en fluage par un système de chargement alimenté par un circuit hydraulique similaire à celui utilisé pour le prototype, mais complété par une centrale hydraulique régulant la pression à partir de la mesure d'un capteur de pression. Pour compléter ces caractérisations sur interfaces collées, des essais de vieillissement sont également menés sur des éprouvettes d'adhésifs massiques stockées dans la salle climatique, certaines d'entre elles étant simultanément soumises à des sollicitations de fluage
APA, Harvard, Vancouver, ISO, and other styles
47

Ramos, José. "Méthodologie basée sur la vélocimétrie laser pour l'étude de l'écoulement autour de surfaces portantes en rotation : application à la détermination des efforts locaux sur une pale de rotor en vol stationnaire." Aix-Marseille 2, 1995. http://www.theses.fr/1995AIX22105.

Full text
Abstract:
Ce memoire de these s'inscrit dans le cadre d'etudes concernant le champ aerodynamique s'etablissant sur une surface portante en rotation, et plus particulierement sur un rotor d'helicoptere en configuration de vol stationnaire. Sur le plan experimental, l'ecoulement genere par les pales en rotation, a pu etre analyse tres finement a partir de mesures des champs de vitesse obtenues par une methode avancee de velocimetrie laser a fibres optiques et a grande distance focale, permettant entre autre d'aboutir a une caracterisation de l'ecoulement de sillage. L'etude aerodynamique a ete conduite sur la base de methodologies d'analyse liees a l'application de l'equation de kutta et du bilan de quantite de mouvement sur des volumes de controle lies au developpement du sillage. Le processus developpe permet alors la determination experimentale des performances aerodynamiques globales et locales, et plus particulierement, l'identification et la quantification de la contribution a la trainee totale des composantes de trainee induite, et de la trainee de profil suivant l'envergure de pale, grandeurs jusqu'alors difficilement accessibles. Sur le plan numerique, les donnees experimentales acquises ont ete mises a profit pour valider une methode moderne de calcul de l'aerodynamique du rotor en vol stationnaire, le code phoenix 2. Les comparaisons calcul/experience realisees ont montre une bonne efficacite globale, avec des difficultes de prediction sur les quantites aerodynamiques locales le long de l'envergure de pale, en particulier sur la repartition de trainee induite
APA, Harvard, Vancouver, ISO, and other styles
48

Lucanu, Nicolae. "Contribution à l'étude de la diffraction d'une onde électromagnétique plane par des obstacles métalliques en utilisant la méthode itérative basée sur le concept d'onde." Toulouse, INPT, 2001. http://www.theses.fr/2001INPT024H.

Full text
Abstract:
Le travail est basé sur une méthode originale, la méthode itérative basée sur le concept d'onde, utilisée pour étudier des problèmes de diffraction d'une onde électromagnétique plane par des obstacles métalliques placés en espace libre. Le travail est structuré en deux parties, la première dédiée aux obstacles singuliers, la deuxième traitant des cas de diffraction par des structures multiples de géomètrie arbitraire. Des structures diffractantes classiques sont étuduées d'abord, dans le but de valider la méthode itérative. Celle-ci est testée avec succès pour des obstacles ayant une solution analytique exacte au problème de diffraction sous l'incidence d'une onde plane, un cylindre circulaire infini métallique et une sphère métallique. Par la suite, des géométries diffractantes plus complexes sont abordées. La méthode itérative basée sur le concept d'onde est validée pour les cas d'un cylindre infini métallique de section carrée et d'un dipôle métallique placé d'un manière arbitraire par rapport à l'onde incidente. A la fin de la première partie, l'influence du rayonnement d'un point appartenant à une structure diffractante sur les uatres points de même structure est étudiée, d'abord pour un obstacle cylindrique de section circulaire, ensuite pour le cas d'une surface de forme quelconque. La deuxième partie traite des structures diffractantes multiples, comportant plusieurs dipôles métalliques, distribués dans des géométries quelconques. Le problème de la diffraction par deux pôles métalliques est étudié d'abord, en examinant l'influence mutuelle du rayonnement des distributions de densités de courant sur les dipôles. Une comparaison avec la méthode des moments est réalisée pour un nuage de plusieurs dipôles métalliques, en gardant comme priorité la rapidité du calcul numérique, sans affecter la précision des résultats.
APA, Harvard, Vancouver, ISO, and other styles
49

Duval, Jean-Baptiste. "Détection numérique de petites imperfections de conductivité en 2D et 3D par une méthode dynamique basée sur l'équation des ondes et le contrôle géométrique." Phd thesis, Université de Picardie Jules Verne, 2009. http://tel.archives-ouvertes.fr/tel-00429530.

Full text
Abstract:
Dans cette thèse, nous considérons la solution numérique, dans des domaines bornés bidimensionnels et tridimensionnels, d'un problème inverse pour la localisation d'imperfections de petits volumes contenues dans un domaine sain de conductivité différente que celle des inhomogénéités. L'identification de ces inhomogénéités repose sur une approche dynamique basée sur l'équation des ondes. Notre algorithme numérique s'appuie sur le couplage d'une solution élément fini de l'équation des ondes, d'une méthode de contrôlabilité exacte et d'une inversion de Fourier pour localiser les centres des imperfections. Une application pratique de cette technique pourrait être la localisation de mines anti-personnel ou de tumeurs. Des résultats numériques, en deux et trois dimensions, montrent la robustesse et la précision de l'approche pour retrouver des imperfections, placées aléatoirement, à partir de mesures sur la frontière complète ou sur une partie de la frontière.
APA, Harvard, Vancouver, ISO, and other styles
50

Godet, Sylvain. "Instrumentation de mesure sur puce pour systèmes autotestables : application à la mesure de bruit de phase basée sur des résonateurs BAW." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/987/.

Full text
Abstract:
Ce manuscrit présente l'intégration conjointe d'un banc de mesure de bruit de phase et de résonateurs BAW sur lesquels doit s'effectuer la mesure. Une tendance actuelle vise à intégrer à côté de systèmes plus ou moins complexes, des circuits permettant d'en faciliter les tests. L'intégration du banc de mesure de bruit de phase permet de nous affranchir des contraintes provenant de la mesure externe sous pointes et du coût élevé associé. L'intégration simultanée des circuits de tests avec les systèmes à mesurer, permet également d'exploiter pleinement les possibilités d'appariement de composants disponibles sur un même substrat. Ce type de mesure On-Chip simplifie considérablement la procédure de test, en minimisant l'utilisation de matériel de mesure externe encombrant et de coût élevé. Elle évite aussi les dispersions inhérentes à l'utilisation de composants discrets externes, offrant la possibilité de suivre facilement l'évolution des caractéristiques du système, soit dans le temps, soit après divers types de dégradations. Cette mesure intégrée conduit naturellement à la conception de circuits autotestables, et donc autoreconfigurables. Notre travail de thèse a consisté à définir l'architecture, ainsi que le dimensionnement des différents éléments du banc de mesure, en fonction de la précision de mesure souhaitée. Nous avons montré qu'un système d'instrumentation performant peut s'intégrer dans une technologie SiGe standard
This works deals with an integrated phase noise test bench for BAW resonators. The technology which has been used is the SiGe: C 0. 25 µm BiCMOS7RF process from ST Microelectronics. A current trend is to integrate testing facilities next to more or less complex circuits. The integrated test bench for measuring phase noise can relieve us of the constraints of external probing measurement and high cost. The simultaneous integration of the test circuit with the systems to measure also allows to fully exploiting component matching possibilities available on the same substrate. On-chip measurement greatly simplifies the testing process, minimizing the use of bulky external measurement equipment and high cost. It also allows following the system characteristic variations, in time or after various damages. This measure leads naturally to the design of self-testable, therefore self-reconfigurable, ICs. The goal of this thesis was to define the component architectures and the design of the integrated phase noise test bench, depending on the measurement accuracy. We show that this highly performance instrumentation system can be integrated in a standard SiGe technology
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography