Dissertations / Theses on the topic 'Tolérance méthodologique'

To see the other types of publications on this topic, follow the link: Tolérance méthodologique.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 15 dissertations / theses for your research on the topic 'Tolérance méthodologique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Chamseddine, Abbas. "Méthodologie de diagnostic et tolérance aux défauts de systèmes complexes." Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX30048.

Full text
Abstract:
L'objectif de ce travail est de proposer une méthodologie de diagnostic et de tolérance aux défauts appliquée aux systèmes complexes. Dans cette étude, les défauts de capteurs et d'actionneurs sont considérés. Nous traitons également du problème d'instrumentation des systèmes complexes. Dans un premier temps, nous considérons la conception d'un réseau de capteurs minimal (d'un point de vue du nombre des capteurs) vérifiant l'observabilité du système. Le réseau minimal n'est pas robuste vis-à-vis des défauts des capteurs : la perte d'un capteur peut entraîner la perte d'observabilité du système. Nous proposons alors une approche répondant à ce problème. Nous proposons ensuite une méthodologie de conception d'un réseau de capteurs assurant la diagnosticabilité des défauts d'actionneurs des systèmes complexes. Les approches développées sont formulées sous forme de problèmes d'optimisation binaires non linéaires. Elles sont illustrées et validées en simulation sur un modèle réaliste de suspension active du véhicule
The aim of this work is to propose a methodology of fault diagnosis and fault-tolerant control for complex systems. In this work, both sensor and actuator faults are considered. The problem of complex systems instrumentation is studied. In a first step, we design a minimal number sensor network ensuring the system observability. This minimal number network verifies system's observability but it is not robust in the presence of sensor faults: the breakdown of one sensor may lead to the loss of system's observability. We propose then an approach to design a robust sensor network. Finally, we propose a methodology to design a sensor network ensuring the diagnosability of actuator faults in complex systems. These approaches are formulated as nonlinear binary optimization problems. They are illustrated and validated in simulation using a realistic model of vehicle active suspension
APA, Harvard, Vancouver, ISO, and other styles
2

Yettou, Abdelhalim. "Méthodologie de conversion des spécifications géométriques de tolérance en zones d'incertitude." Mémoire, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/1624.

Full text
Abstract:
Cette étude a pour but la conversion des spécifications géométriques de tolérance en zones d'incertitudes. Pour cela, une représentation des zones de tolérance a été faite, en tenant compte de tous les différents types de tolérancements pouvant y être imposés. Après cela, ces zones de tolérances ont été exprimées sous forme de torseurs de petits déplacements. Par la suite, les éléments de ces torseurs ont été bornés afin de délimiter la zone de tolérance. À ce stade, les équations gouvernant la conversion des spécifications géométriques en zones d'incertitudes sont établies.Cette procédure a été faite pour chaque type de zone de tolérance à savoir, un disque, un trou, le décalage d'une ligne, le décalage d'une paroi plane, un cylindre, un anneau, un parallélépipède et une rainure. Ce développement a aussi été enlisé pour les deux mouvements de recherche, à savoir les déterministes et les statisticiens. Finalement le principe du maximum de matière a été introduit pour toutes les équations.
APA, Harvard, Vancouver, ISO, and other styles
3

Markvoort, Laurent. "Méthodologie d'analyse statistique de tolérances dans les assemblages impliquant des composants déformables." Valenciennes, 2007. https://ged.uphf.fr/nuxeo/site/esupversions/fcddf462-542e-4eb5-b6a5-a98acbaaeab5.

Full text
Abstract:
La thèse justifie puis détaille une méthodologie d'analyse statistique de tolérances prenant en compte les déformations des composants au sein d'un assemblage mécanique. La méthodologie, nommée STA-DEF, intègre une analyse statistique de tolérances (STA) par simulation de Monte Carlo et un calcul, par la méthode des éléments finis, des déformations engendrées par les contraintes d’assemblage et de fonctionnement subies par les composants déformables (DEF). La méthode utilise en entrée un modèle d'assemblage, un schéma de tolérancement à évaluer, une ou plusieurs conditions fonctionnelles à vérifier, ainsi que des connaissances sur les processus d'assemblage (séquence et technologie). En sortie, elle génère une distribution statistique des conditions fonctionnelles mesurées, ainsi qu'une liste ordonnée de contributeurs, c'est-à-dire de l'ensemble des tolérances classées selon leur niveau d'influence sur la condition fonctionnelle. Le calcul des contributeurs utilise la méthode de calcul de sensibilité FAST appliquée sur une surface de réponse déterminée à l’aide des entrées de STA-DEF et des distributions des conditions fonctionnelles vérifiées. Cette méthode a été implémentée sur la base de différents outils logiciels du marché (notamment: eM-tolmate, Abaqus, SimLab) interfacés par des développements en Matlab. Un cas d'étude industriel (capteur de pression d'un moteur à injection commonrail) a été traité avec succès par la méthode afin de valider l'approche et le prototype
The thesis justifies and details an original methodology for performing statistical tolerance analysis taking into account the compliance of components within a mechanical assembly. The methodology, called STA-DEF, combines a statistical tolerance analysis (STA) based on a Monte Carlo simulation, and a Finite Element Analysis of the deformations (DEF) occurring on the components of the assembly due to mounting or operational constraints. The method uses, for input, an assembly model, a proposed tolerancing scheme, one or several functional condition(s) to be checked and some knowledge about the assembly process (sequence and technology). For output, the method generates a statistical distribution of the functional conditions, as well as an ordered list of contributors, i. E. : of the tolerances having a significant influence on the condition. The computation of contributors uses the FAST sensitivity analysis method, applied on a response surface determined by means of the inputs of STA-DEF and the distributions of the verified functional conditions. This method has been implemented on the basis of usual software tools (such as eM-tolmate, Abaqus, SimLab) supplemented with specific developments on Matlab. An industrial case study (a pressure sensor in a commonrail injection system) has been successfully analyzed to validate the method and the prototype
APA, Harvard, Vancouver, ISO, and other styles
4

Caux, Mickael. "Méthodologie de maîtrise des variations géométriques des produits en conception, fabrication et contrôle dans le contexte de l'usine numérique." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00777192.

Full text
Abstract:
Le dessin de définition fonctionnelle décrit les exigences géométriques à respecter pour une pièce afin de garantir le bon fonctionnement d'un mécanisme. Le gammiste détermine une gamme de fabrication permettant de réaliser la pièce en respectant les spécifications fonctionnelles. Il doit déterminer les spécifications de fabrication pour chaque phase, qui permettront de respecter les spécifications fonctionnelles. La méthode présentée dans cette thèse a pour but de générer automatiquement ces spécifications de fabrication pour une gamme donnée. La méthode de transfert s'appuie sur l'analyse des mobilités des surfaces tolérancées et des surfaces de référence. Les mobilités sont modélisées par des indications vectorielles, exprimées dans un repère local pour chaque élément. Quatre opérateurs sont proposés pour manipuler ces mobilités. La méthode est ascendante. Une spécification de fabrication positionne ou oriente la surface réalisée en dernier par rapport au système de références de la phase. La méthode des droites d'analyse donne l'influence de sa tolérance sur l'exigence. Le transfert se poursuit jusqu'à ce que toutes les surfaces soient actives dans la même phase. Un démonstrateur de transfert a été réalisé avec Excel pour une pièce et une gamme décrites dans CATIA.
APA, Harvard, Vancouver, ISO, and other styles
5

Khelassi, Ahmed. "Nouvelle méthodologie de synthèse de lois de commande tolérante aux fautes garantissant la fiabilité des systèmes." Electronic Thesis or Diss., Nancy 1, 2011. http://www.theses.fr/2011NAN10041.

Full text
Abstract:
Les travaux développés dans ce mémoire de thèse portent sur la contribution à une méthodologie de synthèse de lois de commande tolérante aux fautes garantissant la fiabilité des systèmes. Cette nouvelle méthodologie nécessite l'adaptation des différents outils de caractérisation de la fiabilité avec la théorie de la commande. L'intégration explicite de l'aspect charge dans les lois modélisant la fiabilité en ligne est considérée. Une première partie des travaux est consacrée à la reconfigurabilité des systèmes tolérants aux fautes. Une analyse de reconfigurabilité en présence de défauts basée sur la consommation d'énergie ainsi que des objectifs liés à la fiabilité globale du système sont proposés. Un indice de reconfigurabilité est proposé définissant les limites fonctionnelles d'un système commandé en ligne en fonction de la sévérité des défauts et de la dégradation des actionneurs en terme de fiabilité. Dans la deuxième partie, le problème d'allocation et ré-allocation de la commande est considéré. Des solutions sont développées tenant compte de l'état de dégradation et du vieillissement des actionneurs. Les entrées de commande sont attribuées au système en tenant compte de la fiabilité des actionneurs ainsi que les éventuels défauts. Des indicateurs de fiabilité sont proposés et intégrés dans la solution du problème d'allocation et ré-allocation de la commande. La dernière partie est entièrement consacrée à la synthèse d'une loi de commande tolérante aux fautes garantissant la fiabilité globale du système. Une procédure d'analyse de fiabilité des systèmes commandés en ligne est proposée en se basant sur une étude de sensibilité et de criticité des actionneurs. Ainsi, une méthode de commande tolérante aux fautes en tenant compte de la criticité des actionneurs est synthétisée sous une formulation LMI
The works developed in this thesis deal with the active fault tolerant control design incorporating actuators reliability. This new methodology requires the adaptation of the reliability analysis tools with the system control field. The explicit integration of load in the actuators reliability models is considered. First, the reconfigurability analysis of fault tolerant control systems is treated. A reliable reconfigurability analysis based on the energy consumption with respect to overall system reliability is presented. A reconfigurability index which defines the functional limitation of the system is proposed based on fault severity and actuators reliability degradation. The second part of the developed works is devoted to control allocation and re-allocation. Two approaches of control re-allocation are proposed by taking into consideration actuator degradation health. The control inputs are applied to the system with respect to actuators reliability and faults. The third part contributes to a fault tolerant controller design incorporating actuator criticality. A sensitivity analysis of the overall system reliability and criticality indicator are proposed. A new method of active fault tolerant control is developed with Linear Matrix Inequality (LMI) formulation based on actuator criticality
APA, Harvard, Vancouver, ISO, and other styles
6

Khelassi, Ahmed. "Nouvelle méthodologie de synthèse de lois de commande tolérante aux fautes garantissant la fiabilité des systèmes." Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00618655.

Full text
Abstract:
Les travaux développés dans ce mémoire de thèse portent sur la contribution à une méthodologie de synthèse de lois de commande tolérante aux fautes garantissant la fiabilité des systèmes. Cette nouvelle méthodologie nécessite l'adaptation des différents outils de caractérisation de la fiabilité avec la théorie de la commande. L'intégration explicite de l'aspect charge dans les lois modélisant la fiabilité en ligne est considérée. Une première partie des travaux est consacrée à la reconfigurabilité des systèmes tolérants aux fautes. Une analyse de reconfigurabilité en présence de défauts basée sur la consommation d'énergie ainsi que des objectifs liés à la fiabilité globale du système sont proposés. Un indice de reconfigurabilité est proposé définissant les limites fonctionnelles d'un système commandé en ligne en fonction de la sévérité des défauts et de la dégradation des actionneurs en terme de fiabilité. Dans la deuxième partie, le problème d'allocation et ré-allocation de la commande est considéré. Des solutions sont développées tenant compte de l'état de dégradation et du vieillissement des actionneurs. Les entrées de commande sont attribuées au système en tenant compte de la fiabilité des actionneurs ainsi que les éventuels défauts. Des indicateurs de fiabilité sont proposés et intégrés dans la solution du problème d'allocation et ré-allocation de la commande. La dernière partie est entièrement consacrée à la synthèse d'une loi de commande tolérante aux fautes garantissant la fiabilité globale du système. Une procédure d'analyse de fiabilité des systèmes commandés en ligne est proposée en se basant sur une étude de sensibilité et de criticité des actionneurs. Ainsi, une méthode de commande tolérante aux fautes en tenant compte de la criticité des actionneurs est synthétisée sous une formulation LMI.
APA, Harvard, Vancouver, ISO, and other styles
7

Pira, Clément. "Une méthodologie pour appréhender la décision collective dans des systèmes multiagents sujets aux défaillances." Paris 6, 2009. http://www.theses.fr/2009PA066771.

Full text
Abstract:
Cette thèse aborde la question de la fiabilité des protocoles de décision collective dans les systèmes multiagents. L'un des problèmes lié à l'autonomie est de pouvoir évaluer la cohérence du comportement global du système lorsque certains de ses membres ne respectent plus leur spécification. L'étude des protocoles de tolérance aux pannes fait partie intégrante de l'algorithmique répartie, mais leur adaptation au cadre de systèmes d'agents autonomes pose de nombreux problèmes. Ces protocoles prennent très peu en compte l'avis des agents : on sacrifie leurs intérêts au nom de la cohérence du système. En comparaison, la théorie du choix social prend en compte ces intérêts mais ignore les problèmes de communication ou de synchronisation. Après avoir passé en revue un certain nombre de protocoles répartis (consensus) et les techniques mises en oeuvre pour garantir la tolérance du système face à différents types de pannes nous étudions les possibilités d'évolution de ces solutions.
APA, Harvard, Vancouver, ISO, and other styles
8

Bougerol, Antonin. "Modes de défaillance induits par l'environnement radiatif naturel dans les mémoires DRAMs : étude, méthodologie de test et protection." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00610137.

Full text
Abstract:
Les DRAMs sont des mémoires fréquemment utilisées dans les systèmes aéronautiques et spatiaux. Leur tenue aux radiations doit être connue pour satisfaire les exigences de fiabilité des applications critiques. Ces évaluations sont traditionnellement faites en accélérateur de particules. Cependant, les composants se complexifient avec l'intégration technologique. De nouveaux effets apparaissent, impliquant l'augmentation des temps et des coûts de test. Il existe une solution complémentaire, le laser impulsionnel, qui déclenche des effets similaires aux particules. Grâce à ces deux moyens de test, il s'est agi d'étudier les principaux modes de défaillance des DRAMs liés aux radiations : les SEUs (Single Event Upset) dans les plans mémoire, et les SEFIs (Single Event Functional Interrupt) dans les circuits périphériques. L'influence des motifs de test sur les sensibilités SEUs et SEFIs selon la technologie utilisée a ainsi été démontrée. L'étude a de plus identifié l'origine des SEFIs les plus fréquents. En outre, des techniques de test laser ont été développées pour quantifier les surfaces sensibles des différents effets. De ces travaux a pu être dégagée une nouvelle méthodologie de test destinée à l'industrie. Son objectif est d'optimiser l'efficacité et le coût des caractérisations, grâce à l'utilisation de l'outil laser de façon complémentaire aux accélérateurs de particules. Enfin, une nouvelle solution de tolérance aux fautes est proposée : basée sur la propriété des cellules DRAMs d'être immune aux radiations lorsqu'elles sont déchargées, cette technique permet la correction de tous les bits d'un mot logique.
APA, Harvard, Vancouver, ISO, and other styles
9

Jallouli, Mehdi. "Méthodologie de conception d'architectures de processeur sûres de fonctionnement pour les applications mécatroniques." Thesis, Metz, 2009. http://www.theses.fr/2009METZ006S/document.

Full text
Abstract:
L'importance croissante des systèmes électroniques embarqués implique de les rendre de plus en plus sûrs. En effet, certains systèmes tels que les systèmes mécatroniques fonctionnent dans des conditions environnementales sévères les exposants à des erreurs dues aux perturbations. Ainsi, les concepteurs doivent considérer ces erreurs avec attention pour élaborer des remèdes adaptés. Dans ce travail, un intérêt particulier est porté sur la sûreté de fonctionnement des architectures de processeur. Le paradigme du processeur à pile a été choisi puisqu'il présente un bon compromis entre simplicité et efficacité. L'approche que nous avons proposée, évaluée et validée, est basée sur le développement et l'exploitation d'un émulateur logiciel du processeur. La sûreté de fonctionnement est assurée par une exploitation mixte de techniques de protection : une détection matérielle d'erreurs et une correction logicielle. La technique de correction est implantée dans des benchmarks et est validée dans l'émulateur à travers une simulation de différents scenarii d’apparition d’erreurs. Divers paramètres sont évalués tels que la capacité de correction et le surcoût temporel. Cette technique de correction est indépendante de l'application et des moyens de détection, ce qui confirme l'aspect méthodologique de la démarche. Par ailleurs, dans le cadre de la collaboration sollicitée par le projet CIM'Tronic, nous avons fait converger nos travaux avec ceux de l'équipe du CRAN de Nancy/A3SI de Metz en appliquant l'approche du flux informationnel sur le jeu d’instructions du processeur. Nous avons montré la capacité de cette approche d'évaluer la fiabilité de l'ensemble processeur/application
Nowadays, embedded systems are becoming increasingly attractive for many applications. Furthermore, these systems should be more and more dependable. Indeed, systems such as mechatronic or automatically controlled ones often work in harsh environmental conditions making them more prone to errors due to disturbances. Thus, designers should consider ways to protect them against such errors. In this work, a special interest is dedicated to processor architecture dependability as we consider processor-based systems. The stack computer philosophy has been chosen for the processor architecture in order to achieve a good trade-off between simplicity and effectiveness. Our approach to introduce and evaluate the dependability is based on the development and the use of a software emulator of the processor to be designed. Dependability of the processor is ensured through the collaborative use of hardware and software protection techniques: hardware error detection means and software error correction means. The correction technique is implemented in benchmarks and is validated on the emulator through a simulation of various scenarios of errors appearance. Different parameters are evaluated such as correction capability and time overhead. This correction technique is independent from the target application and from the detection means, what confirms the methodological aspect of our approach. Otherwise, as requested by the CIM’tronic project, we integrated our work with the CRAN Nancy/A3SI Metz one by applying the information flow approach on the processor instruction set. We showed the ability of this approach to evaluate the whole processor/application dependability
APA, Harvard, Vancouver, ISO, and other styles
10

Jallouli, Mehdi. "Méthodologie de conception d'architectures de processeur sûres de fonctionnement pour les applications mécatroniques." Electronic Thesis or Diss., Metz, 2009. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2009/Jallouli.Mehdi.SMZ0906.pdf.

Full text
Abstract:
L'importance croissante des systèmes électroniques embarqués implique de les rendre de plus en plus sûrs. En effet, certains systèmes tels que les systèmes mécatroniques fonctionnent dans des conditions environnementales sévères les exposants à des erreurs dues aux perturbations. Ainsi, les concepteurs doivent considérer ces erreurs avec attention pour élaborer des remèdes adaptés. Dans ce travail, un intérêt particulier est porté sur la sûreté de fonctionnement des architectures de processeur. Le paradigme du processeur à pile a été choisi puisqu'il présente un bon compromis entre simplicité et efficacité. L'approche que nous avons proposée, évaluée et validée, est basée sur le développement et l'exploitation d'un émulateur logiciel du processeur. La sûreté de fonctionnement est assurée par une exploitation mixte de techniques de protection : une détection matérielle d'erreurs et une correction logicielle. La technique de correction est implantée dans des benchmarks et est validée dans l'émulateur à travers une simulation de différents scenarii d’apparition d’erreurs. Divers paramètres sont évalués tels que la capacité de correction et le surcoût temporel. Cette technique de correction est indépendante de l'application et des moyens de détection, ce qui confirme l'aspect méthodologique de la démarche. Par ailleurs, dans le cadre de la collaboration sollicitée par le projet CIM'Tronic, nous avons fait converger nos travaux avec ceux de l'équipe du CRAN de Nancy/A3SI de Metz en appliquant l'approche du flux informationnel sur le jeu d’instructions du processeur. Nous avons montré la capacité de cette approche d'évaluer la fiabilité de l'ensemble processeur/application
Nowadays, embedded systems are becoming increasingly attractive for many applications. Furthermore, these systems should be more and more dependable. Indeed, systems such as mechatronic or automatically controlled ones often work in harsh environmental conditions making them more prone to errors due to disturbances. Thus, designers should consider ways to protect them against such errors. In this work, a special interest is dedicated to processor architecture dependability as we consider processor-based systems. The stack computer philosophy has been chosen for the processor architecture in order to achieve a good trade-off between simplicity and effectiveness. Our approach to introduce and evaluate the dependability is based on the development and the use of a software emulator of the processor to be designed. Dependability of the processor is ensured through the collaborative use of hardware and software protection techniques: hardware error detection means and software error correction means. The correction technique is implemented in benchmarks and is validated on the emulator through a simulation of various scenarios of errors appearance. Different parameters are evaluated such as correction capability and time overhead. This correction technique is independent from the target application and from the detection means, what confirms the methodological aspect of our approach. Otherwise, as requested by the CIM’tronic project, we integrated our work with the CRAN Nancy/A3SI Metz one by applying the information flow approach on the processor instruction set. We showed the ability of this approach to evaluate the whole processor/application dependability
APA, Harvard, Vancouver, ISO, and other styles
11

Meguetta, Zine-eddine. "Méthodologie de conception sûre de fonctionnement d'un système de contrôle-commande." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10059/document.

Full text
Abstract:
Cette thèse s'intéresse au problème de la conception de l'architecture d'instrumentation des systèmes de contrôle-commande (C-C). La conception de telles architectures est une activité complexe qui nécessite une vision globale du système. Plus spécifiquement, elle consiste à déterminer l'ensemble des instruments utilisés (nombre et type des capteurs, des actionneurs), leur agencement vis-à-vis du système de C-C. Pour être menée à bien, cette sélection nécessite d'avoir probablement identifié les différentes possibilités quant à la conduite du processus. Ces choix sont contraints par plusieurs critères, d'une part, le coût du système et des différents composants qui se doit d'être minimal, d'autre part, la sûreté de fonctionnement qui s'évalue en termes de la fiabilité d'accomplissement de la mission et enfin par les critères de performances du système à concevoir. Ce domaine de recherche vise à unifier les différentes approches utilisées en automatique, en une méthodologie globale de conception d'architectures de C-C. Ce sujet de thèse s'intéresse à la conception de l'instrumentation d'un système de C-C. Il propose une méthode qui vise à optimiser cette instrumentation sous multicritère: le coût et le critère de sûreté de fonctionnement en fonction de la fiabilité ou le critère de qualité de commande ou le niveau de tolérance aux pannes; cette procédure de conception s'appuie sur un modèle structurel. Cette étude portera sur des systèmes C-C pour l'accomplissement de diverses missions, sans s'intéresser à la représentation interne du système (les équations d'état) mais en utilisant l'analyse structurelle du système, elle se place dès la phase de conception dans le cycle de vie du système. L'intégration de l'aspect de la sûreté de fonctionnement dans la procédure de la méthodologie de conception d'un système C-C peut apparaître ici sous la forme de l'évaluation de fiabilité d'accomplissement de la mission en se basant sur les liens (les liens structurels entre les variables physiques à commander et les instruments) des systèmes étudiés et éventuellement le conditionnement de leur conception sur la base de niveaux de performance et spécification des objectives exigés
This thesis concerns the design of control system instrumentation architecture. The design of such architectures is a complex activity that requires a global vision of the system. More specifically, it consists to determine the set of instruments (number and type of sensors, actuators), their arrangement according the control system instrumentation. The choice of architecture constrains by main multi criteria's, on the one hand, the cost of the system and the various components that must be minimal, on the other hand, the dependability, which is evaluated in terms of the reliability of fulfillment of the mission of the design system. This field of research aims to unify the different approaches used in automatic in a global design methodology of control system instrumentation. This work proposes a method that aims to optimize the instrumentation using multiple criteria: cost criterion and dependability constraints in terms of reliability, quality of control, quality of performance, fault tolerant level. This design methodology is based on structural modeling. This study will focus on control systems to accomplish various missions without take into account the internal representation of the system (state equations). However, the tool of structural analysis is used for modeling of the system in design phase. The integration of the dependability aspect in the design methodology procedure of control system instrumentation may appear here in the form of the assessment of reliability mission based on structural links between the physical variables and instruments of the system, according to the performance levels and specifications of the required objective design
APA, Harvard, Vancouver, ISO, and other styles
12

Semail, Eric. "OUTILS ET MÉTHODOLOGIE D'ÉTUDE DES SYSTÈMES ÉLECTRIQUES POLYPHASÉS. GÉNÉRALISATION DE LA MÉTHODE DES VECTEURS D'ESPACE." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2000. http://tel.archives-ouvertes.fr/tel-00266256.

Full text
Abstract:
La démarche générale du mémoire consiste à utiliser des outils mathématiques permettant d'élaborer un formalisme vectoriel applicable aux systèmes électriques au sens large. Ce formalisme bénéficie à la fois des propriétés graphiques et géométriques de la théorie des vecteurs d'espace qu'il généralise et de la puissance du calcul matriciel. Aussi, est-il tout particulièrement adapté à l'étude des systèmes polyphasés.
Tout d'abord, on caractérise les modulateurs d'énergie indépendamment de leurs charges. Pour cela des espaces vectoriels leur sont associés ainsi que des familles de vecteurs qui les caractérisent. Il est possible alors de définir quel type de charge le modulateur est capable de contrôler. Les degrés de liberté de la commande trouvent également une formulation mathématique. Les exemples traités sont les onduleurs de tension monophasé et triphasé deux niveaux. L'approche conduit, dans le cas d'une commande aux valeurs moyennes, à un calcul original des durées de conduction des interrupteurs en utilisant la notion de barycentre. Les algorithmes obtenus, généralisables aux onduleurs à n bras, comportent un nombre réduit d'opérations logiques et arithmétiques.
Le formalisme est ensuite appliqué à la machine asynchrone triphasée avec q barres au rotor ; ceci nous permet d'expliciter la notion de rotor diphasé équivalent. La machine asynchrone pentaphasée est également modélisée et l'approche développée met en évidence les conditions que doit remplir l'onduleur à 5 bras pour l'alimenter correctement.
Dans la dernière partie, un onduleur de courant à Modulation de Largeur d'Impulsions est étudié à l'aide du formalisme. Les non-linéarités de la commande sont prises en compte vectoriellement, notamment, de façon originale, celle concernant la durée minimale de conduction des interrupteurs. On décrit enfin l'implantation matérielle de cette commande sur microcontrôleur 16 bits et présente les résultats expérimentaux dans le cas d'une charge constituée d'une machine asynchrone triphasée en parallèle avec des condensateurs.
APA, Harvard, Vancouver, ISO, and other styles
13

Bougerol, A. "Modes de défaillance induits par l'environnement radiatif naturel dans les mémoires DRAMs : étude, méthodologie de test et protection." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00611100.

Full text
Abstract:
L'augmentation des performances requises pour les systèmes aéronautiques et spatiaux nécessite l'utilisation de composants électroniques de complexité croissante, dont la fiabilité, incluant la tenue aux radiations cosmiques, doit être évaluée au sol. Les mémoires DRAMs sont largement utilisées, mais leurs modes de défaillance sont de plus en plus variés, aussi les essais traditionnels en accélérateur de particules ne sont plus suffisants pour les caractériser parfaitement. Le laser impulsionnel peut déclencher des effets similaires aux particules ionisantes, aussi cet outil a été utilisé en complément d'accélérateurs de particules pour étudier, d'une part, les événements parasites SEUs (Single Event Upset) dans les plans mémoire et, d'autre part, les SEFIs (Single Event Functional Interrupt) dans les circuits périphériques. Ces études ont notamment permis d'expliquer l'influence des motifs de test sur les sensibilités mesurées, de découvrir l'origine des SEFIs les plus importants ainsi que de valider des techniques pour quantifier leurs surfaces sensibles. Une méthodologie de test destinée aux industriels a été établie, basée sur l'utilisation du moyen laser en complément des essais en accélérateur de particules dans le but d'optimiser les coûts et l'efficacité des caractérisations. En outre, une nouvelle solution de tolérance aux fautes est proposée, utilisant la propriété des cellules DRAMs d'être immune aux radiations pour un de leurs états de charge.
APA, Harvard, Vancouver, ISO, and other styles
14

Sgro, Nathalie. "Le rejet dogmatique d'autrui : analyse des fonctionnements cognitifs et appartenance idéologique." Clermont-Ferrand 2, 2004. http://www.theses.fr/2004CLF20005.

Full text
Abstract:
La conception du dogmatisme élaborée par Rokeach (1960) a suscité beaucoup d'intérêts et de nombreuses recherches en psychologie sociale. Cette thématique a toutefois été largement délaissée ces dernières années, essentiellement en raison de problèmes méthodologiques liés à la mesure du dogmatisme. Ainsi, les questions soulevées par Rokeach sont demeurées sans réponse : le dogmatisme est-il relié à tout extrémisme idéologique ? Existe-t-il un dogmatisme de gauche de la même façon qu'il existe un dogmatisme de droite ? Le dogmatisme se caractérise-t-il par une rigidité mentale et une résistance à l'influence ? Cette thèse propose d'étudier ces questions en utilisant un nouvel outil de mesure : l'échelle de rejet dogmatique (ou échelle DRS) crée par Palmer et Kali (1991). Le dogmatisme pouvant se définir comme l'incapacité à accepter un mode de pensée différent du sien, l'échelle DRS est construite de manière à mesurer directement le rejet d'un autrui ayant des croyances différentes, reflet d'un haut niveau de dogmatisme. Le travail empirique se divise en deux parties. D'abord, une série de 5 études met en évidence la fiabilité et la validité d'une norme française de l'échelle DRS par rapport à l'échelle de Dogmatisme de Rokeach (1960), mais aussi par rapport à l'échelle DOG d'Altemeyer (2002). L'ensemble des résultats suggère que, contrairement aux autres instruments de mesure du dogmatisme, l'échelle DRS n'est pas confondue avec un contenu idéologique particulier. Une deuxième partie montre de manière expérimentale, à l'aide de l'échelle DRS, que les personnes dogmatiques se conforment davantage que les non-dogmatiques à une source d'influence congruente avec leur appartenance idéologique, surtout lorsque la source propose une norme d'intolérance, alors qu'ils résistent davantage à l'influence d'une source non-congruente. Les implications de ces résultats pour le développement de la psychologie sociale du dogmatisme sont discutées
APA, Harvard, Vancouver, ISO, and other styles
15

Bricas, Gaëtan. "Radiation reliability analysis of FPGA-based systems : testing methodologies and analytical approaches." Electronic Thesis or Diss., Université de Montpellier (2022-....), 2022. http://www.theses.fr/2022UMONS070.

Full text
Abstract:
Ce travail se focalise sur les méthodologies de test pour analyser la sensibilité aux radiations des systèmes basés sur FPGA. De par leur flexibilité, l'analyse de fiabilité sur ces composants est une tâche complexe, car leur sensibilité aux radiations est entièrement conditionnée par le système implémenté. En effet, leur sensibilité dépend à la fois de la sensibilité intrinsèque du composant (aux effets de doses et aux effets singuliers) et de la manière dont les perturbations induites peuvent impacter le fonctionnement du système. Les méthodologies actuelles ont montré certaines difficultés pour faire le lien entre la sensibilité intrinsèque du FPGA et celle du système implémenté. L'objectif de cette thèse est d'améliorer les méthodologies de test radiations pour surmonter ces limitations.Au niveau des effets de dose, une nouvelle méthodologie est proposée. Sa principale contribution est d'étendre l'évaluation des dégradations paramétriques à toutes les ressources logique et de routage du composant. Dans ce but, des structures spécifiques ont été développées pour mesurer la dégradation du temps de propagation de chaque type de ressource. Des tests aux rayons-X ont été réalisés sur trois familles de FPGA pour mettre en évidence les bénéfices de cette approche. Au niveau des effets singuliers, la méthodologie proposée se situe entre les deux approches traditionnelles pour les tests sous faisceau de particules (tests au niveau des primitives et test de l'application finale), en proposant une évaluation de la sensibilité à un niveau plus élevé de granularité. Le principe est d'utiliser un benchmark : un ensemble de structures, suffisamment simples pour fournir une bonne testabilité (faible taux de masquage d'erreur) et suffisamment complexes pour être représentatif des applications réelles. Ce benchmark s'articule autour des opérateurs arithmétiques. En utilisant différentes implémentations de la même fonction avec une forte diversité dans les paramètres des circuits et dans l'utilisation des ressources, les tests de radiations remplissent un objectif multiple. Premièrement, les résultats de tests fournissent des informations essentielles pour identifier et comprendre les différents mécanismes de défaillances et leur prédominance ; deuxièmement, cette méthodologie permet d'évaluer qualitativement l'impacte des différents types de ressources instanciées sur la sensibilité global du système et de comparer quantitativement la sensibilité entre différentes implémentations et avec différentes solutions de mitigation pour la même fonction logique. Enfin, elle fournit aux designers des recommandations pour améliorer la fiabilité de leurs systèmes basés sur FPGA. Des tests neutron et proton ont été réalisés pour démontrer les avantages apportés par cette approche.La principale limitation des tests radiation repose sur la difficulté à extrapoler les résultats de tests réalisés avec un circuit donné pour estimer la sensibilité de n'importe quel autre circuit. Pour aborder cette limitation, une nouvelle approche logicielle a été développée pour estimer la susceptibilité des circuits implémentés sur FPGA aux corruptions de la mémoire de configuration. Cette approche analytique se base sur la netlist physique du circuit. Le principe est d'explorer les différents nœuds du circuit et les différentes ressources logiques qui le composent pour extraire l'ensemble des bits de configuration qui sont critiques pour le fonctionnement du système. La principale contribution de cette approche est de prendre en compte la charge de travail du circuit pour analyser la propagation des erreurs et ainsi filtrer parmi l'ensemble des bits de configuration utilisé, ceux qui modifient réellement la réponse du système. L'efficacité de cette approche est évaluée par injection de fautes et par test protons
This work focuses on testing methodologies to analyze the radiation sensitivity of FPGA-based systems. Due to their flexibility, the reliability analysis on these components is a challenging task as the radiation sensitivity is entirely conditioned by the implemented system. Indeed, it depends on the one hand on the intrinsic sensitivity of the component (to both TID and SEEs) and, on the other hand, on the way the different induced perturbations can impact the operation of the implemented system. State-of-the-art methodologies have shown a number of limitations in bridging the intrinsic sensitivity of the FPGA and the one of the implemented systems. The objective of this thesis is to improve radiation testing methodologies to overcome these limitations.Concerning TID effects, a new testing methodology is proposed. Its main contribution is to extend the evaluation of parametric degradations to all logical and routing resources of the component. For this purpose, specific benchmarking structures have been developed to measure the propagation delay deviation of each type of logical and routing resource. A new technique to measure the propagation delay in real time and with limited external instrumentation is also proposed. X-ray radiation tests have been performed on three FPGA families to highlight the benefits of this methodology.As for SEE, the proposed testing methodology lies between the two traditional accelerated particle beam testing approaches (primitive level testing and final application testing) by proposing a sensitivity evaluation at a higher level of granularity. The basic idea is to instantiate a set of dedicated benchmarking structures, simple enough to provide a good testability (low error masking, traversable state spaces) while sufficiently complex to provide a good representativity of the circuits effectively implemented on FPGAs. The benchmarks selected in this study are based on arithmetic operations. By using different implementations of the same arithmetic functions with a large diversity in the circuit parameters, and in the use of resources, the radiation tests fulfill a multifaceted purpose. First, the test results provide extensive information to identify and understand the different failure mechanisms and their predominance; second, it allows to qualitatively evaluate the impact of different types of resources on the global system sensitivity and to quantitatively compare the sensitivity of different implementations of the same logic function and the effectiveness of mitigation solutions. Finally, it provides a set of guidelines for designers to improve the reliability of FPGA-based systems. Several neutron and proton beam tests have been performed to demonstrate the advantages of this approach.The main limitation of radiation testing lies with the difficulty to extrapolate the results of tests performed with a given implemented circuit to estimate the sensitivity of any other circuit. To address these limitations, a new software-based approach has been developed to estimate the susceptibility of circuits implemented on SRAM based FPGA to configuration memory corruptions. This analytical approach uses the physical netlist of the circuit and explores the different nodes and logical resources that compose it to extract all the configuration bits that are critical for the system operation. The main contribution of this approach is to take into account the workload of the circuit, extracted from logic simulation, to analyze the propagation of errors and thus filter among the set of potentially critical configuration bits, those that actually modify the output signals of the system. The efficiency of this approach is validated through fault injection and proton experiment
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography