Academic literature on the topic 'Approches non intrusives'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Approches non intrusives.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Approches non intrusives"

1

Losquin, Arthur, and Ludovic Douillard. "La microscopie de photoémission d’électrons, un outil multidimensionnel pour l’optique champ proche." Photoniques, no. 102 (May 2020): 35–38. http://dx.doi.org/10.1051/photon/202010235.

Full text
Abstract:
La microscopie de photoémission d’électrons constitue une technique non intrusive d’investigation du champ proche optique. Son domaine d’application actuel autorise une approche physique multidimensionnelle des phénomènes d’optique de champ proche aux échelles spatiale (nm), temporelle (fs) et spectrale (meV).
APA, Harvard, Vancouver, ISO, and other styles
2

Hammoudi, Mhamed, Maiouf Belhamel, and El-Khider Si-Ahmed. "Caractérisation locale des mélanges de fluides à l’aide d’une Méthode non intrusive (la vélocimétrie ultrasonore pulsée)." Journal of Renewable Energies 11, no. 4 (December 31, 2008). http://dx.doi.org/10.54966/jreen.v11i4.105.

Full text
Abstract:
Les opérations de mélanges ou de dispersion sont largement rencontrées dans de nombreux procédés industriels. En effet, les processus d’homogénéisation et de transformation, physique ou chimique, de la matière ou du transfert d’énergie sont à la base de nombreux secteurs industriels, tels que: l’agroalimentaire, la pétrochimie, l’industrie pharmaceutique, la cosmétique, la papeterie… Néanmoins, le choix des systèmes d’agitations, permettant de réaliser les opérations de mélangeages ou d’extractions, dépend essentiellement de leurs capacités de transferts de masse et d’énergie, leur efficacité, ainsi que de leur consommation énergétique. L’extraction des profils de vitesses et ceux de l’intensité turbulente par vélocimétrie ultrasonore pulsée permet d’estimer quantitativement et qualitativement l’évolution locale et globale du mélange à toutes les échelles (macroscopique, intermédiaire et microscopique) à travers l’estimation des temps de mélange multi échelle ou bien à l’aide de l’indice de ségrégation. Dans ce travail, nous allons présenter les mécanismes inhérents à chaque échelle de mélange en associant ces derniers aux effets hydrodynamiques rencontrés lors d’un écoulement de fluide à travers un mélangeur statique de type SMX. A cet effet, on présentera en premier lieu, les évolutions des profils de vitesses et ceux de l’intensité turbulente obtenus par vélocimétrie ultrasonore pulsée. L’analyse hydrodynamique de l’écoulement permet d’estimer les temps de mélanges multi échelle en fonction du débit et de caractériser la qualité du mélange à travers le SMX en régime turbulent. L’objectif de ce travail est de valider une approche locale et donc plus précise de la détermination des temps de mélanges multi échelles (macro mixing, méso mixing et micro mixing), à l’aide d’une méthode non intrusive; la VUP. Cette approche permettra de mieux apprécier l’impact de la turbulence locale sur les processus de mélanges. Une application future de cette approche pourra être envisagé dans les mélanges gazeux et plus particulièrement ceux contenant l’hydrogène.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Approches non intrusives"

1

Ali, Zeshan. "Authentification d'etiquettes RFID sans puce par des approches RF non intrusives." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT026.

Full text
Abstract:
Dans cette thèse, le concept d'identification par radiofréquence sans puce (chipless RFID) est étendu à l'authentification où chaque étiquette doit présenter une signature unique qui ne peut jamais être reproduite même si quelqu'un tente de copier l'étiquette. À cette fin, le caractère aléatoire naturel (c’est-à-dire inhérent au processus de fabrication) ainsi que les paramètres de dimension des résonateurs sont utilisés. Un tel caractère aléatoire naturel peut produire des signatures électromagnétiques (EM) uniques, éventuellement utilisées pour l'authentification. Initialement, nous avons prouvé l’idée proposée en appliquant intentionnellement les variations dimensionnelles le long des résonateurs. Différentes valeurs des variations dimensionnelles appliquées sont utilisées pour trouver la variation minimale détectable par l'approche radar sans puce RFID. De plus, une analyse statistique a été réalisée pour calculer les taux d'erreur. Par la suite, une approche par spectrogramme est proposée pour extraire des paramètres indépendants de l’aspect (c’est-à-dire la fréquence de résonance et le facteur de qualité) des étiquettes RFID sans puce. Enfin, nous avons fabriqué plusieurs résonateurs présentant un caractère aléatoire naturel (sans aucune variation dimensionnelle appliquée) afin de caractériser la performance des étiquettes sans puce pour les applications d'authentification. Des technologies de réalisation à faible coût basées sur des circuits imprimés avec un procédé de gravure chimique et l’impression à jet d’encre par une imprimante de bureau ordinaire sont utilisées. Le caractère aléatoire naturel selon les dimensions des résonateurs est également confirmé par l'analyse microscopique à l'aide d'un microscope numérique
In this thesis, the concept of chipless radio frequency identification (RFID) is extended to the chipless authentication where each tag has to present a unique signature that can never be reproduced even if someone tries to copy the tag. For this purpose, natural randomness (i.e., inherent in the fabrication process) along dimension parameters of resonators is utilized. Such natural randomness can produce unique electromagnetic (EM) signatures that are possibly employed for authentication. Initially, we proved the proposed idea by purposely applying the dimensional variations along the resonators. Different values of the purposely applied dimensional variations are used to find the minimum detectable variation by the chipless RFID radar approach. Additionally, a statistical analysis has been performed to calculate the error rates. Subsequently, a spectrogram approach is proposed to extract aspect-independent parameters (i.e., the frequency of resonance and quality factor) of chipless RFID tags. Finally, we fabricated numerous resonators exhibiting natural randomness (without any purposely applied dimensional variations) to characterize the potential of the chipless tags for authentication applications. Low-cost realization technologies such as printed circuit board (PCB) using chemical etching process and inkjet printing using ordinary office printer are utilized. The natural randomness along the dimensions of resonators is also confirmed by the microscopic analysis using a digital microscope
APA, Harvard, Vancouver, ISO, and other styles
2

Ahmed, Mosabbah Mushir. "Authentification de puces électroniques par des approches RF et THz non intrusives." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT005.

Full text
Abstract:
L'avènement du dispositif à l'échelle nanométrique ou la réduction des circuits intégrés (CI) est devenu une bénédiction pour la civilisation humaine. De nos jours, il est devenu très courant de trouver des appareils électroniques dans différentes applications et instruments de divers secteurs. Les circuits intégrés ne se limitent plus aux ordinateurs et aux téléphones portables, ils font également partie intégrante de notre vie quotidienne. On les trouve dans nos cuisines (micro-ondes, four), dans les hôpitaux (ECG, IRM, etc.), dans les banques, dans l'espace, dans les télécommunications, la défense, etc. Cela nous a bien évidemment simplifié la vie. Cependant, tout a un prix.Les mutations économiques dues à l'intégration de l'électronique dans différents domaines ont exercé une pression supplémentaire sur les entreprises et les fabricants pour qu'ils produisent leur produit dans des contraintes de coût et de temps plus strictes. Cela a conduit des entreprises à étayer leurs unités de fabrication dans des fonderies indépendantes de leur volonté. En raison de cet avènement de petites fonderies non fiables ont vu le jour. L'augmentation du nombre d'usines de fabrication ou de fonderies est à l'origine du phénomène de la contrefaçon de composants électroniques, en particulier de circuits intégrés. Pour les petites fonderies qui ne répondent pas à toutes les spécifications, si elles se familiarisent avec la conception du circuit, elles peuvent produire un circuit intégré similaire à celui développé par les fabricants de composants d'origine (OCM) et les vendre sur le marché sans l'autorisation préalable d'OCM. sans effectuer des tests standardisés. En outre, les fonderies malveillantes ou non fiables peuvent copier et cloner la liste des périphériques et vendre sous le nom d’OCM. Cependant, en raison de l’absence de techniques efficaces de détection et d’évitement, beaucoup plus d’instances de CI contrefaits échappent à la détection que celles détectées. Au cours des dernières années, l’augmentation du nombre d’incidents de contrefaçon de circuits intégrés a poussé le concepteur et les chercheurs à mettre au point diverses méthodes d’essai et de normalisation en place. Cependant, beaucoup de ces méthodes peuvent être lourdes et avoir des implications énormes et des coûts importants pour leur mise en œuvre. Cela peut décourager les utilisateurs et les MCO d'appliquer ces méthodes dans leur produit.Dans cette thèse, nous avons travaillé sur la mise en œuvre d'une méthodologie pouvant être utilisée pour générer des empreintes digitales ou des signatures à partir des CI pouvant être utilisés aux fins de leur authentification. La méthode adoptée dans ce travail est basée sur l'idée d'exploiter les variations de processus induites par la fabrication en mettant en oeuvre les ondes électromagnétiques (EM). La variabilité de la fabrication des divers dispositifs testés a été exploitée par l’utilisation des ondes électromagnétiques. Les effets de variation de processus exploités ont été soumis à des traitements mathématiques pour quantifier la réponse de manière statistique.Les tâches suivantes ont été implémentées dans ce travail:• Étude de pointe sur la contrefaçon et le clonage de circuits intégrés (à la fois sur le risque et les techniques d’atténuation).• Configuration de la mesure: choix des composants, développement des mesures sur carte.• Configuration du circuit pour maximiser la sensibilité de mesure.• Campagnes de mesure utilisant différentes approches (RF).• Exploitation des mesures afin d’extraire les informations d’authentification de la mesure.Ces travaux ont principalement porté sur l’utilisation de deux dispositifs à semi-conducteurs différents, à savoir le FPGA et les microcontrôleurs. Ce sont des appareils très utilisés et trouvent leur application dans divers domaines. Le calcul statistique après traitement mathématique des réponses donne le taux d'erreur qui détermine l'efficacité des méthodologies adoptées
The advent of nano-scale device or shrinking of integrated circuits (IC) has become a blessing for the human civilization. Nowadays it has become very much common to find piece of electronic devices in different applications and instruments of various sectors. ICs now are not only confined to computers and mobiles but they are integral part of our everyday life. They can be found in our kitchens (in microwaves, oven), in hospitals (instruments such as ECG, MRI etc.),banks, space, telecom, defense etc. It has of course made our lives easier. However everything comes with a price.The change in economy due to the integration of electronics in different domains have put an extra pressure on companies and manufacturers to produce their product in tighter constraints in terms of cost and time. This has led to companies of shoring their manufacturing units to foundries beyond their direct control. Due to this advent of small and untrusted foundries have been on rise. The rise in various manufacturing units or foundries has given rise to the phenomenon of counterfeiting of electronic components especially ICs. For smaller foundries who do not meet all the specification, if they get hand to the design of the circuit layout, they can produce the IC similar to the one developed by original component manufacturers (OCMs) and sell them into market without consent of OCM and without performing standardized tests. Also, the malicious or untrusted foundries can copy and clone the netlist of devices and sell under the name of OCM. Various types of counterfeit ICs – recycled, remarked, overproduced, out-of-spec/defective, cloned, forged documentation, and tampered – have made the supply chain vulnerable to various attacks. However, due to the lack of efficient detection and avoidance techniques, many more instances of counterfeit ICs evade detection than those that are actually detected. Over last few years the rise in the incidents of IC counterfeit has propelled the designer and researchers to develop various testing and standardization methods in place. However, many of these methods can be cumbersome and have huge implications and costs for their implementations. This can be discouraging for the users and OCMs to implement these methods in their product.In this dissertation, we have worked on the implementation of methodology that can be used to generate fingerprints or signatures form the ICs which can be used for the purpose of their authentication. The method adopted in this work is based on the idea of exploiting the manufacturing induced process variations by implementing the electromagnetic (EM) waves. The manufacturing variability of various devices under test have been exploited through use of EM waves. The use of EM waves have been studied in detail along with the various implications of using and generating them in the IC. This dissertation uses two methodologies to utilize EM wave for the exploitation of the process variation effects. The exploited process variation effects have been subjected to mathematical treatments to quantify the response statistically.The following tasks have been implemented in this work:• State of the art study of IC counterfeiting and IC cloning (on both risk and mitigation techniques).• Measurement set-up: Component choices, board measurement development.• Circuit configuration to maximize the measurement sensitivity.• Measurement campaigns using different approaches (RF).• Measurement Exploitation in order to extract authentication information from the measurement.This work has focused on using two different semiconductor devices i.e. FPGA and microcontrollers. These are highly used devices and find their application in various domains. The statistical computation after mathematical treatment of responses, gives the error rate which determines the efficiency of the methodologies adopted
APA, Harvard, Vancouver, ISO, and other styles
3

Biezemans, Rutger. "Multiscale methods : non-intrusive implementation, advection-dominated problems and related topics." Electronic Thesis or Diss., Marne-la-vallée, ENPC, 2023. http://www.theses.fr/2023ENPC0029.

Full text
Abstract:
Cette thèse porte sur les méthodes numériques pour les équations aux dérivées partielles (EDP) multi-échelles, et en particulier sur la méthode dite des éléments finis multi-échelles (MsFEM). Celle-ci est une méthode de type éléments finis qui consiste en une approximation de Galerkin de l'EDP sur une base problème-dépendante. Trois difficultés particulières liées à cette méthode sont abordées dans cette thèse. Premièrement, puisque la MsFEM utilise une base problème-dépendante, la méthode ne peut être facilement implémentée dans des codes industriels génériques. Cela freine la diffusion de la MsFEM au-delà des environnements académiques. Une méthodologie générique est proposée pour convertir la MsFEM en un problème effectif qui peut être résolu par des codes génériques. Il est démontré par des résultats théoriques ainsi que des expériences numériques que la nouvelle méthodologie est aussi précise que la MsFEM originale. Deuxièmement, les MsFEM adaptées aux problèmes advection-dominés sont étudiées. Ce régime spécifique rend instables les discrétisations naïves. Une explication est trouvée pour l'instabilité de certaines méthodes proposées précédemment. Des expériences numériques montrent la stabilité d'une MsFEM avec des conditions aux limites de type Crouzeix-Raviart enrichie par des fonctions bulles. Troisièmement, une nouvelle analyse de convergence pour la MsFEM est présentée, permettant pour la première fois d'établir la convergence sous des hypothèses de régularité minimales. Cette démarche est importante pour réduire l'écart entre la théorie pour la MsFEM et son application en pratique, où les hypothèses de régularité habituelles sont rarement satisfaites
This thesis is concerned with computational methods for multiscale partial differential equations (PDEs), and in particular the multiscale finite element method (MsFEM). This is a finite element type method that performs a Galerkin approximation of the PDE on a problem-dependent basis. Three particular difficulties related to the method are addressed in this thesis. First, the intrusiveness of the MsFEM is considered. Since the MsFEM uses a problem-dependent basis, it cannot easily be implemented in generic industrial codes and this hinders its adoption beyond academic environments. A generic methodology is proposed that translates the MsFEM into an effective problem that can be solved by generic codes. It is shown by theoretical convergence estimates and numerical experiments that the new methodology is as accurate as the original MsFEM. Second, MsFEMs for advection-dominated problems are studied. These problems cause additional instabilities for naive discretizations. An explanation is found for the instability of previously proposed methods. Numerical experiments show the stability of an MsFEM with Crouzeix-Raviart type boundary conditions enriched with bubble functions. Third, a new convergence analysis for the MsFEM is presented that, for the first time, establishes convergence under minimal regularity hypotheses. This bridges an important gap between the theoretical understanding of the method and its field of application, where the usual regularity hypotheses are rarely satisfied
APA, Harvard, Vancouver, ISO, and other styles
4

Berveiller, Marc. "Eléments finis stochastiques : approches intrusive et non intrusive pour des analyses de fiabilité." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2005. http://tel.archives-ouvertes.fr/tel-00366225.

Full text
Abstract:
La méthode des éléments finis stochastiques (MEFS) a été développée pour modéliser l'aléa sous la forme de variables aléatoires de type quelconque dans le cadre de la mécanique linéaire élastique. Elle consiste à écrire les composantes de la réponse aléatoire du système sous la forme d'une série polynomiale de variables aléatoires (baptisée chaos polynomial), dont les coefficients sont obtenus par une méthode de type Galerkin. Le champ d'application de cette méthode étant limité, de nouvelles méthodes, dites non intrusives, permettant le calcul du développement de la réponse dans la base du chaos polynomial ont été recherchées.
Les méthodes MEFS et non intrusive ont été testées et comparées sur des exemples de mécanique élastique linéaire. Enfin les approches non intrusives ont été utilisées dans un cas de mécanique de la rupture non linéaire.
APA, Harvard, Vancouver, ISO, and other styles
5

Berveiller, Marc Lemaire Maurice. "Eléments finis stochastiques : approches intrusive et non intrusive pour des analyses de fiabilité." Clermont-Ferrand : Université Blaise Pascal. Clermont-ferrand 2, 2008. http://195.221.120.247/simclient/consultation/binaries/stream.asp?INSTANCE=UCFRSIM&eidmpa=DOCUMENTS_THESES_68.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Gendre, Lionel. "Approche globale / locale non-intrusive : application aux structures avec plasticité localisée." Phd thesis, Cachan, Ecole normale supérieure, 2009. http://tel.archives-ouvertes.fr/tel-00449687/fr/.

Full text
Abstract:
Cette thèse, une méthode permettant d'enrichir localement un problème éléments finis industriel est présentée. Cette méthode est non-intrusive, c'est-à-dire que ni le modèle ni le logiciel correspondant ne sont modifiés. Elle consiste à définir un modèle local de la zone concernée, contenant les enrichissements voulus, puis à le substituer au sein du problème industriel, à l'aide d'une technique de couplage de codes adaptée des méthodes de décomposition de domaine. L'aspect non-intrusif et la flexibilité de l'approche sont obtenus en utilisant les deux solveurs comme "boîte noires" et en n'échangeant que des chargements nodaux d'un code à l'autre. L'application présentée ici concerne l'introduction de plasticité et de détails géométriques localisés dans un modèle élastique linéaire. Deux sortes de conditions aux limites sur le modèle local sont étudiées (Dirichlet et Robin) et une technique d'accélération quasi-newton non-intrusive est proposée, menant à une convergence très rapide. Les exemples présentés utilisent le logiciel Abaqus et incluent un problème industriel banalisé fourni par Snecma
This work introduces a method for embedding local details, nonlinear phenomena or innovative features into an industrial finite element problem in a non-intrusive way, ie. Without modifying the existing model data or software. It consists in creating a local model of the concerned region, containing the desired features, and then substituting it into the industrial problem, by the means of a solver coupling technique adapted from domain decomposition methods; non-intrusiveness and flexibility are obtained by using both solvers as black boxes and by only exchanging load vectors between the solvers. The method is currently applied to introduce localized plasticity and geometric details into a large linear elastic model. Two kinds of local boundary conditions are studied (Dirichlet and Robin) and a non-intrusive quasi-Newton acceleration technique is introduced, that leads to very fast convergence. Examples are shown using the commercial software package Abaqus, including a large 3D problem provided by our industrial partner Snecma
APA, Harvard, Vancouver, ISO, and other styles
7

Wangermez, Maxence. "Méthode de couplage surfacique pour modèles non-compatibles de matériaux hétérogènes : approche micro-macro et implémentation non-intrusive." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN001.

Full text
Abstract:
Un des objectifs prioritaires des industries aéronautiques est la réduction de la masse des structures, tout en permettant l'amélioration de leurs performances. Ceci passe notamment par l'utilisation de matériaux composites et le recours croissant à la simulation numérique, permettant la minimisation du nombre d'essais physiques et l'optimisation des structures.L'enjeu de ces travaux est de pouvoir calculer précisément, sur des matériaux architecturés, l'influence de la microstructure, modélisée par exemple directement par tomographie, sur la tenue de pièces complètes. Pour prendre en compte à la fois l'ensemble de la pièce et les effets de son chargement, une approche global/local multiéchelle semble adaptée tant du point de vue des méthodes de calcul que des modèles matériaux utilisés.Pour répondre à cette problématique, une méthode de couplage entre des modèles qui décrivent une même structure, mais à des échelles différentes, a été développée. Elle repose sur une séparation micro-macro des quantités d’interface, dans la zone de raccord surfacique entre les deux modèles. Pour faciliter son utilisation dans les bureaux d’étude, une technique de résolution itérative non-intrusive est également présentée. Elle permet de mettre en œuvre la méthode de couplage proposée dans un environnement logiciel industriel qui utilise bien souvent des codes éléments finis commerciaux fermés. La méthode est systématiquement comparée à d'autres méthodes de couplage de la littérature et la qualité des solutions est quantifiée par comparaison à une solution de référence obtenue par un calcul direct à l'échelle fine.Les principaux résultats sont encourageants dans la mesure où ils montrent, dans des cas d'étude représentatifs bidimensionnels et tridimensionnels, sous des hypothèses d’élasticité linéaire, des solutions cohérentes avec les théories de l’homogénéisation au premier et second ordre. De fait, les solutions obtenues sont systématiquement de meilleure qualité avec la méthode proposée qu'avec les méthodes de la littérature, non-adaptées à des cas de couplage pour modèles non-compatibles.Finalement, les perspectives sont multiples en raison des différentes alternatives de la méthode qui, dans un contexte industriel, pourrait offrir un véritable outil d'analyse visant à introduire un modèle local décrit à l'échelle fine dans un modèle global macroscopique homogénéisé
One of the priority objectives of the aeronautics industry is to reduce the mass of structures while improving their performances. This involves the use of composite materials and the increasing use of digital simulation to optimize structures.The major challenge of this project is to be able to accurately calculate the local variations of the microstructure - for instance detected by tomography and directly modelled from tomogram - on the behavior of an architectured material part. In order to take into account the whole structure and its load effects, a multi-scale approach seems to be a natural choice. Indeed, the related models to the part and its microstructure might use different formalisms according to each scale.In this context, a coupling formulation was proposed in order to replace, in a non-intrusive way, a part of a homogenized macroscopic finite-element model by a local one described at a microscopic level. It is based on a micro-macro separation of interface quantities in the coupling area between the two models. To simplify its use in design offices, a non-intrusive iterative resolution procedure has also been proposed. It allows the implementation of the proposed coupling method in an industrial software environment that often uses closed commercial finite element codes. Different mechanical problems under linear elasticity assumption are proposed. The proposed method is systematically compared with other coupling methods of the literature and the quality of the solutions is quantified compared to a reference one obtained by direct numerical simulation at a fine scale.The main results are promising as they show, for representatives test cases under linear elasticity assumption in two and three-dimensions, solutions that are consistent with first- and second-order homogenization theories. The solutions obtained with the proposed method are systematically the best approximations of the reference solution whereas the methods of the literature are less accurate and shown to be unsuitable to couple non-compatible models.Finally, there are many perspectives due to the different alternatives of the method which could become, in an industrial context, a real analytic tool that aims to introduce a local model described at a fine scale, into a homogenized macroscopic global one
APA, Harvard, Vancouver, ISO, and other styles
8

Tirvaudey, Marie. "Couplage AIG/MEG pour l'analyse de détails structuraux par une approche non intrusive et certifiée." Thesis, Toulouse, INSA, 2019. http://www.theses.fr/2019ISAT0016/document.

Full text
Abstract:
Dans le contexte industriel actuel, où la simulation numérique joue un rôle majeur, de nombreux outils sont développés afin de rendre les calculs les plus performants et exacts possibles en utilisant les ressources numériques de façon optimale. Parmi ces outils, ceux non-intrusifs, c’est-à-dire ne modifiant pas les codes commerciaux disponibles mais permettant d’utiliser des méthodes de résolution avancées telles que l’analyse isogéométrique ou les couplages multi-échelles, apparaissent parmi les plus attirants pour les industriels. L’objectif de cette thèse est ainsi de coupler l’Analyse IsoGéométrique (AIG) et la Méthode des Éléments Finis (MEF) standard pour l’analyse de détails structuraux par une approche non-intrusive et certifiée. Dans un premier temps, on développe un lien global approché entre les fonctions de Lagrange, classiquement utilisées en éléments finis et les fonctions NURBS bases de l’AIG, ce qui permet d’implémenter des analyses isogéométriques dans un code industriel EF vu comme une boîte noire. Au travers d’exemples linéaires et non-linéaires implémentés dans le code industriel Code_Aster de EDF, nous démontrons l’efficacité de ce pont AIG\MEF et les possibilités d’applications industrielles. Il est aussi démontré que ce lien permet de simplifier l’implémentation du couplage non-intrusif entre un problème global isogéométrique et un problème local éléments finis. Ensuite, le concept de couplage non-intrusif entre les méthodes étant ainsi possible, une stratégie d’adaptation est mise en place afin de certifier ce couplage vis-à-vis d’une quantité d’intérêt. Cette stratégie d’adaptation est basée sur des méthodes d’estimation d’erreur a posteriori. Un estimateur global et des indicateurs d’erreur d’itération, de modèle et de discrétisation permettent de piloter la définition du problème couplé. La méthode des résidus est utilisée pour évaluer ces erreurs dans des cas linéaires, et une extension aux problèmes non-linéaires via le concept d’Erreur en Relation de Comportement (ERC) est proposée
In the current industrial context where the numerical simulation plays a major role, a large amount of tools are developed in order to perform accurate and effective simulations using as less numerical resources as possible. Among all these tools, the non-intrusive ones which do not modify the existing structure of commercial softwares but allowing the use of advanced solving methods, such as isogeometric analysis or multi-scale coupling, are the more attractive to the industry. The goal of these thesis works is thus the coupling of the Isogeometric Analysis (IGA) with the Finite Element Method (FEM) to analyse structural details with a non-intrusive and certified approach. First, we develop an approximate global link between the Lagrange functions, commonly used in the FEM, and the NURBS functions on which the IGA is based. It’s allowed the implementation of isogeometric analysis in an existing finite element industrial software considering as a black-box. Through linear and nonlinear examples implemented in the industrial software Code_Aster of EDF, we show the efficiency of the IGA\FEM bridge and all the industrial applications that can be made. This link is also a key to simplify the non-intrusive coupling between a global isogeometric problem and a local finite element problem. Then, as the non-intrusive coupling between both methods is possible, an adaptive process is introduced in order to certify this coupling regarding a quantity of interest. This adaptive strategy is based on a posteriori error estimation. A global estimator and indicators of iteration, model and discretization error sources are computed to control the definition of the coupled problem. Residual base methods are performed to estimated errors for linear cases, an extension to the concept of constitutive relation errors is also initiated for non-linear problems
APA, Harvard, Vancouver, ISO, and other styles
9

Le, Xuan-Chien. "Improving performance of non-intrusive load monitoring with low-cost sensor networks." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S019/document.

Full text
Abstract:
Dans les maisons et bâtiments intelligents, il devient nécessaire de limiter l'intervention humaine sur le système énergétique, afin de fluctuer automatiquement l'énergie consommée par les appareils consommateurs. Pour cela, un système de mesure de la consommation électrique d'équipements est aussi nécessaire et peut être déployé de deux façons : intrusive ou non-intrusive. La première solution consiste à relever la consommation de chaque appareil, ce qui est inenvisageable à une grande échelle pour des raisons pratiques liées à l'entretien et aux coûts. Donc, la solution non-intrusive (NILM pour Non-Intrusive Load Monitoring), qui est capable d'identifier les différents appareils en se basant sur les signatures extraites d'une consommation globale, est plus prometteuse. Le problème le plus difficile des algorithmes NILM est comment discriminer les appareils qui ont la même caractéristique énergétique. Pour surmonter ce problème, dans cette thèse, nous proposons d'utiliser une information externe pour améliorer la performance des algorithmes existants. Les premières informations additionnelles proposées considèrent l'état précédent de chaque appareil comme la probabilité de transition d'état ou la distance de Hamming entre l'état courant et l'état précédent. Ces informations sont utilisées pour sélectionner l'ensemble le plus approprié des dispositifs actifs parmi toutes les combinaisons possibles. Nous résolvons ce problème de minimisation en norme l1 par un algorithme d'exploration exhaustive. Nous proposons également d'utiliser une autre information externe qui est la probabilité de fonctionnement de chaque appareil fournie par un réseau de capteurs sans fil (WSN pour Wireless Sensor Network) déployé dans le bâtiment. Ce système baptisé SmartSense, est différent de la solution intrusive car seul un sous-ensemble de tous les dispositifs est surveillé par les capteurs, ce qui rend le système moins intrusif. Trois approches sont appliquées dans le système SmartSense. La première approche applique une détection de changements de niveau sur le signal global de puissance consommé et les compare avec ceux existants pour identifier les dispositifs correspondants. La deuxième approche vise à résoudre le problème de minimisation en norme l1 avec les algorithmes heuristiques de composition Paréto-algébrique et de programmation dynamique. Les résultats de simulation montrent que la performance des algorithmes proposés augmente significativement avec la probabilité d'opération des dispositifs surveillés par le WSN. Comme il n'y a qu'un sous-ensemble de tous les appareils qui sont surveillés par les capteurs, ceux qui sont sélectionnés doivent satisfaire quelques critères tels qu'un taux d'utilisation élevé ou des confusions dans les signatures sélectionnées avec celles des autres
In smart homes, human intervention in the energy system needs to be eliminated as much as possible and an energy management system is required to automatically fluctuate the power consumption of the electrical devices. To design such system, a load monitoring system is necessary to be deployed in two ways: intrusive or non-intrusive. The intrusive approach requires a high deployment cost and too much technical intervention in the power supply. Therefore, the Non-Intrusive Load Monitoring (NILM) approach, in which the operation of a device can be detected based on the features extracted from the aggregate power consumption, is more promising. The difficulty of any NILM algorithm is the ambiguity among the devices with the same power characteristics. To overcome this challenge, in this thesis, we propose to use an external information to improve the performance of the existing NILM algorithms. The first proposed additional features relate to the previous state of each device such as state transition probability or the Hamming distance between the current state and the previous state. They are used to select the most suitable set of operating devices among all possible combinations when solving the l1-norm minimization problem of NILM by a brute force algorithm. Besides, we also propose to use another external feature that is the operating probability of each device provided by an additional Wireless Sensor Network (WSN). Different from the intrusive load monitoring, in this so-called SmartSense system, only a subset of all devices is monitored by the sensors, which makes the system quite less intrusive. Two approaches are applied in the SmartSense system. The first approach applies an edge detector to detect the step-changes on the power signal and then compare with the existing library to identify the corresponding devices. Meanwhile, the second approach tries to solve the l1-norm minimization problem in NILM with a compositional Pareto-algebraic heuristic and dynamic programming algorithms. The simulation results show that the performance of the proposed algorithms is significantly improved with the operating probability of the monitored devices provided by the WSN. Because only part of the devices are monitored, the selected ones must satisfy some criteria including high using rate and more confusions on the selected patterns with the others
APA, Harvard, Vancouver, ISO, and other styles
10

Hauseux, Paul. "Propagation d’incertitudes paramétriques dans les modèles numériques en mécanique non linéaire : applications à des problèmes d’excavation." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10116/document.

Full text
Abstract:
Le stockage des déchets radioactifs dans des formations géologiques profondes nécessite d'excaver de la roche en grande profondeur pour accueillir les différentes installations. L'argilite du Callovo-Oxfordian a été choisie comme une potentielle formation hôte grâce à sa capacité de rétention et ses propriétés hydromécaniques. L'objectif de la thèse est d'étudier numériquement la fissuration induite lors du creusement des galeries souterraines à -490 m de profondeur. Un modèle Éléments Finis 3D (méthode E-FEM) est développé pour représenter la fissuration. Plusieurs critères sont proposés pour caractériser les fissures avec une ouverture en mode I ou un glissement en mode II. L'influence de l'anisotropie des propriétés de l'argilite et du champ de contrainte in situ sur les réseaux de fractures et la convergence des galeries est principalement étudiée. L'origine géologique de l'argilite, la complexité de sa microstructure et les grandes dimensions des galeries amènent à des incertitudes sur les propriétés hydromécaniques de ce matériau. La prise en compte des variabilités spatiales des paramètres mécaniques de la roche se fait au travers de champs aléatoires corrélés. Des Méthodes Éléments Finis probabilistes avec des formulations de Galerkin (méthodes d’intégration stochastique indirecte) sont ensuite développées avec une approche non intrusive pour propager ces incertitudes pour des systèmes linéaires et non linéaires (avec et sans fissuration). Ces méthodes sont ensuite appliquées à des problèmes d’excavation pour propager les incertitudes paramétriques associées au comportement de l'argilite. Les résultats sont comparés par rapport à ceux obtenus par des méthodes d’intégration stochastique directe (famille des méthodes dites de Monte-Carlo)
A 3D numerical modelling using the Enhanced Finite Element Method (E-FEM) is developped to address induced fracture networks around drifts after an excavation in Callovo-Oxfordian claystone (COx). A transversely isotropic behaviour is considered for the host rock and two failure criteria are proposed and implemented to characterize shear and tensile fractures: an anisotropic/isotropic Mohr Coulomb criterion with sliding (mode II) and an anisotropic principal strain criterion with mode I opening. Numerical simulations of underground excavations are presented and the results are discussed compared to in situ observations. The influence of the anisotropy of rock properties and in situ stress field on the induced fractures and the convergence of drifts are also studied. The geological origin of the COx as well as the large size of drifts lead to a large uncertainty related to hydro-mechanical properties of this material. Stochastic problems for linear and non linear systems are more and more of interest because it is an important issue to quantify uncertainties when parameters (loading, material properties) are modelled by correlated random fields. Despite a slow convergence, Monte Carlo methods are the most often used to solve these problems thanks to its easy implementation (non intrusive computation). Probabilistic Finite Element methods like Galerkin formulations which produce a coupled system are often viewed as intrusive. Here, we want to show that is possible to compute them in a non intrusive way and with the same accuracy as Monte Carlo methods which are considered as a reference. These methods are applied to take into account and to propagate parametric uncertainties related to claystone's behavior. 3D Numerical results are presented and discussed concerning the induced fracture networks around drifts and the anisotropic convergence of walls
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography