Dissertations / Theses on the topic 'AVC scheme'

To see the other types of publications on this topic, follow the link: AVC scheme.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'AVC scheme.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Tan, Keyu. "Error Resilience Scheme in H.264/AVC and UEP Application in DVB-H Link Layer." Thesis, Queen Mary, University of London, 2011. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.531472.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Digby, G. "Harmonic analysis of A.C. traction schemes." Thesis, Swansea University, 1988. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.233938.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Huang, Jia Heng. "A study on arc and jet schemes." Thesis, University of Macau, 2018. http://umaclib3.umac.mo/record=b3950591.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Linder, Martin, and Tobias Nylin. "Pricing of radar data." Thesis, Linköpings universitet, Kommunikations- och transportsystem, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-104020.

Full text
Abstract:
In this thesis we examine the issue regarding pricing of radar data and surveillance to the operators of air navigation service (ANS) at the aerodromes in Sweden. The question of who should be responsible for providing radar data to the operators is being managed that results in if it should be LFV, as it is today, the government or another authority. This is being examined since LFV in 2010 lost its monopoly position in the terminal area in Sweden. LFV still has monopoly on the en route part, and thru the en route income finances the radar data to all operators in Sweden. Air traffic service units (ATS) receive the radar data without any compensation to LFV, this needs to be regulated and conditions and prerequisites are necessary to be implemented. Our supervisor at LFV, Anders Andersson, has been the primary source of information regarding the current situation, background for the problem and also provided relevant documents with proper information. Laws and regulations have been accessed via the Swedish Transport Agency’s website and scientific articles on monopolies and pricing in aviation and other markets have been used in order to compare earlier issues similar to ours. The literature studies combined with interviews with Anders Andersson are the foundations of the development of the pricing schemes. The result of the thesis is presented as three different pricing schemes where each one of them are presented in tables and analysed how it will affect the ATS. In the first pricing scheme the cost for maintenance is equally divided between all ATS, this means every ATS has to pay the same cost regardless size of the airport, number of movement and net sales. The second pricing scheme is based on number of landings per year and divides the ATS in three categories. This scheme increases the cost with concern to the number of landings, which results in the larger ATS are charged more than the smaller ATS. The final pricing scheme is divided in four categories and based on terminal control area (TMA) and requirements on surveillance service. This means the different categories are based on a combination of the median distance flown in TMA and the different requirements the ATS must provide surveillance service. This pricing scheme is a disadvantage for the military airports and the ATS with associated TMA. The conclusions that can be made are the Swedish Transport Agency needs to implement some distinct guidelines and regulations regarding how the pricing should be made, where the pricing schemes and analysis in this thesis could form the basis for future investigations.
APA, Harvard, Vancouver, ISO, and other styles
5

Barcenas, Everardo. "Raisonnement automatisé sur les arbres avec des contraintes de cardinalité." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00578972.

Full text
Abstract:
Les contraintes arithmétiques sont largement utilisées dans les langages formels comme les expressions, les grammaires d'arbres et les chemins réguliers. Ces contraintes sont utilisées dans les modèles de contenu des types (XML Schemas) pour imposer des bornes sur le nombre d'occurrences de noeuds. Dans les langages de requêtes (XPath, XQuery), ces contraintes permettent de sélectionner les noeuds ayant un nombre limité de noeuds accessibles par une expression de chemin donnée. Les types et chemins étendus avec les contraintes de comptage constituent le prolongement naturel de leurs homologues sans comptage déjà considérés comme des constructions fondamentales dans les langages de programmation et les systèmes de type pour XML. Un des défis majeurs en programmation XML consiste à développer des techniques automatisées permettant d'assurer statiquement un typage correct et des optimisations de programmes manipulant les données XML. À cette fin, il est nécessaire de résoudre certaines tâches de raisonnement qui impliquent des constructions telles que les types et les expressions XPath avec des contraintes de comptage. Dans un futur proche, les compilateurs de programmes XML devront résoudre des problèmes de base tels que le sous-typage afin de s'assurer au moment de la compilation qu'un programme ne pourra jamais générer de documents non valides à l'exécution. Cette thèse étudie les logiques capables d'exprimer des contraintes de comptage sur les structures d'arbres. Il a été montré récemment que le μ-calcul sur les graphes, lorsqu'il est étendu à des contraintes de comptage portant exclusivement sur les noeuds successeurs immédiats est indécidable. Dans cette thèse, nous montrons que, sur les arbres finis, la logique avec contraintes de comptage est décidable en temps exponentiel. En outre, cette logique fournit des opérateurs de comptage selon des chemins plus généraux. En effet, la logique peut exprimer des contraintes numériques sur le nombre de noeuds descendants ou même ascendants. Nous présentons également des traductions linéaires d'expressions XPath et de types XML comportant des contraintes de comptage dans la logique.
APA, Harvard, Vancouver, ISO, and other styles
6

Xu, Ping. "Evaluation of Repeated Biomarkers: Non-parametric Comparison of Areas under the Receiver Operating Curve Between Correlated Groups Using an Optimal Weighting Scheme." Scholar Commons, 2012. http://scholarcommons.usf.edu/etd/4261.

Full text
Abstract:
Receiver Operating Characteristic (ROC) curves are often used to evaluate the prognostic performance of a continuous biomarker. In a previous research, a non-parametric ROC approach was introduced to compare two biomarkers with repeated measurements. An asymptotically normal statistic, which contains the subject-specific weights, was developed to estimate the areas under the ROC curve of biomarkers. Although two weighting schemes were suggested to be optimal when the within subject correlation is 1 or 0 by the previous study, the universal optimal weight was not determined. We modify this asymptotical statistic to compare AUCs between two correlated groups and propose a solution to weight optimization in non-parametric AUCs comparison to improve the efficiency of the estimator. It is demonstrated how the Lagrange multiplier can be used as a strategy for finding the weights which minimize the variance function subject to constraints. We show substantial gains of efficiency by using the novel weighting scheme when the correlation within group is high, the correlation between groups is high, and/or the disease incidence is small, which is the case for many longitudinal matched case-control studies. An illustrative example is presented to apply the proposed methodology to a thyroid function dataset. Simulation results suggest that the optimal weight performs well with a sample size as small as 50 per group.
APA, Harvard, Vancouver, ISO, and other styles
7

Groza, Mayya. "Modélisation et discrétisation des écoulements diphasiques en milieux poreux avec réseaux de fractures discrètes." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4093/document.

Full text
Abstract:
Les travaux de cette thèse portent sur la modélisation et la discrétisation des écoulements diphasiques dans les milieux poreux fracturés. On se place dans le cadre des modèles dits dimensionnels hybrides couplant l'écoulement dans la matrice 3D à l'écoulement dans un réseau de fractures modélisées comme des surfaces 2D. La discrétisation s'appuie sur le cadre abstrait des schémas gradients. Dans cette étude nous présentons deux classes de schémas de types Gradient Schemes sur ces modèles en monophasique et en diphasique. Les objectifs sont motivés par l'application cible de la thèse qui concerne les procédés de récupération assistée de gaz par fracturation hydraulique dans les réservoirs de très faibles perméabilités
This thesis presents the work on modelling and discretisation of two-phase flows in the fractured porous media. These models couple the flow in the fractures represented as the surfaces of codimension one with the flow in the surrounding matrix. The discretisation is made in the framework of Gradient schemes which accounts for a large family of conforming and nonconforming discretizations. The test cases are motivated by the target application of the thesis concerning the gas recovery under the hydraulic fracturing process in low-permeability reservoirs
APA, Harvard, Vancouver, ISO, and other styles
8

Exposito, Victor. "Réseaux de multidiffusion avec coopération interactive entre récepteurs." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC006.

Full text
Abstract:
La présente thèse s’intéresse aux communications descendantes, plus spécifiquement aux canaux de multidiffusion, pour lesquels un émetteur diffuse un message commun destiné à tous les utilisateurs d’un groupe. Pour que le débit ne soit pas limité par le plus faible utilisateur en terme de qualité de canal, différentes solutions reposant sur des techniques entrées multiples sorties multiples massives ou multi-débit ont été proposées dans la littérature. Cependant, si tous les utilisateurs souhaitaient obtenir le même niveau de qualité, le plus faible utilisateur établirait le débit et/ou nécessiterait une quantité de ressources démesurée, ce qui impacterait tout le groupe. Les études récentes portant sur les communications d’appareil à appareil ouvrent la voie à la coopération entre utilisateurs proches, ce qui pourrait bénéficier à tous les utilisateurs, en garantissant le même niveau de qualité tout en maintenant un faible coût en ressource et en énergie. C’est pour ces raisons que cette thèse s’intéresse aux canaux de multidiffusion avec coopération entre récepteurs. La théorie de l’information formalise l’étude de ces réseaux et fournit des bornes universelles portant sur le débit transmissible. Le schéma de coopération proposé se base sur une superposition appropriée d’opérations de compresse-relaie (CF) et décode-relaie (DF), et il est prouvé que ses performances surpasse celles des schémas de coopérations non-interactifs pour le scénario à deux récepteurs. Les propriétés de la coopération interactive émergent de l’asymétrie de construction du schéma de coopération, ce qui permet d’adapter l’ordre des CFs et DFs en fonction de la qualité du canal. L’idée derrière cette interaction, les intuitions concernant les points clés de la construction, et des résultats numériques sont donnés pour des réseaux de petites tailles. Des simulations au niveau du système illustrent le gain potentiel que la coopération entre récepteurs pourrait apporter pour des réseaux de plus grandes tailles
The present thesis concentrates on downlink communications. In order to tackle one part of this challenging problem, we focus on the multicast channel in which one transmitter broadcasts a common message intended to a whole group of users. To ensure that the transmission rate is not limited by the weakest user in terms of channel quality, different solutions using massive multiple-input multiple-output or multirate strategies have been proposed in the literature. However, if all users wish to obtain the same content quality, the weakest user would set the rate and/or require a disproportionate amount of resource, and thus impact the whole group. With the recent study of device-to-device mechanisms, user cooperation in close proximity becomes possible and would benefit to all users by ensuring the same content quality while maintaining a low cost in terms of amount of resource and energy. Consequently, this thesis is centered around the multicast network with receiver cooperation. Information-theoretic tools formalize the study of the network considered and provide general bounds on the achievable transmission rate. The proposed cooperation scheme is based on an appropriate superposition of compress-forward (CF) and decode-forward (DF) operations, and provenly outperform non-interactive schemes in the two-receiver scenario. Properties of the interactive cooperation emerge from the asymmetric construction of the scheme which permits to adapt the order of CFs and DFs according to the channel condition. The core idea of the interaction, some insights on key construction points, and numerical results are given for small size networks. System level simulations illustrate the potential gain of receiver cooperation for larger networks
APA, Harvard, Vancouver, ISO, and other styles
9

Jou, Kyong-Bok. "Etude du schème d'expansion dans la structuration et l'élaboration du sens avec application au français écrit." Paris 5, 1986. http://www.theses.fr/1986PA054090.

Full text
Abstract:
La structuration linguistique s'avère complexe. Elle varie infiniment en fonction de l'élaboration du sens. L’auteur s'efforce, dans ce travail, d'affiner les outils optimaux pour comprendre, décrire et expliquer l'objet si complexe et varie. Il met à l'épreuve ce modelé méthodologique à travers l'analyse du schème d'expansion, appliquée au français écrit. Dans cette analyse, il procède des éléments plus constants aux éléments plus variables, et introduit scrupuleusement les paramètres de conditionnement. Les mots clefs sont : fonctionnement du langage, structure, sens, paramètres, expansion
APA, Harvard, Vancouver, ISO, and other styles
10

Dubois, Joanne. "Modélisation, approximation numérique et couplage du transfert radiatif avec l'hydrodynamique." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13962/document.

Full text
Abstract:
Le présent travail est consacré à l’approximation numérique des solutions du modèle aux moments M1 pour le transfert radiatif. Il s’agit, ici, de développer des solveurs numériques performants et précis capables de prédire avec précision et robustesse des écoulements où le transfert radiatif joue un rôle essentiel. Dans ce sens, plusieurs méthodes numériques ont été envisagées pour la dérivation des schémas numériques de type solveur de Godunov. Une attention particulière a été portée sur les solveurs préservant les ondes de contact stationnaires. En particulier, un schéma de relaxation et un solveur HLLC sont présentés dans ce travail. Pour chacun de ces solveurs, la robustesse de la méthode a été établie (positivité de l’énergie radiative et limitation du flux radiatif). La validation et l’intérêt des méthodes abordées sont exhibés à travers de nombreuses expériences numériques mono et multidimensionelles
The present work is dedicated to the numerical approximation of the M1 moments model solutions for radiative transfer. The objective is to develop efficient and accurate numerical solvers, able to provide with precise and robust computations of flows where radiative transfer effects are important. With this aim, several numerical methods have been considered in order to derive numerical schemes based on Godunov type solvers. A particular attention has been paid to solvers preserving the stationary contact waves. Namely, a relaxation scheme and a HLLC solver are presented in this thesis. The robustness of each of these solvers has been established (radiative energy positivity and radiative flux limitation). Several numerical experiments in one and two space dimensions validate the developed methods and outline their interest
APA, Harvard, Vancouver, ISO, and other styles
11

Preux, Anthony. "Transport optimal et équations des gaz sans pression avec contrainte de densité maximale." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS435/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux équations des gaz sans pression avec contrainte de congestion qui soulèvent encore de nombreuses questions. La stratégie que nous proposons repose sur des précédents travaux sur le mouvement de foule dans le cadre de l'espace de Wasserstein, et sur un modèle granulaire avec des collisions inélastiques.Elle consiste en l'étude d'un schéma discrétisé en temps dont les suites doivent approcher les solutions de ces équations.Le schéma se présente de la manière suivante : à chaque pas de temps, le champ des vitesses est projeté sur un ensemble lui permettant d'éviter les croisements entre particules, la densité est ensuite déplacée selon le nouveau champ des vitesses, puis est projetée sur l'ensemble des densités admissibles (inférieures à une valeur seuil donnée).Enfin, le champ des vitesses est mis à jour en tenant compte du parcours effectué par les particules. En dimension 1, les solutions calculées par le schéma coïncident avec les solutions connues pour ce système. En dimension 2, les solutions calculées respectent les propriétés connues des solutions des équations de gaz sans pression avec contrainte de congestion. De plus, on retrouve des similarités entres ces solutions et celles du modèle granulaire microscopique dans des cas où elles sont comparables. Par la suite, la discrétisation en espace pose des problèmes et a nécessité l'élaboration d'un nouveau schéma de discrétisation du coût Wasserstein quadratique. Cette méthode que nous avons baptisée méthode du balayage transverse consiste à calculer le coût en utilisant les flux de masses provenant d'une certaine cellule et traversant les hyperplans définis par les interfaces entre les cellules
In this thesis, we consider the pressureless Euler equations with a congestion constraint.This system still raises many open questions and aside from its one-dimensional version,very little is known. The strategy that we propose relies on previous works of crowd motion models withcongestion in the framework of the Wasserstein space, and on a microscopic granularmodel with inelastic collisions. It consists of the study of a time-splitting scheme. The first step is about the projection of the current velocity field on a set, avoiding the factthat trajectories do not cross during the time step. Then the scheme moves the density with the new velocity field. This intermediate density may violate the congestion constraint. The third step projects it on the set of admissible densities. Finally, the velocity field is updated taking into account the positions of physical particles during the scheme. In the one-dimensional case, solutions computed by the algorithm matchwith the ones that we know for these equations. In the two-dimensional case, computed solutions respect some properties that can be expected to be verified by the solutions to these equations. In addition, we notice some similarities between solutions computed by the scheme and the ones of the granular model with inelastic collisions. Later, this scheme is discretized with respect to the space variable in the purpose of numerical computations of solutions. The resulting algorithm uses a new method to discretize the Wasserstein cost. This method, called Transverse Sweeping Method consists in expressing the cost using the mass flow from any cell and crossing hyperplanes defined by interfaces between cells
APA, Harvard, Vancouver, ISO, and other styles
12

Marriere, Nicolas. "Cryptanalyse de chiffrements par blocs avec la méthode des variances." Thesis, Cergy-Pontoise, 2017. http://www.theses.fr/2017CERG0922/document.

Full text
Abstract:
La première partie de la thèse porte sur l'utilisation de la méthode des variances dans le cadre des attaques différentielles sur des schémas de Feistel généralisés. Cette méthode permet d'améliorer des attaques sur deux points : la complexité en données ou le nombre de tours couvert par l'attaque.Afin d'atteindre ce but, un outil a été développé permettant de calculer la valeur exacte de l'espérance et de la variance et nous nous servons alors de cette précision pour améliorer les attaques.La seconde partie porte sur une famille de schémas de chiffrement : les EGFN.Nous avons utilisé la méthode des variances et notre outil afin de construire des attaques différentielles. Des simulations ont été effectuées afin de confirmer les résultats.Dans la dernière partie, nous nous intéressons à LILLIPUT, un système de chiffrement concret issu des EGFN. Nous avons effectué une analyse différentielle et monté des attaques avec une structure spécifique.Ces attaques sont trouvées par un programme cherchant des attaques automatiquement. Nous avons notamment mis en avant la possibilité d'études sur les attaques différentielles improbables
The first part of the thesis is the cryptanalysis of generalized Feistel networks with the use of the variance method.This method allows to improve existing attacks by two ways: data complexity or the number of rounds. In order to do that, we have developed a tool which computes the right values of expectations and variances.It provides a better analysis of the attacks.In the second part, we have studied the EGFN a new family of generalized Feistel networks. We have used the variance method and our tool in order to build some differential attacks. Simulations were made to confirm the theoritical study.In the last part, we have studied LILLIPUT, a concret cipher based on the EGFN.We have provided a differential analysis and build differential attacks which have unusual conditions. These attacks were found empirically by a tool that automatically look for differential attacks. In particular, we have highlighted some improbable differential attacks
APA, Harvard, Vancouver, ISO, and other styles
13

Thériault, Nathalie. "Analyse de sensibilité et amélioration des simulations d’albédo de surfaces enneigées dans les zones subarctiques et continentales humides à l’est du Canada avec le schéma de surface CLASS." Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6946.

Full text
Abstract:
Résumé : Le bilan d’énergie de la Terre est largement influencé par la variation de l’albédo de surface (fraction de l'énergie solaire réfléchie par une surface). Ces variations sont modifiées par la présence, l’épaisseur et les propriétés physiques de la neige. Le réchauffement climatique observé a un impact significatif sur l'évolution du couvert nival, ce qui influence grandement l'albédo de surface, et en retour modifie le climat. Malgré l’importance de l’albédo de surface, plusieurs modèles calculent l’albédo de manière empirique, ce qui peut entraîner des biais significatifs entre les simulations et les observations selon les surfaces étudiées. Le schéma de surface canadien, Canadian Land Surface Scheme, CLASS (utilisé au Canada dans les modèles climatiques Global Climate Model et Modèle Régional Canadien du Climat), modélise l’évolution spatiale et temporelle des propriétés de la neige, dont l'albédo. L’albédo de CLASS est calculé selon la hauteur et l’âge (métamorphisme) de la neige au sol, et selon l’accumulation de la neige sur la canopée. Les objectifs de ce travail sont d’analyser le comportement de l’albédo (simulé et mesuré) et d’améliorer le paramétrage de l’albédo de surface pendant l’hiver sur des régions à l’est du Canada. Plus précisément, le comportement de l’albédo a été étudié par l’analyse de la sensibilité de CLASS 3.6 aux paramètres prescrits (paramètres qui sont utilisés dans les calculs du modèle dont les valeurs sont fixes et définies empiriquement). En plus de l’analyse des variations temporelles de l’albédo en fonction des conditions météorologiques pour les terrains de végétation basse (noté "gazon") et de conifères. Aussi, l’amélioration du paramétrage a été tentée en optimisant (pour le gazon et les conifères) ou en modifiant (pour le gazon) les calculs considérant les paramètres prescrits dont l’albédo de CLASS est sensible. En premier lieu, nous avons montré que la sensibilité de l’albédo de CLASS en terrain de gazon dépend grandement du seuil du taux de précipitation nécessaire pour que l’albédo soit actualisé (à sa valeur maximale) dans le modèle. Faire varier ce seuil entraîne que les simulations quotidiennes d’albédo de surface enneigées vont s’étaler en majorité entre 0.62 à 0.8 (supérieur à l’étalement normalement simulé). Le modèle est aussi sensible à la valeur d’actualisation de l’albédo dont la variation entraîne que l’albédo enneigé quotidien peut s’étaler de jusqu’à 0.48 à 0.9. En milieu forestier (conifères), le modèle est peu sensible aux paramètres prescrits étudiés. La comparaison entre les albédos simulés et les mesures au sol montrent une sous-estimation du modèle de -0.032 (4.3 %) à SIRENE (gazon au sud du Québec), de -0.027 (3.4 %) à Goose-Bay (gazon en site arctique) et de -0.075 (27.1 %) à la Baie-James (forêt boréale). Lorsque comparée avec les données MODIS (MODerate resolution Imaging Spectroradiometer) la sous-estimation du modèle à la Baie-James est de -0.011 (5.2 %). On montre que la valeur de l'albédo mesurée lors des précipitations de neige à Goose Bay est en moyenne supérieure à la valeur d'actualisation de l'albédo dans le modèle (0.896 par rapport 0.84), ce qui peut expliquer la sous-estimation. En forêt, un des problèmes provient de la faible valeur de l'albédo de la végétation enneigée (ajout de 0.17 dans le visible), tandis que l’albédo de surface mesuré peut être augmenté de 0.37 (par rapport à la végétation sans neige). Aussi, l’albédo de la neige sur la canopée ne diminue pas avec le temps contrairement à ce qui est observé. En second lieu, nous avons tenté d’améliorer le paramétrage, en optimisant des paramètres prescrits (aucune amélioration significative n’est obtenue) et en modifiant la valeur d'actualisation de l’albédo de la neige en zone de gazon. Cette valeur, normalement fixe, a été rendue variable selon la température et le taux de précipitations. Les résultats démontrent que les modifications n’apportent pas d'améliorations significatives de la RMSE (Root Mean Square Error) entre les simulations et les mesures d’albédo. Les modifications sont toutefois pertinentes pour ajouter de la variabilité aux fortes valeurs d’albédo simulées ainsi que pour améliorer la compréhension du comportement des simulations d’albédo. Aussi, la méthodologie peut être reproduite pour d’autres études qui veulent étudier la représentativité et améliorer les simulations d’un modèle.
Abstract : The surface energy balance of northern regions is closely linked to surface albedo (fraction of solar radiation reflected by a surface) variations. These variations are strongly influenced by the presence, depth and physical properties of the snowpack. Climate change affects significantly snow cover evolution, and decreases surface albedo and snow albedo with positive feedback to climate. Despite the importance of the albedo, many models empirically compute it, which can induce significant biases with albedo observations depending on studied surfaces. The Canadian Land Surface Scheme, CLASS (used in Canada into the Canadian Regional Climate Model, and the Global Climate Model), simulates the spatial and temporal evolution of snow state variables including the albedo. The albedo is computed according to the depth of snow on the ground as well as the accumulation of snow in trees. The albedo seasonal evolution for snow on ground is estimated in CLASS from an empirical aging expression with time and temperature and a “refresh” based on a threshold of snowfall depth. The seasonal evolution of snow on canopy is estimated from an interception expression with trees type and snowfall density and an empirical expression for unloading rate with time. The objectives of this project are to analyse albedo behavior (simulated and measured) and to improve CLASS simulations in winter for Eastern Canada. To do so, sensitivity test were performed on prescribed parameters (parameters that are used in CLASS computation, their values are fixed, and determined empirically). Also, albedo evolution with time and meteorological conditions were analysed for grass and coniferous terrain. Finally, we tried to improve simulations by optimizing sensitive prescribed parameters for grass and coniferous terrain, and by modifying the refresh albedo value for grass terrain. First, we analysed albedo evolution and modelling biases. Grass terrain showed strong sensitivity to the precipitation rate threshold (for the albedo to refresh to its maximum value), and to the value of the albedo refresh. Both are affected by input data of precipitation rate and phase. The modification of precipitation threshold rate generates daily surface albedo to vary mainly (75 % of data in winter) between 0.62 and 0.8, which is a greater fluctuation than for a normal simulation over winter. The modification of the albedo refresh value generates surface albedo to vary mainly (75 %) between 0.66 and 0.79, but with extreme values, 25 % of data, from 0.48 to 0.9. Coniferous areas showed small sensitivity to studied prescribed parameters. Also, comparisons were made between simulated and measured mean albedo during winter. CLASS underestimates the albedo by -0.032 (4.3 %) at SIRENE (grass in Southern Quebec), by -0.027 (3.4 %) at Goose Bay (grass in arctic site) and by -0.075 (27.1 %) at James Bay (boreal forest) (or -0.011 (5.2 %) compared to MODIS (MODerate resolution Imaging Spectroradiometer) data). A modelling issue in grass terrain is the small and steady maximum albedo value (0.84) compared to measured data in arctic condition (0.896 with variation of an order of 0.09 at Goose Bay, or 0.826 at SIRENE with warmer temperatures). In forested areas, a modelling issue is the small albedo increase (+0.17 in the visible range, +0.04 in NIR) for the part of the vegetation that is covered by snow (total surface albedo gets to a maximum of 0.22) compared to events of high surface albedo (0.4). Another bias comes from the albedo value of the snow trapped on canopy which does not decrease with time in opposition to observed surface albedo which is lower at the end of winter and which suggests snow metamorphism occurred. Secondly, we tried to improve simulations by optimizing prescribed parameters and by modifying the albedo’s maximum value computation. Optimisations were made on sensitive prescribed parameters or on those that seemed unsuited. No significant RMSE (Root Mean Square Error) improvements were obtained from optimisations in both grass and coniferous area. Improvements of albedo simulations were tried by adjusting the maximum value (normally fixed) with temperature and precipitation rate, in grass terrain. Results show that these modifications did not significantly improved simulations’ RMSE. Nevertheless, the latter modification improved the correlation between simulated and measured albedo. These statistics were made with the whole dataset which can reduce the impact of modifications (they were mainly affecting albedo during a precipitation event), but it allows to overview the new model performance. Modifications also added variability to maximum values (closer to observed albedo) and they increased our knowledge on surface albedo behavior (simulated and measured). The methodology is also replicable for other studies that would aim to analyse and improve simulations of a surface model.
APA, Harvard, Vancouver, ISO, and other styles
14

Deymier, Nicolas. "Étude d’une méthode d’éléments finis d’ordre élevé et de son hybridation avec d’autres méthodes numériques pour la simulation électromagnétique instationnaire dans un contexte industriel." Thesis, Toulouse, ISAE, 2016. http://www.theses.fr/2016ESAE0038/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l’amélioration du schéma de Yee pour traiter demanière plus efficace et pertinente les problèmes industriels auxquels nous sommes confrontés à l’heureactuelle. Pour cela, nous cherchons avant tout à diminuer les erreurs numériques de dispersion et àaméliorer les modélisations des géométries courbes ainsi que des réseaux de câbles. Pour répondre àces besoins, une solution basée sur un schéma Galerkin discontinu pourrait être envisagée. Toutefois,l’utilisation d’une telle technique sur la totalité du volume de calcul est relativement coûteuse. De plus,la prise en compte de structures filaires sur un tel schéma n’est pas encore opérationnelle. C’est pourquoi,dans l’optique d’avoir un outil industriel, et après une étude bibliographique, nous nous sommes plutôtorientés sur l’étude d’un schéma éléments finis (FEM) sur maillage cartésien qui possède toutes lesbonnes propriétés du schéma de Yee. Notamment, à l’ordre d’approximation spatiale égal à 0 ce schémaFEM est exactement le schéma de Yee, et, pour des ordres supérieurs, il permet de réduire fortementl’erreur de dispersion numérique de ce dernier. Dans le travail de cette thèse, pour ce schéma, nous avons notamment donné un critère de stabilité théorique, étudié sa convergence théorique et fait une analyse de l’erreur de dispersion. Pour tenircompte des possibilités d’ordre d’approximation spatiale variable par direction, nous avons mis en placeune stratégie d’affectation des ordres suivant le maillage donné. Ceci nous a permis d’obtenir un pas detemps optimal pour une précision souhaitée tout en réduisant les coûts de calcul. Après avoir porté ceschéma sur des machines de production, différents problèmes de CEM, antennes, IEM ou foudre ont ététraités afin de montrer les avantages et le potentiel de celui-ci. En conclusion de ces expérimentationsnumériques, il s’avère que la méthode est limitée par le manque de précision pour prendre en comptedes géométries courbes. Afin d’améliorer cela, nous avons proposé une hybridation entre ce schéma et leschéma GD que l’on peut étendre aux autres schémas comme les méthodes différences finies (FDTD) etvolumes finis (FVTD). Nous avons montré que la technique d’hybridation proposée conserve l’énergie etest stable sous une condition que nous avons évaluée de manière théorique. Des exemples de validationont ensuite été montrés. Enfin, pour tenir compte des réseaux de câbles, un modèle de fils minces d’ordred’approximation spatiale élevé a été proposé. Malheureusement, celui-ci ne peut pas couvrir l’ensembledes cas industriels et pour remédier à cela, nous avons proposé une hybridation de notre approche avecune équation de ligne de transmission. L’intérêt de cette hybridation a été montré sur un certain nombred’exemples, que nous n’aurions pas pu traiter par un modèle de structure filaire simple
In this thesis, we study the improvement of the Yee’s scheme to treat efficiently and in arelevant way the industrial issues we are facing nowadays. For that, we first of all try to reduce thenumerical errors of dispersion and then to improve the modeling of the curved surfaces and of theharness networks. To answer these needs, a solution based on a Galerkin Discontinuous (GD) methodhas been first considered. However, the use of such method on the entire modeling volume is quite costly ;moreover the wires are not taken into account in this method. That is the reason why, with the objectiveof an industrial tool and after a large bibliographic research, we headed for the study of finite elementsscheme (FEM) on a Cartesian mesh which has all the good properties of the Yee’s scheme. Especially,this scheme is exactly the Yee’s scheme when the spatial order of approximation is set to zero. Forthe higher orders, this new scheme allows to greatly reduce the numerical error of dispersion. In theframe of this thesis and for this scheme, we give a theoretical criterion of stability, study its theoreticalconvergence and we perform an analysis of the error of dispersion. To take into account the possibilityof the variable spatial orders of approximation in each direction, we put in place a strategy of orderaffectation according to the given mesh. This strategy allows to obtain an optimal time step for a givenselected precision while reducing the cost of the calculations. Once this new scheme has been adaptedto large industrial computing means, different EMC, antennas, NEMP or lightning problems are treatedto demonstrate the advantages and the potential of this scheme. As a conclusion of these numericalsimulations we demonstrate that this method is limited by a lack of precision when taking into accountcurved geometries. To improve the treatment of the curved surfaces, we propose an hybridization between this scheme andthe GD scheme. This hybridization can also be applied to other methods such as Finite Differences(FDTD) or Finite Volumes (FVTD). We demonstrate that the technique of hybridization proposed,allows to conserve the energy and is stable under a condition that we study theoretically. Some examplesare presented for validation. Finally and to take into account the cables, a thin wire model with a highorder of spatial approximation is proposed. Unfortunately, this model does not allow to cover all theindustrial cases. To solve this issue we propose an hybridization with a transmission line method. Theadvantage of this hybridization is demonstrated thanks to different cases which would not have beenfeasible with a more simple thin wire method
APA, Harvard, Vancouver, ISO, and other styles
15

Chauveheid, Daniel. "Ecoulements multi-matériaux et multi-physiques : solveur volumes finis eulérien co-localisé avec capture d’interfaces, analyse et simulations." Thesis, Cachan, Ecole normale supérieure, 2012. http://www.theses.fr/2012DENS0032/document.

Full text
Abstract:
Ce travail de thèse porte sur l'extension et l'analyse d'un solveur volumes finis eulérien, co-localisé avec capture d'interfaces pour la simulation des écoulements multi-matériaux non miscibles. Les extensions proposées s'inscrivent dans la volonté d'élaborer un outil de simulation multi-physiques. Dans le cadre de ce mémoire, le caractère multi-physiques recouvre les champs que nous allons détailler. Nous traitons le cas des écoulements radiatifs modélisés par un système à deux températures qui couple les phénomènes purement hydrodynamiques aux phénomènes radiatifs. Nous proposons un solveur permettant la prise en compte des effets de tension superficielle à l'interface entre deux fluides. Nous développons un solveur implicite permettant la simulation précise d'écoulements faisant intervenir de faibles nombres de Mach par le biais d'une méthode de renormalisation de la diffusion numérique. Enfin, les effets tri-dimensionnels sont considérés ainsi que la possibilité d'étendre le schéma de base aux écoulements à un nombre quelconque de matériaux. A chaque étape, les solveurs développés sont validés sur des cas-tests
This work is devoted to the extension of a eulerian cell-centered finite volume scheme with interfaces capturing for the simulation of multimaterial fluid flows. Our purpose is to develop a simulation tool which could be able to handle multi-physics problems in the following sense. We address the case of radiating flows, modeled by a two temperature system of equations where the hydrodynamics are coupled to radiation transport. We address a numerical scheme for taking surface tension forces into account. An implicit scheme is proposed to handle low Mach number fluid flows by means of a renormalization of the numerical diffusion. Eventually, the scheme is extended to three-dimensional flows and to multimaterial flows, that is with an arbitrary number of materials. At each step, numerical simulations validate our schemes
APA, Harvard, Vancouver, ISO, and other styles
16

Carlier, Julien. "Schémas aux résidus distribués et méthodes à propagation des ondes pour la simulation d’écoulements compressibles diphasiques avec transfert de chaleur et de masse." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLY008/document.

Full text
Abstract:
Ce travail a pour thème la simulation numérique d’écoulements diphasiques dans un contexte industriel. En effet, la simulation d’écoulements diphasiques est un domaine qui présente de nombreux défis, en raison de phénomènes complexes qui surviennent, comme la cavitation et autres transferts entre les phases. En outre, ces écoulements se déroulent généralement dans des géométries complexes rendant difficile une résolution efficiente. Les modèles que nous considérons font partie de la catégorie des modèles à interfaces diffuses et permettent de prendre en compte aisément les différents transferts entre les phases. Cette classe de modèles inclut une hiérarchie de sous-modèles pouvant simuler plus ou moins d’interactions entre les phases. Pour mener à bien cette étude nous avons en premier lieu comparé les modèles diphasiques dits à quatre équations et six équations, en incluant les effets de transfert de masse. Nous avons ensuite choisi de nous concentrer sur le modèle à quatre équations. L’objectif majeur de notre travail a alors été d’étendre les méthodes aux résidus distribués à ce modèle. Dans le contexte des méthodes de résolution numérique, il est courant d’utiliser la forme conservative des équations de bilan. En effet, la résolution sous forme non-conservative conduit à une mauvaise résolution du problème. Cependant, résoudre les équations sous forme non-conservative peut s’avérer plus intéressant d’un point de vue industriel. Dans ce but, nous utilisons une approche développée récemment permettant d’assurer la conservation en résolvant un système sous forme non-conservative, à condition que la forme conservative soit connue. Nous validons ensuite notre méthode et l’appliquons à des problèmes en géométries complexes. Finalement, la dernière partie de notre travail est dédiée à étudier la validité des modèles à interfaces diffuses pour des applications à des problèmes industriels réels. On cherche alors, en utilisant des méthodes de quantification d’incertitude, à obtenir les paramètres rendant nos simulations les plus vraisemblables et cibler les éventuels développements pouvant rendre nos simulations plus réalistes
The topic of this thesis is the numerical simulation of two-phase flows in an industrial framework. Two-phase flows modelling is a challenging domain to explore, mainly because of the complex phenomena involved, such as cavitation and other transfer processes between phases. Furthermore, these flows occur generally in complex geometries, which makes difficult the development of efficient resolution methods. The models that we consider belong to the class of diffuse interface models, and they allow an easy modelling of transfers between phases. The considered class of models includes a hierarchy of sub-models, which take into account different levels of interactions between phases. To pursue our studies, first we have compared the so-called four-equation and six-equation two-phase flow models, including the effects of mass transfer processes. We have then chosen to focus on the four-equation model. One of the main objective of our work has been to extend residual distribution schemes to this model. In the context of numerical solution methods, it is common to use the conservative form of the balance law. In fact, the solution of the equations under a non-conservative form may lead to a wrong solution to the problem. Nonetheless, solving the equations in non-conservative form may be more interesting from an industrial point of view. To this aim, we employ a recent approach, which allows us to ensure conservation while solving a non-conservative system, at the condition of knowing its conservative form. We then validate our method and apply it to problems with complex geometry. Finally, the last part of our work is dedicated to the evaluation of the validity of the considered diffuse interface model for applications to real industrial problems. By using uncertainty quantification methods, the objective is to get parameters that make our simulations the most plausible, and to target the possible extensions that can make our simulations more realistic
APA, Harvard, Vancouver, ISO, and other styles
17

Karimou, Gazibo Mohamed. "Etudes mathématiques et numériques des problèmes paraboliques avec des conditions aux limites." Phd thesis, Université de Franche-Comté, 2013. http://tel.archives-ouvertes.fr/tel-00950759.

Full text
Abstract:
Cette thèse est centrée autour de l'étude théorique et de l'analyse numérique des équations paraboliques non linéaires avec divers conditions aux limites. La première partie est consacrée aux équations paraboliques dégénérées mêlant des phénomènes non-linéaires de diffusion et de transport. Nous définissons des notions de solutions entropiques adaptées pour chacune des conditions aux limites (flux nul, Robin, Dirichlet). La difficulté principale dans l'étude de ces problèmes est due au manque de régularité du flux pariétal pour traiter les termes de bords. Ceci pose un problème pour la preuve d'unicité. Pour y remédier, nous tirons profit du fait que ces résultats de régularités sur le bord sont plus faciles à obtenir pour le problème stationnaire et particulièrement en dimension un d'espace. Ainsi par la méthode de comparaison "fort-faible" nous arrivons à déduire l'unicité avec le choix d'une fonction test non symétrique et en utilisant la théorie des semi-groupes non linéaires. L'existence de solution se démontre en deux étapes, combinant la méthode de régularisation parabolique et les approximations de Galerkin. Nous développons ensuite une approche directe en construisant des solutions approchées par un schéma de volumes finis implicite en temps. Dans les deux cas, on combine les estimations dans les espaces fonctionnels bien choisis avec des arguments de compacité faible ou forte et diverses astuces permettant de passer à la limite dans des termes non linéaires. Notamment, nous introduisons une nouvelle notion de solution appelée solution processus intégrale dont l'objectif, dans le cadre de notre étude, est de pallier à la difficulté de prouver la convergence vers une solution entropique d'un schéma volumes finis pour le problème de flux nul au bord. La deuxième partie de cette thèse traite d'un problème à frontière libre décrivant la propagation d'un front de combustion et l'évolution de la température dans un milieu hétérogène. Il s'agit d'un système d'équations couplées constitué de l'équation de la chaleur bidimensionnelle et d'une équation de type Hamilton-Jacobi. L'objectif de cette partie est de construire un schéma numérique pour ce problème en combinant des discrétisations du type éléments finis avec les différences finies. Ceci nous permet notamment de vérifier la convergence de la solution numérique vers une solution onde pour un temps long. Dans un premier temps, nous nous intéressons à l'étude d'un problème unidimensionnel. Très vite, nous nous heurtons à un problème de stabilité du schéma. Cela est dû au problème de prise en compte de la condition de Neumann au bord. Par une technique de changement d'inconnue et d'approximation nous remédions à ce problème. Ensuite, nous adaptons cette technique pour la résolution du problème bidimensionnel. A l'aide d'un changement de variables, nous obtenons un domaine fixe facile pour la discrétisation. La monotonie du schéma obtenu est prouvée sous une hypothèse supplémentaire de propagation monotone qui exige que la frontière libre se déplace dans les directions d'un cône prescrit à l'avance.
APA, Harvard, Vancouver, ISO, and other styles
18

Halftermeyer, Pierre. "Connexité dans les Réseaux et Schémas d’Étiquetage Compact d’Urgence." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0140/document.

Full text
Abstract:
L’objectif de cette thèse est d’attribuer à chaque sommet x d’un graphe G à n sommets une étiquette L(x) de taille compacte O(log n) bits afin de pouvoir :1. construire, à partir des étiquettes d’un ensemble de sommets en panne X C V (G), une structure de donnée S(X)2. décider, à partir de S(X) et des étiquettes L(u) et L(v), si les sommets u et v sont connectés dans le graphe G n X.Nous proposons une solution à ce problème pour la famille des graphes 3-connexes de genre g (via plusieurs résultats intermédiaires).— Les étiquettes sont de taille O(g log n) bits— Le temps de construction de la structure de donnée S(X) est O(Sort([X]; n)).— Le temps de décision est O(log log n). Ce temps est optimal.Nous étendons ce résultat à la famille des graphes excluant un mineur H fixé. Les étiquettes sont ici de taille O(polylog n) bits
We aim at assigning each vertex x of a n-vertices graph G a compact O(log n)-bit label L(x) in order to :1. construct, from the labels of the vertices of a forbidden set X C V (G), a datastructure S(X)2. decide, from S(X), L(u) and L(v), whether two vertices u and v are connected in G n X.We give a solution to this problem for the family of 3-connected graphs whith bounded genus.— We obtain O(g log n)-bit labels.— S(X) is computed in O(Sort([X]; n)) time.— Connection between vertices is decided in O(log log n) optimal time.We finally extend this result to H-minor-free graphs. This scheme requires O(polylog n)-bit labels
APA, Harvard, Vancouver, ISO, and other styles
19

Chiarello, Felisia Angela. "Lois de conservation avec flux non-local pour la modélisation du trafic routier." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4076.

Full text
Abstract:
Le but principal de cette thèse est de fournir des modèles mathématiques de trafic routier avec flux non-locaux, et des schémas numériques adaptés pour analyser numériquement ce type de modèles. D’abord, nous considérons une classe d’équations scalaires, où le sup- port du noyau de convolution est proportionnel à la distance d’anticipation des conducteurs. Nous prouvons la stabilité des solutions par rapport aux données initiales et en déduisons l’existence par un argument d’approximation basé sur un schéma de type Lax-Friedrichs. Nous fournissons également la première preuve de convergence quand le support du noyau tend vers +∞, ainsi que quelques simulations numériques. Ensuite, nous nous concentrons sur une classe spécifique d’équations scalaires, en considérant des noyaux réguliers. Le but est l’étude de problèmes d’optimisation concernant la gestion du trafic et, pour cette raison, nous sommes intéressés par l’étude de la dépendance des solutions en fonction du noyau de convolution et de la vitesse. En appliquant soigneusement la technique de doublement des variables de Kružkov, nous dérivons la dépendance L1 -Lipschitz des solutions par rapport à la donnée initiale, au noyau et á la vélocité. Nous montrons des simulations numériques illustrant le comportement des solutions d’un modèle non-local de trafic, lorsque la taille et la position du support du noyau ou la vélocité varient. En outre, nous considérons une classe de systèmes de M lois de conservation non-locales dans une dimension d’espace. Nous considérons un noyau anisotrope différent pour chaque équation du système. Le modèle prend en compte la distribution de conducteurs et de véhicules hétérogènes caractérisés par leurs vitesses maxi- males et leur horizon de vue dans un flux de trafic. Nous prouvons des estimations L∞ et BV uniformes sur les solutions approchées obtenues par un schéma numérique de type Godunov et nous montrons l’existence en temps petits de solutions faibles. Nous présentons également quelques simulations numériques pour M = 2. En particulier, nous considérons le cas d’un flux mixte de voitures et de poids lourds sur un tronçon de route et d’un flux de véhicules mixtes autonomes et non autonomes sur une route circulaire. L’approximation numérique des solutions de ce modèle est difficile en raison de la grande non-linéarité du système et de la dépendance de la fonction flux du terme de convolution. Nous présentons une généralisation des schémas de Lagrangian-Antidiffusive Remap (L-AR). Nous dérivons certaines propriétés des schémas dans les cas scalaires et multi-classe. Dans le cas scalaire, nous obtenons des estimations uniformes L∞ et BV sur les solutions approchées calculées à l’aide des schémas LAR afin de prouver l’existence de solutions faibles. Nous introduisons une version du second ordre d’un schéma numérique de type Godunov et nous présentons quelques simulations numériques, en analysant l’erreur L1 des solutions approchées calculées avec différents schémas. Nous proposons aussi un schéma WENO (FVWENO) aux volumes finis d’ordre élevé pour résoudre le système multi-classe non-local. Enfin, nous proposons un modèle scalaire unidimensionnel pour une jonction de deux routes. Ce modèle est basé sur la vitesse moyenne non-locale en aval. Il est destiné à décrire le com- portement des conducteurs sur deux segments de route qui diffèrent par leur loi de vitesse et leur densité maximale autorisée. Nous approchons la solution en utilisant un schéma upwind adapté. En dérivant plusieurs propriétés du schéma, nous sommes en mesure de prouver le caractère bien posé du modèle
In this thesis, we provide mathematical traffic flow models with non-local fluxes and adapted numerical schemes to compute approximate solutions to such kind of equations. More precisely, we consider flux functions depending on an integral evaluation of the conserved variables through a convolution product. First of all, we prove the well-posedness of entropy weak solutions for a class of scalar conservation laws with non-local flux arising in traffic modeling. This model is intended to describe the reaction of drivers that adapt their velocity with respect to what happens in front of them. Here, the support of the convolution kernel is proportional to the look-ahead distance of drivers. We approximate the problem by a Lax- Friedrichs scheme and we provide some estimates for the sequence of approximate solutions. Stability with respect to the initial data is obtained through the doubling of variable technique. We study also the limit model as the kernel support tends to infinity. After that, we prove the stability of entropy weak solutions of a class of scalar conservation laws with non-local flux under higher regularity assumptions. We obtain an estimate of the dependence of the solution with respect to the kernel function, the speed and the initial datum. We also prove the existence for small times of weak solutions for non-local systems in one space dimension, given by a non-local multi-class model intended to describe the behaviour of different groups drivers or vehicles. We approximate the problem by a Godunov-type numerical scheme and we provide uniform L∞ and BV estimates for the sequence of approximate solutions, locally in time. We present some numerical simulations illustrating the behavior of different classes of vehicles and we analyze two cost functionals measuring the dependence of congestion on traffic composition. Furthermore, we propose alternative simple schemes to numerically integrate non-local multi- class systems in one space dimension. We obtain these schemes by splitting the non-local conservation laws into two different equations, namely, the Lagrangian and the remap steps. We provide some estimates recovered by approximating the problem with the Lagrangian- Antidiffusive Remap (L-AR) schemes, and we prove the convergence to weak solutions in the scalar case. Finally, we show some numerical simulations illustrating the efficiency of the LAR schemes in comparison with classical first and second order numerical schemes. Moreover, we recover the numerical approximation of the non-local multi-class traffic flow model proposed, presenting the multi-class version of the Finite Volume WENO (FV-WENO) schemes, in order to obtain higher order of accuracy. Simulations using FV-WENO schemes for a multi-class model for autonomous and human-driven traffic flow are presented. Finally, we introduce a traffic model for a class of non-local conservation laws at road junctions. Instead of a single velocity function for the whole road, we consider two different road segments, which may differ for their speed law and number of lanes. We use an upwind type numerical scheme to construct a sequence of approximate solutions and we provide uniform L∞ and BV estimates. Using a Lax-Wendroff type argument, we prove the well-posedness of the proposed model. Some numerical simulations are compared with the corresponding (discontinuous) local model
APA, Harvard, Vancouver, ISO, and other styles
20

Magni, Adrien. "Méthodes particulaires avec remaillage : analyse numérique nouveaux schémas et applications pour la simulation d'équations de transport." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00623128.

Full text
Abstract:
Les méthodes particulaires sont des méthodes numériques adaptées à la résolution d'équations de conservation. Leur principe consiste à introduire des particules ''numériques'' conservant localement l'inconnue sur un petit volume, puis à les transporter le long de leur trajectoire. Lorsqu'un terme source est présent dans les équations, l'évolution de la solution le long des caractéristiques est prise en compte par une intéraction entre les particules. Ces méthodes possèdent de bonnes propriétés de conservation et ne sont pas soumises aux conditions habituelles de CFL qui peuvent être contraignantes pour les méthodes Eulériennes. Cependant, une contrainte de recouvrement entre les particules doit être satisfaite pour vérifier des propriétés de convergence de la méthode. Pour satisfaire cette condition de recouvrement, un remaillage périodique des particules est souvent utilisé. Elle consiste à recréer régulièrement de nouvelles particules uniformément réparties, à partir de celles ayant été advectées à l'itération précédente. Quand cette étape de remaillage est effectuée à chaque pas de temps, l'analyse numérique de ces méthodes particulaires remaillées nécessite d'être reconsidérée, ce qui représente l'objectif de ces travaux de thèse. Pour mener à bien cette analyse, nous nous basons sur une analogie entre méthodes particulaires avec remaillage et schémas de grille. Nous montrons que pour des grands pas de temps les schémas numériques obtenus souffrent d'une perte de précision. Nous proposons des méthodes de correction, assurant la consistance des schémas en tout point de grille, le pas de temps étant contraint par une condition sur le gradient du champ de vitesse. Cette méthode est construite en dimension un. Des techniques de limitation sont aussi introduites de manière à remailler les particules sans créer d'oscillations en présence de fortes variations de la solution. Enfin, ces méthodes sont généralisées aux dimensions plus grandes que un en s'inspirant du principe de splitting d'opérateurs. Les applications numériques présentées dans cette thèse concernent la résolution de l'équation de transport sous forme conservative en dimension un à trois, dans des régimes linéaires ou non-linéaires.
APA, Harvard, Vancouver, ISO, and other styles
21

Turpault, Rodolphe. "Modelisation, approximation numerique et applications du transfert radiatif en desequilibre spectral couple avec l'hydrodynamique." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2003. http://tel.archives-ouvertes.fr/tel-00004620.

Full text
Abstract:
Dans certains regimes hypersoniques, le rayonnement peut enormement modifier l'ecoulement aerodynamique. Pour de telles applications, il est important d'avoir un modele qui realise un couplage fort entre l'hydrodynamique et le transfert radiatif afin d'avoir un bon comportement de la solution. Cependant, le couplage avec l'equation du transfert radiatif est en general extremement couteux et donc peu raisonnable pour des simulations multidimensionnelles instationnaires. Notre choix est d'utiliser un modele aux moments pour la partie rayonnement, ce qui est bien moins couteux. Celui-ci est base sur une fermeture entropique a la Levermore qui permet de conserver les principales proprietes de la physique. On developpe une version multigroupe de ce modele afin de pouvoir traiter des cas realistes tres dependants de la frequence. Le systeme couple resultant est hyperbolique et possede des proprietes interessantes qui sont etudiees. Ce modele radiatif est couple avec les equations de Navier-Stokes avec une approche totalement implicite et fortement couplee. De plus, pour gagner de la place memoire, on choisit d'utiliser une methode sans Jacobienne, en pratique une methode de type GMRes preconditionne. Cette methode se revele assez rapide pour pouvoir simuler des applications realistes a un cout de calcul raisonnable, ce qui n'est pas le cas de la plupart des modeles courament utilises dans la litterature. Plusieurs applications sont donnees pour illustrer le bon comportement du modele a la fois dans des configurations academiques simplifiees ou l'on peut faire des comparaisons et dans des configurations realistes comme l'ecoulement lors de l'entree atmospherique de sondes superorbitales.
APA, Harvard, Vancouver, ISO, and other styles
22

Pierron, Luc. "La protection sociale des fonctionnaires : étude critique d’un régime spécial." Thesis, Paris 2, 2016. http://www.theses.fr/2016PA020042.

Full text
Abstract:
Les régimes spéciaux de sécurité sociale des fonctionnaires nourrissent la mythologie française. Leur simple évocation fait généralement l’unanimité, que l’on en parle comme d’avantages acquis, de privilèges catégoriels ou de rémanences du passé. Qualifier juridiquement la protection sociale des fonctionnaires de régime spécial de sécurité sociale présente pourtant certains biais. La notion de « régime » implique une relative cohérence d’ensemble. L’intégration dans la « sécurité sociale » induit le respect des mêmes principes et modes de fonctionnement que l’institution. Le qualificatif « spécial » laisse à penser que ledit régime entretient un rapport de spécial à commun avec le régime général. Ces trois items n’en sont pas moins contestables. La protection sociale des fonctionnaires est une construction itérative, étalée sur plus d’un siècle, où prestations et garanties reposent chacune sur une logique qui lui est propre. Un large pan de cette protection sociale consiste en une couverture administrative, endossée directement par les employeurs publics. Le régime général n’est pas le droit commun de la sécurité sociale. Cela étant dit, c’est une autre étude de la sécurité sociale en général et de la protection sociale des fonctionnaires en particulier qui peut débuter. Le tout pour conclure à une crise d’identités : c’est dans son intégration à la sécurité sociale que la protection sociale des fonctionnaires parvient le mieux à exprimer sa singularité ; mais c’est parce que la protection sociale des fonctionnaires tend à être assimilée à la sécurité sociale qu’il convient d’en admettre la relativité
Special social security schemes for civil servants belong to the French mythology. Their mention is usually embraced by all, which is spoken of as long-acquired habits, categorical privileges or afterimages of the past. Legally qualify social protection of the civil servants of special social security schemes raise questions. The concept of « scheme » implies a relative overall consistency. The integration to the « social security » means to respect the same principles and operating modes as the rest of the institution. The adjective « special » suggests that the scheme has the same relationship to general scheme as special law to ordinary law. These three items are questionable. Social protection of the civil servants is an iterative construction, spread over more than a century, where the benefits and guarantees each based on its proper logic. A large part of this social protection consists of an administrative cover, endorsed by public employers. The general scheme is not the ordinary social security law. That being said, this is another study of social security in general and social protection of the civil servants in particular who can begin. All for finding an identity crisis: with its integration to social security, social protection of the civil servants succeeds in expressing its uniqueness; but it’s because this social protection tends to be equated with social security that relativity may be deduced from it
APA, Harvard, Vancouver, ISO, and other styles
23

Saïd, Cirine. "L'activation des schémas cognitifs dans la douleur, la représentation du corps, la périnatalité et en lien avec le contrôle du moi et le coping." Thesis, Toulouse 2, 2013. http://www.theses.fr/2013TOU20061.

Full text
Abstract:
Les schémas précoces inadaptés sont associés à différentes pathologies psychologiques et en sont parfois à l'origine et/ou la cause de leur maintien. Cependant, les schémas précoces inadaptés ne sont pas les seuls à l'œuvre en fonction des pathologies ; ils sont en lien avec le coping, le contrôle du moi et les croyances. Le but de ce travail est l'amélioration de la compréhension de l'activation des schémas précoces inadaptés ainsi que l'influence des facteurs psychopathologiques et cognitifs dans une population générale, chez les douloureux chroniques, chez les futurs parents et dans une population souffrant de troubles du comportement alimentaire. Une première étude quantitative a été réalisée afin de mettre en évidence l'activation des schémas précoces inadaptés et leurs relations avec les stratégies de coping et contrôle du moi auprès d'une population générale. Une seconde étude a été réalisée dans le but de mettre en évidence l'activation des schémas précoces inadaptés et leurs liens avec les stratégies de coping et le contrôle du moi chez les futurs parents. Une troisième étude a été menée afin de démontrer l'activation des schémas précoces inadaptés en relation avec la représentation du corps et les troubles alimentaires. Et une quatrième étude a été élaborée dans le but de tester l'hypothèse d'une activation des schémas précoces inadaptés en relation avec la représentation de la douleur dans une population tunisienne. Des corrélations significatives ont été observées entre les stratégies de coping et les schémas précoces inadaptés ainsi qu'entre le contrôle du moi et les schémas précoces inadaptés et aussi entre les stratégies de coping et le contrôle du moi
Early maladaptive schemas (EMS) are associated with different forms of psychopathology being not only a source of its manifestation but also a means for maintaining maladaptive behaviour. It is likely that EMS are not the only element linked to psychopathology; coping, irrational beliefs, and ego control are likely linked to both schemas and maladaptive behaviour. The objective of this work was to better understand activation of EMS as well as the influence of cognitive and psychopathological factors in the general population, in individuals suffering from chronic debilitating pain, in future parents, and in those suffering from eating disorders. The objective of the first study is the EMS activation and their relationship to coping strategies and ego control in the general population. The second study explores the expression of EMS in future parents and identify the relationship between EMS, coping, and ego control. The third study is about the EMS activation in relationship to body image and the manifestation of eating disorder sand. The fourth one studies EMS in relationship to chronic pain in a Tunisian sample. Significant and meaningful correlations were found between coping strategies, ego control and EMS. Gender differences were also identified and explored
APA, Harvard, Vancouver, ISO, and other styles
24

Lebreton, Matthieu. "Développement d’un schéma de calcul déterministe APOLLO3® à 3 dimensions en transport et en évolution avec description fine des hétérogénéités pour le cœur du réacteur Jules Horowitz." Thesis, Aix-Marseille, 2020. http://www.theses.fr/2020AIXM0249.

Full text
Abstract:
Le RJH est un réacteur d’irradiation technologique. Ce cœur fortement hétérogène, sans motif simple répétitif est une des limitations de la méthodologie en 2 étapes utilisée pour résoudre l’équation du transport des neutrons.On a développé un nouveau schéma de calcul qui décrit explicitement les hétérogénéités du cœur. Ce schéma de référence conçu avec le code déterministe APOLLO3 est basé sur la méthodologie en 2 étapes améliorée afin de mieux prédire l’environnement des milieux sous-critiques et par la représentation explicite de certaines hétérogénéités à l’étape cœur. Ce schéma a été validé à l’aide de calculs étalon en Monte-Carlo TRIPOLI4 et de quantification des approximations avec des options non-standard comme le MOC-3D.Les travaux sur l’étape réseau ont permis de définir un calcul d’autoprotection précis basé sur la méthode des sous-groupes et tenant compte des spécificités physiques des assemblages. Le calcul est réalisé avec la méthode des caractéristiques 2D pour le flux et les probabilités de collision exactes pour les sections décrites par des tables de probabilité. Le calcul cœur en évolution du RJH s’effectue directement par l’équation du transport du solveur MINARET qui utilise la méthode de Galerkin discontinues. Cette méthode est naturellement adaptée à des géométries non structurées définies par plan et pour lesquelles il n’existe pas de symétrie. Finalement, une modélisation 3D du cœur du RJH préservant des hétérogénéités comme les dispositifs expérimentaux, les plaques combustibles ou autres structures du cœur permet de déterminer aussi précisément que possible les taux de réactions sur une géométrie exacte et ceci au cours de l’évolution
Jules Horowitz Reactor (JHR) is a material testing reactor. As this JHR core is highly heterogeneous and without simple repetitive pattern, the classical 2 steps modeling using to solve neutrons transport equation reaches its limits.A new neutronic scheme has been set up to explicitly describe core heterogeneity. This reference scheme is designed with the APOLLO3 code. It is based on a two-steps methodology improved in order to better predict the environment of subcritical sub-assemblies and by using explicit representation of some heterogeneities at the core stage. This scheme has been validated using standard Monte-Carlo calculations using TRIPOLI4 code and by quantifying approximations with non-standard options of APOLLO3 such as MOC-3D calculation.A precise self-shielding calculation taking account of physics specificities of fuel sub-assemblies is used at the lattice step. During this step, flux calculation are performed with the method of characteristic MOC-2D while exact collision probabilities are used for cross sections described with probability tables.The depletion core calculation of the JHR is carried out by solving the transport equation with the MINARET solver, which uses the discontinuous GALERKIN finite elements method. This method is naturally suitable for unstructured geometries defined with plans and without symmetry. Finally, a 3D calculation of JHR core can preserve heterogeneities like experimental devices, fuel plates or other core structures. It allows determining as precisely as possible depleted reaction rates on an exact geometry
APA, Harvard, Vancouver, ISO, and other styles
25

Morán, Cañón Mario. "Étude schématique du schéma des arcs." Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S079.

Full text
Abstract:
Le schéma des arcs associé à une variété algébrique définie sur un corps paramètre les germes formels de courbes que l'on peut tracer sur la variété considérée. Nous étudions certaines propriétés schématiques locales du schéma des arcs d’une variété. Étant donnée une courbe affine plane singulière définie par un polynôme réduit homogène ou homogène à poids, nous calculons, principalement par des arguments d'algèbre différentielle, des présentations de l'idéal définissant l'adhérence du lieu lisse de l'espace tangent qui est toujours une composante irréductible de cet espace. En particulier, nous obtenons une base de Gröbner de cet idéal, ce qui nous permet de décrire les fonctions de l'espace tangent de la variété qui sont nilpotentes dans le schéma des arcs. Par ailleurs, nous étudions le voisinage formel dans le schéma des arcs d’une variété torique normale de certains arcs appartenant à l’ensemble de Nash associé à une valuation divisorielle torique. Nous établissons un théorème de comparaison, dans le schéma des arcs, entre le voisinage formel du point générique de l’ensemble de Nash et celui d'un arc rationnel suffisamment général dans ce même ensemble de Nash
The arc scheme associated with an algebraic variety defined over a field parameterizes the formal germs of curves lying on the considered variety. We study some local schematic properties of the arc scheme of a variety. Given an affine plane curve singularity defined by a reduced homogeneous or weighted homogeneous polynomial, we compute, mainly using arguments from differential algebra, presentations of the ideal defining the Zariski closure of the smooth locus of the tangent space, which is always an irreducible component of this space. In particular, we obtain a Groebner basis of such ideal, which gives a complete description of the functions of the tangent space of the variety which are nilpotent in the arc scheme. On the other hand, we study the formal neighbourhood in the arc scheme of a normal toric variety of certain arcs belonging to the Nash set associated with a divisorial toric valuation. We establish a comparison theorem, in the arc scheme, between the formal neighbourhood of the generic point of the Nash set and that of a rational arc sufficiently generic in the same Nash set
APA, Harvard, Vancouver, ISO, and other styles
26

Gutierrez, Romero Mario Fernando. "L'argumentation sur des questions socio-scientifiques : l'influence des contextes culturels dans la prise de décisions." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE2075/document.

Full text
Abstract:
Cette thèse a pour objet d’analyser, chez des étudiants colombiens, la compétence qu’ils ont à argumenter lorsqu’ils doivent prendre des décisions sur des projets agro-miniers, et l'impact qu'auraient leur origine ethnique et leur niveau éducatif dans leur manière de réfléchir sur ces sujets. On analyse en particulier l'argumentation sur les problématiques socio-scientifiques que soutiennent les étudiants colombiens de lycée et d'université, issus de deux contextes sociaux et culturels différents. Poser des problèmes en rapport avec la science et la société à des étudiants colombiens, c'est reconnaître à l'avance le discours argumentatif comme une composante primordiale du programme d'études national colombien pour la construction de l'identité du futur citoyen. L’argumentation devient un outil fondamental pour prendre part aux discussions qui, dans le cadre social, ont des implications sur la science et la technologie dans la société actuelle.La première partie a eu pour but de faire un panorama général des avancées théoriques et empiriques autour de l'argumentation et d'expliciter nos choix théoriques. En parcourant diverses recherches, les antécédents théoriques du travail empirique effectué autour de la psychologie, de l'éducation et l'argumentation socio-scientifique ont été examinés. Enfin, dans cette partie les modèles psychologiques et linguistiques qui permettent d'expliquer l'analyse argumentative de l'émotion ont été examinés.Dans la deuxième partie la population indigène colombienne a été caractérisée, et en particulier la population Nasa-Kiwe (Páez) caractéristiques prédominantes, sa localisation géographique ainsi que la langue Páez, le Nasaywe. L'histoire de la Colombie a été parcourue pour offrir des éléments suffisants à la compréhension des questions socio-scientifiques utilisées dans cette recherche. Les sujets qui ont participé à l’expérimentation ont été introduits ainsi que toutes les caractéristiques qui s'avèrent pertinentes, pour rendre compte de leur origine et de leur nature. La tâche qui leur a été présentée et qui a permis d'obtenir le corpus soumis à l’analyse a aussi été introduite. Finalement dans la deuxième partie, on a détaillé le corpus de cette recherche et on a fourni des statistiques et des graphiques pour le présenter globalement. La troisième partie, regroupe les chapitres analytiques. L’analyse interactionnelle du discours de la communauté indigène a mis en évidence des traces d’un discours collaboratif où le raisonnement logique, l’agentivité, l’analyse morale et les références à des espaces cosmiques ont été évoqués pour justifier des arguments. On a retrouvé aussi une demande revendicative sur les droits des indigènes, défendue par des arguments émotionnels qui rappellent la situation de l’agression vécue historiquement par les communautés indigènes en Amérique latine. Une agression que reconnaît la communauté non ethnique indépendamment du niveau scolaire. Au sein du corpus de la population urbaine, aucune cosmogonie spécifique ni religieuse n’ont été retrouvées. L’analyse a été menée essentiellement par le biais de l’argumentation par conséquences employée pour rendre compte des risques de l’exploitation et de l’utilisation des ressources naturelles du pays pour l’environnement et pour la culture indigène. Le tout, en situant la population indigène comme démunie face aux menaces et aux agressions de l’environnement. En tant que but ultime d’une grande partie des arguments, on retrouve l’intérêt de sauvegarde de la Terre Mère (depuis la perspective indigène), ou celui de la préservation de l’environnement (depuis le point de vue urbain), puisque celui-ci est mis en péril sous la pression d’acteurs motivés par des modèles économiques d’exploitation qui diffèrent considérablement de ceux des communautés autochtones
This thesis has the objective of analyzing the argumentative competence in Colombian students, when they must make decisions pertaining to agricultural mining projects and the impact that their ethnic origin and educational level have on their way of thinking about these topics. In particular special analysis is made in the argumentation of social scientific problematics that Colombian high school and university students sustain, who pertain to two different social contexts and cultures. The first part of this thesis had the aim of giving a panoramic view of the theoretical and empirical advances in relation to the study of argumentation and to express our theoretical opinions. The theoretical background of the empirical work was examined by way of diverse investigations. Lastly, psychological and linguistic models were considered to explain the analytical argumentation of the emotions.In the second part a detailed characterization of the Colombian Indian population was made, in particular of the Nasa-Kiwe (Páez) population. Their predominant characteristics were presented, their geographic location and a presentation of the Páez language, Nasaywe. The history of Colombia was described to offer an understanding of the social-scientific problematics utilized in this investigation. The individuals implicated in the experiment and all of the characteristics that resulted relevant in describing their origin and character, as well as the task that was presented to them and has allowed the presentation of the body of this investigation; as well as the statistics and graphics that allow a more global presentation of the findings.The third part of the investigation contains the analytical chapters. The interactional analysis of the discourse of the indigenous community highlights a collaborative discourse in which rational logic, agentivity, moral analysis and cosmic references are evoked to justify arguments. Also, a vindicated demand in relation to indigenous rights was found; these demands were defended by emotional arguments that made reference to aggressions experienced historically by the indigenous communities in Latin America. An aggression that recognizes the ethnic community, all though not independently of the educational level.In the majority of the urban population, there was no specific cosmogony or religion found. The analysis was principally realized through the argumentation of consequences, which was used to reflect the risks in relation to the environment and for the indigenous culture, specifically exploitation and the utilization of natural resources. All of the subjects situated the indigenous population as defenseless in the face of the aggressions to the environment. The final objective of many of the arguments was the protection of Mother Earth (from an indigenous perspective), or the preservation of the environment (from an urban point of view), now that the possibility of its disappearance is daunting in light of the different actors who are motivated by the economic exploitation in contrast of the perspective maintained by the indigenous communities
APA, Harvard, Vancouver, ISO, and other styles
27

Odry, Nans. "Méthode de décomposition de domaine avec parallélisme hybride et accélération non linéaire pour la résolution de l'équation du transport Sn en géométrie non-structurée." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4058/document.

Full text
Abstract:
Les schémas de calcul déterministes permettent une modélisation à moindre coût du comportement de la population de neutrons en réacteur, mais sont traditionnellement construits sur des approximations (décomposition réseau/cœur, homogénéisation spatiale et énergétique…). La thèse revient sur une partie de ces sources d’erreur, de façon à rapprocher la méthode déterministe d’un schéma de référence. L’objectif est de profiter des architectures informatiques modernes (HPC) pour résoudre le problème neutronique à l’échelle du cœur 3D, tout en préservant l’opérateur de transport et une partie des hétérogénéités de la géométrie. Ce travail est réalisé au sein du solveur cœur Sn Minaret de la plateforme de calcul Apollo3® pour des réacteurs à neutrons rapides.Une méthode de décomposition de domaine en espace, est retenue. L'idée consiste à décomposer un problème de grande dimension en sous-problèmes "indépendants" de taille réduite. La convergence vers la solution globale est assurée par échange de flux angulaires entre sous-domaines au cours d'un processus itératif. En favorisant un recours massif au parallélisme, les méthodes de décomposition de domaine contribuent à lever les contraintes en mémoire et temps de calcul. La mise en place d'un parallélisme hybride, couplant les technologies MPI et OpenMP, est en particulier propice au passage sur supercalculateur. Une méthode d'accélération de type Coarse Mesh Rebalance est ajoutée pour pallier à la pénalité de convergence constatée sur la méthode de décomposition de domaine. Le potentiel du nouveau schéma est finalement mis en évidence sur un coeur CFV 3D, construit en préservant l'hétérogénéité des assemblages absorbants
Deterministic calculation schemes are devised to numerically solve the neutron transport equation in nuclear reactors. Dealing with core-sized problems is very challenging for computers, so much that the dedicated core codes have no choice but to allow simplifying assumptions (assembly- then core-scale steps…). The PhD work aims to correct some of these ‘standard’ approximations, in order to get closer of reference calculations: thanks to important increases in calculation capacities (HPC), nowadays one can solve 3D core-sized problems, using both high mesh refinement and the transport operator. Developments were performed inside the Sn core solver Minaret, from the new CEA neutronics platform Apollo3® for fast neutrons reactors of the CFV-kind.This work focuses on a Domain Decomposition Method in space. The fundamental idea involves splitting a core-sized problem into smaller and 'independent' subproblems. Angular flux is exchanged between adjacent subdomains. In doing so, all combined subproblems converge to the global solution at the outcome of an iterative process. Domain decomposition is well-suited to massive parallelism, allowing much more ambitious computations in terms of both memory requirements and calculation time. An hybrid MPI/OpenMP parallelism is chosen to match the supercomputers architecture. A Coarse Mesh Rebalance accelration technique is added to balance the convergence penalty observed using Domain Decomposition. The potential of the new calculation scheme is demonstrated on a 3D core of the CFV-kind, using an heterogeneous description of the absorbent rods
APA, Harvard, Vancouver, ISO, and other styles
28

Vivion, Léo. "Particules classiques et quantiques en interaction avec leur environnement : analyse de stabilité et problèmes asymptotiques." Thesis, Université Côte d'Azur, 2020. https://tel.archives-ouvertes.fr/tel-03135254.

Full text
Abstract:
Au début des années 2000, inspirés par les travaux fondateurs de A.O. Caldeira et A.J. Leggett, L. Bruneau et S. de Bièvre ont introduit un modèle hamiltonien décrivant les échanges d'énergie entre une particule classique et son environnement, ce modèle étant tel que l'environnement agit sur la particule comme une force de friction. D'un côté ce modèle a été étendu au cas de plusieurs particules et, lorsque le nombre de particules considérées est très grand, un modèle cinétique a également été dérivé. Dans la suite ce modèle sera appelé système Vlasov-Onde. De l'autre, comme ce modèle est hamiltonien il est possible de considérer une version quantique de celui-ci. Nous appellerons un tel modèle système Schrödinger-Onde. L'objet de cette thèse est l'étude asymptotique de certaines dynamiques des systèmes Vlasov et Schrödinger-Onde.Dans le cas cinétique il existe des solutions stationnaires telles que la densité de particule dans l'espace des phases soit spatialement homogène. Dans ce cas, par analogie avec le système Vlasov-Poisson, nous nous sommes posé la question de l'existence d'un effet d'amortissement Landau pour de petites perturbations de ces solutions particulières. Nous avons dans un premier temps obtenu un nouveau critère de stabilité linéaire qui nous a ensuite permis de démontrer, en adaptant les travaux de J. Bedrossian, N. Masmoudi, C. Mouhot et C. Villani, un effet d'amortissement Landau non linéaire dans le cas de l'espace entier et du tore. Nous avons en particulier obtenu de nouvelles contraintes (provenant de l'interaction avec l'environnement) sur le taux d'amortissement et nous avons fait le lien entre les équilibres stables du système Vlasov-Onde et ceux du système Vlasov-Poisson, notamment en justifiant qu'un des paramètres du système joue un rôle analogue à la longueur de Jeans dans le cas Vlasov-Poisson attractif. Cette étude théorique est complétée par une étude numérique qui nous a permis de conforter notre compréhension de l'impact des paramètres intervenant dans le système Vlasov-Onde sur la dynamique de ces solutions.Dans le cas du système Schrödinger-Onde nous nous sommes posé la question de la possibilité de mettre en évidence un effet de friction, provenant du milieu et agissant sur la particule quantique. Pour ce faire nous avons dans un premier temps justifié l'existence d'ondes solitaires (ces solutions particulières où la dispersion de l'équation de Schrödinger est parfaitement compensée par un effet attractif) ainsi que la stabilité orbitale des états fondamentaux (une onde solitaire minimisant l'énergie sous une contrainte de masse). Ce résultat de stabilité orbitale nous assure alors qu'une perturbation d'un état fondamental reste en tout temps proche de celui-ci modulo les invariances du système, ici translation et changement de phase. En particulier un état fondamental peut potentiellement se déplacer et nous avons étudié l'existence d'un effet de friction à travers ce possible déplacement. Si dans le cas Schrödinger-Newton l'invariance galiléenne assure l'existence d'états fondamentaux se déplaçant en ligne droite à vitesse constante, le système Schrödinger-Onde ne possède pas cette invariance et l'analogie avec le cas classique suggère que la vitesse de déplacement va nécessairement converger vers zéro. Cette conjecture a été étudiée et confirmée numériquement.Les deux études numériques esquissées précédemment ont nécessité le développement d'une discrétisation temporelle des équations prenant en compte la forme des interactions entre les particules et l'environnement afin de garantir que les échanges d'énergie au niveau discret sont consistants avec ceux au niveau continu
At the beginning of the 2000's, inspired by the prioneering works of A.O. Caldeira and A.J. Leggett, L. Bruneau and S. de Bièvre introduced an Hamiltonian model describing exchanges of energy between a classical particle and its environment in a way that these exchanges lead to a friction effect on the particle. On one hand this model has been extended to the case of several particles and, when the number of particle is large, a kinetic model has also been derived. Hereafter this model will be referred as the Vlasov-Wave system. On the other hand, since this model is Hamiltonian, it is possible to consider its quantum version. We call this new model the Schrödinger-Wave system. The aim of this thesis is to study the asymptotic of particular dynamics of the Vlasov and Schrödinger-Wave systems.In the kinetic case there exists stationary solutions such that the particle density in the phase space is spatially homogeneous. Then, by analogy with the Vlasov-Poisson system we considered the question of the existence of a Landau damping effect for small perturbations of these particular solutions. We obtain a new linear stability criterion which allows us then to obtain, by adapting the works of J. Bedrossian, N. Masmoudi, C. Mouhot and C. Villani, a proof of non linear Landau damping in the free space and torus cases. In particular we exhibit new constraints (due to the interactions with the environment) on damping rates. We also exhibit a link between stable equilibria of the Vlasov-Wave system and those for the Vlasov-Poisson system and we highlight the similarity between a parameter of the system and the Jeans' length in the attractive Vlasov-Poisson case. This study led to a numerical one which allows us to reinforce our comprehension on the role of the system's parameters, more precisely on their role on solutions' dynamic.In the Schrödinger-Wave case we investigated the possibility of highlighting a friction effect on the quantum particle coming from the environment. As a first step we justify the existence of solitary waves (these solutions where the dispersion of the Schrödinger equation is perfectly compensated by an attractive effect) and the orbital stability of ground states (a solitary wave minimizing the energy under a mass constraint). This orbital stability result insures that a small perturbation of a ground state stays, up to the equation's invariances (here translation and change of phase), close to it uniformly in time. Then a ground state might possibly move and we study the existence of a friction effect through this possible displacement. If in the Schrödinger-Newton case the Galilean invariance allows to construct a solution which is a ground states moving on a straight line at constant momentum, the Schrödinger-Wave system is not Galilean invariant and the analogy with the classical case suggested that the momentum of a moving ground state converges to zero. This conjecture has been studied and confirmed numerically. The numerical investigations require the development of a time discretization of the considered equations taking into account the expression of the interactions between particles and the environment in order to insure that the energy exchanges at numerical ground are consistent with those at continuous level
APA, Harvard, Vancouver, ISO, and other styles
29

Faucher, Florian. "Contributions à l'imagerie sismique par inversion des formes d’onde pour les équations d'onde harmoniques : Estimation de stabilité, analyse de convergence, expériences numériques avec algorithmes d'optimisation à grande échelle." Thesis, Pau, 2017. http://www.theses.fr/2017PAUU3024/document.

Full text
Abstract:
Dans ce projet, nous étudions la reconstruction de milieux terrestres souterrains.L’imagerie sismique est traitée avec un problème de minimisation itérative àgrande échelle, et nous utilisons la méthode de l’inversion des formes d’ondes(Full Waveform Inversion, FWI method). La reconstruction est basée sur desmesures d’ondes sismiques, car ces ondes sont caractérisées par le milieu danslequel elles se propagent. Tout d’abord, nous présentons les méthodesnumériques qui sont nécessaires pour prendre en compte l’hétérogénéité etl’anisotropie de la Terre. Ici, nous travaillons avec les solutions harmoniques deséquations des ondes, donc dans le domaine fréquentiel. Nous détaillons leséquations et l’approche numérique mises en place pour résoudre le problèmed’onde.Le problème inverse est établi afin de reconstruire les propriétés du milieu. Ils’agit d’un problème non-linéaire et mal posé, pour lequel nous disposons de peude données. Cependant, nous pouvons montrer une stabilité de type Lipschitzpour le problème inverse associé avec l’équation de Helmholtz, en considérantdes modèles représentés par des constantes par morceaux. Nous explicitons laborne inférieure et supérieure pour la constante de stabilité, qui nous permetd’obtenir une caractérisation de la stabilité en fonction de la fréquence et del’échelle. Nous revoyons ensuite le problème de minimisation associé à lareconstruction en sismique. La méthode de Newton apparaît comme naturelle,mais peut être difficilement accessible, dû au coup de calcul de la Hessienne.Nous présentons une comparaison des méthodes pour proposer un compromisentre temps de calcul et précision. Nous étudions la convergence de l’algorithme,en fonction de la géométrie du sous-sol, la fréquence et la paramétrisation. Celanous permet en particulier de quantifier la progression en fréquence, en estimantla taille du rayon de convergence de l’espace des solutions admissibles.A partir de l’étude de la stabilité et de la convergence, l’algorithme deminimisation itérative est conduit en faisant progresser la fréquence et l’échellesimultanément. Nous présentons des exemples en deux et trois dimensions, etillustrons l’incorporation d’atténuation et la considération de milieux anisotropes.Finalement, nous étudions le cas de reconstruction avec accès aux données deCauchy, motivé par les dual sensors développés en sismique. Cela nous permetde définir une nouvelle fonction coût, qui permet de prometteuses perspectivesavec un besoin minimal quant aux informations sur l’acquisition
In this project, we investigate the recovery of subsurface Earth parameters. Weconsider the seismic imaging as a large scale iterative minimization problem, anddeploy the Full Waveform Inversion (FWI) method, for which several aspects mustbe treated. The reconstruction is based on the wave equations because thecharacteristics of the measurements indicate the nature of the medium in whichthe waves propagate. First, the natural heterogeneity and anisotropy of the Earthrequire numerical methods that are adapted and efficient to solve the wavepropagation problem. In this study, we have decided to work with the harmonicformulation, i.e., in the frequency domain. Therefore, we detail the mathematicalequations involved and the numerical discretization used to solve the waveequations in large scale situations.The inverse problem is then established in order to frame the seismic imaging. Itis a nonlinear and ill-posed inverse problem by nature, due to the limitedavailable data, and the complexity of the subsurface characterization. However,we obtain a conditional Lipschitz-type stability in the case of piecewise constantmodel representation. We derive the lower and upper bound for the underlyingstability constant, which allows us to quantify the stability with frequency andscale. It is of great use for the underlying optimization algorithm involved to solvethe seismic problem. We review the foundations of iterative optimizationtechniques and provide the different methods that we have used in this project.The Newton method, due to the numerical cost of inverting the Hessian, may notalways be accessible. We propose some comparisons to identify the benefits ofusing the Hessian, in order to study what would be an appropriate procedureregarding the accuracy and time. We study the convergence of the iterativeminimization method, depending on different aspects such as the geometry ofthe subsurface, the frequency, and the parametrization. In particular, we quantifythe frequency progression, from the point of view of optimization, by showinghow the size of the basin of attraction evolves with frequency. Following the convergence and stability analysis of the problem, the iterativeminimization algorithm is conducted via a multi-level scheme where frequencyand scale progress simultaneously. We perform a collection of experiments,including acoustic and elastic media, in two and three dimensions. Theperspectives of attenuation and anisotropic reconstructions are also introduced.Finally, we study the case of Cauchy data, motivated by the dual sensors devicesthat are developed in the geophysical industry. We derive a novel cost function,which arises from the stability analysis of the problem. It allows elegantperspectives where no prior information on the acquisition set is required
APA, Harvard, Vancouver, ISO, and other styles
30

Le, Minh Hoang. "Modélisation multi-échelle et simulation numérique de l’érosion des sols de la parcelle au bassin versant." Thesis, Orléans, 2012. http://www.theses.fr/2012ORLE2059/document.

Full text
Abstract:
L’objectif global de ce travail est d’étudier une modélisation multi échelle et de développer une méthode adaptée pour la simulation numérique du processus d’érosion à l’échelle du bassin versant. Après avoir passé en revue les différents modèles existants, nous dérivons une solution analytique non triviale pour le système couplé modélisant le transport de sédiments par charriage. Ensuite, nous étudions l’hyperbolicité de ce système avec diverses lois de sédimentation proposées dans la littérature. Concernant le schéma numérique, nous présentons le domaine de validité de la méthode de splitting, pour les équations modélisant l’écoulement et celle décrivant l’évolution du fond. Pour la modélisation du transport en suspension à l’échelle de la parcelle, nous présentons un système d’équations couplant les mécanismes d’infiltration, de ruissellement et le transport de plusieurs classes de sédiments. L’implémentation et des tests de validation d’un schéma d’ordre élevé et de volumes finis bien équilibré sont également présentés. Ensuite, nous discutons sur l’application et la calibration du modèle avec des données expérimentales sur dix parcelles au Niger. Dans le but d’aboutir la simulation à l’échelle du bassin versant, nous développons une modélisation multi échelle dans laquelle nous intégrons le taux d’inondation dans les équations d’évolution afin de prendre en compte l’effet à petite échelle de la microtopographie. Au niveau numérique, nous étudions deux schémas bien équilibrés : le schéma de Roe basé sur un chemin conservatif, et le schéma avec reconstruction hydrostatique généralisée. Enfin, nous présentons une première application du modèle avec les données expérimentales du bassin versant de Ganspoel qui nécessite la parallélisation du code
The overall objective of this thesis is to study a multiscale modelling and to develop a suitable method for the numerical simulation of soil erosion on catchment scale. After reviewing the various existing models, we derive an analytical solution for the non-trivial coupled system modelling the bedload transport. Next, we study the hyperbolicity of the system with different sedimentation laws found in the literature. Relating to the numerical method, we present the validity domain of the time splitting method, consisting in solving separately the Shallow-Water system (modelling the flow routing) during a first time step for a fixed bed and updating afterward the topography on a second step using the Exner equation. On the modelling of transport in suspension at the plot scale, we present a system coupling the mechanisms of infiltration, runoff and transport of several classes of sediment. Numerical implementation and validation tests of a high order wellbalanced finite volume scheme are also presented. Then, we discuss on the model application and calibration using experimental data on ten 1 m2 plots of crusted soil in Niger. In order to achieve the simulation at the catchment scale, we develop a multiscale modelling in which we integrate the inundation ratio in the evolution equations to take into account the small-scale effect of the microtopography. On the numerical method, we study two well-balanced schemes : the first one is the Roe scheme based on a path conservative, and the second one is the scheme using a generalized hydrostatic reconstruction. Finally, we present a first model application with experimental data of the Ganspoel catchment where the parallel computing is also motived
APA, Harvard, Vancouver, ISO, and other styles
31

Cisternino, Marco. "A parallel second order Cartesian method for elliptic interface problems and its application to tumor growth model." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2012. http://tel.archives-ouvertes.fr/tel-00690743.

Full text
Abstract:
Cette thèse porte sur une méthode cartésienne parallèle pour résoudre des problèmes elliptiques avec interfaces complexes et sur son application aux problèmes elliptiques en domaine irrégulier dans le cadre d'un modèle de croissance tumorale. La méthode est basée sur un schéma aux différences fi nies et sa précision est d'ordre deux sur tout le domaine. L'originalité de la méthode consiste en l'utilisation d'inconnues additionnelles situées sur l'interface et qui permettent d'exprimer les conditions de transmission à l'interface. La méthode est décrite et les détails sur la parallélisation, réalisée avec la bibliothèque PETSc, sont donnés. La méthode est validée et les résultats sont comparés avec ceux d'autres méthodes du même type disponibles dans la littérature. Une étude numérique de la méthode parallélisée est fournie. La méthode est appliquée aux problèmes elliptiques dans un domaine irrégulier apparaissant dans un modèle continue et tridimensionnel de croissance tumorale, le modèle à deux espèces du type Darcy . L'approche utilisée dans cette application est basée sur la pénalisation des conditions de transmission a l'interface, afin de imposer des conditions de Neumann homogènes sur le bord d'un domaine irrégulier. Les simulations du modèle sont fournies et montrent la capacité de la méthode à imposer une bonne approximation de conditions au bord considérées.
APA, Harvard, Vancouver, ISO, and other styles
32

Boujelben, Abir. "Géante éolienne offshore (GEOF) : analyse dynamique des pales flexibles en grandes transformations." Thesis, Compiègne, 2018. http://www.theses.fr/2018COMP2442.

Full text
Abstract:
L’objectif de ce travail porte sur le développement d’un modèle d’interaction fluide-structure adapté à la dynamique des éoliennes de grandes tailles avec des pales flexibles qui se déforment de manière significative sous l’effet de la pression exercée par le vent. Le modèle développé est basé sur une approche efficace d’IFS partitionnée pour un fluide incompressible et non visqueux en interaction avec une structure flexible soumise a des grandes transformations. Il permet de fournir une meilleure estimation de la charge aérodynamique et de la réponse dynamique associée du système (pales, mat, attachements, câbles) avec un temps de calcul raisonnable et pour des simulations sur des longues périodes. Pour la modélisation structurale, un élément fini de type solide 3D est développé pour l’étude dynamique des pales d’éolienne soumises à des grands déplacements et des grandes rotations. Une amélioration du comportement en flexion est proposée par l’introduction des degrés de liberté en rotation et l’enrichissement du champ de déplacements afin de décrire plus précisément la flexibilité des pales. Cet élément solide est apte de capter des modes de hautes fréquences qui peuvent s’avérer néfastes pour la stabilité du calcul. Deux techniques sont donc proposées pour les contrôler : la régularisation de la matrice masse et le développement des schémas d’intégration robustes de conservation et de dissipation d’énergie. Les chargements aérodynamiques sont modélisés en utilisant la Panel Method. Il s’agit d’une méthode aux frontières, relativement rapide par rapport à la CFD mais suffisamment précise pour calculer la distribution de la pression exercée sur la pale. Les modèles fluide et structure interagissent via un algorithme de couplage partitionné itératif dans lequel des considérations particulières sont prises en compte dans le contexte des grandes transformations. Dans un effort visant à instaurer un indicateur de fatigue dans la méthodologie proposée, des câbles précontraints sont introduits reliant le mat de l’éolienne au support. Une nouvelle formulation complémentaire en termes de contraintes est ainsi développée pour l’analyse dynamique des câbles 3D en comportement élasto-visco-plastique. Chaque méthode proposée a été d’abord validée sur des cas tests pertinents. Par la suite, des simulations numériques d’éoliennes avec des pales flexibles sont effectuées en vue d’affiner la compréhension de leur comportement dynamique et l’intérêt que la flexibilité des pales peut apporter à leur fonctionnement
In this work, a numerical model of fluid-structure interaction is developed for dynamic analysis of giant wind turbines with flexible blades that can deflect significantly under wind loading. The model is based on an efficient partitioned FSI approach for incompressible and inviscid flow interacting with a flexible structure undergoing large transformations. It seeks to provide the best estimate of true design aerodynamic load and the associated dynamic response of such system (blades, tower, attachments, cables). To model the structure, we developed a 3D solid element to analyze geometrically nonlinear statics and dynamics of wind turbine blades undergoing large displacements and rotations. The 3D solid bending behavior is improved by introducing rotational degrees of freedom and enriching the approximation of displacement field in order to describe the flexibility of the blades more accurately. This solid iscapable of representing high frequencies modes which should be taken under control. Thus, we proposed a regularized form of the mass matrix and robust time-stepping schemes based on energy conservation and dissipation. Aerodynamic loads are modeled by using the 3D Vortex Panel Method. Such boundary method is relatively fast to calculate pressure distribution compared to CFD and provides enough precision. The aerodynamic and structural parts interact with each other via a partitioned coupling scheme with iterative procedure where special considerations are taken into account for large overall motion. In an effort to introduce a fatigue indicator within the proposed framework, pre-stressed cables are added to the wind turbine, connecting the tower to the support and providing more stability. Therefore, a novel complementary force-based finite element formulation is constructed for dynamic analysis of elasto-viscoplastic cables. Each of theproposed methods is first validated with differents estexamples.Then,several numerical simulations of full-scale wind turbines are performed in order to better understand its dynamic behavior and to eventually optimize its operation
APA, Harvard, Vancouver, ISO, and other styles
33

Coady, Allison Marie. "Examining the role of preventive diplomacy in South Africa’s foreign policy towards Zimbabwe, 2000-2009." Diss., University of Pretoria, 2012. http://hdl.handle.net/2263/25681.

Full text
Abstract:
The recent political conflict in Zimbabwe has attracted the attention of policymakers, academics and the media alike in the neighbouring countries of the region, across the African continent and internationally. While the story of an ageing African liberation hero turned dictator who, through autocratic rule, has governed his country and his people to the ground in order to maintain power is captivating, a key element of the fascination is the critical diplomatic role played by South Africa from 2000 onward. Foreign policy in post-apartheid South Africa on paper is driven by human rights and democracy, conflict prevention and conflict resolution through peaceful means, and the promotion of African interests in world affairs. However, after observing South Africa’s involvement in the Zimbabwe conflict between 2000 and 2009, South Africa’s foreign policy appears to be propelled more by African solidarity and sovereignty, anti-imperialism, and a softer interpretation of preventive diplomacy than its international counterparts. Thabo Mbeki’s preventive diplomacy toward Zimbabwe during his presidency was slow to produce results, lacked transparency and frustrated many, yet, when examined under a preventive diplomacy theoretical lens, Mbeki’s policy did eventually garner success through the signing of the Global Political Agreement (GPA) and the formation of an inclusive government in Zimbabwe. This dissertation examines the role of preventive diplomacy in South Africa’s foreign policy toward Zimbabwe under Mbeki’s leadership and determines the point at which South Africa switched from an approach of preventive diplomacy to one of conflict resolution and conflict management. The concept of ‘preventive diplomacy’ is often focused on government-to-government relations or the high level diplomacy of intergovernmental organizations such as the United Nations (UN). Multi-track diplomacy expands on this traditional interpretation and considers the preventive diplomacy contributions of a variety of non-state actors to the practice of conflict prevention. This dissertation uniquely moulds the preventive diplomacy theoretical framework of Michael Lund with Kumar Rupesinghe’s concept of multi-track diplomacy to form a more comprehensive illustration of the role of preventive diplomacy in the approach of multiple actors towards the Zimbabwe conflict. The more inclusive preventive diplomacy theoretical framework is then applied to the conflict in Zimbabwe between 2000 and 2009. Through the application of a preventive diplomacy framework which incorporates the concept of multi-track diplomacy it is then possible to observe the South African government’s preventive diplomacy approach toward Zimbabwe first between 2000 and 2007 and then as mandated by SADC between 2007 and 2009 and finally compare it with the diplomacy of multi-track actors such as the UN, Zimbabwe-based and South African-based civil society organizations, the Zimbabwean Diaspora, religious groups, and financial institutions. The examination of the larger role of preventive diplomacy in the Zimbabwe conflict situation leads to the understanding that each diplomatic effort is interlinked. Therefore the culminating event of the South African government’s preventive diplomacy approach in the Global Political Agreement could not have been achieved without the preventive diplomacy efforts of a multitude of actors who were also committed to preventing violence and finding a lasting solution to the conflict in Zimbabwe.
Dissertation (MA)--University of Pretoria, 2012.
Political Sciences
unrestricted
APA, Harvard, Vancouver, ISO, and other styles
34

Hakala, Tim. "Settling-Time Improvements in Positioning Machines Subject to Nonlinear Friction Using Adaptive Impulse Control." BYU ScholarsArchive, 2006. https://scholarsarchive.byu.edu/etd/1061.

Full text
Abstract:
A new method of adaptive impulse control is developed to precisely and quickly control the position of machine components subject to friction. Friction dominates the forces affecting fine positioning dynamics. Friction can depend on payload, velocity, step size, path, initial position, temperature, and other variables. Control problems such as steady-state error and limit cycles often arise when applying conventional control techniques to the position control problem. Studies in the last few decades have shown that impulsive control can produce repeatable displacements as small as ten nanometers without limit cycles or steady-state error in machines subject to dry sliding friction. These displacements are achieved through the application of short duration, high intensity pulses. The relationship between pulse duration and displacement is seldom a simple function. The most dependable practical methods for control are self-tuning; they learn from online experience by adapting an internal control parameter until precise position control is achieved. To date, the best known adaptive pulse control methods adapt a single control parameter. While effective, the single parameter methods suffer from sub-optimal settling times and poor parameter convergence. To improve performance while maintaining the capacity for ultimate precision, a new control method referred to as Adaptive Impulse Control (AIC) has been developed. To better fit the nonlinear relationship between pulses and displacements, AIC adaptively tunes a set of parameters. Each parameter affects a different range of displacements. Online updates depend on the residual control error following each pulse, an estimate of pulse sensitivity, and a learning gain. After an update is calculated, it is distributed among the parameters that were used to calculate the most recent pulse. As the stored relationship converges to the actual relationship of the machine, pulses become more accurate and fewer pulses are needed to reach each desired destination. When fewer pulses are needed, settling time improves and efficiency increases. AIC is experimentally compared to conventional PID control and other adaptive pulse control methods on a rotary system with a position measurement resolution of 16000 encoder counts per revolution of the load wheel. The friction in the test system is nonlinear and irregular with a position dependent break-away torque that varies by a factor of more than 1.8 to 1. AIC is shown to improve settling times by as much as a factor of two when compared to other adaptive pulse control methods while maintaining precise control tolerances.
APA, Harvard, Vancouver, ISO, and other styles
35

Lien, Chien-Hsiang, and 連健翔. "Study of the H.264/AVC Video Encryption Scheme." Thesis, 2011. http://ndltd.ncl.edu.tw/handle/96995702986645384827.

Full text
Abstract:
碩士
國防大學理工學院
電子工程碩士班
99
Because the Internet is an unprotected space, if important data (e.g., military intelligent information) is illegally accessed while transmitting on the net, possibly being further modified and used, the damage to the personnel, enterprise, or country is uncounted. Therefore, how to protect the transmission security of video data has become a hot research topic nowadays. H.264/AVC is the newest video compression standard which is developed for improving compression rate and strengthening fault tolerance in various applications. Because of the high compression rate and good visual quality, H.264/AVC has become the hot video compression technique. Generally speaking, a good video encryption technique needs to meet four basic requirements: compressibility equivalent, complexity equivalent, format compliant, and perceptually secure. Based on the requirement of video protection, several H.264/AVC dedicated encryption schemes have been proposed. Unfortunately, most encryption schemes are focused on explaining how they can work well while ignoring systematic and objective discussions of the basic requirements. As a result, individuals or enterprises cannot get complete references from the existing H.264/AVC encryption techniques. The thesis is aimed to propose a high-performance H.264/AVC selective encryption scheme. We first identify the major and auxiliary data which is generated during H.264/AVC compression process and can influence the visual quality of H.264 compressed video. The two-part data is encrypted in the proposed encryption sheme to achieve the purpose of high visual security. Experimental results show that the proposed encryption scheme can provide higher level of visual security than the other H.264/AVC selective encryption methods under the constraints of compressibility equivalent, complexity equivalent, and format compliant.
APA, Harvard, Vancouver, ISO, and other styles
36

Shiau, Shau-yu, and 蕭少宇. "A Privacy Protection Scheme in H.264/AVC by Information Hiding." Thesis, 2012. http://ndltd.ncl.edu.tw/handle/80224462309459751734.

Full text
Abstract:
碩士
國立中央大學
資訊工程研究所
100
Protecting personal privacy on digital images and videos is important these days. In this research, we present a privacy protection mechanism in H.264/AVC videos. The private visual information on video frames is scrambled by processing the data in the compressed bitstream directly so that the private region is not visible to the regular users. Nevertheless, the scrambled region can be restored to the original content by authorized users. Basically, the scrambling is applied by extracting and removing some data from the H.264/AVC bitstream. These data will be embedded into the bitstream so that the recovery can be applied successfully by placing these data back. In other words, the de-scrambling is achieved via the methodology of information hiding. Since the H.264/AVC encoder makes use of the spatial and temporal dependency for reducing the data size, careless partial scrambling on H.264/AVC compressed bit-stream will result in the drift errors. To solve this problem, the restricted H.264/AVC encoding is employed to prevent the modified data from affecting the subsequent video content. Experimental results show that our method can effectively scramble the privacy region, which can be recovered by using the hidden information. In addition, the size of partially scrambled video is kept under good control.
APA, Harvard, Vancouver, ISO, and other styles
37

Kun-Chin, Han. "A Novel Data-Embedding H.264/AVC Coding Scheme for Error Resilience." 2004. http://www.cetd.com.tw/ec/thesisdetail.aspx?etdun=U0009-0112200611363769.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Han, Kun-Chin, and 韓昆瑾. "A Novel Data-Embedding H.264/AVC Coding Scheme for Error Resilience." Thesis, 2005. http://ndltd.ncl.edu.tw/handle/60398832849773793516.

Full text
Abstract:
碩士
元智大學
電機工程學系
93
Video Compression is good for reducing transmission data but very vulnerable to different transmission noise or errors like package loss. In this thesis, a novel data-embedding H.264/AVC coding scheme for error resilience is proposed to conceal and protect various transmission errors. This scheme uses two complementary methods to tackle and reduce the effect of transmission errors. First of all, the encoder uses a technique of data embedding to embed important information to the intra-coded (I) frame and the inter-coded (P) one. The important data includes the intra-coded type and motion vector which are extracted from the intra-coded frame and the inter-coded frame, respectively. When transmitting, the important data is embedded into the AC-coefficients of the H.264/AVC bitstream. Once the video stream is transmitted, the decoder will immediately extract desired embedded data from the stream for error recovering if a transmission error is detected. If unfortunately the embedded data can not be well extracted, the decoder will use the second method to conceal the effect of this error as can as possibly. The second method takes advantages of the BNM (Best neighborhood matching) scheme to find an optimal motion vector for video decoding. Since a smaller window mask is used and different weights are incorporated for balancing the contributions of neighbor windows, the task of correspondence search can be achieved very efficiently and effectively. Even though the corrupted video stream has higher packet loss rate (up to 20%), a higher quality of H.264/AVC video sequence still can be well recovered and maintained. Experimental results have proved the superiority of the proposed method in the efficiency, effectiveness, and robustness of error concealment and resilience for video coding.
APA, Harvard, Vancouver, ISO, and other styles
39

Cheng-HongJiang and 江承鴻. "Rate Control Scheme Based on Fixed Lagrange Multipliers for H.264/AVC." Thesis, 2010. http://ndltd.ncl.edu.tw/handle/41350229467372976262.

Full text
Abstract:
碩士
國立成功大學
電機工程學系碩博士班
98
In general video coding, the process of Rate Distortion Optimization (RDO) usually utilizes the Rate-Distortion (R-D) cost function involving the Lagrange multiplier to weight the ratio between bit rates and distortions to find the most suitable encoding mode. However, the quantization parameter (QP) has to be decided in advance, which is often not the best one. In this thesis, at first we propose a two-pass rate control (RC) mechanism based on a fixed Lagrange multiplier. An accurate lambda value is estimated after the first pass coding, so that it can be adopted as a fixed parameter in the second pass coding. After optimization, we proposed the one-pass RC scheme not only keep the video quality performance but also reduce the computational complexity. Experiment results show that, compared to the JVG-G012 method implemented in H.264/AVC reference software JM13.2, both the proposed two-pass and one-pass method could significantly improve the video quality. Besides, a proposed optimum procedure is also presented to reduce the computational complexity and accurately controls the bit rate.
APA, Harvard, Vancouver, ISO, and other styles
40

Chen, Ing-fan, and 陳穎凡. "The H.264/AVC Video Content Authentication Scheme by Using Digital Watermarking." Thesis, 2009. http://ndltd.ncl.edu.tw/handle/71500103656326121115.

Full text
Abstract:
碩士
國立中央大學
資訊工程研究所
97
Digitization of videos brings a lot of convenience to the transmission and archiving of visual data. However, the ease of manipulation of digital videos gives rise to some concerns about their authenticity, especially when digital videos are employed in the applications of surveillance. In this research, we try to tackle this problem by using the digital watermarking techniques. A practical digital video watermarking scheme for authenticating the H.264/AVC compressed videos is proposed to ensure their correct content order. The watermark signals, which represent the serial numbers of video segments, are embedded into nonzero quantization indices of frames to achieve both the effectiveness of watermarking and the compact data size. The human visual characteristics are taken into account to guarantee the imperceptibility of watermark signals and to attain an efficient implementation in H.264/AVC. The issues of synchronized watermark detections are settled by selecting the shot-change frames for calculating the distortion-resilient hash, which helps to determine the watermark sequence. The experimental results demonstrate the feasibility of the proposed scheme as the embedded watermarks can survive the allowed transcoding processes while the edited segments in the tampered video can be located.
APA, Harvard, Vancouver, ISO, and other styles
41

Golikeri, Adarsh. "An improved scalar quantization-based digital video watermarking scheme for H.264/AVC." Thesis, 2005. http://hdl.handle.net/2429/16749.

Full text
Abstract:
Digital watermarking, a robust information-embedding technique, has gained significant attention in the past few years, due to the spread of illegal redistribution and unauthorized use of digital multimedia content. In general, a watermark is a secure, perceptually invisible, unique, low-power signal which is robustly inserted into original digital content. In this thesis, we propose an improved, scalar quantization-based digital video watermarking scheme. The aim is to enable video content producers and owners to embed a robust watermark into their video. If such a scheme is implemented on a large scale, it could serve as a deterrent against rampant distribution and sharing of pirated copies of video content. Our scheme embeds a locally adaptive, robust, Rate-Distortion (R-D) optimized watermark signal into the transform domain of the macroblock residual. This ensures that watermark signal is embedded in the most robust manner, with least visual distortion. We use a unique perceptual mask which limits the amount of spatial and temporal distortion due to watermark insertion. Therefore, our scheme achieves higher watermarked picture quality compared to existing schemes. Our scheme is designed with a built-in bit-rate controller, which ensures that the watermark bits are distributed in proportion to the visual importance of different regions of the video frame. We adapt our scheme to H.264/AVC, which is the latest video coding standard. Our scheme overcomes the challenges for watermarking of H.264/AVC video, namely high compression efficiency, small residual data, integer transform, R-D coding decisions and video bit-rate control. Experimental results on several standard video sequence show that compared to existing quantization-based watermarking schemes, our proposed scheme is significantly more robust in terms of Bit Error Rate (BER) to different types of attacks, including video compression and decompression, transcoding, low-pass filtering, scaling, rotation and collusion.
Applied Science, Faculty of
Electrical and Computer Engineering, Department of
Graduate
APA, Harvard, Vancouver, ISO, and other styles
42

Fan, Kuan-Wei, and 樊冠緯. "Cost-Effective Rate Control Scheme for H.264/AVC by System-Level Design." Thesis, 2008. http://ndltd.ncl.edu.tw/handle/55706662936608466639.

Full text
Abstract:
碩士
國立成功大學
電機工程學系碩博士班
96
This thesis presents a low cost and low complexity rate control scheme based on system-level design. Conventional rate control algorithms only focus on rate-distortion performance and did not consider their performance and complexity when implementing on an embedded system. Our proposed rate control scheme jointly considers the performance and its related architecture for hardware/software co-design. The proposed cost-effective macro-block (MB) layer rate control module works in hardware, and the typical frame layer rate control is executed in system CPU. It is less complex than the rate control module adopted by H.264 JM13.2 reference software and is more suitable for SoC system implementation. The experimental results show that the rate control ability of our proposed is better than H.264 frame layer rate control. Even if compared with MB layer rate control in H.264, the performance is almost similar.
APA, Harvard, Vancouver, ISO, and other styles
43

Lee, Chun-Jung, and 李俊融. "A Video Layered Quality Segmentation Scheme Included Advertisements Based on H.264/AVC." Thesis, 2012. http://ndltd.ncl.edu.tw/handle/71696639292321644450.

Full text
Abstract:
碩士
逢甲大學
資訊工程所
100
In recent years, internet bandwidths have become larger and larger. Video on demand is more and more popular than ever before. This paper proposed a video layered quality segmentation scheme included advertisements based on H.264. In our scheme a video would be divided into two different quality parts. Users without paying can watch worse quality part, which includes high-definition advertisements. Users who paid can watch better quality part without any advertisements. Unlike other current video websites, users need to re-download whole high-definition video, in this scheme, users who paid only need to load part of high-definition video, and transfer the standard-definition video to high-definition video, and remove advertisements.
APA, Harvard, Vancouver, ISO, and other styles
44

Chan, Meng-Hsuan, and 詹孟軒. "Compromization scheme of memory and complexity reduction for reference frames of H.264/AVC." Thesis, 2009. http://ndltd.ncl.edu.tw/handle/71698649369556888716.

Full text
Abstract:
碩士
國立中正大學
電機工程所
97
This work develops a compromised scheme of reducing memory and complexity associated with H.264/AVC in which multiple reference frames are used in motion estimation/compensation for inter-predictive coding. While multiple reference frames are adopted to increase coding efficiency of inter-predictive coding, they also consume a lot of memory resource. If the memory space is insufficient, a video sequence can not be completely and correctly decoded to result in quality degradation. This work presents a novel scheme to store a portion of macro blocks as compressed data according to the constrained memory space. Additionally, this insufficient memory space is effectively used to minimize the complexity of decoding. The simulation results demonstrate that the proposed method can utilize less memory than the conventional ones in H.264/AVC. The overhead of the proposed method is slightly increased computational complexity. Therefore, the method proposed herein can be widely employed in various devices with insufficient memory to successfully decode H.264/AVC video sequences.
APA, Harvard, Vancouver, ISO, and other styles
45

Tsai, Hui-Hsien, and 蔡慧嫺. "Integrated 2-Dimensional Transform Designs with Design-for-Testability Scheme in H.264/AVC." Thesis, 2007. http://ndltd.ncl.edu.tw/handle/29425669807769848847.

Full text
Abstract:
碩士
國立成功大學
電機工程學系碩博士班
95
This thesis focuses on the efficient implementation of the transform coding with Design-for-Testability capability in video coding systems, including two parts. In the first part, we aim a flexible inverse transform structure at the high profile in H.264/AVC. This architecture is efficiently combined all inverse transforms together and suitable for all profile in H.264/AVC decoder. The proposed structure is synthesized with 0.18 �慆 CMOS technology. The synthesized flexible transform architecture achieves 125 MHz clock frequency. In the second part, we firstly design a 2-D 4×4 transform architecture with a Design-for-Testability scheme for H.264/AVC. Its architecture is implemented by C-testability which fits for the more regular circuits with a constant test set regardless of the circuit size. The proposed architecture just needs eight test patterns for single stuck-at fault model to achieve 100% fault coverage.
APA, Harvard, Vancouver, ISO, and other styles
46

Chen, Sheng-Shiung, and 陳勝雄. "Effective Memory Reduction Scheme Used for Reference Frames in H.264/AVC Video Codec." Thesis, 2005. http://ndltd.ncl.edu.tw/handle/19309141552404255136.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Chen, Hong-kai, and 陳泓愷. "A fast trellis-based coding scheme for consistent quality control in H.264/AVC." Thesis, 2011. http://ndltd.ncl.edu.tw/handle/81594361544723719886.

Full text
Abstract:
碩士
國立臺灣科技大學
資訊工程系
99
The traditional video coding techniques are difficult to achieve the consistent quality for video with high motion or frequent scene changes. Thus, that significantly reduces the viewing quality. Recently, Huang and Hang proposed a trellis-based algorithm for consistent quality control in H.264/AVC and it can improve the visual quality of the encoded video sequences significantly. Converting the quality consistency problem to that of finding an optimal path in a tree, the trellis-based algorithm encodes each encode in a consistent quality. However, the trellis-based algorithm suffers from time-consuming problem since it spends a lot of computation time in the tree construction process. In this paper, we develop an improved distortion model to reduce the computational complexity of trellis-based consistent quality control algorithm. Based on the proposed distortion model, we can predict the distortion of current frame caused by a specific quantization parameter. The predicted distortions of different quantization parameters can be used to remove unnecessary encoding procedures and it leads to a significant computation saving-effect. Experimental results demonstrate that the proposed fast consistent quality control algorithm has 47% execution-time improvement ratio and results in less than 0.1 dBs PSNR degradation when compared to Huang and Hang’s algorithm. As for the visual quality comparison, our proposed fast algorithm has the same quality as Huang and Hang’s algorithm.
APA, Harvard, Vancouver, ISO, and other styles
48

Gowtham, Srinivas R. B. "An advection velocity correction scheme for interface tracking using the level-set method." Thesis, 2018. https://etd.iisc.ac.in/handle/2005/5377.

Full text
Abstract:
An advection velocity correction (AVC) scheme for interface tracking using the level-set method is presented in this thesis. The key idea is to apply a correction to the interface advection velocity at points adjacent to the zero level-set, so as to enforce the preservation of the signed distance function property at these points. As such, the AVC scheme eliminates the need for explicit sub-cell x approaches, as reinitialization at points adjacent to the zero level-set is not needed. This ap- proach of correcting the advection velocity eld near the interface and computing the signed distance function (SDF) to a high order of accuracy near the interface, rather than applying an explicit sub-cell x during the reinitialization step repre- sents the key novel aspect of the AVC scheme. In this thesis results from using the AVC scheme along with advection and reinitialization schemes using upwind finite differencing on uniform meshes are presented. These results are determined for four canonical test problems: slotted disk rotation, deforming sphere, interacting circles and vortex in a box. These results are compared with corresponding results determined using a recently proposed explicit sub-cell x based reinitialization scheme (CR2). These comparisons show that the AVC scheme yields significantly improved conservation of enclosed volume/area within the interface. Note that, the present AVC scheme achieves this by only modifying velocity field values at mesh points. Therefore, the AVC algorithm can in principle be used within the framework of nearly any numerical scheme used to compute interface evolution us- ing the level-set method, even on non-uniform and unstructured meshes, in order to achieve improvements in solution quality.
APA, Harvard, Vancouver, ISO, and other styles
49

Chen, Chih-Chang, and 陳志昌. "Fast Intra/Inter Mode Decision for H.264/AVC Using the Spatial-Temporal Prediction Scheme." Thesis, 2008. http://ndltd.ncl.edu.tw/handle/10490873756153132527.

Full text
Abstract:
碩士
中華大學
資訊工程學系(所)
96
In the H.264/AVC coding standard, large flexibilities for the motion estimation mode, multiple reference frames, intra prediction modes for I-frame, motion estimation refinements, entropy coding… etc. are provided to obtain the optimum R-D cost. Especially, there are seven motion estimation modes from 44 to 1616 are used to find the minimum motion compensation error for each macroblock. For intra prediction mode, there are four prediction modes are used to encode the 88 chroma and 1616 luma blocks and eight prediction directions and one DC prediction are used to encode the intra 44 luma block. Hence, the high computation cost of the full search method in the reference software JM-14.0 make the encoding process inefficient. Therefore, the methods of applying the SAD (sum of absolute difference), homogeneous region analysis, and edge detection are developed to determine the optimum motion estimation mode. However, the additional computation cost of the image processing will reduce the efficiency of the motion compensation process. In this paper, the spatial-temporal correlations between the current frame and the reference frame are analyzed to develop a fast mode decision method for Inter/Intra frame encoding in which no extra image processes are used. Furthermore, the concept of drift compensation is adopted to avoid the error accumulation phenomenon during the mode decision process. The experimental results show that the total computation cost can be reduced about 70%, the total bit rate just increase less than 3.7 %, and the average PSNR is only dropped about 0.08 dB.
APA, Harvard, Vancouver, ISO, and other styles
50

Huang, Jhih-Yu, and 黃誌宇. "An H.264/AVC Error Resilient Scheme using Reversible Data Embedding in the Frequency Domain." Thesis, 2008. http://ndltd.ncl.edu.tw/handle/24733475212647563706.

Full text
Abstract:
碩士
國立東華大學
資訊工程學系
96
Abstract H.264/AVC is a novel video coding standard. This new standard can provide a better coding efficiency than other previous video coding standard. When digital video codec technology grows so rapidly, many multimedia applications develop using H.264. when transmission error occurs, however, bit stream can not be successfully decoded and video quality will be destroyed by errors blocks. This results is a broadcast TV, Internet broadcast video,…etc. Therefore, the error resilience or error concealment is an important research issue. Information embedding causes the damage of the original image of traditional error resilient scheme. If error free, the quality resulting from the traditional error resilient scheme is not the same as original image. Reversible data embedding technique using difference expansion is a simple and effective algorithm. In this thesis, we propose a error resilient scheme using reversible data embedding technique in the frequency domain. Simulation results demonstrate that the proposed method makes the video coding sequence more robust.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography