Literatura científica selecionada sobre o tema "Modélisation d’erreur"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Consulte a lista de atuais artigos, livros, teses, anais de congressos e outras fontes científicas relevantes para o tema "Modélisation d’erreur".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Artigos de revistas sobre o assunto "Modélisation d’erreur"

1

Piednoir, E. "Maladie de Lyme : modélisation du risque d’erreur diagnostique en pratique courante". Médecine et Maladies Infectieuses 50, n.º 6 (setembro de 2020): S108. http://dx.doi.org/10.1016/j.medmal.2020.06.221.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Esso, Loesse Jacques. "La dépendance démographique est-elle un obstacle à l’épargne et à la croissance en Côte d’Ivoire?" Articles 85, n.º 4 (8 de dezembro de 2010): 361–82. http://dx.doi.org/10.7202/045069ar.

Texto completo da fonte
Resumo:
Cette étude analyse empiriquement l’influence de la dépendance démographique sur l’épargne et la croissance en Côte d’Ivoire. En utilisant des données de la Banque mondiale (2008) et de la Banque africaine de développement (2008) sur la Côte d’Ivoire entre 1960 et 2007, nous montrons à partir d’une modélisation à correction d’erreur que la dépendance démographique influence négativement le taux d’épargne et le PIB à long terme. À court terme, les variations du ratio de dépendance démographique influencent négativement les variations du taux d’épargne et le taux de croissance du PIB réel. Cependant, les tests de causalité montrent que la dépendance démographique ne cause ni l’épargne ni la croissance économique de la Côte d’Ivoire.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Dinga, Bruno, Jimbo Henry Claver, Kum Kwa Cletus e Shu Felix Che. "Modeling and Predicting Exchange Rate Volatility: Application of Symmetric GARCH and Asymmetric EGARCH and GJR-GARCH Models". Journal of the Cameroon Academy of Sciences 19, n.º 2 (3 de agosto de 2023): 155–78. http://dx.doi.org/10.4314/jcas.v19i2.6.

Texto completo da fonte
Resumo:
La modélisation et la prévision de la volatilité sont devenues de plus en plus importantes ces derniers temps étant donné qu’une compréhension de la volatilité future peut aider les investisseurs et les diverses parties prenantes à minimiser leurs pertes. Cet article applique l’analyse de séries chronologiques univariées dans la modélisation et la prédiction de la volatilité des taux de change entre le FCFA Camerounais (XAF) et le Dollar Américain (USD) et entre le FCFA Camerounais et le Yuan Chinois (CNY). En utilisant les prix de clôture quotidiens du 1er Janvier 2017 au 30 Septembre 2022, les modèles d’hétéroscédasticité conditionnelle autorégressive généralisée symétrique (GARCH) et asymétrique GARCH exponentiel (EGARCH) et Glosten-Jagannathan-Runkle GARCH (GJR-GARCH) sont utilisés pour capturer des faits stylisés sur l’échange rendements des taux. Les ensembles de données dans l’échantillon et hors échantillon contiennent des données du 1er Janvier 2017 au 31 Décembre 2021 et du 1er Janvier 2022 au 30 Septembre 2022 respectivement. Les résidus sont supposés suivre les distributions normale, t et d’erreur généralisée avec leurs homologues asymétriques. En considérant le modèle avec les critères d’information d’Akaike (AIC) les plus bas, l’article trouve ARMA (0,1) + GJRGARCH (1,1) - SGED et ARMA(1,1)+GJR-GARCH(2,2) - SGED comme les modèles les plus appropriés pour décrire la volatilité des rendements des taux de change USD/XAF et CNY/XAF respectivement. De même, ARMA(0,1)+GARCH(1,1) - SGED et ARMA(1,1)+GJR-GARCH(2,2)-SGED sont les meilleurs modèles prédictifs hors échantillon pour la volatilité de taux de change USD/XAF et CNY/XAF utilisent respectivement l’erreur absolue moyenne (MAE) et l’erreur quadratique moyenne (RMSE). Les effets de levier caractérisent le taux de change CNY/XAF mais sont absents des données sur le taux de change USD/XAF. Les résultats montrent que les modèles hétéroscédastiques conditionnels peuvent être utilisés efficacement pour modéliser et prédire la volatilité conditionnelle des séries de taux de change. Cette recherche recommande que, dans la conception de politiques de taux de change appropriées, les autorités monétaires Camerounaises et la BEAC prennent en considération le fait que le marché des taux de change est très volatil et réagit différemment aux bonnes comme aux mauvaises nouvelles. Modeling and predicting volatility has become increasingly important in recent times given that an understanding of future volatility can help investors and various stakeholders to minimize their losses. This paper applies univariate time series analysis in the modeling and prediction of the volatility of the exchange rates between Cameroon’s FCFA (XAF) and the US Dollar (USD) and between Cameroon’s FCFA and the Chinese Yuan (CNY). Using daily closing prices from 01 January 2017 to 30 September 2022, both symmetric Generalized Autoregressive Conditional Heteroscedasticity (GARCH) and asymmetric Exponential GARCH (EGARCH) and Glosten-Jagannathan-Runkle GARCH (GJR-GARCH) models are used to capture stylized facts about exchange rate returns. The in-sample and out-of-sample data sets contain data from 01 January 2017 to 31 December 2021 and from 01 January 2022 to 30 September 2022 respectively. The residuals are assumed to follow the normal, student’s t and generalized error distributions along with their skewed counterparts. Considering the model with the lowest Akaike Information Criteria (AIC), the paper finds ARMA(0,1) + GJR-GARCH(1,1) - SGED1 and ARMA(1,1)+GJR-GARCH(2,2) - SGED as the most appropriate models to estimate the volatility of the USD/XAF and CNY/XAF exchange rate returns respectively. Equally, ARMA(0,1)+GARCH(1,1) - SGED and ARMA(1,1)+GJR-GARCH(2,2)-SGED are the best out-of-sample predictive models for the volatility of the USD/XAF and CNY/XAF exchange rate returns respectively using Mean Absolute Error (MAE) and Root Mean Square Error (RMSE). Leverage effects are found to characterize the CNY/XAF exchange rate but absent in the USD/XAF exchange rate data. The results show that conditional heteroscedastic models can be effectively used to model and predict the conditional volatility of exchange rate series. This research recommends that, in the design of appropriate exchange rate policies, Cameroon’s monetary authorities and BEAC should take into consideration the fact that the exchange rate market is very volatile and reacts differently to both good and bad news.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Cantin, Richard, e Cédric Bereaud. "Differentes sources d’erreurs dans le diagnostic de performance énergétique pour les bâtiments". Acta Europeana Systemica 8 (10 de julho de 2020): 231–40. http://dx.doi.org/10.14428/aes.v8i1.56393.

Texto completo da fonte
Resumo:
Parmi les différents diagnostics mis en oeuvre dans le bâtiment, le diagnostic de performance énergétique (DPE) renseigne sur la performance énergétique en évaluant sa consommation d'énergie et son impact en termes d'émission de gaz à effet de serre. Le contenu et les modalités d'établissement du DPE sont réglementés en France depuis plus de 10 ans. Les DPE ont ainsi produit des données, des rapports, des guides, des logiciels... utilisés pour élaborer les stratégies de réhabilitation énergétique du parc immobilier. Mais aujourd’hui les retours d’expériences interrogent la qualité de ces DPE. En effet, alors que ces diagnostics influencent le marché de l’immobilier, différentes enquêtes ont montré qu’ils manquaient de fiabilité... Dans ces conditions, il semble difficile d’assurer la qualité des prises de décision pour une transition énergétique efficace dans le secteur du bâtiment. Il apparaît que l’évaluation de la performance énergétique des bâtiments relève d’une problématique complexe qui fait appel à un ensemble de connaissances dans des domaines variés. Définir la performance énergétique d’un bâtiment renvoie à toutes les difficultés de compréhension posées par l'appréhension d'une réalité complexe. Cet article présente comment la vision systémique permet d’appréhender la problématique complexe de l’évaluation de la performance énergétique des bâtiments. Avec plusieurs exemples, il montre comment la modélisation des systèmes, l’identification des facteurs complexes et leurs influences vont permettre de caractériser les différentes sources d'erreurs. Enfin, l’article propose des actions visant à réduire ces sources d’erreurs et à améliorer l’intégration des exigences du développement durable dans le secteur du bâtiment.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Geoffre, Thierry. "Enseignement-apprentissage de la morphographie du français : de la modélisation praxéologique aux référentiels de compétences et d’erreurs". SHS Web of Conferences 143 (2022): 01007. http://dx.doi.org/10.1051/shsconf/202214301007.

Texto completo da fonte
Resumo:
Ce texte a pour but de faire la synthèse de différents travaux et réflexions sur la transposition de la théorie anthropologique du didactique au domaine de la morphographie du français. Nous cherchons à montrer comment ce cadre permet de modéliser le domaine et le développement du raisonnement métagraphique et celui de la compétence morphographique. Deux modèles développementaux sont présentés. Ces réflexions sont confrontées à un corpus de verbalisations d’élèves utilisant une application en ligne. Enfin, nous montrons l’intérêt de ce cadre pour développer un référentiel de compétences utile pour penser des parcours d’enseignement-apprentissage de la morphographie au sein d’un EIAH.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Krecké, Carine, e Patrice Pieretti. "Degré de dépendance face aux prix étrangers d’un secteur exportateur d’un petit pays : une application à l’industrie du Luxembourg". Économie appliquée 50, n.º 4 (1997): 153–75. http://dx.doi.org/10.3406/ecoap.1997.1192.

Texto completo da fonte
Resumo:
La compétitivité-prix d’une industrie exclusivement exportatrice dépend de la mesure dans laquelle les prix à l’exportation sont contraints par les prix concurrents étrangers. Dans ce contexte il est usuel de parler de comportements qui sont soit price-taker soit price-setter. Une approche plus souple en termes de stratégie mixte combinant ces deux comportements extrêmes semble cependant plus adéquate. Dans ce but, l’article propose une modélisation de l'arbitrage-rentabilité unitaire contre compétitivité-prix d’un exportateur représentatif faisant face à une demande étrangère paramétrisée en fonction du taux de change réel. Ce modèle aboutit à une forme testable mettant en relation un indicateur de marge avec un indicateur de compétitivité général, ce dernier faisant la synthèse des grandeurs exogènes du modèle. Pour les besoins d’une analyse empirique on utilise les données de l’industrie luxembourgeoise. Dans la mesure où l'ajustement des marges et des prix est un processus dynamique, le comportement des producteurs domestiques est formalisé sous forme d’un modèle à correction d’erreurs. L’analyse économétrique met en évidence un comportement divergent entre l’industrie sidérurgique luxembourgeoise et l'ensemble des branches industrielles hors sidérurgie. Si l’hypothèse du price-taker est corroborée pour la sidérurgie, elle ne l’est pas pour l’industrie manufacturière hors sidérurgie, pour laquelle une importante marge de manœuvre quant à la fixation des prix à l'exportation semble exister.
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Bouchekourte, Mustapha, e Norelislam El Hami. "Modélisation mathématique à correction d’erreurs de la liquidité du marché boursier. Application : Impact de la structure du marché et du drainage de l’épargne institutionnelle sur le marché des capitaux". Incertitudes et fiabilité des systèmes multiphysiques 2, n.º 1 (maio de 2018). http://dx.doi.org/10.21494/iste.op.2018.0259.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.

Teses / dissertações sobre o assunto "Modélisation d’erreur"

1

Moura, Ferreira Florian. "Budget d’erreur en optique adaptative : Simulation numérique haute performance et modélisation dans la perspective des ELT". Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCC032/document.

Texto completo da fonte
Resumo:
D'ici quelques années, une nouvelle classe de télescopes verra le jour : celle des télescopes géants. Ceux-ci se caractériseront par un diamètre supérieur à 20m, et jusqu'à 39m pour le représentant européen, l'Extremely Large Telescope (ELT). Seulement, l'atmosphère terrestre vient dégrader sévèrement les images obtenues lors d'observations au sol : la résolution de ces télescopes est alors réduite à celle d'un télescope amateur de quelques dizaines de centimètres de diamètre.L'optique adaptative (OA) devient alors essentielle. Cette dernière permet de corriger en temps-réel les perturbations induites par l'atmosphère et de retrouver la résolution théorique du télescope. Néanmoins, les systèmes d'OA ne sont pas exempt de tout défaut, et une erreur résiduelle persiste sur le front d'onde (FO) et impacte la qualité des images obtenues. Cette dernière est dépendante de la Fonction d'Étalement de Point (FEP) de l'instrument utilisé, et la FEP d'un système d'OA dépend elle-même de l'erreur résiduelle de FO. L'identification et la compréhension des sources d'erreurs est alors primordiale. Dans la perspective de ces télescopes géants, le dimensionnement des systèmes d'OA nécessaires devient tel que ces derniers représentent un challenge technologique et technique. L'un des aspects à considérer est la complexité numérique de ces systèmes. Dès lors, les techniques de calcul de haute performance deviennent nécessaires, comme la parallélisation massive. Le General Purpose Graphical Processing Unit (GPGPU) permet d'utiliser un processeur graphique à cette fin, celui-ci possédant plusieurs milliers de coeurs de calcul utilisables, contre quelques dizaines pour un processeur classique.Dans ce contexte, cette thèse s'articule autour de trois parties. La première présente le développement de COMPASS, un outil de simulation haute performance bout-en-bout dédié à l'OA, notamment à l'échelle des ELT. Tirant pleinement parti des capacités de calcul des GPU, COMPASS permet alors de simuler une OA ELT en quelques minutes. La seconde partie fait état du développement de ROKET : un estimateur complet du budget d'erreur d'un système d'OA intégré à COMPASS, permettant ainsi d'étudier statistiquement les différentes sources d'erreurs et leurs éventuels liens. Enfin, des modèles analytiques des différentes sources d'erreur sont dérivés et permettent de proposer un algorithme d'estimation de la FEP. Les possibilités d'applications sur le ciel de cet algorithme sont également discutées
In a few years, a new class of giants telescopes will appear. The diameter of those telescope will be larger than 20m, up to 39m for the european Extremely Large Telescope (ELT). However, images obtained from ground-based observations are severely impacted by the atmosphere. Then, the resolution of those giants telescopes is equivalent to the one obtained with an amateur telescope of a few tens of centimeters of diameter.Therefore, adaptive optics (AO) becomes essential as it aims to correct in real-time the disturbance due to the atmospherical turbulence and to retrieve the theoretical resolution of the telescope. Nevertheless, AO systems are not perfect: a wavefront residual error remains and still impacts the image quality. The latter is measured by the point spread function (PSF) of the system, and this PSF depends on the wavefront residual error. Hence, identifying and understanding the various contributors of the AO residual error is primordial.For those extremely large telescopes, the dimensioning of their AO systems is challenging. In particular, the numerical complexity impacts the numerical simulation tools useful for the AO design. High performance computing techniques are needed, as such relying on massive parallelization.General Purpose Graphical Processing Unit (GPGPU) enables the use of GPU for this purpose. This architecture is suitable for massive parallelization as it leverages GPU's several thousand of cores, instead of a few tens for classical CPU.In this context, this PhD thesis is composed of three parts. In the first one, it presents the development of COMPASS : a GPU-based high performance end-to-end simulation tool for AO systems that is suitable for ELT scale. The performance of the latter allows simulating AO systems for the ELT in a few minutes. In a second part, an error breakdown estimation tool, ROKET, is added to the end-to-end simulation in order to study the various contributors of the AO residual error. Finally, an analytical model is proposed for those error contributors, leading to a new way to estimate the PSF. Possible on-sky applications are also discussed
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Bidaj, Klodjan. "Modélisation du bruit de phase et de la gigue d'une PLL, pour les liens séries haut débit". Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0355/document.

Texto completo da fonte
Resumo:
La vitesse des liens séries haut débit (USB, SATA, PCI-express, etc.) a atteint les multi-gigabits par seconde, et continue à augmenter. Deux des principaux paramètres électriques utilisés pour caractériser les performances des SerDes sont la gigue transmis à un niveau de taux d’erreur donné et la capacité du récepteur à suivre la gigue à un taux d’erreur donné.Modéliser le bruit de phase des différents components du SerDes, et extraire la gigue temporelle pour la décomposer, aideraient les ingénieurs en conception de circuits à atteindre les meilleurs résultats pour les futures versions des SerDes. Générer des patterns de gigue synthétiques de bruits blancs ou colorés permettrait de mieux analyser les effets de la gigue dans le système pendant la phase de vérification.La boucle d’asservissement de phase est un des contributeurs de la gigue d’horloge aléatoire et déterministe à l’intérieur du système. Cette thèse présente une méthode pour modéliser la boucle d’asservissement de phase avec injection du bruit de phase et estimation de la gigue temporelle. Un modèle dans le domaine temporel en incluant les effets de non-linéarité de la boucle a été créé pour estimer cette gigue. Une nouvelle méthode pour générer des patterns synthétiques de gigue avec une distribution Gaussienne à partir de profils de bruit de phase coloré a été proposée.Les standards spécifient des budgets séparés de gigue aléatoire et déterministe. Pour décomposer la gigue de la sortie de la boucle d’asservissement de phase (ou la gigue généré par la méthode présentée), une nouvelle technique pour analyser et décomposer la gigue a été proposée. Les résultats de modélisation corrèlent bien avec les mesures et cette technique aidera les ingénieurs de conception à identifier et quantifier proprement les sources de la gigue ainsi que leurs impacts dans les systèmes SerDes.Nous avons développé une méthode, pour spécifier la boucle d’asservissement de phase en termes de bruit de phase. Cette méthode est applicable à tout standard (USB, SATA, PCIe, …) et définit les profils de bruits de4phases pour les différentes parties de la boucle d’asservissement de phase, pour s’assurer que les requis des standards sont satisfaits en termes de gigue. Ces modèles nous ont également permis de générer les spécifications de la PLL, pour des standards différents
Bit rates of high speed serial links (USB, SATA, PCI-express, etc.) have reached the multi-gigabits per second, and continue to increase. Two of the major electrical parameters used to characterize SerDes Integrated Circuit performance are the transmitted jitter at a given bit error rate (BER) and the receiver capacity to track jitter at a given BER.Modeling the phase noise of the different SerDes components, extracting the time jitter and decomposing it, would help designers to achieve desired Figure of Merit (FoM) for future SerDes versions. Generating white and colored noise synthetic jitter patterns would allow to better analyze the effect of jitter in a system for design verification.The phase locked loop (PLL) is one of the contributors of clock random and periodic jitter inside the system. This thesis presents a method for modeling the PLL with phase noise injection and estimating the time domain jitter. A time domain model including PLL loop nonlinearities is created in order to estimate jitter. A novel method for generating Gaussian distribution synthetic jitter patterns from colored noise profiles is also proposed.The Standard Organizations specify random and deterministic jitter budgets. In order to decompose the PLL output jitter (or the generated jitter from the proposed method), a new technique for jitter analysis and decomposition is proposed. Modeling simulation results correlate well with measurements and this technique will help designers to properly identify and quantify the sources of deterministic jitter and their impact on the SerDes system.We have developed a method, for specifying PLLs in terms of Phase Noise. This method works for any standard (USB, SATA, PCIe, …), and defines Phase noise profiles of the different parts of the PLL, in order to be sure that the standard requirements are satisfied in terms of Jitter
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Legrand, Hélène. "Algorithmes parallèles pour le traitement rapide de géométries 3D". Electronic Thesis or Diss., Paris, ENST, 2017. http://www.theses.fr/2017ENST0053.

Texto completo da fonte
Resumo:
Au cours des vingt dernières années, les principaux concepts du traitement du signal ont trouvé leur homologue pour le cas de la géométrie numérique, et en particulier des modèles polygonaux de surfaces 3D. Ces traitements requièrent néanmoins un temps de calcul non négligeable lorsqu’on les applique sur des modèles de taille conséquente. Cette charge de calcul devient un frein important dans le contexte actuel, où les quantités massives de données 3D générées à chaque seconde peuvent potentiellement nécessiter l’application d’un sous-ensemble de ces opérateurs. La capacité à exécuter des opérateurs de traitement géométrique en un temps très court représente alors un verrou important pour les systèmes de conception, capture et restitution 3D dynamiques. Dans ce contexte, on cherche à accélérer de plusieurs ordres de grandeur certains algorithmes de traitement géométrique actuels, et à reformuler ou approcher ces algorithmes afin de diminuer leur complexité ou de les adapter à un environnement parallèle. Dans cette thèse, nous nous appuyons sur un objet compact et efficace permettant d’analyser les surfaces 3D à plusieurs échelles : les quadriques d’erreurs. En particulier, nous proposons de nouveaux algorithmes haute performance, maintenant à la surface des quadriques d’erreur représentatives de la géométrie. Un des principaux défis tient ici à la génération des structures adaptées en parallèle, afin d’exploiter les processeurs parallèles à grain fin que sont les GPU, la principale source de puissance disponible dans un ordinateur moderne
Over the last twenty years, the main signal processing concepts have been adapted for digital geometry, in particular for 3D polygonal meshes. However, the processing time required for large models is significant. This computational load becomes an obstacle in the current context, where the massive amounts of data that are generated every second may need to be processed with several operators. The ability to run geometry processing operators with strong time constraints is a critical challenge in dynamic 3D systems. In this context, we seek to speed up some of the current algorithms by several orders of magnitude, and to reformulate or approximate them in order to reduce their complexity or make them parallel. In this thesis, we are building on a compact and effective object to analyze 3D surfaces at different scales : error quadrics. In particular, we propose new high performance algorithms that maintain error quadrics on the surface to represent the geometry. One of the main challenges lies in the effective generation of the right structures for parallel processing, in order to take advantage of the GPU
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Gokpi, Kossivi. "Modélisation et Simulation des Ecoulements Compressibles par la Méthode des Eléments Finis Galerkin Discontinus". Thesis, Pau, 2013. http://www.theses.fr/2013PAUU3005/document.

Texto completo da fonte
Resumo:
L’objectif de ce travail de thèse est de proposer la Méthodes des éléments finis de Galerkin discontinus (DGFEM) à la discrétisation des équations compressibles de Navier-Stokes. Plusieurs challenges font l’objet de ce travail. Le premier aspect a consisté à montrer l’ordre de convergence optimal de la méthode DGFEM en utilisant les polynômes d’interpolation d’ordre élevé. Le deuxième aspect concerne l’implémentation de méthodes de ‘‘shock-catpuring’’ comme les limiteurs de pentes et les méthodes de viscosité artificielle pour supprimer les oscillations numériques engendrées par l’ordre élevé (lorsque des polynômes d’interpolation de degré p>0 sont utilisés) dans les écoulements transsoniques et supersoniques. Ensuite nous avons implémenté des estimateurs d’erreur a posteriori et des procédures d ’adaptation de maillages qui permettent d’augmenter la précision de la solution et la vitesse de convergence afin d’obtenir un gain de temps considérable. Finalement, nous avons montré la capacité de la méthode DG à donner des résultats corrects à faibles nombres de Mach. Lorsque le nombre de Mach est petit pour les écoulements compressibles à la limite de l’incompressible, la solution souffre généralement de convergence et de précision. Pour pallier ce problème généralement on procède au préconditionnement qui modifie les équations d’Euler. Dans notre cas, les équations ne sont pas modifiées. Dans ce travail, nous montrons la précision et la robustesse de méthode DG proposée avec un schéma en temps implicite de second ordre et des conditions de bords adéquats
The aim of this thesis is to deal with compressible Navier-Stokes flows discretized by Discontinuous Galerkin Finite Elements Methods. Several aspects has been considered. One is to show the optimal convergence of the DGFEM method when using high order polynomial. Second is to design shock-capturing methods such as slope limiters and artificial viscosity to suppress numerical oscillation occurring when p>0 schemes are used. Third aspect is to design an a posteriori error estimator for adaptive mesh refinement in order to optimize the mesh in the computational domain. And finally, we want to show the accuracy and the robustness of the DG method implemented when we reach very low mach numbers. Usually when simulating compressible flows at very low mach numbers at the limit of incompressible flows, there occurs many kind of problems such as accuracy and convergence of the solution. To be able to run low Mach number problems, there exists solution like preconditioning. This method usually modifies the Euler. Here the Euler equations are not modified and with a robust time scheme and good boundary conditions imposed one can have efficient and accurate results
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Yaoumi, Mohamed. "Energy modeling and optimization of protograph-based LDPC codes". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2020. http://www.theses.fr/2020IMTA0224.

Texto completo da fonte
Resumo:
Il existe différents types de codes correcteur d’erreurs (CCE), chacun offrant différents compromis entre la performance et la consommation d’énergie. Nous proposons de traiter ce problème pour les codes LDPC (Low-Density Parity Check). Dans ce travail, nous avons considéré les codes LDPC construits à partir de protographes avec un décodeur Min-Sum quantifié, pour leurs bonnes performances et leur implémentation matérielle efficace. Nous avons utilisé une méthode basée sur l’évolution de densité pour évaluer les performances à longueur finie du décodeur pour un protographe donné. Ensuite, nous avons introduit deux modèles pour estimer la consommation d’énergie du décodeur Min-Sum quantifié. A partir de ces modèles, nous avons développé une méthode d’optimisation afin de sélectionner des protographes qui minimisent la consommation d’énergie du décodeur tout en satisfaisant un critère de performance donné.Dans la seconde partie de la thèse, nous avons considéré un décodeur LDPC bruité, et nous avons supposé que le circuit introduit des défauts dans les unités de mémoire utilisées par le décodeur. Nous avons ensuite mis à jour le modèle d’énergie de la mémoire afin de prendre en compte le bruit dans le décodeur. Par conséquent, nous avons proposé une méthode alternative afin d’optimiser les paramètres du modèle et minimiser la consommation d’énergie du décodeur pour un protographe donné
There are different types of error correction codes (CCE), each of which gives different trade-offs interms of decoding performanceand energy consumption. We propose to deal with this problem for Low-Density Parity Check (LDPC) codes. In this work, we considered LDPC codes constructed from protographs together with a quantized Min-Sum decoder, for their good performance and efficient hardware implementation. We used a method based on Density Evolution to evaluate the finite-length performance of the decoder for a given protograph.Then, we introduced two models to estimate the energy consumption of the quantized Min-Sum decoder. From these models, we developed an optimization method in order to select protographs that minimize the decoder energy consumption while satisfying a given performance criterion. The proposed optimization method was based on a genetic algorithm called differential evolution. In the second part of the thesis, we considered a faulty LDPC decoder, and we assumed that the circuit introduces some faults in the memory units used by the decoder. We then updated the memory energy model so as to take into account the noise in the decoder. Therefore, we proposed an alternate method in order to optimize the model parameters so as to minimize the decoder energy consumption for a given protograph
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Fabre, Léa. "Contributions and Opportunities of Wi-Fi Data to Improve Transport Demand Knowledge / Utilisation de données Wi-Fi, quels apports pour la connaissance de la demande de transport?" Electronic Thesis or Diss., Lyon 2, 2024. http://www.theses.fr/2024LYO20011.

Texto completo da fonte
Resumo:
La mobilité joue un rôle clé dans les paysages urbains, en particulier, les transports en commun sont essentiels au bon fonctionnement des villes. Par conséquent, il est nécessaire de planifier les systèmes de transport en commun afin de leur garantir un fonctionnement efficace. Pour cela, il est important d'avoir une bonne connaissance de la demande de transport en commun, d'autant plus dans un monde en constante évolution.Actuellement, nous observons une forte croissance démographique mondiale ainsi qu'un important étalement urbain, deux facteurs qui sont les principales causes de l'augmentation de la demande de transport urbain. À cela il faut ajouter une forte tendance à la diversification des comportements de mobilité, principalement due à l'émergence de nouveaux modes de transport. Les données traditionnellement utilisées pour prévoir cette demande, et pour la planification des transports de manière générale, ne sont plus à même de refléter ces changements dans les comportements de mobilité. Le développement des technologies de l'information, la digitalisation et le boom de la science des données sont autant de nouvelles opportunités pour la prévision de la demande de transport. Le développement de nouveaux outils et algorithmes, notamment issus de l'intelligence artificielle, contribuent à la diversification et participent à complexifier les modèles pour améliorer la prévision des comportements de mobilité. En parallèle, nous observons également une grande diversification des données utilisées dans la recherche en transport. Parmi ces nouvelles sources de données, les données Wi-Fi sont très prometteuses. Ces données présentent des avantages significatifs lorsqu'elles sont utilisées pour la planification des transports (collectées en continue, de manière passive, elles apportent des informations sur les trajets Origine-Destination…). Cependant, les données Wi-Fi présentent aussi quelques inconvénients. Ainsi elles doivent être traitées avant d'être utilisées dans des modèles de prévision de la demande. En tant que nouvelle méthode de collecte de données sur la mobilité, des questions subsistent quant à la qualité des données, à leur contribution dans le domaine et à la manière dont elles peuvent être utilisées.L'objectif de cette thèse est de fournir une approche clé en main de l'utilisation des données Wi-Fi pour la connaissance des comportements de mobilité. Dans cette thèse, nous proposons donc des solutions pour traiter ces données au fort potentiel. Nous présentons tout d'abord une méthodologie pour filtrer les signaux parasites détectés par les capteurs Wi-Fi de manière à ne construire la matrice Origine-Destination qu'avec les signaux provenant de passagers. Le redressement des données Wi-Fi pour pallier aux erreurs de prédiction des volumes de passagers du fait de signaux non détectés est également traité. Au final, ces méthodes permettent d'obtenir des matrices Origine-Destination à la fois pertinentes pour la structure des déplacements et complètes dans les volumes de déplacements. Dans cette thèse, nous proposons également un modèle pour quantifier l'erreur entre la matrice Origine-Destination produite par les données Wi-Fi et les déplacements Origine-Destination réels, malgré la rare disponibilité de ces derniers. Quelques applications pour l'utilisation des données Wi-Fi sont également présentées. Pour conclure, les résultats de cette thèse montrent que les données Wi-Fi peuvent enrichir la connaissance des comportements de mobilité, de manière continue et à faible coût
Due to its social, environmental and economic importance, mobility plays a key role in urban landscapes. In particular, public transportation is critical to the smooth functioning of cities. Therefore, public transportation systems must be planned to operate properly and efficiently. To this end, it is of paramount importance to have a great knowledge of the mobility demand, especially in an evolving world. The world today is facing a significant demographic growth along with urban sprawl, which implies an increasing demand for transportation in the cities. In addition, travel patterns are diversifying and becoming less regular, mainly due to the emergence of new modes of transport. The data traditionally used for public transportation planning are inadequate to reflect these changes in mobility behaviors. The development of information technologies, digitization and the data science boom can bring interesting benefits to the forecasting of transport demand. The development of new tools and algorithms, such as artificial intelligence, contributes to the diversification and complexity of models to improve the prediction of mobility behaviors. In parallel, we are currently witnessing the diversification of data sources used in mobility analyses. Among them, Wi-Fi data are very promising. These data have significant advantages when used in transportation planning (they provide information on Origin-Destination trips, they are collected continuously and passively…). However, Wi-Fi data also have some drawbacks. Therefore, they require further processing to be used in demand forecasting models. As a new way of collecting mobility data, questions remain about the quality of the data, their contribution, and how they can be used. The objective of this thesis is to provide a data-driven approach to the use of Wi-Fi data for mobility behaviors. In this thesis, we therefore propose solutions to process this interesting data source. A methodology is presented to filter the parasite signals detected by Wi-Fi sensors in order to keep only the passenger signals and construct relevant Origin-Destination matrices. Scaling of the Wi-Fi data to avoid errors in the predicted total number of trips due to undetected Wi-Fi devices is also handled. In the end, we provide Origin-Destination matrices that are relevant to the structure of the trips and complete in trip volumes. In addition, we propose a modeling to quantify the error between the Origin-Destination matrix produced by Wi-Fi data and real Origin-Destination trips, despite the non-continuous availability of the latter. Some applications of the use of Wi-Fi data are also presented. In conclusion, the results of this thesis show that interesting insights into mobility behaviors can be derived from Wi-Fi data, continuously and at low cost
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Najjari, Hamza. "Power Amplifier Design Based on Electro-Thermal Considerations". Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0422.

Texto completo da fonte
Resumo:
L’objectif de ce travail de recherche est de concevoir un amplificateur de puissance sur la base de considérations électrothermiques. Il décrit la question du dynamique EVM et du « paquet long » lors de la conception de l’amplificateur avec des transistors bipolaires à hétérojonctions. Basé sur le comportement électrothermique du circuit, une méthode d’optimisation de l’EVM statique et dynamique est proposée. Un frontend RF complet (amplificateur de puissance + coupleur + interrupteur + amplificateur faible bruit) est conçu pour le dernier standard WLAN : le Wi-Fi 6. La distribution de temperature dynamique dans le circuit est analysée. Son effet sur les performances de la puce est quantifié. Enfin, une polarisation adaptative programmable a été conçue pour garder des performances optimales sur toute la plage de température. Les mesures du circuit montre tout l’effet bénéfique de cette compensation, permettant de garder le dynamique EVM en dessous de -47 dB sur la plage de température ambiante de -40 à 85°C
The aim of this work is to design a power amplifier based on electrothermal considerations. It describes the Dynamic Error Vector Magnitude challenge and long packet issue when designing a power amplifier with hetero-junction bipolar transistors. Based on the circuit electrothermal behavior, an optimization method of both the static and dynamic linearity is proposed. A complete RF front-end (PA + coupler + switch + LNA) is designed for the latest WLAN standard: the Wi-Fi 6. The dynamic temperature distribution in the circuit is analyzed. It’s impact on the performances is quantified. Finally, a programmable temperature dependent bias is designed to compensate for performance degradation. The measurements show a significant linearity improvement with this compensation, allowing the PA to maintain the DEVM lower than -47dB at 14.5 dBm output power, over a large ambient temperature range from -40°C to 85°C
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Fontana, Ilaria. "Interface problems for dam modeling". Thesis, Université de Montpellier (2022-….), 2022. http://www.theses.fr/2022UMONS020.

Texto completo da fonte
Resumo:
Les équipes d’ingénierie ont souvent recours aux simulations numériques par éléments finis pour étudier et analyser le comportement des ouvrages hydrauliques de grande dimension. Pour les ouvrages en béton, les modèles doivent être en mesure de prendre en compte le comportement non-linéaire des discontinuités aux diverses zones d’interfaces localisées en fondation, dans le corps du barrage ou à l’interface entre la structure et la fondation. Il faut non seulement être capable de représenter le comportement mécanique non-linéaire de ces interfaces (rupture, glissement, contact), mais également de prendre en compte l’écoulement hydraulique à travers ces ouvertures.Dans le cadre de cette thèse, nous nous focalisons d’abord sur la question du comportement des interfaces, que nous abordons à travers le modèle des zones cohésives (CZM). Ce dernier, introduit dans divers codes de calcul par éléments finis (avec éléments finis de joint), est une approche pertinente pour décrire la physique des problèmes de fissuration et de frottement au niveau de discontinuités géométriques. Bien que le CZM a été initialement introduit pour prendre en compte que le phénomène de rupture, nous montrons dans cette thèse que son utilisation peut être étendue aux problèmes de glissement en s'appuyant sur le formalisme élasto-plastique éventuellement couplé à l'endommagement. En outre, des lois de comportement hydromécaniques non-linéaires peuvent être introduites pour modéliser la notion d’ouverture de fissure et le couplage avec les lois d’écoulement fluide. Au niveau mécanique, nous travaillons dans le cadre des matériaux standard généralisés (SGM), qui fournit une classe de modèles qui satisfont d’une manière automatique des principes de la thermodynamique tout en possédant des bonnes propriétés mathématiques utiles pour la modélisation numérique robuste. Nous adaptons le formalisme SGM volumique à la description des zones d'interface. Dans cette première partie de la thèse, nous présentons nos développements faites dans l'hypothèse de SGM adaptée aux CZM, capable de reproduire les phénomènes physiques observés expérimentalement : rupture, frottement, adhésion.En pratique, les non-linéarités du comportement des zones d’interface sont dominées par la présence de contact, ce qui engendre des difficultés numériques importantes pour la convergence des calculs par élément fini. Le développement de méthodes numériques efficaces pour le problème de contact est donc une étape clé pour atteindre l’objectif de simulateurs numériques industriels robustes. Récemment, l’utilisation de techniques d’imposition faible des conditions de contact à la Nitsche a été proposée comme moyen pour réduire la complexité numérique. Cette technique présente plusieurs avantages, dont les plus importants pour nos travaux sont: 1) possibilité de gérer une vaste gamme de conditions (glissement avec ou sans frottement, non interpénétration, etc); 2) la technique se prête à une analyse d'erreur a posteriori rigoureuse. Ce schéma basé sur les conditions d’interface faibles représente le point de départ pour l’estimation d’erreur a posteriori par reconstruction équilibrée de la contrainte. Cette analyse est utilisée pour estimer les différentes composantes d’erreur (p.e., spatiale, non-linéaire), et pour mettre en place un algorithme de résolution adaptatif, ainsi que des critères d’arrêt pour les solveurs itératifs et le réglage automatique d’éventuels paramètres numériques.L'objectif principal de la thèse est donc de rendre robuste la simulation numérique par éléments finis des ouvrages présentant des discontinuités géométriques. On aborde cette question sous angle double : d’un côté on revisite les méthodes existantes de représentation de fissuration en travaillant sur la loi de comportement mécanique pour les joints ; de l’autre on introduit une nouvelle méthode a posteriori pour traiter le problème de contact et propose son adaptation pour les modèles d’interfaces génériques
Engineering teams often use finite element numerical simulations for the design, study and analysis of the behavior of large hydraulic structures. For concrete structures, models of increasing complexity must be able to take into account the nonlinear behavior of discontinuities at the various interfaces located in the foundation, in the body of the dam or at the interface between structure and foundation. Besides representing the nonlinear mechanical behavior of these interfaces (rupture, sliding, contact), one should also be able to take into account the hydraulic flow through these openings.In this thesis, we first focus on the topic of interface behavior modeling, which we address through the Cohesive Zone Model (CZM). This model was introduced in various finite element codes (with the joint elements), and it is a relevant approach to describe the physics of cracking and friction problems at the geometrical discontinuities level. Although initially the CZM was introduced to take into account the phenomenon of rupture, we show in this thesis that it can be extended to sliding problems by possibly relying on the elasto-plastic formalism coupled to the damage. In addition, nonlinear hydro-mechanical constitutive relations can be introduced to model the notion of crack opening and the coupling with the laws of fluid flow. At the mechanical level, we work in the Standard Generalized Materials (SGM) framework, which provides a class of models automatically satisfying some thermodynamical principles, while having good mathematical and numerical properties that are useful for robust numerical modeling. We adapt the formalism of volumetric SGM to the interface zones description. In this first part of the thesis, we present our developpements under the hypothesis of SGM adapted to CZM, capable of reproducing the physical phenomena observed experimentally: rupture, friction, adhesion.In practice, nonlinearities of behavior of interface zones are dominated by the presence of contact, which generates significant numerical difficulties for the convergence of finite element computations. The development of efficient numerical methods for the contact problem is thus a key stage for achieving the goal of robust industrial numerical simulators. Recently, the weak enforcement of contact conditions à la Nitsche has been proposed as a mean to reduce numerical complexity. This technique displays several advantages, among which the most important for our work are: 1) it can handle a wide range of conditions (slip with or without friction, no interpenetration, etc.); 2) it lends itself for a rigorous a posteriori error analysis. This scheme based on the weak contact conditions represents in this work the starting point for the a posteriori error estimation via equilibrated stress reconstruction. This analysis is then used to estimate the different error components (e.g., spatial, nonlinear), and to develop an adaptive resolution algorithm, as well as stopping criteria for iterative solvers and the automatic tuning of possible numerical parameters.The main goal of this thesis is thus to make the finite element numerical simulation of structures with geometrical discontinuities robust. We address this question from two angles: on one side, we revisit the existing methods for the crack representation working on the mechanical constitutive relation for joints; on the other, we introduce a new a posteriori method for the contact problem and we propose its adaptation for the generic interface models
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Hoffmann, Sabine. "Approche hiérarchique bayésienne pour la prise en compte d’erreurs de mesure d’exposition chronique et à faible doses aux rayonnements ionisants dans l’estimation du risque de cancers radio-induits : Application à une cohorte de mineurs d’uranium". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS532/document.

Texto completo da fonte
Resumo:
En épidémiologie des rayonnements ionisants, les erreurs de mesure d’exposition et l’incertitude sur le calcul de la dose absorbée à l’organe constituent des sources d’incertitude importantes entrant en jeu dans la modélisation et l’estimation des relations dose-réponse d’intérêt. Celles-ci peuvent être de nature très complexes dans le cadre d’études de cohortes professionnelles et sont ainsi rarement prises en compte dans ce domaine. Pourtant, lorsque les erreurs de mesure d’exposition ne sont pas ou mal prises en compte, elles peuvent mener à des estimateurs de risque biaisés, à une perte de puissance statistique ainsi qu’à une déformation de ces relations dose-réponse. L’objectif de ce travail est de promouvoir l’utilisation de l’approche hiérarchique bayésienne pour la prise en compte explicite et simultanée des erreurs de mesure d’exposition et des incertitudes de dose intervenant dans les estimations de risques sanitaires radio-induits dans les études de cohortes professionnelles. Plus spécifiquement, des modèles hiérarchiques ont été proposés et inférés afin d’affiner l’estimation actuelle du risque de décès par cancer du poumon associé à une exposition chronique et à faibles doses au radon et ses descendants à vie courte à partir de données issues de la cohorte française des mineurs d’uranium. Ces modèles, connus pour leur souplesse et leur pertinence pour la prise en compte de sources d’incertitude multiples et complexes, sont basés sur une combinaison de sous-modèles probabilistes conditionnellement indépendants. Afin de quantifier l’impact de l’existence d’erreurs de mesure d’exposition partagées et non-partagées sur l’estimation du risque et sur la forme de la relation exposition-risque dans les études de cohortes professionnelles, une étude par simulations a été conduite dans laquelle différentes structures complexes mais réalistes d’erreurs de mesure (pouvant par ailleurs varier dans le temps) ont été considérées. Une élicitation de lois a priori reflétant l’incertitude relative au débit respiratoire - un paramètre important intervenant dans le calcul de la dose absorbée au poumon – a été conduite auprès de trois experts des conditions d’exposition dans les mines d’uranium française et des méthodes de combinaison de dires d’experts ont été mises en œuvre et comparées. Enfin, des algorithmes Monte-Carlo par Chaînes de Markov ont été implémentés sous Python pour mener l’inférence bayésiennes des différents modèles hiérarchiques proposés et ainsi, obtenir des estimations corrigées du risque de décès par cancer du poumon radio-induit dans la cohorte française des mineurs d’uranium
In radiation epidemiology, exposure measurement error and uncertain input parameters in the calculation of absorbed organ doses are among the most important sources of uncertainty in the modelling of the health effects of ionising radiation. As the structures of exposure and dose uncertainty arising in occupational cohort studies may be complex, these uncertainty components are only rarely accounted for in this domain. However, when exposure measurement is not or only poorly accounted for, it may lead to biased risk estimates, a loss in statistical power and a distortion of the exposure-response relationship. The aim of this work was to promote the use of the Bayesian hierarchical approach to account for exposure and dose uncertainty in the estimation of the health effects associated with exposure to ionising radiation in occupational cohorts. More precisely, we proposed several hierarchical models and conducted Bayesian inference for these models in order to obtain corrected risk estimates on the association between exposure to radon and its decay products and lung cancer mortality in the French cohort of uranium miners. The hierarchical appraoch, which is based on the combination of sub-models that are linked via conditional independence assumptions, provides a flexible and coherent framework for the modelling of complex phenomena which may be prone to multiple sources of uncertainty. In order to compare the effects of shared and unshared exposure uncertainty on risk estimation and on the exposure-response relationship we conducted a simulation study in which we supposed complex and potentially time-varying error structures that are likely to arise in an occupational cohort study. We elicited informative prior distributions for average breathing rate, which is an important input parameter in the calculation of absorbed lung dose, based on the knowledge of three experts on the conditions in French uranium mines. In this context, we implemented and compared three approaches for the combination of expert opinion. Finally, Bayesian inference for the different hierarchical models was conducted via a Markov chain Monte Carlo algorithm implemented in Python to obtain corrected risk estimates on the lung cancer mortality in the French cohort of uranium miners associated with exposure to radon and its progeny
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Turbis, Pascal. "Modèles de flammelette en combustion turbulente avec extinction et réallumage : étude asymptotique et numérique, estimation d’erreur a posteriori et modélisation adaptative". Thèse, 2011. http://hdl.handle.net/1866/4916.

Texto completo da fonte
Resumo:
On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.
We are interested here in the modeling errors of subgrid flamelet models in nonpremixed turbulent combustion. The goal of this thesis is to develop an a posteriori error estimation strategy to determine the best model within a hierarchy, with a numerical cost at most that of using the models in the first place. Firstly, we develop and test a dual-weighted residual estimator strategy on a system of advection-diffusion-reaction equations. Secondly, we test that methodology on another system of equations, where quenching and ignition effects are added. In the absence of advection, a rigorous asymptotic analysis shows the existence of many combustion regimes already observed in numerical simulations. We obtain approximations of the quenching and ignition parameters, alongside the S-shaped curve, a plot of the maximal flame temperature as a function of the Damköhler number, consisting of three branches and two bends. When advection effects are added, we still obtain a S-shaped curve corresponding to the known combustion regimes. We compare the modeling errors of the asymptotic approximations in the two stable regimes and establish new model hierarchies for each combustion regime. These errors are compared with the estimations obtained by using the error estimation strategy. When only one stable combustion regime exists, the error estimator correctly identifies that regime; when two or more regimes are possible, it gives a systematic way of choosing one regime. For regimes where more than one model is appropriate, the error estimator’s predicted hierarchy is correct.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia