Literatura académica sobre el tema "Méthode à densité"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Méthode à densité".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Méthode à densité":

1

Faucher, D., P. F. Rasmussen y B. Bobée. "Estimation non paramétrique des quantiles de crue par la méthode des noyaux". Revue des sciences de l'eau 15, n.º 2 (12 de abril de 2005): 515–41. http://dx.doi.org/10.7202/705467ar.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La détermination du débit de crue d'une période de retour donnée nécessite l'estimation de la distribution des crues annuelles. L'utilisation des distributions non paramétriques - comme alternative aux lois statistiques - est examinée dans cet ouvrage. Le principal défi dans l'estimation par la méthode des noyaux réside dans le calcul du paramètre qui détermine le degré de lissage de la densité non paramétrique. Nous avons comparé plusieurs méthodes et avons retenu la méthode plug-in et la méthode des moindres carrés avec validation croisée comme les plus prometteuses. Plusieurs conclusions intéressantes ont été tirées de cette étude. Entre autres, pour l'estimation des quantiles de crue, il semble préférable de considérer des estimateurs basés directement sur la fonction de distribution plutôt que sur la fonction de densité. Une comparaison de la méthode plug-in à l'ajustement de trois lois statistiques a permis de conclure que la méthode des noyaux représente une alternative intéressante aux méthodes paramétriques traditionnelles.
2

Lubrano, Michel. "Modélisation bayésienne non linéaire du taux d’intérêt de court terme américain : l’aide des outils non paramétriques". Articles 80, n.º 2-3 (24 de octubre de 2005): 465–99. http://dx.doi.org/10.7202/011396ar.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Résumé Cet article a pour objet l’investigation des modèles empiriques de taux d’intérêt de court terme sur données américaines. Il utilise une combinaison de méthodes classiques non paramétriques et de méthodes bayésiennes paramétriques. La forme des fonctions de dérive et de volatilité du modèle discrétisé est tout d’abord examinée au moyen d’une analyse non paramétrique préliminaire. Le texte développe ensuite une méthode bayésienne de choix de modèles qui est basée sur la capacité d’un modèle à minimiser la distance de Hellinger entre la densité prédictive a posteriori du modèle discrétisé et la densité de l’échantillon observé. Une discrétisation du modèle en temps continu est estimée en utilisant différentes variantes paramétriques allant du modèle à variance constante jusqu’à différents types de modèles de switching suggérés par l’analyse non paramétrique préliminaire.
3

Batawui, K., R. De Deken, P. Bastiaensen, A. Napala y Guy Hendrickx. "Application séquentielle de lambda-cyhalothrine sur le bétail par la méthode ElectrodynTM. Résultats obtenus au Togo dans le cadre de la lutte contre la trypanosomose animale africaine". Revue d’élevage et de médecine vétérinaire des pays tropicaux 55, n.º 3 (1 de marzo de 2002): 189. http://dx.doi.org/10.19182/remvt.9823.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
L’augmentation du prix des produits importés qui a suivi la dévaluation du franc CFA en 1994 a rendu difficile l’accès des éleveurs aux produits de type pour-on, les obligeant à se rabattre sur des méthodes moins fiables pour combattre non seulement les tiques, mais aussi la trypanosomose animale africaine (Taa) transmise par les mouches tsé-tsé ou glossines. En vue de palier à ce problème, le projet de lutte contre la trypanosomose animale au Togo (Plta) a expérimenté une nouvelle méthode d’application couplant les avantages de la méthode pour-on à un coût réduit : ElectrodynTM (Zeneca). Cette méthode est basée sur la pulvérisation électronique d’une formulation insecticide (Karate 2,5 ED®) à base de lambda-cyhalothrine 1 p. 100. L’étude a eu lieu sur 170 bovins dans le village de Skriback au nord du Togo (304 têtes à la fin de l’étude). De mars 1996 à mars 1997, tous les animaux ont été traités et de juillet 1997 à juillet 1998, seulement la moitié d’entre eux. Avant d’entamer la première application du produit, des enquêtes préliminaires ont été menées pendant un an (février 1995 - février 1996) afin d’avoir des données exactes sur la pression des glossines dans la zone et de pouvoir comparer leur densité avant et après le traitement. Les résultats indiquent que ce système a été très efficace dans les conditions de cette étude. L’intervention a permis de réduire la densité des glossines de 99,55 p. 100 et, couplée au traitement trypanocide, de réduire la prévalence de la Taa de 17 à 2 p. 100 ; associée à une vermifugation régulière des animaux, elle a également permis l’amélioration de l’hématocrite moyen du troupeau de 27 à 32,5 p. 100. Du point de vue économique, la méthode Electrodyn revient à un tiers du prix de l’application par la méthode pour-on classique. Elle offre en outre des potentialités considérables en combinaison avec la protection phytosanitaire (coton). La maniabilité de l’applicateur (longueur fixe) et le coût des piles relativement élevé sont les inconvénients qui peuvent entraver l’acceptabilité de la technique.
4

Daget, Philippe y Alexandre Ickowicz. "Evaluer la densité des ligneux par la méthode des distances ? Un estimateur". Revue d’élevage et de médecine vétérinaire des pays tropicaux 52, n.º 3-4 (1 de marzo de 1999): 267–69. http://dx.doi.org/10.19182/remvt.9674.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Les auteurs reprennent un estimateur de la densité à partir d'observations proches de celles des "Plot-less methods", en montrent le fonctionnement et l'applicabilité au cas des ligneux dans les savanes.
5

Daget, Philippe. "Evaluer la densité des ligneux par la méthode des dénombrements ? Une difficulté". Revue d’élevage et de médecine vétérinaire des pays tropicaux 52, n.º 3-4 (1 de marzo de 1999): 270–71. http://dx.doi.org/10.19182/remvt.9675.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La densité des ligneux dans les savanes est parfois estimée par des dénombrements dans des aires échantillons. Les auteurs montrent que cette approche n'est pas sans risque de biais liés à l'hétérogénéité de leur répartition.
6

Aubin, Jean-Baptiste y Anne Massiani. "Comportement asymptotique d'un estimateur de la densité adaptatif par méthode d'ondelettes". Comptes Rendus Mathematique 337, n.º 4 (agosto de 2003): 293–96. http://dx.doi.org/10.1016/s1631-073x(03)00310-8.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Ouattara, L. y Philippe Dorchies. "Prévalence sérologique de l'oestrose ovine au Burkina Faso : estimation par la technique ELISA". Revue d’élevage et de médecine vétérinaire des pays tropicaux 49, n.º 3 (1 de marzo de 1996): 219–21. http://dx.doi.org/10.19182/remvt.9516.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Des sérums de 421 ovins Djallonké et sahéliens Bali Bali du Burkina Faso ont été analysés à l'aide du test ELISA de détection des anticorps utilisant un antigène brut de larves de stade 2 (L2) d'oestrus ovis. La prévalence moyenne de séropositifs était de 86,3 % sans différence significative entre les deux races. Les densités optiques (DO) par rapport à celle des sérums témoins positif et négatif de référence sont plus élevées chez les sahéliens avec des valeurs atteignant 450 % de la densité optique du positif, alors que chez les Djallonké la densité optique la plus élevée ne dépasse pas 250 % de la DO du même témoin de référence positif. Par ailleurs, chez les ovins sahéliens on note un faible nombre d'animaux très fortement positifs (intensité de la densité optique par rapport à celle du positif de référence). Les Djallonké par contre ont une distribution plus homogène dans l'intensité des réactions positives. Cette étude montre l'intérêt et la validité du dépistage sérologique par la méthode ELISA utilisée. Elle confirme la prévalence élevée de l'œstrose ovine chez des animaux porteurs sains, ce qui justifierait le contrôle stratégique de cette myiase.
8

Daget, Philippe, Alexandre Ickowicz y Momar Mbaye. "Evaluer la densité des ligneux par la méthode des distances ? Un problème". Revue d’élevage et de médecine vétérinaire des pays tropicaux 52, n.º 3-4 (1 de marzo de 1999): 263–66. http://dx.doi.org/10.19182/remvt.9673.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
L'estimation de la densité des ligneux dans les savanes est une étape souvent nécessaire dans l'étude de la production de ces pâturages. L'expérience a montré que les observations directes par dénombrement donnaient souvent des valeurs différentes de celles qui sont obtenues par les méthodes PPI (plus proche individu) et QCP (quadrant centré sur un point) de la Plot-less method. Les auteurs montrent que ces divergences sont liées à l'hétérogénéité de la répartition des individus dans l'espace.
9

Poreba, Martyna y François Goulette. "Recalage rigide de relevé laser par mise en correspondance robuste basée sur des segments". Revue Française de Photogrammétrie et de Télédétection, n.º 207 (24 de septiembre de 2014): 3–17. http://dx.doi.org/10.52638/rfpt.2014.208.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le recalage se révèle indispensable pour assembler des relevés laser devant servir à l'analyse, à la documentation et à la reconstruction tridimensionnelle d'environnements. Ce problème apparaît lorsqu'une zone d'intérêt est numérisée, au fil du temps, deux ou plusieurs fois, ou quand sa complexité nécessite un accroissement du nombre de stations de scanner laser fixes. Aussi, en raison de la variété des techniques disponibles d'acquisition, l'intégration multi-données devient une question importante puisqu'elle permet de mettre en cohérence des données contenant souvent une information complémentaire. La vaste majorité des algorithmes existants s'appuient sur les éléments ponctuels. C'est pourquoi les méthodes ICP basées-point demeurent actuellement les plus répandues. Cet article propose l'utilisation des segments sous forme d'intersections entre les plans principaux, pour un recalage rigide des nuages de points mobiles avec d'autres données, qu'elles soient 2D ou 3D. Ces primitives peuvent être aisément extraites, même dans les données laser hétérogènes de faible densité. Quelques méthodes de recalage basées-lignes ont été examinées afin de vérifier leur précision et robustesse au bruit. Les erreurs des paramètres estimés ainsi qu'un nouveau critère — distance modifiée de Hausdorff ont été employés pour les besoins d'une analyse quantitative. Au vu de ces éléments, une chaîne complète nommée RLMR-FMII 2 comprenant un recalage grossier suivi par un recalage fin est proposée pour calculer les paramètres de pose à partir de segments appariés.Étant donné que la mise en correspondance automatique d'entités linéaires est ardue et influence l'estimation des paramètres optimaux de transformation, une méthode d'appariement étudiant la similitude relative est avancée. Enfin, l'efficacité de cette méthode de recalage par mise en correspondance préalable des segments est évaluée et discutée.
10

Hochedez, Camille, David Lessault y Pierre Pistre. "Enquêter les migrations internationales dans des espaces de faible densité. Retours réflexifs sur l’articulation d’approches statistiques et d’approches de terrain plurielles". Annales de géographie N° 755, n.º 1 (6 de febrero de 2024): 25–51. http://dx.doi.org/10.3917/ag.755.0025.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ce texte propose un retour réflexif sur la méthodologie déployée dans le cadre du programme ANR CAMIGRI pour étudier les recompositions des espaces ruraux français au prisme des migrations internationales. Pour pallier l’invisibilité de certaines présences étrangères dans les bases de données ou sur le terrain, la méthode articule traitements statistiques aux échelles nationale et intercommunale, et études de cas par suivi de lieux emblématiques de situations migratoires dans 3 terrains du grand quart sud-ouest. Elle permet de capter la diversité des formes de présences étrangères et leurs effets sur les territoires, en s’appuyant pour une bonne part sur des exemples agricoles. Elle repose aussi sur la mobilisation d’outils originaux (grille biographique, photographie, carnets) pour étudier et suivre les présences étrangères sur le temps long dans les espaces ruraux. Les méthodes mixtes s’apparentent ici à une posture de recherche qui repose non seulement sur l’articulation d’approches qualitatives et quantitatives, mais aussi de champs théoriques (études rurales/études migratoires) et de compétences des chercheurs.

Tesis sobre el tema "Méthode à densité":

1

Youndje, Elie. "Estimation non paramétrique de la densité conditionnelle par la méthode du noyau". Rouen, 1993. http://www.theses.fr/1993ROUES011.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Dans ce travail nous nous intéressons aux aspects théorique et pratique de l'estimation d'une densité conditionnelle par la méthode du noyau. Dans un premier temps nous considérons les propriétés asymptotiques de l'estimateur à noyau. Ces propriétés dépendent essentiellement du paramètre de lissage et de la régularité de la densité conditionnelle. Nous montrons que, comme dans la plupart des problèmes d'estimation fonctionnelle, le choix du paramètre de lissage joue un rôle crucial dans le comportement asymptotique de l'estimateur. Dans un second temps, nous abordons dans le cadre d'un échantillon I. I. D. , le problème de la sélection du paramètre de lissage. Ensuite nous généralisons les résultats obtenus au cas d'observations dépendantes (mélange fort ou a-mélange). Plus précisément, nous proposons un critère de sélection de la largeur de fenêtre basé sur la validation croisée. Un resultat d'optimalité de la fenêtre sélectionnée est établi. Les résultats théoriques obtenus concernant le choix de la fenêtre sont illustrés par des simulations sur des échantillons I. I. D.
2

Aucejo-Galindo, Vicente. "Méthode tensorielle générale pour une modélisation multiphysique de dispositifs magnétomécaniques rapides". Thesis, Metz, 2010. http://www.theses.fr/2010METZ028S/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Actuellement la connaissance objectif de dispositifs magnétomécaniques est achevée par diverses approches complémentaires . D'une part l'approche physique avec ses formulations mathématiques des forces magnétiques. D'autre part, les approches multiphysiques afin d'aboutir à une connaissance plus fine, et plus réelle, des phénomènes physiques associés aux interactions qui agissent dans le dispositifs. Et finalement, l'approche interdisciplinaire qui tiendrait en compte le cycle de vie du produit, l'éco-conception. Une conception d'un micromoteur ultra rapide à aimantation induite et flux axial est présentée dans ce mémoire avec l'approche physique montrant les limites de celle-ci . Partant donc de l'approche physique, une nouvelle méthode tensorielle générale est développée comme apport à une modélisation multiphysique de dispositifs magnétomécaniques, regroupant ainsi les diverses formulations numériques de forces magnétiques. Une caractérisation du nouveau tenseur est présentée et appliquée pour le calcul des forces sur des milieux en contact
Currently the goal of knowledge magnetomechanical devices is completed by means of several complementary approaches. On one hand the physical approach with mathematical formulations of magnetic forces. On the other hand, multiphysics approaches to achieve a deeper insight and more real, physical phenomena associated with interactions that act in the devices. And finally, the interdisciplinary approach that takes into account the lifecycle of the product, so called eco-design. A design of a ultra fast micromotor with induced magnetization and axial flux is presented in this paper with the physical approach showing the restrictions thereof. Accordingly therefore, the physical approach, a new tensor method is developed as a general contribution to a multiphysics modeling of magnetomechanical devices, bringing together the various numerical formulations of magnetic forces. A characterization of the new tensor is presented and applied to calculate the forces on bodies in contact
3

Beaucamp, Sylvain. "Méthode de calcul des densités et des enthalpies de cristaux ioniques moléculaires". Tours, 2004. http://www.theses.fr/2004TOUR4052.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La densité et l'enthalpie de formation sont nécessaires pour calculer les performances propulsives de ces sels énergétiques envisagées comme constituants des propergols. Cette étude a pour objet la mise au point de méthodes de calcul pour évaluer la densité et l'enthalpie de formation de sels de nitrates énergétiques de type X-N+ NO[3-] à partir de la formule semi-developpée du composé. La densité est calculée à l'aide de modèles basés sur l'additivité des volumes des groupes molaires qui composent ces sels de nitrates. D'une part, la méthode de contribution de groupes de Ammon-Mitchell est étendue aux composés ioniques. D'autre part, une nouvelle méthode incrémentale moins empirique est mise au point. L'enthalpie de formation des sels organiques est obtenue par différence entre l'enthalpie des ions isolés qui composent le cristal et son enthalpie de sublimation. Cette dernière dépdend de l'énergie de cohésion du cristal et d'un terme dépendant de la température. Concernant l'énergie de cohésion, deux approches sont développées : d'une part une méthode semi-empirique rapide utilisant des descripteurs calculés à partir de la géométrie des ions isolés et d'autre part, une méthode basée sur la génération explicite de cristaux virtuels par empilement moléculaires. De plus l'implémentation de contraintes de symétrie dans le code de physique du solide SCC-DFTB est réalisée. Ce code ainsi optimisé pourrait permettre de raffiner la géométrie des structures cristallines obtenues par empilement. Enfin, une dernière partie présente l'application de ces méthodes au calcul de l'enthalpie de formation de sels de nitrates
Performances of energetic materials depend on their density, their solid-state of formation and their stoechiometry. The aim of this works is the development of model to estimate the density and the solid-state of formation of energetic salts, X-N+ NO[-3], from their developed formulate. Model using additive volumes for charges groupes is developed to predict crystal densities of molecular salts. On the one hand, the group contribution method of Ammon and Mitchell is extended molecular salts. On the other hand, a less empirical contribution method is presented. Solid state-heat of formation of a molecular salts depend on the anthalpie of the isolated ions and the cohesive energy of the crystal salts. The estimate the cohesive energy two approach are developed : a semi-empirical model using descriptors computed on isolated ions and the crystal packing of virtual crystal salts of ions. Moreover, implementation of the symetry-constrained in the self consistent charges density functional tight binbing model is developped. This routine may riffine virtual salts structure obtained by packing model. The last part shows applications of previous developed models to the prediction of the solid state of formation of nitrate salts
4

Carbone, Mathieu. "Efficacité, généricité et praticabilité de l'attaque par information mutuelle utilisant la méthode d'estimation de densité par noyau". Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS087.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
De nos jours, les attaques par canaux auxiliaires sont facilement réalisables et très puissantes face aux implémentations cryptographiques. Cela pose une sérieuse menace en ce qui concerne la sécurité des crypto-systèmes. En effet, l'exécution d'un algorithme cryptographique produit inévitablement des fuites d'information liées aux données internes manipulées par le cryptosystèmes à travers des canaux auxiliaires (temps, température, consommation de courant, émissions électro-magnétiques, etc.). Certaines d'entre elles étant sensibles, un attaquant peut donc les exploiter afin de retrouver la clé secrète. Une des étapes les plus importantes d'une attaque par canaux auxiliaires est de quantifier la dépendance entre une quantité physique mesurée et un modèle de fuite supposé. Pour se faire, un outil statistique, aussi appelé distingueur, est utilisé dans le but de trouver une estimation de la clé secrète. Dans la littérature, une pléthore de distingueurs a été proposée. Cette thèse porte sur l'attaque utilisant l'information mutuelle comme distingueur, appelé l'attaque par information mutuelle. Dans un premier temps, nous proposons de combler le fossé d'un des problèmes majeurs concernant l'estimation du coefficient d'information mutuelle, lui-même demandant l'estimation de densité. Nos investigations ont été menées en utilisant une méthode non paramétrique pour l'estimation de densité: l'estimation par noyau. Une approche de sélection de la largeur de fenêtre basée sur l'adaptativité est proposée sous forme d'un critère (spécifique au cas des attaques par canaux auxiliaires). Par conséquent, une analyse est menée pour donner une ligne directrice afin de rendre l'attaque par information mutuelle optimale et générique selon la largeur de fenêtre mais aussi d'établir quel contexte (relié au moment statistique de la fuite) est plus favorable pour l'attaque par information mutuelle. Dans un second temps, nous abordons un autre problème lié au temps de calcul élevé (étroitement lié à la largeur de la fenêtre) de l'attaque par information mutuelle utilisant la méthode du noyau. Nous évaluons un algorithme appelé Arbre Dual permettant des évaluations rapides de fonctions noyau. Nous avons aussi montré expérimentalement que l'attaque par information mutuelle dans le domaine fréquentiel, est efficace et rapide quand celle-ci est combinée avec l'utilisation d'un modèle fréquentiel de fuite. En outre, nous avons aussi suggéré une extension d'une méthode déjà existante pour détecter une fuite basée sur un moment statistique d'ordre supérieur
Nowadays, Side-Channel Analysis (SCA) are easy-to-implement whilst powerful attacks against cryptographic implementations posing a serious threat to the security of cryptosystems for the designers. Indeed, the execution of cryptographic algorithms unvoidably leaks information about internally manipulated data of the cryptosystem through side-channels (time, temperature, power consumption, electromagnetic emanations, etc), for which some of them are sensible(depending on the secret key). One of the most important SCA steps for an adversary is to quantify the dependency between the measured side-channel leakage and an assumed leakage model using a statistical tool, also called distinguisher, in order to find an estimation of the secret key. In the SCA literature, a plethora of distinguishers have been proposed. This thesis focuses on Mutual Information (MI) based attacks, the so-called Mutual Information Analysis (MIA) and proposes to fill the gap of the major practical issue consisting in estimating MI index which itself requires the estimation of underlying distributions. Investigations are conducted using the popular statistical technique for estimating the underlying density distribution with minimal assumptions: Kernel Density Estimation (KDE). First, a bandwidth selection scheme based on an adaptivity criterion is proposed. This criterion is specific to SCA.As a result, an in-depth analysis is conducted in order to provide a guideline to make MIA efficient and generic with respect to this tuning hyperparameter but also to establish which attack context (connected to the statistical moment of leakage) is favorable of MIA. Then, we address another issue of the kernel-based MIA lying in the computational burden through a so-called Dual-Tree algorithm allowing fast evaluations of 'pair-wise` kernel functions. We also showed that MIA running into the frequency domain is really effective and fast when combined with the use of an accurate frequency leakage model. Additionally, we suggested an extension of an existing method to detect leakage embedded on higher-order statistical moments
5

Thauvoye, Christophe. "Simulation numérique d'écoulements turbulents réactifs par une méthode hybride à fonction densité de probabilité transportée". Poitiers, 2005. http://www.theses.fr/2005POIT2276.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ce travail s'inscrit dans le cadre des études sur la simulation numérique des écoulements turbulents réactifs. Il a pour objet l'étude d'une méthode hybride basée sur l'utilisation conjointe d'une méthode lagrangienne à Fonction Densité de Probabilité (PDF) transportée et d'une méthode eulérienne de résolution des équations moyennées (RANS). La première partie est consacrée à la description des méthodes RANS et de l'approche à PDF transportée. Cette dernière est particulièrement détaillée : cela permet de mettre en avant les avantages et les inconvénients de cette approche. Dans ce contexte, on insiste sur les aspects liés à la modélisation et à la résolution de l'équation de transport de la PDF. Sa résolution s'appuie couramment sur des simulations numériques de type Monte-Carlo. On montre également comment la nature statistique des méthodes de Monte-Carlo induit des difficultés numériques qui ont conduit à l'élaboration de méthodes hybrides associant méthode RANS et approche à PDF transportée. Dans la seconde partie de cette étude, les aspects théoriques et numériques des méthodes hybrides sont alors détaillés en particulier le modèle PEUL+ développé à l'ONERA. Une nouvelle procédure de couplage de type instationnaire est proposée. Elle améliore la stabilité et la précision du modèle par rapport à la procédure de couplage stationnaire. Elle est ensuite testée et validée sur deux configurations : tout d'abord sur une flamme non prémélangée méthane-air stabilisée par une flamme pilote puis sur une flamme de prémélange dans un élargissement brusque symétrique
This work concerns the field of numerical simulation of turbulent reactive flows. The aim of this work is to study a hybrid method based on the use of a lagrangian transported Probability Density Function (PDF) method coupled with a eulerian method which solves the Reynolds Averaged Navier-Stokes equations (R. A. N. S). The first part is devoted to the description of the RANS and the transported PDF methods. The latter is more precisely detailed : it allows to highlight both advantages and drawbacks of the two approaches. In this context, we will develop all the aspects related to the modelling and resolution of the transported joint PDF equation. Its resolution generally uses a Monte-Carlo numerical simulation. We also show how the statistical nature of Monte-Carlo methods induces numerical difficulties, which led to the development of hybrid methods associating RANS method with a transported PDF approach. In the second part of this study, theoretical and numerical aspects of the hybrid methods are detailed, and more precisely the PEUL+ model developed at ONERA. A new – instationary – way of coupling is proposed. It improves the stability and precision of the model in comparison with the stationary way of coupling. It is then tested and validated on two configurations : a methane-air nonpremixed flame stabilised by a piloted flame ; and a premixed flame in a sudden symmetric plane expansion
6

Benkaci-Ali, Hassene. "Optimisation des performances d'un ondulateur à modulation de densité d'impulsion modélisation mathématique et méthode génétique". Thèse, Université du Québec à Trois-Rivières, 2013. http://depot-e.uqtr.ca/6977/1/030596182.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Bechereau, Marie. "Élaboration de méthodes Lattice Boltzmann pour les écoulements bifluides à ratio de densité arbitraire". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN059/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Les extensions bifluides des méthodes Lattice Boltzmann à frontière libre utilisent généralement des pseudopotentiels microscopiques pour modéliser l'interface. Nous avons choisi d'orienter nos recherches vers une méthode Lattice Boltzmann à capture d'interface où la fraction massique d'un des deux fluides, inconnue, est transportée. De nombreux travaux ont montré les difficultés des méthodes Lattice Boltzmann à traiter des systèmes bifluides, et ce d'autant plus que le ratio de densité est important. Nous expliquerons l'origine de ces problèmes en mettant en évidence le manque de diffusion numérique pour capturer précisément les discontinuités de contact. Pour régler cet obstacle, nous proposerons une formulation Arbitrary Lagrangian Eulerian (ALE) des méthodes Lattice Boltzmann. Cela permet de séparer le traitement des ondes matérielles de celui des ondes de pression. Une fois l'étape ALE terminée, une phase de projection ramène les variables sur la grille eulérienne de calcul initiale. Nous expliquons comment obtenir une procédure de projection ayant une précision d'ordre 2 et une interface fine et dépourvue d'oscillations. Il sera montré que la fraction massique satisfait un principe du maximum discret et qu'elle reste donc entre 0 et 1. Les simulations numériques sont en accord avec la théorie. Même si notre méthode n'est pour le moment utilisée que pour simuler des écoulements de fluides non visqueux (Equations d'Euler), nous sommes convaincus qu'elle pourra être étendue à des simulations d'écoulements bifluides visqueux
Two-fluid extensions of Lattice Boltzmann methods with free boundaries usually consider ``microscopic'' pseudopotential interface models. In this paper, we rather propose an interface-capturing Lattice Boltzmann approach where the mass fraction variable is considered as an unknown and is advected. Several works have reported the difficulties of LBM methods to deal with such two-fluid systems especially for high-density ratio configurations. This is due to the mixing nature of LBM, as with Flux vector splitting approaches for Finite Volume methods. We here give another explanation of the lack of numerical diffusion of Lattice Boltzmann approaches to accurately capture contact discontinuities. To fix the problem, we propose an arbitrary Lagrangian-Eulerian (ALE) formulation of Lattice-Boltzmann methods. In the Lagrangian limit, it allows for a proper separated treatment of pressure waves and advection phenomenon. After the ALE solution, a remapping (advection) procedure is necessary to project the variables onto the Eulerian Lattice-Boltzmann grid.We explain how to derive this remapping procedure in order to get second-order accuracy and achieve sharp stable oscillation-free interfaces. It has been shown that mass fractions variables satisfy a local discrete maximum principle and thus stay in the range $[0,1]$. The theory is supported by numerical computations of rising bubbles (without taking into account surface tension at this current state of development).Even if our methods are currently used for inviscid flows (Euler equations) by projecting the discrete distributions onto equilibrium ones at each time step, we believe that it is possible to extend the framework formulation for multifluid viscous problems. This will be at the aim of a next work
8

Jerier, Jean-François. "Modélisation de la compression haute densité des poudres métalliques ductiles par la méthode des éléments discrets". Grenoble 1, 2009. http://www.theses.fr/2009GRE10242.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ce mémoire de thèse synthétise trois années de recherches dédiées à l’étude numérique et théorique de la compression à haute densité de poudres métalliques. Des différentes phases qu’intègrent la métallurgie des poudres, la phase de compression à froid de la poudre est l’une des phases les plus sensibles de ce procédé de fabrication, car elle influence les propriétés mécaniques de la pièce finale. Il est donc nécessaire de mettre en place une approche numérique qui permet de contrôler et d’optimiser la compression de poudre jusqu’à de fortes valeurs de compacité (compacité supérieure à 0:9). Pour cela, nous proposons de reproduire par la méthode des éléments discrets le comportement de la poudre observé expérimentalement sous différents types de chargement. A ce jour, les simulations via cette méthode sont limitées à une valeur de compacité ne dépassant pas 0:85. Pour dépasser ces limitations, nous présentons un modèle de contact implémenté dans un code éléments discrets libre (Yade). Ce nouveau modèle de contact est développé sur la base de la loi de contact normal qui intègre le terme de densité locale des particules dans son expression, afin de prendre en compte l’incompressibilité des grains se produisant à des valeurs de compacité supérieures à 0:85. Dans le but de procéder à des simulations plus réalistes, un nouvel algorithme géométrique de génération d’empilements de sphères polydisperses est développé. Ce nouvel outil numérique est capable de générer très rapidement de grands assemblages de sphères en contact tout en contrôlant différents paramètres comme la distribution de la compacité, la taille minimale et maximale des sphères. Avec le modèle de contact capable de reproduire l’interaction entre les grains et la création d’un algorithme pouvant générer des assemblages de sphères similaires à un tas de poudres, nous procédons à des simulations de compression isostatique et en matrice pour différents types de poudres (cuivre, aluminium, fer). Les résultats obtenus sont directement comparés à ceux issus des simulations éléments finis multi-particules et de l’expérience. Ces comparaisons permettent ainsi de valider et de tester la robustesse du modèle de contact développé. Pour finir, nous investiguons sur la base de nos divers développements validés, l’évolution d’une poudre d’aluminium avec un gradient de compacité au cours d’une compression en matrice
This Ph. D. Manuscript synthesises three years of research dedicated to numerical and theoretical studies of high density powder compaction. During cold compaction process, the compaction stage is among the most sensitive powder metallurgy’s stages, because it has a strong impact on the mechanical properties of the final part. It is necessary to find a numerical approach to control and to optimize the high density powder compaction (density value above 0:9). We propose to model by the discrete element method the behaviour of powder which is observed experimentally under different loading paths. To date, the discrete element simulations are not able to model the powder compaction for high density values (density is limited at 0:85). To go beyond this limit, we present a contact model implemented into a discrete element open-source software (Yade). This new contact model is based on a normal contact law which integrates in its expression the local density parameter. This new local variable takes into account the incompressibility of the material which appears at density values above 0:85. In order to realize more realistic simulations, a new geometric algorithm to generate polydisperse sphere packings is developed. This new numerical tool is able to generate very fast large sphere assemblies with different properties controlled by the user as: density distribution, the minimal and maximal size of spheres. With the contact model capable of reproducing the granular interaction up to high density value and the geometric algorithm which generates sphere assemblies similar to powder, we realize simulations of isostatic and closed die compaction for various types of powder (copper, aluminium, iron). The results are directly compared with those obtained by multi-particle finite element method and by experimental tests. These comparisons allow to validate and test the robustness of the contact model developed here. Finally, we investigate the evolution of aluminium powder assembly composed with an initial graded density distribution during the closed die compaction
9

Durance, Loïc. "Développement d'une méthode de stérilisation par la chaleur de solutions injectables conditionnées en polyéthylène basse densité". Amiens, 2003. http://www.theses.fr/2003AMIED003.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Les solutions injectables sont habituellement disposées en ampoules de verre stérilisées par chaleur humide. Mais la tendance actuelle est de substituer le verre par le plastique car ce dernier permet un encombrement réduit, une résistance supérieure du conditionnement aux chocs et un retraitement plus aisé des déchets par incinération. Or seuls quelques plastiques possèdent des caractéristiques conformes aux exigences réglementaires de la pharmacopée européenne et respectueuses de l'écologie. C'est le cas du polyéthylène basse densité (PEBD) qui, exempt d'additifs, évite également tout risque d'interaction entre celui-ci et le contenu qu'il renferme. Sa destruction ne libère aucun déchet chloré ni autre produit toxique dans l'atmosphère. Ce matériau est de plus adapté aux technologies de production à grande échelle comme l'est le système de Formage-Remplissage-Scellage employé ici. Les conditions conventionnelles de stérilisation correspondent à appliquer une température de 121°C durant 30 minutes. Or le PEBD possède une température de fusion d'environ 117°C ce qui l'empêche d'être stérilisé aux températures supérieures. Durant ce travail, nous avons étudié l'effet d'une température inférieure à 121°C sur des récipients fabriqués en PEBD et contenant de l'eau pour préparations injectables comme solution de référence. Un cycle alternatif de stérilisation piloté par sa valeur stérilisatrice F0 a été alors mis au point. L'efficacité du cycle de stérilisation ainsi défini a été évaluée a�� l'aide de souches de spores de Bacillus Stearothermophilus introduites dans les récipients. Les produits stérilisés ont été mis en stabilité durant 24 mois et les caractéristiques du matériau et de la solution ont été suivies tout au long de cette période. Les renseignements obtenus par ce travail ont pour objet l'enregistrement d'un dossier d'autoriation de mise sur le marché de produits injectables au bénéfice d'une industrie pharmaceutique amiénoise
The solutions for injection are usually packaged in glass flasks and sterilised by moist steam. Is the current tendency to substitute glass by the plastic because it reduce the obstruction of conditioning while increasing its shock-proofness and allows a board elimination of the wastes by incineration. Only some plastics meet both public health regulations and ecological requirements. Among them, low density polyethylene (LDPE) offers various advantages. It possesses virtually no additive, which limits the interaction hazards between plastic and chemical substances used in injection preparations. Its destruction does not bring chlorine-containing waste or other toxic matter into the atmosphere. Moreover, it is fully adapted to the various manufacturing technologies for large-scale production as the blow-fill-an-seal. However, the temperature value admitted for sterilisation is 121°C, whereas LDPE exhibits a melting point at about 117°C. Therfore, we have developped an alternative cycle of sterilisation based on F0 concept at a temperature lower than 121°C and such as it respected the LDPE containers integrity. The efficiency on the micro-organisms destruction have been calculated aid of stocks spores of Bacillus Stearothermophilus introduced into the recipients which contained water for injection as base solution. The sterilised products have been followed throughout this period. The information obtained by this work have the aim of documenting a manufacturing authorization file about products for injection for its recording with the benefit of a pharmaceutical industry of Amiens
10

Aucejo-Galindo, Vicente. "Méthode tensorielle générale pour une modélisation multiphysique de dispositifs magnétomécaniques rapides". Electronic Thesis or Diss., Metz, 2010. http://www.theses.fr/2010METZ028S.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Actuellement la connaissance objectif de dispositifs magnétomécaniques est achevée par diverses approches complémentaires . D'une part l'approche physique avec ses formulations mathématiques des forces magnétiques. D'autre part, les approches multiphysiques afin d'aboutir à une connaissance plus fine, et plus réelle, des phénomènes physiques associés aux interactions qui agissent dans le dispositifs. Et finalement, l'approche interdisciplinaire qui tiendrait en compte le cycle de vie du produit, l'éco-conception. Une conception d'un micromoteur ultra rapide à aimantation induite et flux axial est présentée dans ce mémoire avec l'approche physique montrant les limites de celle-ci . Partant donc de l'approche physique, une nouvelle méthode tensorielle générale est développée comme apport à une modélisation multiphysique de dispositifs magnétomécaniques, regroupant ainsi les diverses formulations numériques de forces magnétiques. Une caractérisation du nouveau tenseur est présentée et appliquée pour le calcul des forces sur des milieux en contact
Currently the goal of knowledge magnetomechanical devices is completed by means of several complementary approaches. On one hand the physical approach with mathematical formulations of magnetic forces. On the other hand, multiphysics approaches to achieve a deeper insight and more real, physical phenomena associated with interactions that act in the devices. And finally, the interdisciplinary approach that takes into account the lifecycle of the product, so called eco-design. A design of a ultra fast micromotor with induced magnetization and axial flux is presented in this paper with the physical approach showing the restrictions thereof. Accordingly therefore, the physical approach, a new tensor method is developed as a general contribution to a multiphysics modeling of magnetomechanical devices, bringing together the various numerical formulations of magnetic forces. A characterization of the new tensor is presented and applied to calculate the forces on bodies in contact

Libros sobre el tema "Méthode à densité":

1

Centre canadien de la technologie des minéraux et de l'énergie. Nouvelle Méthode de Déconvolution Pour L'analyse des Spectres de Distribution de la Densité de Probabilité Obtenus Lors de Mesures D'interrogation Aux Rayons Gamma D'écoulements Multiphases. S.l: s.n, 1985.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Capítulos de libros sobre el tema "Méthode à densité":

1

RABTA, Boualem, Ouiza LEKADIR y Djamil AÏSSANI. "Stabilité forte des systèmes et réseaux de files d’attente : synthèse et perspectives". En Théorie des files d’attente 1, 299–336. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9001.ch9.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Dans ce chapitre, nous présentons une synthèse des résultats sur l’application de la méthode de stabilité forte à l’étude de la robustesse des systèmes et des réseaux de files d’attente. En plus de l’affirmation qualitative de la stabilité forte, nous obtenons souvent des bornes de perturbation. Enfin, l’utilisation des méthodes d’estimation non paramétrique de densité dans ce contexte est discutée.
2

LASOCKI, Stanisław. "Estimation de la densité par noyau en sismologie". En Méthodes et modèles statistiques pour la sismogenèse, 5–31. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9037.ch1.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La base de la sismologie statistique est la loi probabiliste des paramètres des séismes. Malheureusement, les modèles de lois probabilistes des paramètres des tremblements de terre restent pour la plupart inconnus, et ceux que l’on pense connaître sont souvent réfutés par des tests plus approfondis.
3

Hervé, Jean-Pierre. "Chapitre 2 : Méthodes d’évaluation des densités de populations d’Aedes aegypti". En La dengue dans les départements français d’Amérique, 16–28. IRD Éditions, 2003. http://dx.doi.org/10.4000/books.irdeditions.2708.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Actas de conferencias sobre el tema "Méthode à densité":

1

Gellee, T. y B. Philippe. "Utilisation combinée des biomatériaux xénogéniques et d’os autologue en chirurgie reconstructrice préimplantaire : Réflexions à propos de quatre indications méconnues". En 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602008.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Introduction : Les comblements sous-sinusiens et les ROG représentent les indications principales des biomatériaux de substitution xénogénique en Chirurgie Reconstructrice Pré-Implantaire. D’autres indications moins répandues nous paraissent devoir être présentées, en particulier la prévention de la résorption centripète et l’harmonisation des contours squelettiques des greffes d’apposition d’os autologue, les coffrages et les comblements étendus ainsi que la gestion des résorptions tardives de certaines greffes d’appositions. L’objectif de cette communication consiste à présenter ces situations cliniques rarement décrites mais dont la prise en charge raisonnée mérite d’être connue afin de mieux répondre aux besoins des patients. Matériel et méthode : Cinq dossiers représentatifs de ces indications sont exposés. Les problématiques rencontrées, les moyens mis en œuvre comme les résultats cliniques et radiographiques sont abordés. Discussion : Les cas étudiés illustrent les raisons pour lesquelles l’utilisation conjointe des biomatériaux xénogènes et de l’os autogène trouve son indication. L’Os xénogénique ostéo-conducteur participe au maintien des volumes et à lobtention d’une densité é levée au sein des reconstructions. L’Os autogène ostéo-conducteur, ostéo- inducteur et ostéogénique permet dans sa forme massive la réalisation de reconstructions bi ou tridimensionnelles étendues. Les membranes xénogéniques permettent de maintenir l’équilibre dans la compétition de l’intégration entre les tissus durs et les tissus mous. L’adjonction de concentrés plaquettaires prélevés en phase liquide et mélangés à la thrombine activée assure si nécessaire l’aggrégation des granules calcifiés d’os xénogénique. Conclusion : L’utilisation combinée des biomatériaux de substitution xénogéniques avec l’os autogène constitue une aide significative dans la prise en charge de certaines reconstructions pré-implantaires complexes. La stabilité des reconstructions dans leur forme et dans le temps comme l’augmentation de la densité offerte aux implants constituent les principaux avantages attendus. Liens dintérêt : Aucun
2

Bayet, K. y B. Philippe. "Densité osseuse des crêtes prémaxillaires reconstituées par apposition d’os cortical membraneux et intérêt de la chirurgie implantaire guidée". En 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602004.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Introduction : La procédure chirurgicale implantaire en présence d’os de densité hétérogène présente de réelles difficultés techniques en raison de la déviation des instruments de forage, de taraudage et d’insertion depuis l’os de densité é levée vers l’os de densité faible. L’objectif de cette communication consiste à valider la pertinence de la chirurgie guidée en présence de crêtes prémaxillaires reconstituées par apposition d’os autogène cortical membraneux en raison de l’importante différence de densité constatée entre le site receveur et le greffon. Matériel et méthodes : Une étude rétrospective observationnelle est réalisée sur 20 scanners de cas cliniques ayant bénéficié d’appositions vestibulaires membraneuses (10 appositions d’os pariétal et 10 appositions d’os mandibulaire postérieur). L’ensemble des scanners ont été réalisés entre le 5eme et le 7eme mois post-opératoire (coupes axiales de 0,625mm espacées de 0,5mm. Scanner Low Dose GE Optima). Toutes les analyses de densité ont été réalisées à l’aide du logiciel SIMPLANT PRO 17 (Dentsplysirona). Résultat : La densité osseuse moyenne observée au sein des greffes pariétales est de 1798,20 UH. Celle observée au sein des greffes mandibulaire postérieure est de 1956,80 UH. L’Os spongieux du site receveur maxillaire présente quant à lui une densité moyenne de 560 UH. Cette étude densitométrique confirme au prémaxillaire la différence de densité significative entre l’os greffé par apposition vestibulaire et l’os résiduel de la crête atrophiée (3.3 pour l’os pariétal et 3.4 pour l’os mandibulaire postérieur). Discussion : Ces résultats confirment l’importante différence des densités au sein des crêtes fines reconstruites à l’aide d’os cortical membraneux. Compte-tenu des phénomènes provoqués de déviation des instruments de forage, de taraudage et d’insertion, la mise en place des implants doit être réalisée en chirurgie guidée afin d’assurer le contrôle exact de leur positionnement et de leur axe d’insertion.
3

Jiménez Romera, Carlos, Agustín Hernández Aja y Mariano Vázquez Espí. "Urban compactness and growth patterns in Spanish intermediate cities". En 24th ISUF 2017 - City and Territory in the Globalization Age. Valencia: Universitat Politècnica València, 2017. http://dx.doi.org/10.4995/isuf2017.2017.6060.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Contemporary processes of urbanization have outpaced the traditional notion of city. Connectivity has become a distinctive characteristic of urban spaces, so that networked cities don’t rely anymore on continuous urbanized areas, but on connections that rarely leave a direct spatial footprint. The new spatial structure of urban areas include greater inter-penetration of built-up and open spaces, and the emergence of urban enclaves, which can be spatially isolated despite being functionally connected to a city. In order to study these enclaves and their impact on urban form, a sample of 47 Spanish functional urban areas was examined, ranging from 36,000 to 6.0 million inhabitants. Land use polygons provided by SIOSE were grouped into three main categories (residential, non-residential and urban infrastructure) and cross-matched with functional urban areas defined by AUDES (an iterative method than combines morphological and functional criteria) in order to calculate compactness proximity index, gross and net density. Factors that influence urban compactness were identified: most northern and some coastal urban areas display a low compactness which can be attributed to orographic conditions; bigger cities tend to display high compactness, but smaller ones display a great diversity of values, from the highest to the lowest. A further analysis of small and intermediate cities helped to identify two complementary mechanisms of urban growth, spatial expansion of core areas and functional integration of peripheral nuclei, whose ocurrence in different proportions can explain the variation of compactness in the studied sample. References Angel, S.; Parent, J.; Civco, D. L. (2012) ‘The fragmentation of urban landscapes: global evidence of a key attribute of the spatial structure of cities, 1990-2000’, Environment and Urbanization, 24 (1), 249-283. Ascher, F. (1995) Métapolis ou l'avenir des villes. (Paris: Éditions Odile Jacob.) Dupuy, G. (1991) L'urbanisme des réseaux, théories et méthodes. (Paris: Armand Colin.) Harvey, D. (1996) ‘Cities or urbanization?’, City 1 (2): 38-61. IGN (2007) SIOSE, Sistema de Información sobre Ocupación del Suelo (http://www.siose.es/), accessed 31 Jan. 2017. Ruiz, F. (2011) AUDES, Áreas Urbanas de España (http://alarcos.esi.uclm.es/per/fruiz/audes/), accessed 31 Jan. 2017.

Informes sobre el tema "Méthode à densité":

1

Meloche, Jean-Philippe, Jérôme Dupras, Andrew Gonzales, Justin Leroux y François Vaillancourt. Étude sur la mise en œuvre d’outils d’écofiscalité au service de la conservation et de l’adaptation aux changements climatiques dans les basses-terres du Saint-Laurent. CIRANO, junio de 2023. http://dx.doi.org/10.54932/kgdx2810.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ce rapport s’interroge sur la contribution des mesures d’écofiscalité à la protection des espaces naturels sur le territoire des basses-terres du Saint-Laurent dans le but d’améliorer la résilience aux changements climatiques et la préservation des habitats des espèces fauniques et floristiques à statut précaire. Deux mesures écofiscales novatrices basées sur l’empreinte écologique de l’usage du sol sont proposées : une mesure de taxation et une mesure de subvention. L’objectif de ce rapport est de valider la faisabilité de ces outils et d’en mesurer les effets à l’échelle du Québec. L’assiette fiscale des mesures d’écofiscalité suggérées repose sur les superficies des propriétés foncières pour différentes classes d’usage du sol. L’établissement des taux de taxation et de subventions repose sur une modélisation de la valeur des services écosystémiques, sur un choix de critères écologiques et sur une méthode de hiérarchisation des classes d’empreinte écologique. Pour évaluer les mesures, un échantillon de terrains du territoire de la Ville de Laval est analysé. Par extrapolation, les résultats sont ensuite généralisés à l’ensemble du Québec. La jonction entre les données sur les outils d’écofiscalité, les données du rôle d’évaluation foncière et les données de recensement permet d’estimer les impacts socioéconomiques de la mesure de taxation. Un sondage a également été mené auprès de la population québécoise pour évaluer l’acceptabilité sociale de l’outil. Nos résultats montrent la faisabilité technique de la taxe sur l’empreinte écologique de l’usage du sol. Les taux proposés sont le fruit d’une démarche rigoureuse fondée sur une estimation de la valeur des dommages à l’environnement. Pour le secteur résidentiel, les sommes d’impôt à payer sont raisonnables et relativement proportionnelles à la capacité de payer des ménages. L’impôt a également les effets recherchés, c’est-à-dire qu’il favorise la densité urbaine et l’ajout de végétation. En ce qui concerne les immeubles non -résidentiels, la charge fiscale est un peu plus lourde, mais offre un potentiel intéressant. Quant au secteur agricole, les taux de taxation génèrent des prélèvements très élevés qui risquent d’entraîner des distorsions négatives dans le marché de l’alimentation. Les données de sondage montrent que la majorité de la population s’oppose à l’implantation d’une nouvelle taxe sur l’empreinte écologique de l’usage du sol, mais que les moins de 35 ans soutiennent la mesure. Pour la mesure de subvention, un survol des programmes existants au Québec et ailleurs dans le monde permet de tirer des conclusions sur la performance et la pertinence d’un tel outil. Il montre que la relation entre superficie, valeur écologique et valeur marchande des terrains pose problème. La mesure de subvention est plus coûteuse et moins efficace que la mesure de taxation pour favoriser la préservation et la restauration des espaces naturels.
2

Meloche, Jean-Philippe, Cédric Bourbonnais, Arnaud Dragicevic, Tejasvi Hora, Noémie Lacroix, Julie Lebert, Justin Leroux et al. Étude sur la mise en œuvre d’outils d’écofiscalité au service de la conservation et de l’adaptation aux changements climatiques dans les basses-terres du Saint-Laurent. CIRANO, junio de 2023. http://dx.doi.org/10.54932/momv7435.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ce rapport s’interroge sur la contribution des mesures d’écofiscalité à la protection des espaces naturels sur le territoire des basses-terres du Saint-Laurent dans le but d’améliorer la résilience aux changements climatiques et la préservation des habitats des espèces fauniques et floristiques à statut précaire. Deux mesures écofiscales novatrices basées sur l’empreinte écologique de l’usage du sol sont proposées : une mesure de taxation et une mesure de subvention. L’objectif de ce rapport est de valider la faisabilité de ces outils et d’en mesurer les effets à l’échelle du Québec. L’assiette fiscale des mesures d’écofiscalité suggérées repose sur les superficies des propriétés foncières pour différentes classes d’usage du sol. L’établissement des taux de taxation et de subventions repose sur une modélisation de la valeur des services écosystémiques, sur un choix de critères écologiques et sur une méthode de hiérarchisation des classes d’empreinte écologique. Pour évaluer les mesures, un échantillon de terrains du territoire de la Ville de Laval est analysé. Par extrapolation, les résultats sont ensuite généralisés à l’ensemble du Québec. La jonction entre les données sur les outils d’écofiscalité, les données du rôle d’évaluation foncière et les données de recensement permet d’estimer les impacts socioéconomiques de la mesure de taxation. Un sondage a également été mené auprès de la population québécoise pour évaluer l’acceptabilité sociale de l’outil. Nos résultats montrent la faisabilité technique de la taxe sur l’empreinte écologique de l’usage du sol. Les taux proposés sont le fruit d’une démarche rigoureuse fondée sur une estimation de la valeur des dommages à l’environnement. Pour le secteur résidentiel, les sommes d’impôt à payer sont raisonnables et relativement proportionnelles à la capacité de payer des ménages. L’impôt a également les effets recherchés, c’est-à-dire qu’il favorise la densité urbaine et l’ajout de végétation. En ce qui concerne les immeubles non -résidentiels, la charge fiscale est un peu plus lourde, mais offre un potentiel intéressant. Quant au secteur agricole, les taux de taxation génèrent des prélèvements très élevés qui risquent d’entraîner des distorsions négatives dans le marché de l’alimentation. Les données de sondage montrent que la majorité de la population s’oppose à l’implantation d’une nouvelle taxe sur l’empreinte écologique de l’usage du sol, mais que les moins de 35 ans soutiennent la mesure. Pour la mesure de subvention, un survol des programmes existants au Québec et ailleurs dans le monde permet de tirer des conclusions sur la performance et la pertinence d’un tel outil. Il montre que la relation entre superficie, valeur écologique et valeur marchande des terrains pose problème. La mesure de subvention est plus coûteuse et moins efficace que la mesure de taxation pour favoriser la préservation et la restauration des espaces naturels.

Pasar a la bibliografía