Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Processus d'observation.

Dissertationen zum Thema „Processus d'observation“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-19 Dissertationen für die Forschung zum Thema "Processus d'observation" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Faguy, Jacques. „La conception du processus d'observation scientifique chez des enseignantes du primaire“. Master's thesis, Université Laval, 1986. http://hdl.handle.net/20.500.11794/29178.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Drot, Sébastien. „Segmentation d'images d'observation de la terre par des techniques de géométrie stochastique“. Nice, 2002. http://www.theses.fr/2002NICE5793.

Der volle Inhalt der Quelle
Annotation:
Les techniques probabilistes utilisées pour la segmentation des images ou la classification sont généralement fondées sur une approche pixélique. Elles sont réputées pour leur robustesse au bruit grâce notamment à la prise en compte des statistiques du bruit et d'information a priori sur la segmentation recherchée (homogénéité, texture). Ces méthodes se sont avérées particulièrement pertinentes principalement sur les données basse ou moyenne résolution (AVHRR, Landsat, SPOT). Avec des données plus résolues (centimétriques) comme les images satellitaires et aériennes haute résolution, les approches pixéliques de la segmentation montrent leurs limites car elles n'utilisent aucune information géométrique sur les objets recherchés (en milieu rural par exemple, les champs sont des entités très géométriques). Il s'avère donc souhaitable de développer des méthodes assurant la prise en compte de ce type d'information. Pour conserver les atouts des approches bayesiennes tout en tenant compte de propriétés géométriques simples, nous proposons des modèles fondées sur des processus objet. Nous avons développé deux familles de modèles à base de triangles équilatéraux : la première à orientation fixe (4 directions de triangles), la seconde à orientation quelconque. Ces modèles contiennent des informations a priori favorisant les configurations (c'est à dire ici les collections de triangles) proches d'un pavage du plan et un terme d'attache aux données donnant une probabilité plus forte aux triangles recouvrant des zones ayant une texture homogène. Ils sont optimisés par un recuit-simulé fondé sur un algorithme de type MCMC à sauts réversibles. A ce stade, nous obtenons une sur-segmentation. Un post-traitement permet ensuite de fusionner les triangles recouvrant des zones de même texture. Cette approche a été appliquée avec succès à des images aériennes optiques ainsi qu' à des images satellitaires radar
Probabilist techniques used for image segmentation or image classification are generally based on a pixelwise approach. They are well-known for their robustness w. R. T. Noise because of their ability to take into account noise statistics and a priori information on the segmentation (homogeneity, texture). These methods have been proved to be particularly relevant for low and medium resolution data (AVHRR, Landsat, SPOT). With high resolution data (as for example aerial images), these methods reach their limits because they do not use any geometrical information on the underlying objects (in rural environment for example, fields are geometrical entities). So, it is desirable to develop new methods that take into account this kind of information. To keep the advantages of Bayesian approaches within taking into account simple geometrical properties, we suggest to use object point processes. We have developped two families of models based on some equilateral triangles: in the first case, triangles can have only four directions; in the second case, orientation is arbitrary. Those models embed some a priori information that favour configurations closed to a partition of the image (here, a configuration is a collection of triangles); data attachment gives a more important probability for objects that are localized on homogeneous texture. They are optimized thanks to a simulated annealing scheme based on a Reversible Jump MCMC algorithm. At this stage, we obtain an over-segmentation. Then, a post-processing enables to merge areas with similar radiometries. This approach has been applied with success to optical aerial data and radar satellite images
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Yao, Yijun. „Exploration d’un équipement d'observation non intrusif pour la compréhension des processus de projection thermique“. Electronic Thesis or Diss., Bourgogne Franche-Comté, 2023. http://www.theses.fr/2023UBFCA025.

Der volle Inhalt der Quelle
Annotation:
La quatrième révolution industrielle a inauguré une nouvelle ère technologique caractérisée par la numérisation et l'intelligence. Dans ce contexte, on observe une tendance croissante à combiner les technologies traditionnelles avec les technologies plus modernes de l'information. Cette approche forme une nouvelle voie d’interprétation pour la recherche scientifique.Dans le cadre de cette étude propre à la projection thermique, le travail a consisté à utiliser un dispositif de visualisation non invasif pour la collecte en ligne des images d’un jet ensemencé de particules de poudre. Le traitement de ces images par un algorithme spécifiquement développé a abouti à l’extraction de données pertinentes et fiables sur les processus de construction d’un revêtement de projection.En effet, la projection thermique, en tant que technologie traditionnelle dans le domaine des traitements de surface est aussi une technique très prometteuse dans le domaine de la fabrication additive. Les revêtements produits par cette méthode présentent d’excellentes propriétés et sont largement appliqués dans des secteurs variés. Il parait donc important de changer son paradigme en y intégrant les technologies de l'informatique.Les expériences réalisées ont permis d’observer les phénomènes/processus mis en œuvre au cours d’une projection plasma de particules d’alumine et un algorithme a été développé pour extraire les données intéressantes contenues dans les images observées (distribution de la taille des particules en vol, schéma de croissance du revêtement sur le substrat, efficacité du dépôt, etc.). De cette manière, il a été possible d'étudier les distributions de la vitesse des particules et l'angle de vol tout au long du processus de projection plasma.Par la suite, la validation de la technique d'observation et de l’algorithme appliqué à la projection plasma a permis de s’intéresser au processus existant en projection à froid. L'observation in situ de particules de cuivre a donc été conduite pour identifier le processus d'empilement des couches pulvérisées à froid, d’en quantifier la taille et la dispersion des particules formant le dépôt. L'étude a également associé différentes méthodes de caractérisation de façon à comprendre le processus d'empilement des couches lors d’une projection à froid
The fourth industrial revolution ushered in a new technological era characterized by digitalization and intelligence. In this context, there is a growing tendency to combine traditional technologies with more modern information technologies. This approach is opening up a new avenue of interpretation for scientific research.In the context of this study, which is specific to thermal spraying, the work involved using a non-invasive display device to collect on-line images of a jet seeded with powder particles. Processing these images using a specially developed algorithm resulted in the extraction of relevant and reliable data on the construction processes of a spray coating.Indeed, thermal spraying, as a traditional technology in the field of surface treatments, is also a very promising technique in the field of additive manufacturing. The coatings produced by this method have excellent properties and are widely applied in a variety of sectors. It therefore seems important to change the paradigm by incorporating computer technologies.The experiments carried out enabled us to observe the phenomena/processes involved in the plasma spraying of alumina particles, and an algorithm was developed to extract the interesting data contained in the images observed (size distribution of the flying particles, growth pattern of the coating on the substrate, deposition efficiency, etc.). In this way, it was possible to study the particle velocity and flight angle distributions throughout the plasma spraying process.Subsequently, validation of the observation technique and the algorithm applied to plasma spraying made it possible to study the existing cold spraying process. In situ observation of copper particles was therefore carried out to identify the stacking process of cold-sprayed layers and to quantify the size and dispersion of the particles forming the deposit. The study also combined different characterization methods to understand the process of layer stacking during cold spraying
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Villesèque-Dubus, Fabienne. „Transversalité et Systèmes Budgétaires- Un essai d'observation et d'analyse“. Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2003. http://tel.archives-ouvertes.fr/tel-00473296.

Der volle Inhalt der Quelle
Annotation:
L'objet de la thèse est d'étudier les liens entre transversalité et systèmes budgétaires. Il s'agit en particulier d'observer dans quelle mesure les phénomènes transversaux dans les organisations peuvent exercer une influence sur les systèmes budgétaires, et réciproquement, de chercher si le recours à des systèmes budgétaires transversaux peut influencer les processus de transversalisation et de développement d'interactions dans l'organisation. Des observations en ce sens ont donc été conduites auprès d'entreprises industrielles de taille et d'activités variées. La combinaison de méthodes de recherche qualitatives et quantitatives permet de souligner que la transversalité est formellement reconnue dans un nombre significatif d'entreprises industrielles et dans les mécanismes de contrôle tels que les systèmes budgétaires. Cette reconnaissance de la transversalité est conçue et comprise comme complémentaire des approches classiques des organisations et du contrôle. La thèse montre que les budgets transversaux sont liés à la recherche d'un meilleur suivi des réalisations, sur la base d'activités et processus étroitement associés à la stratégie de l'entreprise.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Ochi, Hanen. „Abstraction and modular verification of inter-enterprise business processes“. Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCD064/document.

Der volle Inhalt der Quelle
Annotation:
De nos jours, les entreprises sont de plus en plus étendues et faisant collaborer plusieurs organisations pour la réalisation composée d'un objectif global. Des phénomènes tels que le commerce électronique et l'Internet stimulent en effet la coopération entre les organisations, donnant lieu a des processus métier inter-entreprises. Dans cette thèse de doctorat, nous proposons une approche ascendante pour vérifier l’interaction correcte entre des processus répartis sur un certain nombre d'organisations. Le modèle du système global étant indisponible, une approche d'analyse descendante est tout simplement impossible. Nous considérons deux critères de correction des processus métier inter-entreprises composés de deux (ou plusieurs) processus métier qui communiquent de manière synchrone et/ou asynchrone et/ou partageant des ressources. Le premier critère est générique et est exprimé par la propriété de soundness (robustesse), et certaines de ses variantes. Le deuxième critère est spécifique et peut être exprimé avec n'importe quelle formule de la logique temporelle linéaire. Chaque composante du processus global rend publique un modèle abstrait, représenté par un graphe appelé Graphe d'Observation Symbolique (GOS), permettant à la fois de préserver la confidentialité du processus local, la vérification de sa correction et de celle du processus global par composition de GOSs. Nous avons revisité et adapté le GOS afin de réduire la vérification du modèle composite à la vérification de la composition des abstractions des ses composants (leurs GOSs). Nous avons implémenté notre approche de vérification, basée sur le GOS, aussi bien pour les propriétés génériques que pour les propriétés spécifiques (LTL), et nous avons comparé les résultats obtenus avec ceux d'outils connus dans le domaine. Les résultats obtenus sont encourageants au vu du temps d’exécution et de l'espace mémoire consommés par notre technique. Ceci renforce notre conviction que le GOS est une structure appropriée pour l'abstraction et la vérification de processus métiers, en particulier lorsque ceux-ci sont faiblement couplés
Today's corporations often must operate across organizational boundaries. Phenomena such as electronic commerce, extended enterprises, and the Internet stimulate cooperation between organizations. We propose a bottom-up approach to check the correct interaction between business processes distributed over a number of organizations. The whole system's model being unavailable, an up-down analysis approach is simply not feasible. We consider two correctness criteria of Inter-Enterprise Business Processes (IEBP) composed by two (or more) business processes communicating either synchronously or asynchronously and sharing resources : a generic one expressed with the well known soundness property (and some of its variants), and a specic one expressed with any linear time temporal logic formula. Each part of the whole organization exposes its abstract model, represented by a Symbolic Observation Graph (SOG), in order to allow the collaboration with possible partners. We revisited and adapted the SOG in order to reduce the verification of the entire composite model to the verification of the composition of the SOG-based abstractions. We implemented our verification algorithms, aiming at checking both specic and generic properties using SOGs, and compared our approach to some well known verification tools. The experimental results are encouraging in terms of both the construction time and the size of the abstraction's size. This strengthen our belief that the SOGs are suitable to abstract and to compose business processes especially when these are loosely coupled
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Couleau-Dupont, Annelise. „Le processus d'appropriation du référentiel IAS/IFRS au sein des organisations - Essai d'observation et d'interprétation des pratiques -“. Phd thesis, Université de Nice Sophia-Antipolis, 2010. http://tel.archives-ouvertes.fr/tel-00830405.

Der volle Inhalt der Quelle
Annotation:
Nos travaux portent sur le processus d'appropriation du référentiel IAS/IFRS au sein des organisations. Ils tentent de décrire et d'expliquer la rencontre de l'outil de gestion que constituent les normes internationales avec l'organisation et les changements induits par son adoption, en retenant principalement trois approches : une perspective rationnelle, une perspective socio-politique et une perspective psycho-cognitive. Par ailleurs, pour enrichir nos travaux et permettre de mieux appréhender notre objet de recherche, nous avons fait notamment des emprunts à la théorie néo-institutionnelle et à la théorie de la structuration. L'examen de deux études de cas longitudinales révèle que le processus d'appropriation peut être décomposé en deux grandes périodes : la première correspond à l'introduction du référentiel IAS/IFRS et comporte les phases d'initiation, d'adoption et d'adaptation. La deuxième période représente la mise en œuvre de l'outil, marquée par les phases d'acceptation, de routinisation et d'intégration. La description de ce processus vise à aider la réflexion managériale liée à l'appropriation d'un outil de gestion, en l'occurrence du référentiel IAS/IFRS et à suggérer des propositions destinées à en favoriser son inscription sociale.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Careau, Emmanuelle. „Processus de collaboration interprofessionnelle en santé et services sociaux : proposition d'une grille d'observation des rencontres d'équipe interdisciplinaires“. Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/29470/29470.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Zogmal, Marianne [Verfasser]. „«Savoir voir et faire voir » : Les processus d'observation et de catégorisation dans l'éducation de l'enfance / Marianne Zogmal“. Bern : Peter Lang AG, Internationaler Verlag der Wissenschaften, 2020. http://d-nb.info/1216397546/34.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Osman, Julien. „Connaissances expertes et modélisation pour l'exploitation d'images d'observation de la Terre à hautes résolutions spatiale, spectrale et temporelle“. Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30022/document.

Der volle Inhalt der Quelle
Annotation:
Les futures missions spatiales d'observation de la Terre, Venµs et Sentinelle (1 et 2), fourniront un flot de données inédit en termes de résolution spatiale, revisite temporelle et richesse spectrale. Afin d'exploiter de façon efficace ces données pour la réalisation de cartes d'occupation des sols ou de détection de changements, des approches rapides, robustes et le moins supervisées possibles seront nécessaires. Un exemple d'utilisation de ces données pourrait être d'identifier, dès le mois de mai, les surfaces couvertes par du maïs dans tout le Sud-ouest de la France. Ou encore d'obtenir une carte d'occupation des sols mensuelle, dans un délai très court, à l'échelle de grandes régions. On constate que les images seules ne permettent pas d'obtenir de telles données. Nous avons cependant d'autres types d'informations à notre disposition, qui ont jusqu'alors été très peu exploitées. Ce travail de thèse a consisté à identifier les informations dites a priori disponibles, évaluer leur pertinence, et les introduire dans les chaînes de traitement déjà existantes pour chiffrer leur apport. Nous nous sommes intéressés en particulier au domaine du suivi de l'agriculture. Les informations que nous avons utilisées sont, entre autres, les connaissances sur les pratiques agricoles (rotations de culture, irrigation, alternances de catégories de cultures, etc.), les tailles des parcelles et la topographie. Nous avons principalement travaillé avec 2 sources de connaissances a priori : * Celles contenues dans des bases de données telles que le Registre Parcellaire Graphique (RPG). Nous avons utilisé des méthodes d'apprentissage automatique sur les données pour les extraire. * Celles fournies par des experts. Nous les avons modélisées à l'aide de règles de la logique de 1er ordre. Une des contributions de cette thèse est la sélection et l'évaluation d'un outil qui permette d'extraire l'information et de la traiter, de manière à ce qu'elle soit introduite de façon efficace dans les algorithmes de classification déjà existants. Pour cela, nous avons utilisé la Logique de Markov, un outil statistique capable de travailler à la fois sur des informations issues de bases de données, et sur des informations modélisées sous la forme de règles logiques. Nous avons montré que l'utilisation de ces données permet d'améliorer la qualité des cartes d'occupation du sol. Nous avons de plus montré que ces informations permettent d'obtenir des cartes en quasi-temps-réel, dont la qualité va crescendo avec l'arrivé de nouvelles informations. En conclusion de ce travail de thèse, nous donnons des pistes pour appliquer la même méthodologie à d'autres domaines, en particulier au suivi des forêts tropicales et à la cartographie générique de l'occupation du sol
The future Earth observation space missions, Venµs and Sentinel (1 and 2), will provide us with a flow of data unseen in terms of spatial, spectral and temporal resolution. To use these data efficiently for the generation of land cover maps or change detection, we need fast, robust approaches that require as little supervision as possible. For instance, a concrete use of these data could be the identification, as early as May, of the area growing corn in all the South-West part of France. Or obtaining a monthly land cover map, in a slight delay, on large areas. Images alone don't allow us to reach such goals. Nevertheless, other information is available, which hasn't been really used. The main goal of this thesis is to identify available prior information, evaluate its revelance, and introduce it in preexisting processing chains to assess its contribution. We focused on agriculture monitoring. The information we used is knowledge on farming practices (crop rotations, irrigation, crop class alternation, etc) and the size and the topography of the fields. We mainly worked with 2 sources of prior knowledge: * Knowledge contained in databases such as the Registre Parcellaire Graphique (RPG). We used data mining methods to extract it. * Knowledge provided by experts. We modeled it with 1\up{st} order logic rules. One contribution of this thesis is the selection and assessment of a tool allowing us to extract and process information in a way that we can introduce it efficiently in preexisting classification algorithms: Markov Logic. Markov Logic is a statistical tool able to work with both information from databases and information modeled with logic rules. We show that using these data increases the quality of the land cover maps. We also show that this information allows us to obtain real time maps, whose quality increases with the arrival of new information. As a conclusion of this thesis work, we provide outlooks for applying the same methodology to other areas, such as the monitoring of tropical forests dans generic land cover mapping
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Martinet, Maxime. „Initiation et organisation d'un système fortement précipitant méditerranéen dans le cadre de période d'observation spéciale HyMeX : simulations aux échelles hectométriques“. Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30312.

Der volle Inhalt der Quelle
Annotation:
Les épisodes de pluies intenses qui affectent le pourtour Méditerranéen sont des phénomènes dangereux. Ils peuvent causer des crues éclair engendrant des dégâts matériels et humains importants. La prévision numérique du temps a aujourd'hui fait de nombreux progrès en particulier grâce à l'avènement des modèles de fine échelle. Cependant la prévision de ces épisodes de pluies intenses reste encore trop souvent imprécise. Par le passé, des études ont permis de mettre en évidence les ingrédients météorologiques principaux de ces phénomènes extrêmes. Cependant, certains mécanismes de fine échelle (microphysique et turbulence) et leurs interactions avec ceux de plus grande échelle sont encore mal connus. Le programme de recherche HyMeX vise notamment à améliorer la compréhension des processus impliqués dans ces évènements et leur représentation dans les modèles numériques en s'appuyant sur un jeu de données d'observations sans précédent. HyMeX a ainsi apporté des observations in-situ de systèmes fortement précipitants et de leur environnement, en amont, sur mer. L'objectif de ce sujet de thèse était d'analyser la représentation, dans les modèles à résolution hectométrique, des processus qui permettent l'initiation et l'organisation de la convection, en particulier sur mer. Le contexte météorologique et les systèmes précipitants de l'épisode convectif de la POI16a HyMeX ont d'abord été étudiés à partir des nombreuses observations et d'une simulation de référence à 2.5 km de résolution horizontale. L'environnement et les mécanismes d'initiation et d'organisation de la convection ont été analysés, mettant en évidence une initiation de la convection due à de la convergence dans un flux humide et instable de basses couches et à une plage froide sous orages. Cette dernière force le contournement du flux de basses couches renforçant localement la convergence. Cet épisode a ensuite été simulé à une résolution horizontale plus fine de 500 m. Cette gamme de résolution, vers laquelle les modèles opérationnels tendent actuellement, se situe au cœur la zone grise de la turbulence. La représentation des processus turbulents, entre représentation explicite et paramétrisation, y est délicate. Une étude de sensibilité à la paramétrisation de la longueur de mélange pour le schéma de turbulence a été réalisée. Elle a montré un fort impact à la fois sur l'environnement (notamment sur le vent et l'humidité dans les basses couches), sur la dynamique (vitesse verticale) et la microphysique (contenu en hydrométéores, intensité des précipitations et de la plage froide) dans le système précipitant. La longueur de mélange communément utilisée dans cette gamme de résolution produit moins de turbulence sous-maille et donne un système convectif plus intense. Enfin, pour s'extraire de la zone grise de la turbulence et des difficultés qui y sont associées, la résolution a été affinée jusqu'à l'échelle LES. La première simulation LES d'un cas réel de fortes précipitations sur la Méditerranée a été réalisée, avec une résolution horizontale de 150 m sur un grand domaine couvrant le nord-ouest du bassin méditerranéen (environ 900 millions de points). Elle a montré que la simulation, dans la zone grise de la turbulence, proposait une représentation de l'environnement similaire, mais un système convectif plus intense par rapport à la réalité de la LES. Une analyse préliminaire de la structure du système précipitant simulé a montré l'opportunité offerte par cette simulation LES pour étudier l'organisation à fine échelle des cellules convectives au cœur du système
Heavy precipitating events affecting the whole Mediterranean region are dangerous phenomena. They can cause flash floods leading to significant material and human damages. Numerical Weather Prediction (NWP) model made significant progress, especially through fine scale modeling. However, the prediction of these intense rainfall events remains imprecise. In the past, studies has already highlighted the major meteorological ingredients of these extreme phenomena. However, some fine scale mechanisms (microphysics and turbulence) and their interaction with larger scale are still not well known. The HyMeX research program is dedicated to improve the understanding of these processes and their representation in numerical models based on an unprecedented observations dataset. HyMeX also provides the first observations of heavy precipitating systems and their environment over the sea. The objective of this thesis is to analyze the representation of the processes participating in the initiation and the organization of convection in numerical models, especially over sea. The meteorological context and the precipitating systems of the POI16a convective event (26/10/2012) were first studied with numerous observations and a reference simulation realized at 2.5 km horizontal resolution. The environment, the initiation and the organisation mechanisms for convection have been analyzed, showing a convection initiation triggered by a convergence in humid and unstable low-level flow and by a cold pool under the storm playing a role of deflection of the low-level flow, reinforcing the convergence. This event was then simulated at a finer horizontal resolution of 500 m. This range of resolution, toward which the operational models curently operate, is located in the grey zone of the turbulence. The representation of turbulent processes between an explicit representation and parameterization is delicate. A sensitivity study to the turbulent mixing length was carried out. A strong impact is observed on both the environment (especially on the low-levels wind and humidity), the dynamic processes (vertical speed) and the microphysics in the precipitating system (hydrometeor content, precipitation and cold pool intensity). The mixing length commonly used in this range of resolution produces less subgrid turbulence and gives a more intense convective system. Finally, to extract from the grey zone of turbulence and the associated difficulties, the resolution was refined to the LES scale. The first LES simulation of a real heavy precipitating Mediterranean event was carried out with a horizontal resolution of 150 m on a large grid covering the north-west of the Mediterranean bassin (900 million points). The simulation in the grey zone of turbulence proposed a representation of the environment quite similar, but a convective system more intense compared to the reality of the LES. A rapid analysis of the simulated precipitating system structure showed the opportunity offered by this LES simulation to study the dynamic and the microphysical organization of the system at a finer scale
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Vincent, Stéphanie. „Les « altermobilités » : analyse sociologique d'usages de déplacements alternatifs à la voiture individuelle. Des pratiques en émergence ?“ Phd thesis, Université René Descartes - Paris V, 2008. http://tel.archives-ouvertes.fr/tel-00331659.

Der volle Inhalt der Quelle
Annotation:
Face aux grands enjeux environnementaux du 21ème siècle, les pratiques de déplacements automobiles se trouvent questionnées ; parallèlement des usages alternatifs à la voiture individuelle semblent émerger. Cette thèse cherche à évaluer la place sociale de ces « altermobilités » (covoiturage, vélo, transports en commun) et la manière dont elles sont réappropriées par les individus, principalement sur le trajet domicile-travail. Deux perspectives sont ainsi envisagées. Tout d'abord, à une échelle méso-sociale, il s'agit de rendre compte du cadre législatif et des acteurs qui portent ces altermobilités. Puis, le cœur de ce travail a été réalisé à l'échelle micro-individuelle. La méthode qualitative choisie, qui procède d'entretiens de vie centrés sur les modes de déplacements, permet de reconstruire les parcours biographiques des altermobilistes. L'analyse de ces parcours rend compte des processus et des déterminants des choix de mobilité ainsi effectués. Les résultats mettent en lumière des leviers d'action pour favoriser des usages altermobiles et propose des pistes de réflexion pour amener à des changements d'habitude de déplacements.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Sonon, Evariste Bivegnon. „Analyse des moyens nationaux et internationaux de contrôle du processus électoral en Afrique“. Cergy-Pontoise, 2008. http://www.theses.fr/2008CERG0366.

Der volle Inhalt der Quelle
Annotation:
Le contrôle du processus électoral reste l'un des défis politiques majeurs que l'Afrique doit relever dans le siècle qui commence, pour contenir les risques de dérapages et de conflits postélectoraux. L'une des priorités des nouveaux constituants africains et des acteurs politiques des années 1990 a été la mise en place d'une base juridique et institutionnelle pour encadrer la pratique électorale, longtemps biaisée par les interventions du pouvoir exécutif. Pour garantir l'égalité des candidats et la transparence des élections démocratiques, il a été convenu d'en confier l'organisation et la supervision à des organes neutres et indépendants du pouvoir politique. Cette étude s'attache à faire une analyse des différents moyens de contrôle des élections quant à l'application des exigences constitutionnelles et conventionnelles relatives aux droits de l'homme. Notre recherche s'interroge en premier lieu sur l'évolution du processus électoral à travers quelques exemples révélateurs, et vise à faire un bilan des moyens nationaux de contrôle des élections. La suspicion répandue de partialité des organes nationaux de contrôle, mais aussi des juges électoraux, conduit à suggérer des réformes de fond au plan interne. La deuxième partie de la recherche met en évidence l'engagement de la communauté internationale, depuis la chute du mur de Berlin, dans la promotion de la démocratie par le biais de l'observation des élections. La conditionnalité de l'octroi de l'aide publique au développement est désormais l'organisation d'élections libres et honnêtes dûment certifiées par des observateurs internationaux. Mais le suivi des rapports d'observation reste encore très limité pour des raisons géopolitiques
Control of the electoral process remains one of the political challenges related to the risk of slippages and post-electoral conflicts that Africa is facing at the beginning of the current century. One of the priorities of the new African constituents and political actors of the years 1990 was the establishment of a legal and institutional basis to oversee the electoral practice, long skewed by the interference of executive powers. To ensure equality among candidates and transparency of democratie elections, it was agreed to trust with neutral and independent bodies the organization and supervision of the process. The current study focuses on an analysis of various ways to control elections regarding the application of conventional and constitutional requirements relating to human rights. Our research primarily concems the evolution of the electoral process through some telling examples, and aims at evaluating some national tools of electoral processes monitoring. The widespread suspicion of partiality of national control bodies and election judges, leads to the suggestion of deep reforms domestically. The second part of the research highlights the commitment of the international community since the fall of the Berlin Wall in the promotion of democracy through the monitoring of elections. Organizing free and fair elections, duly certified by international observers has now become a pre-requisite condition for international aid grants. But proper follow-up of monitoring reports is still very limited for geopolitical reasons
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Lheureux, Edel. „Investigating Atlantic salmon (Salmo salar ) migration phenology using a long-term capture-recapture study : disentangling observation process from underlying ecological mechanisms using a Bayesian modelling approach“. Electronic Thesis or Diss., Pau, 2024. http://www.theses.fr/2024PAUU3028.

Der volle Inhalt der Quelle
Annotation:
Les activités humaines sont à l’origine d’une crise de la biodiversité sans précédent. Les espèces migratrices sont particulièrement menacées, parce que la migration est risquée, et rend en outre ces espèces dépendantes de multiples environnements et de leur connectivité. La phénologie, c’est-à-dire le rythme auquel une espèce réalise un événement de son cycle de vie, influe fortement le coût global de ce dernier. Dans cette thèse, je me concentre sur la phénologie de la première migration vers la mer du saumon atlantique (Salmo salar), un événement crucial dans son cycle de vie. Le changement climatique perturbe de plus en plus la phénologie de nombreuses espèces, y compris les espèces migratrices.Il modifie notamment les traits d’histoire de vie et les facteurs environnementaux qui déclenchent la migration. Il peut en résulter une asynchronie entre les conditions requises par l’espèce pendant, ou à la suite de la migration considérée. La compréhension des mécanismes sous-jacents aux changements phénologiques est essentielle pour prédire l’impact que ces perturbations pourraient avoir sur les espèces. Cependant, ces mécanismes restent mal compris en raison de données incomplètes et/ou d’approches inadéquates pour leur analyse statistique. Pour étudier la première migration vers la mer du saumon atlantique,j’ai utilisé un suivi à long terme (25 ans) par marquage-recapture dans le Scorff (Bretagne, France). Les données collectées en milieu naturel sont sujettes à des variations dans le processus d’observation qui peuvent masquer ou biaiser notre appréhension des processus biologiques sous-jacents. Ceci est particulièrement important lorsqu’un facteur environnemental (tel que le débit) influence à la fois l’observation (par exemple l’efficacité d’un piège) et le processus biologique(déclenchement de la migration). Pour éviter des interprétations erronées,je propose une approche de modélisation bayésienne hiérarchique et mécaniste qui sépare explicitement le processus d’observation (capture par piégeage) e tle processus dynamique d’intérêt (phénologie de la migration), les deux étant influencés par différents effets des facteurs environnementaux. Un premier modèle fournit une estimation des probabilités de capture et de leurs variations au cours du temps, ensuite utilisées dans un second modèle pour identifier les mécanismes de la phénologie de migration. Ce second modèle met en évidence l’importance de la température, du débit et de la variation du débit dans la décision de migration. Ces facteurs peuvent être perturbés par le changement climatique, je termine donc en explorant les conséquences possibles de ce dernier sur la phénologie et la taille des jeunes saumons lors de la migration vers la mer, les deux étant cruciales pour sa fitness. Ma thèse souligne l’importance de la modélisation mécaniste dans la compréhension des changements de la phénologie, et offre une perspective supplémentaire pour comprendre le déclin en cours des populations de saumon Atlantique
Human activities are at the root of an unprecedented biodiversity crisis. Migratoryspecies are particularly at risk, because migration is risky and makesthese species dependent on multiple environments and their connectivity. Phenology,i.e. the timing at which a species completes an event of its life cycle,has a strong influence on the overall cost of that event. In this thesis, I focuson the phenology of the first seaward migration of Atlantic salmon (Salmosalar, A. salmon), a crucial event in its life cycle. Climate change is increasing lydisrupting the phenology of many species, including migratory species. Inparticular, it is altering the life-history traits and environmental cues that triggermigration. This can result in asynchrony between the conditions required by the species during, or following, the migration in question. Understandingthe mechanisms underlying phenological changes is essential for predicting theimpact that these disturbances could have on species. However, these mechanismsremain poorly understood due to incomplete data and/or inadequateapproaches to their statistical analysis. To study the first seaward migration ofA. salmon, I used long-term (25 years) mark-recapture monitoring in the Scorffriver (Brittany, France). Data collected in the natural environment are subjectto variations in the observation process that can mask or bias our understandingof the underlying biological processes. This is particularly important whenan environmental factor (such as flow rate) influences both the observation (forexample, the effectiveness of a trap) and the biological process (triggering ofmigration). To avoid misinterpretations, I propose a hierarchical, mechanisticBayesian modelling approach that explicitly separates the observation process(capture efficiency) and the dynamic process of interest (migration phenology),both of which are influenced by different effects of environmental factors. Afirst model provides an estimate of capture probabilities and their variationsover time, which are then used in a second model to identify the mechanisms ofmigration phenology. This second model highlights the importance of temperature,discharge and discharge variation in the migration decision. These factorsmay be disrupted by climate change, so I conclude by exploring the possibleconsequences of climate change on the phenology and size of young salmonduring their migration to the sea, both of which are crucial to their fitness. Mythesis highlights the importance of mechanistic modelling in understandingchanges in phenology, and offers an additional perspective for understandingthe ongoing decline in Atlantic salmon populations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Thurin, Jean-Michel. „Caractériser et comprendre le processus de changement des psychothérapies complexes : modélisation des processus, mécanismes et conditions des changements associés à la psychothérapie de 66 enfants et adolescents présentant des troubles du spectre autistique“. Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCB104/document.

Der volle Inhalt der Quelle
Annotation:
La méthodologie de l’évaluation en psychothérapie s’est longtemps limitée aux résultats issus d’essais cliniques comparatifs de groupes. L’objectif, engagé dans les années 2000, de comprendre ce qui cause son efficacité a engagé un renouvellement méthodologique. Son application concrète est peu documentée. La première partie présente, à partir d’une revue de la littérature centrée sur l’introduction de la recherche sur le processus associée aux résultats, comment le paradigme interactionnel multifactoriel de la psychothérapie a stimulé le développement de méthodes adaptées à la complexité et à l’observation en conditions naturelles. La seconde partie introduit autour de cinq axes principaux les questions méthodologiques générales et spécifiques de cette nouvelle orientation : 1. une épistémologie interactionnelle et transactionnelle ; 2. Un recentrage sur les études mixtes intensives de cas ; 3. Une investigation clinique et théorique multifocale des processus et mécanismes de changement ; 4. une forte relation clinicien-chercheur ; 5. une approche statistique innovante. La troisième partie expose l’expérience et les questions soulevées par la mise en œuvre de ce programme dans le cadre d’un réseau de recherche clinique centré sur les pratiques, du recueil des données jusqu’à l’analyse des processus et mécanismes de changement, et les résultats qui en sont issus. La quatrième partie présente une revue détaillée de la littérature. Ce travail devrait favoriser les collaborations avec les disciplines connexes et l’efficience des traitements par une meilleure connaissance des conditions et des mécanismes de changement associée au développement d’une base de données issue d’études de cas
The methodology of assessment in psychotherapy has long been limited to results from comparative group clinical trials. The objective, expressed in the 2000s, to understand what is causing its effectiveness has involved a methodological renewal. Its concrete application is poorly documented. The first part presents, from a review of the literature focusing on the introduction of research on the process associated with outcomes, how the multifactorial interactional paradigm of psychotherapy has stimulated the development of methods adapted to the complexity and observation in natural conditions. The second part introduces the general and specific methodological questions of this new orientation around five main axes: 1. an interactional and transactional epistemology; 2. A refocusing on intensive mixed case studies; 3. A multifocal clinical and theoretical investigation of the processes and mechanisms of change; 4. a strong clinical-researcher relationship; 5. an innovative statistical approach. The third part presents the experience and issues raised by the implementation of this program as part of a practice-oriented clinical research network, from data collection to analysis of processes and mechanisms of change, and results. The fourth part presents a detailed review of the literature. This work should foster collaborations with related disciplines and treatment efficiency through a better understanding of the conditions and mechanisms of change associated with the development of a case study database
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Chainais, Pierre. „Processus aléatoires invariants d'échelle et analyse multirésolution pour la modélisation d'observations de systèmes physiques“. Habilitation à diriger des recherches, Université Blaise Pascal - Clermont-Ferrand II, 2009. http://tel.archives-ouvertes.fr/tel-00808965.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Chevalier, Stéphanie. „Inférence logique de réseaux booléens à partir de connaissances et d'observations de processus de différenciation cellulaire“. Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG061.

Der volle Inhalt der Quelle
Annotation:
Les modèles dynamiques sont des outils importants pour l'exploration des mécanismes de régulation en biologie.Les travaux de cette thèse sont guidés par le besoin exprimé en biologie du développement et en cancérologie d'inférer automatiquement des réseaux booléens reproduisant des processus de différenciation cellulaire.En considérant les observations et les connaissances que les modélisateurs ont à disposition, ce mémoire de thèse présente une approche qui permet de modéliser la richesse de ce comportement cellulaire en inférant l’ensemble des réseaux booléens compatibles tout en passant à l’échelle des réseaux de régulation couramment considérés en biologie.Afin de développer cette méthode, les travaux présentés se décomposent en trois contributions principales.La première contribution est la proposition d'un cadre formel sur les propriétés des données collectées pour étudier la différenciation cellulaire. Ce cadre permet de raisonner sur les propriétés dynamiques souhaitées au sein des réseaux booléens pour qu’ils soient compatibles avec ce comportement cellulaire.La deuxième contribution porte sur l'encodage du problème d’inférence de modèles comme un problème de satisfiabilité booléenne dont les solutions sont les réseaux booléens compatibles avec les données biologiques. Pour cela, des contraintes sur la dynamique des réseaux booléens correspondant aux propriétés précédemment formalisées ont été implémentées en programmation logique.La dernière contribution est l’application à des problématiques biologiques réelles de la méthode d’inférence de modèles, nommée BoNesis, qui a été développée grâce aux contraintes créées. Ces applications ont montré l’apport de l’inférence d’ensemble de modèles pour l’analyse de processus et illustré la méthodologie de modélisation, de la préparation des données biologiques à l’analyse des modèles inférés
Dynamic models are essential tools for exploring regulatory mechanisms in biology. This thesis was guided by the need expressed in oncology and developmental biology to automatically infer Boolean networks reproducing cellular differentiation processes.By considering observations and knowledge that the modelers have at their disposal, this thesis presents an approach that allows to model the richness of this cellular behavior by inferring all the compatible Boolean networks at that scale of the regulatory networks commonly considered in biology.To develop this method, three main contributions are presented.The first contribution is a formal framework of the properties of data collected to study cellular differentiation. This framework allows reasoning about the desired dynamic properties within Boolean networks to be consistent with this cellular behavior.The second contribution concerns the encoding of the model inference problem as a Boolean satisfiability problem whose solutions are the Boolean networks compatible with the biological data. For this, constraints on the dynamics of Boolean networks corresponding to the previously formalized properties have been implemented in logic programming.The last contribution was to apply to real biological problems the model inference method, named BoNesis, which was developed thanks to the constraints. These applications showed the benefit of inferring a set of models for the process analysis and illustrated the modeling methodology, from the preparation of biological data to the analysis of the inferred models
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Rojas, Muñoz Oscar Javier. „Le rôle des nuages et des processus de surface sur la variabilité de la température à l'échelle locale : analyse d'observations multi-variables“. Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASJ016.

Der volle Inhalt der Quelle
Annotation:
La dynamique de grande échelle domine au premier ordre les variations de température de surface et les conditions atmosphériques en Europe occidentale. Cependant, cette circulation des masses d'air à grande échelle n’explique pas à elle seule l’ensemble de la variabilité des températures et des précipitations. Au second ordre, cette variabilité dépend de processus de petite échelle via la couche limite atmosphérique et le bilan d’énergie à la surface (SEB), qui dépend lui-même en grande partie du rayonnement et donc des propriétés des nuages.L'objectif de cette thèse est de mieux comprendre les processus locaux et leur influence sur la variabilité climatique locale, avec une attention particulière sur le rôle des nuages .Pour cela, le premier objectif est de quantifier la contribution locale spécifique des principaux termes du SEB agissant sur les variations de température à court terme (i.e. horaire) en Ile de France, et de déterminer leur importance et les conditions dans lesquelles l’un ou l’autre de ces termes sera prépondérant. Les quatre termes agissant sur les variations de température sont le rayonnement (que l’on peut séparer en contribution du ciel clair et des nuages), l'échange de chaleur avec l’atmosphère, l'échange de chaleur avec le sol, et l'advection de température. Nous développons le modèle OTEM qui permet d’estimer ces termes en s’appuyant quasiment exclusivement sur des observations, grâce au jeu de données SIRTA-ReOBS. Nous montrons que la somme de ces quatre termes donne une bonne estimation des variations horaires de température. Le poids de chaque terme du SEB sur les variations horaires de température est analysé à l'aide de la méthode des forêts aléatoires, dont le principal avantage est sa capacité à traiter des milliers de variables d'entrée et identifier les plus significatives. Cette analyse a montré que quelle que soit la saison, les nuages sont le principal modulateur de l’effet du soleil sur les variations de température en une heure pendant la journée, et ils dominent complètement pendant la nuit.Le deuxième objectif est l’étude du rôle spécifique des nuages dans les variations de température. Pour cela, d'autres observations incluant des profils lidar ont été utilisés, exclusivement dans des conditions nuageuses. Plusieurs cas ont été créés à partir de l’effet radiatif des nuages pendant le jour et la nuit pour (i) mieux comprendre comment ils affectent l’état de l’atmosphère et donc des autres variables à la surface, et (ii) caractériser le type des nuages prédominants en fonction de leur effet radiatif.Finalement, nous étudions la variabilité spatio-temporelle des résultats obtenus précédemment : (1) variabilité spatiale en appliquant la même méthode au site de la Météopole à Toulouse pour comprendre comment les conditions spécificités locales affectent chacun des termes impliqués dans les variations de température de surface ; (2) variabilité en fonction des conditions de circulation de l’air à grande échelle en séparant nos résultats en fonction des régimes de temps nord-atlantique
Large-scale dynamics dominate the surface temperature variations and atmospheric conditions in Western Europe to the first order. However, this large-scale air mass circulation alone does not explain all the temperature and precipitation variability. At the second order, this variability depends on small-scale processes via the atmospheric boundary layer and the surface energy balance (SEB), which itself depends largely on radiation and thus on cloud properties.The objective of this thesis is to better understand local processes and their influence on local climate variability, with a particular focus on the role of clouds.To do so, the first objective is to quantify the specific local contribution of the main SEB terms acting on short-term (i.e. hourly) temperature variations in Ile de France, and to determine their importance and the conditions under which one or the other of these terms will be preponderant. The four terms acting on the temperature variations are radiation (which can be separated into clear sky and cloud contribution), heat exchange with the atmosphere, heat exchange with the ground, and temperature advection. We develop the OTEM model that allows us to estimate these terms almost exclusively from observations, using the SIRTA-ReOBS dataset. We show that the sum of these four terms gives a good estimate of the hourly temperature variations. The weight of each term of the SEB on the hourly temperature variations is analyzed using the random forest method, whose main advantage is its ability to handle thousands of input variables and identify the most significant ones. This analysis showed that regardless of the season, clouds are the main modulator of the sun's effect on hourly temperature variations during the day, and they completely dominate during the night.The second objective is to study the specific role of clouds in temperature variations. For this purpose, other observations including lidar profiles have been used, exclusively under cloudy conditions. Several cases were created from the radiative effect of clouds during the day and night to (i) better understand how they affect the state of the atmosphere and thus other variables at the surface, and (ii) characterize the type of predominant clouds according to their radiative effect.Finally, we investigate the spatio-temporal variability of the previously obtained results: (1) spatial variability by applying the same method to the Meteopole site in Toulouse to understand how local specific conditions affect each of the terms involved in the surface temperature variations; (2) variability as a function of large-scale air circulation conditions by separating our results as a function of North Atlantic weather patterns
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Rohmer, Tom. „Deux tests de détection de rupture dans la copule d'observations multivariées“. Thèse, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/5933.

Der volle Inhalt der Quelle
Annotation:
Résumé : Il est bien connu que les lois marginales d'un vecteur aléatoire ne suffisent pas à caractériser sa distribution. Lorsque les lois marginales du vecteur aléatoire sont continues, le théorème de Sklar garantit l'existence et l'unicité d'une fonction appelée copule, caractérisant la dépendance entre les composantes du vecteur. La loi du vecteur aléatoire est parfaitement définie par la donnée des lois marginales et de la copule. Dans ce travail de thèse, nous proposons deux tests non paramétriques de détection de ruptures dans la distribution d’observations multivariées, particulièrement sensibles à des changements dans la copule des observations. Ils améliorent tous deux des propositions récentes et donnent lieu à des tests plus puissants que leurs prédécesseurs pour des classes d’alternatives pertinentes. Des simulations de Monte Carlo illustrent les performances de ces tests sur des échantillons de taille modérée. Le premier test est fondé sur une statistique à la Cramér-von Mises construite à partir du processus de copule empirique séquentiel. Une procédure de rééchantillonnage à base de multiplicateurs est proposée pour la statistique de test ; sa validité asymptotique sous l’hypothèse nulle est démontrée sous des conditions de mélange fort sur les données. Le second test se focalise sur la détection d’un changement dans le rho de Spearman multivarié des observations. Bien que moins général, il présente de meilleurs résultats en terme de puissance que le premier test pour les alternatives caractérisées par un changement dans le rho de Spearman. Deux stratégies de calcul de la valeur p sont comparées théoriquement et empiriquement : l’une utilise un rééchantillonnage de la statistique, l’autre est fondée sur une estimation de la loi limite de la statistique de test. // Abstract : It is very well-known that the marginal distributions of a random vector do not characterize the distribution of the random vector. When the marginal distributions are continuous, the work of Sklar ensures the existence and uniqueness of a function called copula which can be regarded as capturing the dependence between the components of the random vector. The cumulative distribution function of the vector can then be rewritten using only the copula and the marginal cumulative distribution functions. In this work, we propose two non-parametric tests for change-point detection, particularly sensitive to changes in the copula of multivariate time series. They improve on recent propositions and are more powerful for relevant alternatives involving a change in the copula. The finite-sample behavior of these tests is investigated through Monte Carlo experiments. The first test is based on a Cramér-von Mises statistic and on the sequential empirical copula process. A multiplier resampling scheme is suggested and its asymptotic validity under the null hypothesis is demonstrated under strong mixing conditions. The second test focuses on the detection of a change in Spearman’s rho. Monte Carlo simulations reveal that this test is more powerful than the first test for alternatives characterized by a change in Spearman’s rho. Two approaches to compute approximate p-values for the test are studied empirically and theoretically. The first one is based on resampling, the second one consists of estimating the asymptotic null distribution of the test statistic.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Aulagnier, Céline. „Apport d'un modèle de transport méso-échelle sur l'estimation des sources et puits de CO2 à l'échelle régionale européenne par inversion du transport et assimilation d'observations in-situ“. Paris 6, 2009. http://www.theses.fr/2009PA066327.

Der volle Inhalt der Quelle
Annotation:
Le transport atmosphérique relie directement la variabilité des flux de CO2 anthropiques et des puits de carbone naturels aux variations de concentrations atmosphériques. De nombreuses études (1990-2000) se sont penchées sur la résolution du problème inverse : déterminer, en utilisant un modèle numérique du transport, les flux de CO2 en accord "optimal" avec les mesures de concentration. L'originalité du travail de thèse était 1) de simuler la concentration en CO2 à une résolution rarement atteinte sur l'ensemble du continent Européen, et 2) d'inverser les flux à la plus haute résolution possible, celle du modèle de transport. Dans un premier temps, on a donc évalué la capacité du modèle de transport à reproduire les variations décennales, diurnes et synoptiques observées. Dans un second temps, on a inséré le code adjoint du modèle dans un nouveau schéma d'inversion variationnelle développé au laboratoire, puis estimé la distribution "optimale" des flux et leurs incertitudes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie